Jak skutecznie się uczyć?
Francis Bacon – angielski filozof z przełomu XV i XVI wieku – pisał, iż wiedza to potęga. Niektórzy wyprowadzają z tego stwierdzenia błędny wniosek, iż ludzie posiadający władzę, dysponują sporą wiedzą. Wniosek jest błędny logicznie: to, że wiedza daje władzę, nie oznacza, że władza musi opierać się na wiedzy. Wniosek jest również błędny empirycznie: wiedza nie jest czymś, co nam kiedykolwiek będzie dane za darmo. Zdobycie wiedzy jest zadane, a więc mózg musi się nieźle nagimnastykować, aby ją posiąść. Człowiek ustawicznie się uczy, a jak wiemy z własnych doświadczeń, nie jest to ani łatwe, ani przyjemne.
Mózg wykazuje trzy słabości, jeśli chodzi o uczenie się nowego materiału. Po pierwsze, nie lubi uczyć się pod presją, na przykład ważnego egzaminu. Po drugie, nie znosi uczyć się dat i prostych faktów: jakie były imiona królów Polski, kiedy miała miejsce bitwa nad Bzurą i jaki jest wzór dwumianowy Newtona? Prawdopodobnie każdy z nas uczył się tego dawno temu w szkole, a potem wszystko lub prawie wszystko zapomniał. I tak przechodzimy do trzeciej słabości uczącego się mózgu: tak jak można się czegoś nauczyć, tak samo można się czegoś oduczyć. Zdobywanie wiedzy nie jest drogą jednokierunkową.
Pamiętając o tych wszystkich słabościach, musimy podkreślić, że ludzki mózg jest mistrzem uczenia się. Ptaki fruwają, ryby pływają, a ludzie uczą się. Wymienione trzy problemy, dające o sobie znać przede wszystkim w szkole i na studiach, są ceną, jaką płacimy za bycie gatunkiem najlepiej spośród wszystkich zwierząt przyswajającym informacje.
Przetwarzanie danych
Czym jest zatem informacja wewnątrz naszej głowy, której musimy się nauczyć? Odpowiedź jest względnie prosta, gdy pomyślimy o informacji przetwarzanej przez komputer. Urządzenia te umieszczają pakiety danych pod odpowiednimi adresami, a dane posiadające swoją lokalizację stają się informacją. Przypomina to organizację biblioteki, w której książki umieszczane są na półkach według systemu ułatwiającego ich późniejsze znalezienie.
Sytuacja wygląda inaczej w mózgu, w którym nie ma ani prostych danych, ani ustalonej lokalizacji ich magazynowania. Gdyby ktoś poprosił nas, abyśmy pomyśleli o naszej babci, w naszym mózgu nie aktywizowałby się „babciny neuron”, choć w przeszłości badacze tak właśnie uważali („grandmother cells”). Cała sieć neuronalna przyjęłaby raczej pewien stan aktywności i to właśnie w takim stanie, w którym komórki wzajemnie się pobudzają, zakodowana jest informacja o naszej babci. Jeśli brzmi to zbyt abstrakcyjnie, można mózg przyrównać do orkiestry.
Gdy obserwuje się orkiestrę, która nie gra, nie sposób wiedzieć, jakie utwory muzycy mają w swoim repertuarze. Muzyka pojawia się, gdy muzycy grają razem w synchronizowany sposób. Podobnie neurony dostrajają własną aktywność do aktywności całej sieci neuronalnej. Tak jak muzyka nie tkwi gdzieś w orkiestrze, lecz jest formą współpracy muzyków, tak myśl nie tkwi gdzieś w mózgu, lecz jest formą interakcji neuronów. Taki sposób kodowania informacji ma swoje korzyści. Orkiestra jest w stanie zagrać zupełnie różne utwory poprzez nową formę synchronizacji aktywności indywidualnych muzyków. Mózg generuje zupełnie nowe myśli drogą zmiany aktywności połączeń synaptycznych między neuronami. Ponadto, liczy się nie tylko aktualny wzorzec aktywności neuronów – reprezentujący określoną myśl, ale również jego natężenie, co odpowiada dynamice muzyki, kiedy artyści grają głośniej (forte) lub ciszej (piano). A zatem pytanie „ile myśli może wygenerować nasz mózg?” jest tego samego rodzaju pytaniem, co „ile utworów może zagrać dobra orkiestra?”.
Obojętnie jak użyteczne okazało się porównanie mózgu do orkiestry, istnieje jedna fundamentalna różnica: mózg nie „zatrudnia” dyrygenta. W orkiestrze dyrygent określa tempo synchronicznego grania, w mózgu – same neurony muszą dostroić się do swoich sąsiadów. Robią to według reguły Hebba: połączenia synaptyczne często używane podwyższają swoją przepustowość, te zaś, których mózg nie używa, słabną lub wręcz są eliminowane. Informacja ważna, często przetwarzana i zapisana w przepustowych łączach, jest łatwiej odzyskiwana.
Taki neuronalny system przetwarzania informacji jest niezwykle wydajny. Mózg jest znacznie bardziej elastyczny niż komputer, nie wymaga nadzoru i może dostosować się do przeróżnych warunków środowiskowych. Jednak ta rozproszona i relacyjna metoda uczenia się ma też swoje słabe strony. Proces budowy przepustowych połączeń między neuronami podlega wahaniom, czyli biologicznym fluktuacjom zależnym od stężenia związków, natężenia pól, czy losowych szumów informacyjnych. W konsekwencji nie zawsze uczymy się równie dobrze. Szczególnie to widać, gdy pracujemy w warunkach stresu.
Uczenie i stres
Zacznijmy od dobrych wiadomości: stres nie blokuje uczenia się. Wręcz przeciwnie, potrafi je przyspieszyć. W warunkach ostrej reakcji stresowej – kiedy na przykład przestraszyliśmy się – neuroprzekaźnik noradrenalina aktywizuje te części mózgu, które skupiają naszą uwagę. Mniej więcej dwadzieścia minut później włącza się kortyzol, wyciszający dystraktory pochodzące z sąsiadujących komórek, czyli szum tła. Dzięki tym dwóm związkom potrafimy się ponadprzeciętnie skoncentrować. Wniosek jest taki, że w stresie nauka może nam dobrze pójść, na przykład kiedy przechodzimy przez ulicę i drogę zajeżdża nam samochód – zapamiętamy to sobie na poczet przyszłych podobnych zdarzeń. Identycznie bywa, gdy jesteśmy pozytywnie zestresowani – większość z nas nie zapomina swojego pierwszego pocałunku, nawet jeśli z tą osobą był to pocałunek jedyny.
Zupełnie inna sytuacja ma miejsce, gdy treść do nauczenia nie ma związku ze stresem. Gdy badani są poddawani stresowi, poprzez trzyminutowe zanurzenie dłoni w lodowatej wodzie i jednocześnie zapamiętują listę słów, kilka dni później pamiętają słowa kojarzące się z niską temperaturą („zimno”, „woda”), ale nie pamiętają słów neutralnych („przyjęcie”, „kwadrat”). Mózg w stanie stresu koncentruje się wyłącznie na informacji związanej ze stresem, a cała reszta staje się tłem. Ponadto informacja, na której się koncentruje, ma przede wszystkim emocjonalny charakter (ból po dotknięciu gorącego pieca jest znacznie ważniejszy niż marka pieca). Fakty są nudne, co prowadzi nas do kolejnej słabości uczącego się mózgu.
Słowa bez kontekstu
Kiedy próbujemy zapamiętać listę losowo dobranych słów, dane techniczne urządzenia lub podręcznikowe fakty niepowiązane z naszym życiem, możemy pomóc sobie technikami mnemonicznymi, opowiedzeniem historii wplatającej owe słowa, dane lub fakty, czy też stosowną wizualizacją. Paradoks polega jednak na tym, że kiedy aplikujemy owe metody skutecznego zapamiętywania, tak naprawdę zwiększamy ilość informacji, którą mamy do nauczenia. Zmusiliśmy samych siebie do nauczenia dodatkowej informacji, po to, by zapamiętać informację początkową.
Dlaczego paradoks „więcej może oznaczać łatwiej” ma znaczenie? Słowa na liście są dowolnie dobrane i nie mają związku z kontekstem naszego życia. Dlaczego mielibyśmy się trudzić i zapamiętywać je? Nasz mózg dobrze uczy się nowych rzeczy, ale nie dotyczy to surowej, nieobrobionej informacji, oderwanej od świata, w którym działamy. Oscyloskop? Pokój brzeski? Nagonasienne? Mózg nie uczy się niczego mechanicznie na pamięć, a następnie nie przechowuje tego gdzieś. Raczej, organizuje wiedzę. Dla naszego mózgu pakiety nieuporządkowanej informacji są całkowicie bezużyteczne i nieciekawe.
Możemy znów wykorzystać porównanie z orkiestrą. Muzycy nie uczą się grać nowego utworu drogą sekwencyjnego grania kolejnych nut – przypominałoby to uczenie się na pamięć, faktów po faktach. Muzycy rozpoznają relacje między nutami i sposób, w jaki te relacje przekształcają się w melodię. W procesie uczenia się to kontekst pozwala wydajnie opanowywać informację, co pokazuje następujący prosty eksperyment. Badani byli proszeni, by znaleźć na obrazku przedmiot umieszczony gdzieś w mieszkaniu, na przykład mydło w łazience. Mimo iż nie byli proszeni o zapamiętanie czegokolwiek, znacznie lepiej pamiętali nazwy przedmiotów w ich naturalnym kontekście (mydło w łazience, lodówka w kuchni), niż te same nazwy w formie listy słów. Choć wygląda to zaskakująco, potrzebna jest dodatkowa informacja (kontekst), by zapamiętać informację bazową (przedmiot).
Aby zrozumieć korelacje kontekstu słowa z jego znaczeniem, mózg musi uczyć się z przerwami. W ostatnim numerze „Eurologistics” pisałem o aktywnym zapominaniu, kiedy mózg poświęca część pamięci dla niepamięci po to, by elastyczniej myśleć. Coś podobnego dzieje się podczas uczenia się, które jest wydajne, gdy obfituje w przerwy. Przeprowadzono eksperyment, w którym badani mieli zidentyfikować styl malarski artysty. Pierwsza grupa badanych zobaczyła serię sześciu obrazów tego samego artysty, a następnie serie po sześć obrazów kolejnych czterech artystów. Druga grupa zobaczyła wszystkie te obrazy w wymieszanej kolejności, bez jakiegokolwiek porządku. Badani z grupy drugiej znacznie lepiej identyfikowali kolejne obrazy według stylu artysty. Dopiero po krótkiej przerwie w eksponowaniu obrazów jednego artysty (wariant wymieszany), mózg jest w stanie w pełni przetworzyć informację o kolejnym egzemplarzu tego rodzaju. Uczenie się wymaga robienia przerw, czytania kilku książek na raz, interesowania się tematami pozazawodowymi.