Psychologia poznawcza Edward Nęcka Jarosław Orzechowski Błażej Szymura A C A D E M I C A W y d a w n i c t w o SWPS ą W Y D A W N IC T W O WARSZAWA 2 0 0 6 NAUKOWE PWN Spis treści P rzed m ow a................................................................................... 13 Prolog Rozdział Umysł i pozn an ie ............................................................................................................. 1.1. Poznanie - umysł - d z ia ła n ie ............................................................................................... 1.1.1. Umysł jako system przetwarzania in fo rm acji....................................................... 1.1.2. Jedność poznania i d ziałan ia..................................................................................... 1.2. Psychologia poznawcza: dziedzina czy paradygm at........................................................ 1.2.1. Narodziny i rozwój psychologii poznaw czej........................................................... 1.2.2. Psychologia a inne dziedziny badań nad poznaniem ............................................ 1.2.3. Metody badań nad poznaniem ................. ................................................................. 1.3. Ogólna architektura u m y słu ................................................................................................. 1.3.1. Blokowe modele u m y słu ............................................................................................ 1.3.2. Koncepcja poziomów p rz etw arz an ia....................................................................... 1.3.3. Umysł jako system m odułow y ...................................................................... 1.3.4. Sieciowe modele u m y słu ............................................................ 1.4. P odsum ow anie........................................................................................................................ 21 23 23 29 31 31 34 37 45 46 49 51 53 56 Część I. Reprezentacje poznawcze Rozdział Istota i forma reprezentacji u m ysłow ych ................................. 2.1. Pojęcie reprezentacji um ysłow ej.......................................................................................... 2.1.1. Reprezentacje a procesy poznaw cze......................................................................... 2.1.2. Realizm a k o n stru k ty w izm ........................................................................................ 2.1.3. Rodzaje reprezentacji umysłowych........................................................................... 2.2. Reprezentacje obrazow e........................................................................................................ 2.2.1. Wyobraźnia, wyobrażenia i obrazy um ysłowe........................................................ 2.2.2. Teoria reprezentacji obrazowych Kosslyna............................................................. 59 60 60 61 62 64 64 65 b Spis treści 2.2.3. Hipoteza funkcjonalnej ekwiwalencji percepcji i w yobraźni............................. 2.2.4. Rotacje m e n ta ln e ........................................................................................................ 2.2.5. Skaning m en taln y ........................................................................................................ 2.2.6. Krytyka stanowiska o b razo w ego............................................................................. 2.3. Reprezentacje w e rb a ln e ........................................................................................................ 2.3.1. Weryfikacja sylogizmów i treści zd ań ...................................................................... 2.3.2. Teoria podwójnego k o d o w a n ia ............................................................................... 2.3.3. Słowo i obraz - wzajemne r e la c je .......................................................................... 2.3.4. Reprezentacje n u m e ry c z n e ...................................................................................... 2.4. Pierwotność czy wtórność nietrwałych reprezentacji um ysłow ych............................. 2.4.1. Hipoteza języka m y śli................................................................................................ 2.4.2. Teoria pierwotnych reprezentacji w formiezbioru sądów Pylyshyna................ 2.4.3. Teoria modeli mentalnych Johnson-Lairda............................................................ 2.4.4. Stanowisko eklektyczne w sporze o kod reprezentacji u m ysłow ych.............. 2.5. Podsum ow anie......................................................................................................................... Rozdział Pojęcia i sc h e m a ty .......................................................................... 3.1. Konstrukt reprezentacji pojęciow ej.................................................................................... 3.1.1. Istota i funkcje reprezentacji pojęciow ych...................................... 3.1.2. Ogólne właściwości p o ję ć ......................................................................................... 3.1.3. Pojęcia matrycowe i n atu raln e.................................................................................. 3.2. Struktura i funkcjonowanie reprezentacji pojęciow ych................................................ 3.2.1. Teorie k lasyczne.......................................................................................................... 3.2.2. Teorie probabilistyczne.............................................................................................. 3.2.3. Teorie prototypów ........................................................................................................ 3.2.4. Teorie egzem plarzy..................................................................................................... 3.2.5. Porównanie koncepcji reprezentacji pojęciowych................................................ 3.3. Dynamiczna koncepcja umysłu, czyli o relacjach między p o jęciam i.......................... 3.3.1. Teorie sieci sem an ty c zn ej......................................................................................... 3.3.2. Złożone struktury sieciow e....................................................................................... 3.3.3. Teoria schem atów ........................................................................................................ 3.3.4. Teoria r a m .................................................................................................................... 3.3.5. Teoria planów, scen i te m a tó w ............................................................................... 3.3.6. Porównanie koncepcji struktur sieciowych............................................................ 3.4. Podsum ow anie......................................................................................................................... Rozdział W ied za 4.1. Rodzaje wiedzy......................................................................................................................... 4.1.1. Wiedza deklaratywna i p ro ced u raln a...................................................................... 4.1.2. Wiedza jawna i niejaw na......................................................................................... . 4.2. Organizacja wiedzy................................................................................................................. 4.2.1. Reprezentacja wiedzy za pomocą cech ................................................................... 4.2.2. Organizacja wiedzy sem an ty czn ej................ 4.2.3. Organizacja wiedzy proceduralnej: systemy reg u ł................................................. 4.2.4. Organizacja wiedzy w modelach ACT, ACT*i A C T -R ........................................ 66 67 72 75 76 76 80 82 86 89 89 91 95 96 97 98 99 99 100 102 103 103 108 112 123 125 126 126 128 129 132 133 134 135 136 138 138 140 148 148 151 157 159 Spis treści 4.3. Nabywanie w ied z y ............................................................ 4.3.1. Nabywanie wiedzy sem antycznej.............................................................................. 4.3.2. Nabywanie wiedzy proceduralnej.............................................................................. 4.3.3. Nabywanie wiedzy niejaw nej..................................................................................... 4.4. Wiedza ekspercka..................................................................................................................... 4.4.1. Kryteria i właściwości wiedzy ek sp erck iej............................................................. 4.4.2. Nabywanie wiedzy eksperckiej................................................................................... 4.5. Podsum ow anie......................................................................................................................... 7 163 163 164 166 168 168 173 174 Część II. Elementarne procesy poznawcze Rozdział Uwaga i św iad om ość......................................................................... \n 5.1. Istota i aspekty uw agi................................................................................................................. 5.2. Teorie u w a g i............................................................................................................................... 5.2.1. Teorie selekcji źródła informacji ........................................................................... 5.2.2. Teorie przeszukiwania pola percepcyjnego................... 5.2.3. Teorie przedłużonej koncentracji.............................................................................. 5.2.4. Teorie podzielności...................................................................................................... 5.2.5. Teorie p rzerzutności.................................................................................................... 5.3. Uwaga, percepcja i (nie)świadom ość...................................................................................... 5.3.1. Analiza wskazówek peryferycznych......................................................................... 5.3.2. Reakcje na informacje odrzucane.............................................................................. 5.3.3. Poprzedzanie podprogowe.......................................................................................... 5.4. Podsum ow anie......................................................................................................................... 178 186 187 195 200 209 217 221 223 224 225 ,228 Rozdział Kontrola poznawcza........................................................................... 229 6.1. Czynności automatyczne i autom atyzacja............................................................................ 231 6.1.1. Kryteria automatyczności p rzetw arzan ia............................................................... 231 6.1.2. Schneidera i Shiffrina teoria k o n tin u u m ............................................................... 233 239 6.1.3. Logana teoria rywalizacji egzemplarzy.................................................................... 6.1.4. Konsekwencje automatyzacji czynności.................................................................. 248 6.2. Hamowanie jako mechanizm kontrolny................................................................................. 251 6.2.1. Istota i funkcje ham o w ania....................................................................................... 251 6.2.2. Hamowanie dominującej re a k c ji.............................................................................. 253 6.2.3. Odporność na dystrakcję............................................................................................ 255 6.2.4. Odporność na interferencję proaktyw ną................................. 261 6.2.5. Czy hamowanie jest konstruktem jednorodnym ?................................................. 262 6.3. Funkcje z a rz ą d c z e ............................................................................................ 6.3.1. Istota funkcji zarządczych czyli homunculus o d n a le z io n y ................................ 266 6.3.2. Rodzaje funkcji zarządczych..................................................................................... 267 6.3.3. Mechanizm zarządczy w koncepcji uwagi P o sn e ra .............................................. 269 B Spis treści 6.3.4. Dwustopniowy system kontroli zachowania w koncepcji Shallice’a .............. 6.3.5. Centralny system wykonawczy pamięci roboczej w modelu B addeleya 6.4. Podsum ow anie....................................................................... Rozdział / Percepcja................... 7.1. Podstawowe właściwości p e rce p cji.................................................................................... 7.1.1. Recepcja sensoryczna i percepcja umysłowa.......................................................... 7.1.2. Naiwne koncepcje sp ostrzegania............................................................................. 7.1.3. Spostrzeganie a rozpoznawanie wzorców............................................................... 7.2. Spostrzeganie jako proces o d d o ln y .................................................................................... 7.2.1. Odbiór i kodowanie wrażeń zm ysłowych............................................................... 7.2.2. Magazyny informacji sensorycznej........................................................................... 7.2.3. Spostrzeganie g łę b i..................................................................................................... 7.2.4. Identyfikacja obiektu................................................................................................... 7.3. Spostrzeganie jako proces o d g ó rn y .................................................................................... 7.3.1. Stałość sp o strz e g a n ia .................................................................................... 7.3.2. N asta w ie n ie ................................................................................................................. 7.3.3. Złudzenia i błędy p ercep cji.................................... 7.3.4. Wpływ kontekstu na sp o strzeg an ie........................................................................ 7.4. Teorie p e rc e p c ji...................................................................................................................... 7.4.1. Teoria aso cjacjonistyczna......................................................................................... 7.4.2. Teoria postaciow a........................................................................................................ 7.4.3. Teoria w z o rc ó w .......................................................................................................... 7.4.4. Teoria c e c h .................................................................................................................... 7.4.5. Teoria o b liczen io w a................................................................................................... 7.4.6. Teoria ek o lo g iczn a..................................................................................................... 7.5. Proces spostrzegania w praktyce......................................................................................... 7.5.1. Spostrzeganie twarzy................................................................................................... 7.5.2. Czytanie s łó w ............................................................................................................... 7.6. Podsum ow anie................................................................................................................. Rozdział P a m ię ć ................................................................................................ 8.1. Natura pam ięci......................................................................................................................... 8.1.1. Rodzaje i funkcje p a m ię c i......................................................................................... 8.1.2. Blokowe (magazynowe) modele p a m ię c i............................................................... 8.1.3. Procesualne modele p a m ię c i.................................................................................... 8.2. Systemy pamięci p rzem ijającej............................................................................................ 8.2.1. Pamięć s e n so ry c z n a .................................................................................................. 8.2.2. Pamięć k ró tk o trw ała.................................................................................................. 8.2.3. Pamięć robocza: wielokomponentowy model Baddeleya.................................... 8.2.4. Pamięć robocza: modelaktywacyjny C ow ana....................................................... 8.2.5. Model długotrwałej pamięci roboczej Ericssona i K intscha............................... 8.2.6. Pamięć p ro sp ek ty w n a................................................................................................ 8.3. Systemy pamięci trw a łe j....................................................................................................... 8.3.1. Pamięć sem antyczna................................................................................................. 271 274 276 211 278 278 280 281 283 283 285 288 292 295 295 296 297 298 299 299 301 303 305 307 309 312 312 314 317 319 320 320 326 333 340 340 343 349 355 358 360 363 363 Spis treści 8.3.2. Pamięć ep izo d y czn a.................................................................................................... 8.3.3. Pamięć autobiograficzna............................................................................................ 8.4. Podsum ow anie........................................................................................................................ Rozdział Czynności p am ięciow e................................................................... 9.1. Fazy procesu pamięciowego: prawda czy z łu d zen ie?...................................................... 9.2. Zapam iętywanie....................................................................................................................... 9.2.1. Procesy k o d o w an ia...................................................................................................... 9.2.2. Interferencja proaktyw na............................................................................................ 9.2.3. Konsolidacja śladu pam ięciow ego........................................................................... 9.2.4. Techniki m nem oniczne............................................................................................... 9.3. Przechowywanie....................................................................................................................... 9.3.1. Zapom inanie.................................................................................................................. 9.3.2. Interferencja retroaktywna.......................................................................................... 9.3.3. Zanikanie śladu kontra utrata d o s tę p u .................................................................. 9.3.4. Reminiscencja................................................................................................................ 9.4. Odpamiętywanie....................................................................................................................... 9.4.1. Rodzaje odpam iętywania............................................................................................ 9.4.2. Rola wskazówek naprowadzających i kontekstu ................................................... 9.5. Zawodność p a m ię c i................................................................................................................ 9.5.1. Pamięć naocznych świadków..................................................................................... 9.5.2. Fałszywe w sp o m n ien ia............................................................................................... 9.5.3. A m nezja............................................................................................................. 9.6. Podsum ow anie......................................................................................................................... 9 366 369 371 372 373 377 377 387 389 390 396 396 397 399 400 403 403 407 409 409 412 414 416 Część III. Złożone procesy poznawcze Rozdział Myślenie i rozum ow anie................................................................ 10.1. Istota m yślenia....................................................................................................................... 10.2. Rodzaje m y ślen ia.................................................................................................................. 10.2.1. Myślenie autystyczne i re a listy c z n e .................................................................... 10.2.2. Myślenie produktywne i reproduktyw ne............................................................. 10.2.3. Myślenie twórcze i o d tw ó rc z e .............................................................................. 10.2.4. Myślenie k ry ty c z n e ................................................................................................. 10.2.5. Od myślenia sensoryczno-motorycznego do postform alnego........................ 10.3. Teorie m y śle n ia .................................................................................................................... 10.3.1. Teoria Berlyne’a ...................................................................................................... 10.3.2. Teoria B a ro n a ........................................................................................................... 10.4. Struktura m yślenia................................................................................................................ 10.4.1. Elementy struktury m y śle n ia ............................... 10.4.2. Operacje i s tra te g ie ................................................................................................. 10.4.3. Reguły, algorytmy i h eurystyki.............................................................................. 10.4.4. Myślenie a inne złożone procesy poznaw cze...................................................... 419 421 425 425 426 427 428 429 430 431 433 436 436 437 439 442 iu spis treści 10.5. Rozumowanie dedukcyjne ................................. 10.5.1. Dedukcja i indukcja................................................................................................. 10.5.2. Rozumowanie sylogistyczne.................................................................................. 10.5.3. Błędy rozumowania sylogistycznego................................................................... 10.5.4. Wpływ wiedzy i kontekstu na rozumowanie sylogistyczne............................. 10.6. Rozumowanie w a ru n k o w e ................................................................................................. 10.6.1. Istota rozumowania w arunkow ego...................................................................... 10.6.2. Błędy rozumowania w arunkow ego...................................................................... 10.6.3. Wpływ wiedzy i kontekstu na rozumowanie w arunkow e............................... 10.7. Teorie rozumowania dedukcyjnego................................................................. 10.7.1. Teoria abstrakcyjnych re g u ł.................................................................................. 10.7.2. Teoria modeli m e n taln y ch .................................................................................... 10.8. Rozumowanie indukcyjne................................................................................................... 10.8.1. Testowanie h ip o te z ................................................................................................. 10.8.2. Rozumowanie przez analogię................................................................................ 10.9. Inne rodzaje ro zu m o w an ia................................................................................................. 10.9.1. Rozumowanie p ro b ab ilisty czn e........................................................................... 10.9.2. Rozumowanie nieform alne.................................................................................... 10.10. Podsum ow anie................................. 444 444 447 449 453 455 455 456 458 462 462 465 472 472 473 478 478 479 481 Rozdział Rozwiązywanie problem ów .......................................................... 483 11.1. Problem i rozwiązywanie problem u.................................................................................. 11.2. Typy problem ów .................................................................................................................... 11.2.1. Podział problemów ze względu na ich cechy i s tru k tu rę ............................... 11.2.2. Podział problemów ze względu na wymagania poznawcze............................. 11.3. Teorie rozwiązywania problem ów .................................................................................... 11.3.1. Teoria Newella i S im o n a ....................................................................................... 11.3.2. Inne ujęcia teoretyczne procesu rozwiązywania p ro b le m ó w ........................ 11.4. Heurystyki rozwiązywania problemów............................................................................. 11.4.1. M etoda redukcji różnicy......................................................................................... 11.4.2. M etoda poruszania się w s te c z ............................................................................. 11.4.3. M etoda analizy środków i celów........................................................................... 11.5. Fazy rozwiązywania p ro b lem ó w ....................................................................................... 11.5.1. Faza identyfikacji p ro b lem u.................................................................................. 11.5.2. Faza definiowania problemu.................................................................................. 11.5.3. Faza doboru strateg ii.............................................................................................. 11.5.4. Faza zdobywania inform acji.................................................................................. 11.5.5. Faza alokacji zasobów . ............................................................ 11.5.6. Faza m onitorowania p o s tę p u ................................................................................ 11.5.7. Faza oceny poprawności rozw iązania................................................................. 11.6. Przeszkody w rozwiązywaniu p ro b lem ó w ...................................................................... 11.6.1. Sztywność m yślenia...................................................................... 11.6.2. Nastawienie. . . ..................................................................................................... 11.6.3. Fiksacja fu n k c jo n a ln a ............................................................................................ 11.7. Czynniki wspomagające rozwiązywanie problem ów ..................................................... 11.7.1. Transfer pozytyw ny.................................... 11.7.2. Transfer przez a n a lo g ię ......................................................................................... 484 486 487 491 498 498 502 503 503 507 507 512 513 514 519 523 524 527 528 529 529 530 531 533 533 534 Spis treści 11 11.7.3. In k u b a c ja .................................................................................................................. 11.7.4. W g lą d ......................................................................................................................... 11.8. Rozwiązywanie złożonych problem ów .............................................................................. 11.9. Podsum ow anie....................................................................................................................... 535 537 541 546 Rozdział Wydawanie sądów i podejmowanie decyzji 548 12.1. Wydawanie s ą d ó w ................................................................................................................ 12.1.1. Tendencyjność w wydawaniu sądów.................................................................... 12.1.2. Ignorowanie proporcji podstaw ow ej.................................................................... 12.1.3. Wady i zalety prostych h eurystyk ......................................................................... 12.1.4. Sądy in tu ic y jn e ................. 12.2. Podejmowanie decyzji........................................................................................................... 12.2.1. Klasyczna teoria decyzji.......................................................................................... 12.2.2. Strategie w podejmowaniu d ecy zji....................................................................... 12.2.3. Teoria perspektyw y................................................................................................. 12.2.4. Proces podejmowania decyzji................................................................................ 12.3. Podsum ow anie....................................................................................................................... 549 550 557 561 563 572 572 576 581 584 588 Rozdział Język i m o w a ..................................................................................... 589 13.1. Natura języka......................................................................................................................... 13.1.1. Język jako s y s te m .................................................................................................... 13.1.2. Poziomy ję z y k a ......................................................................................................... 13.1.3. Język a p o z n a n ie ...................................................................................................... 13.2. Przyswajanie ję z y k a ............................................................................................................. 13.2.1. Problem natyw izm u................................................................................................. 13.2.2. Stadia przyswajania języka..................................................................................... 13.2.3. Dwujęzyczność i wielojęzyczność.................................... 13.3. M ów ienie................................................................................................................................. 13.3.1. Planowanie m o w y .................................................................................................... 13.3.2. Kodowanie sem antyczno-syntaktyczne............................................................... 13.3.3. Kodowanie fo n o lo g iczne........................................................................................ 13.4. Rozumienie przekazów językowych................................................................................... 13.4.1. Złamanie k o d u ......................................................................................................... 13.4.2. Rozbiór zdania........................................................................................................... 13.4.3. Budowa modelu sytuacyjnego i w nioskow anie................................................. 13.5. Podsum ow anie....................................................................................................................... 590 590 594 599 602 602 607 609 612 612 615 616 619 619 621 625 628 Słownik term inów ......................... 269 B ibliografia........................................................................................ 663 Indeks n azw isk .................................................................................................................. 721 Indeks rzeczow y ............................................. 733 Przedmowa Przygotowując do druku nowy podręcznik, trzeba mieć przekonanie o sensow­ ności jego wydania. Sprawa jest stosunkowo prosta, gdy na rynku nie ma żadnego podręcznika z danej dziedziny; w takim przypadku cokolwiek jest lep­ sze niż nic. Tymczasem na polskim rynku wydawniczym jest kilka podręczników z psychologii poznawczej. Co więc motywowało nas do podjęcia się tej nielekkiej i odpowiedzialnej pracy? Przede wszystkim wyszliśmy z założenia, że polscy studenci powinni się posługiwać podręcznikami polskich autorów. Psychologia nie jest wprawdzie zasadniczo inna w Polsce niż w innych krajach świata, inne są jednak oczekiwania odbiorców, tradycje nauczania określonych przedmiotów, systemy edukacyjne, wreszcie mentalność wykładowców i studentów. Dotyczy to szczególnie podręczników napisanych przez autorów z USA. W amerykańskim systemie kształcenia na poziomie college’u nie ma kierunków studiowania w naszym rozumieniu. Przez pierwsze dwa lata student studiuje na wydziale 0 szerokim profilu, a dopiero na III i IV roku wybiera specjalizację, którą mo­ że być psychologia. Uprawnienia zawodowe uzyskuje się w toku dalszych stu­ diów, np. magisterskich lub doktorskich. Z tego powodu kursy z psychologii, zwłaszcza na poziomie podstawowym, muszą być dostosowane do odbiorców, którzy niewiele wiedzą o psychologii i w większości nie będą się w tej dziedzinie specjalizować. To samo siłą rzeczy dotyczy podręczników, które dostosowuje się poziomem i sposobem prezentacji treści do „studenta-hobbysty”, a niekoniecz­ nie do przyszłego profesjonalisty. Na bogatym i różnorodnym rynku amerykań­ skim istnieją oczywiście podręczniki zaawansowane, ale w Polsce i innych kra­ jach wybiera się do przekładów raczej te podstawowe. Pisząc Psychologię poznawczą, mieliśmy świadomość, że będziemy kon­ kurować nie tylko z kilkoma pozycjami tłumaczonymi, ale również z jedną oryginalną pozycją polską: Psychologią poznania Tomasza Maruszewskiego (2002). Znaczenie tej książki trudno przecenić, ponieważ jest to pierwszy polski podręcznik z tej tematyki. Nasza publikacja została zaprojektowana w ten sposób, aby raczej uzupełniała książkę Tomasza Maruszewskiego, niż ją zastępowała. Znacznie więcej miejsca poświęciliśmy złożonym procesom poznawczym. Dodaliśmy też bloki rozszerzające o charakterze merytorycznym 1 metodologicznym. W wyniku tych zabiegów niniejszy podręcznik może być podstawą wykładu z psychologii poznawczej na pierwszych latach psychologii, ale przyda się też magistrantom, a nawet doktorantom specjalizującym się 14 Przedmowa w innych działach psychologii, a szukającym podstaw psychologii poznania i poznawania. Struktura podręcznika odbiega nieco od standardu, powszechnie przyjętego przez autorów podręczników z psychologii poznawczej. Ów standard polega na omówieniu poszczególnych obszarów wiedzy o poznaniu, począwszy od procesów działających „na wejściu” i uważanych za proste (np. percepcja i uwa­ ga), a skończywszy na procesach działających „na wyjściu”, którym przypisuje się wysoki stopień złożoności (np. rozwiązywanie problemów). „Po drodze” omawia się pamięć, wyobrażenia i inne formy procesów „pośredniczących” między wejściem sensorycznym a wyjściem motorycznym. Istotą układu treści naszego podręcznika jest podział na struktury i procesy poznawcze. Procesy prowadzą do powstania struktur lub operują na nich. Dlatego uznaliśmy, że przed omówieniem sposobu działania procesów poz­ nawczych należy zapoznać studentów z rodzajami i sposobem działania struktur poznawczych, zwanych również reprezentacjami. Pierwsza część podręcznika, następująca po prologu, czyli rozdziale prezentującym psychologię poznawczą „z lotu ptaka”, poświęcona jest właśnie reprezentacjom poznawczym. W roz­ dziale drugim omawiamy istotę sporu o reprezentację poznawczą oraz przy­ taczamy badania nad reprezentacjami nietrwałymi (wyobrażeniami, sądami, modelami umysłowymi). W rozdziale trzecim jest mowa o reprezentacjach trwałych, czyli pojęciach i kategoriach, a w rozdziale czwartym - o strukturach wiedzy. W ten sposób, poczynając od prostych obrazów umysłowych, a kończąc na złożonych strukturach wiedzy, przedstawiamy liczne sposoby, dzięki którym umysł ludzki poznawczo reprezentuje rzeczywistość. Drugą część podręcznika poświęcono procesom poznawczym o stosunkowo niewielkim poziomie złożoności. Oczywiście podział na procesy proste i złożone jest trudny i ryzykowny, a jego efekty będą zapewne podlegać krytyce. Im więcej wiemy o takich procesach jak uwaga czy percepcja, tym trudniej nam za­ akceptować myśl, że są one proste. Za spostrzeganiem obiektów przez czło­ wieka kryje się skomplikowany mechanizm poznawczy, złożony z całej wiązki procesów, a ponadto wspomagany przez wiedzę, wnioskowanie, przetwarzanie języka i inne procesy poznawcze. Mimo to, jeśli porównamy percepcję z roz­ wiązywaniem problemów albo z przetwarzaniem języka, musimy uznać, że spostrzeganie jest procesem relatywnie mniej złożonym. Przemawiają za tym następujące argumenty. Po pierwsze, percepcja może być wspomagana przez inne procesy (np. pamięciowe lub związane z wnioskowaniem), ale nie musi. Niektóre formy percepcji, zwłaszcza dotyczące spostrzegania zjawisk fizycznych (przedmiotów, kolorów, kształtów, ruchu), zdają się mieć charakter bezpośredni, to znaczy są w niewielkim stopniu uwikłane w pośredniczącą rolę reprezentacji poznaw­ czych. Również wiele form funkcjonowania pamięci nie wymaga współdziałania ze strony innych procesów poznawczych, co nie oznacza, że pamięć takim oddziaływaniom nie podlega. Natomiast procesy złożone nie są w ogóle możliwe bez harm onijnego w spółdziałania procesów elem entarnych; dotyczy to w szczególności myślenia, rozwiązywania problemów, rozumowania, podejmo­ wania decyzji i przetwarzania języka. Po drugie, w procesach, które uznaliśmy za elementarne, bardzo duży udział mają automatyzmy w przetwarzaniu informacji. Koncentracja i prze­ Przedmowa 15 rzucanie uwagi, wyodrębnianie przedmiotów z tła, przywołanie informacji z pa­ mięci i inne procesy z tej kategorii dokonują się automatycznie, poza świa­ domością i kontrolą ze strony podmiotu, który co najwyżej jest świadomy dopiero skutków owych procesów, a i to nie zawsze. Natomiast procesy złożone opierają się w dużym stopniu na czynnościach kontrolowanych. Nie znaczy to, że procesy złożone są wykonywane pod pełną kontrolą, chodzi tylko o to, że udział owej kontroli jest tutaj relatywnie duży. Kontroli poznawczej poświęciliśmy zresztą osobny rozdział, umieszczony w części drugiej, w której omawiamy elementarne procesy poznawcze. Decyzja ta wynika z kilku przesłanek. Przede wszystkim uznaliśmy, że kontrola poznawcza to niezwykle istotny aspekt ludzkiego poznania, w dodatku coraz intensywniej badany. Ponadto przyjęliśmy, że niektóre formy kontroli są dość proste w swoim przebiegu i charakterze, bowiem wywodzą się z mechanizmów uwagi - zresztą przez niektórych autorów są omawiane wraz z uwagą (np. przeciwdziałanie interferencji). Wreszcie, w naszym przekonaniu, kontrola poznawcza nie służy sama sobie, lecz innym procesom poznawczym, głównie tym, które uznaliśmy za złożone, aczkolwiek nie można ignorować roli pro­ cesów kontrolnych w procesach percepcji i pamięci. Co do pamięci, poświęciliśmy jej dwa rozdziały w części drugiej, dając w ten sposób wyraz przekonaniu o niezwykle istotnej roli pamięci w funkcjonowaniu umysłu i olbrzymiej roli badań nad pamięcią we współczesnej psychologii poznawczej. Nie wolno ignorować faktu, że dla wielu współczesnych autorów psychologia poznawcza to przede wszystkim psychologia różnych form i odmian pamięci, a wiele modeli pamięci (np. sieciowe) to w gruncie rzeczy ogólne mo­ dele umysłu. I chociaż nie chcieliśmy stawiać znaku równości między umysłem a pamięcią, musieliśmy dać wyraz współczesnemu stanowi badań w tym obsza­ rze. Dodatkowo trzeba było uwzględnić fakt, że w ostatnich latach, w wyniku gwałtownego rozwoju badań nad pamięcią, wyróżniono wiele form i odmian tego zjawiska, dawniej nieznanych, a w każdym razie niezbyt intensywnie badanych. Chodzi o takie konstrukty jak pamięć robocza, pamięć prospektywna oraz liczne przejawy pamięci niejawnej (implicit memory). Dlatego pamięci poświęcono dwa rozdziały. Jeden z nich (rozdz. 8) zawiera omówienie różnych form i rodzajów pamięci, a drugi (rozdz. 9) - omówienie czynności pamię­ ciowych, takich jak zapamiętywanie, przechowywanie i odpamiętanie materiału. Mimo to mamy wrażenie, że o pamięci można by napisać znacznie więcej. Współczesny stan badań i teorii pozwalałby np. na poświęcenie osobnego rozdziału samej tylko pamięci roboczej. Niestety, taka decyzja musiałaby mieć niepożądane skutki co do rozmiaru i wewnętrznej spójności podręcznika. Trzecia część książki jest poświęcona złożonym procesom poznawczym: myśleniu i rozumowaniu (rozdz. 10), rozwiązywaniu problemów (rozdz. 11), podejmowaniu decyzji i formułowaniu sądów (rozdz. 12) oraz przetwarzaniu języka (rozdz. 13). W ten sposób liczba rozdziałów jest mniejsza o dwa od liczby tygodni w jednym semestrze roku akademickiego (teoretycznie 15). Zależało nam na takim rozwiązaniu, ponieważ dzięki tem u m ożna co tydzień wykorzystać jeden rozdział podręcznika, mając w rezerwie dwa tygodnie na czynności wstępne i końcowe. Niestety, w wyniku takiej decyzji w tekście nie zmieściły się rozdziały, które, być może, powinny się tam znaleźć. Jeśli mie­ libyśmy coś jeszcze dodawać, trzeba by uwzględnić następujące tematy: rozwój 1 1> Przedmowa poznawczy, różnice indywidualne w zakresie poznania oraz filozoficzne i teoriopoznawcze implikacje badań w zakresie psychologii poznawczej. Wydaje się, że te wątki zasługują na osobne potraktowanie, np. w postaci podręczników, monografii lub prac zbiorowych. W niniejszym podręczniku kwestie te są oma­ wiane skrótowo i mimochodem, przy okazji dyskutowania problemów o cha­ rakterze ogólnym. Oprócz właściwego tekstu, w podręczniku zamieszczono dwa rodzaje blo­ ków poszerzających. Pierwsza grupa bloków ma charakter merytoryczny. Są to opisy konkretnych badań, niekiedy dość szczegółowo przedstawionych ze względu na wysoko przez nas oceniane walory poznawcze. W tego rodzaju blokach (ramkach) znajdują się np. empiryczne ilustracje szczególnie interesu­ jących zjawisk, opis badań nad mózgowymi korelatami procesów poznawczych lub badań o szczególnie zaawansowanej i finezyjnej metodologii. Można czytać tekst, ignorując te ramki, zwłaszcza gdyby podręcznik miał być wykorzystywany na zajęciach z pierwszymi rocznikami studentów. Druga grupa bloków po­ szerzających ma charakter metodologiczny. Nazwaliśmy te ramki „paradygma­ tami”, zgodnie z niekuhnowską, ale bardzo rozpowszechnioną konwencją używania słowa „paradygmat” na oznaczenie ustalonego wzorca procedury eksperymentalnej, wykorzystywanego w badaniach nad wyodrębnionym proce­ sem lub efektem. W literaturze psychologicznej co rusz można się natknąć na informacje, że pewne badania przeprowadzono np. w paradygmacie poprze­ dzania negatywnego albo w paradygmacie dychotycznej prezentacji bodźców. Postanowiliśmy dokładniej opisać najważniejsze paradygmaty eksperymentalne, co powinno ułatwić zrozumienie, w jaki sposób psychologia bada określone zjawiska i jak dochodzi do takich, a nie innych konkluzji. Lektura ramek paradygmatycznych powinna zatem zwiększyć krytycyzm studenta w zapozna­ waniu się z ofertą współczesnej psychologii poznawczej. Powinna również ułatwić życie tym, którzy chcieliby projektować i prowadzić własne badania, np. magistrantom. Podczas pisania podręcznika nieustannie natykaliśmy się na rafy termino­ logiczne. Polskie słownictwo psychologiczne jest w wielu obszarach nieusta­ lone, co więcej, obserwuje się żywiołowe i niekiedy mało refleksyjne tłuma­ czenia terminów obcojęzycznych. Niektóre już zdążyły się utrwalić, mimo że są ewidentnie nietrafne. Na przykład pojęcie central executive w teorii pamięci roboczej dotyczy hipotetycznego mechanizmu rozdzielającego zasoby uwagi i odpowiedzialnego za bieżące przetwarzanie informacji. Jest to więc struktura zarządzająca, zgodnie ze znaczeniem angielskiego rzeczownika executive (dyrektor, członek zarządu). Tymczasem polski odpowiednik „centralny system wykonawczy” sugeruje raczej podrzędną rolę tego mechanizmu jako systemu wykonującego polecenia, nie zaś wydającego je. Mimo wątpliwości, termin „centralny system wykonawczy” utrzymaliśmy ze względu na powszechnie przyjęty w polskiej psychologii uzus językowy. Ale już executive functions przetłumaczyliśmy jako „funkcje zarządcze”, bo taki, jak się wydaje, jest sens tego terminu. Alternatywą byłyby „funkcje wykonawcze”, co zupełnie nie oddaje istoty rzeczy, zwłaszcza że w tym wypadku nie ma wspomagania w postaci słówka „centralne”. Inna kwestia to sposób oddania angielskiego terminu priming. Proponu­ jemy „poprzedzanie” lub zamiennie „prymowanie”, ponieważ jest to określenie Przedmowa 17 nedtralne i obejmujące wszystkie rodzaje omawianego zjawiska. Stosowane niekiedy w polskich tekstach słowo „torowanie” nie wydaje się trafne, bo nie uwzględnia faktu, że bodziec poprzedzający może utrudniać przetwarzanie bodźca właściwego, jak to ma miejsce np. w przypadku poprzedzania nega­ tywnego. Słówko „uprzedzanie” niesie natomiast niepożądaną konotację, jako­ by ktoś kogoś chciał przed czymś uprzedzić. Dlatego „poprzedzanie” i „prymowanie” wydają się godne rozważenia. Dodatkowo „prymowanie” ma tę zaletę, że jest spójne z określaniem bodźca poprzedzającego mianem prymy. Są to spolszczone wersje słów o proweniencji łacińskiej, co jest częstym rozwiąza­ niem w polskiej nomenklaturze naukowej. Największe problemy wystąpiły jednak z oddaniem angielskich terminów implicit learning oraz implicit memory. W tekstach angielskich zawarte są dwa ważne znaczenia: ukryty charakter procesu oraz to, że zdarzenie wcześniejsze (np. spostrzeżenie bodźca) pociąga za sobą - jak implikacja - późniejsze skutki behawioralne (np. specyficzny sposób kategoryzowania obiektów lub uzupeł­ niania niepełnych wyrazów). Według naszej wiedzy, język polski nie dysponuje słowem o takim ładunku znaczeniowym. W polskiej literaturze psychologicznej można znaleźć kilka rozwiązań tego problemu: uczenie się mimowolne (akcentuje brak intencji, ale pomija ukryty charakter procesu), pamięć typu implicite (niezbyt zgrabne), pamięć implikatywna (jeszcze mniej zgrabne), pamięć utajona lub ukryta. Wydaje się, że najlepsze - bo neutralne - jest określenie „pamięć niejawna” oraz jej przeciwieństwo, czyli „pamięć jawna” (explicit memory). To samo dotyczy uczenia się, które może być jawne lub niejawne, z tym że w nie­ których przypadkach warto używać również określenia „uczenie się mimowolne”, mianowicie wtedy, gdy rzeczywiście chce się zaakcentować brak intencji osoby uczącej się. Potrzeba posługiwania się terminem neutralnym wynika stąd, że różni autorzy podają różne definicje i kryteria tego zjawiska, nie mówiąc już o tym, że nie znamy mechanizmu działania pamięci niejawnej. Na przykład używanie terminu „pamięć utajona” lub „ukryta” może sugerować, że jest to pamięć, której zawartość ktoś intencjonalnie przed kimś ukrył. Może też kierować skojarzenia czytelnika w stronę freudowskich mechanizmów wyparcia i tłumienia. Tego rodzaju konotacje byłyby niepożądane, bo zbyt silnie sugerują hipotetyczny me­ chanizm działania pamięci niejawnej, a w dodatku nie odpowiadają powszechnie używanym paradygmatom badania tejże pamięci. Choć sami nie polecamy ter­ minu „pamięć utajona”, z dwojga złego wydaje nam się lepszy, tym bardziej że pojawił się już termin „poznanie utajone”. Terminologia dotycząca pamięci nastręcza zresztą wielu innych kłopotów. Polski termin „zapamiętywanie” nie ma odpowiednika angielskiego; w litera­ turze anglojęzycznej jest natomiast używany termin encoding. Nie zdecydowa­ liśmy się na zastąpienie zapamiętywania kodowaniem, bo byłoby to zbyt dalekim odejściem od rodzimej tradycji terminologicznej, a ponadto rozwiązaniem teoretycznie nietrafnym. Kodowanie to ważny element procesu zapamiętywania, ale nie jedyny, bo nie obejmuje np. operacji utrwalenia śladu pamięciowego. Utrzymaliśmy też termin „odpamiętywanie”, oznaczający odwrotność zapamię­ tywania, czyli każdy przypadek korzystania z zasobów pamięci - jawnej lub niejawnej. Mimo że termin „odpamiętywanie” nie jest powszechnie używany w polskiej literaturze psychologicznej, a niektóre słowniki traktują jego użycie jako błąd językowy, wydaje nam się logiczny (np. zakręcić i odkręcić) , a ponadto io rrzeamowa obojętny ze względu na domniemany mechanizm teoretyczny tego etapu pro­ cesu pamięciowego. Ogólny termin „odpamiętywanie” można teraz rozbić na konkretne odmiany tego zjawiska, np. przypominanie lub rozpoznawanie (w od­ niesieniu do pamięci jawnej) oraz liczne formy korzystania z pamięci niejawnej. Zdajemy sobie sprawę, że nasze rozstrzygnięcia terminologiczne mogą budzić sprzeciw. Czy się przyjmą, trudno w tej chwili wyrokować. W każdym razie powinny wzbudzić dyskusję i stymulować próby ulepszenia terminologii naukowej w zakresie psychologii poznawczej. Język jest jednym z najważniej­ szych narzędzi poznania, więc przyswajanie terminów obcojęzycznych nie powinno być bezrefleksyjne i powierzchowne. Gdyby nasza publikacja skłoniła studentów i badaczy do większej staranności w tym zakresie, czulibyśmy się u saty sfakcj onowani. Przygotowanie niniejszego podręcznika nie byłoby możliwe bez życzliwości i współpracy wielu osób i instytucji. Przede wszystkim dziękujemy Wydawnic­ twu Naukowemu PWN za inicjatywę wydania tej książki, a Pani Redaktor Joannie Marek za anielską cierpliwość w obliczu ciągle zmieniających się terminów oddania maszynopisu. Dziękujemy obu naszym pracodawcom, Uniwersytetowi Jagiellońskiemu oraz Szkole Wyższej Psychologii Społecznej, za stworzenie warunków do pracy naukowej i dydaktycznej, a przede wszystkim za to, że mając okazję wykładać psychologię poznawczą przez dłuższy czas* dla wielu roczników studentów, mogliśmy poznać profil i potrzeby przyszłego czytelnika. Dziękujemy recenzentom wydawniczym, prof. Tomaszowi Maruszewskiemu i prof. Czesławowi Nosalowi, za inspirujące uwagi krytyczne, obudowane generalną akceptacją naszego projektu. Na koniec dziękujemy naszym Kolegom z Zakładu Psychologii Eksperymentalnej UJ i z Katedry Psychologii Poznawczej SWPS. Wszystko, co wiemy o psychologii poznawczej, narodziło się w związku z dyskusjami, zebraniami i wspólnymi badaniami, które wspólnie wykonaliśmy w ciągu ostatnich 15 lat. W pracach technicznych bardzo pomocni byli: Karolina Czernecka, Zofia Stawowy-Winkler, Łukasz Szych i Ka­ mila Smigasiewicz, którym serdecznie dziękujemy. Kraków, wrzesień 2005. Edward Nęcka Jarosław Orzechowski Błażej Szymura R o zd zia ł * Umysł i poznanie Poznanie - um ysł - działanie Ogólna architektura um ysłu 23 45 Umysł jako system przetw arzania infor­ macji 23 Blokowe modele um ysłu Jedność poznania i działania Umysł jako system modułowy 29 Psychologia poznawcza: dziedzina czy para­ dygmat 31 Narodziny i rozwój psychologii poznaw­ czej 31 Psychologia a inne dziedziny badań nad poznaniem 34 Metody badań nad poznaniem 37 46 Koncepcja poziomów przetw arzania Sieciowe m odele um ysłu Podsumowanie 56 53 51 Poznanie to zdolność człowieka i innych gatunków do odbioru informacji z otoczenia oraz przetwarzania ich w celu skutecznej kontroli własnego działania, a także lepszego przystosowania się do warunków środowiska. Poznaniem nazywamy też ogół procesów i struktur psychicznych, biorących udział w przetwarzaniu informacji. Psychologia poznawcza to subdyscyplina naukowej psychologii, zajmująca się badaniem procesów i struktur poznawczych, a także ogólnymi zasadami funkcjonowania umysłu. Każda nauka określa swoją tożsamość poprzez przedmiot badań i metodę ich prowadzenia. Psychologia poznawcza (inaczej: kognitywna) jest częścią psychologii i zgodnie z tą przynależnością określa przedmiot swoich zaintere­ sowań jako badanie mechanizmów sterujących zachowaniem. Jednak w od­ różnieniu od innych działów tej dyscypliny, psychologia poznawcza zawęża obszar swoich zainteresowań do mechanizmów poznawczych, a nie np. emocjonalnych, motywacyjnych, osobowościowych lub społecznych. Problemy naukowe oczywiście nie dzielą się na poznawcze i inne, w związku z tym psychologia poznawcza wchodzi w liczne i różnorodne „sojusze badawcze” z innymi dziedzinami badań psychologicznych, jak też z innymi naukami. Jednak jej podstawowym zadaniem jest badanie tego, jak ludzie poznają świat i w jaki sposób owo poznanie określa ich zachowanie w różnych sytuacjach życia codziennego lub podczas zmagania się z rozmaitymi problemami. Przedmiotem zainteresowania psychologii poznawczej jest złożony system, wyspecjalizowany w odbiorze i przetwarzaniu informacji. Zgodnie z coraz powszechniej stosowaną konwencją terminologiczną, będziemy ten system nazywać umysłem, chociaż pojęcie to powstało znacznie wcześniej, niż ja­ kiekolwiek próby analizowania poznania w kategoriach przetwarzania informa­ cji. Pamiętajmy jednak, aby tak rozumianego umysłu nie utożsamiać ze świadomością. Zdecydowana większość procesów badanych przez psychologów poznawczych to procesy nieświadome. Świadoma część umysłu to raczej wy­ jątek niż reguła, choć wyjątek na tyle interesujący, że stanowi przedmiot szczególnie intensywnych badań. Na gruncie innych nauk, szczególnie filozofii, termin „umysł” jest używany w węższym znaczeniu: jako podmiot doznań i myśli (Hamish, 2002). Zatem umysł w wąskim znaczeniu to świadoma część psychiki, w której rodzą się subiektywne doświadczenia (np. spostrzeżenia) i która jest zdolna do uruchomienia procesów myślenia; jest to jak gdyby „miejsce”, w którym przebiegają nasze myśli. Natomiast umysł w znaczeniu szerszym to po prostu system odbioru i przetwarzania informacji. Umysł, zdefiniowany jako system poznawczy, jest przedmiotem zaintere­ sowania wielu nauk humanistycznych, społecznych i biologicznych. Granice między tymi naukami nie zawsze są możliwe do precyzyjnego określenia, nie zawsze też owe rozgraniczenia są potrzebne. W każdym razie specyficzność podejścia reprezentowanego przez psychologię poznawczą wynika ze ścisłego związku z resztą psychologii. Związek ten ujawnia się poprzez badanie relacji poznania do innych aspektów funkcjonowania psychiki, takich jak emocje, motywacja, rozwój psychiczny lub zaburzenia zachowania, jednak przede wszystkim przejawia się w metodologii badań, opartej na obserwacji zacho­ 1.1. Poznanie - umysł - działanie 23 wania i wnioskowaniu na tej podstawie o ukrytych procesach psychicznych. Jest to podejście typowo psychologiczne. I choć psychologia jako nauka, a zwłaszcza psychologia poznawcza, coraz śmielej sięga po inne narzędzia badawcze, takie jak obrazowanie pracy mózgu lub modelowanie procesów poznawczych z użyciem komputera, nie rozstaje się ze swoim klasycznym instrumentarium badawczym, którego rdzeniem pozostaje obserwacja zachowania i eksperyment laboratoryjny. Niniejszy rozdział zawiera definicje podstawowych pojęć psychologii poznawczej, rozważania na temat jej głównych obszarów badawczych, a także podstawowe informacje na temat metodologii badań prowadzonych w tym obszarze tematycznym. 1.1. Poznanie - umysł - działanie 1.1.1. Umysł jako system przetwarzania informacji To, co w tradycyjnej psychologii ogólnej traktowane było jako odrębne jakościowo zjawiska lub procesy psychiczne (np. pamięć, myślenie, wyobraź­ nia), w psychologii poznawczej rozumiane jest raczej w kategoriach różnych faz procesu przetwarzania informacji. Pojęcie przetwarzania informacji (informa­ tion processing) wywodzi się z cybernetyki, czyli nauki o sterowaniu z wyko­ rzystaniem sprzężenia zwrotnego (Wiener, 1948), oraz z matematycznej teorii informacji (Shannon, Weaver, 1949; zob. Bechtel, Abrahamsen, Graham, 1998); ta ostatnia dała teoretyczne podstawy rozwoju informatyki. Na gruncie tych nauk informację definiuje się jednoznacznie jako redukcję niepewności. Na przykład przed rzuceniem monetą nie wiemy, czy padnie orzeł, czy reszka. Kiedy po dokonaniu rzutu stwierdzamy wynik (np. orzeł), redukujemy swą począt­ kową niepewność o połowę. Technicznie rzecz biorąc, uzyskujemy w ten sposób informację o wartości jednego bita, ponieważ bit to jednostka informacji redu­ kująca naszą wyjściową niepewność dokładnie o połowę. Według formalnego wzoru: I = log20 , czyli wartość uzyskanej informacji równa się logarytmowi o podstawie 2 z liczby dostępnych opcji. Jeśli tych opcji jest więcej niż dwie, wartość uzyskanej informacji przekracza jeden bit. Na przykład wiedząc, że było ośmiu kandydatów do pracy, a przyjęto Kazimierza, uzyskujemy informację o wartości I = log28 = 3 bity. W psychologii pojęcie informacji rozumiane jest w sposób mniej jedno­ znaczny. Zazwyczaj też nie umiemy dokładnie zmierzyć ilości informacji przetwarzanych przez umysł w określonej sytuacji lub podczas zmagania się z konkretnym problemem. Nie mamy jednak wątpliwości, że aktywność umysłu polega na przetwarzaniu informacji. Pomiędzy komunikatem na wejściu (np. znak „stop”) a reakcją na wyjściu (np. zatrzymanie samochodu) zachodzi bardzo złożony proces przetwarzania danych. Sześciokątny znak „stop” tyl­ ko dlatego jest dla kierowcy bodźcem wzrokowym, że odbija fale optyczne £•* Hozaziat i. umysł i poznanie 0 określonej charakterystyce (długość i amplituda). Te fale, przedostając się do siatkówki oka, wyzwalają w niej reakcje fotochemiczne. Już w tym momencie dochodzi do przetwarzania informacji, ponieważ dane w postaci fal optycznych są kodowane na reakcje fotochemiczne. Następnie, zmiany na siatkówce są kodowane na impulsy nerwowe, które - jak wiadomo - mają charakter elektryczny, ponieważ polegają na postępującej depolaryzacji błony aksonu komórki nerwowej. Impulsy te przewodzą informację do pierwszorzędowej kory wzrokowej, a następnie do innych fragmentów kory (tzw. kory kojarzeniowej). W czasie tej wędrówki impuls nerwowy jest przewodzony przez liczne neurony, a za każdą zmianą neuronu informacja musi być przekodowana, tak aby nadawała się do przekazania za pośrednictwem innego nośnika. Wynika to z faktu, że choć impulsy nerwowe mają charakter elektryczny, procesy na synapsie wymagają reakcji chemicznych, w których uczestniczą tzw. neuroprzekaźniki (np. serotonina, dopamina). W końcu informacja trafia do kory ruchowej, gdzie jest programowana reakcja kierowcy, przede wszystkim naciśnięcie hamulca, ewentualnie wysprzęglenie samochodu itp. Za te reakcje odpowiadają mięśnie szkieletowe, które muszą odebrać i odpowiednio zinter­ pretować rozkaz wysłany przez korę. Mimo pozornej prostoty tego przykładu, mamy tu do czynienia z procesem wielokrotnego przekodowywania informacji z jednego formatu na zupełnie inny. Trudno byłoby zaprzeczyć, że między bodźcem a reakcją dokonuje się przetwarzanie informacji, choć nie umiemy powiedzieć, ile dokładnie bitów zostało przetworzonych. Ktoś mógłby zauważyć, że w podanym przykładzie jest mowa o przetwa­ rzaniu informacji przez układ nerwowy, przede wszystkim mózg, podczas gdy psychologia poznawcza ma ambicję zajmowania się umysłem,, pozostawiając badanie mózgu neurobiologom. Nie wchodząc w tym miejscu w szczegółowe dyskusje na temat relacji między umysłem a układem nerwowym, przyjmijmy, że mózg jako narząd jest materialnym podłożem działania umysłu jako systemu poznawczego. Nie ma w tym kartezjańskiego dualizmu, wedle którego umysł, czyli dusza, miałby być niematerialnym bytem istniejącym niezależnie od ma­ terialnego mózgu. Nasze stanowisko jest monistyczne, ponieważ zakłada, że funkcje umysłowe zachodzą na materialnym podłożu tkanki nerwowej, to znaczy nie mogą istnieć inaczej niż tylko w ścisłej zależności od procesów przebiegających w tej tkance1. Umysł i mózg to terminy, które w gruncie rzeczy odnoszą się do tego samego zjawiska, jakim jest zdolność człowieka i innych gatunków do poznawania świata. Różnice dotyczą przyjętego poziomu analizy 1 sposobu wyjaśniania zjawisk. Badania nad umysłem wymagają spojrzenia ze stosunkowo wysokiego poziomu, czyli od strony funkcji poznawczych, natomiast badania nad mózgiem polegają na prowadzeniu obserwacji działania poszczególnych neuronów lub ich grup. Psycholog bada funkcje poznawcze,.np. spostrzeganie lub zapamiętywanie, niekoniecznie wnikając w to, jakie struktury mózgowe odpowiadają za wykonanie owych funkcji, choć ich lokalizacja mózgowa może go żywo interesować. Natomiast neurobiolog bada budowę 1 Nie jest to stanowisko światopoglądowe, lecz metodologiczne. Wydaje się ono niezbędne, przynajmniej na gruncie nauk empirycznych. Uczony może być prywatnie przekonany o istnieniu niematerialnej duszy, ale jako badacz musi roboczo założyć, że istnieje tylko to, co potrafi zmierzyć lub zaobserwować, lub o czym może zasadnie wnioskować na podstawie obserwacji lub pomiarów. 1.1. Poznanie —umysł - działanie 25 i aktywność określonych obszarów mózgowia lub naw et pojedynczych neuronów, nie zawsze wnikając w pełnione przez nie funkcje. Na przykład badanie propagacji impulsu nerwowego wzdłuż aksonu komórki nerwowej nie wymaga znajomości funkcji pełnionych przez tę komórkę, podobnie jak badanie procesów przewodzenia synaptycznego nie zawsze wymaga wiedzy, w jakich zadaniach poznawczych uczestniczy dana synapsa. Można powiedzieć, że spojrzenie psychologa jest „odgórne”, to znaczy od strony złożonych funkcji poznawczych, podczas gdy spojrzenie neurobiologa jest „oddolne”, czyli od strony elementarnych procesów metabolizmu i przewodzenia komórkowego. Oczywiście oba spojrzenia logicznie się uzupełniają. Być może w przyszłości nastąpi ich synteza, o czym może świadczyć intensywny rozwój dyscypliny zwanej neuronauką poznawczą (cognitive neuroscience). Wszystkie teoretyczne pojęcia psychologii poznawczej dotyczą tego, w jaki sposób umysł przetwarza informacje. Niektóre z nich dotyczą odbioru informacji z otoczenia, inne - ich przechowywania i dokonujących się na nich transformacji, a jeszcze inne - przekazywania danych z powrotem do otoczenia. Dlatego niezbędność terminu „przetwarzanie informacji” jest dla psychologów czymś oczywistym, choć odrzucając techniczną definicję tego pojęcia, musimy znaleźć inne, bardziej nam odpowiadające określenie. Według Ulrica Neissera (1967), na procesy przetwarzania informacji składają się wszystkie operacje, dzięki którym odbierane przez jednostkę bodźce są transformowane, prze­ kształcane, redukowane, wzmacniane, zachowywane, przywoływane lub wy­ korzystywane w jakikolwiek inny sposób. Zadaniem psychologii poznawczej jest opis tych procesów i pokazanie, w jaki sposób kształtują one zachowanie człowieka. Podstawowym założeniem dotyczącym procesów przetwarzania informacji jest założenie o ekonomii ich przebiegu. W myśl tego założenia, przetwarzanie wszystkich dostępnych informacji nie miałoby żadnego sensu - większość z nich i tak jest „bezużyteczna” z punktu widzenia wymagań sytuacji, w jakiej znajduje się organizm. Co więcej, człowiek nie jest w stanie przetworzyć wszystkich docierających do niego informacji, nawet gdyby były w pełni użyteczne, ponie­ waż jego umysł cechuje ograniczona pojemność (Duncan, Humphreys, 1989). Jak piszą Susan Fiske i Shelley Taylor (1991), człowiek to skąpiec poznawczy (icognitive miser), czyli istota, która z reguły angażuje tylko część dostępnych jej zasobów poznawczych, jak gdyby zachowując resztę na wszelki wypadek i chroniąc się w ten sposób przed niebezpieczeństwem przeciążenia systemu. Koncepcja „skąpca poznawczego” wyjaśnia wiele faktów wskazujących na nie­ zbyt efektywne lub odległe od optymalnego wykonanie rozmaitych zadań poznawczych. Sposobem na uniknięcie przeciążenia informacyjnego jest se­ lekcja danych, dokonująca się na różnych etapach przetwarzania. Selekcję tę umożliwia mechanizm zwany uwagą. Ponadto umysł dysponuje zdolnością do hamowania zbędnych reakcji i procesów mentalnych, co jest możliwe dzięki procesom kontroli poznawczej. Skutkiem „skąpienia” zasobów poznawczych jest też wszechobecna w ludzkim poznaniu skłonność do stosowania uprosz­ czonych heurystyk, schematów, stereotypów i innych narzędzi poznawczego upraszczania rzeczywistości. Ekonomia działania poznawczego przejawia się także tym, iż człowiek wielokrotnie wykonujący te same działania tworzy coraz bardziej stabilne Ci u ttozaziaf i. umysi i poznanie i jednocześnie coraz elastyczniejsze struktury poznawcze. W przeciwieństwie do procesów poznawczych, są to względnie trwałe elementy umysłu, możliwe do wielokrotnego wykorzystania w różnych warunkach i sytuacjach. Do struktur poznawczych zaliczamy elementy wiedzy, a ponadto sądy, przekonania i sche­ maty poznawcze. Struktury poznawcze powstają dzięki procesom poznawczym i w wyniku ich działania, lecz od momentu powstania wpływają zwrotnie na przebieg tych procesów poznawczych, a niektóre procesy polegają po prostu na przekształcaniu struktur. Na przykład wiedza tworzy się w wyniku procesów spostrzegania i zapamiętywania. Jednakże raz wykształcone struktury wiedzy określają kierunek i przebieg przyszłych procesów spostrzegania oraz przyszłych procesów zapamiętywania. Z tego punktu widzenia umysł to obszar, w którym dochodzi do ciągłej i wzajemnej interakcji między procesami a strukturami poznawczymi. Jako względnie trwałe elementy systemu poznawczego, struktury muszą być przechowywane w odpowiednich magazynach, w których nie ulega­ łyby degradacji i skąd łatwo byłoby je wydobyć. Jest to możliwe dzięki zdolności umysłu do przechowywania informacji, zwanej pamięcią. Rozróżnienie dynamicznych procesów i względnie stabilnych struktur po­ znawczych może budzić wątpliwości, jednak z filozoficznego punktu widzenia ich sposób istnienia wydaje się zasadniczo różny (Stróżewski, 2004). Natomiast dla psychologów rozróżnienie to okazuje się szczególnie przydatne wtedy, gdy rozpatrują rodzaje błędów popełnianych przez ludzi podczas zmagania się z roz­ maitymi zadaniami. Okazuje się, że niektóre pomyłki wynikają z niedosko­ nałości struktur poznawczych, a inne - z niewydolności procesów przetwarzania informacji. Wyobraźmy sobie, że wykonując ciąg obliczeń matematycznych, musimy podnieść liczbę 5 do trzeciej potęgi. Prawidłowa odpowiedź brzmi: 53 = 125. Ktoś mógłby podać inną wartość, np. 100, bo pomylił się „w procesie”, mianowicie najpierw pomnożył 5 przez 5 i otrzymał 25, a następnie pomnożył tak otrzymany wynik jeszcze raz przez 5, ale błędnie uznał, że 5 razy 25 równa się 100, a nie 125. Ktoś inny mógłby podać wynik 15, gdyby uznał, że trzecia potęga jakiejś liczby to z definicji wynik mnożenia tej liczby przez trzy. W drugim przypadku przyczyną błędu jest brak wiedzy na temat, co to znaczy trzecia potęga dowolnej liczby, a nie błąd w obliczeniach. Brak wiedzy, a także wiedza niepełna lub fałszywa, to niedostatek struktur poznawczych, któremu nie jest w stanie zaradzić choćby najsprawniejszy, najszybszy i bezbłędny proces poznawczy. Struktury poznawcze tworzą względnie spójny, dobrze zorganizowany system, w którym występują procesy kontroli. Kontrola poznawcza to zdolność systemu do samoorganizacji i samoregulacji. Dzięki procesom kontroli możliwe jest np. powstrzymanie się od reakcji, ale również jej wyzwolenie we właściwym momencie. W ten sposób zachowanie człowieka uwalnia się od bezpośredniej presji ze strony stymulacji zewnętrznej. Procesy kontroli poznawczej powodują zatem, że nasze działania nie są prostą reakcją na bodźce z otoczenia ani na impulsy dochodzące z organizmu. W szczególności procesy kontroli odpowia­ dają za zdolność człowieka do samodzielnego inicjowania własnych działań wyłącznie w wyniku aktywności wewnętrznych stanów psychicznych, a nie w odpowiedzi na bodźce. Przetwarzanie informacji dokonuje się na wielu poziomach. Pojęcie po­ ziomów przetwarzania oznacza, iż ta sama informacja może być poddana obrób­ 1.1. Poznanie - umysł - działanie 27 ce z różną intensywnością i starannością, czyli jak gdyby na wielu różnych piętrach przetwarzania danych. Bodźce zewnętrzne mogą być np. interpreto­ wane na poziomie sensorycznym, obejmującym fizyczne właściwości stymulacji, lub na poziomie semantycznym, odpowiadającym znaczeniu danej stymulacji lub jej przynależności kategorialnej. Z kolei przedmioty fizyczne mogą być ujmowane przez system poznawczy w postaci pojęć, ale też w postaci obrazów umysłowych. To, na jakim poziomie informacja będzie przetworzona, zależy od wymagań sytuacji lub zadania poznawczego. Może też wynikać z wcześniej utrwalonego nawyku. W każdym razie wielopoziomowość przetwarzania informacji jest zjawiskiem powszechnym, czyli odzwierciedla jedną z elemen­ tarnych cech umysłu ludzkiego. Przetwarzanie jest na każdym poziomie uzależnione od kontekstu, zarówno zewnętrznego (otoczenia), jak i wewnętrznego (wzbudzonych struktur poznaw­ czych). Obraz zagrażającego przedmiotu bez jego fizycznej obecności (np. zdję­ cie żmii) nie pobudza nas z reguły do ucieczki. Kontekst zewnętrzny sugeruje bowiem, że to tylko obraz niebezpiecznego zwierzęcia, a nie prawdziwe nie­ bezpieczeństwo. Bywa też, że realnie istniejący obiekt, skądinąd zagrażający, nie wzbudza reakcji ucieczki ze względu na specyficzny kontekst wewnętrzny. Na przykład dla hodowcy jadowitych węży widok zwierzęcia nie jest bodźcem do ucieczki, ponieważ dysponuje on wiedzą o sposobach uniknięcia niebez­ pieczeństwa. Badanie zależności przebiegu procesów poznawczych od kontek­ stu jest jednym z głównych zadań psychologii poznawczej. Większość psychologów poznawczych uważa, że umysł nie jest prostym odzwierciedleniem otaczającej go rzeczywistości, lecz aktywnie i samodzielnie utworzoną konstrukcją. Dzięki konstruktywnej aktywności umysłu powstaje wewnętrzna, poznawcza reprezentacja świata. Pojęcie reprezentacji jest jednym z kluczowych terminów psychologii kognitywnej. Używa się go za­ równo w liczbie pojedynczej, na oznaczenie ogólnego obrazu świata w umyśle, jak też w liczbie mnogiej, w odniesieniu do poszczególnych składników tego obrazu. W tym drugim znaczeniu można mówić o reprezentacjach werbalnych lub obrazowych, prostych lub złożonych, odnoszących się do rzeczy lub relacji itd. Pojęcie reprezentacji poznawczej jest wobec tego synonimiczne w stosunku do omówionego już pojęcia struktury poznawczej, ponieważ umysł - rozpa­ trywany z perspektywy struktur, a nie procesów - po prostu składa się z licznych i wzajemnie powiązanych reprezentacji poznawczych (inaczej: mentalnych, umysłowych). Natomiast umysł rozpatrywany z perspektywy procesów, a nie struktur, polega na manipulowaniu reprezentacjami umysłowymi świata w taki sposób, aby informacje docierające czy to ze świata zewnętrznego, czy też z pamięci można było zinterpretować w świetle dotychczasowej wiedzy (czyli już istniejących struktur), a następnie wykorzystać je do tworzenia nowych struktur poznawczych (Harnish, 2002; Maruszewski, 1996). Poznanie można zatem opisać w postaci cyklu polegającego na aktyw­ nym tworzeniu reprezentacji poznawczych, interpretowaniu napływającej infor­ macji poprzez owe reprezentacje, zmianie treści reprezentacji pod wpływem napływających danych i z powrotem na interpretowaniu nowych danych poprzez wcześniej zmienione reprezentacje. W ten sposób dochodzi do ciągłe­ go rozwoju możliwości poznawczych człowieka i poszerzania jego wiedzy o świecie. ¡¿8 Rozdział 1. Umysł i poznanie Jak można zdefiniować reprezentację poznawczą? Każda reprezentacja jest czyimś zastępnikiem. Na przykład piłkarska reprezentacja Polski jest symbo­ licznym zastępnikiem wszystkich Polaków, w których imieniu walczy z innymi reprezentacjami. Poziom piłkarskiej reprezentacji kraju tylko w przybliżeniu oddaje lokalny poziom piłki nożnej, a już zupełnie nie oddaje przeciętnej sprawności fizycznej ludności danego kraju. Wynika to z faktu, że reprezentacje sportowe są wynikiem starannej selekcji, a nie doboru losowego. Również poznawcza reprezentacja świata w umyśle tylko w przybliżeniu oddaje prawdzi­ we cechy rzeczywistości istniejącej poza umysłem. Wynika to nie tylko stąd, że reprezentacja ta jest wynikiem aktywnego konstruowania obrazu świata przez podmiot, a nie biernego odbicia rzeczywistości, lecz również stąd, że każdy z nas tworzy własny obraz świata, odpowiadający indywidualnemu doświadczeniu. Można powiedzieć, że każdy umysł dysponuje swoistą, indywidualną wersją rzeczywistości fizycznej, społecznej i symbolicznej. Nie ma dwóch osób o tym samym doświadczeniu indywidualnym, a nawet gdyby były, każda z nich prawdopodobnie wykorzystałaby to samo kwantum doświadczeń jednostko­ wych w sposób całkowicie odmienny. Dlatego każdy ma indywidualną, nie­ powtarzalną reprezentację świata, bo każdy samodzielnie ją utworzył na pod­ stawie własnych doświadczeń. Taki pogląd na naturę umysłu nazywamy kon­ struktywizmem. Z powyższego stwierdzenia nie należy wyciągać wniosku, że poznawcze reprezentacje świata są zasadniczo błędne. Gdyby tak było, nie moglibyśmy skutecznie działać w świecie, a praktyczna użyteczność naszych reprezentacji umysłowych byłaby porównywalna do przydatności zupełnie nieadekwatnej mapy drogowej. Gdyby porównać nasze reprezentacje umysłowe do mapy, była­ by to mapa niedokładna, miejscami mocno zniekształcająca obraz terenu, innym razem zawierająca elementy nieistniejące w rzeczywistości - ale jednak mapa zasadniczo adekwatna. Zakładając tak, przyjmujemy, że umysł jest swoistym „narządem” przystosowania się do rzeczywistości, więc gdyby miał tę rzeczy­ wistość fałszować, byłby zbędny, a zatem - z ewolucyjnego punktu widzenia nie powinien był się w ogóle pojawić. Nie ma natomiast żadnych wątpliwości, że treść reprezentacji poznawczych jest wybiórcza, podporządkowana celom pragmatycznym, nieldedy zniekształcona, a zawsze - mocno zindywidua­ lizowana. Jeśli reprezentacja poznawcza jest zastępnikiem, można ją zdefiniować jako uproszczony model tego, do czego się odnosi (Palmer, 1978). W związku z tym poznawcza reprezentacja krzesła jest uproszczonym, zastępczym modelem prawdziwego krzesła jako pewnej kategorii obiektów lub konkretnego egzem­ plarza tej kategorii. Taka reprezentacja może zawierać proste wyobrażenie obiektu albo treść pojęcia używanego na określenie tego obiektu. Reprezentacje innych obiektów, zwłaszcza dotyczących świata społecznego lub innych ludzi albo skomplikowanych problemów naukowych, mogą zawierać znacznie więcej informacji, zawsze jednak są uproszczonym modelem tego, co reprezentują. Dzięki tym upraszczającym zastępnikom umysł może radzić sobie w warunkach, które przez swą złożoność lub nowość przekraczałyby jego możliwości. Wszechobecne w psychologii poznawczej pojęcie reprezentacji wywołuje niekiedy wśród jej przedstawicieli spory o reprezentacjonizm (Harnish, 2002). 1.1. Poznanie - umysł - działanie 29 Jest to stanowisko filozoficzne, zgodnie z którym umysł poznaje świat nie bez­ pośrednio, lecz za pośrednictwem własnych kategorii poznawczych (pojęć, wyobrażeń, sądów, przesądów itd.). W skrajnym przypadku reprezentacjonizm może prowadzić do solipsyzmu, czyli poglądu o istnieniu wyłącznie podmiotu, który poznaje już nie świat, lecz własne miazmaty. Podkreślmy więc, że psy­ cholog poznawczy używa pojęcia reprezentacji nie w sporze o istnienie świata ani nawet nie w kontekście rozważań nad naturą poznania, lecz w zamiarze adekwatnego opisu i wyjaśnienia zachowania ludzi poznających świat i rozwią­ zujących rozmaite problemy natury poznawczej. Bez tej kategorii pojęciowej nasze opisy i wyjaśnienia byłyby znacznie uboższe, a niewykluczone, że wręcz błędne. 1.1.2. Jedność poznania i działania Zarzuca się niekiedy psychologii poznawczej, że zajmuje się badaniem „czys­ tego” poznania, oderwanego od realnego kontekstu sytuacyjnego i niezależnego od jawnego zachowania. Zgodnie z tym szkodliwym stereotypem, psychologia poznawcza buduje modele idealnych procesów przetwarzania informacji, które rozgrywają się w nieobserwowalnej „czarnej skrzynce”, pośredniczącej między sensorycznym „wejściem” a motorycznym „wyjściem” i których związek z jawnym zachowaniem jest trudny do uchwycenia. Gdyby tak było, psychologia poznawcza zasługiwałaby rzeczywiście na bardzo surową krytykę, ponieważ dla każdego uważnego obserwatora zacho­ wania ludzi i zwierząt związek poznania z działaniem ukazuje się jako bardzo ścisły i wielowarstwowy. U człowieka, podobnie jak u wielu gatunków zwierząt, obserwujemy np. odruch orientacyjny. Jest to reakcja na wydarzenie nagłe i nieoczekiwane (głośny dźwięk, nowa sytuacja). Obserwuje się wówczas znieruchomienie i ukierunkowanie receptorów na odbiór bodźców; za pomocą specjalistycznej aparatury możemy ponadto zaobserwować zmiany w aktywności serca i innych narządów ciała. U wielu gatunków zwierząt, podobnie jak u człowieka, występuje też specyficzna forma działania zwana zachowaniem eksploracyjnym. Polega ono na aktywnym poszukiwaniu informacji w otoczeniu, niekoniecznie w odpowiedzi na konkretne zapotrzebowanie. Czynności eksplo­ racyjne często interpretujemy jako przejaw tzw. bezinteresownej ciekawości, kiedy to organizm dąży do poznawczego opanowania jakiegoś przedmiotu lub sytuacji jak gdyby na wszelki wypadek albo ze względu na satysfakcjonujące właściwości samego zachowania badawczego. Bardzo dużo faktów świadczących o ścisłym związku poznania z działa­ niem zgromadziła psychologia rozwojowa. Rozwój poznawczy człowieka do­ konuje się w ten sposób, że większość czynności poznawczych najpierw ujawnia się w zachowaniu, aby dopiero potem stopniowo się uwewnętrznić. W wyniku tego procesu, zwanego interioryzacją, wiele czynności umysłowych dorosłego człowieka to nic innego, jak symboliczna wersja jawnych czynności poznaw­ czych małego dziecka, oczywiście wersja odpowiednio zmieniona i rozwinięta. Można powiedzieć, że w trakcie rozwoju poznawczego umysł ewoluuje, prze­ kształcając się z postaci jawnej w postać ukrytą. Prawdopodobnie nie każda óU Rozdział 1. Umysł i poznanie czynność mentalna jest ukrytym odpowiednikiem i pochodną czynności jaw­ nych. Wydaje się, że wiele wyspecjalizowanych modułów poznawczych, takich jak spostrzeganie twarzy ludzkiej lub automatyczne przywołanie informacji z pamięci, jest nam danych od razu w postaci mentalnej, ponieważ ich pocho­ dzenie wiąże się z dojrzewaniem określonych struktur nerwowych. Ale nawet te wyspecjalizowane moduły rozwijają się i dojrzewają dopiero pod wpływem działania człowieka w określonym środowisku. W niniejszym podręczniku przyjęto zasadę jedności działania i poznania. Zgodnie z tą zasadą, każdy akt poznania albo sam jest aktem działania, albo też jest podporządkowany działaniu. Na przykład zachowanie eksploracyjne samo w sobie jest aktem działania, natomiast przywołanie informacji z pamięci mimo że samo w sobie nie jest jawnym zachowaniem - w ostatecznym rozra­ chunku służy jakiemuś działaniu, choćby temu, by sensownie odpowiedzieć na pytanie. Z kolei każde działanie albo jest poznaniem, albo wymaga poznania, albo też do niego prowadzi. Przez działanie rozumiemy celowe zachowanie człowieka lub przedstawicieli innych gatunków, a także niektórych systemów sztucznej inteligencji. Rozróżnienie zachowania reaktywnego, stanowiącego odpowiedź na bodziec, oraz zachowania celowego, polegającego na dążeniu do wyróżnionych stanów środowiska lub własnego organizmu, pochodzi z teorii czynności Tadeusza Tomaszewskiego (1975). Teoretyczne podstawy takiego rozróżnienia znajdziemy też w koncepcji planów zachowania, rozwiniętej przez Millera, Galantera i Pribrama (1960). Zgodnie z koncepcją Tomaszew­ skiego, czynnością nazywamy każdy poszczególny przypadek działania, czyli zachowania celowego. Zgodnie zaś z przyjętą zasadą jedności poznania i działania, każdy akt poznania jest czynnością. Niektóre czynności poznawcze stanowią część jawnego, obserwowalnego zachowania organizmu (lub systemu sztucznego), podczas gdy inne czynności są nieobserwowalne - zinternalizowane lub z natury niedostępne obserwacji. Ale nawet wtedy, gdy czynność poznawcza nie podlega obserwacji, stanowi część większej sekwencji działań, rozumianych jako dążenie systemu do wyróżnionych stanów. Takim wyróżnio­ nym stanem może być zdobycie informacji, rozwiązanie problemu, podjęcie decyzji itd. Psychologia poznawcza uwzględnia zasadę jedności poznania i działania na wiele sposobów. Po pierwsze, ściśle wiąże procesy i czynności poznaw­ cze z celowym zachowaniem się organizmów. W tym ujęciu każdy proces poznawczy to ogniwo w długim łańcuchu czynności, z których jedne są całkowicie obserwowalne, a inne - całkowicie lub częściowo zinterioryzowane. Po drugie, psychologia poznawcza intensywnie rozwija teoretyczne modele procesów zarówno na „wejściu do czarnej skrzynki”, jak też „na wyjściu” z niej. Te pierwsze to procesy percepcji i uwagi, te drugie to procesy programowania i kontroli czynności motorycznych, ze szczególnym uwzględ­ nieniem programowania i kontroli mowy. Po trzecie, psychologia poznaw­ cza uwzględnia aktywność własną podmiotu poznającego jako czynnik wpły­ wający na przebieg i ostateczny wynik czynności poznawczych. Zgodnie z tym ujęciem, umysł przetw arza przede wszystkim te informacje, które sam „pobrał” z otoczenia w wyniku czynności eksploracyjnych, oraz te, które są mu potrzebne do zaprogramowania czynności motorycznych „swojego” organizmu. 1.2. Psychologia poznawcza: dziedzina czy paradygmat 31 1.2. Psychologia poznawcza: dziedzina czy paradygmat 1.2.1. Narodziny i rozwój psychologii poznawczej Na początku lat 80. XX w. przeprowadzono badania ankietowe wśród psychologów amerykańskich. Zapytano ich, z którym ze współczesnych kierunków psychologii się identyfikują. Ponad trzy czwarte ankietowanych zadeklarowało, że reprezentuje psychologię poznawczą (Eysenck, 1983). Wyniki te wydają się bardzo symptomatyczne, m.in. dlatego, że uzyskano je w kraju, w którym narodziły się lub osiągnęły apogeum swego rozwoju trzy najważniej­ sze nurty współczesnej psychologii: neopsychoanaliza społeczna, neobehawioryzm i psychologia humanistyczna. Co skłoniło tak znaczną liczbę uczonych, aby określić swoją tożsamość przez akces do psychologii poznawczej? Wydaje się, że odpowiedź zawiera się w rozróżnieniu kierunku i dziedziny badań psychologicznych. Kierunek (prąd, nurt) psychologiczny to szczególny wzorzec uprawiania nauki, swoisty ze względu na podstawowe pojęcia, założenia metateoretyczne, metodologię i rodzaj stawianych pytań badawczych. Jest to pojęcie bliskie wprowadzonemu przez Thomasa Kuhna (1970) terminowi paradygmat. Natomiast dziedzina lub obszar badań to po prostu określone pole problemowe, czyli zestaw pytań badawczych o naturę wybranego zbioru zjawisk. Rzecz jasna, ani stawiane pytania, ani nawet zbiór badanych zjawisk nie wiszą w teoretycznej próżni. Pewne pytania przestają być ważne po zmianie paradygmatu, inne z kolei zyskują sens i znaczenie dopiero w szerszym kontekście teoretyczno-metodologicznym. Mimo to w każdym z ważniejszych kierunków myśli psychologicznej stawia się dość podobne pytania i rozwiązuje porównywalne problemy. Jeśli więc prawie wszyscy badacze, zajmujący się ta­ kimi zjawiskami, jak spostrzeganie, uczenie się, uwaga, pamięć, język, myślenie, rozwiązywanie problemów i podejmowanie decyzji, nazywają siebie psycho­ logami poznawczymi, to znaczy, że identyfikują się poprzez dziedzinę, a nie paradygmat. Inaczej mówiąc, akces do psychologii poznawczej jest w dużej mierze niezależny od teoretycznego i metodologicznego podejścia do rozważa­ nych zagadnień. Jest tym samym niezależny od reprezentowanego kierunku czy też nurtu psychologicznego. Współczesną psychologię poznawczą należy uznać raczej za obszar badań psychologicznych, choć wcześniej uważano (np. Tomaszewski, 1980; Kozielecki, 1978), że to kierunek lub paradygmat. Istotnie, wczesne teorie poznawcze, np. koncepcja Ulrica Neissera (1967) lub George’a Kelly’ego (1955), nosiły wszelkie znamiona nowego paradygmatu badawczego, będącego w opozycji przede wszystkim wobec neobehawioryzmu, choć do pewnego stopnia również wobec psychologii dynamicznej. Były to ogólne koncepcje psychologiczne, mające ambicje opisania i wyjaśnienia całości problematyki psychologicznej w języku procesów przetwarzania informacji (Kozielecki, 1978). Obecnie obserwujemy wyraźne odejście od prób tworzenia ogólnych koncepcji psycho­ logicznych na rzecz badania wybranych problemów z zakresu poznania i pozna­ wania. Tak więc współczesna psychologia poznawcza jest raczej dziedziną badań niż spójnym paradygmatem teoretyczno-metodologicznym. Stąd, jak uważa Michael Eysenck (1983), czasem łatwiej jest określić, czym psychologia poznawcza się nie zajmuje, niż wskazać dokładnie obszar jej zainteresowań. Kozaziai i. umysł i poznanie Istnieje jednak pojęcie wspólne wszystkim koncepcjom i teoriom z obszaru poznawczego. Jest to pojęcie procesów poznawczych lub inaczej - procesów przetwarzania informacji. Wagę dokładnej analizy procesów poznawczych podkreślają wszyscy psychologowie poznawczy, niezależnie od własnej orien­ tacji badawczej i od stosowanej na własny użytek definicji psychologii poznawczej. Historia nauki, podobnie jak historia powszechna, to raczej ciąg powolnych procesów niż pojedyncze wydarzenia. Mimo to historię często opisuje się poprzez wydarzenia, szczególnie te, które mają znaczenie przełomowe lub symboliczne. Zdaniem Margaret Matlin (1994), większość psychologów za umowną datę powstania psychologii poznawczej uznaje rok 1956. Wówczas to w Massachusetts Institute of Technology (MIT) odbyło się pierwsze sympozjum kognitywne, o którym George Miller napisał później, że napełniło go „silnym przekonaniem, bardziej intuicyjnym niż racjonalnym, że psychologia ekspery­ mentalna, lingwistyka teoretyczna i komputerowa symulacja procesów pozna­ wczych to kawałki większej całości” (za: Matlin, 1994, s. 6). Tą całością okazała się wkrótce kognitywistyka, której psychologia poznawcza jest do dziś istotną częścią. Rok 1956 był zresztą ważny również dlatego, że autor tych słów opublikował wówczas klasyczny, ważny do dzisiaj artykuł o ograniczeniach pamięci krótkotrwałej (Miller, 1956). Trzy lata później ukazała się słynna praca Noama Chomsky’ego (1959). Rzadko się zdarza, aby recenzja cudzej książki stała się sama w sobie klasycznym dziełem naukowym. Recenzję, którą napisał Chomsky na temat książki Skinnera Verbal Behavior, należy więc uznać za rzecz najzupełniej wyjątkową. W pracy tej autor wykazał nieadekwatność teorii bodźca i reakcji do wyjaśniania zachowań werbalnych człowieka. Przy okazji Chomsky zaatakował behawioryzm jako model nauki o człowieku, wywodzący się z tradycji logicz­ nego pozytywizmu. Stwierdził, że terminy używane przez Skinnera, jeśli rozu­ mieć je literalnie, zupełnie nie nadają się do opisu tego, jak ludzie mówią, choć - być może - nadają się do opisu zachowania gołębi w ściśle kontrolowanych warunkach eksperymentalnych. Jeśli natomiast terminy te rozumieć metafo­ rycznie, ich użycie nie wnosi niczego nowego ponad to, co oferują wyjaśnienia potoczne. Podstawowy zarzut Chomsky'ego wobec behawiorystów sprowadzał się do tego, że lekceważą oni rolę wewnętrznych stanów umysłu w sterowa­ niu zachowaniem. Rok wcześniej brytyjski badacz Donald Broadbent (1958) opublikował książkę o ograniczeniach w przetwarzaniu informacji, wynikających z małej pojemności systemu uwagi. Badania prowadził już od lat 40. XX w., kiedy to - pod wpływem potrzeb wojennych - zainicjowano badania nad tzw. czynnikiem ludzkim, czyli wpływem ograniczonych możliwości umysłu ludzkiego na nie­ zawodność obsługi skomplikowanego sprzętu technicznego. Dojrzałość teoretycz­ ną i metodologiczną uzyskała psychologia poznawcza w 1967 r., kiedy to Ulric Neisser (1967) opublikował pierwszy systematyczny podręcznik tej dyscypliny. Jeśli natomiast analizować rozwój psychologii poznawczej nie od strony spektakularnych wydarzeń, lecz od strony procesów historycznych, trzeba wskazać na kilka uwarunkowań. Po pierwsze, w latach 50. XX w. dla więk­ szości psychologów stało się jasne, że radykalne koncepcje behawiorystyczne, próbujące opisywać i wyjaśniać zachowanie człowieka w języku ściśle obser­ 1.2. Psychologia poznawcza: dziedzina czy paradygmat 33 wacyjnym, czyli w kategoriach związków typu bodziec-reakcja (S-R), poniosły porażkę. Wprowadzenie między bodźce a reakcje tzw. zmiennych pośredni­ czących, oznaczanych literą O (od organism), niewiele w gruncie rzeczy zmieniło. Model S-O -R jest wprawdzie mniej podatny na krytykę niż pierwot­ ny model S-R, ale pamiętajmy, że tajemniczym symbolem „O” oznaczano przede wszystkim zjawiska związane z fizjologią organizmu, np. popędy i potrzeby. Z punktu widzenia rodzących się wówczas nauk kognitywnych było to ustępstwo idące w dobrym kierunku, lecz zdecydowanie zbyt skrom­ ne. Behawioryści, nawet umiarkowani, unikali „mentalistycznych” terminów i konstruktów teoretycznych, wkładając je wszystkie do tajemniczej „czarnej skrzynki”. Natomiast kognitywiści marzyli o tym, aby tę skrzynkę otworzyć i zobaczyć, co zawiera. Dopiero późniejsze prace wywodzące się z nurtu behawiorystycznego, np. monografia Berlyne’a (1969) o myśleniu, na serio zajęły się procesami poznawczymi, opisując je jako ciąg symbolicznych bodźców i reakcji. Behawiorystyczny model opisu zachowania okazał się zatem za ciasny dla badaczy mających ambicje badania wewnętrznych stanów umysłu. Okazał się również niezbyt zdolny do wyjaśnienia faktu, że człowiek jest podmiotem i sprawcą swoich zachowań. Istotą behawiorystycznej koncepcji człowieka była i pozostała idea zewnątrzsterowności, to znaczy podporządkowania człowieka działaniu czynników zewnętrznych (bodźców, wzmocnień itd.). Dopiero psychologia poznawcza „przywróciła” człowiekowi kontrolę nad własnym zachowaniem, choć nie neguje faktu, że ludzie bardzo często podporządkowują swe działania czynnikom zewnętrznym, nawet nie zdając sobie z tego sprawy. Problem kontroli i samokontroli zachowania wydaje się jednym z centralnych zagadnień psychologicznych, co psychologia poznawcza od samego początku uznała, wprowadzając odpowiednie konstrukty teoretyczne i opracowując stosowne procedury badawcze. Nie zapominajmy jednak, że niektórzy badacze bliscy behawioryzmowi są do dziś uznawani za prekursorów kognitywizmu. Wskazać tu należy przede wszystkim Edwarda Tolmana, który już w latach 30. XX w. wprowadził pojęcie map poznawczych i oczekiwań jako czynników wewnętrznych zdolnych modyfikować związki typu bodziec-reakcja. Innym ważnym autorem jest Donald O. Hebb (1949), który opisał działanie tzw. zespołów komórkowych; pomysł ten dał początek późniejszemu rozwojowi sieciowych modeli umysłu (zob. rozdz. 1.3.4). Poza tym behawioryści mają olbrzymie zasługi w „unaukowieniu” psychologii. Można zaryzykować tezę, że choć kognitywiści zasadniczo zmienili przedmiot zainteresowania psychologii, zachowali behawiorystyczną dbałość o metodologię badań, ze szczególnym uwzględnieniem koncentracji na jawnym zachowaniu jako podstawie wniosko­ wania o ukrytych procesach umysłowych. Ważną przesłanką powstania i rozwoju podejścia poznawczego były prace Jeana Piageta o rozwoju poznawczym dzieci. Jedną z centralnych idei tego szwajcarskiego psychologa i filozofa była teza, że rozwój jest równoważeniem struktur poznawczych. Podmiot asymiluje nowe informacje z otoczenia za pomocą wrodzonych lub wcześniej opanowanych schematów poznawczych. Asymilacja trwa dopóty, dopóki schemat nie utraci swej przydatności. W pew­ nym momencie dalsze korzystanie ze schematu staje się niemożliwe - zachodzi wówczas stan nierównowagi. Jej przywrócenie wymaga zmiany samego l i i n u £ U £ ic t i x . u i u y s i i p u z i i o i i i e schematu, czyli akomodacji. Rozwój poznawczy to nic innego jak nieustający ciąg asymilacji i akomodacji, dzięki czemu na podstawie starych schematów poznawczych tworzą się nowe, bardziej dostosowane do zadań, a także bardziej złożone i wydajne. Ponadto, zdaniem Piageta, rozwój wymaga własnej aktyw­ ności podmiotu. Człowiek rozwijający się jest swego rodzaju badaczem: musi sam, w wyniku obserwacji i doświadczeń, dojść do tego, że istniejące schematy stały się nieadekwatne i wymagają akomodacji. Rozwój poznawczy jest więc dla Piageta analogiczny do procesu badania naukowego; tę samą myśl znajdziemy u George’a Kelly’ego, który wprowadził do psychologii określenie człowieka jako „badacza z ulicy”. Trzecia ważna myśl Piageta to teza o konstruktywistycznej naturze poznania. Człowiek nie tyle odbiera informacje z otoczenia, ile samodzielnie konstruuje wewnętrzny obraz świata. Ten wewnętrzny obraz, czyli reprezentacja świata w umyśle, jest zazwyczaj tylko częściowo trafny. Wynika to z faktu, że stanowi raczej samodzielną budowlę niż bierne odbicie rzeczywistości. Jak widać, idee Piageta czynią go jednym z prekursorów poznawczego podejścia w psychologii. Bez takich pojęć, jak schemat poznaw­ czy, aktywność podmiotu i konstruktywny charakter poznania, trudno byłoby sobie wyobrazić współczesną psychologię poznania i poznawania. Podejście poznawcze było również inspirowane znaczącymi wydarzeniami mającymi miejsce poza psychologią. Zwróciliśmy już uwagę na doniosłość językoznawczych prac Chomsky’ego. Nie mniej ważny był rozwój technologii i teorii informatycznych (Shannon, Weaver, 1949) oraz cybernetycznych (Wie­ ner, 1948). Rozwój ten pozwolił na wykorzystanie komputerów w sterowaniu eksperymentami i obliczaniu wyników badań oraz - co być może okazało się nawet istotniejsze - umożliwił komputerową symulację procesów poznawczych. Dzięki temu współczesna psychologia poznawcza coraz bardziej łączy klasyczne badania empiiyczne z komputerowym modelowaniem procesów umysłowych. Nie bez znaczenia były też nowe idee na gruncie filozofii umysłu, przede wszystkim prace Jerry’ego Fodora (1975, 1983), Daniela Dennetta (1991) i Patricii Churchland (1986). Prace te dały nowy impuls starym sporom o relacje między umysłem a mózgiem, psychologom zaś unaoczniły doniosłość prob­ lematyki świadomości, skutecznie wyrugowanej z psychologii w okresie panowania behawioryzmu. 1.2.2. Psychologia a inne dziedziny badań nad poznaniem Poznaniem i poznawaniem interesują się liczne nauki wywodzące się z różnych tradycji teoretycznych i metodologicznych. Najwcześniej rozwiniętą i najbardziej szacowną jest niewątpliwie epistemologia, czyli filozoficzna teoria poznania (Woleński, 2000, 2001, 2003). Jej przedstawiciele zajmują się podstawowymi problemami ludzkiego poznania, takimi jak źródła i charakter wiedzy oraz teoria prawdy. Początkowo teoria poznania rozwijała się jako nauka spekulatywna, pomocniczo wykorzystując logikę i potoczne obserwacje. W miarę rozwoju nauk szczegółowych epistemologia coraz bardziej korzystała z dorobku fizjologii, psychologii, medycyny, językoznawstwa i innych dyscyplin. Intensywnie obecnie rozwijanym działem filozofii zajmującym się pozna­ niem jest filozofia umysłu (zob. Graham, 1998). W ramach tej dyscypliny bada 1.2. Psychologia poznawcza: dziedzina czy paradygmat 35 się np. klasyczny problem psychofizyczny. Problem ten, w dawnych wiekach definiowany jako problem relacji między materialnym ciałem a niematerialną duszą, obecnie jest raczej stawiany jako kwestia relacji między mózgiem a świa­ domością. Chodzi w szczególności o to, w jaki sposób mózg generuje świadome stany psychiki, a także jaka jest funkcja i pochodzenie tzw. ąualiów, czyli jakościowo swoistych, subiektywnych stanów świadomości. Szczególne podejście do badań nad poznaniem reprezentuje sztuczna inteligencja. Dziedzina ta zajmuje się konstruowaniem systemów komputero­ wych zdolnych do wykonywania poszczególnych czynności poznawczych. Już w latach 50. XX w. powstały pierwsze programy, których zadaniem była sy­ mulacja ludzkich procesów poznawczych, takich jak dowodzenie twierdzeń lub rozwiązywanie problemów. Później rozwinęły się badania nad rozpoznawaniem wzorców {pattern recognition), użyteczne w różnych dziedzinach życia prak­ tycznego. Sztuczna inteligencja może być uprawiana na dwa sposoby. W pierw­ szej wersji to po prostu dziedzina nauk inżynieryjnych, a jej celem jest kon­ struowanie inteligentnych systemów, które mogłyby być wykorzystane w prak­ tyce. W wersji drugiej chodzi o konstrukcję systemów udatnie naśladujących procesy poznawcze ludzi. W pierwszym przypadku kryterium sukcesu jest praktyczna użyteczność systemu, w drugim - możliwości jego wykorzystania w celu prowadzenia podstawowych badań nad poznaniem. Modelowanie kom­ puterowe, wymienione przez Allporta (1996) jako czwarta grupa metod ba­ dawczych w psychologii poznawczej (zob. rozdz. 1.2.3), jest bardzo bliskie drugiej wersji sztucznej inteligencji. Najpełniejszy program badawczy cechuje interdyscyplinarną dziedzinę badań nad poznaniem, zwaną kognitywistyką (cognitive science). Według tzw. raportu Sloane’a, sporządzonego w 1978 r. (zob. Hamish, 2002), kognitywistyka jest próbą syntezy problematyki uprawianej przez sześć tradycyjnych dyscyplin akademickich: filozofię, psychologię, językoznawstwo (lingwistykę), informatykę, antropologię2 i neuronaukę (Bechtel i in., 1998). Nie wszystkie tematy badawcze podejmowane na gruncie owych dyscyplin dotyczą poznania. W przypadku filozofii poznaniem interesują się epistemolodzy, logicy i filozo­ fowie umysłu. Na gruncie psychologii badania nad poznaniem prowadzą psy­ chologowie poznawczy, ale też wielu neuropsychologów, psychofizjologów, psychologów rozwojowych i społecznych. W przypadku pozostałych nauk także można stwierdzić, że choć niektóre problemy ściśle wiążą się z poznaniem i poznawaniem, inne są od tej tematyki dość odległe. Zatem tylko część każdej z wymienionych dyscyplin wchodzi w skład kognitywistyki tworząc swoistą wartość dodaną. Rycina 1.1 pokazuje sześciokąt, którego wierzchołki - re­ prezentujące tradycyjne dyscypliny akademickie - połączono zgodnie z istnie­ jącymi powiązaniami badawczymi. Tak więc linia nr 1 reprezentuje cybernetykę, linia nr 2 - neurolingwistykę, linia nr 3 - neuropsychologię, linia nr 4 2 Antropologia to nazwa co najmniej trzech różnych dyscyplin naukowych. Jako część filozofii antropologia jest ogólną refleksją nad naturą człowieka. Na gruncie nauk biologicznych antropologia zajmuje się badaniem człowieka jako gatunku, ze szczególnym uwzględnieniem naturalnej ewolucji Homo sapiens. Jaka część socjologii antropologia - zwana kulturową - zajmuje się badaniem kulturowych uwarunkowań ludzkich zachowań i kulturowym zróżnicowaniem struktur społecznych. Częścią kognitywistyki jest niewątpliwie antropologia kulturowa, choć nie bez znaczenia są też osiągnięcia antropologii biologicznej w zakresie ewolucji mózgu i jego funkcji. oo Jttozaziai i . um ysf i poznanie komputerowe symulacje procesów poznawczych, linia nr 5 - „obliczeniową” lingwistykę, linia nr 6 - psycholingwistykę, linia nr 7 - filozofię psychologii, linia nr 8 - filozofię języka, linia nr 9 - lingwistykę antropologiczną, linia nr 10 antropologię poznawczą, a linia nr 11 - badania nad ewolucją mózgu (Bechtel i in., 1998). filozofia Ryc. 1.1. Sześciokąt nauk kognitywnych (za: Bechtel i in., 1998, s. 70). Program badawczy kognitywistyki polega nie tyle na uprawianiu wszystkich wymienionych dyscyplin szczegółowych, ile na rozwijaniu lub powoływaniu do życia tych obszarów badawczych, które znajdują się między wierzchołkami sześciokąta. Niektóre z nich są już intensywnie uprawiane, inne dopiero czekają na swój rozwój. Szczególnie interesujące perspektywy wiążą się z powołaniem obszarów badawczych uwzględniających łącznie więcej niż dwie z sześciu dyscyplin wyjściowych. Na przykład na styku filozofii, psychologii i lingwistyki można podejmować problemy badawcze dotyczące natury języka i jego użycia w różnych zadaniach poznawczych (Hamish, 2002). Podobnie na styku filozofii, psychologii i informatyki można prowadzić interesujące badania nad kompute­ rowym modelowaniem kontroli poznawczej i świadomości. Obecny stan 1.2. Psychologia poznawcza: dziedzina czy paradygmat 37 kognitywistyki jest jednak dość daleki od tak wytyczonego celu ze względu na to, że każda z wymienionych dyscyplin posługuje się ciągle swoistą metodologią i dość specyficznym językiem (zob. Duch, 1998). 1.2.3. Metody badań nad poznaniem Psychologowie poznawczy przejawiają różne orientacje metodologiczne, dlatego są zwolennikami różnorodnych metod badania procesów i struktur umysło­ wych. Allport (1996) wyróżnia cztery podstawowe grupy metod badawczych. Pierwsza grupa obejmuje metody polegające na obserwacji i rejestracji wykonania zwykłych, codziennych, dobrze wyuczonych czynności poznaw­ czych, takich jak mówienie na określony temat, słuchanie cudzej wypowiedzi, czytanie itd. Analizuje się głównie błędy popełniane przez badanych w trakcie wykonywania rejestrowanych czynności. W wyniku takiego postępowania otrzy­ muje się raport zawierający poznawczą charakterystykę obserwowanej czyn­ ności (np. tworzące ją etapy), rodzaj procesów poznawczych zaangażowanych w wykonanie czynności (np. uwaga selektywna, pamięć semantyczna) oraz źródło błędów (np. dekoncentracja, brak dostępu do zasobów pamięci). Raport taki może sporządzić sama osoba badana, mamy wtedy do czynienia z tzw. samoopisem (self-report). Najczęściej jednak raport sporządza niezależny ba­ dacz. Niekiedy w wyniku takiego postępowania powstaje studium przypadku (case study), czyli opis działania konkretnej osoby albo grupy osób (np. firmy), utworzony na podstawie obserwacji działania tej osoby w naturalnych w arun­ kach życia codziennego. Drugą metodą badania przebiegu procesów przetwarzania informacji jest eksperyment laboratoryjny. Eksperymenty zwykle prowadzi się z udziałem „naiwnych”, czyli niedysponujących specjalistyczną wiedzą, osób badanych. Uczestnicy eksperymentu są proszeni o wykonywanie różnego rodzaju prostych zadań poznawczych, wymagających np. porównywania bodźców lub decydo­ wania, czy określony bodziec był prezentowany wcześniej. W przeciwieństwie do obserwacji w warunkach naturalnych, eksperymenty laboratoryjne są zazwyczaj prowadzone w warunkach sztucznych, choć dokłada się starań, by warunki te jak najbardziej zbliżyć do realnych sytuacji życiowych. Nienaturalne i niezwykle uproszczone są również typowe zadania eksperym entalne. W zamian za nieuniknioną sztuczność sytuacji laboratoryjnej uzyskuje się możliwość dokładnej kontroli przebiegu eksperymentu, w tym kontrolę nad rodzajem prezentowanych bodźców i czasem ich prezentacji. Eksperyment umożliwia też precyzyjną rejestrację reakcji osób badanych, a zwłaszcza czasu reakcji, na podstawie którego wnioskuje się o przebiegu ukrytych procesów poznawczych. Analizie podlega przede wszystkim średni czas reakcji, potrzeb­ ny osobie badanej na udzielenie prawidłowej odpowiedzi, choć niekiedy inte­ resujące są również inne wskaźniki chronometryczne (np. maksymalny lub minimalny czas reakcji albo indywidualna zmienność czasu reagowania). D ru­ gim, obok czasu reakcji, wskaźnikiem interesującym badaczy jest poprawność odpowiedzi, wyrażona zwykle w procentach maksymalnego wyniku możliwego do uzyskania w danych warunkach. Coraz częściej tego typu analizy są wzbogacane o badania neurobiologiczne (Sternberg, 1996). Możliwa jest np. óo Rozdział 1. Umysł i poznanie równoległa rejestracja EEG, czasu reakcji i błędów popełnianych w trakcie wykonania zadania. Kolejną metodą psychologii poznawczej są badania kliniczne z udziałem pacjentów z upośledzeniem poszczególnych zdolności poznawczych. Przyczyną upośledzenia jest uszkodzenie niektórych obszarów mózgowia w wyniku wylewu, urazu mechanicznego lub operacji neurochirurgicznej. Przypadki tego rodzaju są dla nauki bezcenne, ponieważ powstają w wyniku swoistego „eks­ perymentu” - niezaplanowanego i okrutnego dla osoby badanej, ale badawczo intrygującego. Z oczywistych względów nie można zdrowej osobie uszkodzić wybranych fragmentów mózgu, aby sprawdzić, w jaki sposób zmieni to jej zdolności poznawcze. Natura, dokonując takiego „eksperymentu”, pokazuje nam rolę poszczególnych obszarów mózgu w sterowaniu zachowaniem. Pokazuje też, jak działają poszczególne funkcje poznawcze, ponieważ nic tak nie mówi o przebiegu jakiegoś procesu, jak jego niewydolność w wyniku uszkodzenia. Dzięki obserwacjom klinicznym stwierdzono np., że pamięć krótkotrwała nie przekazuje danych do pamięci długotrwałej natychmiast i automatycznie, lecz z pewnym opóźnieniem, co wynika z działania wyspe­ cjalizowanego mechanizmu, umiejscowionego w strukturze mózgu zwanej hipokampem. Pewną odmianą podejścia klinicznego są badania nad poznaw­ czym starzeniem się, w których również obserwuje się deficyty poznawcze u wybranej grupy osób (w tym wypadku u osób starszych). Badania tego rodzaju wymagają zazwyczaj porównania między grupą seniorów a równoważną pod względem wieku i wykształcenia grupą kontrolną. Takich porównań nie zawsze można dokonać w przypadku pacjentów; na przeszkodzie stoi zazwyczaj niewielka liczebność grup klinicznych. Ostatnią z wyróżnionych przez Allporta (1996) metod badawczych jest symulacja komputerowa, czyli modelowanie poszczególnych procesów poznaw­ czych w postaci klasycznego programu komputerowego lub sztucznej sieci neuropodobnej. Komputerowy model procesu poznawczego jest szczególną postacią teorii naukowej opisującej ów proces. Badacz tworzy sztuczny system zdolny do wykonywania określonych zadań, a następnie porównuje wyniki działania tego systemu z zachowaniem człowieka. Jeśli w wyniku porównania badacz stwierdza daleko idącą zgodność poziomu wykonania, a zwłaszcza liczby i rodzaju popełnianych błędów, może uznać model komputerowy za wystar­ czająco wierną symulację naturalnych procesów poznawczych. A ponieważ model został stworzony przez badacza, jest mu dokładnie znany pod względem swej architektury i sposobu działania. Badacz może wówczas stwierdzić, że to, co nieznane, czyli działanie umysłu ludzkiego, wolno mu opisać poprzez to, co znane, czyli działanie programu komputerowego lub sieci neuropodobnej. Wia­ domo, że podobieństwo dwóch systemów na wyjściu, to znaczy podobieństwo pod względem poziomu wykonania zadania, nie musi wynikać z podobieństwa sposobu działania obu systemów, ponieważ ten sam wynik końcowy można uzyskać na wiele sposobów. Dlatego powyższe rozumowanie jest wysoce ryzykowne: umysł ludzki może, ale nie musi działać tak jak system sztuczny, dlatego model komputerowy można przyjąć za teorię procesu poznawczego tylko z pewnym prawdopodobieństwem. Jednak korzyści poznawcze wynikające z modelowania komputerowego wydają się oczywiste, lepiej bowiem dyspono­ wać prawdopodobną teorią przebiegu procesu umysłowego, niż nie dysponować 1.2. Psychologia poznawcza: dziedzina czy paradygmat 39 żadną. Ponadto klasyczne badania empiryczne też nie dają wiedzy pewnej, a je­ dynie wiedzę prawdopodobną, ponieważ wnioskowanie z danych empirycznych o nieobserwowalnych procesach umysłowych jest z natury rzeczy zabiegiem poznawczo ryzykownym. Kategoryzację Allporta należałoby uzupełnić o metody obrazowania pracy mózgu (Buckner, Petersen, 1998). Choć rozwinięte na gruncie nauk medycz­ nych i neurobiologicznych, metody te znajdują coraz szersze zastosowanie w badaniach z zakresu psychologii poznawczej. Obecnie wykorzystuje się dwie techniki z tego obszaru: skanowanie techniką emisji pozytonów (positon emmision tomography, PET) oraz funkcjonalny rezonans magnetyczny (functional magnetic resonance imaging, fMRI). W obu przypadkach rejestruje się aktyw­ ność metaboliczną różnych obszarów mózgu. Technika PET pozwala na rejestrację poziomu ukrwienia, a technika fMRI - na rejestrację poziomu zuży­ cia tlenu w wybranych obszarach mózgu. Zakłada się, że wzrost przepływu krwi lub większe zużycie tlenu sygnalizują wzmożoną aktywność określonych obszarów mózgowia. Jeśli więc damy osobie badanej do rozwiązania jakieś zadanie poznawcze, a następnie posłużymy się jedną z metod obrazowania, możemy obserwować, które obszary mózgu są szczególnie aktywne w czasie wykonywania tego zadania. Dzięki temu możemy poznać mózgową lokalizację interesujących nas funkcji poznawczych, np. wybranych rodzajów pamięci. Możemy też poznać różnice w zakresie aktywności mózgu między osobami mniej i bardziej wprawnymi w wykonywaniu tychże zadań, jak też między osobami młodszymi i starszymi, zdrowymi i chorymi albo mniej i bardziej inte­ ligentnymi. Co więcej, na podstawie obrazowania pracy mózgu można we­ ryfikować konkurencyjne modele teoretyczne wybranych czynności poznaw­ czych. Wiemy na przykład, że różne zadania angażujące pamięć uaktywniają różne obszary mózgu, co wyraźnie sugeruje, że pamięć nie jest zjawiskiem jednolitym, to znaczy różne grupy procesów pełnią odmienne funkcje w czyn­ nościach pamięciowych. Weryfikacja konkurencyjnych teorii wyłącznie na pod­ stawie danych z obserwacji zachowania nie zawsze jest możliwa. Wadą technik obrazowania jest jednak stosunkowo słaba rozdzielczość czasowa, wynosząca kilka sekund w przypadku fMRI i aż ok. pół minuty w przypadku PET. Większość elementarnych procesów poznawczych trwa mniej niż sekundę, np. przeczytanie słowa zajmuje nam ok. 500 ms. Wobec tego słaba rozdzielczość czasowa technik neuroobrazowania stanowi poważną przeszkodę w ich wykorzystaniu do badania przebiegu procesów umysłowych. Niezależnie od rodzaju zastosowanej metody, kluczem do uzyskania odpowiedzi na interesujące badacza pytanie jest skrupulatna analiza zachowa­ nia osoby badanej, a zwłaszcza rejestracja poziomu wykonania przez nią zadania poznawczego. Poziom wykonania zadania odzwierciedla bowiem jakość realizujących to zadanie procesów przetwarzania informacji. Analiza poziomu wykonania zadania musi więc być prowadzona tak, aby możliwa była ilościowa oraz jakościowa charakterystyka poszczególnych procesów przetwarzania informacji odpowiedzialnych za wykonanie zadania. W przypadku metody obserwacji, eksperymentu laboratoryjnego i badań klinicznych analiza poziomu wykonania zadania jest jedynym efektem postępowania badawczego, natomiast w przypadku modelowania i neuroobrazowania dane behawioralne są nie­ zbędnym elementem całej procedury badawczej. Bez analizy wykonania zadań 4U Rozdział 1. Umysł i poznanie przez żywych ludzi nie byłoby możliwe komputerowe symulowanie procesów poznawczych, a obrazowanie pracy mózgu utraciłoby psychologiczny sens (choć zachowałoby sens z punktu widzenia biologii czy medycyny). Dlatego tak ważne w psychologii poznawczej jest właściwe wykorzystanie wskaźników wykonania przez osobę badaną przedstawionych jej zadań umysłowych. Najważniejsze wskaźniki to czas reakcji oraz liczba i jakość popełnionych błędów. Pomiar czasu reakcji jako sposób badania funkcji poznawczych rozwinięto w ramach podejścia zwanego chronometrią umysłu (mental chronometry). Nawet w przypadku stosunkowo prostych zachowań - wymagających np. naciś­ nięcia klawisza na sygnał świetlny lub dźwiękowy - od momentu zadziałania bodźca (sygnału) do momentu wykonania reakcji (naciśnięcia klawisza) upływa pewien czas. Zmienna „czas reakcji” (reaction time, RT; Exner, 1873) dotyczy tego właśnie odcinka, czyli okresu utajenia reakcji3. Na czas upływający po­ między bodźcem a reakcją składają się czasy trwania poszczególnych etapów reagowania: etapu przesłania informacji na temat bodźca do mózgu, etapu przetwarzania tych informacji przez system nerwowy i etapu zaprogramowania reakcji i wykonania jej przez mięśnie. Badanie czasów reakcji ma - jak na psychologię - stosunkowo długą tradycję, gdyż zaproponowane zostało już w 1850 r. przez pioniera psychologii eksperymentalnej Hermanna von Helmholtza. Trzeba jednak pamiętać, że czas reakcji ma dla psychologa jakąkolwiek wartość poznawczą tylko wtedy, gdy zostanie właściwie zinterpretowany, sam w sobie nie znaczy bowiem nic. Czas reakcji może być np. wskaźnikiem ogólnego stanu psychofizycznego człowieka lub ogólnego tempa przewodnictwa neuronalnego. W obu przypadkach nie jest to miara, z której chcielibyśmy korzystać w badaniu funkcji poznawczych. Dlatego chronometria umysłu polega na umiejętnym manipulowaniu warunka­ mi zadania poznawczego, przede wszystkim jego złożonością, a następnie mierzeniu czasu potrzebnego na rozwiązanie każdej wersji zadania. Pobrane w ten sposób czasy reakcji są następnie porównywane, odejmowane, sumowane lub inaczej jeszcze przetwarzane. Teoretyczne i metodologiczne podstawy takiego postępowania stworzył w XIX w. holenderski badacz Franciscus Cor­ nelius Donders. Donders (1868) założył, że wykonanie każdego zadania wymaga serii operacji umysłowych, które dokonują się w czasie rzeczywistym. Jak na owe czasy było to bardzo śmiałe założenie, bo oznaczało, iż operacje mentalne nie są bezczasowymi aktami, lecz realnymi, materialnie zakotwiczonymi procesami. Jeśli operacja mentalna jest procesem, którego długość można zmierzyć, to znaczy, że - przy wszystkich ograniczeniach tego porównania - umysł działa podobnie do urządzeń technicznych. Mówiąc językiem Kartezjusza, operacje umysłowe należałoby zaliczyć raczej do kategorii „rzeczy rozciągłych”, bo mierzalnych, a nie do kategorii rzekomo niematerialnych „rzeczy myślących”. Z naszego punktu widzenia istotne jest przede wszystkim to, że jeśli operacje 3 Stąd używany niekiedy alternatywnie termin „czas latencji”. Jednak w celu uniknięcia nieporozumień proponujemy, aby czas między bodźcem a obserwowalną reakcją osoby badanej nazywać czasem reakcji, zaś termin „czas latencji” zarezerwować dla okresu między bodźcem a bez­ wiedną reakcją fizjologiczną organizmu, np. potencjałem wywołanym (EEG) lub reakcją elektrodermalną (EDA). 1.2. Psychologia poznawcza: dziedzina czy paradygmat 41 umysłowe dokonują się w czasie rzeczywistym, każda z nich wykonywana jest w osobnym etapie, a wszelkie czynności poznawcze można rozbić na pewną liczbę takich etapów. Donders założył, że etapy są wzajemnie niezależne. Natychmiast po zakończeniu przetwarzania w jednym z etapów informacja jest przesyłana do etapu następnego, a czas niezbędny do przetworzenia informacji w danym etapie nie ma wpływu na czas potrzebny na dalsze przetworzenie danych w kolejnych etapach. Z tych założeń wynika, iż czas potrzebny na wykonanie zadania jest prostą sumą wszystkich odcinków czasu, niezbędnych do zrealizowania każdego etapu zadania. Istotą metody Dondersa jest zasada konstrukcji wielu wersji tego samego zadania, różniących się liczbą niezbędnych operacji umysłowych. Zgodnie z przyjętymi założeniami, wersje te różnią się liczbą etapów przetwarzania informacji, a ponieważ każdy etap wymaga czasu - wersje różnią się też długością czasu, który upływa między bodźcem a reakcją. Na przykład na­ ciśnięcie guzika w odpowiedzi na jeden bodziec wymaga, w uproszczeniu, trzech etapów: kodowania bodźca, przetworzenia bodźca na reakcję i wykonania reakcji (ryć. 1.2). Naciśnięcie guzika w odpowiedzi na jeden z dwóch bodźców (np. reaguj na zielony, nie reaguj na czerwony) wymaga dodatkowego etapu > R RT1 B1 wybór B2 R RT2 B1 R1 wybór decyzja R1 lub R2 B2 R2 RT3 Ryc. 1.2. Schemat metody Dondersa. Trzy wersje tego samego zadania na czas reakcji różnią się liczbą etapów przetwarzania informacji, a tym samym długością czasu potrzebnego do wykonania zadania. Odejmując globalny czas wykonania zadania w wersji prostszej od czasu potrzebnego na rozwiązanie zadania w wersji bardziej złożonej, otrzymujemy informację o czasie trwania wybranej, nieobserwowalnej operacji umysłowej, np. wyboru bodźca lub podjęcia decyzji co do rodzaju reakcji. BI - bodziec pierwszy, B2 - bodziec drugi, R1 - reakcja pierwsza, R2 - reakcja druga, RT1 - prosty czas reakcji, RT2 - RT1 = czas wyboru bodźca, RT3 - RT2 = czas podejmowania decyzji. Rozdział 1. Umysł i poznanie różnicowania bodźców, dlatego cały proces staje się czteroetapowy. Jeśli natomiast zadanie polega na tym, aby nacisnąć prawy guzik w odpowiedzi na światło zielone, a lewy - w odpowiedzi na światło czerwone, potrzebny jest do­ datkowy etap decyzji co do rodzaju reakcji. Dlatego w tej wersji zadanie wymaga już pięciu etapów. Mierząc całkowity czas reakcji w każdej wersji zadania, możemy ocenić, jak długo trwa wykonanie procesu mentalnego, składającego się z trzech, czterech lub pięciu etapów. Mierzymy więc czas między bodźcem a reakcją, ale wnioskujemy o długości nieobserwowalnego procesu umysłowego. Co więcej, odejmując czas reakcji uzyskany w wersji czteroetapowej od czasu w wersji trzyetapowej, uzyskujemy informację, jak długo trwa jeden z etapów przetwarzania informacji, mianowicie etap różnicowania bodźców. Analogicznie, posługując się metodą odejmowania, możemy ocenić czas trwania etapu decyzji o wyborze właściwej reakcji. Nie widząc zatem, interesujących nas procesów mentalnych, możemy ocenić czas ich trwania. W szczególności możemy stwierdzić, czy wynik odejmowania dwóch wartości czasu reakcji jest większy od zera, bo to oznacza, że dany etap istnieje. Gdyby wynik odejmowania był równy zeru, można by wnioskować, że dany etap nie istnieje, a więc model teo­ retyczny zakładający jego istnienie jest nieadekwatny do rzeczywistości. W ten sposób, posługując się logiką badawczą zaproponowaną przez Dondersa, możemy weryfikować konkurencyjne modele badanych procesów poznawczych. Wzorując się na metodzie Dondersa i twórczo ją rozwijając, psychologowie poznawczy opracowali wiele technik wnioskowania o procesach poznawczych na podstawie analizy czasu reakcji (ramka 1.1). Charakterystyczną cechą tego podejścia jest konieczność skonstruowania wyjściowego modelu teoretycznego, stanowiącego podstawę do późniejszych pomiarów i innych zabiegów (np. odejmowania wartości czasu reakcji). Model przedstawiony na ryc. 1.2 może się wydawać nadmiernie uproszczony, ale jego zadaniem nie jest wierny opis procesów poznawczych, sterujących naciskaniem guzików w odpowiedzi na dwojakiego rodzaju bodźce, lecz stworzenie warunków do przyszłego badania empirycznego. Na podstawie takiego modelu tworzymy wersje zadania różniące się liczbą etapów przetwarzania informacji. Dopiero dysponując modelem, mo­ żemy dokonywać pomiarów, odejmować poszczególne czasy reakcji, a następnie wnioskować o strukturze badanego procesu poznawczego, np. o liczbie nie­ zbędnych etapów. Pod wpływem późniejszych zabiegów metodologicznych możemy ten model poprawić, a nawet całkiem odrzucić, ponieważ spełnił on już swą rolę jako źródło przewidywań co do zachowania osób badanych w różnych warunkach eksperymentalnych. Odrzuciwszy model wyjściowy, przyjmujemy inny - lepiej dopasowany do obserwacji empirycznych. Tak więc model wyj­ ściowy pełni wyłącznie funkcję heurystyczną, to znaczy jest generatorem przewidywań co do wartości pomiarów w różnych warunkach badania. Jednak nie dysponując takim modelem, nie bylibyśmy w stanie w ogóle niczego zbadać, ponieważ nawet gdyby udało nam się zmierzyć jakiś czas reakcji, nie wiedzie­ libyśmy, czemu on odpowiada ani o czym świadczy. Podejście zwane chronometrią umysłu wymaga bardzo starannej obróbki danych dotyczących czasu reakcji. Nie potrzeba wyrafinowanego eksperymentu psychologicznego, aby się przekonać, jak bardzo wartość czasu reakcji jest podatna na zakłócenia. Niekiedy - sami nie zdając sobie z tego sprawy - tę samą czynność wykonujemy szybko i bezbłędnie, czasem zaś zdecydowanie wolniej 1.2. Psychologia poznawcza: dziedzina czy paradygmat 43 Ramka 1.1 ■i Zaawansowane wersje chronometrii umysłu ] Twórczymi kontynuatorami Dondersa byli m.in. Saul Sternberg (1969) i Robert i J. Sternberg (1977). Zbieżność ich nazwisk jest przypadkowa, a każdy z tych bada- ? czy dopracował się swojej metody, działając niezależnie od drugiego. Saul Sternberg jest autorem bardzo znanej procedury badania pamięci krótkotrwałej, a Robert J. Sternberg to wybitny badacz inteligencji człowieka. Zaproponowane przez nich wer­ sje chronometrii umysłu były próbą rozwiązania istotnych problemów związanych | z oryginalną metodą Dondersa. Chodzi o to, że nie każde zadanie da się skonstruo- ; | wać w kilku wersjach, różniących się poziomem złożoności. Nawet jeśli byłoby to możliwe, wersja bardziej złożona może wymagać nieco innych operacji umysłowych i albo nieco innego układu tych operacji, a nie po prostu jednej operacji umysłowej więcej. Jeśli tak, to trudno mówić o spełnieniu jednego z podstawowych założeń metody Dondersa, że odejmowanie wartości czasu reakcji dotyczącego różnych wersji zadania da nam ocenę czasu trwania pojedynczej operacji umysłowej. Ponad­ to odejmowanie wartości czasu reakcji budzi poważne zastrzeżenia metodologiczne związane z tym, że wartość różnicy zależy od wartości jej składników. Jeśli ktoś np. reaguje bardzo wolno, uzyskana dla takiej osoby różnica wartości czasu reakcji będzie stosunkowo duża, a w każdym razie znacznie większa niż w przypadku kogoś, kto reaguje szybko. W wyniku odejmowania otrzymujemy więc wartości w znacznym stopniu nieporównywalne między osobami. Istotą podejścia, zaproponowanego przez Saula Sternberga, zwanego metodą addytywną, jest manipulowanie warunkami zadania, np. liczbą elementów do zapamiętania lub rodzajem wymaganej reakcji (TAK lub NIE). Manipulując eksperymentalnie warunkami zadania, można sprawdzić, czy mają one wspólny, czy też odrębny wpływ na czas rozwiązania całego zadania. Zakłada się, że jeśli wpływ jest wspólny, zaobserwujemy statystyczny efekt interakcji dwóch lub więcej warunków. Na przykład czas reakcji będzie zależał od warunku A, warunku B, a ponadto od łącznego wpływu obu warunków (interakcja A x B). Jeśli natomiast wpływ miałby być odrębny, oba warunki dadzą efekty proste, nie wchodząc w interakcje, to znaczy czas reakcji będzie zależał od warunku A i osobno od warunku B, ale już nie od łącznego wpływu obu warunków. Sternberg założył, że jeśli dwa warunki wpływają na czas wykonania zadania interaktywnie, to znaczy, że oddziałują na ten sam etap wykonania zadania. Jeśli natomiast dwa warunki nie wykazują wpływów interkatywnych, a jedynie addytywne (tj. sumujące się), „ wówczas oddziałują na różne etapy przetwarzania informacji. W ten sposób, inaczej niż metodą odejmowania, próbuje się ustalić liczbę etapów przetwarzania informacji w danym zadaniu, a także czynniki determinujące proces przetwarzania informacji w poszczególnych etapach. Próbuje się również nadawać teoretyczną interpretację kolejnym etapom zadania, nazywając je kodowaniem danych, porów­ nywaniem dwóch reprezentacji umysłowych itd. Z kolei metoda Roberta J. Sternberga (1977) nazywa się analizą kompo­ nentową, ponieważ polega na dekompozycji złożonego procesu poznawczego na elementarne składniki (komponenty), operujące na reprezentacjach poznawczych. Określenie „elementarne” oznacza, że komponentów nie da się już rozbić na skład­ niki niższego rzędu. Istotą analizy komponentowej jest operowanie wskazówkami 44 Rozdział l. Umysł 1 poznanie wstępnymi (precues), czyli bodźcami niezbędnymi do wykonania określonych ope­ racji umysłowych, pojawiającymi się przed właściwym zadaniem poznawczym. Jeśli owych wskazówek wstępnych dostarczymy osobie badanej „za darmo”, to znaczy jeszcze przed włączeniem urządzenia rejestrującego czas reakcji, zmierzona war­ tość sumarycznego czasu reakcji będzie pomniejszona o czas potrzebny na wyko­ nanie tych operacji, które „karmią się” dostarczonymi wskazówkami. Proces po­ znawczy i tak będzie pełny, integralny, niepozbawiony ważnych elementów skła­ dowych. Jednak sumaryczny czas reakcji będzie wyraźnie krótszy, ponieważ osoba badana wykona niektóre komponenty, jeszcze zanim zaczniemy mierzyć czas. Na przykład zadanie rozwiązywania prostych sylogizmów werbalnych należy rozpocząć od kodowania i identyfikowania poszczególnych informacji składających się na rozwiązywany problem. Można założyć, że kodowanie i identyfikowanie informacji stanowi pierwszy etap przetwarzania w procesie rozwiązywania sylo­ gizmów. Osoba badana, która rozpoczyna zadanie w momencie, gdy zapoznała się już ze wszystkimi informacjami niezbędnymi do prawidłowego rozwiązania, skraca proces rozwiązywania sylogizmu o ten właśnie pierwszy etap, zwany etapem kodowania. Możemy oczywiście dostarczać różnych wskazówek wstępnych, tym samym umożliwiając osobie badanej wykonanie różnych komponentów „za darmo”, czyli zanim zaczniemy mierzyć czas. Porównując teraz czas reakcji uzyskany w warunkach eksperymentalnych, różniących się liczbą i charakterem dostarczonych wskazówek wstępnych, możemy ocenić czas trwania poszczegól­ nych komponentów, a przede wszystkim to, czy dany komponent w ogóle istnieje. Opisany sposób postępowania pozwala weryfikować złożone modele przetwa­ rzania informacji, a ponadto badać różnice indywidualne. Okazuje się bowiem, że ludzie różnią się ze względu na czas wykonania poszczególnych komponentów, a różnice te bywają skorelowane z innymi wymiarami, np. z inteligencją ogólną. i mniej precyzyjnie. Przy wielokrotnych powtórzeniach danej czynności - gdy narasta wprawa, ale też i zmęczenie - niektóre powtórki są bardziej, inne zaś mniej udane. Dlatego, opierając wnioskowanie na czasach reakcji, niezbędne jest zachowanie pewnych rygorów metodologicznych. Do grona zabezpieczeń przed przypadkowością pomiaru należy m.in. stosowanie dużej liczby powtó­ rzeń wykonania tego samego zadania. W typowym eksperymencie psychologicz­ nym osoba badana wykonuje to samo proste zadanie kilkadziesiąt razy. W koń­ cowym wnioskowaniu wykorzystuje się średnie czasy reakcji, obliczane na pod­ stawie wszystkich wykonanych prób. Niektórzy badacze stosują ponadto statys­ tyczne procedury „poprawiania” wyników, polegające na odrzucaniu wartości skrajnych. Na przykład w końcowych obliczeniach nie uwzględnia się danych pochodzących od osoby, której wyniki zdecydowanie odbiegają od przeciętnego (charakterystycznego dla pozostałych badanych) wzorca reagowania (Jensen, 1982). Podejście to zakłada, iż osoba, która wykonała zadanie wyraźnie inaczej niż pozostali uczestnicy eksperymentu, albo nie zrozumiała instrukcji, albo z innych powodów nie była w stanie zadania wykonać, a w konsekwencji wy­ konała coś zupełnie innego, niż zakładano. Może to oznaczać, że badany przez nas proces poznawczy u takich osób po prostu nie wystąpił. Pierwsze z po­ wyższych zabezpieczeń przed przypadkowością pomiaru, czyli duża liczba pow­ 1.3. Ogólna architektura umysłu 45 tórzeń, zwanych próbami eksperymentalnymi (trials), jest powszechnie stosowa­ ne i z pewnością korzystne, drugie natomiast wydaje się kontrowersyjne (Nęcka, 1994). Nie można bowiem wykluczyć, że osoba reagująca znacznie dłużej lub krócej od pozostałych uczestników eksperymentu stosuje swoistą strategię poz­ nawczą, a więc radzi sobie z zadaniem inaczej, niż to przewiduje wstępny model teoretyczny przyjęty przez badacza. W takiej sytuacji eliminowanie osób nie­ typowych może oznaczać niezamierzone fałszowanie wyników badań. Natomiast zabiegiem całkowicie uprawnionym i powszechnie stosowanym jest „czyszczenie” wyników, polegające na usuwaniu nienaturalnie długich wartości czasu reakcji z serii prób pobranych od tej samej osoby. Takie nie­ naturalnie długie wartości czasu reakcji zwykle wynikają z dekoncentracji osoby badanej lub z wpływu czynników niekontrolowanych. Ponadto w badaniach z użyciem technik chronometrii umysłu zwykle nie uwzględnia się czasu reakcji błędnych, nie wliczając tych wartości do sumy stanowiącej podstawę obliczania średniego czasu reakcji. Uważa się mianowicie, że czas reakcji błędnej jest czasem nie wiadomo czego. Jeśli reakcja jest poprawna, jej czas informuje nas o sumarycznej długości czasu potrzebnego na wykonanie wszystkich zakłada­ nych przez nas etapów przetwarzania informacji. Ten sumaryczny czas może być następnie odejmowany od innych wartości itd. Jeśli natomiast reakcja jest błędna, to nie wiemy, co się stało: czy któryś etap został przez badanego wy­ konany, ale źle, czy też po prostu pominięty. W takiej sytuacji należy czas reakcji błędnej zignorować, odnotowując sam fakt wystąpienia błędu. Równie ważnym co czas reakcji wskaźnikiem przebiegu procesów poznaw­ czych są bowiem błędy popełniane podczas wykonania zadania, a zwłaszcza ich rodzaj i sumaryczna liczba. Na podstawie błędów możemy wnioskować nie tylko o tym, czy system poznawczy jest sprawny, ale i o przebiegu interesujących nas procesów poznawczych. Specyficzność popełnianych błędów pozwala czasem wnioskować o przebiegu procesu przetwarzania, np. o odmiennych strategiach stosowanych przez różne grupy osób badanych. Nawet w bardzo prostych zadaniach, np. wymagających reagowania jedną ręką na światło zie­ lone, a drugą na czerwone (zob. ryc. 1.2), zdarzają się błędy. W tym zadaniu można się pomylić co najmniej na dwa sposoby: (1) nie naciskając przycisku, choć zgodnie z instrukcją należało to zrobić, lub (2) naciskając przycisk, mimo że warunki zadania tego nie wymagały. W pierwszym przypadku popełniamy błąd ominięcia (OM), w drugim - błąd fałszywego alarmu (FA). Informacje dotyczące błędów analizuje się na kilka sposobów. Czasem uwzględnia się ogólną liczbę błędów dowolnego rodzaju, czasem zaś wzajemny stosunek ominięć lub fałszywych alarmów do całkowitej liczby błędów. Skłonność do popełniania raczej OM niż FA, lub odwrotnie, zależy od warunków zadania, instrukcji, indywidualnych preferencji osoby badanej lub od przyjętej przez nią strategii radzenia sobie z zadaniem. 1.3. Ogólna architektura umysłu Przez pojęcie ogólnej architektury umysłu rozumiemy swoisty rodzaj teorii naukowej. Jest to teoria o bardzo dużym poziomie ogólności, opisująca naj­ <40 nozaział i. umysi i poznanie ważniejsze elementy budulcowe umysłu oraz ich wzajemne relacje. Każda z pro­ ponowanych architektur poznawczych opisuje więc strukturę systemu poznaw­ czego, a także wynikające z niej ogólne zasady przetwarzania informacji. Two­ rzy ogólne ramy teoretyczne, w których konstruuje się teorie o węższym zasięgu, opisujące już konkretne procesy lub czynności poznawcze. 1.3.1. Blokowe m odele um ysłu Podstawowe założenie modeli blokowych głosi, że informacja jest przetwarzana przez system poznawczy sekwencyjnie i „oddolnie” (bottom-up), czyli od wejścia sensorycznego aż po wyjście behawioralne. Sekwencja przetwarzania składa się z kilku lub kilkunastu etapów następujących kolejno po sobie i realizowanych w kolejnych blokach procesów przetwarzania informacji. Blok można zdefiniować jako zespół procesów przetwarzania informacji o podobnym charakterze i zadaniach, obsługujący wyróżnioną czynność poznawczą (np. spostrzeganie, pamięć, kontrolę motoryki). Z reguły w każdym modelu bloko­ wym, mającym ambicję ujęcia całości systemu poznawczego, uwzględniano następujące bloki: wejście sensoryczne, uwagę, spostrzeganie, pamięć, procesy myślowe, procesy decyzyjne, wyjście behawioralne. Jednym z najpopularniejszych, wczesnych modeli systemu przetwarzania informacji jest blokowy model Atkinsona i Shiffrina (1968) .W tym ujęciu system przetwarzania informacji składa się z trzech magazynów pamięci: rejestru sen­ sorycznego, pamięci krótkotrwałej oraz pamięci długotrwałej. Docierające z oto­ czenia informacje przechodzą przez magazyny systemu poznawczego w tej właś­ nie kolejności (ryc. 1.3), przy czym na każdym etapie podlegają selekcji. O tym, które informacje przejdą z rejestru sensorycznego do pamięci krótkotrwałej, decydują procesy uwagi. Natomiast transfer informacji z magazynu pamięci krótkotrwałej do magazynu pamięci długotrwałej jest warunkowany jedną z naj­ ważniejszych operacji kontrolnych: powtarzaniem (rehearsal) i organizowaniem materiału. Informacja niepowtarzana bezpowrotnie zanika wraz z upływem czasu, podczas gdy informacja wystarczająco długo podtrzymywana dzięki kolej­ nym powtórkom zostaje trwale zapisana w pamięci długotrwałej. Pojemność ma­ gazynu pamięci długotrwałej autorzy uznali za nieograniczoną, a tzw. zapo­ minanie wyjaśniali raczej brakiem dostępu do informacji niż jej utratą. Natomiast pojemność rejestru sensorycznego, a zwłaszcza pamięci krótkotrwałej, uznali za bardzo ograniczoną. Aby określone informacje mogły być przez właściwy pod­ system przetworzone, muszą zostać wcześniej zapisane w odpowiednim formacie, za co odpowiedzialne są procesy kodowania pamięciowego. Na przykład pamięć krótkotrwała, według Atkinsona i Shiffrina, przetwarza informacje werbalne, podczas gdy pamięć długotrwała zorganizowana jest raczej według znaczenia przechowywanych w niej informacji. Za sterowanie procesem przetwarzania in­ formacji na poszczególnych etapach, jak też za transfer z jednego magazynu pamięci do innego odpowiedzialne są procesy kontrolno-regulacyjne. Zarządzają one analizą sensoryczną, regulacją transferu pomiędzy magazynami, przebiegiem wydobywania informacji z pamięci długotrwałej oraz zapominaniem. Istotnym elementem modelu Atkinsona i Shiffrina jest generator reakcji. Jak widać (ryc. 1.3), reakcja może wystąpić w odpowiedzi na informacje do- 1.3. Ogólna architektura umysłu 47 Ryc. 1.3. Blokowy model przetwarzania informacji Atkinsona i Shiffrina (za: Bechtel i in., 1998, s. 47). pływające z każdego z trzech bloków pamięci. Sama zawartość rejestru senso­ rycznego może dać impuls do wytworzenia reakcji z pominięciem dwóch pozostałych systemów pamięci. To samo dotyczy pamięci krótkotrwałej. Nato­ miast pamięć długotrwała może wytworzyć reakcję bezpośrednio albo za pośrednictwem pamięci krótkotrwałej. W późniejszej wersji swojego modelu Atkinson i Shiffrin (1971) przyjęli, że reakcja może być wyprodukowana tylko przez system krótkotrwałego prze­ chowywania informacji (short term storę, STS). W tymże systemie działają też procesy kontroli, takie jak powtarzanie materiału, kodowanie informacji, podejmowanie decyzji i strategie przywoływania informacji z systemu długo­ trwałego przechowywania informacji (long term storę, LTS). Blok pamięci krót­ kotrwałej awansował więc do roli centralnego systemu przetwarzania infor­ macji. Zachowano jednak dwa pozostałe bloki, czyli rejestr sensoryczny (wzro­ kowy, słuchowy, dotykowy i inne) oraz magazyn pamięci długotrwałej. Ten ostatni komunikuje się obustronnie już tylko z blokiem pamięci krótkotrwałej, tracąc zdolność do samodzielnego sterowania zachowaniem. Model Atkinsona i Shiffrina zbudowano z wykorzystaniem wcześniejszych badań nad pamięcią. Na przykład rejestr sensoryczny odpowiada odkrytej przez George’a Sperlinga (1960) pamięci ikonicznej, stanowiącej coś w rodzaju bardzo krótkiego (200-500 ms) śladu bodźca wzrokowego na siatkówce oka. Z kolei podział na pamięć krótko- i długotrwałą był znany już od czasów Williama Jamesa4, a na pewno od dwóch słynnych prac, w których wykazano ograniczoną pojemność systemu pamięci krótkotrwałej (Miller, 1956; Peterson, 4 William James używał terminów: pamięć pierwotna i wtórna. fŁtS Kozdział i. Umysł i poznanie Peterson, 1959). Wartość tego modelu należy więc mierzyć nie tym, jak ory­ ginalne były poszczególne rozwiązania terminologiczne, ale tym, w jaki sposób różne części systemu poznawczego powiązano w spójny mechanizm zdolny do przetwarzania informacji i sterowania zachowaniem. Ponadto model ten dał początek nowemu sposobowi uprawiania psychologii poznawczej, polegającemu na konstruowaniu blokowych koncepcji umysłu. Wraz z rozwojem badań zwolennicy teorii blokowych rozpoczęli konstruowanie bardziej szczegółowych modeli dotyczących wcześniej wyróżnionych, poszczególnych podsystemów czy też etapów przetwarzania informacji. Modele te nie miały już ambicji opisania całości systemu poznawczego człowieka, a jedynie przedstawienie jego fra­ gmentów. Za wzór może posłużyć stosunkowo wczesna praca Broadbenta (1958). Autor skonstruował hydrauliczny model uwagi selektywnej, wyróżnia­ jąc w nim trzy bloki: kanały sensoryczne, filtr uwagi i kanał przetwarzania semantycznego. Modele te będą dokładniej prezentowane przy okazji omawia­ nia problematyki uwagi i pamięci. Tu warto jedynie nadmienić, że w konstrukcji tych modeli zostały zachowane podstawowe zasady modeli blokowych (zasada sekwencyjności oraz „oddolny” kierunek przetwarzania). Wsparciem dla konstrukcji modeli blokowych była tzw. komputerowa metafora umysłu. Polega ona na porównywaniu elementów ludzkiego systemu poznawczego do analogicznych elementów systemu komputerowego. Komputer składa się z urządzeń wejścia (np. klawiatura, mysz, napęd dysków, podłączenie sieciowe), urządzeń wyjścia (monitor, drukarka, napęd urządzeń zapisujących na dysk, podłączenie sieciowe) oraz urządzeń pośredniczących między wejściem a wyjściem. Urządzenia te nazywa się niekiedy „czarną skrzynką”, podkreślając w ten sposób ukryty, nieobserwowalny charakter samych urządzeń, jak też wykonywanych przez nie czynności. W komputerowej „czarnej skrzynce” wy­ stępują m.in.: procesor, pamięć operacyjna, twardy dysk. Zestawiając te urzą­ dzenia z wyróżnionymi powyżej blokami przetwarzania informacji, łatwo dostrzec wyraźne analogie, uwidocznione w tab. 1.1. Co więcej, komputer dziaTab. 1.1. Komputerowa metafora umysłu (oprać, własne). Umysł Komputer procesy sensoryczne klawiatura, skaner pamięć robocza pamięć operacyjna procesy myślowe procesor pamięć trwała twardy dysk procesy decyzyjne procesor wyjście behawioralne monitor, drukarka ła według reguły przetwarzania „oddolnego”: pobiera dane na wejściu, następnie przetwarza je zgodnie z dostępnymi algorytmami działania, by w końcu „wy­ produkować” informację na wyjściu. Można więc powiedzieć, że metafora kom­ puterowa wiernie oddaje działanie blokowego systemu poznawczego, a kompu­ ter prawdopodobnie został stworzony „na obraz i podobieństwo” systemu poznawczego człowieka. 1.3. Ogólna architektura umysłu 49 Z drugiej strony coraz więcej danych wskazuje na nieadekwatność metafory komputerowej. Przede wszystkim komputer jest - przynajmniej na razie urządzeniem działającym sekwencyjnie. Można na nim wprawdzie imitować równoległość procesów, ale w praktyce polega to na niezauważalnie krótkich zmianach „zaangażowania uwagi procesora” w obsługę poszczególnych tzw. równoległych programów. Tymczasem umysł, a zwłaszcza jego materialne pod­ łoże, czyli mózg, cechuje się równoległością przetwarzania. W tym samym czasie w wielu miejscach systemu zachodzą różne procesy, ale nie ma centralnego ośrodka przetwarzania. Tego rodzaju krytyka doprowadziła do powstania nowego nurtu w modelowaniu procesów poznawczych, zwanego koneksjonizmem (zob. rozdz. 1.3.4). Modele blokowe poddano ostrej krytyce nie tylko ze względu na zbyt daleko posuniętą analogię między umysłem a komputerem. Podkreślano przede wszyst­ kim, że sekwencyjne ujęcie procesu przetwarzania informacji jest sprzeczne z licznymi danymi empirycznymi (MacKay, 1998). Na przykład blokowy, sek­ wencyjny model percepcji liter, zwany Pandemonium (Selfridge, Neisser, 1960), zakłada, że najpierw analizujemy pojedyncze cechy (linie, krzywizny itd.), na ich podstawie rozpoznajemy kształt całej litery, następnie identyfikujemy znaczenie tej litery i podejmujemy decyzję na temat tego, co właściwie widzimy. Dość szybko okazało się, że model Pandemonium słabo pasuje do wyników badań empirycznych. Według McClellanda i Rumelharta (1981), człowiek nie analizuje pojedynczych cech, lecz całość wzorca, jakim jest litera. Co więcej, analiza sensorycznych właściwości bodźca dokonuje się równolegle z analizą semantyczną, zmierzającą do stwierdzenia, co znaczy widziana przez nas litera. Ponadto litery zwykle nabierają sensu dopiero w szerszym kontekście słowa, które tworzą, dlatego proces semantycznej analizy poszczególnych liter doko­ nuje się równolegle z procesem semantycznej analizy słów. Ponieważ informacje o znaczeniu liter i słów są przechowywane w pamięci trwałej, analiza senso­ ryczna musi się dokonywać równolegle z przywoływaniem danych z tejże pa­ mięci, co jest rażąco sprzeczne z modelem Atkinsona i Shiffrina i w ogóle z większością blokowych modeli umysłu. Wizja umysłu jako systemu działają­ cego sekwencyjnie i przetwarzającego informacje zawsze w tym samym kierun­ ku wymagała więc zasadniczej rewizji. 1.3.2. Koncepcja poziomów przetwarzania Koncepcja poziomów przetwarzania informacji, zaproponowana przez Craika i Lockharta (1972), miała stworzyć ogólne ramy teoretyczne badań nad pamięcią. Szybko jednak zyskała popularność jako alternatywny - w stosunku do modeli blokowych - sposób opisu ogólnej architektury umysłu. Podstawowe założenie koncepcji poziomów przetwarzania informacji głosi, że każda informacja jest przetwarzana przez te same struktury, ale na różnym poziomie „głębokości”. Nie przewiduje się tu wyodrębnionych etapów przetwarzania i odpowiadających im struktur, w związku z czym nie ma potrzeby tworzenia modeli blokowych. Pojęcie głębokości przetwarzania (depth of processing) jest oczywiście metaforą, ale można je rozumieć jako zakres i intensywność obróbki danych. Wraz z „pogłębianiem” przetwarzania wzrasta zarówno liczba, jak ¡j u n o z a z ia i i . u m y s i i p o z n a n ie i złożoność operacji, jakim w toku procesu przetwarzania poddawane są docierające do systemu informacje. Można wyróżnić co najmniej trzy poziomy przetwarzania. Na pierwszym, płytkim poziomie dokonuje się sensoryczna analiza danych. Rezultaty płytkiego przetwarzania informacji są nietrwałe i bardzo podatne na wszelkiego rodzaju zakłócenia. Poziom ten jest jednak wystarczający do poprawnego wykonania niektórych zadań, np. detekcji dwóch identycznych znaków (liter, cyfr, błysków światła itp.). Kolejny poziom jest już głębszy - dokonuje się na nim semantyczna interpretacja odbieranego sygnału. Na przykład czytając tekst, zazwyczaj się­ gamy do znaczenia użytych w nim słów, chociaż niekiedy wystarczy nam powierzchowna analiza rodzaju czcionki lub koloru liter. Poziom ten jest również konieczny do stwierdzenia identyczności dwóch lub więcej elementów należących do jednej kategorii znaczeniowej (np. owoców, pojazdów, zwierząt). Przetwarzanie głębokie trwa znacznie dłużej niż płytkie, ale jego rezultaty są trwalsze i bardziej odporne na wszelkiego rodzaju czynniki zakłócające. Infor­ macje przetworzone na poziomie głębokim są np. odporne na zapominanie, podczas gdy dane przetworzone na poziomie płytkim w większości bezpo­ wrotnie tracimy. Na trzecim, najgłębszym poziomie przetwarzania aktywizu­ jemy różne skojarzenia związane z wcześniej odebranym i przeanalizowanym sensorycznie lub semantycznie sygnałem. Skojarzeniami takimi mogą być np. obrazy czy pojęcia powiązane znaczeniowo z sygnałem przetwarzanym na poziomie drugim (głębokim). Na najgłębszym poziomie przetwarzania możliwe jest wzbogacenie naszej wiedzy o dodatkowe elementy bądź też włączenie już istniejących elementów wiedzy w nowe struktury poznawcze. Informacja podlegająca przetwarzaniu może pochodzić z dwóch źródeł. Pierwotny obieg informacji polega na przejściu danych odbieranych na poziomie płytkim przez poziom głęboki aż do poziomu najgłębszego. Oczywiście nie każda informacja schodzi na głębsze poziomy przetwarzania. Zależy to od wielu czynników, m.in. od wymagań sytuacji, od instrukcji eksperymentalnej, od in­ dywidualnych preferencji czy też od ilości dostępnego czasu. Wtórny obieg informacji polega natomiast na tym, że dane zakodowane w pamięci mogą zostać włączone do przetwarzania na którymkolwiek poziomie, krążąc po nim dowolnie długo. Wtórny obieg dotyczy więc zjawisk pamięciowych, które nie wymagają dopływu informacji z zewnątrz ani też rejestrowania informacji dotyczących własnego zachowania jednostki. Oprócz dwóch obiegów informacji Craik i Lockhart (1972) wyróżnili dwa typy przetwarzania. Typ I związany jest z wtórnym obiegiem informacji na tym samym poziomie przetwarzania. Na­ tomiast w przypadku typu II następuje transfer (przejście) informacji na poziom głębszy na skutek wtórnego obiegu na poziomie płytszym. W wyniku przetwa­ rzania typu I dochodzi z reguły do zapominania informacji, chyba że zaczynają one krążyć w obiegu wtórnym. Zapamiętywanie informacji jest znacznie lepsze, gdy mamy do czynienia z typem II przetwarzania, a więc z transferem informacji na głębsze poziomy przetwarzania i wtórnym ich obiegiem na poziomie najgłębszym. Model Craika i Lockharta (1972) przedstawia umysł jako system jednolity, bez wyodrębnionych „pudełek” przekazujących sobie informacje w określonym porządku. Zamiast poszczególnych bloków mamy tutaj system o jednolitej struk­ turze, bez kolejnych etapów przetwarzania, za to z wydzielonymi poziomami 1.3. Ogólna architektura umysłu 51 obróbki danych - od płytkiego do najgłębszego. Wejście do systemu może być zlokalizowane na którymkolwiek z poziomów, nie ma więc potrzeby wyróżniania wyspecjalizowanych mechanizmów przewodzenia informacji z rejestru senso­ rycznego do pozostałych struktur. Co więcej, informacja może pozostawać we wtórnym obiegu na którymkolwiek z poziomów przetwarzania lub go opuścić, ale zawsze w stronę poziomów głębszych. Z tego względu model ten, podobnie jak modele blokowe, należy uznać za przykład takiej architektury poznawczej, która zakłada zasadniczo „oddolny” kierunek przetwarzania. Zgromadzono wiele danych empirycznych potwierdzających słuszność modelu jednorodnego systemu poznawczego. Dotyczą one głównie zależności jakości zapamiętywania od głębokości procesów przetwarzania informacji uczestniczących w zapamiętywaniu. Badania te zostaną szerzej omówione w rozdz. 9, poświęconym funkcjonowaniu pamięci. Wnioski przedstawione przez Craika i Lockharta (1972) na podstawie całej serii podobnych ekspery­ mentów były następujące. Po pierwsze, efektywność pracy systemu poznaw­ czego zależy od głębokości przetworzenia informacji. Tę samą informację system poznawczy może przetwarzać na różnych poziomach, ale skutki jego pracy są tym lepsze, im głębszy poziom przetwarzania zaktywizowano. Po dru­ gie, jeśli informacja jest przetwarzana na poziomie płytkim, proces przetwa­ rzania podlega wielu zakłóceniom, a dane - szybkiemu zapominaniu. Jeśli natomiast pozwoli się na obieg informacji na poziomach głębszych, w systemie poznawczym pozostanie znacznie więcej „niezakłóconych” danych. Po trzecie, o wyborze poziomu przetwarzania danej informacji decydują wskazówki zew­ nętrzne (np. rodzaj zadania) lub wewnętrzne (np. wymagania przyjęte przez sam system poznawczy). System może też sam narzucić wtórny obieg infor­ macji II typu, osiągając wówczas najlepsze rezultaty obróbki danych. 1.3.3. Umysł jako system m odułow y Jeden z najważniejszych sporów teoretycznych, toczonych na gruncie nauk kognitywnych, dotyczy modularnej natury umysłu. Centralne pytanie tej debaty brzmi: czy umysł jest „urządzeniem” uniwersalnym, zdolnym do przetwarzania dowolnego rodzaju informacji w dowolnym celu, czy też składa się z dużej liczby wysoce wyspecjalizowanych struktur niższego rzędu, zwanych modułami? Gdyby umysł miał naturę uniwersalną, najlepiej byłoby go porównać do komputera, który również jest narzędziem wszechstronnym: w zależności od dostarczonego mu oprogramowania może przetwarzać tekst, dokonywać obliczeń statystycznych, sterować przebiegiem różnych procedur i wykonywać tysiące innych zadań, nie zmieniając swojej budowy i sposobu działania. Natomiast dobrą metaforą umysłu modularnego jest skrzynka z narzędziami (Gigerenzer, Todd, 1999), w której znajdziemy mnóstwo różnych, specjalis­ tycznych przyrządów, ale na próżno szukalibyśmy narzędzia uniwersalnego. Chociaż debata nad modulamością umysłu toczy się od dość dawna, nowy impuls nadał jej filozof Jerry Fodor, autor książki Modularity of m ind (1983). W ujęciu Fodora, umysł składa się z trzech rodzajów budulca: przetworników (,transducers), systemów centralnych i modułów. Rolą przetworników jest po­ zyskiwanie energii dopływającej do organizmu i przekształcanie jej w postać Dct Kozaziat i. umysł i poznanie dostępną dla pozostałych mechanizmów psychologicznych. Rolą systemów centralnych jest wnioskowanie i tworzenie przekonań; systemy te odpowiadają zatem za myślenie albo też za poznanie w wąskim sensie tego słowa. Natomiast zadanie modułów polega na pośredniczeniu między przetwornikami a systemami centralnymi. Fodor obrazowo określa tę funkcję jako „dostarczanie świata myślom”. Istotą modułów jest ich zależność od dziedziny (domain specificity) i automatyczność działania (Appelbaum, 1998). Pierwsza cecha oznacza, że każdy moduł może działać tylko na wyróżnionej klasie bodźców, takich jak twarz ludzka, dźwięki mowy itd. Co więcej, każdy moduł jest wyspecjalizowany w jednej funkcji i nie może pełnić żadnej innej. Na przykład moduł rozpo­ znawania twarzy nie nadaje się do spostrzegania figur geometrycznych, a moduł różnicowania głosek, istotny dla rozumienia mowy, nie nadaje się do rozpozna­ wania twarzy. Z kolei automatyczność oznacza, że raz uruchomiony moduł nie może „wyhamować”, dopóki nie wykona swego zadania, za to działa szybko i nie angażuje centralnych zasobów poznawczych (uwagi, pamięci roboczej). Dzięki modułom możemy szybko i sprawnie wykonywać bardzo skomplikowane czynności poznawcze. Sterowanie takimi czynnościami z poziomu systemów centralnych wymagałoby olbrzymich „mocy obliczeniowych”, a mimo to rezultat byłby mało satysfakcjonujący (dużo błędów, długi czas działania). Fodor twierdzi ponadto, że moduły działają we względnej wzajemnej niezależności, są jak gdyby osobnymi „kapsułkami” poznawczymi, wyizolowanymi od reszty systemu poznawczego. Również rozwój poznawczy polega na pojawianiu się modułów we względnej niezależności od innych „kapsułek” i od całości systemu poznawczego. Wbrew szeroko rozpowszechnionemu przekonaniu, Jerry Fodor nie tłumaczy wszystkich funkcji poznawczych działaniem wyspecjalizowanych mo­ dułów. Twierdzi, że wyższe funkcje poznawcze, np. myślenie i rozumowanie, są realizowane inaczej, mianowicie za pośrednictwem uniwersalnego systemu przetwarzania danych. Domeną modułów jest przede wszystkim percepcja, a ponadto sterowanie motoryką. Tak więc moduły obsługują głównie wejście i wyjście systemu poznawczego, podczas gdy centralne funkcje tego systemu są obsługiwane przez uniwersalny „procesor” wszechstronnego zastosowania. Pogląd ten nie zawsze jest podzielany przez zwolenników koncepcji moduło­ wych. Niektórzy, np. Gerd Gigerenzer (Gigerenzer, Todd, 1999), odwołują się do modułów w wyjaśnianiu „wyższych” funkcji poznawczych, takich jak rozu­ mowanie, wnioskowanie i podejmowanie decyzji. To właśnie Gigerenzer jest autorem metafory umysłu jako „przydatnej skrzynki z narzędziami” (adaptive toolbox), z której każdy z nas czerpie w miarę potrzeb. Gigerenzer i jego współpracownicy wykazali, że niektóre zadania wymagające wnioskowania z przesłanek, stosunkowo trudne dla większości ludzi, stają się dość łatwe wtedy, gdy zostaną przedstawione w kontekście społecznym (zob. rozdz. 12). Istnieje na przykład wyspecjalizowany moduł wykrywania oszustów; jego uruchomienie sprawia, że trudne zadania logiczne, wymagające rozumowania warunkowego, stają się dość łatwe nawet dla małych dzieci (Cosmides, 1989). Modułowy charakter wyjaśnień psychologicznych zyskał szczególną po­ pularność na gruncie psychologii ewolucyjnej (Buss, 1999; Pinker, 1997). Przedstawiciele tego kierunku widzą umysł jako zestaw wysoce wyspecjalizo­ 1.3. Ogólna architektura umysłu 53 wanych funkcji, rozwiniętych w procesie ewolucji w wyniku działania tzw. nacisku selekcyjnego. Podobnie jak oko, ucho, serce i wszystkie pozostałe narządy ciała, również umysł jest swoistym „narządem” przystosowania się organizmu do środowiska, tyle że nie jednolitym, a właśnie modułowym. Według Anne Campbell (2004), założenie o modularności ludzkiego poznania jest jedną z cech wyróżniających psychologię ewolucyjną spośród innych kierunków myśli psychologicznej. Warto jednak pamiętać, że gdyby umysł człowieka był w całości złożony z modułów, nie pojawiłyby się chyba w toku ewolucji funkcje uni­ wersalne i wszechstronne w zastosowaniu, takie jak kontrola poznawcza lub rozwiązywanie problemów. Dlatego warto pamiętać o umiarkowanym stano­ wisku Fodora w kwestii modułowej natury umysłu. 1.3.4. Sieciow e m odele um ysłu Sieciowe modele umysłu powstały w odpowiedzi na krytykę formułowaną pod adresem tradycyjnej sztucznej inteligencji, jak też pod adresem modeli bloko­ wych wraz z leżącą u ich podłoża komputerową metaforą umysłu. Podkreślano, że modele blokowe i tradycyjne programy sztucznej inteligencji opierają się na fałszywej, niezgodnej ze współczesną wiedzą, wizji działania mózgu. Krytyko­ wano też skłonność autorów modeli blokowych do myślenia w kategoriach homunculusa: inteligentnego ludzika odpowiedzialnego za kontrolę procesu przetwarzania informacji. Podkreślano, że umysł ludzki ma zdolność samo­ organizacji i samokontroli, zatem koncepcje jego ogólnej architektury powinny ten fakt brać pod uwagę. Narodziny nowego podejścia do modelowania procesów poznawczych, zwanego koneksjonizmem, przypisuje się dziełu grupy uczonych z MIT, pracujących pod kierunkiem McClellanda i Rumelharta (McClelland, Rumelhart, and the PDP Research Group, 1986; Rumelhart, McClelland, and the PDP Research Group, 1986). Mimo wielości i różnorodności stworzonych do tej pory modeli, podejście koneksjonistyczne opiera się kilku podstawowych założeniach (Elman, 1998). Przyjmuje się, że przetwarzanie informacji dokonuje się dzięki aktywności bardzo licznych, ale niezwykle prostych jednostek (units). Tworzą one sieć, której węzły - tożsame z jednostkami - aktywizują się nie jeden po drugim, lecz w tym samym czasie. Wobec tego koneksjoniści twierdzą, że poznanie jest równoległym i rozproszonym przetwarzaniem informacji (parallel and distributed processing, PDP). Twierdzą, że taki model poznania jest bardziej „wiarygodny biologicznie”, ponieważ lepiej symuluje pracę mózgu. Organ ten składa się z wielkiej liczby komórek nerwowych, które nic nie znaczą pojedynczo, ale tworząc skomplikowaną sieć powiązań, są w stanie nie tylko kontrolować funkcjonowanie organizmu, ale również wykonywać najbardziej złożone operacje intelektualne. Dążenie do ścisłego naśladowania pracy mózgu przejawia się m.in. w nazewnictwie: modele koneksjonistyczne są nazywane sieciami neuropodobnymi (lub wręcz neuronowymi, neural netw orks). Sieć neuropodobna składa się z neuronów warstwy wejściowej, warstwy wyjściowej oraz warstw pośredniczących, zwanych ukrytymi (hidden layers). Sieć może być ponadto wyposażona w warstwę kontekstową, zawierającą jednostki komunikujące się wyłącznie z warstwami ukrytymi i modyfikujące ich 54 Rozdział 1. Umysł i poznanie jednostka j integracja pobudzenia docierającego z poprzedniej warstwy jednostka i transformacja zsumowanego pobudzenia na poziom aktywności a; przekaz poziomu aktywności jednostkom następnej warstwy Ryc. 1.4. Schemat działania sieci neuropodobnej (za: McLeod, Plunkett, Rolls, 1998, s. 16). W górnej części rysunku widzimy ogólną budowę sieci, w dolnej - działanie jednostki i, należącej do warstwy ukrytej. działanie. Liczba warstw ukrytych, jak też obecność warstw kontekstowych de­ cydują o poziomie złożoności sieci. Przetwarzanie informacji polega na odbiorze danych z otoczenia przez warstwę wejściową i przekazywaniu ich dalej poprzez warstwy ukryte aż do „efektorów” sterowanych neuronami warstwy wyjściowej. W prostym przykładzie, przedstawionym na ryc. 1.4, jednostka i, należąca do warstwy pośredniej, może odbierać sygnały od pięciu neuronów warstwy 1.3. Ogólna architektura umysłu 55 wejściowej, wśród których znajduje się jednostka /'. Jednak o poziomie wzbudzenia jednostki i decyduje nie tyle liczba połączeń z neuronami warstwy wejściowej, ile waga tych połączeń. Waga jest jak gdyby mnożnikiem, który modyfikuje siłę połączeń między jednostkami sieci. Tak więc o tym, czy jednostka / z warstwy wejściowej zdoła pobudzić do działania jednostkę i z warstwy ukrytej, decyduje to, czy je d n o stk a sa m a jest aktywna, jak silne jest jej wzbudzenie, a przede wszystkim - jaka jest waga połączenia ij. Oczywiście jednostka i pobiera sygnały od innych jednostek warstwy wejściowej. Jeśli zsumowana wartość zważonych pobudzeń przekroczy wartość progową, jed­ nostka i uaktywni się, a przez to będzie mogła przekazywać sygnały innym neuronom, przede wszystkim jednostkom warstwy wyjściowej. Skuteczność takich przekazów będzie rzecz jasna zależała od wag odpowiednich połączeń między neuronami. Dodajmy, że niektóre połączenia między neuronami mogą mieć funkcję hamowania aktywności neuronów wyższej warstwy. Zdarzają się też w sieciach połączenia zwrotne, polegające na tym, że neuron pobudza lub hamuje sam siebie. Modelowanie za pomocą sieci neuropodobnych tym się różni od „starej, dobrej sztucznej inteligencji”, że operuje strukturami subsymbolicznymi. Kla­ syczny program komputerowy napisany jest w języku symboli, które coś znaczą, np. odnoszą się do twierdzeń rachunku zdań albo do operacji przekształcania symboli. Oczywiście komputer „nie rozumie” symboli, trzeba go więc wyposażyć w interpreter, czyli system przekładu symboli na zero-jedynkowy język maszynowy. W każdym razie, dzięki przetwarzaniu symboli, starsze modele ^tucznej inteligencji były w stanie, za pomocą właściwego programu, dowodzić twierdzeń lub sensownie odpowiadać na określony zestaw pytań. Modele sieciowe zbudowane są z jednostek, które same w sobie nie znaczą zupełnie nic, a więc nie mogą być uznane za symbole czegokolwiek. Sieć neuropodobna może czytać symbole, np. komunikaty w języku naturalnym, ale tylko pod warunkiem, że się tego wcześniej nauczy. Zdolność sieci do uczenia się jest dla psychologa najbardziej frapującym aspektem modelowania subsymbolicznego. Nowo utworzona sieć jest niczym tabula rasa: nic „nie wie” i niczego „nie umie”. Wystarczy jednak zadać jej dowolne zadanie, np. zastąpienia liter w napisie PSYCHOLOGIA literami zaj­ mującymi następne miejsce w alfabecie, aby już po kilku tysiącach prób, zwa­ nych epokami, otrzymać poprawną odpowiedź: RTZDIPMPHJB. Kilka tysięcy prób to dużo w porównaniu z możliwościami dorosłego, inteligentnego czło­ wieka, pamiętajmy jednak, że sieć startuje z poziomu „zera absolutnego”. Ponadto dużą liczbę epok można skompensować olbrzymią - w porównaniu z możliwościami człowieka - szybkością działania maszyny. Zresztą celem takich zabiegów nie jest stworzenie sztucznej inteligencji, zdolnej pokonać człowieka, lecz otrzymanie systemu wiernie symulującego ludzkie czynności poznawcze; koniec końców zawsze chodzi o lepsze poznanie tychże czynności. Warunkiem wyuczenia się przez sieć określonych sprawności jest dostarczenie jej informacji zwrotnej. Na przykład przesuwając litery o jedno miejsce w alfabecie, sieć na początku działa zupełnie chaotycznie, przez co w większości otrzymuje negatywną informację zwrotną (źle!). Przypadkiem może wykonać poprawny ruch - wtedy otrzymuje pozytywną informację zwrotną (dobrze!). To wystarczy, aby sieć wyuczyła się bezbłędnego przesyłania informacji z wejścia 30 Kozaziai 1. Umysł i poznanie do wyjścia, zgodnie z wymaganiami postawionego jej zadania. Badacz nie poucza sieci, jak ma działać, mówi jej tylko, czy wynik jest zgodny z jego ocze­ kiwaniami. Sieć uczy się sama, wykazując zdolność do samoorganizacji i samo­ kontroli. Postępując w ten sposób, badacze stworzyli tysiące modeli przetwarzania informacji. Zdecydowana większość to modele bardzo szczegółowe, opisujące np. rozpoznawanie liter lub innych wzorców. Sieci neuropodobne okazały się szczególnie przydatne do modelowania procesów związanych z obróbką danych językowych, a także z nabywaniem języka. Zdolność sieci do uczenia się wy­ korzystano w badaniach nad rozwojem poznawczym (Karmiloff-Smith, 1992). Wykazano też przydatność modelowania za pomocą sieci neuronowych w badaniach nad deterioracją wybranych funkcji poznawczych. Badacz może np. nauczyć sieć, aby wytwarzała sensowne reakcje werbalne w odpowiedzi na zadaną stymulację, a następnie może taką sieć celowo uszkodzić, usuwając z niej poszczególne jednostki lub warstwy. Zachowanie sieci uszkodzonej symuluje więc zachowanie pacjenta po wylewie lub operacji neurochirurgicznej. Oczy­ wiście w każdym przypadku modelowania musimy porównać zachowanie sieci z zachowaniem żywych ludzi, np. pacjentów neurochirurgicznych. Jeśli stwier­ dzimy, że sieć zachowuje się porównywalnie do człowieka (np. generuje ten sam typ błędów), możemy uznać, że dysponujemy trafnym modelem teoretycznym badanej funkcji poznawczej. Ten rodzaj postępowania badawczego prowadzi do gromadzenia wiedzy na temat wybranych czynności poznawczych, na razie zresztą dość wąsko zdefiniowanych. Jednak cała filozofia prowadzenia tych badań skłania do wniosku, że koneksjonizm jest czymś więcej niż tylko szcze­ gółową metodologią badań kognitywnych. Jest mianowicie ogólną koncepcją działania umysłu ludzkiego, jak też wszelkich innych umysłów (zwierzęcych i sztucznych). 1.4. P odsum ow anie Omówiony w tym rozdziale podział na stabilne reprezentacje i dynamiczne procesy poznawcze określił strukturę całego podręcznika. Część pierwszą poświęcono różnym rodzajom reprezentacji umysłowych, część drugą elementarnym procesom poznawczym (uwaga, kontrola poznawcza, percepcja, pamięć), a część trzecią - złożonym procesom poznawczym (myślenie, roz­ wiązywanie problemów, podejmowanie decyzji, używanie języka). W dalszych rozdziałach będziemy się wielokrotnie odwoływać do niniejszego prologu, przez co treści w nim zawarte nabiorą, być może, nowego sensu. Z drugiej strony rozmaite kwestie szczegółowe, omawiane w następnych rozdziałach, powinny stać się bardziej zrozumiałe w wyniku odniesienia ich do podstawowych problemów teoretycznych podjętych w rozdz. 1. R ozd ział Istota i forma reprezentacji umysłowych Pojęcie reprezentacji umysłowej 60 Weryfikacja sylogizmów i treści zdań Reprezentacje a procesy poznawcze Realizm a konstruktywizm Teoria podwójnego kodowania 80 Słowo i obraz - w zajem ne relacje 61 Rodzaje reprezentacji umysłowych Reprezentacje obrazowe 60 62 64 Wyobraźnia, wyobrażenia i obrazy um y­ słowe 64 Reprezentacje num eryczne 76 82 86 Pierwotność czy wtórność nietrw ałych re ­ prezentacji umysłowych 89 Hipoteza języka myśli 89 Teoria reprezentacji obrazow ych Kosslyna 65 Teoria pierw otnych reprezentacji w for­ m ie zbioru sądów Pylyshyna 91 Hipoteza funkcjonalnej ekwiwalencji per­ cepcji i wyobraźni 66 T eoria m odeli m e n ta ln y c h Jo h n so n -Lairda 95 Rotacje m entalne Stanowisko eklektyczne w sporze o kod reprezentacji umysłowych 96 Skaning m entalny 67 72 Krytyka stanowiska obrazowego Reprezentacje w erbalne 76 75 Podsum owanie 97 Reprezentacja poznawcza to umysłowy odpowiednik obiektów - realnie istniejących, jak też fikcyjnych łub hipotetycznych. Obiektem reprezentacji może być przedmiot, osoba, kategoria łub relacja. Reprezentacja poznawcza zastępuje swój obiekt w procesach przetwarzania informacji. Reprezentacje nietrwałe (wyobrażenia, etykiety werbalne, sądy, modele umysłowe) powstają doraźnie, np. w celu podjęcia decyzji łub rozwiązania problemu, po czym zanikają. Reprezentacje trwałe, składające się na struktury wiedzy, powstają i zmieniają się w dłuższym cyklu czasowym. Według anegdoty, trzech ślepców napotkało na swej drodze słonia. Jeden dot­ knął trąby i stwierdził, że trzyma w ręku węża. Drugi zderzył się z nogą słonia i był przekonany, że natknął się na słup. Trzeci złapał za ogon i wydawało mu się, że trzyma w ręku sznur. Jeśli zgodzimy się, że słoń jest realnym, obiektywnie istniejącym obiektem, wypowiedzi trzech ślepców odpowiadają trzem różnym sposobom umysłowej, poznawczej reprezentacji tegoż obiektu. Nasze poznawcze reprezentacje świata przypominają wyobrażenia ślepców na temat słonia. Nie są zasadniczo błędne raczej niekompletne, wybiórcze i ściśle powiązane z osobistym doświadczeniem. Każdy człowiek buduje swój obraz świata, który zazwyczaj jest zasadniczo różny od obrazu zbudowanego przez inne osoby o podobnych doświadczeniach i porównywalnych zdolnościach umysłowych. Psychologia poznawcza bada, w jaki sposób ludzie przedstawiają sobie w umyśle składniki obiektywnego świata. Zajmuje się też problemem, jaki format przyjmują poznawcze repre­ zentacje rzeczywistości oraz jakie pełnią funkcje. 2.1. Pojęcie reprezentacji umysłowej 2.1 .1 . Reprezentacje a procesy poznawcze Zdaniem Zenona Pylyshyna (1973), głównym zadaniem psychologii poznawczej jest rozwiązanie dwóch problemów. Pierwszy polega na badaniu istoty i cha­ rakteru naszej wiedzy, drugi zaś - na ustaleniu, w jaki sposób tę wiedzę na­ bywamy i jak jej używamy. Pierwszy problem sprowadza się do kwestii, dzięki jakim strukturom świat jest odzwierciedlony czy też reprezentowany w naszym umyśle. Istotą drugiego problemu jest opisanie i wyjaśnienie przebiegu procesów przetwarzania informacji. Procesy te z jednej strony polegają na tworzeniu struktur wiedzy, a z drugiej strony - na przekształceniach i operacjach dokonujących się na wiedzy wcześniej nabytej. Dzięki procesom nabywania i przekształcania wiedzy możliwe jest generowanie zachowań adekwatnych do sytuacji, kontekstu, polecenia lub instrukcji. Z dwóch problemów, sformułowanych przez Pylyshyna, pierwszy wydaje się bardziej podstawowy i - z tego właśnie powodu - wymagający rozważenia w pierwszej kolejności. Charakter i przebieg poszczególnych procesów prze­ twarzania informacji może bowiem wynikać z charakteru i formy reprezentacji umysłowych, a więc z tego, na jakim operują materiale. Na przykład zupełnie 2.1. Pojęcie reprezentacji umysłowej 61 inne prawa przebiegu procesów poznawczych obowiązują wtedy, gdy pamięć robocza przechowuje i przekształca materiał wizualny, a inne wtedy, gdy rzecz dotyczy materiału werbalnego (zob. rozdz. 8.2). Inny przykład: podobieństwo formy umysłowego odzwierciedlenia bodźców prezentowanych w dwóch za­ daniach jednoczesnych może mieć decydujący wpływ na wzrost kosztów po­ dzielności uwagi, związanych z interferencją strukturalną (zob. rozdz. 5.4). Zanim więc szczegółowo omówimy przebieg procesów przetwarzania informa­ cji, takich jak procesy pamięci, percepcji lub uwagi, zatrzymamy się nieco dłużej nad problemem, w jaki sposób człowiek przedstawia sobie w umyśle otaczającą go rzeczywistość. Reprezentacja rozumiana ogólnie to „rzecz coś oznaczająca, zajmująca miejsce czegoś, symbolizująca lub coś przedstawiająca” (Reber, 2000, s. 623). Funkcją reprezentacji poznawczych jest więc przedstawienie w obrębie umysłu wszelkich zdarzeń bodźcowych dostępnych zmysłom. W zależności od orientacji teoretycznej, psychologowie uważają, iż reprezentacje powstają albo w wyniku bezpośredniego odwzorowania („odciśnięcia”) bodźca w umyśle, albo też w pro­ cesie budowania złożonej konstrukcji umysłowej. Proces tworzenia konstrukcji umysłowej ma polegać na zakodowaniu danych sensorycznych w specjalnym języku, w wyniku czego dane zmysłowe zostają „przetłumaczone” na dane umysłowe. Pierwsze stanowisko określa się mianem realizmu, natomiast drugie nosi nazwę konstruktywizmu. 2.1.2. Realizm a konstruktywizm Historycznie rzecz ujmując, realizm w poglądach na naturę reprezentacji do­ minował od starożytności aż do czasów średniowiecznych (Kemp, 1998). Jednak i w późniejszych okresach rozwoju nauki, aż do nastania „rewolucji poznawczej”, pogląd ten często uznawano za słuszny. Przekonanie, iż umysłowe reprezentacje obiektów rzeczywistych są strukturami psychicznymi, zachowu­ jącymi formę oraz szczegóły wyglądu ich realnych pierwowzorów, zostało zapoczątkowane przez Platona. Metafora umysłu jako zbioru „pieczęci odciś­ niętych w wosku” została później przejęta przez Arystotelesa i dopiero Ockham wskazał na możliwość istnienia reprezentacji umysłowych innego rodzaju, niekoniecznie zachowujących sensoryczną formę rzeczy. Ockham (za: Kemp, 1998) był wprawdzie zdania, iż pierwsze spostrzeżenie fizycznego kształtu przedmiotu jest niezbędne do utworzenia jego reprezentacji umysłowej, jednak sama reprezentacja nie musi przejawiać właściwości obiektu, do którego się odnosi. Reprezentacja może być bowiem przywołana również wtedy, gdy obiekt nie jest dany procesom percepcji, a więc gdy pozostaje tylko wyobrażony, a nie spostrzeżony. Nic się wtedy nie „odciska” w umyśle, a mimo to powstaje poznawcze odzwierciedlenie wyobrażonego obiektu. Współcześnie psychologowie poznawczy stoją raczej na stanowisku konstruktywistycznym (Bruner, 1978). Wynika to z olbrzymiej i ciągle narastającej liczby danych empirycznych pokazujących, że ten sam obiekt może być umy­ słowo reprezentowany na wiele różnych sposobów, w zależności od nastawie­ nia, kontekstu, wcześniej nabytej wiedzy, oczekiwania, stanu motywacyjnego, nastroju lub emocji, wreszcie trwałych wymiarów intelektu i osobowości. Jeśli to u Ci n o z a z ia i c . is to ta i iurm a re p re z e n ta c ji u m y s io w y tn samo może być widziane, rozumiane, zapamiętywane i interpretowane na wiele różnych sposobów, to znaczy, że obiekty nie „odciskają się” w żadnym umysło­ wym „wosku”; przeciwnie, każdy z nas samodzielnie i aktywnie konstruuje treść swoich przedstawień umysłowych, choć może nie zdawać sobie sprawy z samego faktu istnienia takiej aktywności. Współczesna psychologia poznawcza, wraz z naukami pokrewnymi, nie może istnieć bez pojęcia reprezentacji umysłowych, choć nie brakuje i takich, którzy twierdzą, iż reprezentacje umysłowe nie są w ogóle przydatne w procesach przetwarzania informacji (Gibson, 1979; zob. rozdz. 7.4). Z faktu, iż coś nie jest przydatne, wynika, że przypuszczalnie nie istnieje, ponieważ zakładamy, że funkcjonowanie umysłu podlega zasadzie ekonomii. Wydaje się, że spór o istnienie reprezentacji poznawczych toczy się na dwóch płaszczyznach: teoretycznej i metodologicznej. Na płaszczyźnie teore­ tycznej rozważa się kwestię, czy rzeczywiście istnieją jakieś poznawcze odpo­ wiedniki świata w umyśle. Natomiast na płaszczyźnie metodologicznej chodzi o pytanie, czy pojęcie reprezentacji poznawczej jest niezbędne do prawidłowego opisu i wyjaśnienia funkcjonowania umysłu. Ktoś może być przekonany, że reprezentacje realnie istnieją, ale kierując się zasadą, aby nie mnożyć bytów ponad konieczną potrzebę, próbuje w uprawianiu psychologii obejść się bez tego terminu. Ktoś inny może wątpić w realne istnienie reprezentacji poznawczych, ale posługuje się tym konstruktem, budując teoretyczne modele badanych zjawisk. Zresztą spór o istnienie reprezentacji może mieć bardzo proste roz­ strzygnięcie, jeśli uzna się, że niektóre czynności poznawcze wymagają przed­ stawień umysłowych, a inne nie. Zgromadzono na przykład wiele danych su­ gerujących, że niektóre procesy spostrzegania mogą polegać na bezpośrednim kontakcie umysłu z obiektem (Gibson, 1979). Nie zmienia to faktu, że inne przypadki percepcji, występujące w sytuacjach bardziej złożonych lub wie­ loznacznych, bez żadnej wątpliwości dowodzą istnienia indywidualnych, aktywnie i samodzielnie skonstruowanych przedstawień umysłowych. Jednak samo uznanie istnienia reprezentacji, wraz z uznaniem metodolo­ gicznej niezbędności tego konstruktu teoretycznego, nie oznacza jeszcze zgody co do sposobu ich istnienia i funkcjonowania. Toczący się na gruncie psy­ chologii poznawczej spór o reprezentacje umysłowe sprowadza się więc do dwóch kwestii: sposobu kodowania danych zmysłowych (języka reprezentacji) oraz sposobu organizacji danych umysłowych (struktury reprezentacji). Rozwiązanie tych kwestii zależy od bardziej podstawowego pytania: „W jakim stopniu umysłowe reprezentacje otaczających nas obiektów mogą odbiegać swoją formą od sensorycznych właściwości tychże obiektów?” 2.1 .3 . Rodzaje reprezentacji um ysłowych W świetle poszczególnych stanowisk teoretycznych reprezentacje umysłowe mogą przyjmować przeróżne formy. Na przykład Allan Paivio (1986) zalicza do reprezentacji poznawczych m.in. obrazy umysłowe, ślady pamięciowe, słowa (elementy języka), sądy, pojęcia (reprezentacje pojęciowe: prototypy, listy cech) oraz schematy (skrypty, ramy, procedury). Reber (2000) za najważniejsze rodzaje reprezentacji umysłowych uważa obrazy umysłowe, słowa (elementy 2.1. Pojęcie reprezentacji umysłowej 63 języka) i idee (abstrakcje). Wreszcie Eysenck i Keane (1990), w najbardziej chyba przejrzystym, ale też i najbardziej restrykcyjnym podziale reprezentacji umysłowych, wyróżniają reprezentacje analogowe (obrazy umysłowe, modele mentalne) oraz reprezentacje w formie zbioru sądów czy też twierdzeń (propositions). Obrazy umysłowe są rodzajem reprezentacji umysłowej najbar­ dziej zbliżonym do rzeczywistej formy przedstawianych obiektów, natomiast abstrakcyjne pojęcia są od tej formy bardzo odległe. Na przykład wyobrażenie domu nosi pewne cechy prawdziwego domu nie tylko ze względu na obecność typowych szczegółów (np. okna, dach), ale przede wszystkim ze względu na odpowiedniość relacji między tymi szczegółami (np. dach jest u góry nie tylko w prawdziwym domu, ale też w jego wyobrażeniu). Natom iast pojęcie „instytucja finansowa”, choć zawiera w sobie istotne elementy obiektu, nie za­ chowuje wobec niego żadnej odpowiedniości fizycznej. Pojęcie abstrakcyjne może być pełne, ścisłe i bogate w treść, ale w niczym nie przypomina repre­ zentowanego obiektu, który zresztą w takim wypadku nie jest obiektem jed­ nostkowym, lecz szeroką i ogólną kategorią nadrzędną. Niektóre reprezentacje pojęciowe nie mają w ogóle konkretnych, sensorycznych odpowiedników w świecie rzeczywistym (Paivio, 1986). Ze względu na różnice w formie odzwierciedlenia rzeczywistości, reprezentacje umysłowe różnią się także swoją trwałością. Na przykład w toku rozwiązywania problemu w umyśle tworzone są struktury przedtwórcze (Smith, Ward, Finkę, 1995) czy też struktury próbne (Nęcka, 1987), którymi mogą być np. obrazy umysłowe lub utworzone na próbę pojęcia. Są to struktury ułat­ wiające twórcze rozwiązanie problemu dzięki przybliżeniu nas do idealnego, na razie nieosiągalnego stanu docelowego (Newell, Simon, 1972). Te nietrwałe reprezentacje, tworzone ad hoc w procesie rozwiązywania problemu, mogą zostać natychmiast zastąpione innymi reprezentacjami, bardziej adekwatnymi lub lepiej przybliżającymi nas do celu, czyli rozwiązania. Natomiast reprezenta­ cja pojęciowa matki z reguły należy do najmniej podatnych na jakiekolwiek zmiany. Kształtuje się bardzo wcześnie w życiu człowieka i zazwyczaj odpo­ wiada pierwszemu napotkanemu egzemplarzowi tej kategorii (Reed, 1972). Taką formę reprezentacji można uznać za względnie trwałą i w niewielkim stopniu podatną na modyfikacje. W tym rozdziale rozważymy problem, w jakim języku kodowania mogą być reprezentowane dane zmysłowe odbierane przez jednostkę. Omówimy koncep­ cje reprezentacji w formie konkretnych obrazów umysłowych oraz stów (elementów języka), jak też w formie bardziej abstrakcyjnych sądów lub modeli umysłowych. Przedmiotem zainteresowania będą zatem nietrwale reprezentacje poznawcze, powstające w umyśle, np. w procesie rozwiązywania problemów. Rozważymy również problem, czy konkretne reprezentacje analogowe są wtórne wobec trwałych, amodalnych zbiorów twierdzeń o relacjach między obiektami. Problem struktury i funkcjonowania trwałych reprezentacji umysłowych, takich jak pojęcia, schematy, skrypty i ramy, zostanie rozważony w rozdz. 3. 64 Rozdział 2. Istota i forma reprezentacji umysłowych 2.2. Reprezentacje obrazowe 2.2.1. Wyobraźnia, wyobrażenia i obrazy um ysłowe Często zamiast pojęcia „reprezentacja umysłowa” stosowany bywa zamiennie termin „wyobrażenie”, choć wyobrażenie to zaledwie jeden z wielu typów reprezentacji. Wyobrażeniem nazywamy nietrwałą strukturę poznawczą, nieco przypominającą spostrzeżenie, choć w przeciwieństwie do percepcji występują­ cą pod nieobecność wyobrażonego obiektu. Wyobraźnia jest zdolnością umysłu ludzkiego do tworzenia wyobrażeń, zdolnością ściśle związaną ze spostrzega­ niem. Nie znaczy to, że wyobrażenie musi koniecznie przyjmować formę obrazową; na temat formy reprezentacji wyobrażeniowych toczy się w psycho­ logii ostry spór teoretyczny. W każdym razie wyobrażeniem nazywamy umysło­ we przedstawienie przedmiotu, który przestał działać na nasze zmysły, co podkreśla Ulric Neisser (1967), Tomasz Maruszewski (1997) i wielu innych autorów. Według Neissera (1972, s. 245), „człowiek tworzy wyobrażenia (is imaging), kiedy wykorzystuje te same procesy przetwarzania informacji, które biorą udział w postrzeganiu, ale w sytuacji, gdy bodźce normalnie wzbudzające takie spostrzeżenie nie są obecne”. W innym miejscu Neisser traktuje jednak wyobraźnię jako specyficzny stan uwagi, aby podkreślić, że proces wyobrażania sobie rzeczywistych obiektów jest związany z aktywną, „odgórną” selekcją informacji (zob. rozdz. 5.2.1), w przeciwieństwie do pasywnej „oddolnej” ich percepcji (zob. rozdz. 7.2). Wypada jednak zauważyć, że procesy spostrzegania są w dużej mierze również „odgórne”, tj. zależne od wiedzy i aktywności podmiotu. Żeby uniknąć nieporozumień i pułapek terminologicznych, ustalmy, co następuje. Wyobrażenie jest jedną z postaci poznawczej reprezentacji obiektu w umyśle. Charakteryzuje się brakiem trwałości oraz ścisłym powiązaniem z percepcją. Wyobraźnia to zdolność umysłu do generowania takich właśnie wyobrażeniowych reprezentacji świata. Tradycyjnie wyróżniano wyobraźnię odtwórczą i twórczą. Pierwsza miała być odpowiedzialna za tworzenie wyobra­ żeń obiektów wcześniej spostrzeganych i dobrze znanych, np. wyobrażenia konia, którego w danym momencie nie widzimy. Druga miała tworzyć kon­ strukcje fantazyjne lub „niemożliwe”, np. wyobrażenie Pegaza (pół koń, pół człowiek) lub syreny (pół ryba, pół kobieta). Obecnie oba rodzaje konstrukcji umysłowych uznaje się za twory tej samej zdolności do generowania wyobrażeń, natomiast wyobraźnią twórczą nazywa się inną zdolność, umożliwiającą tworzenie nie tylko nowych wyobrażeń, ale też nowych pojęć i innych reprezentacji poznawczych. Trzecie ważne pojęcie to obraz umysłowy. Tym terminem określamy szczególną formę poznawczej reprezentacji świata w umyśle, cechującą się analogowym charakterem i ścisłą odpowiedniością reprezentacji w stosunku do obiektu. Na przykład obraz umysłowy konia to jak gdyby wewnętrzna „fotografia” tego obiektu w umyśle. Wielu badaczy odrzuca twierdzenie, jakoby każdy z nas tworzył w umyśle jakieś „fotografie”. Istnienie wyobrażeń tłumaczy się wówczas inaczej, np. tym, że umysł generuje wyobra­ żenie z głębszych struktur wiedzy, zapisanych nie w postaci obrazów, lecz w języku pojęć lub twierdzeń; będzie o tym mowa w dalszych częściach tego rozdziału. Obraz umysłowy jest więc konstruktem teoretycznym, używanym 2.2. Reprezentacje obrazowe 65 w celu wyjaśnienia, jak jest możliwe tworzenie przez umysł wyobrażeniowych reprezentacji świata, natomiast wyobrażenie to jeden z rodzajów takiej repre­ zentacji, którego istnienie nie jest w zasadzie przedmiotem sporu teoretycznego. Termin „wyobrażenie” wprowadził do języka nauki Arystoteles, natomiast pierwsze psychologiczne badania nad wyobrażeniami podjął w XIX w. Francis Galton (1883). Poprosił on osoby badane o wyobrażenie sobie stołu zastawionego śniadaniem, a następnie o wypełnienie kwestionariusza, którego wyniki pozwalały na stwierdzenie, czy wyobrażenia poszczególnych osób różnią się jakościowo i ilościowo. Okazało się, że reprezentacje umysłowe przywoły­ wane przez badanych były bardzo zróżnicowane. Wystąpiły także wyraźne różnice między wyobrażeniami tej samej osoby testowanej w różnym czasie. Przewidywał to już zresztą wcześniej Ockham (za: Kemp, 1998), podważając tezę o dokładnym i zawsze identycznym odwzorowaniu obiektu (tu: śniadania) w formie reprezentacji umysłowej (tu: wyobrażenia). Co więcej, część osób badanych albo nie potrafiła sobie wyobrazić niczego, albo też ich wyobrażenia były fantazyjne i wyraźnie odbiegały od ich własnego, codziennego doświad­ czenia. Wyniki uzyskane przez Galtona zdecydowanie podważyły więc stanowisko realizmu w sporze o reprezentacje umysłowe. 2.2.2. Teoria reprezentacji obrazowych Kosslyna Według Stephena Kosslyna (1975, 1981, 1983), wyobrażenia składają się z dwóch komponentów: powierzchniowego (surface) i głębokiego (deep). Składnik powierzchniowy zawiera to, co jest dostępne w doświadczeniu wewnętrznym, natomiast składnik głęboki obejmuje to, co jest zapisane w pamięci długotrwałej. Powierzchniowe elementy wyobrażenia powstają w wy­ niku działania elementów głębokich. Świadome i nietrwałe doświadczenie wyobrażenia dotyczy jedynie komponentu powierzchniowego, zaś właściwe wyobrażenie ma charakter trwale przechowywanego, ale niedostępnego świadomemu doświadczeniu obrazu. Obraz ten koduje informację w sposób przestrzenny i analogowy. Wszystkie obiekty składające się na konkretne wyobrażenie mają więc swoją wielkość i znajdują się w pewnym położeniu oraz w pewnej odległości względem innych obiektów. Na poszczególnych elementach wyobrażenia (obiektach), jak i na całym wyobrażeniu można dokonać takich samych operacji, jakich dokonuje się na prawdziwych obrazach. Dotyczy to np. operacji przeglądania (inspekcji obrazu), powiększania czy rotowania. Te właściwości przestrzenno-operacyjne są dane i realizowane bezpośrednio w wyobrażeniu i nie mają charakteru symbolicznego. W sposób symboliczny może być natomiast przedstawiana głęboka reprezentacja umysłowa, ale z prac Kosslyna niewiele można wyczytać na temat jej formy. Problem głębokich reprezentacji umysłowych, za pomocą których tworzą się odpowiadające im powierzchniowe obrazy mentalne, zostanie omówiony w rozdz. 3. Rozważania Kosslyna, dotyczące powierzchniowego komponentu wyob­ rażenia, prowadzą nas w samo centrum sporu o naturę wyobrażeń. Część badaczy (Kosslyn, 1981; Paivio, 1986; Cooper, Shepard, 1973) argumentuje, iż wyobrażenia wzrokowe są kodowane w postaci reprezentacji posiadających zarówno własności przestrzenne, jak i właściwiści specyficzne dla poszczegól­ uu nozaziai i stu ta i iorma reprezentacji umysiowycn nych modalności zmysłowych. Na przykład wyobrażenie konia zawiera relacje przestrzenne identyczne jak w przypadku prawdziwego konia: grzywa jest na łbie, a nie przy ogonie itd. Ponadto, wyobrażając sobie konia, odtwarzamy część doznań sensorycznych związanych z prawdziwym koniem; chodzi o zmysł wzroku, słuchu (np. tętent kopyt, rżenie), zapachu itd. Pogląd ten przyjął się w literaturze pod nazwą stanowiska obrazowego, w przeciwieństwie do stanowiska nazywanego twierdzeniowym (propozycjonalnym). Zwolennicy stanowiska propozycjonalnego (np. Anderson, 1997; Pylyshyn, 1973) wyrażają przekonanie, iż dane zmysłowe są kodowane w postaci abstrakcyjnych zbiorów twierdzeń czy też sądów, podobnie zresztą jak informacje werbalne. Ich zdaniem istnienie kodu w postaci abstrakcyjnego zbioru sądów pozwala wyjaśnić, jak to możliwe, iż ludzie potrafią opisywać obrazy słowami bądź tworzyć obrazy w celu ilustrowania treści słownych (Pylyshyn, 1973). Zwolennicy stanowiska ob­ razowego uważają natomiast, że informacjom wizualnym i werbalnym przy­ sługują odrębne kody (Paivio, 1976). Oczywiście, z faktu istnienia dwóch wyszczególnionych stanowisk nie wynika, iż ktokolwiek kwestionuje istnienie fenomenu, jakim jest wyobraźnia wzrokowa. W szczególności nikt nie wątpi, że ludzie subiektywnie doświadczają wyobrażeń wzrokowych, słuchowych, dotykowych, smakowych, węchowych lub dotyczących zmysłu równowagi. Wątpliwości dotyczą jedynie tego, na ile fenomenologiczne doświadczenie wyobrażania sobie obiektów odzwierciedla prawdziwą naturę wyobrażeń. Zdaniem propozycjonalistów, prawdziwa natura wyobrażeń zawiera się w abstrakcyjnym zapisie w postaci sądów (np. dach jest zielony, na lewo od drzewa znajduje się kamień). Natomiast zdaniem przed­ stawicieli stanowiska obrazowego prawdziwa natura wyobrażeń sprowadza się do tego, że są one zapisane w postaci analogowych obrazów umysłowych o dużym stopniu przestrzennej odpowiedniości w stosunku do „oryginału”. 2.2 .3 . Hipoteza funkcjonalnej ekw iw alencji percepcji i wyobraźni Istnieje wiele danych świadczących o tym, że wyobrażenia rzeczywiście mogą mieć formę obrazową oraz że wyobraźnia i percepcja prowadzą do podobnych skutków poznawczych. Dane te pochodzą m.in. z badań, w których uczestnicy mogli wykonywać to samo zadanie w dwóch warunkach eksperymentalnych. W pierwszym osoby badane mogły formułować sądy o obiekcie, opierając się na spostrzeganiu (zazwyczaj percepcji wzrokowej), a więc na danych zmysłowych, w drugim zaś - jedynie na swoich wyobrażeniach, a więc na poznawczych reprezentacjach obiektu. Postępując zgodnie z tą procedurą, badacze starali się rozstrzygnąć spór o naturę wyobrażeń. Argumentów na rzecz tezy o funkcjo­ nalnej ekwiwalencji wyobraźni i percepcji dostarczają badania prowadzone zwłaszcza przez Sheparda i jego współpracowników. Shepard i Chipman (1970) wybrali z mapy Ameryki Północnej 15 stanów USA. Niektóre były do siebie podobne pod względem kształtu i powierzchni, inne zdecydowanie różniły się między sobą. Następnie badacze poprosili uczest­ ników o ocenę podobieństwa pod względem kształtu i powierzchni 105 par wy­ branych regionów. Osoby badane w pierwszym warunku mogły przez cały czas korzystać z mapy. W warunku drugim pytania zadawano dopiero wtedy, gdy 2.2. Reprezentacje obrazowe 67 mapę usunięto już z pola widzenia. Zatem w pierwszym warunku badani mogli korzystać z percepcji, podczas gdy w warunku drugim umożliwiono im korzysta­ nie tylko z wyobrażeń. Okazało się, że poprawność w warunku percepcyjnym była wysoko i pozytywnie skorelowana z poprawnością w warunku wyobraże­ niowym. Tak więc osoby dobrze korzystające z możliwości, jakie daje percepcja, skutecznie radzą sobie wtedy, gdy mogą posłużyć się tylko wyobraźnią. W kolejnym eksperymencie na wstępie poproszono uczestników o ocenę podobieństwa cyfr arabskich, umieszczonych na tablicy w zasięgu wzroku (Shepard, 1975). Następnie tablicę usunięto, polecając osobom badanym wyobrazić sobie cyfry i ponownie określić stopień ich podobieństwa. Wreszcie poproszono uczestników badania o przedstawienie sobie w umyśle każdej z tych cyfr w postaci odpowiedniej liczby kropek, co wymagało dokonania transformacji umysłowej. Na przykład cyfrę 3 należało przekształcić w trzy kropki, a cyfrę 8 - w osiem kropek. Shepard stwierdził, że choć przed transformacją cyfry 3 i 8 były przez uczestników eksperymentu często oceniane jako podobne (zarówno w warunku spostrzeże­ niowym, jak i wyobrażeniowym), to po dokonaniu wymaganej przez niego trans­ formacji cyfra 3 (reprezentowana przez trzy kropki) i cyfra 8 (reprezentowana przez osiem kropek) były spostrzegane jako różne. Po transformacji podobne wydawały się natomiast cyfry 4 i 6, a także cyfry 8 i 6, ze względu na podobieństwo graficzne przedstawienia tych cyfr w postaci zbioru kropek ulokowanych w dwóch rzędach. Wyniki tych badań dostarczają bardzo silnych argumentów na rzecz tezy o funkcjonalnej ekwiwalencji spostrzegania i wyobrażania. Według Kosslyna (1981), wyniki prezentowanych powyżej badań potwier­ dzają słuszność jego koncepcji. Kosslyn argumentuje, że jeśli w rozwiązywaniu zadań percepcja (dane zmysłowe) i wyobraźnia (dane umysłowe) prowadzą do podobnych wyników i podobnych błędów, to procesy te są funkcjonalnie ekwiwalentne. Jeśli zaś są funkcjonalnie ekwiwalentne, to - być może - również mają podobną formę organizacji i zapisu w umyśle. Pierwszy pogląd jest centralnym elementem funkcjonalnych teorii wyobraźni (zob. np. Cooper, Shepard, 1973; przegląd: Finkę, 1985), natomiast drugi - koncepcji struktural­ nych (zob. np. Kosslyn, 1981; przegląd: Finkę, 1985). Jednak przejście od empirycznie potwierdzonych tez teorii funkcjonalnych do wysoce hipotetycz­ nych stwierdzeń teorii strukturalnych należy przyjmować bardzo ostrożnie, podobnie jak inne twierdzenia psychologiczne oparte na wyjaśnieniach funkcjonalnych (Edelman, 1998). Sukces egzaminacyjny można osiągnąć albo w wyniku samodzielnego uczenia się, albo ściągania od kolegi. W obu przypadkach rezultat testu jest taki sam, ale sposób jego osiągnięcia zupełnie inny. Różne argumenty empiryczne, mogące świadczyć na korzyść koncepcji Kosslyna, pochodzą z badań w zakresie dwóch odmiennych paradygmatów badawczych: rotacji mentalnych (paradygmat 2.1) oraz skaningu umysłowego (paradygmat 2.2). Za autora pierwszego z nich uznaje się Rogera Sheparda, zaś pomysłodawcą drugiego jest sam Kosslyn. 2.2.4. Rotacje m entalne Cooper i Shepard (1973) prezentowali osobom badanym na ekranie monitora litery (G, J lub R) albo cyfry (2, 5 lub 7) nachylone pod różnymi kątami Do Rozdział Istota i torma reprezentacji umysłowych względem ich naturalnego położenia (od 0° do 300°; co 45° lub co 60°). Dodat­ kowo symbole te mogły być prezentowane prawidłowo albo w odbiciu lustrza­ nym. Zadaniem osób badanych było stwierdzenie, czy symbol jest wyświetlony prawidłowo, czy też w lustrzanym odbiciu. Wyniki tego eksperymentu potwier­ dziły hipotezę funkcjonalnej ekwiwalencji percepcji i wyobraźni - badani przekształcali obiekty w wyobraźni tak samo, jak by to robili, gdyby pozwolono im korzystać ze spostrzegania lub czynności manualnych (Shepard, 1984). Czas decyzji okazał się bowiem rosnącą funkcją kąta rotacji, przyjmującego wartość od 0° do 180°. Dodatkowym argumentem było także stwierdzenie, że badani dokonywali mentalnych rotacji symboli zawsze w kierunku umożliwiającym jak najszybsze przekształcenie ich do pozycji naturalnej. W ten sposób litera intencjonalnie obrócona przez badacza o 300° była mentalnie rotowana przez badanych nie o 300° w kierunku zgodnym z ruchem wskazówek zegara, ale o 60° w kierunku przeciwnym. Wykazano to na podstawie porównania czasów decyzji - w przypadku rotacji o 60° i 300° czasy te były porównywalne. Jeśli jednak osoby badane uprzedzono, że figura, którą za moment zobaczą, jest zrotowana o dany kąt, to obserwowana zależność zanikała, a czas decyzji był stały (ok. 400 ms) i niezależny od kąta rotacji (paradygmat 2.1). Paradygmat 2.1 t: Rotacja mentalna : Paradygmat rotacji mentalnej polega na prezentowaniu osobie badanej dwóch | bodźców, np. liter, cyfr iub figur geometrycznych, wzajemnie zrotowanych pod l pewnym kątem. W każdej parze bodźce mogą być tylko zrotowane, albo zrotowane i dodatkowo przekształcone, np. na zasadzie lustrzanego odbicia. Zadaniem uczestnika eksperymentu jest udzielenie odpowiedzi na pytanie, czy dwa prezentowane bodźce są identyczne. Jeśli są tylko zrotowane, osoba badana ma i odpowiedzieć TAK (identyczne), ale jeśli bodźce są dodatkowo przekształcone, | prawidłowa odpowiedź brzmi NIE (różne). Zmienną niezależną jest kąt rotacji, | a zmienną zależną czas udzielania odpowiedzi. W niektórych eksperymentach zamiast pary bodźców prezentuje się w każdej próbie tylko jeden element, np. literę ) lub cyfrę, oczywiście odpowiednio zrotowaną lub zrotowaną i dodatkowo 1 l zniekształconą. Do tej pory w badaniach wykorzystywano jako bodźce litery i cyfry (Cooper, Shepard, 1973) oraz złożone figury dwu- i trzywymiarowe (Shepard, Metzler, 1971). Zadaniem osób badanych była albo identyfikacja symboli (np. Corballis i in., 1978), albo porównanie symboli parami (np. Joliceour i in., 1985), albo podjęcie decyzji, czy symbol jest napisany prawidłowo, czy może w odbiciu lustrzanym (Koriat, Norman, Kimchi, 1991). Rotacje dotyczyły płaszczyzny (np. Cooper, Shepard, 1973) lub przestrzeni (np. Bauer, Joliceour, 1995). W niemal wszystkich badaniach stwierdzono efekt zależności czasu ? podejmowania decyzji od wielkości kąta rotacji. Zależność ta ma charakter funkcji silnie rosnącej w przedziale kątowym od 0° do 180°, a funkcji silnie malejącej w przedziale kątowym od 180° do 360°. Efekt rotacji mentalnych znika na skutek uprzedzenia osób badanych o wielkości kąta rotacji. Podstawowe prawo rotacji mentalnej oraz typowe bodźce użyte w eksperymencie przedstawiono na ryc. 2.1. 2.2. Reprezentacje obrazowe 69 1100 1000 900 w E 800 700 c ■O <D 600 500 uprzednia informacja o wielkości kąta rotacji 400 0 F 60 120 180 >7 ń 240 300 360 F orientacja przestrzenna bodźca (rotacja zgodna z ruchem wskazówek zegara) Ryc. 2.1. Wyniki eksperymentu Coopera i Sheparda (1971). Paradygmat rotacji mentalnej był powszechnie wykorzystywany w badaniach nad wyobraźnią, wyobrażeniami i zdolnościami przestrzennymi. Nadaje się do badania różnic indywidualnych w zakresie wyobraźni przestrzennej, zwłaszcza w wersji, w której trzeba porównywać złożone figury trójwymiarowe w rzucie na płaszczyznę. Eksperyment tego rodzaju może też służyć jako test do badania indywidualnego tempa rotacji, na podstawie którego ocenia się ogólne tempo przetwarzania informacji przez człowieka. Wskaźnikiem tempa umysłowego jest wówczas stromizna krzywej, przedstawiona na ryc. 2.1. Osoby cechujące się szybkim tempem przetwarzania informacji uzyskują stosunkowo słabą stromiznę, podczas gdy w przypadku osób ogólnie spowolniałych przyrost czasu w funkcji kąta rotacji jest bardzo duży. Rotacje mentalne nadają się też do prowadzenia badań na pograniczu psychologii poznawczej i klinicznej. Interesujące wyniki z użyciem tego paradyg­ matu uzyskali Maruszewski i Ścigała (1998). Autorzy wykazali, że aleksytymicy źle sobie radzą z mentalną rotacją obiektów, gdy są nimi bodźce afektywne, np. zdjęcia twarzy ludzkich wyrażające emocje. Podobne zależności ujawniono wtedy, gdy w eksperymentach zastosowano bodźce trójwymiarowe. W badaniu Sheparda i Metzler (1971) prezentowano uczestnikom na monitorze komputera dwie rotowane względem siebie figury /u nozaziai istota i torma reprezentacji umysiowycn trójwymiarowe (a właściwie ich rzuty na płaszczyznę). Następnie proszono uczestników o decyzję, czy prezentowane obiekty są identyczne, a jedynie zrotowane względem siebie, czy też różne, uzyskane w wyniku lustrzanego odbicia jednej z nich. Aby rozwiązać to zadanie, osoby badane musiały po­ nownie dokonać „w umyśle” rotacji prezentowanych im figur, tym razem wy­ konując przekształcenia w wyobrażonej przestrzeni. Uzyskano wyniki podobne do wcześniejszych - czas decyzji wzrastał wraz z wielkością kąta rotacji. Płaszczyzna rotacji nie miała natomiast żadnego znaczenia dla wielkości stwier­ dzanego efektu rotacji - czasy decyzji w przypadku rotacji w płaszczyźnie ry­ sunku oraz w płaszczyźnie prostopadłej do płaszczyzny rysunku były porów­ nywalne przy analogicznej wielkości koniecznego kąta rotacji mentalnej. Wyniki uzyskane przez Sheparda i Metzler potwierdził Jolicoeur wraz z współpra­ cownikami (Jolicoeur i in., 1985; Bauer, Jolicoeur, 1996). Badacze ci porównali ponadto kształt funkcji zależności czasu decyzji od wielkości kąta rotacji w przypadku figur dwu- i trójwymiarowych (ryc. 2.2). Funkcja ta okazała się znacznie silniej rosnąca w przypadku rotacji figur trójwymiarowych niż figur dwuwymiarowych. Interesujące wyniki dotyczące efektu rotacji mentalnej uzyskali także Corballis i współpracownicy (1978). W swoich trzech eksperymentach wyko­ rzystali oni ten sam zestaw symboli, jakiego wcześniej użyli Cooper i Shepard (1973). Jednak zamiast prosić uczestników o stwierdzenie, czy litery lub cyfry zostały „napisane” prawidłowo, czy też w lustrzanym odbiciu, wymagali iden­ tyfikacji prezentowanych obiektów, czyli po prostu nazywania bodźców. Okazało się, że identyfikacja symboli prezentowanych w lustrzanym odbiciu zabierała badanym więcej czasu niż identyfikacja symboli napisanych prawi­ dłowo, i to przy każdej wielkości kąta rotacji obiektów. Różnica ta wynosiła dla każdego kąta rotacji od 25 do 30 ms i była względnie stała, ale dopiero od drugiego bloku zadań, gdy osoby badane nabyły nieco wprawy w wykonywaniu testu rotacji. Corballis i współpracownicy (1978) stwierdzili, że w przypadku identyfikacji obiektów prezentowanych w lustrzanym odbiciu badani dokonują dodatkowego przekształcenia, polegającego na lustrzanym odbijaniu obiektu, tak by powrócił on w ich wyobraźni do naturalnej formy. Dzieje się to przed właściwą rotacją kątową lub też po jej wykonaniu. Badacze ci potwierdzili również wyniki uzyskane przez Coopera i Sheparda (1973) - czas identyfikacji obiektów okazał się bowiem liniową funkcją kąta rotacji, przyjmującego wartości od 0° do 180°, zaś mentalna rotacja dokonywała się zawsze w kierunku, któ­ ry zapewniał pokonanie mniejszej odległości kątowej z dwóch teoretycznie możliwych wartości. Można zatem wskazać na dwa argumenty przemawiające za tym, że nietrwałe reprezentacje wyobrażeniowe mają charakter obrazowy. Głównym argumentem pozostaje wielokrotnie stwierdzana liniowa zależność między ką­ tem rotacji obiektu a czasem potrzebnym na podjęcie w odniesieniu do niego dowolnej decyzji. Warto podkreślić, że ten liniowy związek wykazywano nieza­ leżnie od typu zadania (identyfikacja, porównanie, decyzja co do pisowni symbolu), typu rotowanego symbolu (litery, cyfry, symbole wymyślone), jego wymiaru (bodźce dwu- lub trójwymiarowe), a także niezależnie od formy rotacji (płaszczyzna, przestrzeń). Zwolennicy stanowiska obrazowego w sporze o na­ turę reprezentacji umysłowych interpretują powyższe fakty w ten sposób, iż 2.2. Reprezentacje obrazowe 71 Ryc. 2.2. Dwu* i trójwymiarowe figury używane w badaniach nad rotacją mentalną (za: Bauer, Jolicoeur, 1996). Górna część pokazuje figury o rosnącym stopniu złożoności (dwa, trzy lub cztery zagięcia, odpowiednio w kolumnie 1, 2 i 3). Dolna część pokazuje dwie identyczne pary identycznych bodźców (wymagana reakcja: TAKIE SAME). Bodźce te są dwuwymiarowe (rząd górny) lub trójwymiarowe (rząd dolny), zrotowane względem siebie o 60°. ludzie dokonują w swojej wyobraźni dokładnie takich samych przekształceń, jakich dokonywaliby, gdyby pozwolono im kontrolować rotację obiektów za pomocą zmysłu wzroku czy też wtedy, gdyby pozwolono im po prostu ma­ nipulować prawdziwymi obiektami w przestrzeni. Świadczą o tym również wyniki badań, w których uczestnicy pracowali w dwóch różnych warunkach: percepcji i wyobraźni, a rezultaty uzyskane w obu warunkach niewiele się różniły. Jest to drugi argument na rzecz tezy, że wyobrażeniowe reprezentacje obiektów mają charakter obrazów, zaś przekształcenia, jakim podlegają, niczym się nie różnią od przekształceń, jakimi można poddać obiekty realne lub symulowane komputerowo. / fi Hozaziat c. istota i lorma reprezentacji umysiowycn 2.2 .5 . Skaning m entalny W jednych z pierwszych eksperymentów nad obrazami umysłowymi Kosslyn (1975) podał uczestnikom sześć różnych wymiarów prostokąta prosząc ich, aby wyobrazili sobie prostokąt o zadanej wielkości, a następnie - aby w obrębie wyobrażonego prostokąta dodatkowo wyobrazili, sobie zwierzę, np. tygrysa. Wreszcie zadawał pytania dotyczące cech wyobrażanego obiektu, np.: „Czy tygrys jest cętkowany?” Czas udzielenia prawidłowej odpowiedzi okazał się malejącą funkcją wielkości wyobrażonego prostokąta, a tym samym - wielkości wyobrażonego zwierzęcia. Im większy był wyobrażony obiekt, tym mniej czasu trzeba było na udzielenie odpowiedzi. Wielkość wyobrażonego obiektu była oczywiście wynikiem manipulacji eksperymentalnej, zależała bowiem od narzuconych przez instrukcję parametrów wyobrażonego w pierwszej kolejności prostokąta. Liniowa zależność pomiędzy wielkością wyobrażenia a czasem udzielania odpowiedzi dotyczyła zarówno pytań, w których oczekiwano odpowiedzi pozytywnej (obiekt charakteryzował się cechą), jak i pytań, w których poprawna była odpowiedź negatywna (obiekt nie posiadał cechy). Osoby badane potrzebowały także więcej czasu na udzielenie odpowiedzi do­ tyczących mniejszych elementów danego obiektu (np.: „Czy tygrys ma uszy?”) niż większych (np.: „Czy tygrys ma ogon?”). Czas decyzji okazał się więc po­ nownie zależny od wielkości reprezentowanych obiektów, które tym razem były częścią pierwotnego wyobrażenia. W kolejnych badaniach Kosslyn (1983) prosił uczestników o wyobrażanie sobie zwierząt parami. Zwierzęta wyraźnie różniły się wielkością w obrębie każdej pary. Królik mógł np. wystąpić w parze ze słoniem, a w innym zesta­ wieniu - z muchą. Okazało się, że różne cechy królika były znacznie łatwiejsze do wyobrażenia, gdy występował on w parze z muchą niż gdy występował w parze ze słoniem. Czas odpowiedzi na pytanie, czy obiekt charakteryzuje się określoną cechą, zależał od względnej wielkości obu wyobrażonych obiektów. W parze ze słoniem królik jest znacznie mniejszy niż w parze z muchą, zatem jego wyobrażenie jest bardziej schematyczne, brakuje mu wielu szczegółów. Aby udzielić odpowiedzi na pytanie dotyczące cech budowy królika, osoba badana musi go w wyobraźni „powiększyć”, tak aby królik był widoczny bardzo szcze­ gółowo; tym samym szczegóły budowy słonia zaczynają się „rozmazywać” jako tło. Nie ma natomiast potrzeby „powiększania”, gdy królik znajduje się na pierwszym planie w towarzystwie małej, pozbawionej szczegółów muchy. Po­ dobne wyniki uzyskano, różnicując wyobrażenia ze względu na ich złożoność. W przypadku wyobrażeń złożonych czas decyzji był dłuższy niż w przypadku wyobrażeń prostych (Kosslyn, 1983). Nazwano to efektem ziarnistości obrazu. W innych badaniach Kosslyn, Bali i Reiser (1978) prosili uczestników o za­ pamiętanie mapy, na której znajdowało się siedem charakterystycznych obiek­ tów, np. chata, studnia, drzewo (zob. iyc. 2.3). Poprawność przechowania mapy w pamięci sprawdzano, prosząc o jej narysowanie. Procedurę tę powtarzano aż do momentu, w którym szczegóły narysowanego z pamięci rysunku nie od­ biegały więcej niż o 6 mm od oryginalnej lokalizacji danego elementu na mapie. We właściwej części eksperymentu proszono o wyobrażenie sobie zapamiętanej mapy. Zadaniem uczestników było skupienie uwagi na jednym z wybranych obiektów, zwanym punktem fiksacji, a następnie wyobrażenie sobie „plamki” 73 czas reakcji (s) 2.2. Reprezentacje obrazowe 0,9 I 2 | 4 I_______I______ I______ I______ |______ I______ L 6 8 10 12 14 16 18 odległość (cm) Ryc. 2.3. Mapa wyspy wykorzystywana w badaniach Kosslyna, Balia i Reisera (1978) wraz z wykresem ilustrującym stwierdzany w paradygmacie skaningu umysłowego efekt odległości. / “* Hozaziai a. istota i torma reprezentacji umysiowycn poruszającej się z punktu fiksacji do innego elementu mapy, podanego w instruk­ cji. Osoby badane sygnalizowały moment osiągnięcia żądanego punktu przez po­ ruszającą się w ich wyobraźni „plamkę”. Im większa była odległość pomiędzy punktem fiksacji a elementem, do którego należało dotrzeć, tym więcej czasu trzeba było poświęcić na wykonanie tej operacji. Powtarzając powyższy ekspe­ ryment w niezmienionej postaci, Pylyshyn i Bannon otrzymali identyczną zależność: czas decyzji okazał się monotonicznie rosnącą funkcją odległości re­ prezentowanych w umyśle obiektów od punktu fiksacji (Pylyshyn, 1981). Analogiczny efekt uzyskał Zimmer (2004). Trzy grupy uczestników jego badania zapoznawały się z mapą terenu w szczególny sposób. Pierwsza grupa miała okazję obejrzeć mapę w całości, druga - jedynie we fragmentach, natomiast grupa trzecia otrzymała wyłącznie informacje werbalne dotyczące ujętego na mapie terenu. Zimmer potwierdził wcześniejsze wyniki, stwierdzając, że im dalej względem siebie były położone lokalizowane obiekty, tym więcej czasu zajmowało osobom badanym określenie ich położenia. Co więcej, Zimmer nie stwierdził większych różnic w zakresie czasu decyzji dotyczącej orientacji obiektów względem siebie między badanymi należącymi do dwóch pierwszych grup. Oznacza to, według niego, że całościowe wyobrażenie mapy terenu może zostać utworzone na podstawie jej fragmentów. Natomiast badani dysponujący informacjami werbalnymi podejmowali swoje decyzje znacznie wolniej, co może świadczyć albo o większych trudnościach w stworzeniu reprezentacji obrazowej na podstawie informacji werbalnych, albo o niskiej przydatności tychże informacji. Kosslyn (1983) zinterpretował wyniki badań nad skaningiem umysłowym, opierając się na koncepcji obrazowych reprezentacji poznawczych. Według tej koncepcji, każde wyobrażenie zapisane jest w postaci analogowego obrazu umysłowego, w którym zachowane są relacje przestrzenne odpowiadające wyobrażonemu obiektowi. Jeśli w realnym obiekcie jakiś szczegół jest bliski innemu szczegółowi, obraz umysłowy przechowa tę zależność i odzwierciedli ją w wyobrażeniu. Jeśli w obiekcie coś jest u góry lub na dole, tak też będzie umiejscowione w wyobrażeniu. Zakres odpowiedniości między obiektem a wyo­ brażeniem jest oczywiście raz większy, a raz mniejszy, w zależności od dokład­ ności wyobrażenia. Bywają też wyobrażenia nieadekwatne lub całkiem błędne. Nie zmienia to faktu, że istotą obrazowych reprezentacji umysłowych jest za­ sada fizycznej odpowiedniości między reprezentowanym obiektem a jego men­ talnym ekwiwalentem. Dlatego właśnie „wycieczka” po obrazie umysłowym, np. po wyobrażonej mapie terenu, jest tym dłuższa, im więcej wyobrażonej prze­ strzeni trzeba pokonać. Podobnie rzecz się ma w przypadku rotacji mentalnych, z tym zastrzeżeniem, że w przypadku skaningu umysłowego należy przenieść punkt fiksacji nie o zadany kąt, lecz do zadanego miejsca w wyobrażonej przestrzeni. Z tego samego powodu zużywamy znacznie więcej czasu, tworząc wyobrażenie skomplikowane (np. obrazu „Bitwa pod Grunwaldem” Jana Ma­ tejki), a mniej czasu, gdy jest ono ubogie w szczegóły (np. obrazu „Czarny kwadrat” Kazimierza Malewicza). Co więcej, w przypadku wyobrażania sobie małych elementów obiektu człowiek musi przełamać efekt ziarnistości: aby od­ powiedzieć na szczegółowe pytanie dotyczące takiego elementu, osoby badane muszą go w wyobraźni „powiększyć”. Taki „mentalny zoom” wymaga oczy­ wiście nieco czasu, co wykazano empirycznie. 2.2. Reprezentacje obrazowe 75 2.2.6. Krytyka stanow iska obrazowego Argumenty na rzecz stanowiska obrazowego, zgromadzone w badaniach nad rotacjami mentalnymi i skaningiem umysłowym, próbowano poważnie osłabić. Rezultaty eksperymentów Koriata, Normana i Kimcha (1991) wskazują na ograniczenia powszechności prawa dotyczącego rotacji mentalnych. Z badań tych wynika, że ludzie nie zawsze dokonują rotacji figur w wyobraźni, chcąc je z sobą porównać. Jeśli konieczne jest potwierdzenie identyczności obiektów, rotacja mentalna wydaje się niezbędna, bo bez takiego przekształcenia dokładne porównanie figur nie jest możliwe. Ale już stwierdzenie odmienności dwóch figur geometrycznych nie zawsze wymaga rotacji, bo decyzja może być podjęta inaczej niż poprzez porównywanie całości obrazów. Być może porównaniu podlegają wtedy tylko pewne fragmenty obrazów, np. centralne lub szczególnie wyróżniające się. Gdyby tak było, wyniki uzyskane przez Koriata i współpra­ cowników nie musiałyby godzić w stanowisko obrazowe; można by utrzymać tezę o obrazowej formie wyobrażeń, a zmienić tylko postulowany mechanizm porównania obrazów. Możliwe jest jednak wyjaśnienie znacznie prostsze, zgod­ nie z którym najpierw dochodzi do wstępnego porównania pewnych właściwości prezentowanych figur, np. wypukłości kątów i krawędzi czy też liczby elemen­ tów składowych. Jeśli wynik takiego porównania nie prowadzi do stwierdzenia różnic między figurami, podejmuje się decyzję o identyczności obu figur. Pierwszy etap tego procesu niekoniecznie wymaga operow ania na re­ prezentacjach obrazowych, równie dobrze może się odbywać na podstawie reprezentacji w formie zbioru cech (por. wyjaśnienia procesu rozpoznawania twarzy przez teorie wzorców i cech; zob. rozdz. 7.5.2). Argumentów przeciwko koncepcji obrazowej dostarczyli także Marmor i Zaback (1976), prosząc osoby niewidome od urodzenia o wykonanie zadania Coopera i Sheparda. Istnieje przekonanie, że niewidomi od urodzenia w ogóle nie dysponują obrazowymi reprezentacjami poznawczymi. W cytowanym eks­ perymencie badani wykonywali zadanie, korzystając ze zmysłu dotyku. Mogli dotykiem zapoznać się z figurą, czyli obiektem rotacji, ale samej rotacji doko­ nywali już „w wyobraźni”. Mimo iż forma reprezentacji umysłowych nie mogła być obrazowa, stwierdzono liniową zależność między czasem podjęcia decyzji co do rotowanego obiektu a wielkością kąta jego rotacji. Wynik ten nie jest wprawdzie sprzeczny z twierdzeniem o ekwiwalencji percepcji i wyobraźni, godzi jedynie w pogląd o obrazowej (czytaj: wizualnej) formie wyobrażeń. Być może należałoby określić formę wyobrażeń jako sensoryczną, zależną od użytej modalności zmysłowej. Taki wniosek pozostaje już jednak w opozycji do skraj­ nej wersji koncepcji Kosslyna, która w związku z tym wydaje się zbyt jedno­ stronna. Do podobnych wniosków prowadzą wyniki niektórych badań prowadzo­ nych w paradygmacie skaningu umysłowego. W jednym z eksperymentów (Intons-Peterson, Roskos-Ewaldson, 1989) polecono osobom badanym prze­ nieść w wyobraźni piłkę między kilkoma punktami wyobrażonej mapy. W trzech warunkach eksperymentu piłka miała taki sam kształt, wielkość i rozmiar, ale różniła się ciężarem (odpowiednio: 3 uncje, 3 funty i 30 funtów). Zgodnie z prawem dystansu wykrytym przez Kosslyna, w każdym z trzech warunków eksperymentalnych czas reakcji zależał liniowo i rosnąco od odległości pomię­ #o Hozaziaf istota i iorma reprezentacji umysiowycn dzy punktem startu (punkt fiksacji) a punktem docelowym, zadanym przez instrukcję. Stwierdzono ponadto, że czas reakcji był tym dłuższy, im cięższą piłkę należało „przenieść” w wyobraźni. Również Hubbard (1997) wykazał, że waga obiektów ma wpływ na dokonywaną w wyobraźni ocenę miejsca, w którym może się znaleźć poruszający się obiekt. Autor wyprowadził na tej podstawie wniosek, że nietrwałe reprezentacje wyobrażeniowe powstają z uwzględnieniem ciężaru wyobrażonych obiektów. Wydaje się więc całkiem możliwe, że powierzchniowe, nietrwale repre­ zentacje umysłowe mają charakter nie tyle obrazowy, co sensoryczny. W takim przypadku postulowane przez Kosslyna (1983) obrazy umysłowe byłyby tylko jednym z kilku rodzajów takich reprezentacji. Można by wobec tego mówić 0 wyobrażeniach dotykowych, z których prawdopodobnie korzystali niewidomi od urodzenia uczestnicy badania Marmora i Zabacka (1976) czy też osoby biorące udział w innych badaniach (Intons-Peterson, Roskos-Ewaldson, 1989; Hubbard, 1997). Teoria podwójnego sytemu kodowania (Paivio, 1971, 1986) uwzględnia możliwość niewerbalnego, ale innego niż obrazowe, kodowania danych zmysłowych (zob. rozdz. 2.3.2). Wyniki badań nad reprezentacjami dotykowymi świadczą przeciwko koncepcji obrazów umysłowych jako jedynej 1koniecznej formy wyobrażeń, a ponadto pozwalają na formułowanie wniosków dotyczących werbalnej formy reprezentacji umysłowych. Reprezentacje tego rodzaju będą omówione w kolejnym podrozdziale. 2.3. Reprezentacje werbalne 2.3 .1 . Weryfikacja sylogizm ów i treści zdań Clark (1969) poprosił osoby badane o rozwiązywanie prostych sylogizmów werbalnych, czyli zadań wymagających wyciągania wniosków z przesłanek. Miały one porównać kilka fikcyjnych osób pod względem jakiejś cechy, na przykład wzrostu. Badanym dostarczano na wstępie kilku przesłanek, np.: „Jan jest wyższy od Piotra. Andrzej jest niższy od Piotra”. Na tej podstawie trze­ ba było sformułować wniosek, np. odpowiadając na pytanie: „Kto jest najwyż­ szy?”. Okazało się, że udzielenie odpowiedzi zajmowało różną ilość czasu w zależności od poznawczej i językowej złożoności zadania. Stosunkowo szybko odpowiadano na pytania, gdy były ono językowo zgodne z przesłankami, np. gdy w przesłankach używano słowa „wyższy”, a pytanie dotyczyło tego, kto jest „najwyższy”. Natomiast relatywnie więcej czasu wymagało zadanie, w którym przesłanki operowały relacją wyższości, a pytanie brzmiało: „Kto jest najniższy?”. Badani zachowywali się więc tak, jak gdyby przekształcenie relacji „A jest wyższe od B” w relację „B jest niższe od A” wymagało pewnej porcji czasu. Podobne wyniki uzyskano w przypadku, gdy przesłanki sylogizmu formułowano za pomocą zdań twierdzących, zaś w pytaniu pojawiało się przeczenie, np.: „Czy Piotr nie jest wyższy od Jana?”. Co więcej, im bar­ dziej komplikowano pytanie w stosunku do przesłanek (np. użycie podwójnej negacji), tym więcej czasu trzeba było przeznaczyć na wypracowanie odpo­ wiedzi. 2.3. Reprezentacje werbalne 77 Gdyby reprezentacje towarzyszące procesowi rozwiązywania sylogizmów były dostępne w postaci obrazów umysłowych, różnice tego rodzaju nie powinny wystąpić. Wyobrażenie sobie trzech osób: Jana, Piotra i Andrzeja, różniących się wzrostem i stojących obok siebie, powinno z równą łatwością prowadzić do odpowiedzi, kto jest najwyższy, jak też do stwierdzenia, kto jest najniższy. Obraz umysłowy jest dostępny w całości, a ponadto zawiera wszystkie ważne relacje między obiektami. Stwierdzenie wymienionych wyżej różnic w czasie reakcji jest więc silnym argumentem przeciwko tezie o obrazowej formie reprezentacji umysłowych, w każdym razie przeciwko skrajnej wersji tego stanowiska. Tego typu wyniki skłoniły wielu psychologów do przyjęcia tezy, że wyobrażenia nie przybierają formy obrazowej, lecz werbalną (Paivio, 1986) lub propozycjonalną, np. w postaci zbioru sądów o relacjach między obiektami (Pylyshyn, 1973). Im więcej sądów należy rozważyć bądź im bardziej sąd odpowiadający pytaniu jest niekompatybilny w stosunku do sądów tworzących przesłanki, tym dłużej trwa wypracowanie odpowiedzi. W klasycznym eksperymencie nad weryfikacją treści zdań Clark i Chase (1972) prosili osoby badane o przyswojenie sobie treści zdania o relacjach przestrzennych łączących dwa symbole, takie jak plus (+) i gwiazdka (*). Uczestnicy mieli następnie odpowiedzieć na pytanie, czy na obrazku widać to samo, o czym jest mowa w zdaniu. Prezentowano np. zdanie: „Plus jest nad gwiazdką”, a po jego przyswojeniu pokazywano plus nad gwiazdką lub plus pod gwiazdką; badani musieli odpowiedzieć TAK lub NIE, w zależności od tego, czy uznawali treść zdania za zgodną z obrazkiem (paradygmat 2.2). Zdania prezentowane w pierwszej fazie mogły zawierać negację (np. „Plus nie jest nad gwiazdką”), mogły też wymagać odwrócenia relacji (np. „Plus jest pod gwiazdką”). Podobnie jak w badaniach Clarka (1969), więcej czasu wymagała weryfikacja zdań, w których należało użyć negacji lub przekształcić relację, podczas gdy zdanie niezawierające żadnych przekształceń (np. „Plus jest nad gwiazdką”) weryfikowano stosunkowo szybko. Co więcej, osoby badane po­ dzielono ze względu na poziom zdolności werbalnych lub przestrzennych. Nie stwierdzono większych różnic w całkowitym czasie weryfikacji zdań między grupami wyróżnionymi ze względu na poziom owych zdolności. Uzyskano natomiast znaczne różnice w odniesieniu do czasu trwania obu faz rozwiązy­ wania zadania: kodowania informacji werbalnej i weryfikowania jej zgodności z treścią informacji wizualnej. Osoby charakteryzujące się wyższymi zdolnoś­ ciami werbalnymi kodowały treść zdania znacznie szybciej niż osoby o wyższych zdolnościach obrazowych. W fazie weryfikacji zależność była odwrotna: szybsze okazały się osoby o wysokim poziomie zdolności przestrzennych (tab. 2.1). Badania w paradygmacie weryfikacji treści zdań prowadzili również MacLeod, Hunt i Mathews (1978). Uczestnikom prezentowano wzrokowo dwa symbole w pewnej relacji przestrzennej (np. znak „ + ” umieszczony nad znakiem „*”), a następnie proszono ich o weryfikację różnych sądów opisujących tę relację. Jedyna różnica w stosunku do badania Clarka i Chase’a (1972) polegała więc na tym, że najpierw podawano informację wzrokową, a w drugiej kolejności - werbalną. W przypadku większości osób badanych (43 osoby) wyniki były bardzo podobne do tych, które uzyskali Clark i Chase: im większa logiczno-gramatyczna złożoność zdania, tym dłuższy czas weryfikacji. Można wnioskować, że osoby te w fazie przyswajania treści obrazka utworzyły /o ttozaziai istota i iorma reprezentacji umysiowycn Paradygmat 2.2 Weryfikacja treści zdań Badania w paradygmacie weryfikacji treści zdań (sentence-picture verification task) zapoczątkowali Clark i Chase (1972), a kontynuowali MacLeod, Hunt i Mathews (1978). W tego typu eksperymentach osobom badanym prezentuje się obrazek przedstawiający dwa elementy (np. symbole „*”) w relacji przestrzennej. Zwykle jeden symbol jest u góry, a drugi na dole. Wcześniej lub później uczestnikom prezentuje się zdanie opisujące przestrzenną relację obu symboli, np.: „Plus jest nad gwiazdką”. Eksperyment wymaga prezentacji wszystkich możliwych typów zdań, a więc twierdzących lub przeczących, prawdziwych i nieprawdziwych, operujących relacją prostą (np. coś jest nad czymś) lub jej zaprzeczeniem (np. coś jest pod czymś). Pełny układ warunków eksperymentalnych przedstawia poniższa tabela. Typ zdania Treść zdania Twierdzące Gwiazdka jest nad plusem Plus jest pod gwiazdką Twierdzące Twierdzące Twierdzące Przeczące Przeczące Przeczące Przeczące Obraz * Wymagana reakcja + * TAK + NIE Gwiazdka jest nad plusem Plus jest pod gwiazdką + * NIE Gwiazdka jest pod plusem Plus jest nad gwiazdką + * TAK Gwiazdka nie jest nad plusem Plus nie jest pod gwiazdką * Gwiazdka jest pod plusem Plus jest nad gwiazdką + * NIE + TAK Gwiazdka nie jest nad plusem Plus nie jest pod gwiazdką + * TAK Gwiazdka nie jest pod plusem Plus nie jest nad gwiazdką + * NIE Gwiazdka nie jest pod plusem Plus nie jest nad gwiazdką Osoba badana ma podjąć decyzję, czy treść zdania jest zgodna z obrazkiem. Wymaga to zwykle naciśnięcia jednego z dwóch przycisków, przy czym mierzony jest czas decyzji i liczba błędów. W zależności od wariantu tej procedury najpierw pre­ zentuje się obrazek, a potem zdanie (MacLeod, Hunt, Mathews, 1978) lub odwrotnie (Clark, Chase, 1972). Można też spowodować, aby pierwsza część stymulacji (np. zdanie) nie znikała z monitora wraz z pojawieniem się części drugiej (np. obrazka). Badany może wówczas weryfikować treść zdania, widząc wszystkie potrzebne dane. W innym wariancie Informacja słowna znika, zanim pojawi się obrazek (lub odwrotnie), co bardziej angażuje pamięć operacyjną i czyni całe zadanie trudniejszym. W badaniach prowadzonych w tym paradygmacie zwykle stwierdza się, że czas weryfikacji treści zdania zależy od stopnia jego logicznej i gramatycznej komplikacji. Najprostsze do weryfikacji są proste zdania twierdzące, wymagające reakcji TAK, np. „Plus jest nad gwiazdką”, a najtrudniejsze - zdania przeczące, wymagające reakcji NIE i dodatkowo zawierające odwróconą relację, np. „Gwiazdka nie jest pod plusem”. 2.3. Reprezentacje werbalne 79 ' Paradygmat weryfikacji treści zdania był często używany w psycholingwistyce, ponieważ pozwala ocenić koszty poznawcze związane z przetwarzaniem zdań o różnej konstrukcji i różnym poziomie komplikacji. Okazało się np., że zdania s zawierające negację wymagają nieco dłuższego czasu weryfikacji niż zdania bez i negacji. Wynika to prawdopodobnie stąd, że zdania z negacją wymagają dodatkowej operacji umysłowej, tak jakby samo przeczenie było osobnym za■biegiem poznawczym. Ponadto zdania zawierające słowa typu „pod” lub „za” wymagają więcej czasu niż niczym się poza tym nieróżniące zdania ze słowami „nad” i „przed”. Relacja, że coś jest pod czymś lub za czymś, nie jest, być może, ■;poznawczo naturalna czy też pierwotna, gdyż powstaje w umyśle jako zaprzeczenie i relacji, że coś jest nad czymś lub przed czymś. Innymi słowy, człowiek mówi: „Pies leży pod stołem”, ale poznawczo reprezentuje tę sytuację w postaci sądu: „Pies leży nie nad stołem”. Tylko w ten sposób możemy wytłumaczyć fakt, że przetwa­ rzanie pewnych relacji jest związane z większymi kosztami poznawczymi w postaci wydłużonego czasu podejmowania decyzji i większej podatności na błędy. Tab. 2.1. Czas weryfikacji treści zdań przez osoby o wysokim (+) lub niskim (-) poziomie zdolności werbalnych (W) lub wyobrażeniowych (O), w zależności od fazy przetwarzania informacji (za: Clark, Chase, 1972). Faza przetwarzania Osoby typu W +/O - Osoby typu O+/W - kodowanie treści zdania 1652 ms 2579 ms obserwacja obrazka i decyzja 1210 ms 651 ms całość zadania 2862 ms 3230 ms reprezentację poznawczą w formie werbalnej, inaczej mówiąc - przetłumaczyły obrazek na słowa. W fazie weryfikacji porównywały więc ze sobą dwie repre­ zentacje werbalne, przez co traciły na to tym więcej czasu, im bardziej skom­ plikowane były owe reprezentacje. Jednak 16 osób badanych zachowywało się zupełnie inaczej, tak jakby w trakcie wykonywania zadania posługiwało się cały czas kodem obrazowym. W przypadku tych 16 osób sądy zawierające negację czy też odwrócenie relacji były weryfikowane tak samo szybko, jak zupełnie proste twierdzenia. Osoby te prawdopodobnie nie dokonywały „przekładu” obrazka na słowa, lecz odwrotnie - pojawiające się w drugiej fazie zdanie „tłumaczyli” na kod obrazowy. MacLeod i współpracownicy wyciągnęli na tej podstawie wniosek, że uczestnicy eksperymentu posługiwali się różnymi strategiami weryfikacji treści zdań: werbalną lub obrazową, a różnice te wy­ nikały ze względnie trwałych preferencji indywidualnych. Co więcej, w przypadku 43 badanych, prawdopodobnie rozwiązujących zadania z wykorzystaniem reprezentacji werbalnych, korelacja między pozio­ mem zdolności werbalnych a czasem weryfikacji zdania była wysoka (-0,44), podczas gdy analogiczna korelacja dotycząca zdolności przestrzennych okazała się bardzo niska (-0,07). Natomiast w przypadku 16 osób, rozwiązujących zadania prawdopodobnie z wykorzystaniem reprezentacji obrazowych, kore­ lacja między poziomem zdolności werbalnych a czasem weryfikacji była niska (-0,05), zaś korelacja między poziomem zdolności przestrzennych a czasem t5U Kozdział Ł. istota i lorma reprezentacji umystowycn weryfikacji - bardzo wysoka (-0,64). Te związki korelacyjne są oczywiście tylko pośrednim argumentem na rzecz tezy o wykorzystywaniu przez osoby badane różnych form nietrwałych reprezentacji poznawczych. Argument ten wymaga bowiem dodatkowego założenia, że wysoki poziom zdolności werbalnych skłania człowieka do stosowania strategii werbalnej, a wysoki poziom zdolności przestrzennych - strategii obrazowej. Byłoby jednak wysoce nieekonomiczne dla systemu poznawczego, gdyby dysponując np. niskim poziomem zdolności w zakresie operacji obrazowych, preferował on obrazową formę reprezentacji w rozwiązywaniu sylogizmów. W innym badaniu Robert Sternberg (1980) analizował związek między cza­ sem rozwiązywania sylogizmów a zdolnościami przestrzennymi (spatial ability) oraz werbalnymi (verbal ability). Okazało się, że choć obydwie zdolności korelują ze sobą dość słabo (0,20), obie wywierają wpływ na tempo rozwiązywania sylo­ gizmów. Większe znaczenie wydają się mieć zdolności werbalne (-0,49) niż prze­ strzenne (-0,35), ale istotna rola tych ostatnich sprawia, że nie można wykluczyć udziału wyobrażeń w rozwiązywaniu zadań wymagających weryfikacji praw­ dziwości sylogizmów. Zdolności przestrzenne (obrazowe) wydają się mieć szcze­ gólne znaczenie w fazie kodowania danych: im wyższy poziom zdolności prze­ strzennych, tym krótszy czas kodowania przesłanek sylogizmu (-0,51). Zależność między poziomem zdolności werbalnych a czasem kodowania przesłanek jest znacznie słabsza (-0,25). Z kolei w fazie przekształcania przesłanek w celu weryfikacji sylogizmu zdolności przestrzenne niemal w ogóle nie wpływają na czas reakcji (-0,09), podczas gdy zależność między poziomem zdolności werbalnych a czasem rozwiązywania jest dość silna (-0,30). Wyniki uzyskane przez Sternberga mogą świadczyć na korzyść tezy o nierozstrzygalności problemu języka kodowania nietrwałych reprezentacji umysłowych, utworzonych w celu rozwiązania prob­ lemu. Być może człowiek jest w stanie wykorzystywać powierzchniowe, nietrwałe reprezentacje zarówno w formie obrazowej, jak i werbalnej, i to w trakcie wykonywania jednego zadania. Forma reprezentacji poznawczych byłaby wtedy ściśle powiązana z fazą procesu przetwarzania informacji (kodowanie, porówny­ wanie), który te reprezentacje wykorzystuje i na nich operuje. Podsumowując, weryfikacja prawdziwości sylogizmów i treści zdań opiera się prawdopodobnie na dwóch typach nietrwałych reprezentacji umysłowych. Z reprezentacji obrazowych korzystamy przede wszystkim wtedy, gdy podawane nam informacje przybierają postać obrazów, jak też wtedy, gdy cechujemy się wysokim poziomem zdolności w zakresie przetwarzania obrazów. Natomiast z reprezentacji werbalnych korzystamy wtedy, gdy trzeba zweryfikować prawdziwość wyrażonego słowami twierdzenia o relacjach, a także wtedy, gdy dysponujemy wysokim poziomem kompetencji językowej. Skrajnie obrazowe stanowisko w sporze o naturę reprezentacji wydaje się zatem nie do utrzymania, a stanowisko możliwe do przyjęcia musi uwzględniać istnienie co najmniej dwóch rodzajów reprezentacji umysłowej. 2.3 .2 . Teoria podwójnego kodowania Takie umiarkowane stanowisko zaproponował Paivio (1971, 1986). Według je­ go teorii podwójnego kodowania, człowiek reprezentuje rzeczywistość w dwóch 2.3. Reprezentacje werbalne 81 systemach: niewerbalnym (sensorycznym) i werbalnym (językowym). Oba systemy cechują się specyficzną strukturą wewnętrzną i swoistym sposobem przetwarzania danych. Paivio twierdzi, że reprezentacje umysłowe są swoiste ze względu na modalność zmysłową (modality specific), inaczej np. reprezentuje się dane wizualne, a inaczej słowne. Z tego względu koncepcja podwójnego kodowania, mimo że zrywa z tezą o zawsze obrazowej reprezentacji rzeczy­ wistości, zajmuje miejsce pośrednie pomiędzy stanowiskiem obrazowym (Kosslyn) a stanowiskiem propozycjonalnym (Pylyshyn, Anderson). Podczas gdy Kosslyn zaprzecza, aby nietrwałe reprezentacje umysłowe mogły mieć formę inną niż obrazowa (np. werbalną), zwolennicy stanowiska propozycjonalnego nie mogą się zgodzić z polimodalnym ujęciem reprezentacji umysłowych. W ich ujęciu sądy mają zawsze charakter amodalny, czyli niezależny od zaangażowa­ nego kanału sensorycznej recepcji bodźców. Według Paivio, dane zmysłowe mogą być kodowane w jednym z pięciu podsystemów składających się na system niewerbalny. Każdy podsystem cha­ rakteryzuje się innym językiem kodowania i odpowiada za inną modalność sensoryczną reprezentowanych obiektów. Dzięki temu możliwe jest utworzenie odrębnego obrazu sensorycznego (sensory picture) dla każdego reprezento­ wanego obiektu. Obrazy umysłowe, opisane przez Kosslyna, to tylko jedna z pięciu kategorii obejmujących niewerbalne reprezentacje poznawcze. Pozo­ stałe kategorie to dźwięki, odczucia dotykowe, smakowe i zapachowe. Mimo że obrazy umysłowe nie mają monopolu na niewerbalną reprezentację poznawczą, zdają się odgrywać rolę dominującą, są bowiem najczęściej przywoływane i wymieniane jako wewnętrzne odpowiedniki obiektów percepcyjnych (Kosslyn iin., 1990). Wszelkie niewerbalne reprezentacje umysłowe, niezależnie od modalności sensorycznej, zostały przez Paivio nazwane imagenami. Uważa on, że imageny są przetwarzane szybko i równolegle, gdyż reprezentują struktury holistyczne, takie jak całe obiekty, całościowe ich fragmenty bądź też grupy obiektów w formie zarówno statycznej, jak i dynamicznej. Imageny charakteryzują się dużym stopniem analogowości w stosunku do reprezentowanych obiektów. Oznacza to, że imageny zachowują niektóre fizyczne właściwości obiektu, takie jak wielkość czy relacje przestrzenne między jego elementami. Wykazano np., że niewielkie rozmiarem fotografie twarzy ludzkiej są gorzej zapamiętywane niż te same fotografie o większym rozmiarze, natomiast dla kodowania i zapamięty­ wania prezentowanych wzrokowo słów wielkość i rodzaj użytej czcionki nie mają żadnego znaczenia (Kolers, Duchnicky, Sundstroem, 1985). System werbalny umożliwia kodowanie informacji w postaci symboli języ­ kowych. Zazwyczaj są to słowa języka naturalnego, ale możliwe jest też zakodowanie informacji w postaci innych etykiet werbalnych. Reprezentacje werbalne mogą bowiem wchodzić w skład jakiegokolwiek języka, również sztucznego, takiego jak symbole matematyczne czy język programowania kom­ puterowego (Paivio, 1986). W skład systemu werbalnego wchodzą trzy pod­ systemy do kodowania informacji werbalnych, przeznaczone dla danych nadchodzących kanałem wizualnym, akustycznym lub dotykowym. Niezależnie od zaangażowanego kanału sensorycznego, wszystkie reprezentacje werbalne noszą wspólną nazwę logogenów. Istotną ich właściwością jest symboliczny charakter, związany z użytą konwencją wiązania rzeczy lub innych oznaczanych obiektów ze znakami. Słowa i etykiety werbalne bardzo rzadko przypominają brzmieniowo reprezentowane obiekty; wyjątkiem są słowa onomatopeiczne, dźwiękowo podobne do oznaczanej rzeczy lub czynności (np. charczenie, sze­ lest). W zdecydowanej większości przypadków słowa w niczym nie przy­ pominają sensorycznych właściwości reprezentowanych przez siebie obiektów, a ich znaczenie jest ustalone na zasadzie powszechnego konsensu i umowy społecznej. Przeciwnie niż imageny, przetwarzanie logogenów dokonuje się w wolnym tempie i szeregowo, co wynika z samej natury języka jako systemu kodowania (zob. rozdz. 13). Istnienie systemu niewerbalnego wydaje się dobrze uzasadnione wynikami badań prowadzonych przez zwolenników stanowiska obrazowego. Badania te wykazały, że w tworzeniu imagenów uczestniczy przede wszystkim wzrok, ale również inne modalności sensoryczne. Natomiast argumentów za istnieniem werbalnego systemu kodowania dostarczył sam Paivio (1971). Poczynione przez niego obserwacje wskazują, iż nie wszystkie obiekty otaczającego nas świata posiadają swoją sensoryczną reprezentację. Dotyczy to w szczególności pojęć abstrakcyjnych, jak np. „zaleta” czy „kontekst” (Paivio, Yuille, Madigan, 1968). Próby utworzenia sensorycznej reprezentacji takich pojęć (np. obrazo­ wej) zazwyczaj kończą się niepowodzeniem. W eksperymentach Paivio i współ­ pracowników wymienione wyżej słowa uznano za najtrudniejsze do wyobra­ żenia. Ponadto słowom tym przypisywano najniższe rangi na wymiarze konkretności, zdefiniowanym jako stopień powiązania z fizycznym wymiarem rzeczywistości. 2.3 .3 . Słow o i obraz - w zajem ne relacje Dwa systemy kodowania - werbalny i niewerbalny - są względnie niezależne, co oznacza, że w tym samym czasie można przetwarzać informacje słowne i obra­ zowe. Możliwe jest np. wykonanie zadania podwójnego, polegającego na jedno­ czesnej grze na pianinie z nut i powtarzaniu prozy ze słuchu (Allport, Antonis, Reynolds, 1972). Pierwsze zadanie opiera się bowiem na obrazowych, senso­ rycznych reprezentacjach rzeczywistości, podczas gdy drugie - na reprezenta­ cjach werbalnych. Według Paivio (1986), oba systemy są jednak powiązane wzajemnymi relacjami. Mają one przede wszystkim charakter referencjalny: reprezentacjom obrazowym odpowiadają werbalne i odwrotnie (zob. ryc. 2.4). Połączenia te nie zawsze są kompletne: wprawdzie określony imagen jest zwykle powiązany z jakimś logogenem, ale bywają wyjątki od tej reguły. W systemie poznawczym istnieją reprezentacje werbalne, którym nie odpowiadają żadne reprezentacje obrazowe. Chodzi tu w szczególności o pojęcia abstrakcyjne, odpowiadające nadrzędnym kategoriom obiektów. W systemie mogą też istnieć reprezentacje obrazowe, którym nie odpowiadają żadne reprezentacje obrazo­ we. Chodzi tu o wyobrażenia, którym nie odpowiada żaden rzeczywisty obiekt, np. wyobrażenia twórcze, czyli obrazy umysłowe, którym dopiero wtórnie możemy nadać nazwy, jeśli okażą się wystarczająco nowe i pożyteczne. Mimo owej niekompletności powiązań między systemem werbalnym i niewerbalnym, ogólną zasadą działania umysłu według koncepcji podwójnego kodowania jest to, że wzbudzanie jakiejś reprezentacji werbalnej aktywizuje reprezentację 2.3. Reprezentacje werbalne bodźce werbalne 83 bodźce niewerbalne S Y S T E M N I E W E R B A L N Y reakcje werbalne reakcje niewerbalne Ryc. 2.4. Wzajemne relacje między werbalnym i niewerbalnym systemem kodowania (za: Paivio, 1986). niewerbalną i vice versa. Inaczej mówiąc, wzbudzenie dowolnej reprezentacji umysłowej powoduje aktywizację reprezentacji referencjalnej, czyli odnoszącej się do tego, co zostało wzbudzone wcześniej. Zjawiska te noszą nazwę procesów referencjalnych. W ramach systemu podwójnego kodowania zachodzą ponadto dwa inne rodzaje procesów (Paivio, 1986). Jako pierwsze wymienić należy procesy re­ prezentacyjne. Ich zadanie polega na przyporządkowaniu poszczególnych obiektów, spostrzeganych w różnych modalnościach zmysłowych, do jednego z pięciu podsystemów niewerbalnych lub do jednego z trzech podsystemów o fl Rozdział c. Istota i torma reprezentacji umysłowych werbalnych. Po drugie, w umyśle zachodzą procesy asocjacyjne. Funkcjonują one wewnątrz każdego z dwóch systemów: werbalnego i niewerbalnego, odpo­ wiadając za łączenie się poszczególnych reprezentacji w skojarzone ze sobą grupy. Porządek, w jakim działają procesy asocjacyjne, jest różny w zależności od systemu. W systemie werbalnym układ reprezentacji jest raczej hierarchicz­ ny, to znaczy zdefiniowany relacją znaczeniowej podrzędności-nadrzędności. Natomiast w systemie niewerbalnym porządek ten jest liniowy - poszczególne obrazy łączą się z sobą w dłuższe łańcuchy skojarzeniowe, zgodnie z klasycznymi regułami opisanymi przez zwolenników asocjacjonizmu. W zależności od rodzaju stymulacji, istnieje większe lub mniejsze prawdo­ podobieństwo użycia systemu werbalnego lub niewerbalnego w celu zakodo­ wania informacji (Paivio, 1971; zob. tab. 2.2). Obraz może zostać zakodowany werbalnie, ale jest to znacznie mniej prawdopodobne niż użycie kodu obra­ zowego. Analogicznie - słowa mogą być kodowane obrazowo, ale jest to mało prawdopodobne, a słowa abstrakcyjne w ogóle się do tego nie nadają (Cornoldi, Paivio, 1982). Tabela 2.2 ilustruje również postulowany przez Paivio brak równowagi obu systemów. System werbalny koduje wszystko, jednakże obrazy z nieco mniejszym prawdopodobieństwem, podczas gdy system niewerbalny w zasadzie koduje tylko obrazy, a słowa bardzo rzadko i tylko jeśli są konkretne. Paivio, Yuille i Mandigan (1968) stwierdzili wysoką korelację (0,83) pomiędzy stopniem konkretności słowa a możliwością jego obrazowej reprezentacji w umyśle, zaś Richardson (1980) wykazał, że wyobraźnia wspomaga zapa­ miętywanie słów, ale tylko -wtedy, gdy nie są to słowa abstrakcyjne. Z kolei Johnson, Paivio i Clark (1996) wykryli, że definicje tworzone dla słów kon­ kretnych są bardziej precyzyjne, dłuższe i wspomagane wyobraźnią, podczas gdy słowa abstrakcyjne są definiowane gorzej, często z użyciem nadmiernie złożonych struktur językowych. Tab. 2.2. Prawdopodobieństwo użycia systemu werbalnego lub niewerbalnego przy kodowaniu informacji (za: Paivio, 1971). Typ bodźca System obrazowy System werbalny obrazek +++ ++ słowo konkretne + +++ słowo abstrakcyjne - +++ Chociaż system werbalny ma potencjalnie większe możliwości w zakresie kodowania informacji, kodowanie obrazowe bardziej sprzyja efektywności za­ pamiętania. Zjawisko to, nazwane efektem przewagi obrazu nad słowem (picture-word superiority effect), wykryli w serii pięciu eksperymentów Paivio i Csapo (1969). W każdym eksperymencie osoby badane odpamiętywały obrazki oraz słowa konkretne i abstrakcyjne. W pierwszym eksperymencie część uczest­ ników poinformowano przed prezentacją bodźców o konieczności późniejszego odpamiętania materiału, pozostałym takiej informacji nie podano. Podczas pre­ zentacji badani zapisywali w kwestionariuszu nazwy przedstawianych im bodź­ ców. Paivio i Csapo stwierdzili, że - niezależnie od poinformowania badanych 2.3. Reprezentacje werbalne 85 o późniejszym teście pamięci - obrazki zostały odpamiętane na takim samym, wysokim poziomie, natomiast słowa odpamiętano znacznie gorzej (choć słowa konkretne nieco lepiej niż abstrakcyjne). Tylko w przypadku odpamiętania słów zaobserwowano istotne różnice na korzyść badanych, którzy wiedzie­ li o późniejszym teście pamięci w stosunku do osób pozbawionych tej in­ formacji. W drugim eksperymencie Paivio i Csapo zmienili formę rejestracji pre­ zentowanych bodźców - część badanych zapisywała je w formie werbalnej, a część szkicowała ich kontur. Ponownie efektywność zapamiętania okazała się najwyższa w przypadku obrazków, niezależnie od formy ich rejestracji (ok. 45% poprawnych odpowiedzi). Natomiast jeśli zapamiętywanym bodźcem było słowo, narysowanie go zwiększało szansę zapamiętania (ponad 50% bodźców odpamiętanych) w porównaniu z jego zapisaniem (tylko 21% bodź­ ców odpamiętanych). W eksperymencie trzecim ponownie zmieniono proce­ durę: zamiast zapisywania lub szkicowania bodźców trzeba było je sobie wyobrazić lub przeliterować. Wyniki były identyczne z rezultatami ekspery­ mentu drugiego - uzyskano wysoką efektywność zapamiętywania obrazków niezależnie od formy ich opracowania. Stwierdzono również dobre wyniki zapamiętywania słów, które należało sobie wyobrazić, natomiast słowa, których nazwę należało przeliterować, były przywoływane bardzo słabo. Ostatnie dwa eksperymenty, zbliżone w metodzie do wcześniejszych, również przyniosły wyniki potwierdzające prymat kodowania obrazowego nad werbalnym, jeśli chodzi o efektywność zapamiętywania. Efekt przewagi obrazu nad słowem został potwierdzony przez innych badaczy (np. Snodgrass, McLure, 1975; Ritchey, 1980). Potwierdzono również funkcjonalną niezależność dwóch systemów kodo­ wania informacji. W swoim pierwszym badaniu Paivio (1969) pokazywał uczestnikom bardzo szybkie sekwencje obrazów lub słów. Zadanie polegało na odpamiętaniu pokazanego materiału w porządku dowolnym albo w porządku prezentacji. Paivio ustalił, że badani znacznie lepiej odpamiętywali obrazki niż słowa, gdy porządek, w jakim mogli to robić, nie był im narzucony (metoda swobodnego przypominania). Natomiast sztywny porządek odpamiętywania sprawił, że lepiej pamiętano słowa niż obrazy. Z badania tego płynie wniosek, iż chcąc zapamiętać jak najwięcej materiału, powinniśmy stosować niewerbalny system reprezentacji poznawczej, ale jeśli odpamiętanie ma mieć uporządko­ wany charakter, lepiej jest stosować system werbalny. Obserwację Paivio wykorzystuje wiele mnemotechnik ułatwiających zapamiętywanie, np. technika wizualizacji (zob. rozdz. 9.1.4). W kolejnym badaniu (Paivio, Csapo, 1973) podjęto problem, czy powta­ rzanie wcześniej zapamiętanego materiału w innym systemie niż ten, który był pierwotnie odpowiedzialny za zapamiętywanie, pomaga czy też przeszkadza w utrwaleniu skutków zapamiętywania. Cztery grupy eksperymentalne najpierw zapamiętywały, a potem utrwalały materiał przez powtarzanie. Grupa pierwsza najpierw zapamiętywała słowa, a potem je powtarzała. Grupa druga uczyła się na pamięć słów, ale później powtarzała odpowiadające im obrazki. Grupa trzecia najpierw zapamiętywała obrazki, a potem je powtarzała. Natomiast grupa czwarta uczyła się obrazków, ale później powtarzała odpowiadające im słowa. Okazało się, że powtarzanie materiału pomogło wszystkim uczestnikom: 86 Rozdział 2. Istota i forma reprezentacji umysłowych we wszystkich grupach wzrosła liczba prawidłowo odpamiętanych bodźców. Efekt wzrostu liczby odpamiętanych bodźców okazał się największy u uczestni­ ków eksperymentu z grup: drugiej i czwartej, a więc u tych badanych, którzy zmuszeni zostali do korzystania z odmiennych systemów kodowania danych w dwóch różnych etapach procesu pamięciowego. Istnieją więc przekonujące argumenty na rzecz tezy, że umysł reprezentuje rzeczywistość co najmniej na dwa sposoby: obrazowy i werbalny. Wymaga to prawdopodobnie zaangażowania odrębnych systemów reprezentacji, które działają niezależnie, choć we wzajemnej współpracy. W języku słów i etykiet werbalnych można zakodować znacznie szersze spectrum bodźców, ale język obrazów jest znacznie efektywniejszy, jeśli chodzi o skuteczność zapamiętywa­ nia. Wydaje się, że najbardziej skuteczną formą reprezentowania informacji w umyśle jest kodowanie referencjalne, wykorzystujące oba dostępne języki kodowania danych zmysłowych: obrazowy i werbalny. 2.3 .4 . Reprezentacje num eryczne „Żyjemy w świecie wypełnionym liczbami” (McCloskey, Macaruso, 1995, s. 351). Częstość, z jaką przychodzi nam na co dzień zmagać się z liczbami, nakazuje postawić pytanie o to, jak trafne są umysłowe odzwierciedlenia infor­ macji numerycznych. Bardziej podstawowe pytanie dotyczy tego, czy liczby wymagają osobnego formatu reprezentacji umysłowej, czy też mogą być kodowane w systemie bardziej uniwersalnym, np. obrazowym lub werbalnym. Istnieją powody, aby sądzić, że liczby mogą być reprezentowane zarówno w for­ mie obrazowej, w postaci wyobrażeń, jak też w formie fonologicznej, w postaci bezgłośnie artykułowanych głosek (McCloskey, Macaruso, 1995). Oznaczałoby to, że reprezentacje numeryczne podlegają zasadzie podwójnego kodowania (Paivio, 1986). Nie można jednak wykluczyć, że istnieją jakieś głębsze formy odzwierciedlania liczb, zrywające z powierzchniową formą reprezentacji i uwzględniające semantyczne aspekty informacji numerycznej. Na przykład liczba 13 może być umysłowo reprezentowana jako obraz składających się na nią cyfr, jako osiem fonemów tworzących trzy sylaby (trzy-naś-cie) lub jako oznaczenie tego wszystkiego, co po zmierzeniu daje wynik trzynaście (trzynaś­ cie złotych, trzynaście worków mąki itd.). Reprezentacja obrazowa i fonologiczna jest z natury powierzchniowa, czyli nietrwała, podczas gdy reprezentacja trzeciego rodzaju odwołuje się do znaczenia liczby trzynaście i jako część wiedzy semantycznej musi być uznana za trwałą. Pytanie, jaką formę przyjmują umysłowe reprezentacje liczb, wykracza więc poza dylemat: obraz czy słowo. Jest to problem istnienia specyficzności reprezentacji numerycznej, ale też pro­ blem relacji między reprezentacjami numerycznymi a innymi formami umysło­ wego odzwierciedlenia świata, a ponadto problem, czy reprezentacje numerycz­ ne mają charakter nietrwały, jak wyobrażenia, czy też trwały, jak elementy wiedzy. Moyer wraz ze współpracownikami (Moyer, Landauer, 1967; Moyer, Dumas, 1978) mierzył czas potrzebny do oceny identyczności lub odmienności liczb prezentowanych badanym. Osoba badana widziała dwie liczby, a jej za­ danie polegało na stwierdzeniu, czy ich wartości są identyczne (np. 5 i 5), czy też 2.3. Reprezentacje werbalne 87 nie (np. 5 i 8). Okazało się, że znacznie więcej czasu zajmuje porównywanie liczb o podobnej wielkości, a znaczniej mniej - liczb zdecydowanie różniących się wartościami. Na przykład czas porównywania liczb 2 i 8 był znacznie krótszy niż liczb 2 i 4. Zjawisko to nazwano efektem dystansu numerycznego. Podobne wyniki uzyskali m.in. Dehaene i Akhavein (1995). Efekt dystansu sugeruje, że przetwarzając liczby, człowiek tworzy przestrzenną reprezentację umysłową, w której liczby o zbliżonych wartościach są umiejscowione blisko siebie, a liczby o zdecydowanie różnych wartościach - daleko od siebie. Chcąc porównać dwie wartości, człowiek musi jak gdyby „spojrzeć” na ową przestrzenną reprezenta­ cję, a w przypadku, gdy dwa obiekty znajdują się blisko siebie, zmuszony jest „przybliżyć” sobie obraz. Taki „umysłowy zoom” wymaga oczywiście czasu, stąd efekt dystansu numerycznego. Człowiek zachowuje się więc w kontakcie z liczbami trochę tak, jak z wyobrażeniem dwóch przedmiotów o różnej wielkości. Szczegóły wyobrażenia królika są mało „widoczne”, jeśli królik jest w towarzystwie słonia (Kosslyn, 1983); tak samo różnica 2 i 4 wydaje się mało wydatna i aby ją stwierdzić, trzeba „przybliżyć” obraz i dokładniej się „przyjrzeć”. Wynika stąd, że reprezentacje numeryczne są po prostu obrazowe albo bardzo bliskie obrazowym. To z kolei prowadzi do wniosku, że repre­ zentacje te - podobnie jak obrazy umysłowe - mają nietrwały charakter, czyli są tworzone ad hoc w celu porównania dwóch wartości, dokonania obliczeń lub rozwiązania problemu. Jeśli tak, to po zakończeniu czynności poznawczej nietrwałe reprezentacje numeryczne po prostu zanikają, a kolejna czynność poznawcza wymagająca przetwarzania liczb musi powołać do życia nowy zbiór takich reprezentacji. Kolejne badania pokazały, że wprawdzie sam efekt dystansu numerycznego należy wiązać z przetwarzaniem w zakresie trwałych reprezentacji numerycz­ nych, jednak jego wielkość zależy od reprezentacji nietrwałych. Campbell (1994) pokazywał osobom badanym liczby albo w formacie cyfrowym (np. 13), albo w postaci napisanych słów (np. trzynaście). Wykazał, że werbalna repre­ zentacja liczb zmniejsza efekt dystansu numerycznego, choć go nie likwiduje. Gdyby słowna forma prezentacji liczb w niczym nie osłabiała efektu dystansu, można by wnioskować, że liczby są zawsze reprezentowane w umyśle w postaci wyobrażeń. Bez względu na to, w jakiej modalności dociera do nas informacja liczbowa, i tak jest przedstawiona w postaci obrazowo-przestrzennej, co spra­ wia, że stwierdzenie różnicy między 2 a 8 trwa krócej niż stwierdzenie różnicy między 2 a 4. Inaczej mówiąc, człowiek przedstawia sobie liczby w postaci obrazów, a obrazy - co wiadomo z badań Kosslyna nad mapami umysłowymi są podatne na efekt dystansu przestrzennego. Gdyby natomiast forma pre­ zentacji liczb całkowicie redukowała efekt dystansu, można by sądzić, że liczby są reprezentowane w umyśle w postaci amodalnych sądów (propositions). W takim kodzie reprezentacji nie ma najmniejszego znaczenia, czy porównu­ jemy liczbę 2 z liczbą 4, 6, 8, czy też 800. Liczba 2 różni się od wszystkich liczb większych od siebie, a stwierdzenie tego faktu powinno być łatwe i szybkie niezależnie od dystansu między porównywanymi wartościami. Wykrycie przez Campbella, że werbalny format liczb zmniejsza efekt dystansu, lecz całkowicie go nie znosi, sugeruje, że reprezentacje numeryczne są czymś pośrednim między obrazami a sądami, a - być może - stanowią odrębny format umysłowej re­ prezentacji świata. oo Rozdział istota i torma reprezentacji umysłowycn Propozycjonalny charakter reprezentacji numerycznych niczego nie prze­ sądza w kwestii ich trwałości lub nietrwałości. Sąd „dwa jest mniejsze niż osiem” może być elementem trwałej wiedzy semantycznej, ale równie dobrze może zostać wyprowadzony ad hoc i zniknąć zaraz po tym, jak przestanie być potrzebny. D oraźne utw orzenie takiego sądu wymaga przywołania trwałej wiedzy na temat, co to jest liczba i czym jest relacja większości/mniejszości, natom iast obie wartości, czyli 2 i 8, mogą powstać w wyniku kodowania obrazowego lub werbalnego. W zależności od tego, jaka modalność zmysłowa bierze udział w percepcji liczb, ich reprezentacja może mieć charakter obrazowy lub słowny. Łączne użycie nietrwałych reprezentacji konkretnych liczb oraz trwałych elementów ogólnej wiedzy na temat tego, czym jest liczba i czym są relacje między liczbami, skutkuje wyprowadzeniem sądu, że dwa jest mniejsze niż osiem. Sąd taki może już być amodalny, zgodnie z tym, co sugeruje Pylyshyn. W każdym razie spór o format reprezentacji numerycznych nie jest tym samym, co spór o ich trwałość. Według McCloskeya i Macaruso (1995), w procesie porównywania liczb ludzie zawsze odwołują się do głębokich, trwałych reprezentacji umysłowych. Autorzy argumentują, że poznawcze wykorzystanie liczby wymaga użycia trwale zakodowanej wiedzy o relacjach pomiędzy wartościami liczbowymi a pośrednio - o relacjach między wielkościami masy, objętości lub innych fizycznych cech przedm iotów, których abstrakcyjnymi odpowiednikami są liczby. Natomiast Campbell (1994) broni tezy, że liczby tworzą w umyśle re­ prezentacje nietrwałe, w dużym stopniu przypominające wyobrażenia prze­ strzenne. Zdaniem tego autora (Campbell, Clark, 1988; Clark, Campbell, 1991), reprezentacje numeryczne mają charakter analogowy, związany z modalnością, w jakiej informacje liczbowe docierają do systemu poznawczego, aby być dalej przetwarzane. Zatem reprezentacje numeryczne mogą być przetwarzane w modalności niewerbalnej (wzrokowej, słuchowej) lub werbalnej, ale są wzajemnie powiązane w złożone struktury, dzięki czemu możliwy jest transfer umiejętności w zakresie obliczeń numerycznych z jednego rodzaju reprezentacji na inny (Whetstone, McCloskey, 1994). Na przykład informacje liczbowe prezentowane wizualnie mogą być wykorzystane do udzielenia słownej odpowiedzi na pytanie. Ponieważ jednak są tutaj zaangażowane odrębne mo­ dalności, przetwarzanie tego rodzaju musi być podatne na zakłócenia i błędy znacznie większe niż w przypadku, gdy zaangażowana jest tylko jedna mo­ dalność. Jednak Dehaene, Bossini i Giraux (1993) nie znaleźli argumentów empirycznych świadczących na korzyść poglądów Campbella i Clarka. Nie­ zależnie od formy prezentacji liczb, obliczenia wykonywane przez osoby badane nie różniły się znacząco, jeśli chodzi o czasowe i poprawnościowe parametry wykonania. Istotą sporu pomiędzy McCloskeyem a Campbellem jest to, czy istnieją głębokie, trwałe i amodalne reprezentacje poznawcze w formie sądów o relacjach między liczbami, decydujące o przebiegu procesów przetwarzania informacji numerycznych. Spór ten nie odnosi się jedynie do reprezentacji numerycznych i ma znacznie głębszy sens teoretyczny. Problem pierwotności lub wtórności nietrwałych odzwierciedleń umysłowych względem reprezentacji trwałych będzie dyskutowany w kolejnym podrozdziale. 2.4. Pierwotność czy wtómość nietrwałych reprezentacji umysłowych 89 2.4. Pierwotność czy w tóm ość nietrwałych reprezentacji umysłowych 2.4.1. Hipoteza języka m yśli Różnorodność nietrwałych reprezentacji umysłowych ze względu na język kodowania danych zmysłowych wydaje się dobrze uzasadniona empirycznie i teoretycznie. Rodzi jednak dodatkowy problem przekładu jednej formy po­ wierzchniowej reprezentacji umysłowej na inną. Zasada referencjalności w kon­ cepcji podwójnego kodowania wydaje się trafna, ale wymaga określenia reguł odpowiedniości imagenów i logogenów w odniesieniu do tych samych obiektów rzeczywistych. Próbę rozwiązania tego problemu podjął Anderson (1978; Anderson, Bower, 1973), formułując hipotezę trzeciego języka kodowania, zwaną również hipotezą języka myśli (language of thought, LOT, albo mentalese). Hipoteza ta głosi, iż umysł ludzki nie gromadzi trwałej wiedzy ani w postaci obrazów, ani w postaci etykiet werbalnych, ale wyłącznie w postaci zbioru sądów (twierdzeń) o relacjach między obiektami. Kod twierdzeniowy, zwany też propozycjonalnym (propositions), ma postać abstrakcyjnych, amodalnych twierdzeń opisowych, zorganizowanych w sieć umożliwiającą odbiór, rozumie­ nie i przetwarzanie informacji. Sąd należałoby zdefiniować jako taką formę reprezentacji umysłowej, w której będą wyrażone relacje zachodzące pomiędzy obiektami (Chlewiński, 1999; zob. rozdz. 3). Na przykład myśl, że podręcznik leży na biurku, można przedstawić w postaci sądu: [na (podręcznik, biurko)]. W strukturze tego sądu da się więc wyróżnić relację, że jeden obiekt znaj­ duje się na drugim, a ponadto dwa obiekty związane ową relacją. Sądy mogą przybierać inną formę, w zależności od rodzaju relacji między obiektami. Oprócz sądów dotyczących relacji przestrzennych, wyróżnia się sądy o przynależności kategorialnej, np.: [jest to (kot, zwierzę)], sądy o atrybutach, np.: [ma (kot, sierść)] oraz sądy o działaniach, np.: [ukraść (złodziej, auto)]. W powyższych przykładach mamy do czynienia z sądami o prostej struk­ turze. Jednak dzięki abstrakcyjnej formie zapisu, kod propozycjonalny nadaje się do wyrażenia dowolnej relacji, wiążącej dowolnie dużo obiektów. Łączenie i przekształcanie sądów jest możliwe dzięki tzw. rachunkowi predykatów, który jest logicznym systemem przetwarzania zdań abstrakcyjnych. Elementem rachunku predykatów jest np. negacja. Dlatego myśl, że podręcznik leży pod biurkiem, a nie na nim, można zapisać w formie: [~ n a (podręcznik, biurko)], 90 Rozdział 2. Istota i forma reprezentacji umysłowych co oznacza, że pierwotną relację „na” zanegowano, uzyskując relację „pod”. Negację można powtórnie zanegować, uzyskując sąd pierwotny; można też łączyć sądy spójnikami logicznymi, takimi jak koniunkcja, alternatywa itd. Dzięki rachunkowi predykatów można otrzymać sąd o dowolnym poziomie złożoności, wyrażający dowolną relację między dowolną liczbą obiektów. Ze zbioru sądów mogą być w zależności od potrzeb generowane nietrwałe reprezentacje umysłowe, zarówno słowne, jak i obrazowe. Jednak same sądy nie mają postaci słownej czy obrazowej, nie zależą też od rodzaju zaangażowanej modalności zmysłowej - są amodalne. Pogląd ten jest zgodny z bardziej umiarkowanymi tezami Kosslyna, który przecież uznawał konieczność istnienia głębokich, trwałych i niespecyficznych ze względu na modalność sensoryczną reprezentacji umysłowych, stanowiących podstawę konstrukcji analogowych reprezentacji obrazowych. Różnice w poglądach Kosslyna i Andersona dotyczą kwestii pierwotności lub wtórności poszczególnych rodzajów reprezentacji. Podczas gdy dla Kosslyna znacznie ważniejsze są nietrwałe reprezentacje obrazowe, mające bezpośredni wpływ na bieżące przetwarzanie informacji, dla Andersona podstawę stanowią reprezentacje trwałe i zarazem głębokie, bo z nich można utworzyć dowolną reprezentację powierzchniową. Hipoteza języka myśli zyskała uznanie z kilku powodów. Po pierwsze, za pomocą sądów można przedstawić każdy rodzaj informacji, a więc także opis słowny czy też zawartość obrazu, co sprawia, że postulowanie istnienia in­ nych kodów nie jest już potrzebne. Po drugie, sądy przechowują głębokie znaczenie informacji, pomijając jej powierzchniową, sensoryczną formę, a zapamiętywanie na podstawie głębokich reprezentacji umysłowych jest najskuteczniejszą formą trwałego przechowywania informacji (Craik, Lockhart, 1972; Craik, Tulving, 1975). W badaniach stwierdzono np., że znaczenie tekstu jest pamiętane znacznie lepiej od formy językowej, w jakiej tekst był prezentowany (Bransford, Barclay, Franks, 1972). Skoro zjawisko addytywności efektów zapamiętania przy wykorzystaniu kodu obrazowego i werbalnego (Paivio, Csapo, 1973) miałoby być argumentem na rzecz tezy o istnieniu dwóch nietrwałych kodów powierzchniowych, to wielokrotnie potwierdzona teza 0 znaczeniu głębokości przetwarzania dla efektywności zapamiętywania musi działać na rzecz hipotezy języka myśli. Po trzecie, sądy w naturalny sposób wspierają procesy myślenia i podejmowania decyzji, a najczęściej te procesy właśnie operują na reprezentacjach umysłowych. Precyzja i logika informacji zawartych w twierdzeniach sprawia, że reguły wyciągania wniosków przy operowaniu kodem propozycjonalnym są jednoznaczne, choć nie zawsze proste 1 łatwe do zastosowania. Fakt, że sądy można przekształcać z wykorzystaniem rachunku predyka­ tów, a także przyjęty sposób notacji sądów, nie znaczy bynajmniej, że według hipotezy języka myśli - reprezentacje umysłowe mają postać struktur lo­ gicznych. Jak zauważa R. Sternberg (1996), kod propozycjonalny jest konstruktem teoretycznym, przyjętym przez wielu psychologów poznawczych ze względu na związane z tym korzyści metodologiczne w opisie i wyjaśnianiu funkcjonowania umysłu. Ci sami psychologowie, którzy postulują istnienie kodu propozycjonalnego, odżegnują się najczęściej od tezy, jakoby sądy miały przybierać postać formuł logicznych. Cały sens hipotezy języka myśli sprowadza się do tego, że sądy przybierają postać swoistą - ani werbalną, ani obrazową - 2.4. Pierwotność czy wtómość nietrwałych reprezentacji umysłowych 91 a język logiki i rachunek predykatów to tylko wygodny sposób notacji tego typu reprezentacji świata w umyśle. 2.4.2. Teoria pierwotnych reprezentacji w formie zbioru sądów Pylyshyna W badaniach prowadzonych w paradygmacie rotacji mentalnych i skaningu umysłowego instrukcja eksperymentalna z reguły wymusza dokonanie przez osoby badane specyficznego przekształcenia, typowego dla obrazów; chodzi o przeglądanie, powiększanie lub rotowanie obiektu. Pojawia się wobec tego pytanie, czy wyniki tych badań nie są przypadkiem artefaktami, wywołanymi przez odpowiednio skonstruowane instrukcje eksperymentalne (Intons-Peterson, 1983; Pylyshyn, 1981; Rinck, Denis, 2004). Pylyshyn zrealizował swoje badania wspólnie z Bannonem (nieopublikowana rozprawa doktorska Bannona, omówiona w: Pylyshyn, 1981) w para­ dygmacie skaningu umysłowego z mapą wyspy jako zapamiętywanym obiektem. Uczestnikom zadawano pytania o położenie geograficzne (północ, południe, południowy wschód itd.) konkretnych obiektów na mapie. W pierwszym warun­ ku mogli oni wykorzystywać procesy postrzegania, mapa bowiem znajdowała się cały czas w zasięgu ich wzroku. Stwierdzono wtedy silną zależność (r = 0,50) czasu decyzji od odległości zadanego elementu od punktu fiksacji. W drugim warunku uczestnicy badania musieli sobie wyobrazić mapę, przy czym instrukcja nakazywała zwrócić uwagę na oba obiekty (punkt fiksacji oraz zadany element), nie sugerując, w jaki sposób należy to zrobić (np. że należy przenieść „plamkę” z jednego punktu do drugiego). W takim wariancie pro­ cedury nie stwierdzono związku między czasem decyzji a wzajemną odległością obiektów na mapie (r = -0,03). Jeśli więc instrukcja udzielona badanemu wymaga jedynie znalezienia się w odpowiednim miejscu względem punktu fik­ sacji, ale nie precyzuje, w jaki sposób można ten cel osiągnąć, wówczas zwią­ zek między czasem decyzji a odległością punktów na „skanowanej” mapie umysłowej zanika. Wynika stąd, że w słynnych badaniach nad rotacją, a zwłasz­ cza skaningiem umysłowym, uczestnikom, być może, zasugerowano, aby wyobrażali sobie ruch obiektu, który musi trwać odpowiednio do przebytego dystansu. Wniosek, iż wyobraźnia działa analogicznie do percepcji, a zwłaszcza analogicznie do prawdziwych manipulacji na obiektach, wydaje się więc po­ chopny. W innym badaniu Rinck i Denis (2004) polecili uczestnikom „przecha­ dzanie się” w wyobraźni po budynku muzeum, składającym się z 10 pokojów, w których rozmieszczono 24 obrazy znanych mistrzów (ryc. 2.3). Zgodnie z pa­ radygmatem skaningu umysłowego, badani najpierw zapamiętywali plan pomieszczeń (przez 30 min), a następnie już „w wyobraźni” pokonywali wyzna­ czone im odległości. Instrukcja wymagała np., aby odnaleźć dany obraz, wyjść z pokoju, przejść przez dwa sąsiednie pokoje i znaleźć się przed innym obrazem. Badani zgłaszali moment wykonania wymaganej czynności. Rinck i Denis manipulowali euklidesowym (fizycznym) oraz kategorialnym (liczba pokoi) dystansem, jaki trzeba było przebyć. Stwierdzili klasyczny dla stanowiska obrazowego efekt odległości - im większy fizyczny dystans do pokonania, tym zfCj tvQzaziai c. ístoia i rorma reprezentacji umysiowycn dłuższy czas „odszukiwania” wskazanego w instrukcji miejsca. Okazało się jednak, że efekt odległości dotyczy również dystansu kategoriałnego: czas odszukiwania był tym większy, im więcej pokoi trzeba było przejść „w wyobraź­ ni”, niezależnie od dystansu fizycznego. O ile pierwszy wynik jest zgodny z przewidywaniami wyprowadzonymi z koncepcji obrazowych, o tyle wynik drugi świadczy raczej na korzyść stanowiska propozycjonalnego. Być może uczestnicy tego badania tworzyli reprezentacje przestrzeni w postaci sądów odzwierciedlających relacje między pokojami. Każdy pojedynczy sąd dotyczy relacji między pokojami sąsiednimi (np. „sala nr 2 jest na lewo od sali nr 3”), a sądy dotyczące innych par pokojów wymagają złożenia odpowiedniej liczby takich sądów pierwotnych. Nic więc dziwnego, że im większy dystans wyrażony liczbą pokoi, tym dłuższy czas decyzji. 1 1 1-------- 1 Gauguin i--------1 Velazquez van Gogh Warhol 1 4 Brueghel i_____ i Rubens 2 I I i I Klee r i!---- i1 ----------- Bosch Marc 1___ _i Monet 1 9 1 ! 1 Diirer c Q i ! Rafael Santi i| i-------- 1---- Goya Nolde Rembrandt 1 1 1 i ---------------- 7 Miró U 3 i"" i Renoir 10 n Picasso Dali iI---------------1 1 Michat Aniol 6 8 Kandinsky i i da Vinci Magritte U Macke i ■ i Ryc. 2.5. Plan muzeum wykorzystany w badaniach nad pokonywaniem dystansu „w wyobraźni” (za: Rinck, Denis, 2004). Intons-Peterson (1983) wprowadziła jeszcze inną manipulację instrukcją. Połowie uczestników badania sugerowała, że zadanie z zakresu skaningu umysłowego lepiej wykonywać w warunku percepcyjnym. Druga połowa bada­ nych dowiadywała się, że lepsze wyniki można uzyskać w warunku wyobraże­ niowym. Rodzaj zastosowanej instrukcji znalazł wyraźne odzwierciedlenie w wy­ nikach eksperymentu. W żadnej z dwóch grup nie stwierdzono funkcjonalnej ekwiwalencji percepcji i wyobraźni. Co więcej, badani rzeczywiście szybciej wykonywali zadanie w warunku eksperymentalnym, który przez badacza został wskazany jako ten, w którym można uzyskać lepsze wyniki. Część rezultatów badań Bannona i Pylyshyna, Intons-Peterson oraz Rincka i Denisa jest więc sprzeczna z teorią powierzchniowych reprezentacji umysło­ wych w formie obrazowej oraz z hipotezą ekwiwalencji percepcji i wyobraźni. Pylyshyn (1981) w swojej krytyce reprezentacji obrazowych posuwa się jeszcze 2.4. Pierwotność czy wtórność nietrwałych reprezentacji umysłowych 93 dalej, stwierdzając, że odzwierciedlenia wyobrażeniowe są epifenomenami, czyli realnie nie istniejącymi, z gruntu niesamodzielnymi „zdarzeniami” mentalnymi; prawdziwie istniejące są tylko reprezentacje wyrażone w kodzie propozycjonalnym. Sądzi, że efekty eksperymentalne uzyskane przez zwolenników koncepcji obrazowej są artefaktami, wynikającymi z zastosowania sugerującej instrukcji dla osób badanych. Według Pylyshyna (1973, 1981), reprezentacja umysłowa jest abstrakcyjną strukturą poznawczą, w której odzwierciedlone są relacje, jakie zachodzą między obiektami i wydarzeniami w otaczającej nas rzeczywistości. Reprezentacje obrazowe Kosslyna i sensoryczne obrazy Paivio są, zdaniem Pylyshyna, zjawiskami wtórnymi wobec właściwych reprezentacji umysłowych, powstając w wyniku przetwarzania tych ostatnich. Logogeny Paivio są już bliższe reprezentacjom umysłowym w przekonaniu Pylyshyna, ale przez swoją konkretność i modalność bardziej pasują do powierzchniowych reprezentacji umysłowych w formie obrazów sensorycznych niż do amodalnych i abstrakcyjnych odzwierciedleń otaczającej nas rzeczywistości. Odmienność poszczególnych koncepcji reprezentacji dobrze ilustruje taki oto przykład. Kosslyn (1983) twierdzi, że reprezentacja umysłowa szachownicy ma postać obrazu naprzemiennie ułożonych pól czarnych i białych. Zdaniem Paivio (1986), reprezentacją umysłową szachownicy może być albo jej sensoryczny obraz (jak u Kosslyna), albo werbalny opis koloru poszczególnych pól. We­ dług Pylyshyna (1981), reprezentacja szachownicy to nic innego, jak zbiór sądów (twierdzeń) dotyczących charakteru pól (czarne lub białe) i ich lokalizacji w obrębie matrycy 64 pól zdefiniowanych przez litery i cyfry (G3, A8 itd.). Pylyshyn (1981) uważa więc, że poszczególne obiekty są reprezentowane w umyśle nie samodzielnie, ale jako część twierdzenia o wzajemnej relacji dwóch obiektów, przy czym relacje przestrzenne to tylko jedna z wielu możliwości. Na przykład wyobrażając sobie mapę Europy, „widzimy”, że Ho­ landia znajduje się na zachód od Niemiec, a Niemcy - na zachód od Polski. Jeśli kosslynowski punkt fiksacji wypada na Ukrainie, która na zachodzie graniczy z Polską, odpowiedź na pytanie, co jest położone dalej od Ukrainy: Holandia czy Niemcy, wymaga rozważenia większej liczby twierdzeń niż odpowiedź na pytanie, czy dalej od Ukrainy jest Polska, czy też Niemcy. W drugim przypadku wystarczy rozważyć tylko dwa twierdzenia: [leży na zachód od (Polska, Ukraina)], oraz [leży na zachód od (Niemcy, Polska)], podczas gdy w pierwszym przypadku do dwóch powyższych sądów trzeba dodać trzeci: [leży na zachód od (Holandia, Niemcy)]. Jest oczywiste, że im więcej sądów, tym więcej czasu potrzeba na ich przetworzenie, dlatego czas decyzji jest dłuższy, gdy porównywane elementy leżą dalej na mapie. Jeśli jednak efekt odległości nie ujawni się w badaniach, co czasem się zdarza, trzeba wnioskować, iż w takiej sytuacji wszystkie obiekty są Ol nU£U£ldl Ca . is iu ia l l u m ia icpicz,cniacji uniyoiuwyou powiązane bezpośrednimi relacjami definiującymi ich wzajemne położenie w przestrzeni. Jeśli np. ktoś dysponuje gotowym, utrwalonym sądem o treści: [leży na zachód od (Holandia, Ukraina)], wówczas odpowiedź na pytanie o położenie dwóch obiektów wymaga prze­ tworzenia tylko jednego sądu, co oznacza, że na podjęcie decyzji trzeba zużyć tę samą ilość czasu niezależnie od rzeczywistej lub wyobrażonej odległości dwóch obiektów. Jak widać, kod propozycjonalny jest bardziej uniwersalnym sposobem zapisu poznawczych reprezentacji świata niż kod werbalny, a zwłaszcza obra­ zowy. Jest też lepiej dopasowany do zaobserwowanych danych empirycznych, ponieważ dobrze wyjaśnia zarówno to, co jest wyjaśnialne z odwołaniem się do kodu obrazowego, jak również to, z czym stanowisko obrazowe zupełnie sobie nie radzi. Rozważmy np. problem wpływu złożoności reprezentacji umysłowej na czas potrzebny do wykorzystania tej reprezentacji w jakiejś czynności poznawczej. Liczba sądów potrzebnych do opisu bardziej złożonych relacji jest oczywiście znacznie większa niż liczba twierdzeń niezbędnych do ujęcia relacji prostych. Trudniej nam stwierdzić istnienie jakiegoś szczegółu w bardzo złożonym obiekcie, bo trzeba w tym celu rozważyć znacznie więcej twierdzeń niż w przypadku obiektu prostego. Na przykład, badając „w wyobraźni” mapę Europy, znacznie trudniej nam zdecydować, czy Bytom leży na Górnym Śląsku, a łatwiej - czy Bielsko znajduje się na Podbeskidziu. Oba miasta są porów­ nywalnej wielkości, ale Bytom jest jednym z wielu dużych miast w aglomeracji Górnego Śląska, podczas gdy na Podbeskidziu nie ma drugiego tak dużego miasta jak Bielsko. Efekt ten można wytłumaczyć liczbą niezbędnych do prze­ tworzenia sądów, a nie żadnym „zoomem mentalnym”. Możliwe też, że do wygenerowania wyobrażenia małych elementów badani wykorzystują mniejszą liczbę twierdzeń, przez co szczegóły obiektu nie są łatwo dostępne; należy wówczas przeanalizować znacznie większą liczbę twierdzeń ogólnych bądź też związanych z możliwymi transformacjami małego elementu, aby dokonać poprawnej jego identyfikacji lub podjąć trafną wobec niego decyzję. Widzimy więc, że w celu wyjaśnienia zależności stwierdzonych w badaniach metodami skaningu umysłowego nie trzeba koniecznie odwoływać się do istnienia obrazów umysłowych oraz funkcjonalnej ekwiwalencji percepcji i wyobraźni, tym bardziej że zależności te mogą być po prostu artefaktami, wynikającymi z przyjętej instrukcji eksperymentalnej (Pylyshyn, 1981; Intons-Peterson, 1983). Pogląd Pylyshyna dotyczący wtórnego charakteru wszelkich „obrazów mentalnych” wydaje się jednak zbyt skrajny, podobnie zresztą jak pogląd Kosslyna dotyczący dominującej roli obrazów w kodowaniu informacji. Trudno w świetle przedstawionych w tym podrozdziale wyników badań nie zgodzić się z twierdzeniem, iż obrazy umysłowe nie są jedyną formą reprezentacji danych sensorycznych. Wyniki te są więc sprzeczne z koncepcją Kosslyna o tyle, o ile przyjmie się jego tezę, iż reprezentacje umysłowe w formie obrazu są konieczną formą kodowana danych zmysłowych. Trzeba raczej przyjąć, że obrazy są jedną z wielu form reprezentacji, i to bynajmniej nie obligatoryjną. Inne formy to reprezentacje werbalne (Paivio) i reprezentacje w formie zbioru sądów (Py­ lyshyn), które podlegają zupełnie innym prawom użycia i przetwarzania niż obrazy umysłowe. Nasuwa się wniosek, że trzy rodzaje reprezentacji umysło­ 2.4. Pierwotność czy wtórność nietrwałych reprezentacji umysłowych 95 wych: obrazowe, werbalne i propozycjonalne, powstają i zanikają w zależności od wymagań sytuacji zadaniowej i naszych osobistych preferencji. 2.4.3. Teoria modeli m entalnych Johnson-Lairda Nietrwałe, powierzchniowe reprezentacje poznawcze, tworzone na potrzeby bieżącego przetwarzania informacji, mogą przyjmować jeszcze jedną postać. Oprócz obrazów, słów i sądów umysł ludzki generuje tzw. modele mentalne, czyli nietrwałe reprezentacje słowno-obrazowe o dość dużym poziomie złożoności. Powstają one zwykle w toku procesu myślenia lub rozumowania jako sposób na przedstawienie sobie w umyśle istoty problemu, a zwłaszcza składających się nań zależności. Wnikliwą analizę tego typu reprezentacji prze­ prowadził w swojej koncepcji modeli mentalnych Philip Johnson-Laird (1983). Teoria ta wyrosła na gruncie badań nad wnioskowaniem. Zasadnicza teza autora brzmi, iż wnioskowanie nie jest formalnym procesem syntaktycznym, ale procesem semantycznym, którego przebieg zależy od wyobrażonych stanów analizowanej sytuacji. Innymi słowy, przebieg i efekty wnioskowania zależą od modelu sytuacji, a więc od sposobu reprezentowania problemu w umyśle osoby zmagającej się z nim. Wnioskowanie obejmuje trzy główne operacje. W pierwszej kolejności czło­ wiek buduje w umyśle wyobrażenie stanu rzeczy, o jakim jest mowa w prze­ słankach. W ten sposób powstaje mentalny model sytuacji, oparty zarówno na znaczeniach zawartych w przesłankach, jak i na wiedzy ogólnej. Taki model jest zawsze uproszczoną reprezentacją problemu, często błędną i wewnętrznie nie­ spójną, gdyż zazwyczaj - z punktu widzenia logiki formalnej - treść przesłanek można sobie przedstawić w różny sposób. Na przykład przesłankę: Każdy psycholog jest mędrcem, można rozumieć na wiele sposobów: że poza psychologami jest cała masa mędrców niepsychologów, że mędrców niepsychologów jest naprawdę niewielu, wreszcie - że każdy mędrzec jest psychologiem. Z logicznego punktu widzenia każde z tych stwierdzeń jest poprawnym uszczegółowieniem treści przesłanki, ale psychologicznie rzecz ujmując, są to stwierdzenia dość odrębne. Im bardziej złożona przesłanka, tym więcej modeli mentalnych można na jej podstawie zbudować. Im więcej zaś możliwych do zbudowania modeli, tym łatwiej o po­ myłkę we wnioskowaniu, ponieważ pomyłka może wynikać z tego, że w swoim umysłowym przedstawieniu treści przesłanek nie uwzględniliśmy wszystkich możliwości. W drugim etapie wnioskowania mentalny model przesłanek staje się punktem wyjścia do wyprowadzenia próbnych wniosków, zgodnych z przyjętym modelem. Ostatni etap wnioskowania polega na budowaniu alternatywnych modeli umysłowych, które mogłyby ewentualnie sfalsyfikować wyciągnięte wnioski i skorygować ostateczną konkluzję. Modele umysłowe danego obiektu, sytuacji czy zjawiska są tworzone ad hoc, na potrzeby rozwiązania konkretnego problemu. Może się więc okazać, iż ta sama osoba, na potrzeby dwóch różnych zadań, utworzy dwa całkowicie od­ mienne modele tego samego obiektu lub zjawiska. Ta zadziwiająca własność modeli umysłowych ujawnia się szczególnie wyraźnie w badaniach nad naiwny­ yb Rozdział 2. Istota i forma reprezentacji umysfowycn mi teoriami zjawisk czy obiektów (zob. rozdz. 11.2.2). Z punktu widzenia sporu o naturę reprezentacji umysłowych najważniejsze jest twierdzenie Johnson-Lairda (1983), iż nietrwałe modele mentalne powstają zarówno na bazie spostrzeżeń i wyobrażeń, a więc nietrwałych reprezentacji umysłowych, jak i na bazie wiedzy, a więc reprezentacji trwałych. W tym ujęciu żadna forma re­ prezentacji nie jest przypadkowym bytem pozbawionym znaczenia - wszystkie biorą ważny udział w tworzeniu modelu stanowiącego materiał dla bieżących procesów przetwarzania informacji. Modele mentalne należy zatem uznać za osobną formę nietrwałej reprezentacji świata w umyśle, wyróżnioną ze względu na mieszany, obrazowo-pojęciowy charakter, jak też ze względu na stosunkowo wysoki poziom złożoności. Typowy model umysłowy jest bowiem czymś znacznie bardziej złożonym niż obraz, etykieta werbalna czy nawet twierdzenie. 2.4 .4 . Stanow isko eklektyczne w sporze o kod reprezentacji um ysłow ych Co wynika z przedstawionego w tym rozdziale sporu o naturę i formę repre­ zentacji świata w umyśle? Czy możliwe jest sformułowanie jakiejś konkluzji popartej wynikami badań empirycznych? Wydaje się, że zadania.z zakresu rotacji mentalnych, w których wykorzys­ tuje się wyłącznie materiał niewerbalny (rysunki, figury, rzuty figur na płaszczyznę), wymagają raczej wyobrażeń w postaci obrazów sensorycznych (Kosslyn, Paivio). Z kolei zadania z zakresu weryfikacji sylogizmów, wykorzys­ tujące materiał werbalny, wymagają raczej reprezentacji w postaci etykiet słownych (Paivio) lub nawet głębszych reprezentacji umysłowych w postaci zbioru abstrakcyjnych twierdzeń i sądów o relacjach (Pylyshyn). Natomiast zadania z zakresu skaningu umysłowego mogą być rozwiązywane zarówno w obrazowej, jak i werbalnej formie reprezentacji powierzchniowych; mogą wymagać udziału trwałych reprezentacji w formie sądów o relacjach bądź ich nie wymagać. Wyniki przedstawionych w tym rozdziale badań nie mogą więc być interpretowane na korzyść żadnej ze skrajnych teorii reprezentacji umysłowych. Każde skrajne ujęcie można łatwo sfalsyfikować, przedstawiając wyniki badań eksperymentalnych, których nie da się w jego ramach zrozumieć. Każdy człowiek zapewne dysponuje różnymi reprezentacjami umysłowymi tych samych obiektów. Ten sam przedmiot, osoba lub sytuacja mogą być przedstawione w postaci obrazu, etykiet werbalnych lub zbioru twierdzeń. W zależności od rodzaju stymulacji, kontekstu lub fazy rozwiązywania pro­ blemu, człowiek tworzy ad hoc i wykorzystuje obrazową, werbalną lub propozycjonalną formę reprezentacji; niekiedy też buduje złożony model mentalny sytuacji lub problemu. Kod obrazowy jest charakterystyczny dla początkowych faz rozwiązywania zadań, polegających głównie na przyswajaniu informacji, podczas gdy kod werbalny lub propozycjonalny działa raczej w późniejszych fazach, gdy należy dokonać logicznych przekształceń lub innych złożonych operacji umysłowych. Być może o wyborze rodzaju reprezentacji umysłowej w przetwarzaniu danych decydują osobiste preferencje jednostki. Gdy rodzaj zadania lub jego instrukcja nie określa jednoznacznie pożądanego rodzaju reprezentacji umysłowych, wtedy o ich wyborze decydują właśnie 2.5. Podsumowanie 97 indywidualne strategie lub preferencje. Ostatecznie w sporze o istotę i rodzaje reprezentacji umysłowych należałoby przyjąć stanowisko eklektyczne (Ander­ son, 1995), dopuszczające możliwość istnienia wielu różnych form kodowania świata w umyśle. 2.5. Podsumowanie Jak zauważył Anderson (1978, s. 250), „żadne twierdzenie na temat danej reprezentacji nie jest możliwe, dopóki nie wyszczególni się procesu, jaki ma na tej reprezentacji przebiegać”. Próbując zatem odpowiedzieć na dwa pytania Pylyshyna, sformułowane na początku tego rozdziału, nie można w istocie uniknąć błędnego koła. Z jednej strony trudno wypowiadać się o przebiegu procesów przetwarzania informacji, nie definiując najpierw natury i formy reprezentacji umysłowych, na których procesy te operują. Z drugiej strony rów­ nie trudno jest omawiać strukturę i formę reprezentacji umysłowych w oder­ waniu od konkretnych czynności poznawczych, które się na tych reprezen­ tacjach dokonują. Mimo tego zagrożenia, pewne wnioski na temat reprezentacji świata w umyśle wydają się możliwe. Reprezentacje dzielą się na trwałe i nietrwałe. Te pierwsze tworzą struktury wiedzy, podczas gdy te drugie powsta­ ją w związku z koniecznością wykonania konkretnej czynności poznawczej (np. podjęcia decyzji, wypracowania odpowiedzi na pytanie, rozwiązania problemu), po czym zanikają. Nietrwałe reprezentacje poznawcze, zwane też powierzch­ niowymi, mogą przyjmować postać obrazów umysłowych, etykiet słownych, sądów o relacjach między obiektami czy też złożonych modeli umysłowych konkretnej sytuacji lub problemu. Powszechnie obowiązującą zasadą funkcjo­ nowania umysłu jest założenie, że ten sam obiekt może być reprezentowany w różnym formacie, np. obrazowym i słownym, a o użyciu określonej formy reprezentacji decydują czynniki sytuacyjne (np. kontekst, polecenie, instrukcja, rodzaj napływającej stymulacji) lub trwałe preferencje indywidualne. R ozd ział Pojęcia i schematy Konstrukt reprezentacji pojęciowej 99 Istota i funkcje reprezentacji pojęcio­ wych 99 Ogólne właściwości pojęć 100 Pojęcia m atrycow e i naturalne 102 S truktura i funkcjonow anie reprezentacji pojęciowych 103 Teorie klasyczne 103 Teorie probabilistyczne Teorie prototypów Teorie egzem plarzy 112 123 Porównanie koncepcji reprezentacji po jęciowych 125 Dynamiczna koncepcja umysłu, czyli o re lacjach między pojęciami 126 Teorie sieci semantycznej Złożone struktury sieciowe Teoria schem atów Teoria ram 126 128 129 132 Teoria planów, scen i tem atów 108 133 Porów nanie koncepcji stru k tu r siecio wych 134 Podsumowanie 135 Pojęcie to poznawcza reprezentacja zbioru obiektów, np. kategorii natural­ nych (owoce), sztucznych (liczba rzeczywista) lub hipotetycznych (UFO). Schemat poznawczy to złożona forma reprezentacji umysłowej, obejmująca zarówno sens typowej sytuacji (obiad w restauracji), jak i znaczenie typowych form zachowania (jedzenie, płacenie), jakie powinny być wygenerowane w reakcji na tę typową sytuację. Według anegdoty pewien prowincjusz odwiedził ogród zoologiczny. Zatrzymał się przy wybiegu dla żyraf, długo się im przyglądał, po czym stwierdził: „Takiego zwierzęcia nie ma!”. Anegdota jest zapewne zmyślona, ale dobrze oddaje psychologiczny sens i funkcję pojęć: jeśli brakuje umysłowej reprezentacji pew­ nego fragmentu rzeczywistości, fragment ten zdaje się nie istnieć. Stan umysłu, któremu brakuje adekwatnych reprezentacji pojęciowych, oddają takie okreś­ lenia języka potocznego, jak to, że coś się „nie mieści w głowie” albo że na coś „brak słów”. W tym rozdziale omówimy trwałe reprezentacje poznawcze, jakimi są pojęcia i schematy. Przedmiotem analizy będą rodzaje pojęć, ich struktura i nabywanie oraz wpływ na aktywność poznawczą człowieka. Osobny podroz­ dział poświęcimy analizie schematów poznawczych jako struktur utworzonych z pojęć. 3.1. Konstrukt reprezentacji pojęciowej 3.1.1. Isto ta i funkcje re p reze n ta cji pojęciow ych Pojęcia (concepts) są sposobem reprezentacji świata w naszym umyśle (zob. rozdz. 2). Są schematycznymi reprezentacjami zbiorów rzeczywistych obiektów, stanowiąc dla nich nadrzędną kategorię umysłową, punkt odniesie­ nia, konieczny do ich identyfikacji i rozróżnienia w ramach różnych kategorii. Problemy z rozpoznawaniem obiektów często wynikają z braku odpowiednich reprezentacji umysłowych. W myśl powyższej anegdoty, prowincjusz nie był w stanie sklasyfikować żyrafy jako egzemplarza (desygnatu, przedstawi­ ciela) nadrzędnej kategorii zwanej zwierzętami, gdyż ta właśnie kategoria umysłowa była w jego przypadku reprezentacją jedynie tych zwierząt, z który­ mi zetknął się on w swoim doświadczeniu i których szyje, w przeciwieństwie do szyi żyrafy, były proporcjonalne do reszty ich ciał. Zaburzenie tej pro­ porcji u żyrafy, a więc niespełnienie przez nią istotnej właściwości kryterialnej, uniemożliwiło prowincjuszowi potraktowanie nowo napotkanego w ogro­ dzie zoologicznym obiektu jako podobnego do innych obiektów klasy zwierząt. Schematyczna struktura reprezentacji pojęciowych wyraża się poprzez relację koniunkcyjną („a i b ”) lub dysjunkcyjną („a albo b ”) istotnych właściwości (a, b) obiektów, trwale odzwierciedlanych przez system poznawczy (Lewicki, 1968; Smith, Shoben, Rips, 1974). Pojęcia można więc definiować jako zbiory cech powiązanych znaczeniowo lub funkcjonalnie (Obuchowski, 1970). Zbiór obiektów może również zostać odzwierciedlony schematycznie, 100 Rozdział 3. Pojęcia i schematy w sposób uproszczony, przez pojedynczy egzemplarz danej kategorii, jeśli charakteryzuje się on właściwościami typowymi bądź dystynktywnymi dla danej kategorii obiektów (Reed, 1971; Rosch, 1978). Reprezentacje pojęciowe przyjmują postać głębokich, trwałych odzwierciedleń obiektów rzeczywistych. W przeciwieństwie do reprezentacji nietrwałych, wyobrażonych (np. w obrazach umysłowych czy w etykietach werbalnych; zob. rozdz. 2), są niezależne od formy zmysłowej i właściwości zmysłu, którym obiekty reprezentowane w ramach pojęcia są spostrzegane. Reprezentacje pojęciowe mają więc charakter amodalnych sądów o relacjach zachodzących pomiędzy właściwościami obiektów rzeczywistych. Pojęcia zapewniają systemowi poznawczemu ekonomię funkcjonowania, działając w zgodzie z priorytetową dla tego systemu zasadą „skąpca poznaw­ czego” (zob. rozdz. 1). Rola reprezentacji pojęciowych jest tu zbliżona do podstawowej funkcji uwagi - selektywności (zob. rozdz. 5). Zadaniem uwagi jest jednak przede wszystkim ograniczenie ilości docierających do nas informacji i wybór do dalszego przetwarzania tylko tych, które z punktu widzenia systemu poznawczego są ważne. Dzięki reprezentacji tych informacji w umyśle przez rozbudowany system pojęć, możliwe jest znaczne ograniczenie różnorodności danych docierających do umysłu. Jak twierdzą Rosch i współ­ pracownicy (1976, s. 382): „[...] jedną z najbardziej podstawowych funkcji wszystkich organizmów jest ujmowanie otoczenia w klasyfikacjach, które pozwalają traktować bodźce nieidentyczne jako równoważne”. W ramach każdej kategorii poszczególne desygnaty mogą bowiem znacznie się różnić, nadal będąc zaliczane do przedstawicieli danego pojęcia. Na przykład różnice, pomiędzy egzemplarzami powszechnie używanej kategorii pojęciowej „samo­ chód” są znaczne, jednak kierujący ruchem drogowym nie mają żadnych kłopotów z odróżnianiem desygnatów tej właśnie kategorii od innych uczestników ruchu drogowego. Podobnie nawet tak precyzyjnie zdefiniowane kategorie pojęciowe, jak „trójkąt” (figura płaska, zamknięta, o sumie kątów wynoszącej 180° kątowych) posiadają egzemplarze znacznie różniące się od siebie (trójkąt równoramienny i trójkąt rozwartokątny). W konsekwencji, w przypadku przynajmniej niektórych reprezentacji pojęciowych, poszczególne desygnaty wydają się lepszymi bądź gorszymi przedstawicielami nadrzędnej kategorii. Jednak, pomimo tej różnorodności, zaliczenie ich do wspólnej kategorii nadrzędnej sprawia, że możliwe jest konsekwentne, niezróżnicowane zachowanie wobec wszystkich przedstawicieli tej kategorii, niezależnie od ich różnorodności. Dlatego też policjant może ukarać mandatem za szybką jazdę zarówno kierowcę małego fiata, jak i prowadzącego porsche, zaś do obliczenia pola dowolnego trójkąta wystarcza znajomość długości podstawy i wysokości tej figury, a niekonieczna staje się wiedza dotycząca stopnia rozwartości naj­ większego kąta. 3 .1.2. Ogólne w łaściw ości pojęć Reprezentacje pojęciowe mogą mieć charakter zarówno indywidualny, jak i ogólny. Przykładem pojęcia ogólnego jest pojęcie samochodu. Przykładem po­ jęcia mniej ogólnego, a bardziej zindywidualizowanego jest pojęcie samochodu 3.1. Konstrukt reprezentacji pojęciowej 101 przekraczającego przepisy ruchu drogowego, zaś pojęcia zupełnie jednostkowe­ go - pojęcie własnego samochodu. Reprezentacje pojęciowe charakteryzuje więc różny stopień ogólności, czyli różny stopień redukcji różnorodności wśród obiektów odzwierciedlanych przez dane pojęcie. Im bardziej ogólne jest pojęcie, tym bardziej jest ono zbiorem właściwości typowych. Jednocześnie wraz ze wzrostem ogólności pojęcia rośnie wielkość zbioru jego desygnatów. Wyprzedzając nieco rozważania dotyczące wzajemnych relacji między pojęcia­ mi, można już teraz stwierdzić, że pojęcia tworzą złożoną strukturę, opartą na zasadzie hierarchii ogólności - pojęcia podrzędne, np. własny samochód, są podporządkowane pojęciom nadrzędnym, np. samochód, zgodnie z zasa­ dą inkluzywności właściwości i desygnatów (Collins, Loftus, 1975; Loftus, Loftus, 1975). Proces redukowania różnorodności w ramach danej reprezentacji pojęcio­ wej odbywa się poprzez kategoryzację obiektów. Proces kategoryzacji (categorization) polega na łączeniu obiektów w grupy charakteryzujące się ze­ stawem wspólnych właściwości. Taką właściwością dla samochodów jest to, że poruszają się dzięki własnemu napędowi (w sensie „same jeżdżą”) po dro­ gach publicznych. Warto podkreślić, iż reprezentacja językowa (etykieta wer­ balna „samochód”), będąca konsekwencją uchwycenia pewnych wspólnych właściwości grupy obiektów domagających się wspólnego określenia, nieko­ niecznie musi mieć coś wspólnego z reprezentacją pojęciową, dla której jest nazwą. W przypadku pojęcia „samochód” reprezentacja językowa uwzględ­ nia ważną właściwość kategoryzowanych obiektów, ale często zdarza się, iż etykieta werbalna ma charakter wyłącznie arbitralny i nie wskazuje na żadne głębsze właściwości grupy określanych przez nią desygnatów. Na przy­ kład angielska etykieta bus dla oznaczenia autobusów związana jest bardziej z charakterystycznym odgłosem wydawanym przez starsze modele tych środków transportu niż z jakąkolwiek istotną właściwością przedstawicieli tej kategorii. Reprezentacje pojęciowe rozwijają się i doskonalą w ciągu życia człowieka, gromadzącego doświadczenia indywidualne i stojącego wobec różnorodnych wymagań sytuacji. Są więc zależne od kontekstu ich nabywania i stosowania (McCloskey, Glucksberg, 1978; Murphy, Medin, 1985). Mieszkaniec tybetań­ skiej wioski, który nigdy w życiu nie widział samochodu, samodzielnie raczej nie stworzy odpowiedniej reprezentacji pojęciowej. Z kolei większość mieszkańców Europy, poruszająca się wygodnie samochodami, nie stworzyła sobie reprezen­ tacji pojęciowej tybetańskiego jaka. Brak bowiem bodźców (odpowiedniego kontekstu dla procesu uczenia się) nie daje podstawy do wytworzenia reprezentacji pojęciowej. Reprezentacje pojęciowe mogą też być zróżnicowane w odmienny sposób ze względu na warunki, w jakich się kształtują. Na przykład mieszkaniec Grenlandii dysponuje siedmioma reprezentacjami śniegu w za­ leżności od jego zastosowania (igloo, lodówka itp.), podczas gdy dla większości mieszkańców Europy śnieg ma tylko jedno trwałe odzwierciedlenie w systemie poznawczym. Powyższe przykłady wydają się potwierdzać jeszcze średniowieczną koncepcję reprezentacjonizmu Ockhama (za: Kemp, 1998). Zgodnie z nią, głę­ bokie reprezentacje wprawdzie mogą funkcjonować w oderwaniu od doświad­ czenia obiektów rzeczywistych, jednakże ich doświadczenie jest z pewnością 102 Rozdział 3. Pojęcia i schematy niezbędne w procesie nabywania tych reprezentacji. Koncepcję tę w psychologii rozwijali zwłaszcza zwolennicy asocjacjonizmu (np. Titchener), a raczej prze­ ciwni jej byli zwolennicy gestaltyzmu (np. Wertheimer, Kulpę). Ci ostatni opowiadali się za istnieniem pojęć nieobrazowych, niepochodzących z doświad­ czenia percepcyjnego (Maruszewski, 1983). 3.1 .3 . Pojęcia m atrycowe i naturalne Pojęcia dzielimy na matrycowe i naturalne. Pojęcia matrycowe (classical concepts) są jasno określone (zdefiniowane). Stanowią poznawczą reprezenta­ cję skończonej liczby cech wspólnych wszystkim desygnatom, które w jedna­ kowym stopniu przysługują wszystkim egzemplarzom pojęcia. Przykładem pojęcia matrycowego jest „trójkąt”. Trzema cechami przysługującymi w jed­ nakowym stopniu wszystkim trójkątom są: (1) bycie figurą płaską; (2) bycie figurą zamkniętą; (3) posiadanie trzech kątów o sumie stopni kątowych wynoszącej 180. W świetle tej definicji nie ma sensu mówić o bardziej i mniej typowych trójkątach, bo wszystkie trójkąty spełniają tę definicję w jednakowym stopniu. Bez wątpienia, dla matematyka trójkąt równoboczny i rozwartokątny są równie dobrymi desygnatami trójkątów, jak każdy inny przedstawiciel tej kategorii figur. Pojęcia matrycowe (inaczej sztuczne) dominują w języku nauki, bywają zresztą określane jako „naukowe” lub „arystotelesowskie” (Trze­ biński, 1986). To właśnie Arystoteles zapoczątkował definiowanie obiektów poprzez wskazanie najbliższego rodzaju i specyficznej różnicy. Najbliższy rodzaj to kategoria nadrzędna w stosunku do obiektu definiowanego, czyli najbliższa pod względem poziomu abstrakcji, ale nazbyt ogólna. Natomiast specyficzna różnica to cecha, która wyróżnia definiowany obiekt spośród innych przed­ stawicieli tej kategorii. Na przykład określenie człowieka jako „zwierzęcia rozumnego” zawiera najbliższy rodzaj: „zwierzę” i specyficzną różnicę: „rozumne”. Pojęcia naturalne (natural kind concepts) są mniej precyzyjnie określone i w związku z tym mogą mieć bardziej indywidualny charakter. Wprawdzie stanowią one także poznawczą reprezentację skończonej liczby cech, jednak cechy te w różny sposób przysługują poszczególnym desygnatom pojęcia. Stąd też każde pojęcie naturalne posiada bardziej i mniej typowe desygnaty; podobnie - cechy definiujące daną reprezentację pojęciową mogą być mniej lub bardziej typowe. Wróbel jest bardzo typowym ptakiem, a kura nim nie jest, chociażby z tego powodu, że lata z wielkim trudem (Rosch, 1978). Pojęcia naturalne do­ minują w tworzeniu potocznej reprezentacji świata w umyśle, podlegają czasami zmianom na skutek kontaktu z innymi desygnatami danego pojęcia. Zmienność i zależność od doświadczenia i kontekstu sytuacyjnego wyraźnie odróżnia pojęcia naturalne od pojęć matrycowych. Warto jednak zauważyć, że ta sama reprezentacja może być pojęciem ma­ trycowym dla pewnej grupy ludzi a naturalnym dla innej. Opisany powyżej przykład pojęcia „trójkąt” posłużył jako ilustracja dla pojęć sztucznych. Matrycowym pojęciem trójkąta posługują się prawdopodobnie tylko przedsta­ wiciele nauk ścisłych. Tymczasem zdecydowana większość ludzi uważa, że pewne trójkąty są bardziej typowe (są lepszymi przedstawicielami kategorii 3.2. Struktura i funkcjonowanie reprezentacji pojęciowych 103 „trójkąt”), podczas gdy inne są mniej typowe (są gorszymi jej przedstawi­ cielami). Na przykład trójkąt równoboczny lub prostokątny są często uważane za lepszych przedstawicieli swojej kategorii, niż trójkąt o kącie rozwartym po­ wyżej 120°. Można o tym wnioskować na podstawie obserwacji procesu kate­ goryzacji - osobom badanym z reguły mniej czasu zajmuje identyfikacja „typo­ wego” trójkąta jako desygnatu swojej klasy niż identyfikacja przedstawiciela „nietypowego”. „Typowe” trójkąty otrzymują także wyższe oceny w rankin­ gach typowości, pod warunkiem że oceny nie dokonują przedstawiciele nauk ścisłych. 3.2. Struktura i funkcjonowanie reprezentacji pojęciowych 3.2.1. Teorie klasyczne \ f j ( j I i ! I j ( | | I Ę i j \ [■ I Według teorii klasycznych (classical view) pojęcie jest syntetycznym opisem pewnej klasy desygnatów, a nie zbiorem opisów różnych podzbiorów albo po­ jedynczych egzemplarzy danej klasy (Bruner, Goodnow, Austin, 1956; Lewicki, 1960, 1968; Loftus, Loftus, 1975). Pojęcie jest reprezentacją zbioru obiektów, uwzględniającą wszystkie istotne właściwości tego zbioru. O właściwościach mówimy, że są istotne, jeśli się powtarzają. Właściwością taką jest więc ta cecha, która występuje u wszystkich obiektów należących do zbioru. Istotną właściwością zbioru psów jest to, że wszystkie bez wyjątku wydają głos (i to specyficzny w postaci szczekania), a nie jest nią posiadanie ogona (pewne rasy mają ogon zredukowany bądź w ogóle go nie mają). Wszystkie cechy istotne są zarazem konieczne i wystarczające do określenia danego pojęcia. Stąd nazywane są również cechami definicyjnymi. Pojęcia podrzędne w hierarchii ogólności zawierają wszystkie cechy pojęcia nadrzędnego, a ponadto cechy istotne dla danego poziomu. Chcąc określić zbiór cech istotnych dla kwadratu, nie można pominąć żadnych istotnych cech czworoboków, czyli kategorii nadrzędnej. Przyswajanie pojęć, zgodnie z koncepcjami klasycznymi, odbywa się na drodze abstrahowania ich właściwości. Abstrahowanie oznacza wyróżnianie w grupie obiektów pewnych cech przy pominięciu pozostałych (w oderwaniu od nich; Fleszner, 1960). Andrzej Lewicki (1960) odrzucił koncepcję jednorodności procesu abstrahowania i wyróżnił dwa typy abstrakcji. Jego zdaniem, abstrakcja negatywna polega na pomijaniu cech nieistotnych (np. długość sierści u psa), zaś abstrakcja pozytywna - na wyodrębnianiu tych cech, które są istotne (np. wydawanie głosu w postaci szczekania). W konsekwencji przyjęcia takiego rozróżnienia, w procesie nabywania pojęć możliwe są dwa rodzaje błędów. Błąd pierwszego rodzaju polega na pomijaniu cech istotnych dla definicji zbioru obiektów. Wieloryb bywa zaliczany do ryb, gdy pominięta zostaje jego istotna cecha „ssakowatość”. Jest to błąd abstrakcji pozytywnej. Błąd drugiego rodzaju polega na zaliczeniu do cech istotnych właściwości nie mających znaczenia. Pszczoła bywa zaliczana do ptaków, gdy za cechę istotną kategorii „ptak” uzna się zdolność do latania (skądinąd cechę nieistotną). Jest to błąd abstrakcji negatywnej. 104 Rozdział 3. Pojęcia i schematy Paradygmat 3.1 Nabywanie pojęć metodą recepcji Badania prowadzone w paradygmacie recepcji mają na celu poznanie sposobu nabywania przez człowieka wiedzy o otaczającej go rzeczywistości. Uczestnikowi eksperymentu pokazuje się sukcesywnie pewną liczbę obiektów, informując go o tym, czy są one, czy też nie, przedstawicielami sztucznie wymyślonej na potrzeby badania reprezentacji pojęciowej. Istnieją dwie podstawowe odmiany tego paradygmatu, które dokładniej opisują Maruszewski (1983) i Kozielecki (1997), a badania z ich wykorzystaniem prowadził Lewicki (1960, 1968). W pierwszej odmianie paradygmatu recepcji - po prezentacji każdego z obiek­ tów - badany podejmuje decyzje co do jego przynależności kategorialnej, a eksperymentator udziela mu każdorazowo informacji zwrotnej o trafności jego przewidywań. Po przyswojeniu reprezentacji pojęciowej przez badanego następuje seria testowa, w której kategoryzuje on nowe obiekty zgodnie z kryteriami przynależności kategorialnej, nabytymi w fazie uczenia się. W serii testowej nie przewiduje się udzielenia badanemu informacji zwrotnej. W drugiej odmianie paradygmatu recepcji uczestnikowi eksperymentu prezentuje się sukcesywnie serię obiektów. Podczas pierwszej ich prezentacji udziela się mu informacji o przynależności bądź braku przynależności kategorialnej jednego z obiektów, po czym przystępuje on do kategoryzowania pozostałych obiektów, a po zakończeniu całej serii uzyskuje informację zwrotną - czy udało się mu zaklasyfikować poprawnie wszystkie obiekty. W kolejnej serii dysponuje on już informacją o przynależności kategorialnej dwóch obiektów (w następnej serii trzech, w kolejnej - czterech itd.). Ponownie dokonuje klasyfikacji pozostałych bodźców. Powtarza czynność aż do momentu właściwego podziału obiektów na reprezentantów sztucznie stworzonej kategorii i pozostałe bodźce bądź też do wyczerpania się obiektów, o których przynależności nic jeszcze nie wiadomo. W obu odmianach paradygmatu recepcji uczestnik eksperymentu w pierwszej kolejności nabywa procedur identyfikacyjnych umożliwiających mu poprawną klasyfikację. W dalszej kolejności przedmiotem uczenia staje się istota pojęcia (zestaw cech je określających), a prośba eksperymentatora dotyczy sformułowania <■ definicji reprezentacji pojęciowej, na podstawie której odbywa się dotychczasowa klasyfikacja. Jednak ten drugi, wyższy poziom osiąga już relatywnie niewielki odsetek badanych. Okazuje się, że łatwiej posługiwać się pojęciem dokonując poprawnej klasyfikacji, niż sformułować jasną definicję pojęcia. Paradygmat recepcji należy wyraźnie odróżnić od paradygmatu selekcji (Maruszewski, 1983). W tym ostatnim badany jest aktorem dokonującym wyboru w zakresie bodźca, na który reaguje, i sposobu reakcji na niego (np. w zadaniu polegającym na sortowaniu kart do pudełek; Thompson, 1986). Natomiast w pa­ radygmacie recepcji uczestnik badania jest biernym obserwatorem, któremu po­ zwala się jedynie na formułowanie hipotez dotyczących wspólności w zakresie spostrzeganych obiektów czy zjawisk. Lewicki (1960,1968) prowadził badania nad nabywaniem pojęć sztucznych w paradygmacie recepcji, a ściślej w drugiej z możliwych odmian tego para­ dygmatu (paradygmat 3.1). Reprezentacją nabywaną przez badanych było po­ 105 3.2. S tru k tu ra i funkcjonow anie rep rezentacji pojęciowych jęcie „klipiec”, charakteryzow ane przez trzy cechy istotne: dwa kształty zewnętrzny, dotyczący dużej karty, i wewnętrzny, dotyczący figury wpisanej w kartę - oraz jedno w ypełnienie odnoszące się do figury w ew nętrznej (ryc. 3.1). Cecha wypełnienia samej karty (zewnętrznego obiektu) była nieistotna dla ■ A ♦ ■ /" \ A ■ ■ A Ryc. 3.1. Karty używane w badaniach Lewickiego (1968) nad nabywaniem pojęć sztucznych. definicji nabywanego pojęcia. Klipcem mógł być więc np. czarny kw adrat w trójkącie. Szybkość nabyw ania reprezentacji pojęciowej okazała się zależna zarówno od liczby cech istotnych, jak i nieistotnych nabywanego pojęcia. Im większa sum aryczna liczba w szystkich cech różnicujących klasyfikow ane egzemplarze, tym wolniejszy proces uczenia się pojęć (W etherick, 1968). Uczestnicy eksperym entu Lewickiego potrzebow ali około 4-5 serii kart (4-5 informacji eksperym entatora o popraw ności podejm ow anych decyzji, aby dokonać właściwej klasyfikacji bodźców. Liczba koniecznych serii odpow iadała więc sumarycznej liczbie wszystkich cech obiektów, które należało zaliczyć do kategorii, a nie tylko liczbie cech istotnych, definiujących nabyw ane pojęcie. 106 Rozdział 3. Pojęcia i schematy Badani przez Lewickiego zachowywali się tak, jakby w każdej serii testowali prostą hipotezę dotyczącą pojedynczej cechy nabywanej reprezentacji pojęcio­ wej, decydując - po otrzymaniu informacji zwrotnej od eksperymentatora - czy dokonać procesu abstrakcji pozytywnej i zaliczyć testowaną cechę do właś­ ciwości istotnych, czy też procesu abstrakcji negatywnej i odrzucić rozważaną cechę jako nieistotną. W swojej koncepcji nabywania pojęć Lewicki dokonał więc syntezy dwóch teorii: teorii abstrakcji i teorii testowania hipotez. Stanowisko takie nie jest jednak powszechne. Co więcej, historycznie rzecz biorąc, oba stanowiska były sobie przeciwstawiane. Zwolennicy psychologii asocjacjonistycznej byli prze­ konani o wystarczającej roli abstrahowania w kształtowaniu się reprezentacji pojęciowych, natomiast gestaltyści wyrażali przekonanie, iż proces ten dokonuje się głównie poprzez testowanie hipotez (Maruszewski, 1983). Howard (1983) wyraźnie odróżnia dwa sposoby nabywania pojęć. Pojęcia niejawne (implicit concepts) są, według niego, nabywane metodą abstrakcji percepcyjnej bądź wyobrażeniowej właściwości desygnatów z egzemplarzy typowych dla kategorii, podczas gdy pojęcia jawne (explicit concepts) - metodą testowania hipotez odnośnie do wcześniej wyabstrahowanych cech dostępnych egzemplarzy. Być może niejawny sposób nabywania reprezentacji pojęciowych (tylko metodami abstrakcji) dotyczy w większej mierze pojęć naturalnych, podczas gdy pojęcia sztuczne są efektywnie kształtowane w procesie testowania hipotez bez konieczności zbierania doświadczeń percepcyjnych. Częściowym potwierdze­ niem tego hipotetycznego rozróżnienia w zakresie metod uczenia się reprezen­ tacji pojęciowych są wyniki badań Posnera i Keele (1968, 1970) nad naby­ waniem pojęć matrycowych (zob. rozdz. 3.2.3). Lewicki wykazał również, że pod względem efektywności nabywania pojęć ludzie dzielą się wyraźnie na trzy grupy. Do pierwszej należą ci, którzy nie są w stanie w ogóle wyuczyć się pewnych pojęć. Do drugiej zaś ci, którzy wpraw­ dzie są w stanie poprawnie używać reprezentacji pojęciowych, ale nie potrafią ich zdefiniować. Znają więc procedurę identyfikacyjną obiektów jako należą­ cych do kategorii, nie znając jednak istoty pojęcia. Do trzeciej grupy zaliczył Lewicki tych, którzy są w stanie zarówno poprawnie używać reprezentacji pojęciowych, jak i zdefiniować samo pojęcie za pomocą cech istotnych (znają procedurę identyfikacyjną oraz istotę pojęcia). Niestety, nawet wśród badanych studentów matematyki i medycyny odsetek członków tej ostatniej grupy był zadziwiająco niski (20%). Natomiast ze względu na sposób nabywania reprezentacji pojęciowych ludzie dzielą się, według Lewickiego, na cztery grupy. Pierwsza - grupa „kon­ sekwentnych” - testuje w sposób nieprzerwany hipotezy dotyczące pojedyn­ czych właściwości nabywanych pojęć. Druga grupa - „półkonsekwentnych” charakteryzuje się częstymi zmianami w zakresie testowanych hipotez jeszcze przed otrzymaniem informacji zwrotnych od eksperymentatora, a więc przed momentem, w którym hipoteza może zostać sfalsyfikowana. Trzecia grupa to osoby reagujące chaotycznie i przypadkowo. Najciekawszą strategią posługują się członkowie ostatniej grupy - sprawdzają oni hipotezy w sposób odwrócony, zaliczając egzemplarze pojęcia do niereprezentantów i odwrotnie. Właśnie istnienie tej ostatniej grupy osób pozwala wierzyć, iż nabywanie pojęć jest procesem znacznie bardziej złożonym niż warunkowanie poprzez generalizację 3.2. Struktura i funkcjonowanie reprezentacji pojęciowych 107 i różnicowanie (Maruszewski, 1983). Mimo że testowanie hipotez wydaje się najbardziej efektywną metodą nabywania pojęć w paradygmacie recepcji, to jednak strategię tę preferuje zaledwie jedna trzecia badanych - 38% uczestników eksperymentów Lewickiego (1968) i Sęk (1970). Klasyczne teorie reprezentacji pojęciowych były i są często poddawane krytyce. Szerokie omówienie argumentów krytycznych znaleźć można w wielu polskich pracach (zob. Chlewiński, 1999; Maruszewski, 2001; Trzebiński, 1986). W tym miejscu zostaną syntetycznie i skrótowo zaprezentowane ważniej­ sze zarzuty wobec tego podejścia. Stwierdza się, że zasadniczo tylko w naukach ścisłych możliwe jest posłu­ giwanie się pojęciami w rozumieniu klasycznym. Być może więc teorie klasycz­ ne stosują się wyłącznie do pojęć matrycowych. Twierdzenie o powszechności obowiązywania modelu klasycznego w odniesieniu do wszystkich rodzajów pojęć, w szczególności pojęć naturalnych, może być zatem nieuzasadnione (Trzebiński, 1986). Krytyce poddaje się także istnienie pojęć dysjunktywnych, posiadających w swej definicji wykluczające się właściwości. Jest ono nieuzasadnione w obliczu klasycznej definicji reprezentacji pojęciowej, gdyż w przypadku tych właśnie pojęć nie da się podać zbioru cech istotnych, czyli takich, które są reprezen­ towane przez wszystkich przedstawicieli definiowanej kategorii nadrzędnej. Część desygnatów pojęcia dysjunktywnego posiada bowiem zupełnie inne cechy „istotne” niż pozostały zbiór egzemplarzy tego pojęcia (Chlewiński, 1999). W modelach klasycznych przyjmuje się też założenie, że cechy istotne pojęcia są równoważne. Conrad (1972) wykazała jednak, że niektóre z istotnych właściwości reprezentacji pojęciowych są przez badanych wymieniane przy okazji definiowania pojęć częściej niż inne cechy; są one także przez nich oce­ niane jako zdecydowanie ważniejsze dla struktury pojęcia. Szybkość weryfikacji zdania zawierającego daną cechę istotną - „pies szczeka” - zależy od tego, na ile cecha ta - „szczekanie” - jest uważana przez badanych za ważną w definiowaniu danego pojęcia - „psa”. Inne założenie modelu klasycznego głosi, że wszystkie reprezentacje pojęciowe definiowane za pomocą zestawu cech istotnych są równie ważne i w równym stopniu dostosowane do opisu obiektów świata rzeczywistego. Tymczasem, jak wskazują Murphy i Medin (1985), pojęcia różnią się swoją relatywną wagą - raczej trudno założyć, że pojęcie definiowane przez dwie cechy: posiadanie więcej niż jednej nogi i ciężaru w zakresie od 11 do 240 kg (przykład zaczerpnięty; tamże) wnosi cokolwiek sensownego do procesu redukowania różnorodności między obiektami. Próby ścisłej definicji niektórych pojęć naturalnych są zupełnie nieprecy­ zyjne i powodują kłopoty z zaliczaniem desygnatów do kategorii nadrzędnych. McCloskey i Glucksberg (1978) wykazali, że dla połowy uczestników ich eksperymentu telewizor posiadał cechy umożliwiające zaliczanie go do kate­ gorii... mebli. Gdyby definicja pojęcia „mebel” zawierała zbiór cech istotnych, a kategoryzacja polegała na wykryciu tych cech w kategoryzowanym obiekcie, wówczas badani nie powinni mieć żadnych problemów z odpowiednim przy­ porządkowaniem desygnatów. W procesie kategoryzowania zmieniają się również treści pojęć. W kon­ sekwencji zmieniają się także zestawy cech istotnych, definiujących to samo 108 Rozdział 3. Pojęcia i schematy pojęcie. Tym właśnie, co odróżnia człowieka od zwierząt, jest elastyczność procesu kategoryzacji (Lenneberg, 1967). W rozwoju dziecka nabywanie pojęć odbywa się w procesie akomodacji, czyli dostosowania starych struktur poję­ ciowych do nowych danych (Piaget, 1971). Możliwość redefiniowania repre­ zentacji pojęciowych na skutek nowych doświadczeń jest tym, czego również zdają się nie uwzględniać koncepcje klasyczne. W wyniku przeglądu argumentów formułowanych przez zwolenników i przeciwników koncepcji klasycznych należy przyjąć, że koncepcje te definiują strukturę reprezentacji pojęciowej w formie listy cech definicyjnych, a więc w formie właściwości przysługujących w równym stopniu wszystkim desygnatom pojęcia. Proces kategoryzacji ma polegać na porównaniu zestawów cech posiadanych przez zaliczany egzemplarz i cech definicyjnych, charakterystycz­ nych dla kategorii nadrzędnej. Natomiast nabywanie pojęć dokonuje się dzięki operacjom abstrahowania: pozytywnego (odnajdywanie cech istotnych) i negatywnego (pomijanie cech nieistotnych). Proces ten jest najbardziej efektywny, gdy polega na testowaniu hipotez o istotności abstrahowanej cechy dla definicji pojęcia. Jednak nie zawsze w procesie nabywania pojęć dochodzi do testowania hipotez - ograniczenia w wykorzystaniu najbardziej skutecznej strategii są związane zarówno z różnicami indywidualnymi (nie wszyscy potrafią), jak i z rodzajem sytuacji bodźcowej (nie wszystkie kategorie się nadają). Ze względu na precyzyjne definicje struktury i funkcjonowania reprezentacji pojęciowych jedynymi pojęciami, do których z pewnością mogą odnosić się koncepcje klasyczne, wydają się pojęcia sztuczne (matrycowe). 3 .2.2. Teorie probabilistyczne Istnienie nadrzędnych kategorii pojęciowych, w przypadku których ludzie mają problemy z zaliczaniem do nich mniej typowych reprezentantów (McCloskey, Glucksberg, 1978), sugeruje, że poszczególne desygnaty można zaliczyć do da­ nego pojęcia tylko z pewnym stopniem prawdopodobieństwa. Nawet potoczne obserwacje pozwalają na stwierdzenie, iż zaliczenie wróbla do kategorii „ptaki” jest znacznie bardziej prawdopodobne niż zaliczenie do tej kategorii kury. Jest tak dlatego, że pewnych pojęć, a w szczególności pojęć naturalnych, nie można sprowadzić do zbioru cech istotnych (Trzebiński, 1986). Zgodnie z koncepcjami probabilistycznymi (probablistic view), reprezenta­ cja pojęciowa jest sumarycznym opisem wszystkich cech egzemplarzy będących desygnatami danego pojęcia. Cechy te różnią się w zakresie powszechności występowania wśród desygnatów kategorii, co oznacza, że każdy egzemplarz kategorii posiada te właściwości z pewnym tylko prawdopodobieństwem. Ptaki są opisywane raczej jako obiekty latające, gdyż większość ptaków lata, a nieloty - np. kiwi - należą do rzadkości. Oznacza to, że umiejętność latania jest dla ptaków cechą bardzo typową, o wysokim prawdopodobieństwie występowania. Ptaki są z kolei rzadko opisywane jako udomowione, gdyż stosunkowo niewiele gatunków ptaków udało się oswoić. Oznacza to, że bycie udomowionym jest u ptaków cechą o bardzo małym prawdopodobieństwie ujawniania się. Definicja kategorii nadrzędnej „ptak” zawiera cechy będące wypadkowymi cech poszczególnych jej desygnatów. Wróbel jest więc „bardziej” 3.2. Struktura i funkcjonowanie reprezentacji pojęciowych 109 ptakiem niż kiwi lub kura, gdyż lata i nie jest udomowiony (jest bliżej średniej właściwości dla ptaków, przynajmniej jeśli chodzi o latanie i warunki życia). Ze względu na uznawanie cech jako właściwości możliwych, ale niekoniecznych, pojęcia definiowane w ten sposób nazwano probabilistycznymi (probabilistic concepts). Smith, Shoben i Rips (1973, 1974) przeprowadzili badania w paradygmacie podejmowania decyzji semantycznych (paradygmat 3.2). Polecili oni uczestni­ kom eksperymentu weryfikację prawdziwości prostych zdań, dotyczących tego, czy dany desygnat jest egzemplarzem nadrzędnej kategorii pojęciowej (np. „Czy kanarek to ptak?”). Wykazano, że czas podejmowania decyzji, czy dany de­ sygnat jest przedstawicielem kategorii, zależy od jego typowości - im bardziej typowy egzemplarz kategorii, tym krótszy czas podejmowania decyzji. Różnice w średnich czasach reakcji były niewielkie w przypadku egzemplarzy typowych i średnio typowych (zaledwie 19 ms; w przypadku kategorii „owady” stwierdzono nawet zależność przeciwną: -35 ms), ulegając zdecydowanemu Paradygmat 3.2 Podejmowanie decyzji semantycznych W badaniach nad podejmowaniem decyzji semantycznych respondenci proszeni są o jak najszybsze rozstrzygnięcie kwestii przynależności kategorialnej danego obiektu. Z reguły badania te prowadzi się w formule „od reprezentacji pojęciowej do egzemplarzy” (Trzebiński, 1986). Najpierw uczestnikowi eksperymentu na ekranie monitora prezentuje się etykietę werbalną, będącą nazwą reprezentacji pojęciowej (no. „ptaki”), a następnie wyświetla się etykiety odpowiadające różnym obiektom: ptakom („kanarek” , „wróbel” itd.) i nie-ptakom („pszczoła” , „wieloryb” itd.). Za­ daniem osoby badanej jest jak najszybciej nacisnąć przycisk korespondujący z wybraną przez niego odpowiedzią: pozytywną, gdy egzemplarz jest przedstawi­ cielem pojęcia, lub negatywną, gdy nim nie jest. Początkowo paradygmat podejmowania decyzji semantycznych służył do falsyfikowania hipotez w ramach koncepcji struktury i funkcjonowania reprezentacji pojęciowych (wszystkie teorie z wyjątkiem koncepcji klasycznych). Później wy­ korzystywano go do sprawdzania wzajemnych relacji pomiędzy pojęciami w ramach struktury sieci semantycznej. Pytano więc o cechy poszczególnych pojęć (np. „Czy kanarek lata?”), próbując ustalić, na jakim poziomie ogólności są przechowywane informacje o poszczególnych właściwościach. Sprawdzano także rodzaj relacji (pozytywne/negatywne) łączących poszczególne reprezentacje, zestawiając w zdaniu do weryfikowania obiekty ze sobą niepowiązane (np. „Czy budynek to koń?”). Badaczy interesował zarówno czas podejmowania decyzji, jak i poprawność klasyfikowania. Okazało się, że w przypadku nietypowych przedstawicieli danej kategorii czas podjęcia decyzji rośnie o ok. 60 ms, a liczba błędów zwiększa się przeciętnie dwukrotnie (Trzebiński, 1986). Wyniki badań w paradygmacie decyzji semantycznych świadczą na niekorzyść koncepcji klasycznych, ale nie są rozstrzygające w odniesieniu do pozostałych teorii reprezentacji pojęciowych. Tymczasem ich zwolennicy wyraźnie interpretują te dane jako potwierdzenie swoich poglądów. 110 Rozdział 3. Pojęcia i schematy wydłużeniu w przypadku desygnatów średnio typowych i nietypowych (aż do 43 ms). Co ciekawe, czasy weryfikacji zdań, w których wymieniano bardzo nietypowych przedstawicieli danej kategorii, były zbliżone, niezależnie od tego, na czym owa nietypowość polegała. Natomiast w przypadku obiektów nienależących do danej kategorii czas podejmowania decyzji semantycznej był bardzo krótki. Według probabilistycznej koncepcji Smitha, Shobena i Ripsa (1973, 1974), reprezentacja pojęciowa jest definiowana przez dwa rodzaje cech. Najważniej­ sze pozostają nadal cechy definicyjne, w jednoznaczny sposób pozwalające określić, czy obiekt jest desygnatem pojęcia. Cechy definicyjne konstytuują rdzeń pojęcia (Trzebiński, 1986) - charakteryzują się nimi wszystkie bez wyjątku jego egzemplarze. Reprezentacja pojęciowa jako zbiór cech składa się jednak także i z cech charakterystycznych, wskazujących na typowość danego obiektu względem nadrzędnego mu pojęcia. Są to reprezentatywne cechy egzemplarzy pojęcia, a nie samego pojęcia. Im więcej cech charakterystycznych posiada dany egzemplarz, tym bardziej jest on typowy (Maruszewski, 1983). Według Smitha i jego współpracowników, decyzja semantyczna dotycząca przypisywania obiektu do kategorii, tj. proces kategoryzacji, przebiega w dwóch etapach. W pierwszym etapie następuje porównanie całościowe, obejmujące wszystkie cechy kategoryzowanego obiektu i cechy pojęcia, do którego obiekt ten jest zaliczany. Jeżeli egzemplarz jest typowy, a więc posiada większość cech definicyjnych nadrzędnego pojęcia i dużą liczbę możliwych cech charakterys­ tycznych tego pojęcia, to decyzja pozytywna - zaliczenie do kategorii - jest podejmowana natychmiast. Typowe desygnaty spełniają bowiem wszystkie albo większość cech definicyjnych kategorii nadrzędnej, posiadając również większość cech charakterystycznych, podzielanych z wieloma innymi egzem­ plarzami. Jeżeli obiekt jest nietypowy i nie spełnia większości cech definicyjnych pojęcia, wtedy decyzja negatywna (niezaliczenie do kategorii) jest równie szybka, jak decyzja pozytywna w przypadku obiektów typowych. W drugim etapie procesu kategoryzacji zachodzi porównanie szczegółowe, dotyczące tylko cech definicyjnych nadrzędnej kategorii pojęciowej. Chodzi tu 0 ustalenie proporcji cech definicyjnych, posiadanych przez klasyfikowany egzemplarz w stosunku do cach istotnych, których egzemplarzowi brakuje. Porównanie to prowadzi do szczegółowej analizy cech kategoryzowanego desygnatu. Tego typu analiza wymaga jednak czasu - czasochłonne jest zarówno abstrahowanie pojedynczych cech klasyfikowanego egzemplarza, jak i odrębne porównanie kategoryzowanego obiektu oraz nadrzędnej kategorii ze względu na poszczególne, wyabstrahowane cechy. Efektem tak drobiazgowej analizy jest jednak możliwość zaliczenia mniej typowych desygnatów do kategorii nad­ rzędnej. Na przykład w przypadku obiektu „kiwi” przestaje być wtedy istotne to, że nie lata; nadal spełnia bowiem wiele innych cech definicyjnych ptaków, takich jak np. znoszenie jaj. Porównanie egzemplarzy tej samej kategorii naturalnej dotyczy w tym ujęciu tylko pewnych wyróżnionych właściwości desygnatów, kluczowych dla zdefiniowania struktury danego pojęcia naturalnego. Strukturę tę Rips, Shoben 1 Smith (1973) nazwali przestrzenią semantyczną reprezentacji pojęciowej. Wykazali oni, że wszystkie desygnaty kategorii „ssak” można wpisać w orto­ gonalny układ dwóch podstawowych wymiarów: wielkości oraz stopnia 3.2. Struktura i funkcjonowanie reprezentacji pojęciowych 111 udomowienia (ryc. 3.2). Stwierdzili również, że reprezentacja nadrzędnej kategorii „ssak” charakteryzuje się średnimi właściwościami w zakresie wymiarów definiujących strukturę pojęcia i lokuje się w środku układu. Co więcej, określenie właściwości egzemplarzy ssaków na wymiarach wielkości oraz stopnia udomowienia pozwala na przewidywanie zarówno prostych decyzji osób badanych odnośnie do określenia stopnia podobieństwa porównywanych przedstawicieli, jak i złożonych wyborów egzemplarzy analogicznych, dopełnia­ jących skomplikowany układ zależności (np. „koń” do „pies” ma się jak „jeleń” do „królik”; zob. ryc. 3.2). swima koza owca • krowa • koń pies • X • jeleń SSAK • • królik mysz • niedźwiedź • • kot lew Ryc. 3.2. Pizestrzeń semantyczna pojęcia „ssak” określona w badaniach Ripsa, Shobena i Smitha (1973). Koncepcje probabilistyczne również poddano surowej krytyce. Ze względu na to, że szerokie omówienie argumentów krytycznych znaleźć można w wielu polskich pracach (zob. Chlewiński, 1999; Maruszewski, 2001; Trzebiński, 1986), w tym miejscu omówimy tylko ważniejsze zarzuty wobec tych koncepcji. Przede wszystkim zakłada się, że każde pojęcie ma ściśle określony rdzeń pojęciowy zawierający cechy definicyjne. Twierdzenie to tak samo łatwo odrzucić jak tezę, że pojęcie składa się tylko z cech definicyjnych (zob. rozdz. 3.2.1 - krytyka teorii klasycznych). Większość argumentów krytycznych wobec teorii klasycznych znajduje więc zastosowanie również wobec teorii probabilis­ tycznych (Murphy, Medin, 1985), a to z powodu wyznawanego przez twórców tych koncepcji poglądu, że mogą istnieć cechy przysługujące wszystkim desygnatom. Ponadto zestaw najbardziej prawdopodobnych cech niekoniecznie tworzy spójną pod względem zawieranych desygnatów nadrzędną kategorię pojęciową (Murphy, Wiśniewski, 1985). Zróżnicowanie pomiędzy dwiema kategoriami może bowiem dotyczyć nie tyle cech definicyjnych, ile właśnie cech charakterys­ tycznych, przejawianych przez poszczególne desygnaty. Inaczej mówiąc, dwie bliskie kategorie pojęciowe mogą mieć identyczny zestaw cech istotnych, a mimo 112 Rozdział 3. Pojęcia i schematy to są różnymi kategoriami ze względu na różnice w zakresie zbioru cech charakterystycznych. Tego jednak ani opis struktury reprezentacji pojęciowej, ani dwuetapowy model kategoryzacji, proponowane przez zwolenników koncepcji probabilistycznych, nie uwzględniają. O tym, że kategorii pojęciowych nie da się zdefiniować poprzez zestaw cech o dużym stopniu typowości, świadczy też brak symetrii w zakresie cech kategorii i cech egzemplarzy. Jeśli w badaniach prowadzonych w paradygmacie podejmowania decyzji semantycz­ nych zostanie zamieniona kolejność podawania informacji z „pojęcie - egzem­ plarz” (np. „Czy ptakiem jest kanarek?”) na „egzemplarz - pojęcie” (np. „Czy kanarek to ptak?”), ma to wpływ na czas wykonania zadania. Wynika to z braku symetryczności w zakresie relacji pomiędzy kategoryzowanym obiektem a nadrzędną wobec niego reprezentacją pojęciową (Loftus, 1973; Loftus, Loftus, 1975). Jak można zauważyć, koncepcje probabilistyczne próbowały zaadaptować teorię reprezentacji jako zbioru cech do analizy pojęć naturalnych, w przypadku których desygnaty posiadają właściwości kategorii nadrzędnej jedynie z pewnym prawdopodobieństwem (mogą posiadać, ale nie muszą). Próba ta doprowadziła do niezbyt klarownych rozróżnień zarówno w zakresie struktury reprezentacji (cechy definicyjne i charakterystyczne), jak i w odniesieniu do sposobu ka­ tegoryzacji (model dwuetapowy zamiast prostego porównywania listy cech). Wprawdzie tezy teorii probabilistycznych znalazły swoje częściowe potwier­ dzenie w wynikach badań w paradygmacie podejmowania decyzji semantycz­ nych, jednakże wielu badaczy (zob. Maruszewski, 1983; Trzebiński, 1986 szersze omówienie) zwróciło uwagę na inne możliwe wyjaśnienia uzyskiwanych efektów, nie odwołujące się do proponowanej przez koncepcje probabilistyczne skomplikowanej struktury reprezentacji pojęciowych i ich funkcjonowania. W odniesieniu do problemu nabywania pojęć oba stanowiska: klasyczne i probabilistyczne, nie różniły się istotnie podkreślając kluczową rolę procesu abstrahowania cech. 3.2.3. Teorie prototypów Eleonora Rosch (1978) wyodrębniła dwa wymiary reprezentacji pojęciowych: poziomy i pionowy. Wymiar pionowy (vertical dimension of categories) dotyczy stopnia ogólności pojęcia. Według Rosch istnieją trzy jego poziomy. Poziom nadrzędny (superordinate level) charakteryzuje się tym, że pojęcia są na nim odzwierciedlane przez niewielką liczbę cech. Z tego też powodu kategorie ogólne charakteryzują się szeroką inkluzywnością - w takiej kategorii mieści się wiele różnych egzemplarzy. Poziom podstawowy (basic level) różni się od nadrzędnego liczbą cech (na tym poziomie większą), charakteryzujących reprezentacje pojęciowe. Pojęcia poziomu podstawowego są wymieniane spontanicznie, gdy ludzie dorośli nazywają obiekty (Rosch, 1978). W konsek­ wencji jest to najczęściej używany poziom ogólności reprezentacji pojęciowych (Mervis, 1983; Johnson, Mervis, 1997). Jego występowanie i powszechność posługiwania się nim stwierdzono również poza kulturą zachodnią (Berlin, 1978), a także w języku migowym (Newport, Bellugi, 1978). Na poziomie podstawowym małe dzieci uczą się w pierwszej kolejności nazw wielu przed­ 3.2. Struktura i funkcjonowanie reprezentacji pojęciowych 113 miotów (Rosch, 1978), choć zwolennicy koncepcji prototypów przyznają, że proces nabywania reprezentacji pojęciowych u dzieci rozpoczyna się raczej od poziomu podrzędnego, a ściślej od wielu pojęć jednostkowych (indywidualnych) o klarownych funkcjach (np. mama, lala; Anglin, 1977). Egzemplarze poziomu podstawowego są szybciej identyfikowane niż egzemplarze poziomu nadrzęd­ nego i podrzędnego. Ich stosowanie pozwala uniknąć wielu błędów rozumowa­ nia, charakterystycznych dla poziomów wyższego (zbytnia ogólność) i niższego (zbytnia szczegółowość; Tversky, 1977). Jednak nie zawsze pojęcia z poziomu podstawowego są najlepiej zapamiętywane. Dotyczy to szczególnie rozpozna­ wania - często efektywniej rozpoznawane są pojęcia specyficzne i będące rzadko w użyciu, a więc pojęcia poziomu podrzędnego (Kintsch, 1970). Poziom podrzędny (subordinate level) uwzględnia bowiem pojęcia bardzo szczegółowe 0 dużej liczbie charakteryzujących je cech. W konsekwencji w porównaniu z poziomem podstawowym zmniejsza się tu łatwość identyfikowania desygnatów pojęć, gdyż wiele różnych egzemplarzy charakteryzuje się bardzo podobnym zestawem cech. Desygnat zidentyfikowany wyróżnia się jednak specyficznością 1 rzadkością występowania, co wiąże się z jego lepszym późniejszym rozpoz­ naniem. Wraz z przechodzeniem z poziomu niższego na wyższy w hierarchii ogól­ ności zmniejsza się liczba cech charakteryzujących reprezentacje pojęciowe, a wzrasta łatwość w rozróżnianiu między sobą desygnatów tych pojęć. Zmniej­ sza się bowiem liczba cech charakterystycznych, które pojęcia te podzielają. Jednocześnie jednak wzrasta ogólność tak dokonywanej kategoryzacji, która sprawia, że bardzo różne desygnaty mogą zostać zaliczone do tej samej kategorii. Rosch wykazała różnice w zakresie reprezentowania pojęć na różnych poziomach wymiaru pionowego w kilku badaniach (Rosch i in., 1976; Rosch, Simpson, Miller, 1976; Rosch, 1978). W eksperymencie pierwszym (Rosch i in., 1976a) polecono osobom badanym wypisanie cech trzech pojęć: „meble” (po­ ziom nadrzędny; furniture), „siedziska” (poziom podstawowy; inaczej: krzesła i fotele; chair) oraz „wygodne fotele” (poziom podrzędny; easy chair). Na po­ ziomie podstawowym równowaga pomiędzy specyficznością (łatwość rozró­ żnienia desygnatów kategorii) a ekonomią (liczba cech definiujących kategorię pojęciową) okazała się najlepsza. Ekonomia reprezentowania w umyśle była bezpowrotnie tracona na poziomie podrzędnym, gdzie liczba cech charakterys­ tycznych dla kategorii była bardzo duża. Specyficzność zaś zanikała na poziomie nadrzędnym z powodu dużej ogólności kategorii pojęciowych. W innym ekspe­ rymencie (Rosch i in., 1976b) badani wypisywali nazwy pojęć z poszczególnych poziomów. Okazało się, że byli oni w stanie wskazać istotnie mniej reprezentacji pojęciowych z poziomu nadrzędnego (najogólniejszego) niż z pozostałych poziomów. Znacznie mniejsze różnice w zakresie liczby wypisywanych pojęć stwierdzono pomiędzy poziomami podstawowym i podrzędnym (tab. 3.1). Wymiar poziomy reprezentacji pojęciowych (horizontal dimension of categories) dotyczy desygnatów pojęcia znajdującego się na poziomie wyższym. Nie wszystkie egzemplarze są „dobrymi” desygnatami pojęcia z poziomu wyższego. Desygnaty różnią się bowiem typowością. Najbardziej typowy, czy też najbardziej reprezentatywny, egzemplarz Rosch (1973) nazwała prototypem. Prototyp zajmuje w klasyfikacji desygnatów danej kategorii, prowadzonej ze względu na cechę typowości, zdecydowanie pierwsze miejsce. W badaniach 114 Rozdział 3. Pojęcia i schematy Tab. 3.1. Przykłady egzemplarzy pojęć na różnych poziomach ogólności (za: Rosch, 1999). Poziom nadrzędny Poziom podstawowy Poziom podrzędny mebel siedziska taboret kuchenny fotel stół stół kuchenny stół salonowy lampa lampa stojąca lampka biurkowa dąb dąb czerwony dąb biały klon klon srebrzysty klon cukrowy brzoza brzoza nadrzeczna brzoza żółta drzewo Rosch 113 osób (wszyscy uczestnicy eksperymentu!) wykazało się jednomyśl­ nością w zakresie rangowania typowości desygnatów w kategoriach: nauka, przestępstwo i pojazd. Za prototypowe uznali oni odpowiednio: chemię, mor­ derstwo i samochód. Warte podkreślenia jest także to, że klasyfikowanie 48 desygnatów w ramach 6 kategorii zajmowało badanym z reguły nie więcej niż 5 min - wynik ten świadczy o naturalnej łatwości posługiwania się typowością obiektów w procesie ich klasyfikacji. W późniejszych pracach Rosch (1978) określała prototyp jako „najczystszy” desygnat danej kategorii pojęciowej. Prototyp reprezentuje w umyśle kategorię nadrzędną - inne egzemplarze tej samej kategorii nie są już tak dobrymi jej odzwierciedleniami. Wykazała to również Loftus (1973). Poleciła ona uczestnikom eksperymentu, aby nadawali prezentowanym desygnatom kategorie nadrzędne. Właściwe reprezentacje pojęciowe (w sensie oczekiwane przez prowadzącą eksperyment) pojawiały się u osób badanych tym szybciej, im bardziej typowe egzemplarze oczekiwanej kategorii nadrzędnej zostały przez nią przedstawione. Uczestnicy eksperymentu wskazywali więc reprezentację pojęcia „ptak” szybciej, gdy zapoznawali się z takimi egzemplarzami tej kategorii, jak wróbel czy drozd, a czynili to znacznie wolniej, gdy prezentowano im rzadkie desygnaty tej kategorii, jak pingwin czy struś. Biorąc pod uwagę wymiar poziomy reprezentacji pojęciowych, Mervis i Pani (1980) wykazali również, że nowe pojęcia są przyswajane znacznie szybciej i bardziej adekwatnie, gdy badanym pokazuje się jedynie typowych przedstawicieli nabywanej kategorii. Efekt ten ma zresztą głęboki sens dydaktyczny - nikt nie uczy dzieci tego, czym są ptaki, pokazując im takie desygnaty tej kategorii, jak pingwiny i kiwi. Z badań zwolenników koncepcji prototypów (prototype view), dotyczących uczenia się pojęć, wynika zatem, że reprezentacje pojęciowe są nabywane w procesie doświadczania egzemplarzy. Z punktu widzenia efektywności tego procesu najlepiej jest, gdy uczenie rozpoczyna się od prototypu (wymiar po­ ziomy) kategorii pojęciowej z poziomu podstawowego (wymiar pionowy). 3.2. Struktura i funkcjonowanie reprezentacji pojęciowych 115 W wypadku małych dzieci jako pierwsze przyswajane są jednak pojęcia z po­ ziomu podrzędnego o klarownej funkcjonalności. Mimo że oba zaproponowane tu sposoby rozumienia prototypu („czysty” lub „najlepszy” desygnat) nie są z pewnością precyzyjne, osoby badane nie mają większych wątpliwości co do ich znaczenia, na co wskazuje krótki czas wyróżniania prototypowych desygnatów pojęć naturalnych. Z reguły ludzie też nie różnią się niemal w ogóle w swoich klasyfikacjach. Armstrong, Gleitman i Gleitman (1983) porównali rangi egzemplarzy tych samych kategorii, których używała także Rosch (1973). Nie stwierdzono większych różnic w samym układzie klasyfikacji, choć w wypadku niektórych kategorii (np. „pojazdy”) różnice w rangach na dalszych pozycjach listy okazały się znaczne (tab. 3.2). Czasami pojawiają się jednak problemy z klasyfikacją na skali typowości. Dla Amerykanów niemal równie typowym ptakiem jak drozd okazał się w jed­ nym z eksperymentów orzeł (Rosch, 1973), a w innym - wróbel (Rosch, 1978; wróbel nie byl brany pod uwagę w badaniach wcześniejszych), zaś wśród przestępstw bardzo wiele wykroczeń okazało się w przybliżeniu podobnie Tab. 3.2. Porównanie rang egzemplarzy pojęć naturalnych w badaniach Rosch (1973) oraz Armstronga i współpracowników (1983). Im niższa wartość, tym większa typowość (prototyp =1). Pojęcie naturalne Rosch (1973) Armstrong i in. (1982) Różnica 1,3 truskawka 1,3 2,3 2,1 +0,2 śliwka 2,3 2,5 -0,2 brzoskwinia 2,3 2,7 -0,4 figa 4,7 5,2 -0,5 oliwka 6,2 6,4 -0,2 1,4 -0,2 gimnastyka 1,2 1,8 2,6 1,8 2,8 -0.2 wrestling 3,0 3,1 -0,1 łucznictwo 3,9 4,8 -0,9 podnoszenie ciężarów 4,7 5,1 -0,4 zdy samochód 1,0 1,0 łódka 2,7 3,3 -0,6 skuter 2,5 4,5 -2,0 rower trzykołowy 3,5 4,7 -1,2 koń 5,9 5,2 +0,7 narty 5,7 5,6 +0,1 owoce jabłko t football hokej - - 116 Rozdział 3. Pojęcia i schematy typowych i niemal tak samo typowych jak prototyp tej kategorii - morderstwo (Rosch, 1973; napad, kradzież, szantaż i malwersacja uzyskały rangi w prze­ dziale <1,3;1,8>, gdzie 1 oznacza prototyp). Jak się wydaje, prototypy są wspólne dla badanych pochodzących z tej samej populacji, mogą jednak różnić się kulturowo. Dla Amerykanów drozd może być tak samo typowym ptakiem, jak wróbel, podczas gdy dla Polaków już nie (Kurcz, 1997). Ci ostatni wyraźnie wskazują na wróbla jako ptaka bardziej typowego niż drozd. Prototypy mogą również różnić się ze względu na inną cechę, np. pleć; prototypem ubrania dla studentów są spodnie, podczas gdy dla studentek najbardziej typowym ubraniem okazuje się sukienka - o czym świadczą wyniki demonstracji efektu typowości z udziałem studentów I roku psychologii. Na kształtowanie się prototypu jako reprezentanta kategorii pojęciowej ma więc wpływ doświadczenie indywidualne i dziedzictwo kulturowe. Nabywanie i stosowanie danego pojęcia odbywa się zawsze w pewnym kontekście: sytuacji bodźcowej, dotychczasowej wiedzy uczącego się oraz kultury, której jest przedstawicielem. Murphy i Medin (1985) są zwolennikami takiego właśnie podejścia. Zrywają oni z poglądem o powszechności i niezmienności trwałych reprezentacji pojęciowych, głosząc tezę o kontekstualnej zależności pojęć. Wskazują na wyraźne różnice w nabywaniu, strukturze i funkcjonowaniu systemu pojęć u „naiwnego” obserwatora i eksperta w jakiejś dziedzinie. Argumentów empirycznych, potwierdzających kontekstowe teorie reprezentacji pojęciowych dostarczyli m.in. McCIoskey i Glucksberg (1978) oraz Roth i Shoben (1983). Wykazali oni, że uczestnicy eksperymentu są zdolni do zmiany w zakresie prototypów reprezentacji pojęciowych w zależności od zmiany warunków badania. Nawet jeśli sukienka jest rzeczywiście prototypo­ wym ubraniem, to przestaje nim być w sytuacji plażowania - w takim kontekście najbardziej typowym desygnatem rozważanej kategorii staje się kostium kąpielowy. Zmiana na szczycie klasyfikacji - na pozycji najbardziej typowego przedstawiciela - pociąga za sobą zmiany w hierarchii rang przyznawanych innym egzemplarzom tej samej kategorii. Jednakże Rosch i współpracownicy (Rosch, Mervis, 1975; Rosch i in., 1976b) wykazali, że w obrębie tej samej populacji określanie typowości jest niezależne od częstości doświadczeń zarówno z klasyfikowanymi obiektami, jak i z reprezentującymi te obiekty etykietami werbalnymi. Mimo sprzecznych doniesień trudno bronić tezy o bezwzględnej uniwersalności prototypów reprezentacji pojęciowych, chociaż z pewnością można stwierdzić, że członkowie tej samej populacji, charaktery­ zujący się wspólnymi doświadczeniami, mogą wykorzystywać identyczne prototypy w przypadku wielu naturalnych kategorii pojęciowych. Jednakże inne niż operacyjne definicje prototypu (pozycja w rankingu typowości) nadal budziły wątpliwości co do precyzji. Dlatego Posner i Keele (1968, 1970) podjęli próbę określenia tego konstruktu w postaci listy cech. Stwierdzili oni, że egzemplarz prototypowy charakteryzuje się właściwościami będącymi średnią arytmetyczną cech desygnatów napotkanych przez jednostkę w indywidualnym doświadczeniu. W swoim eksperymencie wykorzystali wzorcowe obrazy figur (m.in. figury geometryczne, takie jak trójkąt, kwadrat itd., oraz litery, takie jak M, F itd.), składające się wyłącznie z kropek (ryc. 3.3). Następnie dokonali transformacji tych wzorcowych obrazów, zmieniając lokalizację poszczególnych kropek w ramach matrycy. Utworzyli w ten sposób 3.2. Struktura i funkcjonowanie reprezentacji pojęciowych 117 wiele obrazów o różnym stopniu podobieństwa do układu wyjściowego. Wyróżniono siedem stopni na skali niepodobieństwa danego obrazu do układu wyjściowego. Niewielka zmiana położenia jednej z kropek powodowała, iż nowo utworzony obraz niewiele różnił się od wyjściowego. Znacząca zmia­ na lokalizacji jednocześnie wielu kropek powodowała, że podobieństwo obra­ zu wyjściowego do układu wygenerowanego było relatywnie duże. Dokonując transformacji na wyjściowych układach kropek, Posner i Keele zadbali o to, aby figura wzorcowa stanowiła średnią arytmetyczną z lokalizacji poszcze­ gólnych kropek we wszystkich obrazach utworzonych metodą transfor­ macji. Ryc. 3.3. Figury wzorcowe oraz ich przekształcenia użyte w badaniach Posnera i Keelego (1968,1970) nad definicją prototypu jako średniej z cech. Zadaniem osób badanych było najpierw przyswojenie sobie czterech pojęć sztucznych - każde z nich odnosiło się do jednego z czterech wyjściowych układów kropek. W tej fazie eksperymentu badanym nie pokazywano jednak w ogóle obrazów wzorcowych, a więc figur matrycowych sprzed transformacji. Sortowali oni otrzymane obrazki do czterech różnych kategorii (paradygmat selekcji; Bruner, Goodnow, Austin, 1957; zob. paradygmat 3.1). Kiedy już przyswoili sobie procedury identyfikacyjne i bezbłędnie rozróżniali desygnaty czterech sztucznych pojęć, otrzymywali kolejną porcję kart z zadaniem zaliczenia ich do jednej z czterech wcześniej wyuczonych kategorii. Były to inne egzemplarze właśnie przyswojonych pojęć niż znajdujące się w zestawie kart przeznaczonych do procesu uczenia. W nowej serii kart zaprezentowano także osobom badanym wyjściowe układy kropek, nie informując jednak o tym, iż są to wzorce sprzed transformacji. Posner i Keele wykazali, że chociaż uczestnicy eksperymentu nigdy nie doświadczyli wzorcowego układu kropek w fazie przyswajania pojęć, bardzo często uznawali wzorzec pokazywany im dopiero w końcowej fazie klasyfikacji za bodziec prezentowany już wcześniej, w fazie uczenia. Im bardziej klasyfikowany obraz nowej serii był podobny do matrycy wyjściowej, tym większe było prawdopodobieństwo jego poprawnego zaliczenia do odpowiadającej mu kate­ 118 Rozdział 3. Pojęcia i schematy gorii. Tym szybciej była również podejmowana decyzja o jego przynależności kategorialnej. Posner i Keele udowodnili w ten sposób, że - przynajmniej w przy­ padku pojęć sztucznych - kategoryzujący mogą w procesie przyporządkowywania desygnatów do kategorii nadrzędnych posługiwać się typowymi reprezentantami tych kategorii w formie średniej arytmetycznej właściwości egzemplarzy wcześniej sklasyfikowanych. Wykazali również, że percepcyjne doświadczenie prototypu nie jest koniecznym warunkiem formowania się tego typu reprezentacji umysłowej. Podobne wyniki uzyskali również Franks i Bransford (1971) oraz Reed (1974). W swoich badaniach Franks i Bransford pokazywali uczestnikom karty zawierające przedstawienia figur geometrycznych. Transformacji dokonywano poprzez zmianę lokalizacji figur geometrycznych przy zachowaniu ich liczby oraz rodzaju albo przez usuwanie lub też zamianę niektórych figur. Stopień podobieństwa obiektów transformowanych i oryginalnych był mierzony liczbą operacji przekształcających pierwotny obraz. Franks i Bransford potwierdzili wszystkie wyniki uzyskane przez Posnera i Keele. Dodatkowo wykazali, że subiektywna pewność wcześniejszego kontaktu z nowym obrazem zwiększa się wraz ze zmniejszaniem się stopnia niepodobieństwa pomiędzy tym obrazem a wzorcowym obrazem karty, będącym podstawą do transformacji. Z kolei w badaniach Reeda materiał eksperymentalny otrzymano poprzez dokonywanie transformacji na zdjęciach twarzy - zmianę odległości pomiędzy charakterys­ tycznymi elementami twarzy (usta, nos, brwi) lub wielkości tych elementów. Reed uzyskał wyniki analogiczne do wyżej omawianych. Bardziej szczegółową analizę wyników badań nad typowością, rozumianą jako średnia arytmetyczna właściwości desygnatów, przedstawia Trzebiński (1981, 1986). Próba zdefiniowania prototypu jako średniej arytmetycznej ma jednak pewne ograniczenia i wady. Nie wiadomo, po pierwsze, czy wyniki podobne do wyżej omawianych udałoby się uzyskać w przypadku pojęć naturalnych. Pod­ czas gdy stosunkowo łatwo jest wyobrazić sobie średnią arytmetyczną z możliwych lokalizacji punktów w układzie współrzędnych na płaszczyźnie, czy nawet średnią arytmetyczną z odległości pomiędzy poszczególnymi elementami twarzy, to jednak znacznie trudniej jest zrozumieć, czym mogłaby być np. średnia arytmetyczna cechy „lotność” w przypadku desygnatów kategorii „ptaki”. Przecież ptaki albo latają, z reguły znakomicie, albo nie latają niemal w ogóle, a średnia tej właściwości charakteryzowałaby prototyp na przeciętnym poziomie. Po drugie, prototyp, zwłaszcza kategorii naturalnej, wy­ daje się (naiwnie może) egzemplarzem rzeczywistego obiektu, z którym jed­ nostka już się spotkała, choćby w najodleglejszej przeszłości. Tymczasem, gdyby zasadę tworzenia prototypów przez uśrednianie właściwości desygnatów przenieść z kategorii sztucznych na naturalne, to prototyp byłby raczej nie­ istniejącym obiektem, hybrydą złożoną z cech istniejących w rzeczywistości, ale nigdy nie występujących razem. Prototyp taki nie miałby w ogóle szansy pojawić się w indywidualnym doświadczeniu. Takie wyobrażenie prototypu jest intuicyjnie sprzeczne z zasadą typowości. Dlatego też Neumann (1974) zaproponował, aby za prototypowego repre­ zentanta danej kategorii pojęciowej uznać najczęściej napotykany egzemplarz tej kategorii. Zamiast średniej byłaby to swoista wartość „modalna” desygnatów spotykanych przez jednostkę w indywidualnym doświadczeniu. Niestety, 3.2. Struktura i funkcjonowanie reprezentacji pojęciowych 119 również i ta definicja prototypu nie jest pozbawiona wad. Czasami bowiem doświadczenie dotyczy takiej samej lub podobnej liczby różnych egzemplarzy danej kategorii. W takim wypadku bardzo trudno jest wyznaczyć modalną; w pewnych warunkach może to nawet być matematycznie niemożliwe, zwłasz­ cza w sytuacji równoliczności desygnatów. Oznacza to, że w odniesieniu do kategorii zawierających desygnaty o podobnej częstości występowania prototyp może nie istnieć w ogóle. Tymczasem wyniki badań Rosch i jej współpracowni­ ków przekonują o powszechności zjawiska prototypowości, i to zarówno w przy­ padku pojęć sztucznych, jak i naturalnych. W bardziej umiarkowanej wersji swojej koncepcji Neumann (1974; Bower, Neumann, 1973) twierdzi, że proto­ typem mógłby być egzemplarz posiadający najczęstsze cechy desygnatów reprezentowanych w ramach wspólnej kategorii pojęciowej. Prototyp byłby więc nie tyle modalną desygnatów, ile modalną z ich właściwości. Próbując rozstrzygnąć, czy bliższa prawdzie jest koncepcja prototypu jako średniej arytmetycznej czy modalnej, Francuz (1991) ustalił, że podobieństwo klasyfikowanego egzemplarza do prototypu modalnego w znacznie większym stopniu skraca czas jego klasyfikacji jako desygnatu kategorii niż jego podobieństwo do prototypu średniego. Wynik ten świadczy na korzyść koncepcji Neumanna, a przeciwko teorii Posnera i Keele, choć nie wyklucza reprezento­ wania w umyśle zbioru desygnatów w postaci obu rodzajów prototypów (modalna, średnia) i korzystania z nich w zależności od wymagań sytuacji. Kon­ cepcja Neumanna pozostaje też nadal w sprzeczności z wynikami badań Rosch i współpracowników, dotyczącymi niezależności procesu klasyfikowania desygnatów na skali typowości od częstości ich występowania w indywidualnym doświadczeniu - na pojęciu częstości występowania opiera się przecież matematyczne wyznaczanie modalnej. Poglądy Neumanna oraz Posnera i Keele trudno pogodzić z przekonaniem, iż prototyp jest względnie trwałą reprezentacją umysłową. Tymczasem zarówno prototyp średni, jak i prototyp modalny mogą podlegać znacznym wahaniom ze względu na właściwości kolejnych przyswajanych desygnatów kategorii pojęciowej, której byłyby reprezentantem. Definicje prototypu w kategoriach średniej lub modalnej cech oraz mo­ dalnej desygnatów nie spełniły więc oczekiwań. Dlatego Rosch (1975) spró­ bowała jeszcze raz doprecyzować konstrukt prototypu. Stwierdziła, że typowy egzemplarz zawsze służy za punkt odniesienia dla mniej typowego. Raczej skłonni jesteśmy mówić, że „elipsa jest prawie kołem”, niż stwierdzać, że „koło jest prawie elipsą”. Świadczy to na korzyść koncepcji prototypu jako punktu odniesienia dla mniej typowych desygnatów, a przeciwko teoriom cech, zgodnie z którymi porównanie obiektów ze względu na ich właściwości powinno być symetryczne. Do kolejnych badań (Rosch i Mervis 1975; Rosch i in., 1976b) wybrano więc po 20 desygnatów z sześciu różnych kategorii naturalnych (pojazdy, broń, ubrania, warzywa, owoce, meble). Osoby badane w pierwszej kolejności wypisywały cechy wszystkich wybranych desygnatów niezależnie od ich przy­ należności kategorialnej. Następnie ich zadaniem było uszeregowanie każdego desygnatu w obrębie każdej kategorii na skali typowości. Co najwyżej jedna cecha została wymieniona jako właściwość wspólna wszystkim 20 desygnatom należącym do danej kategorii. Mimo tak dużej rozbieżności, sugerującej 120 Rozdział 3. Pojęcia i schematy nieistnienie twardych rdzeni pojęciowych, oceny typowości dokonywane przez badanych pokrywały się, wskazując wyraźnie na istnienie prototypowych egzemplarzy poszczególnych kategorii. Uczestnicy eksperymentu za najbardziej typowych uznawali tych przedstawicieli kategorii, którzy podzielali jak najwięcej cech wspólnych z pozostałymi egzemplarzami tej samej kategorii. Za najbardziej typowych uznawano również tych przedstawicieli kategorii, którzy podzielali najmniej cech wspólnych z egzemplarzami innych kategorii. Powyższe prawidłowości posłużyły Rosch do zdefiniowania wskaźnika podo­ bieństwa rodzinnego (family resemblance)1. Według Rosch prototyp to ten spośród egzemplarzy, który jest najbardziej podobny do wszystkich innych desygnatów danej kategorii i najmniej podobny do desygnatów innych kategorii. Prowadząc badania w paradygmacie zaproponowanym przez Rosch i współpracowników, Hampton (1979) polecił dodatkowo swoim respondentom wypisać cechy definicyjne, ich zdaniem decydujące o zaliczeniu jakiegoś desyg­ natu do konkretnej kategorii pojęciowej. Także i w jego eksperymencie okazało się, że co najwyżej jedna cecha definiuje rdzeń pojęciowy - badani byli zgodni zarówno co do uznania tej właściwości za cechę definicyjną, decydującą o zaliczeniu desygnatu do kategorii, jak i co do uznania jej za ważną dla opisu samego desygnatu. Posiadanie przez egzemplarz jak największej liczby cech, w odniesieniu do których większość badanych jest zgodna w ocenie ich wagi dla definicji kategorii nadrzędnej, okazało się najlepszym predyktorem typowości. Im więcej cech ocenianych przez większość badanych jako typowe dla danej kategorii, tym bardziej prawdopodobne było to, że desygnat otrzyma wysokie oceny na skali typowości. Na podstawie uzyskanych wyników Hampton zaproponował koncepcję pojęcia polimorficznego (polymorphous concept). Według niego, pojęcia definiowane są przez pewną liczbę cech charakterystycz­ nych. Właściwością tych cech jest to, że nie przysługują one żadnemu z desygnatów definiowanego pojęcia w stopniu koniecznym i wystarczającym. Prototypem pojęcia polimorficznego jest natomiast ten desygnat, który posiada największą liczbę cech charakterystycznych. Kończąc opis badań, których rezultaty odnoszą się do koncepcji prototypu, warto zauważyć, że wyniki eksperymentu Hamptona wskazują na brak możli­ wości rozstrzygnięcia sporu o naturę trwałych reprezentacji pojęciowych, jaki powstał między zwolennikami koncepcji cech i teorii wzorców. Prototyp można bowiem określić zarówno jako desygnat uzyskujący w klasyfikacjach typowości zbieżne i najwyższe oceny, jak też jako egzemplarz charakteryzujący się naj­ większą liczbą cech charakterystycznych, podzielanych przez inne egzemplarze tej samej kategorii. Teoria prototypów doczekała się gruntownej krytyki. Przede wszystkim stwierdzić należy, że wyniki badań nad posługiwaniem się prototypami pojęć, chociaż wiele mówią o tym, w jaki sposób ludzie identyfikują egzemplarze pojęć, czyli jak funkcjonują ich procedury identyfikacyjne, to jednak nie mówią niemal nic o tym, jaka jest istota pojęcia, a więc jaka jest jego struktura. Zwolennicy koncepcji pojęcia jako listy cech znacznie więcej miejsca poświęcali problemom strukturalnym, co doprowadziło zarówno do wyszczególnienia różnego rodzaju strukturalnych właściwości reprezentacji pojęciowych (np. cech definicyjnych, 1 Pojęcie podobieństwa rodzinnego wewnątrz kategorii pochodzi od Ludwika Wittgensteina. 3.2. Struktura i funkcjonowanie reprezentacji pojęciowych 121 cech charakterystycznych), jak i zdefiniowania przestrzeni semantycznej, „roz­ piętej” na najważniejszych wymiarach danego pojęcia. Badania nad prototypami skupiały się wokół aspektów funkcjonalnych, czyli wokół korzystania z proto­ typu jako punktu odniesienia w procesach kategoryzacji. Natomiast struktu­ ralny aspekt sporu o naturę reprezentacji niemal nie był przez zwolenników stanowiska prototypowego poruszany (Murphy, Medin, 1985). Z badań w paradygmacie podejmowania decyzji semantycznych wynika, że czas takiej decyzji rośnie wraz ze wzrostem nietypowości obiektu. Jednakże z faktu tego nie wynika jeszcze, że egzemplarze mniej typowe, będąc mniej podobne rodzinnie, są znacznie bardziej oddalone w przestrzeni semantycznej od kategorii nadrzędnej niż prototyp. Wyniki uzyskiwane w tym paradygmacie są bowiem zgodne z koncepcją prototypów, bo mniejsze podobieństwo rodzinne nietypowego obiektu wiąże się z większym dystansem pomiędzy nim a jego odniesieniem w procesie kategoryzacji, czyli prototypem, a także z koncepcją probabilistyczną, gdyż nietypowy obiekt wymusza konieczność uruchomienia drugiego, bardziej szczegółowego etapu porównywania cech (Osherson, Smith, 1981). Koronne dla zwolenników koncepcji prototypów wyniki badań nad klasyfikowaniem desygnatów także można wyjaśnić zarówno przez odwołanie się do istnienia prototypów, jak i definiując punkt odniesienia dla dokonywa­ nych porównań poprzez zbiór cech charakterystycznych, które są relatywnie powszechne wśród desygnatów i decydują o ich typowości (Hampton, 1979). Koncepcje probabilistyczne i teorie prototypów mówią więc o tej samej struk­ turze i podobnym funkcjonowaniu reprezentacji pojęciowych. Ujmują jednak proces kategoryzacji z dwóch różnych perspektyw: egzemplarza posiadającego określone cechy (koncepcje prototypów) lub zbioru typowych cech konstytuu­ jących specyficzny desygnat (koncepcje probabilistyczne). Z tego, że ktoś nie potrafi podać wspólnych właściwości egzemplarzy wchodzących w skład jakiegoś pojęcia, nie można wnioskować, że zestaw takich cech w ogóle nie istnieje (Smith, Medin, 1981). W badaniach Lewickiego (1968) poprawnie zdefiniować istotę pojęcia potrafiło przecież tylko 20% osób. Często zdarza się również, że ktoś nie potrafi zwerbalizować jakiegoś fragmentu wiedzy, ale skutecznie go stosuje (zob. rozdz. 4). Podkreślić także trzeba, że teorie prototypów nie stosują się do wszystkich reprezentacji pojęciowych (Hampton, 1981). Bardziej abstrakcyjne kategorie pojęciowe, jak się wydaje, nie posiadają swoich prototypów. Wprawdzie, jak wykazała Rosch (1973), istnieją mniej i bardziej prototypowe dyscypliny nauki czy przestępstwa, ale nie ma mniej i bardziej typowych praw, reguł, wierzeń, przekonań czy instynktów. Prototypy, według Hamptona, mają ograniczone zastosowanie, występują tylko tam, gdzie możliwe jest podanie kompletnej listy desygnatów danej kategorii lub tam, gdzie podejrzewa się, że taka kompletna lista istnieje. Reprezentacje takie można określić jako pojęcia konkretne (iconcrete concepts). Późniejsze badania nad możliwymi umysłowymi odzwier­ ciedleniami emocji w systemie poznawczym (ramka 3.1) złagodziły nieco ten krytyczny wobec teorii prototypów argument. Z analizy przedstawionych argumentów wynika, że zwolennikom koncepcji prototypów udało się dostarczyć klarownych odpowiedzi na pytanie o sposób funkcjonowania reprezentacji pojęciowych. Zgodnie z ustaleniami Rosch, zbiór 122 Rozdział 3. Pojęcia i schematy Ramka 3.1 Badania nad umysłowymi reprezentacjami emocji Twierdzenie Hamptona (1981), że tylko pojęcia konkretne mogą posiadać swoje prototypy, wywołało falę badań nad prototypami pojęć abstrakcyjnych {abstract concepts). Jako przykład wybrano reprezentację pojęciową emocji (Fehr, 1988; Russell, 1991; Fehr, Russell, 1991). W badaniach wykazano jednak (wbrew temu, co sądził Hampton), że reprezentowanie emocji w systemie poznawczym spełnia założenia koncepcji prototypów Rosch. Na nadrzędnym poziomie odzwierciedlania funkcjonują w umyśle pojęcia odpowiadające różnym emocjom (Russell, 1991). Są one niezbyt precyzyjnie zdefiniowane, gdy chodzi o właściwości definicyjne, i słabo odróżnialne od innych stanów i procesów afektywnych (Kolańczyk, 2004). Jednak już na poziomie podstawowym poszczególne rodzaje emocji są znacznie lepiej określone przez listy cech - definicyjnych i charakterystycznych - odznaczając się różnym stopniem typowości (Fehr, Russell, 1991). Przykładem może być lęk, który jest emocją uznawaną za bardzo typową; duma zaś często bywa stanem w ogóle nieklasyfikowanym przez ludzi jako przykład emocji. Badani proszeni o nazywanie emocji, zawartych w prezentowanych im opisach wydarzeń, najczęściej posługują się określeniami z poziomu podstawowego (Fehr, Russell, 1984); szczególnie dzieci nabywają pojęcia dotyczące emocji na tym właśnie poziomie (Bretherton, Beeghly, 1982). Na poziomie podrzędnym reprezentacje poszczególnych rodzajów emocji mają już strukturę wyłącznie prototypową. Uczestnikom eksperymentu nie sprawia większych kłopotów klasyfikowanie przykładów bójek w trakcie meczu hokejowego jako typowych lub mniej typowych zachowań agresywnych, choć ze zdefiniowa­ niem takiego zachowania na podstawie cech definicyjnych mieliby z pewnością duże problemy (Lysak, Rule, Dobbs, 1989). Należy więc stwierdzić, iż emocje mogą być reprezentowane w umyśle zarówno w formie list cech, jak i egzemplarzy prototypowych. Im niższy poziom ogólności reprezentacji, tym większe prawdopodobieństwo reprezentowania konkretnej emocji w formie prototypu i tym niższe prawdopodobieństwo odzwierciedlania jej w formie zbioru cech. Reprezentacja emocji w postaci listy cech dotyczy w zasadzie tylko najbardziej abstrakcyjnej, nadrzędnej reprezentacji pojęciowej emocji, niemożliwej do odzwierciedlenia w postaci prototypu. obiektów tej samej kategorii jest reprezentowany w umyśle przez prototyp, który działa jako punkt odniesienia dla klasyfikacji pozostałych egzemplarzy kategorii. Prototyp może też być definiowany jako najbardziej typowy przedstawiciel danej kategorii, w najwyższym stopniu podobny do innych desygnatów tej kategorii (Rosch); jako egzemplarz charakteryzujący się średnią arytmetyczną właści­ wości wszystkich pozostałych egzemplarzy kategorii (Posner i Keele); lub też jako desygnat, który charakteryzowany jest przez właściwości najczęściej spotykane w ramach kategorii (Neumann). Niezależnie od sposobu określenia, prototyp jest konkretnym egzemplarzem. Kwestią sporną pozostaje, czy jest on egzemplarzem rzeczywiście istniejącym, ale problem ten ma znaczenie jedynie w odniesieniu do pojęć naturalnych. Trzeba przy tym pamiętać, że zgodnie z koncepcją prototypów proces kategoryzacji polega na określaniu stopnia 3.2. Struktura i funkcjonowanie reprezentacji pojęciowych 123 podobieństwa (dystansu semantycznego) pomiędzy kategoryzowanym egzem­ plarzem a prototypem, czego empirycznym odzwierciedleniem są różnice w ran­ kingach typowości. Według zwolenników koncepcji reprezentacji umysłowych w formie prototypów, pojęcia nabywane są na podstawowym poziomie hierarchii poprzez doświadczanie egzemplarzy typowych. 3.2.4. Teorie egzemplarzy Zdaniem Medina i Schaffera (1978), sprawdzanie przynależności kategorialnej nie zawsze odbywa się poprzez odniesienie klasyfikowanego desygnatu do prototypu. Czasami w procesie kategoryzacji wykorzystywane mogą być inne, z jakiegoś powodu ważne, egzemplarze tego samego pojęcia. Według zwo­ lenników teorii egzemplarzy (exemplar view), reprezentacja pojęciowa składa się z odrębnych opisów egzemplarzy danego pojęcia. Mogą nimi być zarówno odzwierciedlenia pojedynczych przedstawicieli kategorii (wśród nich egzem­ plarz prototypowy), jak i ich podzbiory wchodzące w zakres danego pojęcia. Na przykład właściciel jamnika może mieć reprezentację pojęciową psów w postaci opisów: własnego psa, wilczura - psa sąsiada, jamniczki - suczki sąsiadki oraz reszty napotkanych psów. Własny pies zapewne będzie w takim przypadku reprezentował egzemplarz prototypowy kategorii „pies”, z czym nie zgodziłoby się wielu innych właścicieli tych zwierząt (o czym świadczą dyskusje na spa­ cerze „o wyższości jamników nad wilczurami”). Wilczur sąsiada i jamniczka sąsiadki będą ważnymi egzemplarzami wyróżnionymi ze względu na emocje (złość i miłość) wzbudzane u własnego ulubieńca, a reszta desygnatów będzie stanowić jedynie tło dla ważnych przedstawicieli nadrzędnej kategorii. Zatem reprezentacja pojęciowa psów będzie u właściciela jamnika przedstawiona w formie czterech opisów egzemplarzy: trzech indywidualnych (w tym jednego prototypowego) i jednego zbiorowego. W teorii tu przedstawianej proces kategoryzacji polega na porównywaniu egzemplarzy. Jeśli napotkany obiekt jest podobny do opisu jakiegoś ważnego egzemplarza już składającego się na reprezentację pojęciową, np. jamnika, jamniczki lub wilczura, wówczas zo­ staje uznany za przynależny do kategorii i sam staje się z kolei punktem odniesienia dla następnych porównywanych, potencjalnych przedstawicieli kategorii. Podejście egzemplarzowe zdaje się wyjaśniać relatywnie wysoki poziom wiedzy właścicieli psów na temat swoich ulubieńców i często niemal całkowity brak wiedzy na temat innych ras (pytania na spacerze: „A jaka to rasa?”). Porównywanie opisów wszystkich egzemplarzy tworzących reprezentację pojęciową z opisem nowego egzemplarza, dopiero aspirującego do kategorii, byłoby procesem czasochłonnym. Dlatego też zwolennicy koncepcji egzempla­ rzowych skłaniają się ku twierdzeniu, że w trakcie procesu kategoryzacji oceniamy podobieństwo nowego egzemplarza z pierwszym napotkanym desygnatem pojęcia (Reed, 1971). Stąd też niezwykle ważne mają być pierwsze doświadczenia z egzemplarzami danej kategorii pojęciowej, gdyż dzięki nim można uniknąć wielu błędów kategoryzacji. Jeśli tym pierwszym obiektem będzie typowy egzemplarz, to w trakcie późniejszej kategoryzacji możliwość popełnienia błędu będzie mniejsza, jeśli mniej typowy - większa. Dziecko, które 124 Rozdział 3. Pojęcia i schematy jako pierwszy egzemplarz psa napotka chihuahua, który mieści się zazwyczaj w kieszeni marynarki, będzie zapewne przez jakiś czas miało kłopoty z klasyfikowaniem nieco większych przedstawicieli rozważanej kategorii. Glass i Holyoak (1975), prowadząc badania w paradygmacie podejmowania decyzji semantycznych, wykazali, że proces ten może polegać, w pewnych szczególnych warunkach, na porównywaniu pojedynczych egzemplarzy. Po­ prosili oni osoby badane o weryfikację prostych zdań fałszywych, zawierających duży kwantyfikator (np. „wszystkie ptaki to psy”). Okazało się, że zdania te były bardzo szybko weryfikowane przez badanych jako fałszywe - na tyle szybko, że trudno było przypuszczać, że osoby badane podejmują swoje decyzje na pod­ stawie porównywania jakichkolwiek list cech albo też na podstawie zestawiania prototypowych przedstawicieli obu kategorii pojęciowych (psy vs. ptaki). Tak krótki czas decyzji mógł być spowodowany odnalezieniem przez badanych w procesie weryfikacji zdania jednego kontrprzykładu, tj. egzemplarza jednej kategorii nie będącego desygnatem drugiej (np. „wróbel jest ptakiem i nie jest psem”). Poczynienie takiego ustalenia pozwala z łatwością sfalsyfikować powyższe zdanie. Także i teorie egzemplarzy doczekały się gruntownej krytyki. Wiele kry­ tycznych argumentów skierowanych przeciwko teoriom prototypów, odnosi się również do teorii egzemplarzy. Obie teorie proponują bowiem podobne rozwiązania w kwestii opisu i wyjaśnienia procesu kategoryzacji. Inaczej jednak w koncepcjach egzemplarzowych przedstawia się kwestia struktury pojęcia i procesu jego nabywania. Zgodnie z poglądem egzemplarzowym, poszczególne desygnaty są często z różnych względów traktowane jako unikatowe. Można zatem sformułować pytanie o to, do jakiego stopnia brak podobieństwa pośród kategoryzowanych egzemplarzy jest tolerowany przez kategorię nadrzędną. Teorie cech (zgodność w zakresie rdzenia pojęciowego) czy prototypów (wskaźnik podobieństwa ro­ dzinnego) wskazują na pewne miary tej tolerancji; teoria egzemplarzy takiej miary nie podaje. Konsekwencją braku miary podobieństwa egzemplarzy w ra­ mach pojedynczej kategorii mogą być problemy z kategoryzacją. Stosując egzemplarzową formę kategoryzacji, właściciel jamnika nie będzie miał zapewne problemów z zaliczeniem do kategorii „pies” takiego przedstawiciela czworo­ nożnych, który niewiele różni się od idącego przy jego nodze (jamnik) lub też takiego, który toczy pianę z pyska na widok jego ulubieńca (wilczur). Jednakże próbując zaklasyfikować inne nieznane desygnaty (chihuahua), prawdopodob­ nie nie uniknie błędu kategoryzacji. Przede wszystkim bardzo trudno byłoby stosować egzemplarzową procedu­ rę identyfikacji przynależności kategorialnej w naukach ścisłych, gdzie dowody twierdzeń dotyczą z reguły klas obiektów, a nie pojedynczych desygnatów. Pro­ cedura egzemplarzowej kategoryzacji, jeśli w ogóle ma miejsce w procesach poznawczych człowieka, dotyczy więc raczej pojęć naturalnych i konkretnych. Trudnym do rozwiązania problemem jest również ustalenie tego, w jaki sposób w ramach reprezentacji pojęciowej przechowywane są pojedyncze egzemplarze, a jak - tworzą się ich podzbiory. W szczególności nie bardzo wiadomo, w jaki sposób umysł przechowuje wiedzę o podzbiorze (np. psy myśliwskie) w postaci pojedynczego egzemplarza Nie jest też do końca jasne, 3.2. Struktura i funkcjonowanie reprezentacji pojęciowych 125 w jakim celu mają być przechowywane wszystkie opisy doświadczanych desygnatów, skoro punktem odniesienia w procesie kategoryzacji jest tylko pierwszy napotkany w doświadczeniu indywidualnym bądź taki, który jest ważny z przyczyn osobistych. Nie można tych krytycznych argumentów pominąć, ponieważ wynika z nich, że koncepcje egzemplarzowe sugerują najmniej ekonomiczną formę trwałego reprezentowania obiektów rzeczywistych w umyśle. Najważniejszy desygnat, będący punktem odniesienia, jest wprawdzie nabywany na drodze spostrzegania i wyodrębniania egzemplarzy, ale jest nim z reguły pierwszy napotkany przedstawiciel kategorii. W jakim celu jest więc przyswajana cała reszta egzemplarzy? Być może tylko przechowywanie opisów wszystkich wyodrębnionych desygnatów danej kategorii umożliwia elastyczne zmiany w zakresie ważnych egzemplarzy, będących punktem odniesienia w procesie kategoryzacji. Bez możliwości odniesienia nowo napotkanego obiektu zarówno do samego prototypu, jak i do zbioru wszystkich dotychczas napotkanych egzemplarzy, jakiekolwiek zmiany w średnich posiadanych właściwości, modalnych częstości występowania, a w szczególności we wskaźniku podobieństwa rodzinnego, nie byłyby możliwe. A bez takich zmian system pojęć byłby sztywny i niewydolny. 3.2.5. Porównanie koncepcji reprezentacji pojęciowych Koncepcje reprezentacji pojęciowych różnią się w zakresie odpowiedzi na trzy kluczowe pytania. Pierwsza kwestia sporna dotyczy struktury reprezentacji pojęciowych, a więc sposobu trwałego odzwierciedlania w systemie poznaw­ czym rzeczywistych obiektów i zjawisk. Zwolennicy poszczególnych koncepcji reprezentacji pojęciowych różnią się również co do poglądów na temat sposobu nabywania reprezentacji pojęciowych, zarówno tych pierwszych, jakie kształto­ wane są we wczesnych latach rozwoju umysłu, jak i późniejszych, przyswaja­ nych w praktyce codziennej przez osoby dorosłe. Ostatni sporny problem to ustalenie zbioru reguł procesu kategoryzacji, a więc wskazanie metody klasy­ fikacji nowo napotkanych obiektów i prawidłowego włączania ich do już zdefiniowanych kategorii pojęciowych. Kwestią odrębną wydaje się zakres stosowalności poszczególnych koncepcji. Z przedstawionych powyżej argumen­ tów wynika, iż żadna z rozważonych koncepcji nie opisuje ani nie wyjaśnia struktury oraz funkcjonowania wszystkich rodzajów reprezentacji pojęciowych. Aby zatem opisać i wyjaśnić problem trwałego reprezentowania świata w systemie pojęć, trzeba zastosować podejście eklektyczne. Zgodnie z nim teorie cech, w szczególności teorie klasyczne, odnoszą się raczej do pojęć ma­ trycowych i abstrakcyjnych, a teorie wzorców, w szczególności teorie pro­ totypów, odnoszą się do pojęć naturalnych i konkretnych. Podsumowanie poszczególnych stanowisk w sporze o naturę reprezentacji pojęciowych przedstawiono w tabeli 3.3. 126 Rozdział 3. Pojęcia i schematy Tab. 3.3. Podsumowanie stanowisk w sporze o naturę pojęć. Teorie reprezentacji Struktura reprezentacji Sposób nabywania Sposób kategoryzacji Zakres stosowalności klasyczne zestaw cech definicyjnych (istotnych) abstrahowanie i testowanie hipotez porównanie zestawów cech definicyjnych matrycowe, abstrakcyjne probabilistyczne zestaw cech definicyjnych i charaktery­ stycznych abstrahowanie porównanie naturalne, konkretne zestawów wszystkich cech, a następnie ustalenie proporcji cech definicyjnych prototypów prototyp (średnia, modalna, podobieństwo rodzinne) doświadczanie typowych egzemplarzy z poziomu podstawowego porównanie z prototypem (ustalenie dystansu semantycznego) naturalne, konkretne, polimorficzne, niektóre abstrakcyjne egzemplarzy wszystkie napotkane egzemplarze doświadczanie wszelkich egzemplarzy porównanie z pierwszym napotkanym egzemplarzem naturalne, konkretne 3.3. Dynamiczna koncepcja umysłu, czyli o relacjach między pojęciami 3.3.1. Teorie sieci semantycznej Reprezentacje pojęciowe nie istnieją w systemie poznawczym w oderwaniu od siebie. Wiążą je ze sobą złożone relacje opisane w modelu sieci semantycznej (.network model of semantic memory; Collins, Quillian, 1969; Collins, Loftus, 1975; zob. rozdz. 4). Zgodnie z teorią sieci semantycznej, pojęcia są przechowy­ wane na trwale w pamięci w postaci zhierarchizowanej struktury sieciowej, składającej się z punktów węzłowych i wiążących te punkty relacji. W poszcze­ gólnych punktach węzłowych sieci kodowane są różnorodne reprezentacje pojęciowe. Podstawowym założeniem modeli sieci semantycznej, mającym konsekwencje również dla struktury i funkcjonowania pojedynczych kategorii pojęciowych, jest hipoteza dotycząca właściwości charakteryzujących pojęcia. Są one przyporządkowane reprezentacjom pojęciowym na możliwie najwyższym poziomie hierarchii ogólności. Właściwość „wykonywanie pieśni godowej” jest więc przypisana pojęciu „ptak”, nie zaś osobno każdej z podrzędnych reprezentacji pojęciowych poszczególnych rodzajów ptaków (np. kanarka, wróbla). Natomiast cecha „latanie” nie jest odzwierciedlana przez reprezentację pojęciową „ptak”, gdyż część ptaków to nieloty (np. kiwi), a część - bezloty (np. pingwin). Proponowane założenie strukturalne spełnia postulat ekonomii funkcjonowania poznawczego (hipoteza „skąpca poznawczego” - zob. rozdz. 1), choć trzeba również zwrócić uwagę na to, że ekonomia struktury sieci może 3.3. Dynamiczna koncepcja umysłu 127 czasami być związana z kosztami jej funkcjonowania. Ekonomiczna organizacja strukturalna sieci semantycznej pozwala na oszczędne wykorzystanie „powierz­ chni magazynowej” pamięci długotrwałej, w której zakodowane są reprezentacje pojęciowe. Jednakże owo „oszczędne” zagospodarowanie pamięci związane jest z kosztem wydłużenia czasu wydobywania informacji bardziej ogólnych, pochodzących z wyższego poziomu w hierarchii, czy też bardziej specyficznych, przynależnych do niższego poziomu w hierarchii pojęciowej. Zasadę przyporządkowania właściwości odpowiednim - ze względu na poziom ogólności - reprezentacjom pojęciowym wykazali w swoich ekspery­ mentach Collins i Quillian (1969,1970). Prowadzili oni badania w paradygmacie podejmowania decyzji semantycznych, prosząc osoby badane o weryfikowanie zdań zawierających jakieś pojęcie i przysługującą temu pojęciu właściwość (np. „Czy ptak lata?”). Collins i Quillian ustalili, że czas weryfikacji prawdziwości takich zdań jest bardzo krótki w przypadku właściwości odnoszących się ściśle do wybranego pojęcia (np. „Czy kanarek jest żółty?”) i relatywnie dłuższy w przypadku właściwości odnoszących się do wielu pojęć nadrzędnych (np. „Czy kanarek ma skórę?”). W pierwszym przypadku, zgodnie z założeniem dotyczącym organizacji strukturalnej sieci semantycznej, informacja o właści­ wości („żółtość”) jest dostępna w węźle reprezentacji pojęciowej („kanarek”). Dlatego proces weryfikacji prawdziwości zdania jest bardzo szybki. Natomiast w przypadku drugim informacja o „posiadaniu skóry”, umożliwiająca zwe­ ryfikowanie prawdziwości zdania, jest przypisana szerszej kategorii pojęciowej („zwierzęta”), znajdującej się na znacznie wyższym poziomie ogólności. W celu wykonania zadania uczestnik eksperymentu musi więc w tym przy­ padku odwołać się do innej reprezentacji pojęciowej, pochodzącej z wyższego poziomu hierarchii, niż sugerowana przez obiekt występujący w weryfikowa­ nym zdaniu („ptak”). Konieczność takiego odwołania powoduje właśnie wydłużenie czasu poszukiwania informacji, a zatem - pojawienie się kosztów czasowych. Punkty węzłowe sieci, a więc zakodowane w nich pojęcia, są powiązane relacjami znaczeniowymi. Relacja semantyczna (semantic relation) dwóch reprezentacji pojęciowych wyraża się sumą wszystkich połączeń pomiędzy ich desygnatami i właściwościami. Dwa pojęcia blisko ze sobą związane charakte­ ryzuje wielość wzajemnych połączeń w sieci, odpowiadająca wspólnocie ich i właściwości. Połączenia, zwane też ścieżkami sieci (network paths), są zróż­ nicowane pod względem wagi - im silniejszy związek pomiędzy dwiema repre­ zentacjami pojęciowymi, tym większej wagi nabiera łącząca je ścieżka, a w konsekwencji - tym łatwiej te dwa pojęcia wzajemnie się aktywują w toku przetwarzania (mechanizm rozprzestrzeniającej się aktywacji, ACT; Anderson, 1976; zob. rozdz. 4). Oznacza to, że sieć reprezentacji pojęciowych nie jest symetryczna ze względu na wagę połączeń między poszczególnymi węzłami typowi przedstawiciele nadrzędnych kategorii, a także typowe właściwości pojęć są powiązane silniejszymi relacjami semantycznymi. Świadczą o tym najkrótsze z możliwych czasy podejmowania decyzji semantycznych, dotyczących proto­ typów kategorii nadrzędnych (Smith, Shoben, Rips, 1973, 1974) czy też typowych właściwości pojęć (Conrad, 1972). Relacje semantyczne pomiędzy pojęciami mogą być dwojakiego rodzaju. Po pierwsze, mogą to być relacje zbudowane na połączeniach pozytywnych (np. 128 Rozdział 3. Pojęcia i schematy „kura jest to ptak”; Collins, Quillian, 1969,1970). Po drugie, mogą to być relacje zbudowane na podstawie ścieżek zaprzeczających (np. „kot nie jest to pies”; Collins, Loftus, 1975). Możliwość istnienia relacji negatywnych wykazali Glass i Holyoak (1975) w opisywanym wcześniej (zob. rozdz. 3.2.4) badaniu nad podejmowaniem decyzji semantycznych. Stwierdzili bowiem, że im większy dystans semantyczny między dwiema reprezentacjami pojęciowymi, tym szyb­ ciej jest podejmowana decyzja dotycząca fałszywości zdania pozytywnie łączą­ cego te dwa pojęcia. Loftus i Loftus (1975) przywołują wiele danych empirycznych na potwier­ dzenie słuszności teorii sieci semantycznej jako strukturalnej i funkcjonalnej organizacji reprezentacji pojęciowych. Dane te pochodzą z czterech typów eksperymentów: (1) przywoływania desygnatów kategorii pojęciowych lub podawania nadrzędnych kategorii dla pojedynczych egzemplarzy (np. Loftus, 1973; zob. rozdz. 3.2.3); (2) sortowania egzemplarzy do kilku kategorii (np. Posner, Keele, 1968; zob. rozdz. 3.2.3); (3) podejmowania decyzji semantycz­ nych (np. Glass, Holak, 1975; zob. rozdz. 3.2.4); (4) sortowania egzemplarzy ze względu na ich typowość (np. Rosch, 1973; zob. rozdz. 3.2.3). Szersze omówienie tych danych znaleźć można w pracach Chlewińskiego (1999), Kurcz (1987, 1997), Maruszewskiego (1983, 2001) oraz Trzebińskiego (1981, 1986). Modele sieci semantycznej pozwalają na wyjaśnienie relacji znaczenio­ wych, wiążących poszczególne reprezentacje pojęciowe. W ramach teorii sieciowych uwzględniono wyniki badań dotyczących struktury i funkcjonowania indywidualnych pojęć. Węzły sieci definiowane są bowiem przez zestawy właściwości poszczególnych reprezentacji pojęciowych (koncepcje cech), a asy­ metria w zakresie relacji semantycznych wiąże się z powszechnie stwierdzanym efektem typowości (koncepcje probabilistyczne, teorie prototypów). Istnienie negatywnych ścieżek sieciowych jest z kolei konsekwencją stwierdzenia możliwości klasyfikacji na podstawie porównywania pojedynczych egzemplarzy (koncepcje egzemplarzowe). Dane empiryczne na temat modeli sieci seman­ tycznej, jak i koncepcji reprezentacji pojęciowych pochodzą zatem z tych samych eksperymentów. 3.3.2. Złożone struktury sieciow e Podstawowym problemem modeli sieci semantycznej oraz sieciowej organizacji reprezentacji pojęciowych jest fakt, iż „rozbijają” one system trwałej wiedzy o świecie fizycznym lub społecznym na mniejsze porcje informacji - pojedyncze reprezentacje pojęciowe. Wprawdzie pojęcia są powiązane relacjami zależnymi od wielkości dystansu semantycznego, ale trudno wyobrazić sobie, aby tylko za pomocą mechanizmu rozprzestrzeniającej się aktywacji możliwe było szybkie łączenie tych pojedynczych porcji informacji w złożoną wiedzę o świecie. Bez takiej trwałej, zintegrowanej wiedzy, elastyczne i adekwatne zachowanie w zmiennych warunkach bodźcowych nie byłoby możliwe. Postępowanie właściciela wobec psa (np. udanie się z nim na spacer) nie wynika z reguły z faktu, iż pies ten wykazuje się jakimiś pojedynczymi właściwościami (np. szczeka lub macha ogonem). Jest ono natomiast efektem zintegrowanej wiedzy dotyczącej w swej ogólności zwierząt domowych i ich zwyczajów oraz 3.3. Dynamiczna koncepcja umysłu 129 w szczególności zasad komunikacji pomiędzy człowiekiem a jego udomowio­ nymi zwierzętami. W celu rozwiązania problemu dostosowania organizacji sieci semantycznej do systemu zintegrowanej wiedzy zwolennicy modeli sieciowych zasugerowa­ li istnienie w ramach sieci większych, bardziej złożonych struktur poznaw­ czych, umożliwiających np. rozumienie nie tylko pojedynczych pojęć, ale całej komunikacji międzyludzkiej czy też nie tylko reagowanie na pojedyncze bodź­ ce, ale poprawne zachowanie w złożonych sytuacjach społecznych, takich jak np. obiad rodzinny w restauracji (Schank, Abelson, 1977). Struktury te wy­ różniają się szczególnie silnymi wewnętrznymi powiązaniami między poszcze­ gólnymi reprezentacjami pojęciowymi (Bartlett, 1932; Komatsu, 1992), co zgodnie z mechanizmem rozprzestrzeniającej się aktywacji powinno gwaranto­ wać natychmiastową aktywizację wszystkich kategorii pojęciowych konstytu­ ujących tę złożoną, schematyczną strukturę. Wprawdzie zwolennicy koncepcji sieciowych nie różnią się specjalnie w opisie i próbach wyjaśnienia organizacji i funkcjonowania owych złożonych struktur sieciowych, jednakże różnorodne nazwy, które im nadają, wywołują mylne wrażenie dużej ich różnorodności. Wśród najczęściej stosowanych określeń można wskazać: schematy, skrypty, tematy, gry, miniteorie, ramy, hipotezy, plany, pakiety czy oczekiwania (Chlewiński, 1999; Kurcz, 1987). Odrębne przedstawianie wszystkich teorii złożo­ nych struktur sieciowych wymagałoby wielu powtórzeń w odniesieniu do klu­ czowych założeń i stwierdzeń. Koncepcje te zostały już zresztą w literaturze polskiej opisane przez Chlewińskiego (1999). Dlatego poniżej omówimy tylko ogólne założenia i tezy teorii schematów (Rumelhart, Ortony, 1977; Rumelhart, 1980; Rumelhart, Norman, 1978, 1981), ram (Minsky, 1975) oraz planów, scen i tematów (Schank, Abelson, 1977; Schank, 1982, 1986). 3.3.3. Teoria schematów Według Rumelharta (1980; Rumelhart, Ortony, 1977), schematy (schemas) są dobrze zintegrowanymi fragmentami sieci semantycznej. W tych fragmentach zakodowany jest zarówno sens typowej sytuacji, do jakiej dany schemat się odnosi, jak i znaczenie typowej formy zachowania, która powinna zostać wygenerowana w reakcji na typową sytuację. Schematy różnią się poziomem ogólności. Reprezentują wiedzę ze wszystkich poziomów: od pojedynczych reprezentacji pojęciowych do rozbudowanych ideologii. Wśród schematów są takie, które mają bardzo wąski zakres stosowania, związany ze specyfiką sytuacji bodźcowej, do której się odnoszą. Przykładem może być schemat regulacji silnika benzynowego samochodu marki Nissan. Są jednak i takie, które mają bardzo szeroki zakres stosowalności - tu przykładem może być schemat zdawania egzaminów. Struktura schematów jest, zdaniem Rumelharta, hierar­ chiczna, podobnie jak struktura sieci reprezentacji pojęciowych. Schematy o szerokim zakresie stosowalności zawierają więc mniej ogólne struktury tego typu. Schemat zdawania egzaminu zawiera subschematy nauki do egzaminu czy rozwiązywania testów egzaminacyjnych. Ponadto złożone struktury sieciowe o szerokim zakresie stosowania (dużym stopniu ogólności) zawierają część rdzenną (core), tj. reprezentacje pojęciowe wspólne wszystkim sytuacjom z tego 130 Rozdział 3. Pojęcia i schem aty zakresu, oraz część elastyczną (tracks), która pozwala na zastosowanie sche­ matu w konkretnej sytuacji bodźcowej, różniącej się w jakiś sposób od sytuacji typowej (Schank, Abelson, 1977). W ramach schematów możliwe jest także generowanie brakujących elementów systemu reprezentacji pojęciowych, jeśli relacje pomiędzy już zidentyfikowanymi elementami schematu takie elementy podpowiadają. Opisując funkcjonowanie schematów, Rumelhart (1980) odwołuje się do trzech analogii. Stwierdza, że schematy są jak gry. Każdy posiada bowiem dwa podstawowe elementy każdej gry: sekwencje wydarzeń, czyli swoisty scenariusz gry, oraz wykonawców poszczególnych czynności - aktorów z rozpisanymi dla nich rolami. Rumelhart dokonuje też porównania schematów do teorii, gdyż jego zdaniem - zawierają one naiwne, potoczne przekonania odnośnie do natury rzeczywistości. Kompletny zestaw schematów tworzy zaś naszą prywatną, zinte­ growaną wiedzę na temat praw funkcjonowania świata. Autor odnajduje także podobieństwo schematów do programów komputerowych. Wskazuje na to, we­ dług niego, przede wszystkim wewnętrzna budowa schematów, uwzględniająca subprocedury oraz programy sprawdzające skuteczność działania (por. systemy produkcji; Anderson, 1983a). Zauważyć jednak trzeba, że schematy są specy­ ficznymi programami, bowiem podobnie jak sztuczne sieci neuropodobne (PDP; Rumelhart, McClleland, 1986) mogą ulegać modyfikacjom na drodze uczenia się. Można wskazać kilka dróg nabywania i modyfikacji schematów (Rumel­ hart, Norman, 1978, 1981). Przede wszystkim już istniejące schematy są roz­ wijane przez rejestrację nowych sytuacji bodźcowych, w których taki schemat może mieć swoje zastosowanie. Ten typ uczenia się schematów można określić jako nabywanie wiedzy przez przyrost informacji. Dobrze opisuje go mechanizm asymilacji nowych informacji do już istniejących struktur poznawczych i zwią­ zanej z tym akomodacji owych struktur (Piaget, 1971). W rezultacie można zaobserwować powstanie nowych, elastycznych subprocedur dla już istnieją­ cych schematów. Ponadto schemat może zostać dostrojony. Ten proces polega na stopnio­ wych zmianach w zakresie poszczególnych subprocedur, tak aby dostosować już istniejący schemat do innej - niż wyzwalająca ten schemat - sytuacji bodźcowej. Zmiany w zakresie dostrajania nie mogą jednak zmienić zasadniczej struktury relacji w ramach schematu. W ten sposób nowo powstały schemat jest analogią schematu wyjściowego. Modyfikacja schematu może również polegać na całkowitej jego restruktu­ ralizacji. W jej wyniku relacje łączące poszczególne reprezentacje pojęciowe zostają, jako zupełnie nieadekwatne do sytuacji bodźcowej, rozbite, a nowe relacje tworzą się w wyniku procesów abstrahowania i myślenia indukcyjnego. W ten sposób powstaje zupełnie nowy schemat. Wprawdzie wykorzystuje on stare formy pojedynczych reprezentacji pojęciowych, ale ze względu na zupełnie nowe relacje semantyczne, wiążące poszczególne elementy starej struktury, jest zupełnie nową porcją wiedzy. Należy więc stwierdzić, iż powstawanie nowych schematów i modyfikacja schematów już istniejących dokonują się dzięki twórczym procesom transformowania, abstrahowania i myślenia indukcyjnego (Chlewiński, 1999). Istnieje duża liczba przekonujących danych empirycznych potwierdzają­ cych organizację wiedzy w postaci schematów. Dane te wskazują jednocześnie 3.3. D ynam iczna koncepcja um ysłu 131 na to, w jaki sposób schematy poznawcze wpływają na przebieg procesów przetwarzania informacji, na istotne ogniwa tego procesu, a więc percepcję i pamięć, a przez to na całe zachowanie. Bower, Black i Tuner (1979) przed­ stawili osobom badanym opis sytuacji, której tematem było „jedzenie obiadu w restauracji”. Większość (73%) uczestników eksperymentu wskazała na takie jej elementy jak: siedzenie przy stole, przeglądanie menu, zamawianie, jedzenie, płacenie i opuszczanie pomieszczenia, uznając je za najważniejsze wśród 20 zdarzeń, jakie mogą wystąpić podczas pobytu w restauracji. Natomiast 48% badanych wyróżniło wśród typowych zachowań w powyższym opisie: wcho­ dzenie do pomieszczenia, sprawdzanie rezerwacji, zamawianie drinków, dyskutowanie menu, rozmowę przy stole, jedzenie przystawki, jedzenie deseru, zostawianie napiwku. Bower, Black i Tuner w wyniku badań stwierdzili, że można wyróżnić 15 elementów wspólnych, które formują ludzką wiedzę na temat jedzenia obiadu w restauracji i tym samym składają się na schemat postępowania w takiej sytuacji. Rdzeń tego schematu wydaje się jednak znacz­ nie węższy i dotyczy co najwyżej 6 elementów wymienianych przez większość uczestników eksperymentu. Z kolei Friedman (1979) pokazywała w swoim eksperymencie 6 obrazków, na których przedstawiono: miasto, kuchnię, bawialnię, biuro, przedszkole i farmę. Na każdym obrazku znajdowały się rzeczy przynależne do sytuacji, których osoby badane mogły się spodziewać (np. komputer w biurze) oraz nieprzynależne, nieoczekiwane (np. garnek w biurze). Okazało się, że uczestnicy eksperymentu dwukrotnie dłużej przyglądali się obiektom typowym niż nietypowym. Co więcej, w niezapowiadanym teście odpamiętywania obiektów z obrazków badani nie mieli większych kłopotów z prawidłowym przypomnieniem sobie obiektów nietypowych, natomiast typowe przedmioty były często pomijane. Podobne wyniki otrzymali także Graesser i współpra­ cownicy (1980). Jednakże Smith i Graesser (1980) ustalili, że lepsza pamięć odnośnie do nietypowych elementów sytuacji zanika wraz z czasem. Im dłuższa przerwa między pierwotną prezentacją bodźców a późniejszym przypomina­ niem, tym lepsza pamięć dotycząca typowych elementów zapamiętywanej sytuacji (np. komputer w biurze, garnek w kuchni) i tym gorsze pamiętanie obiektów nieoczekiwanych (np. garnek w biurze, komputer w kuchni). Interesujące badania dotyczące efektywności zapamiętywania przeprowa­ dzili Anderson i Pichert (1978). Polecili oni uczestnikom eksperymentu odpamiętywanie elementów opisu domu z różnych perspektyw (np. z pozycji złodzieja, żebraka, kupca, ubezpieczyciela). Różnica w perspektywie związana była z przyjętym przez badanego schematem poznawczym, służącym mu do analizy sytuacji. Okazało się, że liczba zapamiętanych elementów domu niezależnie od perspektywy - była zbliżona. Ale, co ciekawe, badani zapamiętali różne elementy opisu domu, zgodnie z narzuconą im perspektyw ą. Z perspektywy złodzieja ważne były schody przeciwpożarowe na tyłach domu, zupełnie nieistotne z pozycji żebraka. Anderson i Pichert podsumowali swoje eksperymenty stwierdzając, że narzucony schemat poznawczy wpłyną! na jakość, a nie na ilościowo wymowną wydajność procesów pamięciowych. Teoria schematów - jak wynika z omówionych powyżej badań - przed­ stawia organizację i funkcjonowanie złożonych sieciowych struktur poznaw­ czych, których zadaniem jest umożliwienie człowiekowi szybkiej i adekwatnej 132 Rozdział 3. Pojęcia i schem aty reakcji na zmienne warunki bodźcowe na podstawie wcześniej ukształtowanej wiedzy o świecie. Struktura schematów poznawczych zdaje się przypominać probabilistyczną wersję struktury reprezentacji pojęciowych - schematy posiadają swoje rdzenia, tj. niezmienne w ramach schematu części definicyjne, oraz tory modyfikacji, czyli zmienne, charakterystyczne dla poszczególnych odmian schematu części elastyczne. Nabywanie schematów poznawczych możliwe jest dzięki abstrahowaniu wspólnych elementów sytuacji bodźcowych i zachowań odpowiadających na nie lub dzięki transformacji schematów już istniejących. Mimo większego stopnia złożoności i innych zadań pełnionych w ramach systemu poznawczego, organizacja i funkcjonowanie schematów poznawczych nie odbiegają znacznie w swojej istocie od organizacji i funkcjo­ nowania reprezentacji pojęciowych. Trzeba przy tym podkreślić, że dzięki schematom nasz system poznawczy może działać zarazem rutynowo i elastycz­ nie. Ma to szczególne znaczenie w przypadku zadań związanych ze światem społecznym, gdzie wymaga się od nas elastyczności w reagowaniu na powta­ rzające się sceny lub sytuacje. 3 .3.4. Teoria ram Autorem teorii ram (frames) jest Marvin Minsky (1975). W swoich założeniach teoretycznych koncepcja ram niewiele różni się od teorii schematów. Minsky wyróżnia - podobnie jak Rumelhart oraz Schank - dwa poziomy ram. Poziom wyższy zawiera stałe elementy struktury sieciowej, niezmienne, niezależne od możliwego zakresu stosowalności ramy. Niższy poziom ramy ma natomiast liczne „okienka”, które są zapełniane przez części elastyczne zmienne w zakresie różnych wymiarów (np. czasowych, wielkościowych). W przypadku schematu postępowania z przestępcami niezmiennym elementem ramy wydaje się koniecz­ ność izolacji w miejscu odosobnienia, natomiast konkretne techniki postępowania z osadzonymi w więzieniu zależą od zmiennych elastycznych części ramy (np. okienko czasowe określa długość czasu poświęconego na resocjalizację). Możli­ wości nietypowej transformacji w zakresie ramy wykorzystują niektóre techniki twórczego myślenia (np. operator WCK; Nęcka i in., 2005). Dla każdej ramy najbardziej istotne są trzy rodzaje informacji. Przede wszystkim ważne jest to, w jaki sposób należy ramę stosować. Relacje pomiędzy reprezentacjami pojęciowymi muszą wyznaczać konkretne programy zachowań. Rama powinna też mieć określoną sekwencję zdarzeń - scenariusz, z którego jasno wynika kolejność zdarzeń i podejmowanej w jego ramach akcji. Rama musi także zawierać informację, co należy uczynić w sytuacji, gdy oczekiwania odnośnie do sekwencji wydarzeń nie potwierdzają się w rzeczywistości. Tego rodzaju informacje powinny być punktem wyjścia do ewentualnej modyfikacji ramy. Warte podkreślenia jest to, że koncepcja ram bardzo wyraźnie kładzie nacisk na znaczenie tych struktur poznawczych dla regulacji celowych działań człowieka, zwłaszcza w świecie społecznym. O ile schematy poznawcze są strukturami wiedzy, które mogą nam służyć zarówno do lepszego zrozumienia świata w ramach trwałych reprezentacji umysłowych, jak i do generowania na podstawie tej wiedzy spójnego i adekwatnego zachowania, o tyle w przypadku ram znacznie ważniejszy jest aspekt wiedzy proceduralnej, bezpośrednio 3.3. D ynam iczna koncepcja um ysłu 133 związany z zachowaniem generowanym na podstawie ramy. Rama wydaje się także strukturą poznawczą znacznie bardziej zależną od kontekstu sytuacji, a przez to znacznie bardziej zróżnicowaną. Można metaforycznie powiedzieć, że każdy z nas nieustannie nakłada na różnorodną i „kapryśną” rzeczywistość rozmaite ramy, które redukują nadmiar informacji, porządkują obraz świata i regulują nasze celowe działania w świecie. 3.3.5. Teoria planów, scen i tem atów Główne zarzuty wobec koncepcji złożonych struktur sieciowych, niezależnie od ich odmian, dotyczą tego, że schemat ma być w założeniu jednocześnie sztywny i plastyczny, dostosowany do konkretnej sytuacji (Chlewiński, 1999). Prze­ widywanie przez te teorie pewnego stopnia sztywności schematów wynikało po części z elementarnych założeń dotyczących organizacji strukturalnej systemu poznawczego - jego ograniczonej pojemności, a po części z poczynionego założenia o efektywności funkcjonowania tych struktur - nadmiar niewiele różniących się schematów mógłby bowiem doprowadzić do problemów z ich wyborem i stosowalnością. Zgodnie z teoriami złożonych struktur sieciowych, istotna część rdzeniowa każdego schematu odzwierciedla cechy pewnych stereo­ typowych zachowań, jakie powinny pojawić się w danej sytuacji bodźcowej. Tymczasem badania dotyczące reprezentacji pojęciowych dostarczyły przeko­ nujących argumentów na rzecz tezy, że rdzenie trwałych odzwierciedleń rzeczy­ wistości są albo bardzo wąskie, albo też w przypadku niektórych reprezentacji takich jak np. pojęcia polimorficzne - w ogóle nie istnieją. Oznaczałoby to, iż części stałe wielu schematów czy ram powinny być zawężone do bardzo nielicznych i ogólnych reprezentacji pojęciowych oraz relacji je wiążących, na tyle ogólnych, że w zasadzie nie wiadomo, czy warto je w ramach systemu poznawczego wyodrębniać. Zarzut dotyczący konkretności scheinatów był jeszcze poważniejszy. Skoro złożone struktury sieciowe są nabywane w indywi­ dualnym doświadczeniu przez abstrahowanie, to nie będąc uczestnikiem konkretnej sytuacji bodźcowej (np. napadu na bank), człowiek nie ma szansy na wytworzenie schematu takiej sytuacji. Jednak znalazłszy się w takiej sytuacji po raz pierwszy, potrafi przecież w jakiś sposób zinterpretować dane i zrozumieć cele oraz czynności innych ludzi uczestniczących w zdarzeniu. Być może schemat jest zarazem sztywny i elastyczny, ale nie wynika stąd, że musi być nabywany na drodze indywidualnego kontaktu z odpowiednią sytuacją. Zrozumienie funkcjonowania takich struktur sieciowych, jak schematy czy ramy możliwe jest, zdaniem Schanka (1982, 1986; Schank, Abelson, 1977), dzięki istnieniu w ramach sieci semantycznej trwałych reprezentacji umysło­ wych wielu jeszcze bardziej złożonych struktur poznawczych. Plany {plans) są, według niego, schematami zawierającymi wiedzę na temat abstrakcyjnych lub potencjalnych celów działania człowieka. MOP-y (Memory Orgańization Packets) są zbiorami podobnych fragmentów różnych schematów, np. możliwych form powitania, rozpoczynających z reguły interakcje społeczne. W tym sensie MOP-y odnoszą się do pojedynczych rodzajów podobnych do siebie scen (scenes), które mogą wystąpić w ramach wielu schematów, i z których poszczególne scenariusze tych struktur poznawczych mogą być budowane. 134 Rozdział 3. Pojęcia i schem aty Wreszcie TOP-y (Thematic Organisation Points) są zbiorami ogólnych tematów (thematics) czy też motywów, których złożone scenariusze mogą dotyczyć. Dzięki planom możliwe jest zrozumienie działania innych ludzi, mimo niemożności nabycia konkretnych schematów odpowiadających ich zachowa­ niom. Dzięki scenom i tematom możliwe wydaje się natomiast generowanie elastycznych form zachowania w odpowiedzi na wymagania sytuacji, szczegól­ nie złożonej sytuacji społecznej. Scenariusze takich zachowań mogłyby być elastycznie konfigurowane z dostępnych scen w ramach uaktywnionego ogól­ nego tematu zachowania. 3 .3.6. Porównanie koncepcji struktur sieciowych Porównanie to jest niezwykle trudne, gdyż różnice pomiędzy poszczególnymi koncepcjami w większości sprowadzają się do kwestii nazewnictwa. Jak się jednak wydaje, koncepcje złożonych struktur sieciowych można przedstawić w ramach przestrzeni trzech podstawowych wymiarów. Zauważmy najpierw, iż koncepcje te różnią się pod względem sugerowanej przez nie funkcji złożonych struktur sieciowych. W koncepcji schematów Rumelharta podstawowy akcent położony jest na funkcję reprezentacyjną, z której wynika funkcja generowania zachowania. Wiedza deklaratywna („wiem, że”; Ryle, 1949) staje się w tej koncepcji podstawą wiedzy procedural­ nej („wiem, jak”; Ryle, 1949; o rodzajach w iedzy-zob. rozdz. 4). W koncepcjach skryptów, ram, scen i tematów Minsky’ego i Schanka bardziej znacząca wydaje się wiedza proceduralna, a różnorodność bądź stereotypowość generowanych zachowań (wiedza „jak”) staje się przesłanką dla formułowania wniosków odnośnie do możliwych struktur reprezentacji świata (wiedza „że”). Ponadto, różne koncepcje struktur sieciowych w różnym stopniu dopusz­ czają elastyczność złożonych struktur sieciowych. Teoria schematów Rumel­ harta i teoria ram Minsky’ego są w tym aspekcie zgodne z poglądami koncepcji probabilistycznych. Sztywność rdzeni schematowych jest dla tych koncepcji ekonomiczna strukturalnie i funkcjonalnie. Jak jednak uważa Schank, owa sztywność nie pozwala wyjaśnić różnorodności zachowań człowieka kierują­ cego się tym samym schematem. Dlatego autor ten sugeruje dynamiczną koncepcję reprezentacji trwałych, w których złożone struktury sieciowe mogą się kształtować w procesie rekonfiguracji różnych dostępnych w sieci ele­ mentów: pojedynczych reprezentacji, poszczególnych scen i całościowych te­ matów. W końcu, poszczególne teorie złożonych struktur sieciowych dotyczą innych domen ludzkiego zachowania. Tak więc koncepcja Rumelharta bliższa jest teoriom reprezentacji pojęciowych dotyczących poznawczego reprezento­ wania obiektów rzeczywistych w naszym umyśle, podczas gdy koncepcje ram Minsky’ego oraz scen i tematów Schanka odwołują się przede wszystkim do zachowań społecznych i ich stereotypizacji. Ulubionym zresztą przykładem funkcjonowania złożonych struktur poznawczych było dla Schanka zachowanie się w restauracji. 3.4. Podsum ow anie 135 3.4. Podsumowanie O pojęciach - ich strukturze, nabywaniu i organizacji - mówi się zazwyczaj w kontekście języka (zob. rozdz. 13). Celem niniejszego rozdziału było ukazanie poznawczej funkcji pojęć, czyli ich roli w poznawaniu otaczającego nas świata, innych ludzi i samych siebie. Z tego punktu widzenia bytem bardziej pierwot­ nym w stosunku do pojęć są kategorie. Człowiek nieustannie kategoryzuje obiekty fizyczne, a także symboliczne i wyobrażone. Kategoryzuje również obiekty społeczne, w szczególności innych ludzi. Kategoryzując, najpierw two­ rzy w umyśle poznawczą reprezentację pewnego zbioru obiektów, który w szcze­ gólnym przypadku może być zbiorem jednostkowym lub pustym, a dopiero wtórnie - i nie zawsze - przypisuje mu określenie językowe. Zazwyczaj ka­ tegorie często używane i użyteczne w poznaniu potocznym lub naukowym otrzymują własną „etykietę” w postaci słowa. Kategorie rzadziej używane mogą być pozbawione takiej etykiety, co nie jest równoznaczne z ich mniejszą przydatnością w procesach umysłowego odzwierciedlenia rzeczywistości. Wielu z nas posługuje się np. kategorią „rzeczy dawno nieużywane i nie wiadomo, czy potrzebne, ale których żal wyrzucić”. Jest to dość ważna kategoria poznawcza, która jak dotąd nie doczekała się osobnego słowa w języku polskim. Warto pamiętać, że etykieta werbalna nie tylko upraszcza komunikowanie się, bo zamiast kilku czy kilkunastu słów wystarczy jedno, ale również jak gdyby „zamraża” kategorię, ustalając jej zakres znaczeniowy, definiując granice (choć­ by mato precyzyjne lub rozmyte) oraz kodyfikując społeczny sposób jej używania. Zbiory pozbawione etykiety werbalnej mogą funkcjonować jako tzw. kategorie ad hoc, tworzone doraźnie - np. w procesach twórczych - ale pozbawione trwałości. Dopiero kategoria opatrzona etykietą daje nam prawdziwe pojęcie, czyli formę poznawczej reprezentacji świata, charakteryzu­ jącą się trwałością. Dlatego właśnie reprezentacje pojęciowe oraz struktury z nich złożone (np. schematy) są przez nas traktowane jako reprezentacje trwałe, w odróżnieniu od z natury nietrwałych obrazów umysłowych lub sądów. Z owych trwałych cegiełek tworzą się w dalszej kolejności rozbudowane struktury wiedzy, o których traktuje kolejny, czwarty rozdział. R ozdział Wiedza Rodzaje wiedzy 138 Nabywanie wiedzy 163 Wiedza deklaratyw na i proceduralna 138 Nabywanie wiedzy semantycznej 163 Wiedza jaw na i niejawna 140 Nabywanie wiedzy proceduralnej 164 Organizacja wiedzy 148 Reprezentacja wiedzy za pomocą cech 148 Organizacja wiedzy semantycznej 151 Organizacja wiedzy proceduralnej: syste­ my reguł 157 Organizacja wiedzy w modelach ACT, ACT* i ACT-R 159 Nabywanie wiedzy niejawnej 166 Wiedza ekspercka 168 Kryteria i właściwości wiedzy eksperckiej 168 Nabywanie wiedzy eksperckiej 173 Podsumowanie 174 Wiedza to forma trwałej reprezentacji rzeczywistości, mająca postać uporząd­ kowanej i wzajemnie powiązanej struktury informacji, kodowanej w pamięci długotrwałej. Ekspert to osoba dysponująca wiedzą obszerną, choć ograniczoną do wybranej dziedziny, a ponadto bardzo dobrze uporządkowaną, sprocedufąliżowaną i nadającą się do wykorzystania dzięki ogólnym schematom działania. Spytano kiedyś Kartezjusza, co jest więcej warte - wiedza czy majątek. Gdy Kartezjusz odpowiedział, że wiedza, zadano mu kolejne pytanie: „Jeśli tak, to dlaczego tak często widzi się uczonych pukających do drzwi bogaczy, a nigdy odwrotnie?” Odpowiedź filozofa brzmiała: „Ponieważ uczeni znają dobrze wartość pieniędzy, a bogacze nie znają wartości wiedzy”. W tym rozdziale zajmiemy się tylko jednym z pojęć, które porównywał Kartezjusz - mianowicie wiedzą. I nie o jej wartości będziemy mówić, bo ona dla czytelnika jest niekwestionowana, ale o sposobie jej organizacji w umyśle człowieka. Chodzi 0 odpowiedź na trzy podstawowe pytania: „Jaka jest struktura wiedzy?” „W jaki sposób odnajdujemy informacje w bardzo obszernym magazynie wiedzy?” „W jaki sposób nabywamy wiedzy?” Zasoby wiedzy gromadzone są w pamięci trwałej, dlatego w większości podręczników psychologii poznawczej o jej strukturze i nabywaniu mówi się w rozdziałach poświęconych pamięci. Przyjmując jednak podział na repre­ zentacje i procesy poznawcze, a ponadto podział reprezentacji na nietrwale 1 trwałe, zdecydowaliśmy się wyróżnić tę specyficzną formę trwałych re­ prezentacji świata w umyśle. Jej specyficzność polega na tym, że wiedza, jako zapis pamięciowy, jest w szczególny sposób uporządkowana, a ponadto podle­ ga ewaluacji ze strony jednostki. W języku teorii poziomów przetwarzania (zob. rozdz. 1) można byłoby powiedzieć, że wiedza to informacja przetwo­ rzona na najgłębszym poziomie, z odniesieniem do systemu przekonań i sądów włącznie. O sposobie uporządkowania wiedzy, czyli relacjach między elementami, decyduje jej treść, podczas gdy organizacja pamięci trwałej rozpatrywana jest zwykle niezależnie od treści, czyli od strony formalnej. W badaniach nad pamięcią jako materiał bodźcowy stosuje się np. zestawy bezsensownych sylab, nie mających znaczenia obrazów lub losowo dobranych liczb. W ten sposób celowo minimalizuje się zarówno możliwość odniesienia tego materiału do wiedzy semantycznej, jak i prawdopodobieństwo użycia skutecznych sposobów zapamiętywania (mnemotechnik). Badaczy pamięci interesuje przede wszystkim formalna strona funkcjonowania pamięci, ujawniająca uniwersalne mechanizmy zapamiętywania, przechowywania i odpamiętywania informacji. Badaczy wiedzy interesuje z kolei sposób łączenia zapisów pamięciowych w większe całości, zależnie od treści wiedzy, kontekstu jej nabywania, wiedzy nabytej wcześniej, a także sądów i przekonań. Ponieważ wyróżnia się wiele rodzajów wiedzy, a co za tym idzie - różne mechanizmy jej nabywania, odpowiedź na powyższe pytania rozpatrzymy z uwzględnieniem tej różnorodności. 138 Rozdział 4. W iedza 4.1. Rodzaje wiedzy 4 .1 .1 . Wiedza deklaratywna i proceduralna Podział wiedzy na deklaratywną i proceduralną pochodzi od filozofa Gilberta Ryle’a (1949). Różnicę między nimi Ryle przedstawił obrazowo w postaci dychotomii: wiedza „że” - wiedza „jak”. Wiedza „że”, najogólniej rzecz ujmu­ jąc, odnosi się do danych (faktów), kodowanych w pamięci trwałej. Danymi może być wiedza ogólna (np. budowa atomu) albo wiedza epizodyczna (np. kolizja na skrzyżowaniu) czy autobiograficzna (np. że przed chwilą moja córka przyszła się przytulić). Wiedza ta jest łatwa do werbalizacji, ma bowiem wyraźny komponent semantyczny. Natomiast wiedza „jak” odnosi się do kodowanych w pamięci trwałej procedur realizacji czynności o charakterze umysłowym i ru­ chowym. Jest to specyficzna wiedza, potocznie zwana umiejętnościami. Są to zarówno umiejętności wykonawcze (np. pływanie), jak i poznawcze (np. używanie języka). Zazwyczaj jednak wiedza proceduralna obejmuje oba rodzaje umiejętności, co widać na przykładzie takich czynności, jak gra na skrzypcach czy projektowanie mostów (rysunek techniczny). Wiedza proceduralna jest z reguły trudniejsza do werbalizacji niż wiedza deklaratywna, co wynika z różnic w sposobie ich reprezentowania w pamięci. Podstawą rozróżnienia jest w tym przypadku zarówno strona formalna, jak i treściowa wiedzy. Różny jest także charakter procesu nabywania wiedzy deklaratywnej i proceduralnej. Wiedza deklaratywna nabywana jest dyskretnie, poprzez włączenie jakiejś informacji w istniejące struktury wiedzy. W sprzyjających warunkach wystarczy pojedyn­ cza ekspozycja informacji, aby została ona zasymilowana. Wiedza proceduralna przeciwnie - nabywana jest w toku treningu, niekiedy długotrwałego, pole­ gającego na wielokrotnym powtarzaniu czynności. Powyższe rozróżnienie, z pozoru klarowne, generuje dwie podstawowe wątpliwości. Po pierwsze, czy w umyśle istnieją niezależne zbiory danych i pro­ cedur, czy też istnieje między nimi jakaś zależność? Owa zależność mogłaby polegać na ścisłym przyporządkowaniu danych procedurom, czy nawet dominacji procedur, albo - rzecz jasna - odwrotnie. Po drugie, w jaki sposób wiedza każdego rodzaju jest przechowywana i wydobywana? Nie ma wątpli­ wości, że nabywanie wiedzy deklaratywnej i proceduralnej odbywa się inaczej, co stanowi definicyjną podstawę ich wyodrębnienia. Nie oznacza to jednak, że różne są też sposoby przechowywania, wewnętrzna struktura czy też mecha­ nizmy wydobywania wiedzy określonego rodzaju. Niekiedy trudno rozstrzygnąć, czy wiedza wywodzi się wyłącznie z pamięci deklaratywnej, czy też - nieobecna w niej wcześniej - została wywnioskowana z danych zapisanych w pamięci proceduralnej dzięki aplikacji reguł (np. dedukcji). W każdym razie oba problemy wymagają analizy, choć z pozoru wydają się banalne. Weźmy pod uwagę następującą sytuację. Niekiedy dowiadując się o jakimś fakcie, uznajemy go za oczywisty, wręcz zastanawiamy się, jak to się stało, że sami na to nie wpadliśmy. Dowiadujemy się np., że Zosia już nie przyjaźni się z Piotrkiem, lecz z Szymkiem. Wykluczając chwilowo wpływ tzw. złudzenia wglądu wstecznego (hindsight bias; Kahneman, Tversky, 1972), autentyczny brak zaskoczenia powyższymi faktami może wynikać z tego, że już wcześniej dysponowaliśmy niezbędnymi przesłankami dla wyciągnięcia takiego wniosku. 4.1. Rodzaje w iedzy 139 Podobnie jak w rozumowaniu dedukcyjnym, konkluzja wynikająca z przesłanek nie wnosi nowej informacji, jednak aby ją sformułować, potrzebne jest właściwe zaaplikowanie pewnej reguły wnioskowania, czyli swoistej procedury. Wy­ prowadzony wniosek jest jednak nowy, zawiera bowiem stwierdzenia nieobecne wcześniej w wiedzy deklaratywnej. Jej wzbogacenie staje się więc możliwe dzięki zastosowaniu wiedzy proceduralnej. Dlatego Burnett i Ceci (2005, s. 209) uznają, że „wiedza może być wykreowana przez jednostkę dzięki wnioskowa­ niu, powiązaniu posiadanych wcześniej informacji i myśleniu o tych informa­ cjach w nowy sposób”. Przykłady tego typu są bardzo powszechne (zob. Baddeley, 1998). Odpowiedź na pytania: „Czy Arystoteles miał pępek?” albo „Jaki numer telefonu miał Beethoven?”, raczej nie znajduje się explicite w wiedzy deklaratywnej nawet dobrze wykształconego człowieka. Jednak z powodzeniem może być udzielona dzięki wnioskowaniu. Często nie da się behawioralnie stwierdzić, czy konkretny fakt, bez względu na jego prawdziwość lub fałszywość, pochodzi z posiadanej wiedzy deklaratywnej, czy też jest efektem zastosowania pewnej procedury wnioskowania. Jest to utrapieniem niektórych egzaminatorów układających testy sprawdzające wiedzę. Inteligentny student może czegoś nie wiedzieć, ale wywnioskować odpowiedź na podstawie tego, co wie. Jeśli w teście znajduje się zbyt dużo takich pytań, mierzy on w większym stopniu poziom inteligencji niż opanowanie wiedzy. Doniosłe znaczenie wiedzy powstałej w wyniku wnioskowania czy innych procesów poznawczej obróbki wiedzy posiadanej przez jednostkę podkreślają koncepcje metawiedzy (np. Flavell, 1979). Metawiedza, czyli wiedza typu „wiem, że wiem”, byłaby odrębnym rodzajem wiedzy, zasadniczo różnym od dotychczas omówionych. Dotyczy ona wiedzy o wiedzy posiadanej przez jed­ nostkę. Metawiedza może ujawnić się wprost, kiedy próbujemy uświadomić sobie zakres naszej wiedzy i niewiedzy na jakiś temat, aby np. podczas egzaminu ustnego zdecydować, czy w ogóle próbujemy odpowiedzieć na zadane pytanie. Słynna sentencja Sokratesa: „Wiem, że nic nie wiem”, jest znakomitym przykładem metawiedzy. Metawiedza może także ujawniać się bez uświado­ mienia jej sobie, kiedy człowiek np. podejmuje pewne zadania, a inne pomija, a jeśli je już podejmuje, to za pomocą preferowanych przez siebie stylów poznawczych, uwzględniających swoje poznawcze i temperamentalne „wypo­ sażenie” (Orzechowski, Bednarek, 2004; Bednarek, Wytykowska, Orzechowski, 2005). Preferencje te wydają się wynikać z jakiegoś rodzaju metawiedzy. Rozróżnienie wiedzy deklaratywnej i proceduralnej na podstawie me­ chanizmu ich wydobywania wydaje się intuicyjnie zrozumiałe. Wydobycie wie­ dzy „że” ma charakter wolicjonalny i polega na jej werbalizacji, bo dzięki językowi została ona zakodowana. Z kolei wiedza „jak” uruchamiana jest auto­ matycznie w przypadku zainicjowania dobrze nam znanej czynności. Możliwe jednak, że wiedza deklaratywna, pochodząca np. z instrukcji obsługi faksu, zostanie przełożona na wiedzę „jak”, a więc przekształcona w postać procedury. Możliwe jest też, że wiedza proceduralna zostanie przekształcona w formę werbalnego opisu strategii działania, np. pozyskiwania zainteresowania płci przeciwnej1. Odróżnienie znajomości faktów od dysponowania procedurami 1 Jak w filmie „Hitch”, w którym gtówny bohater dysponuje pokaźną listą wyrafinowanych recept tego typu. 140 Rozdział 4. W iedza może być więc trudne, jeśli za podstawę przyjmiemy sposób wydobycia odpowiednich elementów wiedzy. Trwałość wiedzy jako formy reprezentacji poznawczej wydaje się dość duża, podobnie jak w przypadku pojęć. Nie chodzi o trwałość śladów pa­ mięciowych, bo ta jest zmienna ze względu na wiele czynników, w tym różnice indywidualne, lecz o niezmienność właściwości samej reprezentacji. Zwolenni­ cy ujednolicenia poglądów na wiedzę, czyli sprowadzenia jej do jednej formy reprezentacji (np. Neisser, 1967), powołują się na dwa argumenty. Po pierwsze, akcentując proceduralny charakter wiedzy, odwołują się do podstawowego za­ łożenia podejścia poznawczego, mówiącego o dynamicznym charakterze przy­ wołań pamięciowych. Skoro w efekcie każdej próby przywołania wiedza ulega modyfikacjom, trudno mówić o trwałości jej reprezentacji. Po drugie, skoro właściwie nie można odróżnić danych bezpośrednio obserwowanych od uzyskanych drogą wnioskowania, prościej jest przyjąć istnienie tylko jednej kategorii jednostek wiedzy. Omówione w rozdz, 3 teorie ram (Minsky, 1970) czy skryptów (Schank, Abelsohn, 1977; Schank, 1982, 1986) przyjmują oba te za­ łożenia w - jak się wydaje - nieco przerysowanej formie. Teorie wiedzy oparte na tych założeniach nie wymagają oddzielenia wiedzy „że” i wiedzy „jak”, ponieważ w ich ujęciu całą wiedzę można sprowadzić do pewnych procedur operujących na podobnym sposobie reprezentowania rzeczywistości i podobnej strukturze wewnętrznej. Jednak większość modeli teoretycznych uznaje za­ sadność podziału wiedzy na deklaratywną i proceduralną, albo koncentrując się tylko na jednej z nich, albo próbując połączyć je w ramach jednej teorii (zob. rozdz. 4.2). Podział Ryle?a na wiedzę „że” i wiedzę „jak” niemal wprost został zaadap­ towany przez Squire’a (1986) do problematyki pamięci. Autor dokonał jednak pewnego uogólnienia: pozostał przy pojęciu pamięci deklaratywnej w orygi­ nalnym znaczeniu, natomiast wiedzę proceduralną umieścił w szerszej kategorii pamięci niedeklaratywnej. Ta ostatnia zawiera nie tylko procedury, ale również wszelkie inne formy pamięci, które nie mają postaci deklaratywnej, np. zmiany prawdopodobieństwa reakcji uzyskane w efekcie warunkowania czy habituacji stymulacji. 4 .1 .2 . Wiedza jawna i niejawna Pojęcie wiedzy niejawnej funkcjonuje od dawna, choć pod różnymi etykietami terminologicznymi. Jako pierwszy, w opozycji do wiedzy jawnej, użył tego pojęcia filozof Michael Polanyi (1966). Wiedzę ukrytą lub „milczącą” (tacit knowledge) rozumiał jako taką, o której nie wiemy, że ją posiadamy. Polanyi akcentował więc przede wszystkim trudności w werbalizacji wiedzy tego rodzaju, typowe dla osób dysponujących bogatym osobistym doświadczeniem w jakiejś dziedzinie. Ponownego „odkrycia” wiedzy niejawnej, tym razem na gruncie psychologii, dokonali Graf i Schacter (1985), wyróżniając pamięć jawną (explicit) i pamięć niejawną (implicit), zwaną również ukrytą lub utajoną. Dlatego też obecnie funkcjonują dwa pojęcia o zbliżonym znaczeniu: wiedza ukryta (tacit) i wiedza niejawna (implicit). Pierwsze pojęcie używane jest ra­ czej w odniesieniu do wiedzy nabywanej długotrwale na drodze praktyki 4.1. Rodzaje w iedzy 141 i doświadczenia, a drugie - jako efekt mimowolnego uczenia się (implicit learning). Różnice dotyczą więc raczej kontekstu i tradycji badań w pewnym paradygmacie, a nie istoty rzeczy. Ze względu na swój charakter i sposób funk­ cjonowania, wiedza niejawna wydaje się tworzyć jedną kategorię, wymagającą jednego tylko terminu. Podział Schactera i Grafa wywodzi się z rozróżnienia dwóch grup metod badania pamięci: bezpośrednich i pośrednich. W pierwszym przypadku osoba badana ma przywołać z pamięci to, co wie (metoda przypominania), lub roz­ poznać w przedstawionym jej materiale elementy występujące w uprzednio wyuczonym materiale (metoda rozpoznawania). W przypadku drugim nie jest w ogóle pytana o to, co wie; ma jedynie wykonać pewną czynność, której nie da się wykonać poprawnie lub na założonym poziomie sprawności bez wcześniej nabytej wiedzy. Badanemu pokazuje się np. elementy spełniające nieznane mu kryteria definicyjne, nie ujawniając samej definicji, a następnie prosi się go 0 klasyfikowanie, czyli samodzielne wskazywanie elementów spełniających de­ finicję lub jej niespelniających (zob. paradygmat 4.1). Przyjęto, że wiedza nie­ jawna nie ujawnia się w pomiarze bezpośrednim, podczas gdy można wychwycić jej obecność w pomiarze pośrednim (Cleeremans, 1997a; Higham, 1997). Przy­ kładowo, osoba badana dość poprawnie klasyfikuje złożony materiał, którego się wcześniej uczyła, ale nie potrafi poprawnie zwerbalizować reguł rządzących jego uporządkowaniem. Sformułowano precyzyjne kryteria, jakie powinny spełniać wyniki tych testów, aby wiarygodnie potwierdzić obecność wiedzy niejawnej (Shanks, St. John, 1994; Merikle, Joordens, 1997). Pierwsze z nich, tzw. kryterium wy­ łączności, nakazuje, aby dana metoda umożliwiała dotarcie tylko do tej wiedzy, która jest wykorzystywana w wykonaniu danego zadania. Chodzi o to, aby narzędzie było odporne na wpływ innej, niezwiązanej z zadaniem wiedzy. Na przykład, kiedy po ekspozycji listy slow pochodzących z pewnej kategorii, prosimy osoby badane o jej odtworzenie, to łatwiej będą przywoływane pojęcia typowe dla tej kategorii, nawet jeśli nie były obecne na pierwotnej liście (zob. rozdz. 9.4.2, paradygmat 9.1). Na wykonanie zadania ma więc pewien wpływ wiedza, która jest niezwiązana z zawartością listy i kolejnością umieszczonych na niej pojęć. Z kolei kryterium czułości nakazuje, aby test mierzący zakres wiedzy jawnej był na tyle wyczerpujący, aby ujawnić pełną informację, której badani są świadomi. W szczególności chodzi o to, aby w wyniku dotarcia tylko do części wiedzy jawnej nie uznać tej, do której nie dotarto, za wiedzę niejawną. Paradygmat 4.1 1 Uczenie się sztucznej gramatyki (Artificial Grammar Learning, AGL) Ten schemat badania procesów mimowolnego uczenia się pochodzi od Arthura Rebera (1967, 1968). Typowe zadanie składa się z dwóch faz. W pierwszej fazie 1 osoby badane uczą się egzemplarzy ciągów literowych, zgodnych z systemem f reguł „sztucznej gramatyki” (zob. ryc. 4.1). Reguły gramatyki określają, jakie ciągi j będą poprawne (gramatyczne), a jakie błędne (niegramatyczne). Osób badanych nie informuje się jednak, że ciągi prezentowanych im liter zostały utworzone według i jakichś zasad. Dowiadują się o tym po zakończeniu fazy uczenia się. Pierwsza faza 142 Rozdział 4. W iedza składa się zazwyczaj z prezentacji od kiiku do kilkunastu ciągów liter. W fazie drugiej badanych prosi się o klasyfikowanie prezentowanych im ciągów jako gramatycznych bądź niegramatycznych. Pokazuje się zarówno ciągi znane z fazy uczenia się, jak i zupełnie nowe. Ponadto manipuluje się zgodnością ciągów z regułami gramatyki (część jest gramatyczna, a część nie). P A x Ryc. 4.1. Sztuczna gramatyka zastosowana przez Rebera (1967) w badaniach nad efektem uczenia mimowolnego. Strzałki ilustrują dozwolone przejścia między poszczególnymi stanami. Pętle oznaczają możliwość kilkakrotnego powtórzenia danego stanu. Przykładowe ciągi zgodne z gramatyką: TPPTXXVS, VXVPXXVS, TPTS. Ciągi niezgodne z gramatyką: TPPTXXPS, VPVPXXVS, TXTS. Już w pierwszych badaniach Reber (1967) wykazał, że badani wykonują zadanie klasyfikacyjne z poprawnością istotnie wyższą niż poziom przypadku (zazwyczaj w przedziale pomiędzy 60 a 70%; por. Balas, Żyła, 2002). Nie potrafią jednak zwerbalizować reguł, którymi się kierują, podejmując decyzję o tym, czy ciąg jest gramatyczny, czy też niegramatyczny. Późniejsze badania z użyciem tego pa­ radygmatu wielokrotnie replikowały powyższe wyniki, również po zmianie rodzaju i poziomu złożoności sztucznych gramatyk (Brooks, 1978; Dulaney, Carlson, Dewey, 1984; Pothos, Bailey, 2000). W badaniach z wykorzystaniem paradygmatu uczenia się sztucznych gra­ matyk stosuje się również bezpośrednie miary jawnego uczenia się (Mathews i in., 1989). W takim przypadku osoby badane proszone są o odpamiętanie prezento­ wanych im w fazie uczenia się ciągów lub o klasyfikowanie prezentowanych im ciągów na znane/nieznane. Okazuje się, że badani są w stanie poprawnie odpamiętać część ciągów (choć bardzo małą), co wskazuje na słaby wpływ wiedzy jawnej na pomiar efektów uczenia się mimowolnego. Okazało się jednak, że trudno utrzymać założenie o pełnym rozdzieleniu wpływów wiedzy jawnej w testach bezpośrednich i wiedzy niejawnej w miarach pośrednich. W testach przypominania albo rozpoznawania niewątpliwie do­ minuje wiedza jawna, ale nie można wykluczyć wpływów wiedzy niejawnej. I odwrotnie, w testach pośrednich ujawniać się może wiedza jawna, również jeśli jest nieadekwatna do zawartości pamięci niejawnej. Na przykład w zadaniu 4.1. Rodzaje w iedzy 143 wymagającym klasyfikowania osoba badana może wyabstrahować błędną regułę i stosować się do niej, co będzie interferować z wpływami ze strony wiedzy niejawnej. Tak więc prawdopodobnie na poziom wykonania testów bezpo­ średnich i pośrednich wpływa jednocześnie wiedza jawna i niejawna. Rycina 4.2 ilustruje wzajemne wpływy obu rodzajów wiedzy w zadaniu polegającym na uczeniu się sztucznych gramatyk. ETAP 1 uczenie się jawne intencjonalne uczenie się egzemplarzy ETAP II --------- ► ETAP III test wiedzy jawnej nabytej intencjonalnie te st w iedzy ukrytej znajomość regui w p tyw w iedzy ukrytej (regui) wpływ wiedzy jawnej fragmenty, egzemplarze uczenie się m im o w o ln e ^ ^ nieintencjonatne uczenie się regu! \ Ryc. 4.2. Analiza wpływu procesów jawnych i niejawnych w zadaniu uczenia się sztucznych gramatyk (za: Wierzchoń, 2004). Etap I - uczenie się ciągów liter zgodnych z pewną regułą gramatyczną. Etap II - testowanie wiedzy niejawnej (ukrytej) w teście klasyfikacji ciągów, wymagającym różnicowania ciągów gramatycznych i niegramatycznych. Etap III - test wiedzy jawnej, badający znajomość reguł klasyfikacji. Przedruk za zgodą autora. Według Cleeremansa (1997a) wiedza jest niejawna, kiedy wpływa na przetwarzanie informacji bez uświadomienia jej właściwości. Mimo braku uświadomienia, wiedza niejawna ma swoją reprezentację w pamięci trwałej, przez co może być z niej wydobywana i wykorzystywana. Oznacza to, że niekiedy możemy wykonywać pewne zadania, choć nie mamy jawnego dostępu do wiedzy, która nam to umożliwia. W skrajnym wypadku nie wiemy nawet, że danego typu wiedza jest w ogóle potrzebna do wykonania jakiegoś zadania. Przykładowo, większość ludzi znakomicie wykrywa oszustów, łamiących tzw. regułę kontraktu społecznego, głoszącą, że odnoszenie korzyści z życia w grupie zawsze wymaga poniesienia pewnych kosztów (Cosmides, 1989; zob. rozdz. 10.6.3, ramka 10.1). Jednak użytkownicy tej reguły rzadko zdają sobie sprawę z tego, że stosują wówczas wyrafinowane metody wnioskowania dedukcyjnego. Przykładem działania wiedzy niejawnej jest też kompetencja językowa. Mówiąc i pisząc, używamy skomplikowanych reguł syntaktyczych, o których w większoś­ ci nie mamy pojęcia. Potrafimy też odróżnić poprawne wyrażenia językowe od niepoprawnych, choć podstawa rozróżnienia nie jest nam znana. Nieco inne rozumienie wiedzy ukrytej - dosłownie „milczącej” - prezentują Wagner i Sternberg (1985; Sternberg, Wagner, Okagaki, 1993; Sternberg i in., 144 Rozdział 4. W iedza 2000; Wagner, 1987, 2000). Autorzy, rozwijając koncepcję wiedzy ukrytej, traktują ją jako składnik inteligencji praktycznej. Wiedza ukryta to taka, która nie jest bezpośrednio wyrażana, a jej nabywanie odbywa się dzięki indywi­ dualnemu doświadczeniu jednostki. Wiedza ukryta charakteryzuje się trzema właściwościami: jest nabywana samodzielnie, ma charakter proceduralny i jest stosowana w praktyce (Sternberg i in., 2000). To rozumienie wiedzy ukrytej zostało skontrastowane z wiedzą jawną, nabywaną bezpośrednio, najczęściej w trakcie nauki szkolnej, uniwersyteckiej lub kursów zawodowych. Wiedza ukryta związana jest ze zdolnościami praktycznymi do uczenia się na podstawie doświadczenia i stosowania uprzednio nabytej wiedzy w dążeniu do osiągnięcia celów osobistych. Jako że wiedza proceduralna ma postać złożonych, koniunkcyjnie zdefiniowanych warunków aplikacji reguł dążenia do tychże celów, autorzy przyjmują, znaną z innych koncepcji, formę reprezentacji wiedzy ukrytej w postaci reguł typu: „warunek-działanie” (jeśli spełniony jest waru­ nek A, podejmij działania X). Nie są to jednak reguły abstrakcyjne. Wiedza ukryta, i to jest unikalne w koncepcji Sternberga i współpracowników, jest konkretna i specyficzna dla kontekstu (context-specific). Dotyczy skutecznych sposobów działania w specyficznej sytuacji albo w dość wąskiej klasie sytuacji. Kontekstem dla wiedzy ukrytej może być doświadczenie życiowe jednostki, ale również środowisko pracy, co szczególnie interesowało tych badaczy. Wiedza ukryta, szczególnie jeśli jest rozległa i głęboka, jest również plastyczna, dzięki wielości zawartych w niej procedur ściśle dopasowanych do różnych sytuacji. Rozległa wiedza ukryta pozwala również na kombinowanie znanych procedur, co umożliwia bardziej elastyczną adaptację do nowych sytuacji. Podstawą odróżnienia wiedzy jawnej od niejawnej jest zazwyczaj niepełne uświadomienie zawartości tej drugiej. Wiedza jawna jest dostępna i świadoma, podczas gdy niejawna pozostaje niedostępna świadomości, chociaż ma wpływ na różne procesy przetwarzania informacji. W literaturze brak jednak zgody co do definicji i typologii świadomości, a także co do tego, jak bardzo wiedza niejawna jest niedostępna świadomości. Wydaje się, że w niektórych przy­ padkach wiedza niejawna może być łatwo uświadamialna, np. wtedy, gdy ktoś zapytany o sposoby radzenia sobie z korkami w ruchu ulicznym formułuje konkretne zalecenia. Zadane pytanie stymuluje procesy werbalizacji, a przez to prowadzi do uświadomienia sobie wiedzy, która do tej pory była latentna. W innych przypadkach, np. w odniesieniu do kompetencji językowych, nawet zadane wprost pytanie o wykorzystaną regułę niewiele daje. Wszyscy wiemy, że w języku polskim mówi się „jedno piwo”, „dwa piwa”, ale „pięć piw”. Czy to znaczy, że potrafimy sformułować regułę rządzącą tworzeniem liczby mnogiej pewnej klasy rzeczowników? Większość z nas tego nie potrafi, przez co wiedzę na ten temat trzeba uznać za trudno dostępną świadomości. W związku z tymi problemami, niekiedy zamiast terminu „świadomość” używa się terminów „dostępność” czy - całkiem już operacyjnie - „możliwość werbalizacji”. Poza tym wiedza jawna nie zawsze jest w pełni dostępna świadomości, czego do­ wodem są trudności w aktualizacji wiedzy podczas egzaminu. Wydaje się więc, że kryterium świadomości lub jej braku nie jest najlepszą podstawą definio­ wania wiedzy niejawnej. Inny problem to relacje między podziałem na wiedzę jawną i niejawną a wcześniej omówionym podziałem na wiedzę deklaratywną i proceduralną (nie- 4.1. Rodzaje wiedzy 145 deklaratywną). Niektórzy badacze przyjmują, że wiedza jawna jest tym samym co deklaratywna, a wiedza niejawna - tym samym co niedeklaratywna (np. Squire, 1986). Berry i Dienes (1993) dowodzą jednak, że wiedza niejawna jest „mieszan­ ką” wiedzy deklaratywnej i proceduralnej, a jej cechą wyróżniającą jest spe­ cyficzny transfer, którego dokonujemy - również w sposób niejawny - na nowe sytuacje. Transfer ten dotyczy abstrakcyjnych reguł czy abstrakcyjnej struktury zadania (wiedza deklaratywna), ale wymaga zastosowania jakiejś formy wnioskowania (wiedza proceduralna). Jeśli nawet tak jest, transfer ten odbywa się tylko w ramach zadań izomorficznych, czyli identycznych pod względem struktury formalnej, ale wyrażonych w różnej postaci. Davies (1989) twierdzi wręcz, że wiedza niejawna może być w pewnym sensie izolowana, tj. nie wchodzi w związki z wiedzą już posiadaną albo nabywaną później. Dzieje się tak głównie dlatego, że nie można jej użyć w procesie wnioskowania, czyli wyprowadzania nowej wiedzy z uprzednio nabytej. Zakres użycia wiedzy niejawnej jest więc ograniczony do konkretnej sytuacji i nie ma mowy o transferze takim, jak np. w rozumowaniu przez analogię, który wymaga całkiem jawnej refleksji. Z kolei Grigorenko i Strenberg (2001) uważają, że w przeciwieństwie do specjalistycznej wiedzy zawodowej, która zawiera wiedzę deklaratywną i proceduralną, wiedza ukryta ma charakter wyłącznie proceduralny. Zdaniem Rebera (1989), podstawowym sposobem nabywania wiedzy nie­ jawnej jest mimowolne uczenie się, czyli takie, które nie stanowi odpowiedzi na polecenie ani nie wynika z samodzielnie powziętej intencji (paradygmaty 4.1 i 4.2). Pozwala ono na nabywanie wiedzy niejawnej, która jest abstrakcyjna i reprezentatywna dla struktury stymulacji w otoczeniu. Uczenie się mimo­ wolne pozwala więc na budowanie, dzięki procesowi indukcji, głębokiej re­ prezentacji wiedzy, uwzględniającej abstrakcyjne relacje między elementami środowiska. Proces ten odbywa się bez udziału świadomych strategii uczenia się i bez zamiaru nabycia wiedzy, a ponadto jest bezwysiłkowy. Przyswojona w ten sposób wiedza niejawna może być użyta, również bez zdawania sobie z tego sprawy, w procesie rozwiązywania problemów i podejmowaniu decyzji w sytuacjach mniej lub bardziej podobnych do sytuacji, w której nastąpiło uczenie się. Chodzi oczywiście o przypadki, gdy reprezentacja nowej sytuacji „pasuje” strukturalnie do nabytej wcześniej wiedzy. Podkreślając rolę mimo­ wolnego uczenia się w nabywaniu wiedzy niejawnej, Reber nie zgadza się ze stanowiskiem natywistycznym (np. Chomsky, 1980; Fodor, 1975, 1983; Gleitman, Wanner, 1982), wedle którego wiedza niejawna jest wrodzona. Natywiści skłonni byli przyjmować, że skoro nie da się przekonująco wyjaśnić, w jaki sposób nabywana jest wiedza złożona i abstrakcyjna, a zarazem niejawna, to trzeba przyjąć, że w jakiś sposób była już wcześniej obecna w umyśle. | Paradygmat 4.2 Sposoby badania mimowolnego uczenia się Uczenie się sztucznej gramatyki to najpopularniejszy paradygmat badań nad mi­ mowolnym uczeniem się i nabywaniem wiedzy niejawnej. Oprócz tego wypraco­ wano dwa inne paradygmaty. Pierwszy wymaga wyuczenia się sekwencji zdarzeń, I a drugi - kontroli systemów dynamicznych. 146 Rozdział 4. W iedza Uczenie się sekwencji (sequence learning; Nissen, Bullemer, 1987) polega na reagowaniu na serię bodźców, które pojawiają się na ekranie zgodnie z ukrytą sekwencją, określającą reguły następstwa bodźców w serii. Na przykład ekran monitora dzieli się na cztery części, a następnie w jednym z czterech pól pokazuje się dowolną figurę. Po chwili figura znika, aby za chwilę pojawić się w innym okienku. Osoba badana ma jak najszybciej dotknąć pola, na którym właśnie pojawiła się figura. Przeciętne badanie wymaga wykonania od 1000 do 2000 reakcji. Wyniki eksperymentów przeprowadzonych z wykorzystaniem tej procedury wskazują na systematyczne skracanie czasu reakcji w kolejnych próbach. Nie można tego wyjaśnić jedynie nabywaniem wprawy motorycznej, ponieważ gdy ukryta reguła określająca sekwencję pojawiarga się ciągów zostaje nieoczekiwanie zmieniona, czasy reakcji istotnie się wydłużają. Ponadto wykonanie tego zadania wydaje się niezależne od poziomu werbalizacji wiedzy o ukrytej regule. Willingham, Nissen i Bullemer (1989) podzielili osoby wykonujące zadanie uczenia się sekwencji na dwie grupy. Pierwsza grupa była w stanie opisać nie więcej niż trzy kolejne elementy sekwencji, a druga potrafiła zwerbalizować wszystkie zasady, według których skonstruowano sekwencję zdarzeń. Okazało się, że obydwie grupy nie różniły się szybkością i poprawnością reagowania na bodźce zgodne z regułą, co wydaje się wskazywać na możliwość wykonywania zadania niezależnie od stopnia uświadomienia wiedzy o regule. Kontrola systemów dynamicznych (dynamie system task] Berry, Broadbent, 1984) polega na osiągnięciu i utrzymaniu określonego stanu złożonego systemu poprzez manipulację zmiennymi. Systemem może być np. cukrownia lub inny zakład produkcyjny, którego funkcjonowanie symuluje program komputerowy. Osoba badana ma zarządzać cukrownią, używając dostępnych jej narzędzi, takich jak poziom zatrudnienia i płac, planowanie produkcji itd. Przypomina to nieco symulacyjną grę komputerową. System „zachowuje się” według niezmiennego algorytmu, który jednak nie jest znany osobom badanym. Otrzymują one natomiast informację zwrotną na temat aktualnego stanu systemu. Nawet jeśli chwilowo nic nie robią, system - podobnie jak w rzeczywistości - podlega dynamicznym zmia­ nom. Dzięki korzystaniu z informacji zwrotnej, osoby badane uczą się bardziej efektywnej kontroli systemu, systematycznie poprawiając poziom wykonania zadania. Nie są jednak w stanie zwerbalizować reguł działania systemu. Co więcej, podobnie jak w zadaniu wymagającym uczenia się sekwencji, wykonanie zadania nie koreluje z dostępnością jawnej wiedzy na temat reguł rządzących systemem. Stanley i współpracownicy (1989) zaproponowali pomysłowy sposób oszacowania charakteru wiedzy nabywanej w tego typu zadaniach. Po wykona­ niu zadania osoby badane poproszone zostały o wyjaśnienie komuś innemu, w jaki sposób należy kontrolować system, aby osiągnąć satysfakcjonujące rezulta­ ty. Badacze stwierdzili istotną różnicę w czasie, jaki jest potrzeby do nabycia wiedzy niejawnej pozwalającej efektywnie kontrolować system, a czasem nie­ zbędnym do uzyskania wiedzy jawnej, podlegającej werbalizacji. Efektywne wy­ konanie zadania znacznie wyprzedza możliwość skutecznego instruowania innych. Jednak wskazówki utworzone na podstawie prób takiego instruowania pozwoliły osobom poinstruowanym szybciej osiągnąć optymalny poziom wy­ konania zadania. 4.1. Rodzaje w iedzy 147 W przeciwieństwie do Rebera (1989), inni autorzy uważają, że wiedza niejawna nie ma charakteru abstrakcyjnego, lecz zawiera konkretne egzempla­ rze lub przypadki (Brooks, Vokey, 1991; Vokey, Brooks, 1992) albo konkretne fragmenty informacji (Perruchet, Pacteau, 1990), zapamiętane w trakcie mimo­ wolnego uczenia się. Użycie tej wiedzy w nowym kontekście odbywa się dzięki stwierdzeniu podobieństwa obu sytuacji. Proces ten wymaga również abstrakcji, ale nie w momencie kodowania informacji, tylko jej wydobywania. Interesujące wydaje się także stanowisko pośrednie, dopuszczające współistnienie różnych mechanizmów nabywania wiedzy niejawnej (Berry, Dienes, 1993; Meulemans, Van der Lindern, 1997). Okazało się, że modele obliczeniowe mimowolnego uczenia się, zawierające elementy koncepcji abstrakcyjnych i egzemplarzowych, wykazują najlepsze dopasowanie do danych empirycznych (por. Cleeremans, 1993). Problem ten jest jednak nadal przedmiotem ożywionej debaty. W wątpliwość poddaje się również brak możliwości świadomego dostępu do wiedzy niejawnej (Perruchet, Pacteau, 1990; Shanks, St. Jones, 1994; przegląd w: Berry, 1996/2004). Początkowo taki pogląd głosił sam Reber, szybko się jednak z niego wycofał. Okazało się bowiem, że człowiek jest w stanie częściowo werbalizować wiedzę niejawną. Zwolennicy egzemplarzowej reprezentacji wie­ dzy niejawnej twierdzą, że w zasadzie mimowolne uczenie się jest w pełni świadome. Polega bowiem na przyswajaniu konkretnych egzemplarzy czyli frag­ mentów wiedzy, które mogą być zwerbalizowane, a zatem cały proces uczenia się musi być uznany za świadomy (Berry, Dienes, 1993). Wydaje się, że przyjęcie tego poglądu oznaczałoby konieczność wyeliminowania podziału wiedzy na jawną i niejawną. Autorzy o bardziej umiarkowanych poglądach przyjmują, że są przekonywające dowody na to, iż wiedza niejawna jest potencjalnie dostępna jawnemu wydobywaniu, choć nie zawsze do tego dochodzi (por. Underwood, Bright, 1996). Możliwość jawnego wydobycia wiedzy niejawnej występuje bo­ wiem tylko wtedy, gdy poziom tej wiedzy jest dość wysold. Innymi słowy, już niezbyt obszerna wiedza niejawna, nabyta np. w ciągu krótkiego eksperymentu laboratoryjnego, poprawia poziom wykonania zadań poznawczych, ale żeby doszło do uświadomienia tej wiedzy, potrzebny byłby długotrwały trening. W badaniach nad mimowolnym uczeniem się uczestnicy nabywają wiedzy, która pozwala na wykonanie zadań w niewielkim tylko stopniu przekraczają­ cych poziom przypadku. Wiedza niejawna nie jest w takim razie w pełni adekwatną i kompletną reprezentacją struktury otoczenia. Jeśli więc dzięki werbalizacji wiedza niejawna przekształca się w wiedzę jawną, musi być co najmniej tak samo niekompletna i nieadekwatna. Wyjątek stanowi wiedza nabywana w trakcie długotrwałego uczenia się mimowolnego (np. Mathews i in., 1989), jak w przypadku języka ojczystego. Jednak i wtedy możliwość jej werbalizacji - jeśli uczenie się nie zostało poparte jawnym nabywaniem reguł języka - jest ograniczona. Dlatego też niektórzy badacze nie opowiadają się za którąkolwiek ze stron sporu o (nie)świadomy charakter wiedzy niejawnej, twierdząc jedynie, że świadomość nie jest niezbędna do jej nabywania i wyko­ rzystania (Sternberg i in., 2000). Pojawiły się nawet dowody, że próba przejęcia świadomej kontroli nad wiedzą niejawną prowadzi do pogorszenia poziomu wykonania zadań, które jej wymagają (Reber, 1976; Reber i in., 1980). Co więcej, transfer pomiędzy wiedzą niejawną i jawną może również odbywać się w przeciwnym kierunku. Mianowicie pewne elementy wiedzy jawnej, szczegół- 148 Rozdział 4. W iedza nie epizodycznej, np. traumatyczne wydarzenia życiowe, mogą ulec „ukryciu”. Chodzi o zjawisko utraty dostępu do wyselekcjonowanych zapisów pamięcio­ wych. Świadomość dostępu jest zatem tylko przybliżoną i raczej typową niż generalną właściwością różnicującą wiedzę jawną od wiedzy niejawnej. Trzeba też zdawać sobie sprawę z tego, że świadomość lub jej brak może dotyczyć różnych aspektów mimowolnego uczenia się. Możemy być nieświado­ mi ani tego, że w ogóle czegoś się uczymy, ani tego, czego się nauczyliśmy. Tak przypuszczalnie przebiega, proces nabywania pierwszego języka. Możemy być świadomi faktu, że się uczymy, ale nieświadomi skutków i efektów uczenia się. W szczególności nie potrafimy zwerbalizować reguł rządzących opanowywanym przez nas materiałem. Tak przebiega proces uczenia się sprawności motorycznych, np. jazdy na nartach lub na rowerze. Możemy być również świa­ domi i tego, że się uczymy, i tego, czego się nauczyliśmy - ale dopiero w wyniku procesu wtórnego, który polega na transformacji wiedzy niejawnej w jawną. Natomiast wiedza od początku jawna jest nabywana w procesie intencjonal­ nego, zamierzonego uczenia się z zachowaniem od samego początku świa­ domości skutków uczenia się, a zwłaszcza znajomości abstrakcyjnych reguł. Ale nawet w takim wypadku nie jesteśmy świadomi poznawczego mechanizmu nabywania wprawy lub poszerzania zakresu wiedzy. Ten mechanizm jest zawsze ukryty, a jego odkrywanie jest zadaniem psychologów, a nie podmiotu uczącego się. Zgodnie z proponowaną przez nas definicją, wiedza niejawna to taka, która nie jest całkowicie dostępna świadomości, choć może być dostępna w niektórych fragmentach, a ponadto może być wtórnie uświadomiona w wyniku określonych zabiegów (np. werbalizacji). Tak rozumiana wiedza niejawna zazwyczaj jest wynikiem procesu mimowolnego uczenia się, choć w niektórych przypadkach tworzy się w wyniku uczenia się intencjonalnego i zamierzonego. 4.2. Organizacja wiedzy Problem organizacji wiedzy nierozerwalnie wiąże się z organizacją pamięci. Z tego względu w późniejszych rozdziałach będziemy nawiązywać do niektórych koncepcji organizacji wiedzy opisanych poniżej. Omówione teorie dotyczą różnych rodzajów wiedzy albo różnych jej aspektów. Pierwsza grupa teorii reprezentacji wiedzy za pomocą cech - dotyczy składników wiedzy semantycz­ nej, a więc najmniejszych jej jednostek, najczęściej pojęć. Kolejna grupa dotyczy relacji semantycznych między elementami, które wyrażają się głównie w postaci sądów. Trzecia grupa teorii dotyczy wiedzy proceduralnej. Ostatnia jest próbą pogodzenia wszystkich trzech ujęć, łączy bowiem wiedzę deklaratywną (ściślej: semantyczną) i proceduralną w jednym modelu. 4 .2 .1 . Reprezentacja w iedzy za pomocą cech Podstawowym pojęciem omawianej poniżej grupy teorii reprezentacji wiedzy jest pojęcie qechy (feature), Cecha jest symbolicznym i dyskretnym (tj. nie­ ciągłym, nieanalogoWym) elementem umysłowej reprezentacji wiedzy o wy­ raźnie określonych granicach. Rzeczywistość jest reprezentowana w postaci 4.2. Organizacja w iedzy 149 zestawu cech oraz relacji, które między nimi zachodzą. Zarówno cechy, jak i relacje muszą działać jednocześnie, aby powstało znaczenie. Przykładowo znaczenie, jakie przypisujemy ulicznej sygnalizacji świetlnej, wynika z integracji cech: kształtu sygnalizatora i koloru światła oraz - prawdopodobnie - pewnych cech kontekstu. Właściwe znaczenie informacji pojawia się dopiero, kiedy te cechy są w odpowiedniej relacji względem siebie. Inne relacje między cechami bądź brak którejkolwiek z cech nie tworzą żadnego znaczenia albo tworzą zupełnie inne. Na przykład nie zatrzymujemy się, kiedy w książce zobaczymy zdjęcie sygnalizatora z zapalonym światłem czerwonym. W koncepcji Evy Clark (1979), ograniczonej do pojęć języka, na znaczenie składa się zestaw cech definiujących słowo. Na przykład pojęcie „człowiek” mogłoby składać się z reprezentacji cech [+zwierzę, +dwunożny, +inteligentny], gdzie „ + ” oznacza występowanie pewnej cechy. Gdyby dodać jeszcze właściwość [-włosy], gdzie oznacza brak cechy, wówczas powstaje repre­ zentacja pojęcia „łysy”. Cechy w tym modelu są niezależne - obecność jednej nie wymaga obecności innej. Niezależność cech nie wyklucza jednak korelacji między nimi. Dlatego pewne obiekty będą uznawane za bardziej typowe (częs­ tsze współwystępowanie cech dystynktywnych), a inne za raczej nietypowe. Clark (1979) założyła, że definiowanie znaczenia stów wymaga uformowa­ nia zbioru cech unikalnych dla konkretnego pojęcia. Autorka zaproponowała tzw. mechanizm nawarstwiania się cech, który tłumaczyłby to zjawisko. Na­ warstwianie się cech polega na uzupełnianiu cech pierwotnych (primitive) cechami dodatkowymi - bardziej szczegółowymi. Te ostatnie byłyby nadbudo­ wywane (stąd pojęcie nawarstwiania) na cechach pierwotnych - bardziej podstawowych w danej klasie obiektów. Clark zaproponowała hipotezę cechy semantycznej (semantic feature), wyjaśniającą mechanizm nawarstwiania się cech. Cechy te pochodzą z zestawu cech pierwotnych i są łączone w znaczenia w taki sposób, aby było ono zgodne z przyjętym użyciem słowa oraz aby dwa różne słowa nie miały identycznego znaczenia. W pierwszym przypadku chodzi o utworzenie reprezentacji werbalnej zgodnej z definicją słowa, a w drugim o rozróżnialność znaczeń słów, jeśli odpowiadają innym obiektom (tzw. zasada kontrastu według Clark). Przykładowo, jeśli pojęcie „człowiek” zdefiniowane byłoby jako [+ zwierzę, +dwie nogi], zasada kontrastu blokuje możliwość umieszczenia w strukturze wiedzy np. szympansa czy strusia pod tą samą nazwą. Aby tego uniknąć, najczęściej znaczenia słów wymagają uzupełnienia o dodatkowe cechy. Inni badacze skoncentrowali się z kolei na wyjaśnieniu przebiegu procesu porównywania znaczeń słów. Smith i współpracownicy (1974) wyróżnili dwa rodzaje cech w reprezentacji znaczenia: rdzenne (core) i charakterystyczne. Cechy rdzenne to takie, które składają się na „tożsamość” obiektu; można powiedzieć, że są to cechy definicyjne. Natomiast cechy charakterystyczne są zaledwie typowe dla obiektu. Autorzy zaproponowali model dwufazowego porównywania cech. Pierwsza, wczesna faza polega na porównaniu zarówno cech rdzennych, jak i charakterystycznych. Jeśli obiekty są bardzo podobne albo bardzo niepodobne, to efekt porównania jest szybki i - odpowiednio - pozy­ tywny albo negatywny. Jeśli jednak obiekty nie są ani bardzo podobne, ani bardzo różne, porównywanie przechodzi do drugiej fazy, w której porównywane są wyłącznie cechy rdzenne. Jeśli stwierdzone zostanie ich podobieństwo, to 150 Rozdział 4. W iedza następuje reakcja pozytywna, która jednak wymaga więcej czasu, jest bowiem efektem udziału obu faz. W przeciwnym razie, czyli jeśli cechy rdzenne okażą się różne dla porównywanych obiektów, emitowana jest reakcja negatywna, również stosunkowo powolna. Amos Tversky (1977) w odmienny sposób wyjaśniał proces porównywania znaczeń słów. Autor zaproponował mechanizm, który nie wymaga dodatkowego założenia o różnych typach cech, jak u Smitha i współpracowników. Mechanizm ten polega na porównaniu zbioru cech definiujących pojęcie zgodnie z poniższą formalizacją: s(fl, 6) = Of (A n JB) - a f ( A - B ) - pf (B - A ) , gdzie s(a, b) to podobieństwo znaczeń słów a i b; A i B - zestaw cech reprezentujący a i 6; f(X) - funkcja wagi cechy w zbiorze; O, a i p - stałe wagi zestawu. Podobieństwo jest tym większe, im więcej para znaczeń posiada cech wspólnych (A n B) i im mniej dystynktywnych ( A - B \ B - A ) . Tversky stwierdził pozytywną korelację oceny stopnia podobieństwa par znaczeń z liczbą cech wspólnych, zakładanych w modelach reprezentacji za pomocą cech, i korelację negatywną z liczbą cech różnicujących je. Model Tversky’ego dobrze tłumaczy pewne psychologiczne prawidłowości relacji podobieństwa, np. brak symetryczności i przechodniości. Relacja podobieństwa jest niesymetryczna, bo z faktu, że a jest podobne do b, nie wynika, że b jest podobne do a. Na przykład, często dostrzegamy podobieństwo dziecka do rodzica, ale rzadziej - podobieństwo rodzica do dziecka. W tym przypadku waga cech dystynktywnych dla rodzica przewyższa wagę cech wspólnych i dystynktywnych dla dziecka. Na tej samej zasadzie możemy powiedzieć, że Kazachstan jest podobny do Rosji, ale Rosja nie jest podobna do Kazachstanu. Ponadto relacja podobieństwa jest nieprzechodnia, bo z faktu, że a jest podobne do b, zaś b jest podobne do c, nie wynika, że a jest podobne do c. Na przykład Jaś jest podobny do Rysia (ze względu na kształt podbródka), Ryś jest podobny do Stasia (ze względu na kolor oczu), ale nie ma żadnego podobieństwa między Jasiem a Stasiem. Brak symetrii i przechodniości sprawia, że relacja podobieństwa wyróżnia się spośród większości relacji, takich jak wyższy/niższy, głupszy/mądrzejszy itd. Model Tversky’ego dobrze też wyjaśnia zależność oceny podobieństwa od kontekstu. Na przykład z trzech krajów: Rosja, Kazachstan i Uzbekistan, podobne wydają się Kazachstan i Uzbekistan, natomiast wśród krajów: Rosja, Kazachstan, Japonia, podobne wydają się Rosja i Kazachstan. W zależności od kontekstu zmieniają się wagi cech wspólnych i dystynktywnych, przez co obiekty wydają się mniej lub bardziej podobne. Analogiczne efekty uzyskano w odniesieniu do materiału niewerbalnego (zob. ryc. 4.3). Modele reprezentacji za pomocą cech mają jednak pewne ograniczenia. Po pierwsze, przyjmują założenie o niezależności cech i definiowanych przez nie obiektów. Jedyne relacje między obiektami, przewidywane przez te modele, wynikają z podobieństwa cech obiektów. Powszechnie jednak wiadomo, że wiedza ma pewną strukturę, opartą na niekiedy dość złożonych relacjach, których nie da się sprowadzić do podobieństwa. Po drugie, właściwie do dziś nie ma takiego modelu, który w sposób wiarygodny precyzowałby listę cech składających się na reprezentacje werbalne. Wiadomo dość dużo o fizycznych cechach stymulacji, podlegających integracji w procesie percepcji wzrokowej 4.2. Organizacja wiedzy [ I | 12% 8% 151 80% Ryc. 4.3. Zależność oceny podobieństwa od kontekstu (za: Tversky, 1977). W zestawie pierwszym twarze b i c są oceniane jako mniej więcej tak samo podobne do twarzy wzorcowej (u góry). W zestawie drugim te same twarze są oceniane inaczej (80% wskazań na twarz c), o czym zadecydował kontekst - dodanie nowej twarzy q. (zob. rozdz. 5.2.2), niewiele natomiast wiadomo w odniesieniu do pojęć języka. Clark podjęła próbę stworzenia listy podstawowych cech pojęć języka, jednak należy ją uznać za raczej niekompletną (por. Markman, 2002). 4.2.2. Organizacja w iedzy semantycznej i i j ; I Termin pamięć semantyczna pochodzi podobno od Quilliana (1966; za: Najder, 1992). W postać dojrzałej koncepcji, uzupełnionej o inne rodzaje pamięci, został jednak rozwinięty przez Endela Tulvinga (1972). Pojęcie pamięci semantycznej w rozumieniu Tulvinga oznacza „umysłowy słownik”: zorganizowaną wiedzę o symbolach werbalnych (głównie języka naturalnego), ich znaczeniu i odniesieniach, o relacjach między nimi oraz o regułach, formułach i algorytmach ma­ nipulacji tymi symbolami, pojęciami i relacjami. Innymi słowy, zawartość pamięci semantycznej stanowi wiedza o znaczeniach symboli i relacjach między nimi. Pamięć semantyczna, w przeciwieństwie do pamięci epizodycznej, to zapis 152 Rozdział 4. W iedza wiedzy ogólnej „wyrwanej z autobiograficznego kontekstu” (por. Najder, 1992). Poszczególne koncepcje pamięci semantycznej ograniczyły się wyłącznie do opisu struktury wiedzy wyrażonej w języku naturalnym, pomijając wiedzę, któ­ rej symbolami nie są słowa. W ramach teorii wiedzy semantycznej przyjmuje się, że kodowaniu pod­ lega treść pojęć języka, czyli ich struktura głęboka, a nie struktura powierz­ chniowa, czyli forma informacji werbalnej. Z kolei dekodowanie informacji werbalnej polega na ponownym nałożeniu struktury powierzchniowej na ową treść. Wiedza semantyczna jest zorganizowana na kilku poziomach odpowia­ dających strukturze języka. Wyróżnia się poziom pojęć, sądów oraz ich ukła­ dów. W tym podrozdziale zajmiemy się teoriami dotyczącymi głównie poziomu sądów, w których wyrażają się relacje między pojęciami. W ich prezentacji na­ cisk położony zostanie na strukturę wiedzy. Procesami pamięciowymi, stano­ wiącymi procesualne podłoże nabywania i korzystania z wiedzy, zajmiemy się szerzej w rozdz. 9. Collins i Quillian (1969) zaproponowali koncepcję struktury wiedzy semantycznej opartej na dwóch jej właściwościach: budowie sieciowej i hierarchiczności. Wiedza zawarta w pamięci semantycznej ma postać sieci, w której węzłom odpowiadają pojęcia, a połączeniom między nimi - ich wzajemne relacje. Sieć jest zorganizowana hierarchicznie, co oznacza, że pojęcia bardziej ogólne znajdują się wyżej w hierarchii, przy czym odległość pojęć w sieci związana jest ściśle z podobieństwem ich znaczenia (zob. ryc. 4.4). Pojęcia o wyższym stopniu podobieństwa są reprezentowane przez węzły znajdujące się blisko w sieci i związane są pewną relacją (chociaż nie zawsze bezpośrednio, jak np. „zwierzę” i „kanarek”); pojęcia zupełnie różne od siebie będą reprezento­ wane przez odległe i niepowiązane ze sobą węzły. Pojedyncze relacje między pojęciami mają charakter binarny, czyli łączą tylko dwa węzły. Zdanie: „łosoś i rekin mają skrzela”, odnoszące się do trzech węzłów sieci, można rozbić na dwa prostsze zdania: „łosoś ma skrzela” i „rekin ma skrzela”. W podstawowej wersji model zakłada dwa rodzaje relacji między pojęciami. Pierwszy to relacja przynależności do klasy, np. łosoś jest rybą. Tego typu relacje obejmują pojęcia z dwóch różnych poziomów hierarchii sieci se­ mantycznej. Drugi to relacja predykatywna, czyli pełniąca funkcję orzeczenia. Relacja predykatywna zawiera wiedzę o właściwościach obiektu, np. „łosoś jest drapieżnikiem” albo „struś chowa głowę w piasek”. Tego typu relacje kodowane są w sieci na tym samym poziomie ogólności, na którym w hierarchii znajduje się dany obiekt. W teorii sieci wiedza reprezentowana jest w sposób najprostszy, a zarazem najbardziej ekonomiczny. Założenie o ekonomii poznania (zob. rozdz. 1.1.1) zostało w modelu sieci semantycznej wyrażone w postaci lduczowego twier­ dzenia, że relacje predykatywne kodowane są w sieci na możliwie najwyższym poziomie ogólności. Przykładowo, skoro każde zwierzę ujęte w przedstawionym fragmencie sieci semantycżnej oddycha, to właściwość ta może zostać zako­ dowana jako predykat wszystkich zwierząt. Co więcej, niekiedy ekonomiczne jest wprowadzenie do sieci pewnej niespójności. Na przykład właściwością ptaków jest to, że potrafią latać (zob. ryc. 4.4), co jak wiemy, nie zawsze jest prawdą, chociaż zdecydowana większość ptaków umiejętność tę posiada. Jeśli jednak jakiś ptak nie lata, to wystarczy przypisać mu właśnie taką właściwość. 4.2. O rganizacja w iedzy 153 jest pokryty skórą aby ztożyć ikrę Ryc. 4.4. Fragment sieci semantycznej wg Collinsa i Quilliana (1969). Ponieważ analizę pojęć zawartych w naszej sieci semantycznej zaczynamy od węzła, który nas interesuje, np. pojęcia „struś”, to od razu natrafiamy na właściwość „nie lata”. Pojęcie „kanarek” bezpośrednio nie posiada predykatu odnoszącego się do umiejętności latania, ale ta właściwość może być wydobyta z sieci dzięki inferencji (skoro kanarek jest ptakiem, a ptaki latają, to kanarek również posiada tę umiejętność). Badania Collinsa i Quilliana (1969) wydawały się potwierdzać tego typu organizację wiedzy (zob. rozdz. 8.3.1). Okazało się, że im większa odległość w sieci pomiędzy danym pojęciem a jakimś jego predykatem (więcej węzłów na drodze między nimi), tym dłuższy jest czas dotarcia do tej informacji. Na przykład szybciej wydobywamy informację, że kanarek śpiewa, niż tę, że ma pióra. Najdłużej trwa wydobycie informacji, że kanarek oddycha. Predykcje te potwierdzono w wielu eksperymentach. Zaprezentowany fragment sieci semantycznej umieszczony jest w większej strukturze sieci semantycznej naszej wiedzy. Jest to możliwe przede wszystkim dzięki predykatom. Przykładowo, właściwość „potrafi latać” posiadają nie tylko ptaki, a również samoloty, balony, niektóre zabawki, pyłki roślin, a nawet ludzie, tyle że w sensie metaforycznym (potocznie mówi się np. „leć do sklepu”). Podobnie jest z wieloma innymi predykatami. Badania Collinsa i Quilliana (1969) przyniosły wiele danych potwierdza­ jących model sieci hierarchicznej (zob. rozdz. 8). Szybko zgromadzono jednak dane sprzeczne z tym modelem. Okazało się, że związek między czasem dostępu do wiedzy nie jest liniową funkcją postulowanej odległości węzłów w sieci. Rips, 154 Rozdział 4. Wiedza Shoben i Smith (1973) wykryli, że stwierdzenie, iż „kot jest zwierzęciem”, jest szybsze niż to, że „kot jest ssakiem”. Z modelu sieci semantycznej wynikały dokładnie przeciwne predykcje. „Zwierzę” jest pojęciem bardziej ogólnym niż „ssak”, a więc w hierarchii wiedzy odległość pojęć „kot - ssak” jest mniejsza niż odległość pojęć „zwierzę - ssak”. Z kolei Conrad (1972) wykryła, że stwier­ dzenie, iż „kanarek jest ptakiem”, jest szybsze niż to, że „struś jest ptakiem”. Model sieci semantycznej nie przewidywał tego typu różnic, ponieważ hipote­ tyczna odległość pojęć „kanarek” i „struś” od pojęcia „ptak” jest w nim iden­ tyczna. Model Collinsa i Quilliana dopuszczał co prawda różnice indywidualne dotyczące wiedzy, ale dotyczyły one jedynie jej treści, a nie samej struktury. Innymi słowy, model dopuszczał różnice zarówno w liczbie węzłów, jak i bo­ gactwie ich predykatów, ale nie dopuszczał innej struktury niż hierarchiczna. Pod adresem modelu Collinsa i Quilliana (1969) wysunięto więcej zastrzeżeń, dotyczących nie tylko struktury wiedzy, ale również procesu jej wydobywania z pamięci. W związku z tym Collins, tym razem wraz z Elisabeth Loftus (1975), dokonali interesującej rewizji modelu. Collins i Loftus (1975) utrzymali założenie o sieciowej strukturze wiedzy, lecz osłabili założenie o jej hierarchicznej organizacji. Za podstawowy czynnik decydujący o połączeniach między elementami wiedzy uznali siłę związku skojarzeniowego, który je łączy. Dlatego bardziej typowe obiekty są szybciej identyfikowane jako należące do określonej kategorii (np. wróbel jako ptak). Również ze względu na większą siłę skojarzeniową połączenie „kot - zwierzę” może być mocniejsze niż „kot - ssak”. Jeśli za podstawowy mechanizm tworzenia struktury wiedzy uznać siłę związków skojarzeniowych, ewentualna hierarchiczność tej struktury staje się drugorzędna. Może być ona pełna, np. w grupie osób o dobrym wykształceniu biologicznym (nawiązując do przykładu sieci z ryc. 4.4), albo niepełna, jeśli wiedza w danym zakresie jest cząstkowa lub została wyabstrahowana z doświadczenia. Collins i Loftus dokonali uszczegółowienia sposobu reprezentowania pojedynczych elementów wiedzy, zapożyczając pewne elementy modelu opar­ tego na cechach (zob. rozdz. 4.2.1). Struktura wiedzy ma postać sieci, w której węzłom odpowiadają pojęcia, podczas gdy ich etykiety werbalne są reprezento­ wane w postaci odrębnej struktury, zwanej wewnętrznym leksykonem. Leksykon zorganizowany jest według fonetycznego i semantycznego podo­ bieństwa zawartych w nim nazw pojęć, które są połączone z jednym lub większą liczbą odpowiadających tym nazwom węzłów w sieci. Z kolei węzły połączone są z sobą relacjami o charakterze semantycznym. Im więcej połączeń między węzłami, tym większa siła skojarzeniowa danego związku. Większa liczba po­ łączeń jest możliwa dzięki bogatszej „liście” predykatów. Większa zgodność tych „list” w obrębie dwóch pojęć sprawia, że więcej jest między nimi połączeń, a ponadto że sposób ich łączenia może być bardzo różnorodny. Na przykład pojęcia „stół” i „krzesło” są silnie powiązane, być może dzięki sporej liście wspólnych predykatów (zob. ryc. 4.5). Ich jednoczesne wzbudzenie jest możliwe dzięki aktywacji wiedzy związanej z charakterystycznymi miejscami (jadalnia, kawiarnia, biuro projektowe), okolicznościami (śniadanie, imieniny, sprzątanie) itd. Collins i Loftus wzbogacili listę relacji, dzięki którym pojęcia i ich predykaty łączą się z sobą. Główna zmiana polegała na włączeniu, obok relacji przyna­ leżności do kategorii i relacji predykatywnej, relacji „bycia przedstawicielem 4.2. Organizacja wiedzy 155 Ryc. 4.5. Hipotetyczne predykaty pojęć „stół” i „krzesło”. Znaczna ich część może być wspólna dla obu pojęć (oprać, własne). kategorii”, np. mebel ma za egzemplarz krzesło, ptak ma za egzemplarz kanarka. Zauważmy, że jest to połączenie odwrotne względem relacji przynależności do kategorii, np. krzesło jest to mebel albo kanarek jest to ptak. Zatem - według Collinsa i Loftus - połączenia pomiędzy węzłami mogą być obustronne, ale nie­ koniecznie symetryczne: ich siła może być różna w zależności od kierunku relacji. Mówiąc obrazowo, ważniejsze wydaje się, że kanarek należy do kategorii ptaków, niż że ptak ma jako egzemplarz kanarka. Struktura wiedzy, oraz oczywiście jej zawartość, nie jest zatem w modelu Collinsa i Loftus zunifikowana, bowiem pojęcia mogą być połączone w zasadzie dowolnie. Im pojęcie jest bogatsze semantycznie, z tym większą liczbą węzłów może być połączone. Przykład sieci semantycznej w tym ujęciu przedstawia ryc. 4.6. Proces przywoływania wiedzy odbywa się dzięki mechanizmowi rozprze­ strzeniającej się aktywacji. Przywołanie jednego pojęcia powoduje, że aktywacja rozchodzi się w sieci jednocześnie w wielu kierunkach. Kierunki rozprzestrze­ niania są wyznaczone przez strukturę połączeń w sieci: aktywacja słabnie wraz z oddalaniem się od pojęcia wyjściowego, ale też zależy od liczby i siły połączeń między węzłami. Jeśli dane pojęcie ma bogatą strukturę połączeń, mechanizm rozprzestrzeniającej się aktywacji może wzbudzić wiele innych węzłów (chyba że niektóre połączenia będą aktywnie hamowane). Jeśli struktura połączeń jest uboga, liczba wzbudzonych węzłów będzie niewielka. Wielkość aktywacji podlega ograniczeniom, co oznacza, że siła wzbudzenia jest odwrotnie pro­ porcjonalna do liczby wzbudzonych węzłów. W uproszczeniu: jeśli mechanizm rozprzestrzeniającej się aktywacji wzbudzi sześć węzłów, to każdy z nich otrzyma dwa razy mniej aktywacji, niż gdyby wzbudzone zostały tylko trzy węzły. Z kolei siła połączeń wpływa na zakres rozchodzenia się pobudzenia. Jeśli połączenia są słabe, pobudzenie będzie szybko zanikać wraz z oddalaniem się od pojęcia wyjściowego. 156 Rozdział 4. W iedza Ryc. 4.6. Fragment sieci semantycznej wg Collinsa i Loftus (1975). Teoria rozprzestrzeniającej się aktywacji dobrze tłumaczy efekty, które były kłopotliwe dla teorii sieci semantycznej, w szczególności fakt, że reakcja za­ przeczenia absurdalnemu twierdzeniu typu „ptak jest cegłą” trwa bardzo krótko. Wyniki badań empirycznych z użyciem tego typu zdań okazały się „zabójcze” dla teorii sieci hierarchicznej (zob. rozdz. 8.3.1). Początkowo zakładano, że czas weryfikacji zdań fałszywych powinien być bardzo długi. Falsyfikacja wymaga­ łaby bowiem w tym wypadku poruszania się w hierarchii najprawdopodobniej aż do poziomu „materii ożywionej”, gdzie odnajdujemy predykat „jest żywy”, ewidentnie sprzeczny z właściwościami cegły. Jednak już w momencie pierwszej publikacji teorii rozprzestrzeniającej się aktywacji pojawiły się głosy krytyczne pod jej adresem (np. Woods, 1975). Krytyce poddano niedoprecyzowane charakterystyki węzłów i połączeń w sie­ ciach. Woods (1975) podkreśla, że nie ma empirycznego sposobu na oddzielenie informacji reprezentowanej w postaci węzłów i w postaci relacji. W zasadzie jest to więc założenie nieweryfikowalne, co oznacza, że nie mamy sposobu na stwierdzenie, czy rzeczywiście wiedza ma organizację sieciową, nawet w rozu­ mieniu „wirtualnym”. To poważny zarzut. Nie wiadomo także, jakie są cechy dystynktywne różnego typu relacji między węzłami w sieci. Zakłada się istnienie co najmniej kilku tego typu relacji, natomiast nie wiadomo, jaki jest swoisty dla każdej relacji mechanizm rozprzestrzeniania się aktywacji. W szczególności nie wiadomo, czy aktywacja rozprzestrzenia się tak samo w przypadku, gdy węzły 4.2. Organizacja w iedzy 157 łączą się na zasadzie przynależności kategorialnej (stół-mebel), jak i w przy­ padku, gdy łączy się ona na zasadzie skojarzenia (stół-krzesło). Inny zarzut dotyczy ograniczenia zakresu wyjaśnień formułowanych odnośnie do mecha­ nizmu rozprzestrzeniającej się aktywacji. Mechanizm ten dobrze wyjaśnia zjawiska oparte o skojarzenia, związane ze specyficzną treścią i kontekstem używanej wiedzy. Nie wyjaśnia natomiast udziału innych operacji poznawczych, takich jak rozumowanie dedukcyjne. Słabo radzi sobie również z wyjaśnieniem tego, jak korzystamy z wiedzy, np. rozwiązując złożone problemy. Dopiero połączenie sieciowych teorii organizacji wiedzy deklaratywnej i regułowych teorii wiedzy proceduralnej pozwoliło na zwiększenie trafności modeli organizacji wiedzy. Przykładem teorii ujmującej jednocześnie oba rodzaje wiedzy jest teoria ACT Andersona, opisana w podrozdz. 4.2.4. Zanim przejdziemy do jej omówienia, przedstawimy ideę systemów regułowych. 4.2.3. Organizacja w iedzy proceduralnej: system y reguł Wiedza proceduralna jest uporządkowana i przechowywana inaczej niż deklaratywna. W koncepcjach tego typu zakłada się, że jeśli człowiek opanował jakąś czynność, jego wiedza jest poznawczo reprezentowana za pomocą zestawu reguł. Reprezentacja tego typu pozwala na tworzenie procedur działania2. W związku z tym systemy wiedzy proceduralnej noszą nazwę systemów reguł lub systemów produkcji (production systems; Newell, Simon, 1972). Ze wzglę­ dów językowych od tej pory będziemy używać wyłącznie pierwszego terminu. Każda reguła składa się z warunku wyznaczającego zbiór właściwości, które muszą być spełnione, aby uruchomić daną czynność, i samej czynności, czyli zbioru produkcji. Niektóre (rzadziej wszystkie) właściwości danej sytuacji są najpierw zestawiane z warunkami używania różnych reguł. Jeśli przeprowa­ dzone w ten sposób „testy” wykażą satysfakcjonujący poziom odpowiedniości dla aplikacji jednej z nich, jest ona uruchamiana. Na przykład w trakcie jazdy na nartach sytuacja na stoku i położenie naszego ciała są zestawiane z warunkami użycia różnych reguł korekty toru jazdy i ruchów ciała. Po ustaleniu zgodności warunków zewnętrznych reguł, którymi dysponujemy, uruchomiona zostaje jedna lub więcej z nich. Reguły podlegają indeksacji, aby możliwe było ich odróżnienie ze względu na różne zestawy warunków (Simon, Kapłan, 1989). Może się jednak zdarzyć, że kilka reguł wykaże satysfakcjonującą zgodność warunków ich uruchomienia (np. jednocześnie skręt w lewo, zmiana położenia tułowia i ruch kijkami). Jeśli nie jest możliwa jednoczesna aplikacja wszystkich reguł (np. jednocześnie skręt w lewo i w prawo), wówczas struktura kontrolna (control structure) dokonuje wyboru jednej z nich. Obowiązuje wtedy tzw. zasada specyficzności reguł, 2 Zgodnie z rozwiązaniem terminologicznym przyjętym przez Andersona (1982), odróżniamy procedurę od produkcji. Anderson mówi o procedurze w skali „makro”, czyli np. kierowania samochodem, a o produkcji w skali „mikro”, czyli wszelkich składowych tej procedury (zapalanie, ruszanie, zmiana biegów, hamowanie, włączanie kierunkowskazów itd.). Procedury mają strukturę hierarchiczną, więc np. zmiana biegów składa się z bardziej elementarnych produkcji, z których część jest zawsze identyczna, jak wciśnięcie sprzęgła, a część jest różna, jak ruch lewarkiem zmiany biegów, który jest odmienny w zależności od przełożenia aktualnego i docelowego. 158 Rozdział 4. W iedza według której prymat ma reguła bardziej wyspecjalizowana. Przykładowo, ogólna reguła mówi, że jeśli posługujemy się dwoma sztućcami, to widelec należy trzymać w lewej ręce. Wyjątkiem jest np. konsumpcja spaghetti, kiedy widelec należy trzymać w ręce prawej. Dzięki wspomnianej zasadzie najpierw sprawdzane są warunki użycia reguły opisującej odstępstwa od reguły bardziej ogólnej. Regułę przedstawia się najczęściej w postaci implikacji - „jeżeli (wa­ runki)..., to (działanie)...” Na przykład „jeżeli chcę napisać na komputerze literę „A”, to muszę wcisnąć kombinację klawiszy „shift” + „a”. Ponieważ po­ czątkowo przyjmowano, że reguła ma postać algorytmu, okazywało się, że nawet tak prostej czynności odpowiada szereg elementarnych „produkcji”. Dokład­ niejszy algorytm systemu reguł dla tego przykładu zamieszczono poniżej. Zwróćmy uwagę, że reguły mogą być zagnieżdżone w innych, a te w kolejnych, aż do poziomu najbardziej elementarnego. Zauważmy również, że nawet w tak prostej czynności różne reguły połączone są systemem złożonych zależności. Przyjmijmy założenie, że jesteśmy w trakcie pisania jakiegoś tekstu (w przeciw­ nym razie wcześniej należałoby wykonać szereg innych procedur, np. sprawdzić, czy włączony jest komputer i uruchomiony edytor tekstów, które są o wiele bardziej złożone niż samo pisanie). Jeżeli chcę napisać na komputerze literę „A”, to: -> (1) sprawdzam, czy kursor jest na właściwym miejscu ekranu, jeżeli „tak”, to krok (2); jeżeli „nie”, to uruchamiam regułę „zmiany lokalizacji kursora”, a potem krok (2); -> (2) sprawdzam, czy włączony jest „Caps Lock” jeżeli „tak”, to krok (3); jeżeli nie, to uruchamiam regułę wciśnięcia klawisza „Shift” (która sama w sobie jest na tyle złożoną czynnością wykonawczą, że może posiadać osobną reprezentację regułową), a potem krok (3); -> (3) uruchamiam procedurę wciśnięcia klawisza „a”, a potem krok (4); -> (4) sprawdzam, czy na ekranie pojawiła się właściwa litera jeżeli „tak”, to kończę regułę jeżeli „nie”, to uruchamiam regułę wciśnięcia klawisza „Backspace” i wracam do punktu (2). W nowszych koncepcjach (np. Chamiak, McDermott, 1985) system reguł odwołuje się do dwóch rodzajów pamięci: proceduralnej (production memory; bardziej dosłownie: zawierającej „produkcje”) i roboczej (working memory). Pierwsza zawiera schematyczne reguły w postaci: „jeżeli (warunki)..., to (dzia­ łanie)...”. Druga natomiast zawiera reprezentację aktualnego stanu, np. rozwią­ zywanego problemu, oraz inicjuje określone procedury stanowiące wiedzę proceduralną. Korzystanie z niej jest powtarzalnym cyklem selekcji reguł z pa­ mięci proceduralnej z wykorzystaniem procedury kontrolnej, sprawdzającej, czy 4.2. Organizacja wiedzy 159 warunki jej użycia odpowiadają zawartości pamięci roboczej. Jeśli zgodność taka występuje, to reguła jest realizowana. Przyjmuje się, że w procesie korzystania z wiedzy proceduralnej może mieć udział specyficzny bufor pamięci. Zawiera on pewien zbiór reguł, które zostały użyte w trakcie realizacji bieżącego zadania. Najczęściej chodzi o procedury zastosowane już w trakcie jego wykonania. Założenie to wprowadzono, aby wyjaśnić, w jaki sposób mało pojemna pamięć robocza, zawierająca tylko bieżący stan i wykonywaną w danym momencie procedurę, chroni się przed perseweracją, czyli uporczywym stosowaniem jednej procedury, mimo że nie przyniosła ona pożądanego skutku. Jest to tzw. zasada niepowtarzalności reguł. Dzięki pamiętaniu tych epizodów użycia różnych reguł, możliwe jest również doskonalenie metawiedzy, dotyczącej - w tym wypadku - skuteczności procedur (a szczególnie jej braku) w określonych warunkach. 4.2.4. Organizacja w iedzy w modelach ACT, ACT* i ACT-R Teorię ACT3 (adaptive control of thought) zapoczątkował w latach 70. XX w. John Anderson, który ciągle ją rozwija, tworząc kolejne wersje. Anderson (1976) podjął próbę opracowania modelu pamięci, który byłby na tyle ogólny, aby pozwolił na wyjaśnianie złożonych procesów poznawczych, takich jak myślenie, posługiwanie się językiem lub podejmowanie decyzji. Model ACT wywodził się z modelu pamięci HAM (human associative memory) Andersona i Bowera (1973). Jednak Anderson rozwinął tę koncepcję, uwzględniając w niej nie tylko strukturę pamięci, ale również procesy przetwarzania informacji; miał ambicję opisania w niej całej architektury umysłu (Anderson, 1995). Model ACT był kilkakrotnie modyfikowany, a w najnowszej wersji pozwala na two­ rzenie symulacji komputerowych (ACT* - Anderson, 1983a; ACT-R-Anderson, 1991; Anderson, Lebiere, 1998). W swoim modelu Anderson uwzględnił podział Ryle’a (1949) na wiedzę „że” i wiedzę „jak”. Podział ten zaaplikował w postaci rozróżnienia pamięci deklaratywnej i proceduralnej (zob. ryc. 4.7). Podobnie jak w modelach sie­ ciowych, wiedza deklaratywna jest reprezentowana w postaci struktury węzłów i relacji między nimi. Węzły reprezentują jednostki informacji, a relacje powiązania między jednostkami. Anderson przyjął eklektyczny model repre­ zentacji informacji: wiedza w ACT* może mieć postać sądów, ale również obrazów, a nawet następstwa czasowego (np. kolejności zdarzeń, podobnie jak w teorii ram Minsky’ego; zob. rozdz. 3.3.2). Wiedza deklaratywna reprezentowana jest w postaci jednostek (chunks) informacji: struktur o charakterze schematów, złożonych z centralnego węzła (pointer) określającego kategorię, do której należy dana jednostka, i dodatko­ wych węzłów, reprezentujących jej właściwości. Rycina 4.8 obrazuje przykład kodowania faktu, że „3 + 4 = 7”. Połączenia między węzłami charakteryzują się określoną siłą związku skojarzeniowego. Aktywacja węzła może być wywołana bezpośrednio dzięki bodźcom pochodzącym ze środowiska, albo dzięki przywołaniu informacji z pa3 Wymawiamy: akt. 160 Rozdział 4. W iedza Ryc. 4.7. Model związków między pamięcią deklaratywną i proceduralną a pamięcią operacyjną w ujęciu Andersona (1983). Wiedza deklaratywna jest zapamiętywana i wydobywana za pośrednictwem pamięci operacyjnej (roboczej). Ponowne użycie wiedzy wiąże się z jej przywołaniem do pamięci operacyjnej. Wiedza proceduralna uruchamiana jest po stwierdzeniu dopasowania warunków jej wywołania do sytuacji w otoczeniu. Jej stosowanie może odbywać się automatycznie, tj. bez udziału pamięci operacyjnej. mięci bądź pośrednio - poprzez mechanizm rozprzestrzeniającego się pobu­ dzenia. Każdemu elementowi wiedzy przypisana jest pewna wartość aktywacji bazowej. Zależy ona od liczby jego uprzednich przywołań: elementy często przywoływane są bardziej aktywne; utrwalają się również częściej wykorzys­ tywane połączenia między węzłami. Aktywacja jest limitowana pojemnością pamięci roboczej i czasem: tylko niewielka część węzłów może być jednocześnie aktywna, a ponadto ich aktywność szybko zanika wraz z upływem czasu. Akty­ wacja determinuje zakres wiedzy dostępnej bieżącemu przetwarzaniu (Ander­ son, Reder, Lebiere, 1996). Zatem o charakterze bieżącego przetwarzania de­ cyduje z jednej strony struktura wiedzy deklaratywnej, a z drugiej strony spraw­ ność mechanizmu aktywacji. Pierwszy element determinuje treść przetwarzania, a drugi jego zakres. Wiedza proceduralna reprezentowana jest w postaci reguł aplikowanych w celu przetwarzania wiedzy deklaratywnej, a także w postaci informacji za­ wartych w tzw. buforach wyspecjalizowanych modułów: wzrokowego, słucho­ wego i motorycznego (Anderson, Matessa, Douglass, 1995). Anderson opisał dość dokładnie mechanizm nabywania tej wiedzy. Zajmiemy się nim bliżej w rozdz. 4.3.2. Istotne jest to, że proces ten przebiega, według Andersona, od jawnych deklaracji do niejawnych procedur. W implementacji obliczeniowej ACT-R procedury opatrzone są parametrami określającymi prawdopodobień­ stwo osiągnięcia wyznaczonego celu i czas jej wykonania. System wyposażony 4.2. Organizacja w iedzy 161 dodawanie Ryc. 4.8. Reprezentacja jednostek informacji w ACT-R (za: Anderson, 1996, s. 356). jest również w centralny mechanizm kontrolny, który zajmuje się aplikacją wiedzy proceduralnej do treści zawartych w sieci semantycznej i modułach. Przeprowadzono wiele badań poświęconych weryfikacji modelu ACT. Skupmy się na tych, które dotyczyły problemu struktury wiedzy. Empirycznie potwierdzono podstawowy dla modelu związek częstości użycia wiedzy z jej późniejszą dostępnością. Częściej przywoływana informacja jest łatwiej i szybciej dostępna, co zgadza się z hipotezą zróżnicowanej siły połączeń w sieci semantycznej (por. Anderson, 1976). ACT wyjaśnia również zjawisko interferencji, kiedy to jedna z konkurencyjnych informacji pozostaje niedo­ stępna. Wyjaśnienie tego zjawiska oparto na tzw. efekcie wachlarza (fan effect): połączenia odchodzące od każdego z węzłów sieci przypominają wachlarz, szczególnie jeśli jest ich wiele. W teorii Andersona przewiduje się, że im szerszy jest ten wachlarz, na tym więcej połączeń rozkłada się aktywacja danego węzła. Tym samym więcej czasu zajmie wzbudzenie odpowiedniej aktywacji innych węzłów. Innymi słowy, czas uzyskania progowej aktywacji węzłów sąsiadują­ cych z „X” jest tym dłuższy, im większa jest liczba relacji, w jakie „X” wchodzi. Może wówczas dochodzić do specyficznej interferencji. W warunku presji czasu wydobyte zostają tylko najsilniej wzbudzone pojęcia, dzięki silnym asocjacjom istniejącym w sieci (np. stół - krzesło). Inne natomiast nie uzyskają odpowied­ niego poziomu wzbudzenia. Pozostaną więc niedostępne. Interferencja w tym przypadku polega więc na zakłócaniu przywołania pojęć bardziej odległych od „X”, które mogą być bardziej adekwatne do zadania (np. potrzebne do wykonania testu odległych skojarzeń). Zakłócenie to wywołane jest nadmier­ nym pobudzeniem pojęć silnie związanych z „X”. Lewis i Anderson (1976) potwierdzili podstawowe predykcje modelu ACT. W swoich badaniach użyli specyficznych zadań leksykalnych (zob. tab. 4.1). W pierwszej fazie eksperymentu osobom badanym prezentowano serię zdań, przy czym większość z nich, związana z jednym obiektem (Napo- 162 Rozdział 4. W iedza Tab. 4.1. Zadanie leksykalne użyte w badaniach Lewis i Andersona (1976). Opis w tekście. Wartość podana w nawiasie obok zdań użytych w drugiej fazie eksperymentu oznacza liczbę zdań, które dotyczyły danej osoby w pierwszej fazie. Przykłady zdań fałszywych użytych w pierwszej fazie eksperymentu: George Washington napisał Przygody Tomka Sawy era. Napoleon Bonapatre pochodził z Indii. Napoleon Bonaparte był piosenkarzem. Napoleon Bonaparte był senatorem liberałów. Napoleon Bonaparte posiadał ranczo. Przykłady zdań użytych w drugiej fazie eksperymentu: Zdania prawdziwe Fidel Castro jest Kubańczykiem. (0) George Washington przeprawił się przez rzekę Delaware. (1) Napoleon Bonaparte był cesarzem. (4) Zdania fałszywe (stare) George Washington napisał Przygody Tomka Sawyera. (1) Napoleon Bonapatre pochodził z Indii. (4) Zdania fałszywe nowe Fidel Castro był politykiem z Teksasu. (0) George Washington jest pływakiem. (1) Napoleon Bonaparte był komikiem. (4) leon Bonaparte), miała wzbudzać szerszy wachlarz odpowiedniego węzła sieci. W tej fazie eksperymentu inne obiekty były wzbudzane słabiej (George Washington) albo wcale (Fidel Castro), przy czym prezentowane zdania były fałszywe. W fazie drugiej - testowej - prezentowano zdania prawdziwe albo fałszywe. Zadanie osób badanych polegało na weryfikacji prawdziwości zdań. Okazało się, że czas weryfikacji zdań związanych z danym obiektem był dłuższy w przypadku postaci, którym przypisano więcej zdań w fazie pierwszej. Fałszywe zdania pochodzące z tej fazy wywołały silniejszą interferencję, po­ wodując wydłużenie czasu dostępu do utrwalonej wiedzy semantycznej z zakre­ su historii. Problemem tym zajęli się również Reder i Ross (1983). Plan ekspery­ mentalny ich badań był podobny jak u Lewisa i Andersona, z tym że w fazie uczenia się badani otrzymywali zdania o nieznanych im postaciach. Faza testowa mogła przyjąć dwie formy. Pierwsza polegała na rozpoznaniu, czy dane zdanie było już wcześniej prezentowane. Uzyskane wówczas wyniki były zgodne z efektem wachlarza: czas reakcji wzrastał wraz z liczbą zdań o danej osobie, zaprezentowanych w fazie uczenia się. Zreplikowano więc rezultaty uzyskane przez Lewisa i Andersona. Druga forma testu polegała na ocenie, jakie jest - w świetle posiadanej wiedzy pochodzącej z wnioskowania ze zdań eksponowanych w fazie uczenia się - prawdopodobieństwo trafności innych zdań o tej osobie. Innymi słowy, dysponując pewną wiedzą o fikcyjnej osobie, należało stwierdzić, na ile tezy zawarte w zdaniach prezentowanych w teście wydają się zasadne. W tym warunku uzyskano efekt przeciwny: im więcej zdań zaprezentowano o danej postaci, tym szybsza była odpowiedź w fazie testowej. 4.3. N abywanie w iedzy 163 4.3. Nabywanie wiedzy Podobnie jak opisane wcześniej modele organizacji wiedzy są częścią modeli struktury pamięci, nabywanie wiedzy należy do szerszej klasy procesów zapa­ miętywania i uczenia się. W pierwszej kolejności dokonajmy zatem rozróżnienia pojęć kodowania informacji, zapamiętywania i uczenia się oraz pojęcia na­ bywania wiedzy. Kodowanie informacji odbywa się w każdym z hipotetycznych magazynów pamięciowych: sensorycznym (w formie reprezentacji odpowiada­ jącej specyfice informacji, np. wizualnej, akustycznej), pamięci krótkotrwałej f i długotrwałej (zob. rozdz. 8.1). W warunkach laboratoryjnych kodowanie in­ formacji bada się zazwyczaj niezależnie od wewnętrznego kontekstu posiadanej [ wiedzy. Badania nad kodowaniem informacji mają na celu przede wszystkim I odpowiedź na pytanie o formę reprezentacji kodowanej informacji. Zapamięty| wanie dotyczy z kolei pamięci krótkotrwałej i długotrwałej. W tym wypadku ■ podstawowym celem badań jest z jednej strony próba odpowiedzi na pytanie [ o organizację materiału w pamięci, a z drugiej strony - o przebieg procesów \ pamięciowych: zapamiętywania, przechowywania i odpamiętywania informacji. [ Zarówno w badaniach nad kodowaniem, jak i zapamiętywaniem badacze \ koncentrują się przede wszystkim na sformułowaniu teorii na tyle ogólnych, aby I wyjaśniały omawiane zjawiska na poziomie formalnym (forma reprezentacji: ! analogowa czy propozycjonalna należy również do formalnej charakterystyki [ stymulacji). Analiza nabywania wiedzy ogranicza się do trwałego jej reprezent towania w pamięci długotrwałej, przy czym kluczowa wydaje się jej treść, | a zwłaszcza organizowanie jej w większe struktury. i Przedstawione w rozdz. 4.2 modele organizacji wiedzy przyjmują założenie, \ że w warstwie formalnej organizacja ta jest niezależna od treści, ale zawartość [ systemu wiedzy semantycznej, jak i systemu reguł proceduralnych jest unikalna l dla jednostki. Metodą nabywania wiedzy jest oczywiście proces uczenia się, ale [ w wąskim jego rozumieniu. Specyfiką tego procesu jest odniesienie nabywanych j treści do posiadanej już wiedzy, organizowanie jej w większe struktury oraz : porządkowanie w postaci abstrakcyjnych zasad. 4.3.1. Nabywanie wiedzy semantycznej i ; | \ [ | [ [ [ j I W modelach pamięci semantycznej (Collins, Loftus, 1975; Collins, Quillian, 1969) nabywanie wiedzy polega na tworzeniu nowych węzłów oraz łączeniu zarówno nowych, jak i istniejących węzłów za pomocą nowych połączeń. Precyzyjniej rzecz ujmując, nowy węzeł zostaje wbudowany w strukturę sieci poprzez powiązanie go z innymi węzłami. Aby to mogło nastąpić, niezbędne jest utworzenie zestawu predykatów. Im jest on większy, tym - przynajmniej potencjalnie - więcej połączeń z innymi węzłami może zostać utworzonych. Natomiast istniejące już węzły mogą zostać połączone ze sobą nowymi asocjacjami, również bez dostarczenia nowej informacji z zewnątrz. Źródłem nowych połączeń, przewidywanych w teoriach sieciowych, jest odnalezienie wspólnych predykatów dla co najmniej dwóch węzłów. Inaczej wyjaśniany jest proces nabywania wiedzy semantycznej w teorii [ ACT-R Andersona. Jednostki wiedzy (chunks) tworzone są dzięki regułom 164 Rozdział 4. W iedza produkcji, aplikowanym do informacji pochodzącej ze środowiska, a dokładnie jej reprezentacji w pamięci operacyjnej. Jest to bardzo interesujące ujęcie naby­ wania wiedzy, w którym wiedza proceduralna (reguły produkcji) służy budo­ waniu trwałych reprezentacji wiedzy deklaratywnej. Anderson opisał ten proces bardzo szczegółowo, ale wyłącznie w odniesieniu do informacji wzrokowej (Anderson, Matessa, Douglass, 1995). 4 .3.2. Nabywanie w iedzy proceduralnej Proces nabywania wiedzy proceduralnej dokładnie opisał Anderson w swojej teorii ACT. W tym ujęciu nabywanie wiedzy proceduralnej jest powolnym procesem przekształcania jawnej wiedzy deklaratywnej w niejawne procedury działania. Proces ten, nazwany przez autora proceduralizacją, zachodzi w trzech etapach: deklaratywnym, kompilacyjnym i proceduralnym. W pierwszym etapie jednostka otrzymuje zestaw instrukcji, które dotyczą określonej umiejętności oraz sposobu jej nabywania. Za pomocą tzw. ogólnych procedur interpretacyj­ nych stosowanych w odniesieniu do dostarczonej wiedzy deklaratywnej, two­ rzone są procedury działania. Przykładowo, w trakcie nauki pisania dziecko otrzymuje zestaw informacji deklaratywnych (nazwa litery, jej graficzne składniki, wyrazy rozpoczynające się od tej litery), opatrzony zazwyczaj omówieniem i ilustracją sposobu zapisywania konkretnej litery. Etap drugi kompilacyjny - polega na ćwiczeniu reguł dostarczonych i wygenerowanych dzięki procedurom interpretacji. Proces ten jest wysiłkowy i podlega świadomej kontroli. Szczegółowym mechanizmem tego procesu jest, po pierwsze, tzw. kompozycja, polegająca na łączeniu dwóch lub więcej procedur w jedną. Anderson uważa, że proces ten odbywa się w pamięci roboczej, powodując początkowo znaczne jej obciążenie. Podczas doskonalenia umiejętności pisania odrębne procedury rysowania części składowych liter (np. „owalu” i „laseczki” w „a” pisanym, albo innej „laseczki” i poziomej kreski w „t”) łączone są w całości - zintegrowane procedury. W trakcie dalszej praktyki te zintegrowane już procedury stawiania pojedynczych znaków liter łączone są ze sobą w sposób umożliwiający pisanie wyrazów bądź ich części bez odrywania pióra, co przyspiesza pisanie i decyduje o unikalnym charakterze pisma jednostki (zob. ryc. 4.9). Drugi mechanizm kompilacji to automatyzacja, dzięki której skompono­ wane w większe całości procedury (tzw. makroprodukcje) w coraz mniejszym stopniu obciążają pamięć roboczą. Jej odciążenie wiąże się z wyeliminowaniem udziału wiedzy deklaratywnej, przywoływanej do pamięci roboczej w procesie wykonania danej procedury. Procedura wykonywana jest bezpośrednio z po­ ziomu pamięci trwałej, w której została utrwalona. Kompilacja prowadzi do trzech efektów: zwiększenia tempa wykonania danej czynności, wyeliminowania pośrednictwa wiedzy deklaratywnej, a co za tym idzie również konieczności werbalizacji oraz połączenia wielu kroków złożonych czynności w jedną, autonomiczną procedurę. Ostatni etap - proceduralny - jest już automatyczny i niemal bezwysiłkowy: pisanie, kontynuując powyższy przykład, staje się czynnością autonomiczną. 4.3. N abyw anie w iedzy t^ tb £ l£ ^ 165 jł/6C iX $A ~ > *= 4/U ^ Ryc. 4.9. Pojęcie „wiedza proceduralna” napisane przez siedmiolatka (lewa strona) i każdego z autorów niniejszego podręcznika (prawa strona). Zwróćmy uwagę na sposób łączenia liter w pisowni: u osób dorosłych jest on naturalny i zróżnicowany indywidualnie. W przypadku siedmiolatka zauważyć można niezakończony jeszcze proces kompozycji w odniesieniu do litery „r” (oprać, własne). Może być więc wykonywana bez kontroli świadomości, która - uwolniona od tego ciężaru - może zostać w całości przydzielona generowaniu zapisywanych treści. Pisanie nadal wymaga jednak kontroli ze strony uwagi wzrokowej, o czym można się przekonać, próbując napisać coś z zamkniętymi oczyma. Nawet jeśli się to świetnie uda, niezbędna jest koncentracji na samej czynności pisania. Kontrola taka niezbędna jest w przypadku wielu innych, wydawałoby się perfekcyjnie sproceduralizowanych czynności, takich jak chodzenie czy u wprawnych kierowców - prowadzenie samochodu. Proceduralizacji wiedzy towarzyszą dwa istotne zjawiska. Pierwszym jest generalizacja, czyli uogólnianie nabywanej wiedzy proceduralnej na szerszą klasę sytuacji. Dwuletniemu dziecku chodzenie po prostej i równej nawierzchni w znanym mu otoczeniu może nie sprawiać problemów. Jednak na nierównym chodniku, a nawet po zmianie rodzaju podłoża (z prostej i gładkiej domowej podłogi na niemal równie prostą, ale szorstką nawierz­ chnię alejek w parku) chodzenie staje się niebezpieczne. Jednak w trakcie na­ bywania wprawy, umiejętność chodzenia dostosowuje się do szerokiej kla­ sy sytuacji. Drugim zjawiskiem towarzyszącym proceduralizacji jest różni­ cowanie, polegające na odróżnianiu warunków uruchomienia różnych proce­ dur. Chodzi o to, aby w zmieniającej się sytuacji uruchamiać właściwe pro­ cedury, np. różnej „pracy ciała” podczas spaceru, biegania czy przeskakiwania kałuży. Anderson przeprowadził szereg badań, w których uzyskał potwierdzenie swojego modelu nabywania wiedzy. Badania te dotyczyły różnorodnych zjawisk, takich jak: abstrahowanie ukrytych reguł (Anderson, Kline, Beasley, 1979), rozwiązywanie problemów geometrycznych (Anderson i in., 1981) i przyswa­ janie języków. Koncepcja ACT radzi sobie dobrze z wieloma zjawiskami, wyjaśniając nawet typowe błędy pojawiające się w trakcie nabywania albo używania wiedzy proceduralnej. Anderson podaje wiele przykładów tego typu, jak stosowanie niewłaściwych reguł gramatycznych w trakcie nabywania języka (np. w celu wyrażenia czasu przeszłego w języku angielskim stosowanie przyrostka -ed do każdego czasownika) jako efekt generalizacji przy braku różnicowania. 166 Rozdział 4. Wiedza Proceduralizacja może wiązać się z utratą wiedzy deklaratywnej, np. w przypadku pamiętania często wybieranego numeru telefonu4. Jego deklara­ tywne odtworzenie jest możliwe dopiero w trakcie wykonania czynności wy­ kręcenia albo wystukania numeru. Podobnie niektórym ludziom zdarza się zapomnieć jakąś zasadę ortograficzną, więc posiłkują się napisaniem słowa, ufając swojej wiedzy proceduralnej. Mechanizm nabywania wiedzy ujęty w ramach ACT ma jednak co najmniej jedną poważną wadę. Nie uwzględnia mianowicie sytuacji uczenia się bez instrukcji werbalnych, jak np. w nauce chodzenia, które niewątpliwie ma charakter proceduralny. Dziecko ucząc się chodzić, nie może skorzystać z instrukcji werbalnych, trudno bowiem zdeklaratywizować tę wiedzę proceduralną, a nawet gdyby było to możliwe, to dziecko i tak nie mogłoby jeszcze zrozumieć wydawanych poleceń. 4 .3.3. Nabywanie w iedzy niejawnej Z problemem nabywania wiedzy proceduralnej bez pośrednictwa wiedzy de­ klaratywnej lepiej radzą sobie koncepcje nabywania wiedzy niejawnej. W rozdz. 4.1.2 opisane zostały dwie grupy koncepcji, a zarazem dwie tradycje badania tego rodzaju wiedzy. Teraz przyjrzyjmy się temu, jak w ich ramach wyjaśniany jest proces nabywania wiedzy. Reber (1967) uznał, że wiedza niejawna nabywana jest na drodze uczenia się mimowolnego, rozumianego jako proces poznawczy, w wyniku którego jed­ nostka, niezależnie od świadomych intencji, nabywa wiedzy niejawnej na temat skomplikowanej struktury środowiska. Spośród definicyjnych cech uczenia się mimowolnego jedna dotyczy nabywania wiedzy, a mianowicie, że proces ten odbywa się niezależnie od świadomej kontroli ze strony jednostki (Reber, 1989), albo bez udziału wiedzy werbalnej o wszystkich nabywanych regułach (Underwood, Bright, 1996). W poznawczym modelu wiedzy ukrytej, według Sternberga i współpra­ cowników (2000), przewidziano dwie drogi nabywania wiedzy proceduralnej (zob. ryc. 4.10). Pierwsza podobna jest do mechanizmu proceduralizacji z teorii ACT Andersona. Polega na transformacji otrzymanej jawnej wiedzy o proce­ durach w „milczącą” wiedzę proceduralną. W kontekście zawodowym chodzi 0 rozmaite treningi, szkolenia czy coaching, w ramach których ćwiczone są pewne umiejętności. Wiedza ta zyskuje postać proceduralną, ale nabywana jest w sposób jawny i nie pochodzi z osobistego doświadczenia. Druga droga polega na niejawnym uczeniu się reguł proceduralnych. Wiedza ta ma postać niejawną 1 nabywana jest na podstawie osobistych doświadczeń. Ma też zdecydowanie praktyczny charakter. Wiedza ta zwykle nie podlega werbalizacji i deklaratywizacji, choć jest to możliwe. Najczęściej pozostaje ukryta, często z korzyścią dla szybkości i adekwatności jej użycia. Każda z tych dwóch ścieżek zasila w wiedzę odpowiednie magazyny pamięciowe. Pierwsza ścieżka, obejmująca otrzymaną wiedzę deklaratywną, wiąże się z angażowaniem pamięci semantycznej. Druga 4 W latach 80. XX w., kiedy Anderson publikował swój model, nie istniały telefony komórkowe z pamięcią, które obecnie niemal całkowicie wyeliminowały konieczność zapamiętywania numerów telefonów. Zapewniamy jednak, że przykład ten był wówczas trafny. 4.3. N abyw anie w iedzy 167 Ryc. 4.10. Schemat działania wiedzy ukrytej wg Sternberga (2000). Ścieżka A odpowiada nabywaniu wiedzy w wyniku osobistego doświadczenia. Ścieżka B dotyczy nabywania wiedzy w trakcie szkoleń. W obu przypadkach wiedza jest zapisywana w pamięci deklaratywnej (epizodycznej lub semantycznej). Ścieżka C odpowiada nabywaniu wiedzy proceduralnej w wyniku łącznego działania wiedzy otrzymanej i osobistego doświadczenia. Jest to najbardziej skuteczny sposób nabywania kompetencji zawodowych. natomiast wiąże się z kodowaniem doświadczenia w pamięci epizodycznej. Ostatecznie na nasze zachowanie mogą mieć wpływ różne rodzaje wiedzy: jawna wiedza semantyczna i epizodyczna oraz niejawna wiedza proceduralna. Badania wykonane w zespołach Sternberga i Wagnera prowadzone były głównie w kontekście wiedzy zawodowej. Przykładowo Sternberg i współpra­ cownicy (1993) poddali badaniom eksperymentalnym proces nabywania wiedzy w grupie handlowców, dostarczając im różnych wskazówek wspomagających nabywanie wiedzy ukrytej. Osoby badane wcielały się w rolę menedżerów HR (zajmujących się zarządzaniem personelem). Pozostając w tej roli, na podstawie stenogramów rozmowy kwalifikacyjnej mieli ocenić trzech kandydatów na stanowisko handlowca. Pierwsza grupa otrzymywała wskazówki wspomagające selektywne kodowanie informacji. Dokonano tego, wyróżniając istotne informa­ cje w stenogramie i precyzując szczegółowo reguły rekrutacji. Wskazówki prze­ kazane drugiej grupie wspomagały z kolei selektywne łączenie informacji. Oprócz wyróżnienia istotnych elementów w stenogramie i sprecyzowania reguł rekrutacji, badani otrzymywali specjalne arkusze oceny, pozwalające na łączenie ze sobą istotnych informacji. Trzecia grupa otrzymywała wskazówki dotyczące selektywnego porównywania informacji. Ponownie inform acja istotna w stenogramie była wyróżniona, jeszcze raz sprecyzowano reguły rekrutacji, a dodatkowo osoby badane otrzymywały oceny kandydatów dokonane przez innych handlowców. Ponieważ zadanie oceny kandydatów było wykonywane pomiędzy pretestem i posttestem wiedzy ukrytej dotyczącej sprzedaży, w bada­ niach dodatkowo udział wzięły dwie grupy kontrolne. Pierwsza wykonywała dwukrotnie test wiedzy ukrytej bez zadania rekrutacyjnego („czysty” wpływ powtórzonego pomiaru); druga natomiast wykonywała zadanie rekrutacyjne, ale bez jakichkolwiek wskazówek. Okazało się, że wykonanie zadania rekrutacyj­ 168 Rozdział 4. W iedza nego, nawet bez wskazówek, wpłynęło pozytywnie na przyrost wiedzy ukrytej: we wszystkich grupach był on większy niż w pierwszej grupie kontrolnej. Wska­ zówki dotyczące selektywnego kodowania i selektywnego łączenia najsilniej wpływały na przyrost wiedzy ukrytej. Nie stwierdzono natomiast istotnego wpły­ wu wskazówek dotyczących selektywnego porównywania. Wyniki te są istotne nie tylko w perspektywie nabywania wiedzy ukrytej, ale również tzw. inteligencji praktycznej. Wydaje się, że korzystanie z „podpowiedzi” innych osób (czyli ocen innych menedżerów HR) nie prowadzi do przyrostu wiedzy ukrytej najprawdo­ podobniej dlatego, iż nie wymaga głębokiego przetworzenia dostarczonych informacji. Pozostałe dwa rodzaje podpowiedzi, czyli jak selekcjonować i łączyć informacje, nie są gotowymi rozwiązaniami, ale - przy głębokim przetwarzaniu nie dość, że skutecznie pomagają osiągnąć cel (trafny wybór kandydata), to dodatkowo wspomagają nabywanie wiedzy niejawnej. 4.4. Wiedza ekspercka 4.4.1. Kryteria i w łaściw ości w iedzy eksperckiej Tym, co wyróżnia wiedzę ekspercką, jest rzecz jasna jej zakres w pewnej dome­ nie: ekspert posiada bardzo obszerną wiedzę, ale jest ona ograniczona do pewnej dziedziny. Arystoteles, autor dobrze znanego psychologom traktatu O duszy, zajmował się również medycyną, etyką, polityką, fizyką, matematyką i wieloma innymi dziedzinami wiedzy. W wielu z tych dziedzin niewątpliwie był eksper­ tem. Dziś, ze względu na gwałtowny przyrost szczegółowej wiedzy, trudno byłoby być ekspertem w całym obszarze choćby tylko jednej z tych dziedzin. Współcześni eksperci są wąsko wyspecjalizowani, a mimo to rzadko wnoszą do dorobku ludzkości cokolwiek, co mogłoby się równać z dokonaniami Arys­ totelesa. Nie tylko zatem zakres wiedzy decyduje o poziomie ekspertywności, jeśli uznać ekspertów również za innowatorów w swojej domenie. Obszerna wiedza może być nawet przeszkodą, np. w rozwiązywaniu problemów nie­ typowych lub nowych. Na przykład Einstein twierdził, że brak formalnego wykształcenia w zakresie fizyki ułatwił mu sformułowanie ogólnej teorii względ­ ności. Co zatem wyróżnia ekspertów? Chi, Glaser i Farr (1988) wyróżnili sie­ dem charakterystyk ekspertywności (expertise): 1. eksperci są najlepsi w swojej dziedzinie; 2. eksperci dostrzegają wzorce czy struktury charakterystyczne dla problemów specyficznych dla ich dziedziny; 3. eksperci są szybsi niż nowicjusze w zastosowaniu umiejętności (skills) z ich dziedziny, szybciej rozwiązują problemy, popełniając przy tym mniej błędów; 4. eksperci wykazują ponadprzeciętną sprawność pamięci krótko- i długotrwałej; 5. eksperci postrzegają i reprezentują problem z ich domeny na głębszym poziomie niż nowicjusze, którzy reprezentują problem na poziomie cech powierzchnio­ wych; 6. eksperci poświęcają więcej czasu niż nowicjusze jakościowej analizie problemu; 7. eksperci cechują się zdolnością refleksji nad własnymi działaniami (self-monitoring). 4.4. W iedza ekspercka 169 Z powyższych charakterystyk wiedzy dotyczą bezpośrednio punkty 2. i 4. Dostrzeganie wzorców czy struktur w otoczeniu (np. problemie) nie jest moż­ liwe bez głębokiej i obszernej wiedzy w danej dziedzinie. Wymaga jednak dodatkowego procesu zestawiania owych przechowywanych wzorców z sytuacją w otoczeniu. Z kolei pamięć jest „miejscem” przechowywania wiedzy, chociaż znajdują się w niej również informacje, których do wiedzy nie zaliczamy (np. efekty warunkowania i poprzedzania). Inne charakterystyki wiedzy eksperta dotyczą przede wszystkim sposobów reprezentowania i rozwiązywania prob­ lemów: poziomu reprezentacji problemu, jego analizy, efektywności poszuki­ wania rozwiązań i monitoringu tego procesu. Współcześnie częściowo pod­ ważono niektóre z przedstawionych charakterystyk wiedzy eksperta (por. Ro­ bertson, 2001), jednak nie na tyle, aby choćby jedną odrzucić. W tym miejscu zajmiemy się tym, co - poza zakresem - charakteryzuje i wyróżnia wiedzę eksperta. Pierwszą właściwością wyróżniającą wiedzę eksperta jest jej organizacja. Wiedza eksperta jest uporządkowana na wielu poziomach: od poziomu elementarnych składników wiedzy po jej wyabstrahowane struktury wyższego rzędu (np. Adelson, 1984). Struktura takiej wiedzy jest hierarchiczna w danej domenie (np. Chan, 1997), co daje ekspertowi znaczącą przewagę nad nowicju­ szami, szczególnie wówczas, gdy jej ścisłe uporządkowanie jest trudne bądź arbitralne. Zeitz (1997) twierdzi, że dominującym poziomem reprezentacji wie­ dzy ekspertów jest umiarkowanie abstrakcyjna reprezentacja pojęciowa (moderately abstract conceptual representation). Autor twierdzi, że zbyt abstrakcyjna reprezentacja wiedzy powodowałaby jej nikłą praktyczną użyteczność, bowiem ogólne reguły rzadko są możliwe do użycia bez ich dopasowania do konkretnej sytuacji. Na przykład mało praktyczna byłaby znajomość wzorów matematycz­ nych bez wiedzy o warunkach ich zastosowania. Z kolei wiedza zbyt konkretna (np. o setkach przypadków rozwiązania jakiegoś problemu dywergencyjnego) byłaby mało ekonomiczna i słabo podatna na transfer. Wyższy niż konkret­ ny poziom organizacji wiedzy pozwala na znaczną elastyczność działania. Koedinger i Anderson (1990) wykazali, że eksperci w rozwiązywaniu prob­ lemów w zakresie geometrii nie posługują się konkretnym algorytmem, ale bardziej abstrakcyjnym planem (heurystyką) działania. Dzięki temu mogą np. pominąć pewne etapy przewidziane w algorytmie. Uporządkowanie wiedzy na różnych poziomach abstrakcji pozwala na niezwykle szybki dostęp do niej. Jeśli zadanie tego wymaga, eksperci operują na poziomie detali, a innym razem - na poziomie ogólnych zasad i reguł działania. Elastyczny i szybki dostęp do wiedzy niewątpliwie wspomaga rozwiązywanie zarówno rutynowych, jak i nowych problemów. Jest jeszcze jedna zaleta „upakowania” wiedzy na różnych poziomach ogólności. Przywołanie i przetwarzanie zbyt wielu elementów wiedzy wiązałoby się niewątpliwie z przeciążeniem mało pojemnej pamięci roboczej. W takiej sytuacji użycie informacji w bardziej abstrakcyjnej formie (na wyższym pozio­ mie organizacji) pozwala te ograniczenia ominąć. Dlatego eksperci wykonują szybko i sprawnie zadania, które laikom wydają się niewykonalne, np. w ciągu kilku sekund zapamiętują układ wielu figur na szachownicy. Badania nad ekspertami szachowymi należą już do klasyki psychologii. Zapoczątkowali je Chase i Simon (1973a, 1973b), badając organizację wiedzy w pamięci ekspertów 170 Rozdział 4. W iedza i laików. Obu grupom prezentowano układ figur na szachownicy. Układ ten był albo zupełnie losowy, albo pochodził z rzeczywistej rozgrywki. Okazało się, że w pierwszym warunku poziom odpamiętania zaprezentowanego układu nie różnił się istotnie w obu grupach. Eksperci i laicy odtwarzali poprawnie nie więcej niż kilka pozycji układu. Jednak w drugim warunku poziom odpamię­ tania układu na szachownicy znacznie się różnił w obu grupach: eksperci odtwarzali prawidłowo więcej pozycji figur niż laicy. W badaniach DeGroota (1965) okazało się, że różnice w tego rodzaju zadaniu występują również między mistrzami i „zwykłymi” ekspertami szachowymi. Ci pierwsi poprawnie rekonstruowali układ figur na szachownicy w 91%, podczas gdy „zwykli” eksperci osiągnęli 41% poprawności. Wyniki te wskazują na dwie istotne właściwości funkcjonowania poznaw­ czego ekspertów. Po pierwsze, łatwość odtwarzania sensownych układów figur na szachownicy wskazuje na większą, ale też gotową do elastycznego wy­ korzystania wiedzę ekspertów. Chase i Simon tłumaczyli przewagę ekspertów w tym warunku pamiętaniem układów pochodzących z wielu partii szachowych. Wiedza ta pozwalała im na kodowanie prezentowanych układów, bądź ich części, jako zintegrowanych całości. W przypadku układów losowych wiedza ta była jednak bezużyteczna. Po drugie, brak różnic między ekspertami i laikami w tym właśnie warunku wskazuje na brak szczególnych predyspozycji pamięci roboczej, których można było spodziewać się wśród ekspertów. Ich pamięć wydaje się funkcjonować podobnie jak u laików, a przewaga w jej wykorzys­ taniu wynika z innej organizacji informacji kodowanej i przechowywanej w WM. Gobet i Simon (1996a, 1996b, 1996c), korzystając m.in. z powyższej metody, poddali serii badań mistrzów szachowych. Stwierdzili (Gobet, Simon, 1996a), że mistrzowie mogą odtworzyć do dziewięciu partii z 70-procentową poprawnością (ok. 160 pozycji figur). Niewątpliwie wyniku tego nie można wyjaśnić, odwołując się wyłącznie do mechanizmów pamięci roboczej. Autorzy zasugerowali, że eksperci korzystają w swojej dziedzinie z szablonów zawartych w pamięci długotrwałej, które pozwalają na kodowanie i przechowywanie in­ formacji. Ericsson i Kintsch (1995) zaproponowali nawet szerszą koncepcję tzw. długotrwałej pamięci roboczej (long-term working memory) powiązanej z efek­ tywnością pamięci i poziomem ekspertywności (zob. rozdz. 8.2.5). Według autorów eksperci przechowują napływające informacje związane z ich domeną raczej w pamięci długotrwałej niż krótkotrwałej. Mechanizm tego zjawiska opiera się na powiązaniu napływającej informacji z zestawem wskazówek wy­ dobycia, które wspólnie tworzą tzw. strukturę wydobycia (retrieval structure). Aktywacja wskazówek wydobycia powoduje przynajmniej częściowe odtwo­ rzenie oryginalnych warunków kodowania. W ten sposób obszerny materiał może zostać wydobyty, jednak jest to możliwe wtedy, gdy osoba posiada wiedzę ekspercką w zakresie kodowanego materiału i materiał ten jest jej dobrze znany. Wydaje się zatem, że pamięć ekspertów funkcjonuje najzupełniej przeciętnie poza ich domeną, mimo to w obrębie ich specjalizacji wykazuje ponadprzeciętną sprawność (Chi, Glaser, Farr, 1988). Jej źródła nie tkwią jednak w formalnych mechanizmach funkcjonowania systemów pamięci, lecz w efektywności ich wykorzystania wynikającej z zakresu i organizacji wiedzy eksperckiej. Drugim czynnikiem wyróżniającym wiedzę ekspercką jest stopień jej proceduralizacji. Czynnik ten jest oczywisty u ekspertów takich jak mechanicy 4.4. Wiedza ekspercka 171 samochodowi, którzy muszą wiedzieć, gdzie posłuchać, aby usłyszeć, i gdzie posmarować, aby auto pojechało. Ich wiedza ma głównie proceduralny cha­ rakter, jednak z jej nabywaniem, jak go rozumie Anderson w ACT, nie ma utraty dostępu do wiedzy deklaratywnej. Dzięki temu rośnie sprawność wykonania procedur przy utrzymaniu zdolności ich werbalizacji (niezbędne w rozmowie z klientem warsztatu, jak również w przekazywaniu wiedzy młodszym kole­ gom). Proceduralizacja charakteryzuje również inne rodzaje wiedzy eksperckiej, np. filozoficznej. Dowodzenie twierdzeń, retoryka, selektywne i krytyczne czytanie tekstów innych autorów i pisanie własnych - to czynności umysłowe w dużej mierze sprowadzające się do posiadania i sprawnej realizacji złożonych procedur. Pisząc o procedurach, mamy na myśli wiedzę nabytą dwoma spo­ sobami: dzięki proceduralizacji w rozumieniu Andersona i z doświadczenia w rozumieniu Sternberga. W pierwszym przypadku wiedza ta wywodzi się z wiedzy deklaratywnej, a jej nabywanie wymaga stopniowego przekształcania jednej wiedzy w drugą. Droga druga nie wymaga gromadzenia wiedzy de­ klaratywnej, a już na pewno nie jest ona konieczna do nabywania procedur. Trzecim czynnikiem charakterystycznym dla wiedzy eksperckiej są sche­ maty rozwiązywania problemów specyficznych dla danej dziedziny wiedzy. Przyjmuje się, że schematy zawierają abstrakcyjną wiedzę pozbawioną kon­ tekstu, w którym została ona pozyskana (por. Roberts, 2001). Dzięki temu schematy stosunkowo łatwo podlegają transferowi pomiędzy różnymi kontek­ stami. Z kolei Leake (1998) twierdzi, że schematy to gotowe sposoby rozu­ mowania opartego na przypadkach (case-based reasoning). Ich stosowanie wymaga zgromadzenia wiedzy dotyczącej skutecznych rozwiązań konkretnych problemów wraz z heurystykami, które do nich prowadzą (por. Anderson, 1982). Wiedza ta jest zestawiana z właściwościami bieżącego problemu, a po stwierdzeniu ich dopasowania do któregoś z posiadanych schematów, schemat ten jest aplikowany. Jeszcze węższe rozumienie schematów proponują Cheng i Holyoak (1995), twierdząc, że eksperci stosują tzw. pragmatyczne schematy wnioskowania. Są one ograniczone do konkretnych typów problemów, dlatego też z trudem poddają się generalizacji. Ich zaletą jest szybkość aplikacji w konkretnej sytuacji, nie wymagają bowiem opracowania strategii działania na podstawie abstrakcyjnych reguł. Zamiast tego stosowany jest konkretny przepis, wcześniej wielokrotnie sprawdzony. Dobrze znany efekt eksperta, polegający na większej sztywności ekspertów w rozwiązywaniu nierutynowych problemów, wskazywałby jednak na bardziej konkretny poziom reprezentacji schematów. Gdyby były one abstrakcyjne, eks­ pert musiałby każdorazowo odnieść dany schemat do kontekstu i wypracować konkretny sposób jego aplikacji. W tej sytuacji eksperci byliby zawsze bardziej efektywni i elastyczni niż laicy. Ci ostatni, nie posiadając abstrakcyjnych sche­ matów, mogliby ewentualnie korzystać z wiedzy ogólnej (co oznacza niską efek­ tywność) albo z konkretnych przyldadów z danej dziedziny (co wiąże się z niską elastycznością). Jednak tak nie jest, bowiem eksperci popełniają niekiedy nawet więcej błędów w swojej domenie niż nowicjusze (Frensch, Sternberg, 1989; Reason, 1990). Frensch i Sternberg uważają, że źródłem tego efektu jest zjawisko automatyzacji. Automatyzacja prowadzi do uwolnienia zasobów systemu poznawczego. Wiedza zostaje „skompilowana” i - jak w modelu ACT Andersona (1987) - przestaje być dostępna świadomości. Rozpoznanie problemu jako 172 Rozdział 4. W iedza rutynowego powoduje uruchomienie skompilowanych schematów działania reali­ zowanych przy braku kontroli. Jeśli jednak rozpoznanie to jest błędne, tj. kiedy problem różni się od rutynowego, działanie eksperta nie będzie do niego dopa­ sowane. To z kolei może prowadzić do błędów albo usztywnienia się w próbach bezskutecznego stosowania niedopasowanych schematów. Dopiero redefinicja problemu jako nowego powoduje podjęcie prób wytworzenia nowego schematu. Z kolei w problemach rutynowych eksperci wykazują większą niż no­ wicjusze elastyczność (np. Feltovitch i in., 1984; zob. ramka 4.1). Polega ona na zdecydowanie lepszym niż u nowicjuszy dopasowaniu danych sytuacyjnych do posiadanych schematów poznawczych. Oznacza to zwykle bardziej trafną kate­ goryzację problemów, a co za tym idzie zastosowanie odpowiednich strategii ich rozwiązywania. Zauważmy, że w przypadku problemów nierutynowych ten sam mechanizm może wyjaśniać omawiany powyżej efekt eksperta. Nieprawidłowa kategoryzacja problemu prowadzi do zastosowania niewłaściwej strategii. Ekspert, dysponując wielkim bogactwem sposobów kategoryzacji, może wielokrotnie wpadać w pułapkę „rutyny”. Będzie wówczas próbował wciąż innych, ale zawsze nieskutecznych sposobów działania, zanim dostrzeże - jeśli w ogóle to się stanie - że problem nie jest jednak rutynowy, zatem wymaga myślenia twórczego, a nie odtwórczego. Chi, Glaser i Rees (1982) twierdzą, że elastyczność w rozwiązywaniu problemów, które są rutynowe, wynika z większej liczby bardziej wyspecjalizowanych schematów poznawczych (czyli wiedzy proceduralnej), którymi dysponują eksperci. Ramka 4.1 Elastyczność wiedzy ekspertów Współczesne badania nad ekspertami koncentrują się nie tylko na szachistach. Eksperywność bada się w wielu różnych domenach, np. w medycynie (Feltovitch i in., 1984; Lesgold i in., 1988), fizyce (Chi, Feltovitch, Glaser, 1981), informatyce (McKeithen i in., 1981). Feltovitch i współpracownicy (1984) przedstawili lekarzom - ekspertom i no­ wicjuszom - problem diagnostyczny w postaci listy symptomów. Symptomy zostały tak dobrane, że łatwo mogły prowadzić do błędnej diagnozy. Nowicjusze częściej niż eksperci stawiali wówczas błędną diagnozę. Ponadto w większym stopniu opierali się na otrzymanej liście, nie uwzględniając dodatkowego źródła informacji wywiadu z pacjentem. Eksperci, dostrzegając możliwość błędnej diagnozy, opartej na symptomach, poszukiwali dodatkowych informacji, które pozwoliłyby im kolejno odrzucać alternatywne hipotezy. Autorzy (zob. też Feltovitch, Spiro, Couson, 1997) wyjaśniają te rezultaty lepszą organizacją i większa elastycznością wiedzy ekspertów w porównaniu z wiedzą laików. Elastyczność wynika w tym wypadku z większego bogactwa i zróżnicowania schematów poznawczych (por. Chi, Glaser, Rees, 1982) stosowanych w odniesieniu do diagnozy medycznej. Dzięki nim możliwe jest precyzyjne rozróżnianie chorób na podstawie większej liczby wska­ zówek branych pod uwagę w podejmowaniu decyzji. Eksperci medyczni wykazują również szczególną wrażliwość na dane, które nie pasują do schematu, co wydaje się wskazywać raczej na przyjmowanie strategii falsyfikacji niż konfirmacji hipotez (zob. rozdz. 10.6.2). 4.4. W iedza ekspercka 173 Podobne wnioski płyną z badań Lesgolda (Lesgold i in., 1988), w których udział I wzięli eksperci w zakresie radiologii. Zaprezentowano im zdjęcia rentgenowskie pacjenta, któremu przed dziesięciu laty usunięto fragment płuca. W efekcie przesuI nięciu uległy inne organy wewnętrzne. Początkowo eksperci postawili hipotezę „zaj paści płuca”, odnajdując na zdjęciu zarówno informacje zgodne z nią, jak i sprzeczne. J Następnie przyjęli hipotezę „usunięcia fragmentu płuca”, którą testowali tak jak | hipotezę pierwszą. Na podstawie szczegółowej analizy protokołów werbalnych auto-) rzy sformułowali model opisujący przebieg procesu formułowania diagnozy w grupie | badanych przez nich ekspertów. Początkową jego fazą byłoby budowanie umysłowej t reprezentacji sytuacji. Każdemu z możliwych wariantów diagnozy odpowiada I specyficzny „pretest”, który musi być pozytywny, aby dalej szczegółowo analizować daną możliwość. W języku teorii modeli mentalnych (zob. rozdz. 10.7.2) można by | powiedzieć, że dla każdego wariantu diagnozy budowany jest odrębny model umysłowy. Ponieważ tylko jeden z nich może być właściwy, w dalszych fazach poi szukuje się informacji zgodnych i niezgodnych z każdym z nich. Różnym wariantom, które przejdą fazę „pretestu”, opowiadają schematy diagnozy, które wymagają i sprawdzenia większej bądź mniejszej liczby hipotez. Są one stosowane aż do mo­ mentu, kiedy wszystkie alternatywne warianty, poza jednym, zostaną odrzucone. Wydaje się zatem, że wiedza ekspertów różni się od wiedzy laików nie tylko „ilościowo” (np. większy zakres wiedzy, wyższy stopień proceduralizacji), lecz również „jakościowo” (np. inna organizacja wiedzy, wyspecjalizowanie schema­ tów poznawczych). Jakościowo odmienne są również sposoby korzystania z tej wiedzy, zapewniające wysoką skuteczność przy zachowaniu elastyczności roz­ wiązywania problemów w dziedzinie specjalizacji (np. przyjmowanie strategii falsyfikacji, a nie konfirmacji hipotez, zob. rozdz. 10.6.2). 4.4.2. Nabywanie w iedzy eksperckiej Interesujące wyjaśnienie mechanizmu nabywania wiedzy eksperckiej zapropono­ wał Glaser (1996). Jego model obejmuje trzy stadia nabywania wiedzy eksperc­ kiej: etap wsparcia zewnętrznego (external support), etap przejściowy (trans­ itional) i etap samoregulacji (self-regulatory). W pierwszym etapie nowicjusz otrzymuje wsparcie od osób posiadających obszerną wiedzę, którymi mogą być rodzice, nauczyciele czy mistrz. Oni pomagają w uporządkowaniu wiedzy o oto­ czeniu (czy domenie), w ten sposób wspomagając jej nabywanie. Zbudowane tą metodą „rusztowanie” (scaffolding) jest w etapie przejściowym stopniowo wypełniane treścią. Początkujący ekspert rozwija umiejętności monitorowania i regulacji własnych czynności oraz identyfikuje kryteria coraz wyższego poziomu wykonywania zadań w danej dziedzinie. W ostatnim etapie ekspert zyskuje pełną kontrolę nad procesem nabywania wiedzy i wykonywaniem różnych zadań w obrębie danej domeny. Nie wyklucza to jednak dalszego udziału innych osób albo korzystania z różnych źródeł informacji, jeśli ekspert zidentyfikuje luki lub uproszczenia w posiadanej wiedzy i umiejętnościach. Jednak istotą ekspertywności jest samoregulacja w zakresie korzystania z wiedzy i umiejętności oraz dalszego ich doskonalenia. 174 Rozdział 4. W iedza Inny model nabywania wiedzy eksperckiej zaproponowali Schaumacher i Czerwiński (1992). Model ten odnosi się do budowania reprezentacji złożonych systemów, jak systemy komputerowe. Autorzy również ujmują nabywanie ekspertywności jako proces składający się z trzech faz. Pierwsza - przedteoretyczna (pretheoretical) - angażuje wydobywanie przykładów z pamięci opartych na powierzchniowym podobieństwie cech danej sytuacji i tych przywołań. Dzięki skorelowaniu cech powierzchniowych i głębokich, możliwe staje się odkrycie związków przyczynowych obowiązujących w systemie. Na tym polega druga doświadczeniowa (experiental) - faza nabywania wiedzy eksperckiej. W tej fazie pojawiają się abstrakcyjne reprezentacje wiedzy, pochodzące z doświadczenia dotyczącego wielu przykładów. W ostatniej - eksperckiej (expert) - fazie możliwe jest dokonywanie abstrakcji na jeszcze wyższym poziomie. Chodzi o wiedzę pochodzącą z różnych systemów. Dopiero na tym poziomie można mówić o możliwości transferu wiedzy, np. na działanie nowego systemu, bowiem wy­ abstrahowane reguły powinny obowiązywać w każdym z nich. 4.5. Podsumowanie Nie może być sensownej teorii umysłu ludzkiego bez dobrze opracowanej teorii wiedzy. Wiedza to sama istota naszego poznawczego wyposażenia. Bez niej nie­ możliwe jest zrozumienie czegokolwiek, a zmaganie się ze skomplikowanymi problemami byłoby bardzo utrudnione, jeśli w ogóle możliwe. Wiele zadań poz­ nawczych wymaga po prostu konkretnej wiedzy. W badaniach nad uwagą (zob. rozdz. 5) lub kontrolą poznawczą (zob. rozdz. 6) podkreśla się, że czynności poznawcze są limitowane zasobami, czyli możliwościami przetwarzania informa­ cji, pojemnością pamięci roboczej i innymi „wąskimi gardłami” systemu poznaw­ czego. To wszystko prawda, ale podkreślając rolę i znaczenie rozmaicie rozu­ mianych i definiowanych zasobów poznawczych, nie powinno się ignorować faktu, że czynności poznawcze mogą być „limitowane danymi”. Jeśli ktoś nie wie, jakim słowem określa się brata matki w języku fińskim, może zaangażować dowolnie dużo zasobów poznawczych, a i tak nie znajdzie odpowiedniego wyrazu. Z tego punktu widzenia wiedza jest bardzo szczególnym zasobem poznawczym, zdolnym do zastąpienia tych zasobów, które w danym momencie mogą być wyczerpane. Psychologiczne badania nad nabywaniem wiedzy i korzystaniem z niej napotykają istotną trudność, jaką jest jej treść. Psycholog może tworzyć ogólne koncepcje wiedzy tylko wtedy, gdy zajmuje się stroną formalną, np. organizacją wiedzy lub jej rodzajami, ale nie jest w stanie stworzyć ogólnej teorii tego, jaka jest treść badanej przez niego wiedzy. Inaczej mówiąc, psychologiczne kon­ cepcje wiedzy są zdolne do formułowania tez na temat tego, JAK ludzie coś wiedzą, ale nie bardzo sobie radzą z kwestią, CO ludzie wiedzą. Każdy z nas wie o świecie co innego, dlatego koncepcje odwołujące się do treści wiedzy nie­ uchronnie zmieniają swój charakter z nomotetycznych na idiograficzne. A to dla psychologa zorientowanego na prowadzenie badań eksperymentalnych jest zmianą trudną do zaakceptowania. Przyszłe koncepcje i badania nad wiedzą będą musiały w jakiś sposób zlikwidować napięcie między formą i treścią tego, co każdy z nas wie o świecie i samym sobie. Rozdział Uwaga i świadomość Istota i aspekty uwagi Teorie uwagi 178 Uwaga, percepcja i (nie)świadomość Analiza wskazówek peryferycznych 186 Teorie selekcji źródła informacji 187 Teorie przeszukiwania pola percepcyj nego 195 Teorie przedłużonej koncentracji Teorie podzielności Teorie przerzutności 209 217 200 Reakcje na informacje odrzucane Poprzedzanie podprogowe Podsumowanie 228 225 221 223 224 Uwaga to system odpowiedzialny za selekcję informacji i zapobieganie ne­ gatywnym skutkom przeładowania systemu poznawczego przez nadmiar danych. Świadomość to zdawanie sobie przez podmiot sprawy z treści własnych pro­ cesów psychicznych, np. z tego, co jest przedmiotem spostrzegania, myślenia lub doznań emocjonalnych. Według Williama Jamesa (1890, s. 403-404), „każdy wie, czym jest uwaga: jest to posiadanie przez umysł w jasnej i żywej postaci jednego z wielu jednocześnie ujmowanych przedmiotów lub ciągów myśli”. W tej pięknej, introspekcyjnej definicji zawierają się trzy prawdy. Po pierwsze, istotą i sensem działania uwagi jest selekcja, czyli wybór jednego obiektu percepcji, jednego źródła stymulacji lub jednego tematu myślenia spośród wielu możliwych opcji. Po drugie, selekcja realizowana przez uwagę dotyczy w równym stopniu spostrzegania, jak też „wyższych” procesów poznawczych, przede wszystkim myślenia. Dzięki selekcji na wejściu sensorycznym możemy skupić się na jednym bodźcu lub źródle stymulacji kosztem innych, a dzięki selekcji w odniesieniu do „wyższych” pięter przetwarzania informacji możemy kontrolować przebieg procesów intelektual­ nych. Po trzecie, uwaga ściśle wiąże się ze świadomością, czyli ze zdawaniem sobie sprawy z tego, co spostrzegamy lub o czym myślimy. Dziś wiemy, że świadomość nie jest tożsama z uwagą, ale zawsze stanowi wynik jej działania. Na peryferiach uwagi znajdują się czasem bodźce, z których zdajemy sobie sprawę słabo lub w ogóle, ale jeśli coś jest przedmiotem świadomego doznania, musiało być wcześniej poddane skutecznej i bardzo surowej selekcji ze strony uwagi. 5.1. Istota i aspekty uwagi Istnienie uwagi wynika z ograniczonych możliwości przetwarzania informacji przez umysł ludzki (Duncan, Humphreys, 1989). Efektywne funkcjonowanie systemu poznawczego jest możliwe w zasadzie tylko wtedy, gdy w tym samym czasie analizujemy jedynie niewielkie ilości informacji (Lehrl, Fischer, 1988). Jeśli skuteczne przetwarzanie informacji jest tak surowo limitowane, konieczne wydaje się istnienie jakiegoś mechanizmu pozwalającego na wybór informacji istotnych dla dalszego przetwarzania. Mechanizm taki umożliwia koncentro­ wanie się na pewnych sygnałach czy też zadaniach oraz odrzucanie bodźców nieistotnych lub zakłócających. Istnienie takiego mechanizmu wydaje się niezbędne również ze względu na konieczność przystosowania się organizmów żywych do wymagań środowiska (Broadbent, 1958). Aby zwiększyć swoją szansę przetrwania w trudnych warunkach środowiska, organizm musi wyłowić wśród szumu informacyjnego bodźce, które sygnalizują coś ważnego, np. zagrożenie lub szansę zdobycia pożywienia. Ten hipotetyczny mechanizm, będący odpowiedzią ewolucji naturalnej na ograniczone możliwości przetwa­ rzania informacji, został nazwany uwagą (James, 1890). Funkcją stanowiącą o jego istocie jest selektywność. Zgodnie z definicją Johnstona i Dark (1986) 5.1. Isto ta i asp ek ty uw agi 179 termin „selektywność” odnosi się do zróżnicowanego przetwarzania informacji pochodzących z wielu różnych źródeł. Selektywność uwagi dokonuje się w różnych warunkach zadania. To zróż­ nicowanie pozwala wyróżnić kilka podstawowych aspektów funkcjonowania uwagi. Pierwszy z nich (Broadbent, 1957) dotyczy problemu selekcji źródła informacji: kiedy, gdzie i w jaki sposób odbywa się proces wyboru bodźców ważnych (sygnały) ze względu na przyjętą zasadę selekcji, przy jednoczesnym odrzuceniu informacji nieważnych (szum) i zakłócających (dystraktory). Wybór źródła stymulacji dokonuje się np. wtedy, gdy osoba pogrążona w lekturze ignoruje toczącą się w tym samym pomieszczeniu rozmowę, a zwłaszcza tzw. tło dźwiękowe (odgłosy ruchu ulicznego, bzyczenie owadów itp.). Tę formę selektywności badano początkowo wyłącznie w odniesieniu do uwagi słucho­ wej, prezentując osobie badanej do dwojga uszu dwa niepowiązane komunikaty (Broadbent, 1957; Cherry, 1953; Deutsch, Deutsch, 1963; Treisman, 1960). Osoba ta musi skupić się na jednym z tych komunikatów, ignorując drugi. Można wówczas obserwować, czy badany słyszy cokolwiek w tzw. kanale ignorowanym (paradygmat 5.1). Później pojawiły się analogiczne badania w od­ niesieniu do uwagi wzrokowej, w których to eksperymentach uczestnikom wyświetlano jednocześnie dwa różne filmy, np. mecz koszykówki i sceny z życia rodzinnego (Mack, Rock, 1998; Mack i in., 1992; Rock i in., 1992). Użycie takiej procedury pozwala sprawdzić, który z dwóch konkurencyjnych filmów osoba badana rzeczywiście zobaczy, a przede wszystkim - czy dotrze do niej cokolwiek z filmu z konieczności zignorowanego. Przeprowadzono też badania, w których niepowiązane komunikaty prezentowano uczestnikom do różnych modalności zmysłowych, np. wzrokowo i słuchowo (Allport, 1980a; Allport, Antonis, Rey­ nolds, 1972; Bernstein, 1970; McLeod, 1977). Wyniki tych badań zostaną omó­ wione w związku z prezentacją teorii filtra (bramki) i teorii modułów. Selekcję źródła informacji często uznawano za podstawowe, a nawet wyłączne zadanie uwagi selektywnej (Allport, 1992). Wydaje się jednak, że i w przypadku po­ zostałych aspektów uwagi jej głównym zadaniem jest selektywność, choć nie w zakresie wyboru źródła stymulacji, lecz w odniesieniu do innych czynności poznawczych. Paradygmat 5.1 Dychotyczna prezentacja bodźców i metoda podążania : Czy uczestnicząc w gwarnym przyjęciu możemy skoncentrować się na rozmowie z jednym z naszych przyjaciół? Jeśli możemy, to czy odbywa się to kosztem cał; kowitego „wyłączenia” słów, wypowiadanych przez innych uczestników przyjęcia, nawet jeśli mówią wystarczająco głośno i nie są od nas bardzo oddaleni? Dlaczego, gdy ktoś w innej niż prowadzona przez nas rozmowie wymieni nasze imię, \ natychmiast tracimy wątek konwersacji i automatycznie „przełączamy się” na to, co I; się dzieje w rozmowie dotąd ignorowanej? Cherry (1953) przeniósł sytuację komuJ nikacyjną z gwarnego przyjęcia wprost do laboratorium w stopniu, w jakim było to i technicznie wykonalne. Interesujący go problem ograniczeń w selektywności in: formacji nazwał, zgodnie z inspirującymi go obserwacjami, problemem przyjęcia l towarzyskiego (cocktail party problem). Osoba badana w zaprojektowanych przez 180 Rozdział 5. Uwaga i świadom ość niego eksperymentach odbierała dwa różne przekazy jednocześnie - po jednym do każdego ucha - z zadaniem skupienia się na jednym z nich, przy jednoczesnym całkowitym ignorowaniu drugiego komunikatu. Następnie proszono uczestnika eksperymentu o zanotowanie treści przekazu, na którym miał się skupić. Pytano także o treści, które pojawiły się w komunikacie ignorowanym. Cherry wykazał, iż badani nie mieli większych problemów z wiernym odtworzeniem ważnego komunikatu, ale nie mogli odpowiedzieć na jakiekolwiek pytania o treść drugiego ; przekazu. Nie byli też w stanie zidentyfikować języka (angielski bądź francuski), l w którym przekaz ignorowany był formułowany. Zgodnie z przyjętą konwencją J językową, zjawisko to nazwano efektem przyjęcia towarzyskiego (cocktail i party phenomenon). W przeciwieństwie do semantycznych, treściowych aspektów | komunikatu ignorowanego, które nie były w ogóle dopuszczane do dalszego przetwarzania, pewne fizyczne parametry tego przekazu, jak np. zmiana brzmienia j (tonu) wymowy, czy też zmiana płci spikera, były przez osoby badane rejestrowane. Cherry’ego uważa się za twórcę paradygmatu dychotycznej prezentacji bodźców - techniki eksperymentalnej polegającej na jednoczesnym prezentowa| niu dwóch różnych komunikatów akustycznych osobno do każdego ucha. 1 Broadbent (1954), a później Moray (1959) i Treisman (1960) rozwinęli i zmodyfikowali tę technikę, prosząc badanych nie o zapamiętywanie „oficjalnego” przekazu, ale o jego wierne powtarzanie. Osoba badana miała podążać za jednym z komunikatów jak cień, stąd nazwa tej techniki - podążanie (shadowing). Ta zmiana | w procedurze zapewnia lepszą kontrolę zachowania uczestników badania. Można i dzięki niej jednoznacznie stwierdzić, czy badany rzeczywiście podąża „jak cień” za wskazanym przekazem, czy też próbuje dzielić swoją uwagę między dwa ; jednoczesne komunikaty. Każde odstępstwo od reguły dosłownego powtarzania (np. chwilowe zamilknięcie, zająknięcie, wtręty ze strony komunikatu ignorowa­ nego) świadczy o próbie dzielenia uwagi na dwa wykluczające się przekazy. Paradygmat podążania stosowano także w badaniach uwagi podzielnej (Allport, Antonis, Reynolds, 1972; Ninjo, Kahneman,, 1974) z instrukcją jednoczesnego śledzenia dwóch jednakowo ważnych komunikatów. Drugim ważnym aspektem -uwagi selektywnej jest jej zdolność do prze­ szukiwania pola percepcyjnego. Na przykład na wydruku komputerowym należy zaznaczyć markerem wszystkie słowa zaczynające się na literę „m” (zasada se­ lekcji), pozostawiając nietknięte inne słowa (szum), zwłaszcza te, które zaczynają się na podobnie wyglądającą literę „n” (dystraktory). Zdaniem nie­ których badaczy (Cave, Wolfe, 1990; Treisman, 1988, 1993; Treisman, Gelade, 1980), przeszukiwanie pola percepcyjnego dokonuje się zgodnie z mechanizmem automatycznego kodowania cech i selektywnej integracji właściwości poszuki­ wanego obiektu w postać, będącą sumą czy też złożeniem tych charakterystyk. Tę formę selektywności badano wyłącznie w odniesieniu do uwagi wizualnej (paradygmat 5.2), a prowadzone eksperymenty miały na celu przede wszystkim wskazanie tzw. cech priorytetowych, automatycznie przyciągających uwagę w polu wzrokowym. Wśród charakterystyk tego typu wyróżniono np. ruch obiektów w polu wzrokowym (Driver, Baylis, 1989; Driver, McLeod, 1992; McLeod, Driver, Crisp, 1988; McLeod i in., 1991) czy wyróżniający się kolor 5.1. Isto ta i asp ek ty uw agi 181 (D’Zamura, 1991; Kyllingsbek, Bundesen, 2001; Treisman, Viera, Hayes, 1992). Łatwiej nam znaleźć wśród nieruchomych obiektów coś, co się rusza, podobnie jak łatwo zauważyć obiekt czerwony wśród samych białych. Wyniki tych ba­ dań zostaną dokładniej omówione przy okazji prezentacji teorii integracji cech w obiekt. Paradygmat 5.2 Badanie przeszukiwania pola wzrokowego J [ | i I \ I f j Í i ; : Í | i j i Dlaczego mimo bałaganu na stole pewne obiekty odnajdujemy łatwo (wręcz narzucają się nam swoim wyglądem), a innych nie potrafimy zauważyć nawet w wyniku długich poszukiwań (jesteśmy na nie „ślepi uwagowo”)? Treisman i Gelade (1980) postanowiły zbadać proces przeszukiwania pola wzrokowego. W ich eksperymencie badani poszukiwali obiektów zdefiniowanych przez pojedynczą cechę (np. kolor: „znajdź zieloną figurę”) lub przez koniunkcję cech (np. kolor i położenie: „znajdź zieloną figurę zorientowaną poziomo”). Pierwszy typ przeszukiwania pola percepcyjnego nazwano prostym, zaś drugi - koniunkcyjnym. Treisman i Gelade wykazały, że przeszukiwanie koniunkcyjne trwa dłużej niż przeszukiwanie proste, a ponadto jest zależne od liczby elementów przeszukiwanego zestawu. Przeszukiwanie koniunkcyjne ma więc charakter procesu szerego­ wego, podczas gdy przeszukiwanie proste dokonuje się raczej równolegle, ponieważ czas reakcji w przeszukiwaniu prostym nie zależy od liczby elementów w polu percepcyjnym. W paradygmacie przeszukiwania pola wzrokowego cechy definiujące poszukiwane obiekty mają postać właściwości sensorycznych, Próbując ustalić, które z właściwości obiektów mają charakter cech priorytetowych, | przetwarzanych jako pierwsze w kolejności, badano poszukiwanie koniunkcyjne z udziałem m.in. takich cech, jak: ruch (McLeod, Driver, 1993), kolor (D’Zamura, 1991), głębia (Julesz, Bergen, 1983), czy położenie przestrzenne (Treisman, 1988). Stwierdzono, że podczas gdy ruch jest właściwością priorytetową niezależnie od jego fizycznej charakterystyki (szybkość, kierunek), to statyczne położenie przestrzenne (np. horyzontalne, wertykalne) taką właściwością nie jest. Ustalono również, że kolor i głębia mogą być warunkowo cechami priorytetowymi, jeśli są wystarczająco wyraziste percepcyjnie (visual salience, inaczej: dystynktywne, np. rudy kolor włosów). Manipulowano także liczbą cech w poszukiwanej koniunkcji (Cave, Wolfe, 1990), ich wyrazistością (Yantis, Hillstrom, 1994), a także liczbą cech wspólnych dla sygnałów i dystraktorów (Duncan, Humphreys, 1989). Okazało się, że poszukiwa­ nie obiektu stanowiącego koniunkcję licznych właściwości niepriorytetowych może również być równoległe i szybkie, a bardzo wyrazista cecha niepriorytetowa może w większym stopniu przyciągać uwagę niż cecha priorytetowa (np. dystraktor o dystynktywnym kolorze powoduje spowolnienie procesu detekcji ruchomego sygnału). Stwierdzono też, że im bardziej podobne do siebie są bodźce zakłócające i celowe, tym dłużej trwa proces detekcji poszukiwanego sygnału i tym większe jest w takim przypadku prawdopodobieństwo szeregowości mechanizmów selekcji ; informacji. Początkowo w badaniach prowadzonych w tym paradygmacie osobom bada­ nym prezentowano jednocześnie cały dostępny zbiór obiektów do selekcji. Obec- 182 Rozdział 5. Uwaga i świadom ość nie prowadzi się badania, w których sygnał lub dystraktor pojawia się w polu percepcyjnym nagle, podczas gdy pozostałe bodźce (tło) są już wcześniej całkowicie dostępne (Yantis, Jonides, 1988). Tło może być jednak prezentowane na peryferiach uwagi selektywnej, co oznacza, że mimo obiektywnej dostępności bodźce te są trudno zauważalne (Theeuwes, Kramer, Atchley, 1999). Trzecim, ostatnio nieco zapomnianym, aspektem selektywnej uwagi jest przedłużona koncentracja na określonym typie obiektów (Mackworth, 1948, 1950). Dzięki tej cesze uwagi możliwe jest monitorowanie otoczenia przez dłuższy czas w poszukiwaniu bodźców określonego typu (paradygmat 5.3). Na przykład żołnierz na warcie przez kilka godzin „natęża uwagę”, aby wykryć wszelkie sygnały niebezpieczeństwa, a jednocześnie nie podnieść fałszywego alarmu w odpowiedzi na zagrożenie pozorne. Czujność uwagi (Davies, Parasuraman, 1982), bo tak też bywa określany ten aspekt uwagi, podlega wielu ograniczeniom, zazwyczaj związanym z postępującym w czasie wyczerpaniem czy niskim poziomem aktywacji systemu poznawczego (Davies, Parasuraman 1982). Efekt spadku czujności uwagi w czasie był przedmiotem wielu badań (Davies, Parasuraman, 1982; Parasuraman, Davies, 1976; Thackray, Jones, Touchstone, 1973), których wyniki zostaną przedstawione podczas prezen­ tacji teorii detekcji sygnałów i teorii czujności uwagi. Nie ulega jednak wątpliwości, iż przedłużona w czasie koncentracja uwagi-jest formą selektyw­ ności, dla której ograniczeniem jest tym razem nie nadmierna ilość informacji do przetworzenia, a nieuchronny spadek energii w wyniku wydłużonego czasu wykonania zadania. Paradygmat 5.3 Badanie przedłużonej koncentracji uwagi Jak długo operator radaru jest w stanie koncentrować się na monitorze? Czy częstość pojawiania się symboli samolotów na monitorze radaru ma wpływ na koncentrację uwagi obserwatorów? Mackworth (1948, 1950) badała czasowe ograniczenia możliwości optymalnej obsługi urządzeń radarowych przez operato­ rów wojskowych. Jedno z opracowanych przez nią zadań laboratoryjnych było symulacją zadań, jakie operatorzy radarów wykonują w codziennej pracy. Zadanie to, znane jako test zegara, polega na percepcyjnej kontroli dużej tarczy zegaro­ wej. Wskazówka przemieszcza się rotacyjnie na tle okrągłej tarczy zgodnie z normalnym kierunkiem ruchu wskazówek zegara, w tempie jednego przemie­ szczenia na sekundę, w sposób nieciągły, tzn. pojawia się, znika, po czym pojawia się w kolejnym miejscu itd. Sygnałem, który powinien zostać rozpoznany przez obserwatora, jest pojawiający się od czasu do czasu „podwójny” krok wskazówki, trwający 2 sekundy. Sygnał jest prezentowany w nieregularnych odstępach czasowych, niezwykle rzadko, z reguły 12 razy na każde 30 minut. Poziom wy­ konania zadania ocenia się na podstawie analizy liczby prawidłowych rozpoznań w trakcie ciągłego, dwugodzinnego okresu kontroli tarczy zegara przez osobę badaną (żadnych przerw ani odpoczynku). 5.1. Isto ta i asp ek ty uwagi 183 Test ten okazał się wzorcowym narzędziem do badania przedłużonej koncen­ tracji uwagi. Na jego podstawie skonstruowano inne narzędzia do badania prze­ dłużonej koncentracji, zwane testami ciągłego wykonania (continuous performan­ ce tests, CPT). Zadania tego typu charakteryzują się: (1) długim czasem trwania (nawet do 2-3 godzin); (2) niskim prawdopodobieństwem pojawienia się sygnału (od 0,03 do 0,10); (3) wykorzystaniem stosunkowo płytkiej zasady selekcji informacji w trakcie analizy bodźców (zasada podobieństwa sensorycznego lub co najwyżej płytka identyfikacja semantyczna). Osobie badanej można np. pokazywać serię cyfr z poleceniem zareagowania zawsze na cyfrę 9 (lub jakąkolwiek inną). Analiza wyników tego typu badań sprowadza się do osza­ cowania liczby poprawnych reakcji i liczby błędów w kolejnych blokach analizy, np. 10-minutowych (Parasuraman, Davies, 1976). W zadaniach tego rodzaju zwykle obserwuje się prawie bezbłędne wykonanie przez dłuższy czas. Dopiero po upływie ok. 45 minut badani zaczynają popełniać błędy. W przypadku braku spodziewa­ nego efektu spadku poprawności wykonania w funkcji czasu, analizuje się czas detekcji poszczególnych bodźców (Jerrison, 1959). Czas ten zaczyna się w pewnym momencie wydłużać, co nawet przy braku spadku dokładności pozwala wykryć negatywny wpływ wydłużonego okresu koncentracji na sprawność uwagi. Podzielność uwagi, a więc możliwość jej koncentracji na dwóch lub więk­ szej liczbie źródeł informacji, jest czwartym ważnym aspektem uwagi (pa­ radygmat 5.4). Człowiek jest zdolny do jednoczesnego wykonywania kilku czynności, np. czytania gazety i słuchania radia. Potrafi też słuchać, np. wykładu i jednocześnie notować lub przygotowywać pytanie, które za chwilę postawi wykładowcy. Zjawisko podzielności uwagi nakazuje postawić pytanie o wyma­ gania, stawiane mechanizmom uwagi selektywnej w związku z koniecznością dzielenia jej na konkurencyjne zadania, a przez to równoległego kontrolowania więcej niż jednego procesu przetwarzania danych (Kahneman, 1973). Pod­ stawowym problemem badawczym w zakresie podzielności uwagi jest pytanie o to, czy uwaga może w pewnych warunkach funkcjonować jako zestaw niezależnych modułów selekcyjnych (Allport, 1980; Allport, Antonis, Reynolds, 1972; McLeod, 1977). Jeśli by tak było, równoległa kontrola kilku procesów nie musi spowodować zakłócenia któregokolwiek z nich. Jeśli natomiast podziel­ ność uwagi oznacza dzielenie pewnej ograniczonej puli „mocy obliczeniowej” na więcej niż jedno zadanie, równoległa kontrola kilku procesów musi spowodować zakłócenie przynajmniej jednego z nich (Kahneman, 1973, 1975; Ninjo, Kahneman, 1974). Wyniki badań częściowo rozstrzygających ten problem zostaną przedstawione przy okazji prezentacji teorii modułów i teorii zasobów uwagi. Paradygmat 5.4 Badanie podzielności uwagi i kontroli czynności jednoczesnych Czy możemy jednocześnie słuchać interesującego wykładu i rozmawiać z koleżan­ ką ze szkolnej ławki? Na ile pogorszy się wykonanie każdej z tych czynności w porównaniu do warunków, w których będziemy je wykonywać pojedynczo? Ba- 184 Rozdział 5. Uwaga i świadomość dania w paradygmacie zadań jednoczesnych były początkowo prowadzone | w zmodyfikowanym paradygmacie podążania (zob. paradygmat 5.1). Jego mo; dyfikacja polegała na tym, że zadaniem uczestników badania było jednoczesne J podążanie za dwoma przekazami, prezentowanymi badanym do dwóch różnych J kanałów sensorycznych. Na przykład w badaniu Ninio i Kahnemana (1974) polei cono osobom badanym śledzić nazwy zwierząt pojawiające się w obu równoleg­ li łych przekazach. Mówiąc krótko - modyfikacja paradygmatu podążania polegała na f zastąpieniu kanału ignorowanego drugim, równoległym kanałem ważnym. Hunt i Lansman (1982) zaproponowali inną procedurę testowania efektyw­ ności dwóch jednocześnie wykonywanych czynności. Zgodnie z ich schematem, zwanym „od łatwego do trudnego”, badani wykonują zadanie priorytetowe o wzrasi tającym poziomie trudności. W badaniach Hunta i Lansman były to matryce ■sprogresywne testu inteligencji Ravena. Dodatkowo uczestnicy badania przez cały czas rozwiązywania zadania priorytetowego wykonują zadanie doładowujące; w badaniach Hunta i Lansman była to kontrola położenia dźwigni. Wzrost trudności zadania priorytetowego powoduje konieczność inwestowania coraz to nowych, dodatkowych zasobów, których ilość może się wyczerpać, zwłaszcza gdy część z nich musi zostać przeznaczona na wykonywanie zadania doładowującego. Przy założeniu, że badani wykonują oba zadania z zaangażowaniem tej samej, ograniczonej puli zasobów, można wyznaczyć w zadaniu priorytetowym taki punkt trudności, powyżej którego rozwiązywanie tego zadania okaże się niemożliwe. Miarą podzielności uwagi jest wówczas ów „punkt załamania” na skali trudności zadania priorytetowego. Im wyżej jest on położony, tym większa jest podzielność. Jako miarę podzielności uwagi można też traktować różnicę między pozio­ mem wykonania zadania priorytetowego w warunku wymuszonej podzielności a poziomem wykonania tego samego zadania wtedy, gdy ma ono monopol na zasoby poznawcze, tzn. jest wykonywane bez konieczności równoległej kontroli dodatkowego zadania (Nęcka, 1994, 2000). Interesujące, że prowadząc badania w paradygmacie „od łatwego do trudnego”, Lansman, Poltrock i Hunt (1983) ustalili, iż poziom wykonania zadania priorytetowego w warunku pojedynczym jest pozytywnie skorelowany (r = 0,50 do 0,60) z poziomem wykonania tego zadania przez tych samych badanych w warunku podwójnym. Korelacja ta dotyczy wprawdzie tylko osób badanych o wyższym poziomie inteligencji, ale analiz dla badanych o obniżonym poziomie inteligencji nie przedstawiono. Pozytywny - istot­ ny i silny - związek między, traktowanymi jako odrębne, aspektami: selektywności i podzielności uwagi przemawia na korzyść tezy o jednorodnym charakterze uwagi (Nęcka, 1995; Szymura, Nęcka, 2004). Ostatnim z ważniejszych aspektów uwagi jest jej przerzutność (Jersild, 1927). Terminem tym oznacza się zdolność uwagi do przełączania się między dwoma zadaniami, „obsługiwanymi” przez niezależne procesy przetwarzania informacji. Życie codzienne, podobnie jak czynności zawodowe, wymaga nie­ ustannego przerzucania uwagi z jednego obiektu na inny. Zajęci jesteśmy np. pisaniem, ale musimy odebrać telefon, aby za chwilę znów wrócić do przerwanej czynności. Przerzucanie uwagi oznacza konieczność zahamowania jednego procesu poznawczego i uruchomienia procesu alternatywnego. Wiąże się to 5.1. Isto ta i asp ek ty uw agi 185 zwykle z kosztami poznawczymi, np. ze zwiększoną ilością czasu, potrzebnego na wykonanie zadania, albo ze zwiększonym ryzykiem popełnienia błędu. Ba­ dania nad przerzutnością uwagi (paradygmat 5.5) zmierzają głównie do ustalenia wielkości tych kosztów i sposobów ich redukcji (Allport, Wylie, 2000; Meiran, 2000; Meiran, Chover, Sapir, 2000; Spector, Biedermann, 1976). Wyniki tych badań zostaną przedstawione podczas prezentacji teorii przerzutności, zwłaszcza teorii rekonfiguracji (Rogers, Monsell, 1995). | Paradygmat 5.5 Badanie przerzutności uwagi Nie każda zmiana rodzaju aktywności oznacza pogorszenie sprawności działania. I Na przykład przedzielenie wysiłku umysłowego ćwiczeniami fizycznymi ułatwia f ponowne skupienie się na problemie. Również zmiana jednej aktywności umysło­ wej na inną nie musi oznaczać chwilowej utraty sprawności, jeśli podobieństwo między dwoma rodzajami aktywności jest znikome. Jeśli natomiast mamy przetwarzać ciągle ten sam zestaw danych, ale według zmieniających się reguł, pogorszenie wykonania jest niemal pewne. Owo pogorszenie nazywamy poznaw8 czymi kosztami przełączania się między zadaniami. Badania w paradygm acie przełączania się m iędzy zadaniam i (task switching) zapoczątkował Jersild (1927). Prezentował on osobom badanym długie I kolumny dwucyfrowych liczb. Zadanie polegało na wykonywaniu operacji matematycznych: dodawaniu liczby 6 lub odejmowaniu liczby 3 od każdego | kolejno prezentowanego elementu kolumny. Jersild porównywał czas potrzebny do wykonania dwóch wersji zadania. W jednej wersji trzeba było naprzemiennie I dodawać 6 lub odejmować 3; była to wersja mieszana, wymagająca przerzutności I uwagi. W drugiej wersji trzeba było wykonywać tylko jeden rodzaj przekształcenia, czyli albo dodawać 6, albo odejmować 3 - dopóty, dopóki nie skończy się cała | kolumna liczb; była to zatem wersja jednorodna, wymagająca koncentracji uwagi na jednym zadaniu. W badaniach prowadzonych według tego paradygmatu stwier1 dza się zwykle występowanie różnic, jeśli chodzi o czas potrzebny do wykonania każdej wersji zadania. Dłuższy czas, konieczny do ukończenia wersji mieszanej, i odzwierciedla koszty związane z koniecznością przełączania uwagi między za­ daniami (u Jersilda - dodawanie lub odejmowanie). Odejmując dwie wartości czasu wykonania zadania otrzymujemy oszacowanie wielkości tego kosztu. Można go też oszacować, porównując wskaźniki poprawności wykonania w obu wersjach. Jeśli zadanie nie będzie ogólnie zbyt łatwe (efekt podłogowy), wersja mieszana i przyniesie więcej błędów niż wersja jednorodna. Odejmując wskaźniki poprawności wykonania, możemy oszacować koszt przełączania uwagi między zadaniami. Zdarza się, że badani dokonują wymiany kosztów czasowych na poprawnościowe ; lub odwrotnie. Możemy więc nie zaobserwować różnic w czasie, potrzebnym na wykonanie obu wersji, ale ujawnią się różnice w zakresie liczby błędów, albo 8 odwrotnie. Możliwe jest też oczywiście zaobserwowanie kosztów przełączania za­ równo w odniesieniu do czasu wykonania, jak też ogólnej liczby błędów. Dalsze badania prowadzone w tym paradygmacie wykazały, że wielkość kosztów może zależeć od obecności wskazówek dotyczących tego, które warunki zadania będą obowiązywać w następnej próbie (Spector, Biedermann, 1976). Na 186 Rozdział 5. Uwaga i świadomość przykład informacja o tym, że za chwilę trzeba będzje odejmować lub dodawać, zdecydowanie zwiększa efektywność przełączania uwagi między zadaniami. Wydaje się, że informacja na temat rodzaju kolejnego zadania uruchamia nasta­ wienie, umożliwiające przygotowanie się do jego wykonania. Koszty przełączania można też zmniejszyć, wydłużając przerwę między kolejnymi elementami mieszanej wersji zadania (Allport, Styles, Hiesh, 1994). Im dłuższa przerwa, tym mniejsze prawdopodobieństwo błędu i wydłużenia czasu reagowania. Badania sugerują, że obecność wskazówek na temat następnej próby oraz wydłużenie czasu między próbami działają niezależnie, co oznacza, że wykorzystują różne mechanizmy poznawcze, odpowiedzialne za przerzutność uwagi. Dodajmy, że dwa używane w tym kontekście terminy mają odmienne zna­ czenie. Uwaga przerzuca się z jednego obiektu na inny, zaś człowiek przełącza się z jednego zadania na inne. Przerzutność (shifting) jest więc konstruktem teore­ tycznym, odnoszącym się do hipotetycznego sposobu funkcjonowania mecha­ nizmu uwagi, podczas gdy przełączanie się między zadaniami (task switching) to termin obserwacyjny, odnoszący się do sposobu zachowania osoby badanej w określonych warunkach eksperymentalnych lub po prostu człowieka w zmienia­ jących się warunkach otoczenia. Na zakończenie tego podrozdziału warto podkreślić, że wszystkie wymie­ nione aspekty uwagi, a w konsekwencji wszystkie niżej omówione teorie tego zjawiska, dotyczą w istocie tego samego zagadnienia. Jest to problem ograni­ czonej zdolności systemu poznawczego do przetwarzania dużej ilości informacji w tym samym czasie. W związku z tym ograniczeniem system poznawczy dokonuje pewnych istotnych decyzji, np. znacząco redukuje ilość informacji dopuszczonych do dalszego przetwarzania (selekcja źródła), albo ucieka się do prób pogodzenia sprzecznych wymagań (podzielność, przerzutność). System może też nie podejmować żadnych znaczących decyzji, ale wykazuje obniżenie sprawności w związku z nadmierną liczbą mało wyróżniających się bodźców (przeszukiwanie poła percepcyjnego) albo z wydłużonym okresem czujności (przedłużona koncentracja). Mimo wieloaspektowości uwagi i rozmaitości za­ dań, w których realizacji system ten bierze udział, mamy tu do czynienia w gruncie rzeczy z tą samą funkcją poznawczą - z selektywnością (Driver, 2001). Większość przejawów tejże selektywności polega na redukcji nadmiaru bodźców (selekcja źródła, przeszukiwanie pola, przedłużona koncentracja), ale niektóre polegają na kontroli nadmiaru możliwych reakcji (podzielność, przerzutność). Uwaga ujawnia się więc jako mechanizm o niezwylde zróżnicowanym zakresie funkcji, a mimo to jednolity (Nęcka, 1995; Szymura, Nęcka, 2004). 5.2. Teorie uwagi Pięć opisanych powyżej aspektów uwagi odpowiada pięciu funkcjom, jakie pełni ten mechanizm w ogólnej strukturze umysłu. Natomiast zarysowane w tym rozdziale teorie opisują poznawczy mechanizm odpowiedzialny za pełnienie tych funkcji. Wiemy już, co uwaga robi, teraz opiszemy, jak to robi. 5.2. Teorie uwagi 187 5.2.1. Teorie selekcji źródła informacji j ; i i? t > J Historycznie najwcześniejsza jest koncepcja filtra uwagi. Istnieje wiele wersji tej koncepcji, a ich wspólną cechą jest założenie, że informacja wędrując od organów zmysłowych do świadomości napotyka na swej drodze mechaniczną przeszkodę, czyli filtr, zwany również bramką. Filtr ten skutecznie blokuje znaczną część docierającej do organizmu stymulacji sensorycznej, podczas gdy innym informacjom umożliwia dostęp do kolejnych etapów przetwarzania. Odbywa się to na zasadzie czasowego zablokowania wszystkich źródeł informacji z wyjątkiem jednego; uwaga redukuje więc nadmiar informacji na wejściu sensorycznym poprzez selekcję źródła informacji. Całość stymulacji, pochodząca ze wszystkich aktywnych źródeł, oczekuje na przejście przez filtr jak gdyby w poczekalni. Jeśli jednak coś nie zostanie zaakceptowane przez filtr, ulega szybkiej degradacji. Szybkość zanikania zależy m.in. od modalności zmysłowej (wzrok, słuch itd.), ale zazwyczaj „poczekalnia” jest czynna nie dłużej niż od kilku do kilkunastu sekund (Sperling, 1960, 1963). Informacja zatrzymana „w poczekalni” nie może być przetworzona głębiej niż na poziomie sensorycznym. Być może właśnie dlatego informacja ta szybko zanika, ponieważ danych nie przetworzonych na głębszym poziomie analizy nie można dłużej przechowywać w pamięci. Natomiast przejście przez filtr oznacza, że informacja zostaje dopuszczona do dalszego przetwarzania już na głębszym poziomie (np. semantycznym), co może doprowadzić do jej ujaw­ nienia się w postaci świadomego doznania. Założenie o istnieniu filtra uwagi jest wspólne dla wszystkich odmian tej koncepcji, różnice polegają natomiast na postulowaniu odmiennych zasad funkcjonowania mechanizmu filtrującego informacje. Autorem pierwszej koncepcji filtra uwagi jest Donald Broadbent (1957, 1958, 1971, 1982). Zaproponowany przez niego model można wizualnie przed­ stawić w kształcie litery „Y” (ryc. 5.1). „Ramiona” tej litery reprezentują dwa sensoryczne kanały informacyjne wchodzące do systemu; każdy z nich doprowadza informację z jednego źródła. „Ramiona” te zbiegają się w „nogę” - pojedynczy kanał, w którym możliwe jest dalsze, już semantyczne, przetwa­ rzanie informacji. Uwaga działa więc trochę na zasadzie zwrotnicy, przepusz­ czającej komunikaty z lewego lub prawego kanału sensorycznego w zależności od tego, który z nich spełnia zasadę selekcji. Ta ostatnia ma zawsze charakter fizykalny: o tym, czy dany sygnał opuści „poczekalnię” w kanale sensorycznym i przejdzie do etapu przetwarzania semantycznego, decydują fizyczne parametry sygnału, takie jak: jego intensywność, kolejność w szeregu czy współistnienie innych bodźców. Ze względu na sposób regulowania pracy mechanizmu filtrującego informacje, zasadę tę nazwano dla uproszczenia zasadą sensoryczną lub zasadą „wszystko albo nic”. Komunikat w danym momencie nieprzetwarzany oczekuje w zamkniętym kanale sensorycznym, gdyż w kanale seman­ tycznym nie ma na razie dla niego miejsca. Bardzo szybko ulega więc degradacji i w efekcie zapomnieniu. Jedyne, co utrzymuje się po nim w pamięci, to fizyczna charakterystyka sygnałów. Stąd badani w paradygmacie dychotycznej prezenta­ cji bodźców (paradygmat 5.1) są w stanie rozpoznać płeć spikera przekazu w kanale ignorowanym, ale nie mogą odpowiedzieć na żadne pytanie dotyczące treści tego przekazu (Cherry, 1953). Płeć spikera można bowiem rozróżnić na 188 Rozdział 5. Uwaga i świadom ość Teorie wczesnej selekcji informacji: 1 Ryc. 5.1. Model filtra uwagi wg Broadbenta (1957). podstawie wysokości tonu głosu, czyli fizycznej charakterystyki przekazu; na tej podstawie nie można jednak powiedzieć niczego o znaczeniu komunikatu. Gdy nie jest jasne, którego z dwóch przekazów należy słuchać, ale wiadomo, że któregoś trzeba, rozpoznanie każdego przekazu utrzymuje się na poziomie 50% (Broadbent, 1952). Model Broadbenta poddano wielokrotnie ostrej krytyce. Badacze zaakcep­ towali wprawdzie metaforę uwagi jako filtra (bramki, zwrotnicy), niektórzy skłonni byli nawet zgodzić się z jednokanałowym charakterem dalszego przetwarzania informacji już po selekcji (zasada „wszystko albo nic”), ale nie mogli zgodzić się z sensoryczną zasadą funkcjonowania mechanizmu selektyw­ ności. Zasada ta uwzględnia bowiem jedynie fizyczne cechy bodźców, tym­ czasem wydaje się, że wiele decyzji selekcyjnych jest podejmowanych raczej na podstawie znaczenia sygnałów, niż ich cech fizykalnych. Modyfikując badania w paradygmacie dychotycznej prezentacji badacze starali się wykazać, iż mechanizm filtrujący informacje może się kierować także innymi zasadami se­ lekcji. Na przykład Moray (1959) umieścił w przekazie ignorowanym kilka­ krotnie powtarzane imię osoby poddanej testowi. Okazało się, iż po zakoń­ czeniu eksperymentu badani wiedzieli o tym, że w „niesłuchanym” komunikacie pojawiało się ich imię. Tej wiedzy nie towarzyszyło pogorszenie poziomu wykonania zadania podstawowego, polegającego na odtworzeniu z pamięci treści komunikatu ważnego. Spektakularnych danych na temat roli semantycznych reguł selekcji materiału dostarczyli Gray i Wadderburn (1960). Zamiast fragmentów prozy, używanych z reguły we wcześniejszych badaniach jako dychotycznie przekazy­ wane komunikaty, autorzy użyli naprzemiennych ciągów cyfr i sylab. Każdemu badanemu prezentowano w tym samym czasie jedną cyfrę i jedną sylabę, po jednym sygnale na każde ucho. Kolejność cyfr i sylab była naprzemienna: po cyfrze zawsze następowała sylaba i odwrotnie, np. 4 ha 7 do 3 mi. Dodatkowo, połowę badanych poinformowano o możliwości zgrupowania sygnałów w dwie różne kategorie, a drugiej połowie nic na ten temat nie mówiono. Gray i Wadder­ burn oczekiwali selekcji sygnałów ze względu na ich kategorialną przynależ­ 5.2. Teorie uw agi 189 ność, a nie według sensorycznego kanału prezentacji. Oczekiwano więc, że osoby badane zeznają, iż słyszały 4 7 3, a potem ha do mi, mimo że te dwa ciągi znaków pojawiały się naprzemiennie w dwóch różnych kanałach. Wprawdzie nie wszyscy badani zachowali się w eksperymencie zgodnie z tymi hipotezami, ale zdecydowanie wyższy poziom wykonania zadania, mierzony liczbą poprawnych odpowiedzi, zaprezentowali ci spośród uczestników eksperymentu, którzy raportowali osobno cyfry i osobno sylaby. Okazało się poza tym, że cyfry często „zbrylano” w liczby, a sylaby w słowa. Grupowanie bodźców zgodnie z ich znaczeniem, a przeciwko porządkowi, w jakim je prezentowano, było szcze­ gólnie widoczne u tych osób badanych, które poinformowano o przynależności kategorialnej bodźców. W kolejnym eksperymencie okazało się jednak, że na to, jaka zasada selekcji jest stosowana przez mechanizm filtrujący (sensoryczna czy semantyczna), ma wpływ czas pozostawiony na analizę poszczególnych par bodźców. Broadbent i Gregory (1964) wykazali, że stosowanie semantycznej zasady selekcji jest możliwe jedynie przy relatywnie długich przerwach pomiędzy pojawieniem się jednej pary sygnałów a prezentacją następnej. Natomiast w sytuacji, gdy pary bodźców następowały po sobie bardzo szybko, wyniki pozostawały zgodne z tymi, jakie uzyskano już wcześniej przy użyciu jednolitych list bodźców, np. tylko cyfr (Broadbent, 1954), a więc jednoznacznie wskazywały na wykorzystywanie przez filtr zasady sensorycznej. Rozstrzygających danych na temat możliwości kierowania się przez filtr uwagi kryteriami semantycznymi dostarczyły badania Treisman (1960). Autorka wykazała, że uwaga automatycznie przełącza się z jednego kanału sensorycz­ nego na drugi, jeśli może w ten sposób śledzić treść sensownego komunikatu. Instrukcja, aby ignorować któryś z kanałów sensorycznych, przestaje obowią­ zywać w momencie, gdy do tego kanału trafia coś, co łączy się sensownie z informacją do tej pory uważnie śledzoną. Co więcej, filtr uwagi okazał się zdolny do „sklejania” fragmentów komunikatów pochodzących z różnych źródeł, tj. ważnego i ignorowanego, jeśli w wyniku takiego zabiegu powstanie coś, co ma sens (Treisman, 1970). Wyniki tych badań sugerują, że pojęcia „kanału ważnego” i „kanału ignorowanego” powinny być zdefiniowane na podstawie semantycznej zawartości komunikatów, a nie ze względu na to, czy coś „idzie” do ucha prawego, czy też lewego (zob. ramka 5.1). Ramka 5.1 Czy nasza uwaga spontanicznie podąża za sensem komunikatu? Polecając osobom badanym podążać za zadanym fragmentem prozy, Anna Treisman (1960) dokonywała niespodziewanej zamiany kanałów sensorycznych: ważnego z ignorowanym. Proza przeznaczona do powtarzania, prezentowana w jednym z kanałów (np. lewym), nagle pojawiała się w drugim kanale (czyli prawym), podczas gdy komunikat ignorowany „przeskakiwał” do kanału pierwszego. " Komunikat ważny i ignorowany jak gdyby zamieniały się miejscami w sposób dla osoby badanej zaskakujący i nieprzewidywalny. Treisman zauważyła, że badani spontanicznie zmieniali kanał pierwszy na drugi i odwrotnie, jakby śledząc dalszy i ciąg tego komunikatu, za którym nakazano im nadążać. Z reguły jednak spóźniali się z przełączeniem filtra uwagi między kanałami o jedno lub dwa słowa. W każdym 190 Rozdział 5. Uwaga i świadom ość razie po tym krótkim zawahaniu bezbłędnie powtarzali fragmenty prozy, które były semantycznie zgodne z wcześniejszymi fragmentami, mimo że pochodziły ze źródła, które na podstawie sensorycznej zasady selekcji powinno być z góry odrzucone. W kolejnych eksperymentach z wykorzystaniem tej techniki Treisman i współ­ pracownicy (Treisman, Squire, Green, 1974; Treisman, Sykes, Gelade, 1977) pre­ zentowali badanym w obu kanałach sensorycznych przekazy w różnym stopniu koherentne semantycznie lub brzmieniowo. Na przykład w kanale ważnym po­ jawiały się wybrane słowa, które trzeba było szybko rozpoznawać, podczas gdy w kanale ignorowanym mogły się pojawiać synonimy tych słów lub wyrazy o po­ dobnym brzmieniu. W wyniku prowadzonych badań stwierdzono efekt synonimu: jeśli w kanale ważnym pojawiało się słowo-sygnał, czas potrzebny na jego wykrycie wydłużał się, jeśli w kanale ignorowanym pojawił się w tym samym czasie jego synonim. Osoby badane jak gdyby przez moment wahały się, na co mają za­ reagować - czy na „oficjalne” słowo-sygnał z kanału ważnego, czy na odrzucone świadomie nierejestrowany synonim tego słowa, pojawiający się w kanale igno­ rowanym. Ten moment zawahania wydłuża czas reakcji, czego nie obserwowano wtedy, gdy w kanale odrzucanym pojawiały się słowa znaczeniowo niezwiązane lub bardzo słabo powiązane ze słowami-sygnałami. W innych badaniach Treisman (1970) udało się wykazać, że ludzie często dokonują fuzji (zbitek) dwóch słów pochodzących z różnych kanałów sensorycz­ nych, jeśli taka fuzja daje w efekcie wyraz, który coś znaczy (back + lack => black). Fuzje te - rezultat połączenia wbrew instrukcji eksperymentatora dwóch odrębnych elementów pochodzących z różnych źródeł sensorycznych - Treisman nazwała związkami iluzorycznymi. Prawdopodobieństwo powstania takiej zbitki wzrasta wraz ze zwiększaniem się liczby cech wspólnych obu składnikom przyszłej fuzji, takich jak podobne brzmienie lub przynależność do tej samej kategorii obiektów (Treisman, Sykes, Gelade, 1977). Zarówno efekt synonimu, jak i występowanie związków iluzorycznych mogą świadczyć na korzyść tezy o jednoczesnej analizie (synonim), a nawet możliwej integracji semantycznej (związek iluzoryczny) danych pochodzących z różnych kanałów sensorycznych. Hipotetyczny filtr uwagi byłby zatem zdolny do selekcjono­ wania informacji ze względu na znaczenie podlegających selekcji bodźców. Według Treisman oznacza to, że w procesie selekcji filtr uwagi uwzględnia semantyczne aspekty odbieranych sygnałów. Na podstawie wyników badań sprzecznych z zasadą sensoryczną Treisman (1960, 1970) zaproponowała nowy, konkurencyjny wobec koncepcji Broadbenta model mechanizmu selekcji. W modelu tym całkowicie odrzuciła ideę, zgod­ nie z którą filtr uwagi dokonuje mechanicznej blokady odrzuconej informacji ze względu na jej właściwości fizykalne. Nie zgodziła się też z poglądem, że droga do dalszego przetwarzania jest dla informacji odrzuconych zamknięta jak gdyby od zewnątrz (stąd alternatywne określenie filtra: bramka). Zdaniem Treisman, filtr uwagi otwierany jest „od środka”, to znaczy przez te informacje, które już się przez filtr (bramkę) przedostały. Ma to działać w ten sposób, że informacje przepuszczone wcześniej przez filtr, a przetwarzane na poziomie semantycz­ nym, wzmacniają wszystkie dane, dopiero próbujące przedostać się przez filtr, 5.2. Teorie uw agi i \ r [ ł [■ [ | j I j [ | j | ; j [ | | \ | \ i 191 a których znaczenie zgadza się z tym, co jest aktualnie przetwarzane. W ten sposób bodźce semantycznie koherentne z informacjami analizowanymi już w kanale semantycznym miałyby łatwość w pokonaniu filtra (bramki), ponieważ są przez uwagę antycypowane. Dzieje się tak niezależnie od tego, którym kanałem sensorycznym docierają nowe informacje. Mogą docierać kanałem do tej pory ignorowanym, ale ponieważ są jak gdyby „oczekiwane”, łatwo przechodzą do dalszych etapów przetwarzania. Dlatego właśnie, zdaniem Treisman, jeśli to tylko możliwe, badani grupują bodźce zgodnie z ich znaczeniem, a nie według porządku ich prezentacji lub obecności w określonym kanale (np. ignorowanym). Pozostałe informacje, a więc te, które nie są semantycznie zbieżne z danymi aktualnie przetwarzanymi, byłyby wprawdzie również dopuszczane do dalszej obróbki, ale w postaci mało aktywnej, osłabionej. Decyzja selekcyjna przejawiająca się we wzmocnieniu lub osłabieniu informacji byłaby podejmowana na podstawie głębokiej analizy semantycznej wszystkich docierających do systemu informacji. Stąd zasadę selekcji zaproponowaną przez Treisman nazwano zasadą semantyczną, a stworzony przez nią teoretyczny model uwagi - modelem osłabiacza (attenuator; Czyżewska, 1991). Próbując rozstrzygnąć, od czego zależy, czy uwaga funkcjonuje zgodnie z zasadą sensoryczną czy semantyczną, Broadbent i Gregory (1964) dokonali rozróżnienia pomiędzy zestawem bodźców i zestawem reakcji. Pierwszy zestaw jest zbiorem sygnałów wysyłanych przez środowisko, podczas gdy zestaw drugi obejmuje to wszystko, o czym człowiek może nam powiedzieć, że spostrzega. Zadaniem autorów, selekcja sygnałów dokonuje się zgodnie z kolejnością do­ cierania poszczególnych bodźców w zestawie i według zasady opartej na fizycz­ nych parametrach sygnałów. Jeśli filtr otrzymuje informacje w tempie umożli­ wiającym ich percepcję, to wygenerowany przez system poznawczy zestaw reakcji jest identyczny z zestawem bodźców. Jeżeli natomiast tempo prezentacji jest szybsze, zestaw reakcji maleje w porównaniu do zestawu bodźców, przy zachowanej zgodności obu zestawów odnośnie do fizycznej kolejności pojawiania się sygnałów. Jeśli z kolei czas prezentacji bodźców dostatecznie się wydłuży, materiał zostanie pogrupowany przed jego prezentacją, a ponadto dostarczy się osobie badanej odpowiednich wskazówek, to filtr może wygene­ rować zestaw reakcji, który nie jest fizycznie zgodny z zestawem bodźców. Broadbent i Gregory uważają, że w przypadku szybkiej reprodukcji zestawu bodźców udział biorą tylko sensoryczne procesy selekcji opisane w teorii filtra Broadbenta. W innym przypadku na procesy sensoryczne nakładają się cen­ tralne mechanizmy przetwarzania informacji. Udział procesów centralnych wymaga czasu, jest więc niemożliwy w sytuacji szybkiej prezentacji sygnałów, a możliwy wtedy, gdy badanym pozostawia się czas na dalsze przetworzenie bodźców. Autorzy proponują więc ostatecznie koncepcję dwóch filtrów uwagi: sensorycznego i semantycznego. Deutsch i Deutsch (1963, 1967) zaproponowali jeszcze inne umiejscowienie filtra. Według nich efektywna selekcja informacji może zaistnieć dopiero wtedy, gdy spostrzegane sygnały zostają poddane świadomej obróbce. Osłabienie bądź wzmocnienie znaczenia sygnałów mogłoby się więc dokonywać dopiero po przekroczeniu bariery świadomości. Wcześniej wszystkie bodźce byłyby przetwarzane z jednakową skutecznością aż do poziomu głębokich reprezentacji umysłowych, jednak bez formułowania jawnej reprezentacji pa­ 192 Rozdział 5. U w aga i świadom ość mięciowej (Duncan, 1980). Zasadę koniecznej świadomości szybko jednak odrzucono, wykazując iż nie jest ona w istocie konieczna do przetwarzania znaczenia sygnałów oraz podejmowania skutecznych i złożonych decyzji selekcyjnych (Corteen, Wood, 1972, 1974; Holender, 1986; Lackner, Garrett, 1972). Problem ten zostanie omówiony szerzej przy okazji prezentacji związków uwagi i świadomości (zob. rozdz. 5.3). Jeśli jednak ze sformułowania zasady selekcyjnej zaproponowanej przez Deutsch i Deutscha usunąć „konieczność”, to jak najbardziej słuszne wydaje się postulowanie istnienia kolejnego, trzeciego już filtra uwagi, działającego na poziomie świadomych decyzji selekcyjnych. Dotyczy to w szczególności selekcji w odniesieniu do wyższych, złożonych procesów poznawczych. Trudno np. zakładać, że dla właściwego wyboru kie­ runku studiów oba wcześniej omówione filtry informacji: sensoryczny i seman­ tyczny, okażą się wystarczające. Próby rozwiązania problemu umiejscowienia filtra uwagi doprowadziły do silnej polaryzacji poglądów. Dwa antagonistyczne stanowiska reprezentowali zwolennicy modeli wczesnej selekcji informacji, przypisujący podstawowe zna­ czenie zasadzie sensorycznej, oraz zwolennicy modeli późnej selekcji, pod­ kreślający doniosłość zasady semantycznej lub nawet zasady koniecznej świa­ domości sygnału. Pojawiały się także rozwiązania mniej radykalne, wskazujące na obecność dwóch lub nawet trzech filtrów, zdolnych do wczesnej lub późnej selekcji informacji w zależności od warunków zadania. Broadbent i Gregory (1964) sugerowali, że czynnikiem decydującym o wyborze przez system po­ znawczy jednego z potencjalnych filtrów może być tempo prezentacji informacji. Natomiast Lavie (1995, 2000; Lavie, Tsal, 1994) wskazuje raczej na czynnik ilościowy jako determinujący decyzje systemu odnośnie do umiejscowienia „wąskiego gardła” selekcji. Posługując się metaanalizą wyników wcześniejszych badań, a także wykorzystując rezultaty własnych eksperymentów, Lavie stwier­ dził, że model wczesnej selekcji znajduje potwierdzenie w badaniach, w których zadanie było percepcyjnie wymagające. Zadania tego rodzaju, nazwane za­ daniami o dużym ładunku percepcyjnym, polegają na prezentacji relatywnie dużej liczby bodźców, wśród których znajdują się zarówno sygnały, jak też liczne i różnorodne dystraktory. Natomiast modele późnej selekcji informacji znajdowały swoje potwierdzenie w badaniach z wykorzystaniem zadań o małym ładunku percepcyjnym, gdzie prezentowano zazwyczaj pojedynczy sygnał i dystraktor. Johnston (1978; Johnston, Heinz, 1978) wskazał na jeszcze jedno możliwe rozwiązanie problemu umiejscowienia mechanizmu selekcjonującego informa­ cje. Powrócił on do koncepcji istnienia tylko jednego filtra, za to zmieniającego swój charakter w zależności od poziomu przetwarzania informacji (Craik, Lockhart, 1972). Najważniejszą cechą takiego filtra byłaby jego elastyczność, przejawiająca się w możliwości szybkiej zmiany poziomu przetwarzania infor­ macji oraz niemal natychmiastowego przystosowania się do aktualnego poziomu analizy i selekcji danych. W swoich eksperymentach Johnston starał się wymiernie określić różnicę w działaniu elastycznego filtra na różnych poziomach przetwarzania. Stwierdził m.in., że czas potrzebny na dokonanie selekcji różni się znacznie ze względu na poziom przetwarzania: podczas gdy już 100 ms może wystarczyć do właściwej selekcji na poziomie sensorycznym (zależy to jednak od modalności bodźca; Woodworth, Schlosberg, 1963), zasada 5.2. Teorie uw agi [ [ \ ! [ i I j | [ j S 1 { [ j j I 193 semantyczna wymaga co najmniej 360 ms (Johnston, 1978). Czas ten może się zresztą znacznie wydłużyć, jeśli zasada selekcji jest dość złożona (Posner, Mitchell, 1967). Ponadto wraz z wydłużeniem czasu selekcji, związanego z przejściem na wyższy poziom przetwarzania informacji, zwiększa się pojem­ ność samego filtra, mierzona ilością informacji objętej jednoczesnym przetwa­ rzaniem. Wyniki te znalazły potwierdzenie w kolejnych badaniach (Johnston, Heinz, 1978). Johnston wraz ze współpracownikami (Johnston, Heinz, 1979; Johnston, Wilson, 1980; Johnston, Dark, 1982) wykazali również, że efektyw­ ność działania elastycznego filtra na kolejnych poziomach przetwarzania zależy od skuteczności analizy i selekcji informacji na poziomach niższych. Percepcja wszelkich bodźców niezwiązanych z celem (szumu i dystraktorów) może być według nich powstrzymana już na poziomie sensorycznym: stopień sensorycz­ nego przetwarzania tych obiektów okazał się odwrotnie proporcjonalny do stopnia poprawnej selekcji sygnałów. Innymi słowy: im więcej zakłóceń udaje nam się zablokować na poziomie sensorycznym, tym poprawniej wychwytujemy później ważne sygnały na poziomie semantycznym. Możliwości kontrolowanej selekcji informacji na niższych poziomach przetwarzania są wprawdzie ograniczone, ale proces ten może zachodzić na wszystkich poziomach, nie wyłączając poziomu sensorycznego (Dark i in., 1985). Johnston nie określił wyraźnie, zgodnie z jaką zasadą selekcyjną funkcjo­ nuje postulowany przez niego elastyczny filtr. Wydaje się, że mogłaby tu działać zasada przetargu między szybkością a poprawnością (Snodgrass, Luce, Galanter, 1967; Meyer i in., 1988; Szymura, Słabosz, 2002). W eksperymentach z presją czasową badani z reguły nie są w stanie jednocześnie uzyskać dobrych wyników zarówno w zakresie szybkości, jak i poprawności reakcji. W konsekwencji, albo są szybcy, ale popełniają wiele błędów, albo też reagują poprawnie, ale kosztem znacznego spowolnienia przebiegu procesów przetwarzania informacji. Zgodnie z modelem Johnstona, im płytszy poziom analizy bodźców, tym szybszy proces selekcji informacji. Jednak na płytkim poziomie przetwarzania sygnału nie udaje się zanalizować wielu jego cech. W konsekwencji mechanizm filtrujący jest narażony na błędy w procesie selekcji informacji, gdyż może on pominąć niektóre sygnały lub też uznać za sygnały niektóre bodźce zakłócające. Na głę­ bokich poziomach przetwarzania informacji analiza bodźców jest znacznie bardziej złożona i uwzględnia więcej cech stymulacji. Wiąże się to z większą poprawnością procesów selekcyjnych kosztem wydłużenia czasu potrzebnego na dokonanie wyboru. Zatem na płytkich poziomach selekcji elastyczny filtr „płaci” poprawnością za szybkość, podczas gdy na poziomach głębokich szybkością za poprawność. Koncepcja Johnstona (1978; Johnston, Heinz, 1978, 1979) integruje różne wcześniejsze modele filtra uwagi (zob. ryc. 5.2). W jego modelu filtr funkcjonuje na poziomie sensorycznym zgodnie z zasadą „wszystko albo nic” (Broadbent), na poziomie semantycznym zgodnie z zasadą osłabiacza (Treisman), a na najgłębszym poziomie odniesienia do Ja - zgodnie z zasadą koniecznej świadomości (Deutsch i Deutsch). Ponadto, na każdym poziomie przetwarzania filtr działa według naczelnej zasady przetargu między szybkością a poprawnością (Snodgrass). Te cechy koncepcji Johnstona sprawiają, że zasługuje ona na bardzo wysoką ocenę ze względu na trafny opis mechanizmu selekcji źródła i dobre wyjaśnienia dostępnych danych empirycznych. Jej ograniczeniem wydaje Poziomy przetwarzania informacji (Craik, Lockhart, 1972) poziom głębszy (semantyczna identyfikacja) poziom płytki (sensoryczny) poziom najgłębszy (treści semantycznie związane) i 51 ►R 52 ** Filtr Broadbenta (1958) Filtr Treismana (1960) * Teoria (głębokości) poziomów przetwarzania informacji (Craik, Lockhart, 1972) * * Teoria filtra uwagi selektywnej (Broadbent, Treisman, Deutsch, 1958-1963) // ► Problem „szyjki od butelki” Ryc. 5.2. Schematyczna prezentacja koncepcji elastycznego filtra uwagi wg Johnstona (1978). Filtr Deutsch i Deutscha (1960) 5.2. Teorie uwagi 195 się przyjęcie założenia, że analiza i selekcja informacji ma miejsce tylko w jed­ nym kanale przetwarzania. Tymczasem, zdaniem wielu badaczy (Allport, 1980; Wickens, 1984; Pashler, 2000), system poznawczy jest zdolny do jednoczesnej selekcji informacji w wielu różnych kanałach przetwarzania. Mechanizmy jednoczesnej selekcji informacji opiszemy przy okazji prezentacji teorii zasobów i modułów uwagi (zob. rozdz. 5.2.4). 5.2.2. Teorie przeszukiwania pola percepcyjnego I ! l I ; j : i ! ; Najbardziej znaczącą koncepcją teoretyczną w tym obszarze jest teoria integracji cech zaproponowana przez Treisman (1982, 1988; Treisman, Gelade, 1980). Koncepcja ta podlegała licznym modyfikacjom, jednak jej podstawowe założenia pozostają niezmienne (Driver, 2001; Pashler, 2000). Według pierwotnego modelu Treisman, selekcja sygnałów odbywa się w dwóch etapach. Najpierw wszystkie sygnały i ich cechy docierają do tzw. map lokacyjnych. Są one czymś na kształt książki adresowej, bowiem kierują zapisem poszczegól­ nych właściwości postrzeganych obiektów, takich jak kolor, kształt itd. Mapy umożliwiają też wykrycie, czy dany atrybut (np. czerwony kolor albo kwadratowy kształt) jest obecny w którymkolwiek z obiektów znajdujących się w polu wzrokowym. Treisman sądzi, że każdy obiekt w polu percepcyjnym jest kodowany z uwzględnieniem najprostszych właściwości sensorycznych, takich jak kolor, orientacja przestrzenna, rozmiar, kształt, kierunek ruchu. Jest to przekonanie zgodne z ogólnie przyjętymi poglądami na temat percepcji (zob. rozdz. 7.4). Poszczególne sygnały docierają więc do map lokacyjnych, gdzie są automatycznie kodowane zgodnie ze wszystkimi swoimi charakterystykami w tzw. mapach cech. Kodowanie w obrębie mapy cechy odbywa się zawsze wtedy, gdy obiekty w polu wzrokowym różnią się w jakiś sposób pod względem tejże cechy. Jeśli np. niektóre obiekty są czerwone, a inne nie, mapa cech notuje ten fakt. Ten rodzaj kodowania cech ma, według Treisman, charakter automa­ tyczny i selektywna uwaga nie ma z nim wiele wspólnego. Zadaniem selektyw­ nej uwagi jest natomiast wybór właściwych map lokacyjnych, co prowadzi do selekcji właściwych map cech. Drugi etap selekcji polega na integracji zakodowanych wcześniej cech, w wyniku czego dochodzi do rozpoznania obiektu. Na przykład integrując cechę „czerwony kolor” z cechą „kwadratowy kształt” rozpoznajemy obiekt, jakim jest czerwony kwadrat. Integracja wymaga wcześniejszego zakodowania właści­ wości obiektów w mapach cech, ale podlega wpływom ze strony wymagań zadania (np. instrukcji eksperymentalnej) lub wskazówek płynących z otoczenia. Proces selekcji polega więc w istocie na aktywacji poszczególnych cech składowych obiektów - znajdujących się w obrębie map cech, a następnie na ich integracji w żądany obiekt. Podstawowym kryterium integracji jest tu znaczenie sygnału, które może, choć nie musi, przejawiać się w jego fizycznych charakte­ rystykach, a podstawowym czynnikiem umożliwiającym integrację jest aktywacja odpowiednich map cech w fazie automatycznego kodowania wszelkich właściwości bodźców. Według pierwotnej wersji koncepcji integracji cech w obiekt, proces przeszukiwania pola percepcyjnego dokonuje się szeregowo: cecha po cesze, obiekt 196 Rozdział 5. Uwaga i świadom ość po obiekcie. Prowadząc badania w paradygmacie przeszukiwania pola wzroko­ wego (paradygmat 5.2), Treisman i Gelade (1980) porównały średni czas potrzebny badanym na odnalezienie obiektu zdefiniowanego przez pojedynczą cechę (poszukiwanie proste) lub związek cech (poszukiwanie koniunkcyjne) wśród licznego lub mniej licznego zbioru bodźców (ryc. 5.3). Czas potrzebny na •D Ó .O 'O O t> O• OT d , 0 * 3 o a ° ° o o S •(? M © •Q -5? G 0 SO $ © ty <*>■ 3 » O ^ S ^ <S) f Ryc. 5.3. Bodźce używane w badaniach Treisman (1988) nad przeszukiwaniem pola percepcyjnego. Cechy różniące bodźce: kształt figury (np. trapez, okrąg) oraz położenie kropli (wewnątrz, zewnątrz) figury. Przykład bodźca dla poszukiwania prostego: trapez. Przykład dla poszukiwania koniunkcyjnego: trapez z kropką na zewnątrz. wykonanie zadania okazał się znacznie dłuższy w przypadku poszukiwania koniunkcyjnego niż w warunkach poszukiwania prostego. Co więcej, w przypadku poszukiwania koniunkcyjnego przyrost czasu był liniową funkcją zwiększającej się liczebności zbioru bodźców (ryc. 5.4). Na przykład odnalezienie czerwonego kwadratu trwało dłużej, jeśli był on zawarty w zbiorze piętnastu elementów, niż wtedy, gdy tych elementów było pięć. Natomiast czas poszukiwania prostego nie był w żadnej mierze zależny od rozmiaru zestawu bodźców. Treisman (1988) uznała więc, że proces poszukiwania prostego polega na równoległym prze­ szukiwaniu pola wzrokowego, podczas gdy proces poszukiwania koniunkcyj­ nego wymaga szeregowego przetwarzania danych. Wniosek ten wynika z ogólnie akceptowanego poglądu, że czas trwania procesu szeregowego zależy od liczby elementów w zestawie bodźców, natomiast czas procesu równoległego nie wykazuje takiej zależności (Townsend, 1972; Egeth, Jonides, Wall, 1972). Zauważmy, że integracja cech w obiekt z natury rzeczy wymaga poszukiwania koniunkcyjnego, ponieważ polega na złożeniu obiektu z więcej niż jednej cechy. Dlatego, zdaniem Treisman, integracja cech w obiekt musi mieć charakter szeregowy. Tezę tę poddano gruntownej krytyce. W badaniach nad przeszukiwaniem prostym (Bergen, Julesz, 1983; Jonides, Yantis, 1988; Nakayama, Silverman, 1986) okazało się bowiem, że nie zawsze 5.2. Teorie uw agi 1 6 12 1 6 197 12 liczba bodźców jednocześnie prezentowanych Ryc. 5.4. Czas detekcji sygnału złożonego (koniunkcja cech) i prostego (pojedyncza cecha) w zależności od liczby dystraktorów w polu wzrokowym (za: Treisman, 1988). ten typ selekcji informacji ma charakter procesu równoległego. Bergen i Julesz polecili badanym poszukiwać sygnałów, jakimi były litery, w prezentowanym im wizualnie zbiorze bodźców bardzo podobnych do siebie pod względem kształtu. Okazało się, że im większe jest podobieństwo percepcyjne między sygnałem a dystraktorem (czyli im trudniej jest wyróżnić sygnał z szumu percepcyjnego), tym większe jest prawdopodobieństwo wystąpienia szeregowego procesu przeszukiwania. Zgodnie z tymi wynikami, równoległy lub szeregowy charakter procesu przeszukiwania pola wzrokowego może w większym stopniu zależeć od podobieństwa sygnału do dystraktorów niż od liczby integrowanych cech poszukiwanego bodźca. Hipotezy wpływu podobieństwa sygnału do dystrakto­ rów na szybkość i jakość procesu integracji bronił później Duncan (1989; Duncan, Humphreys, 1989). Znalazła ona także swoje potwierdzenie w bada­ niach Słabosz i Szymury (2004). Jak się więc wydaje, wpływ na jakość i szybkość 198 Rozdział 5. Uwaga i świadom ość procesu przeszukiwania pola wzrokowego mają możliwości w zakresie od­ rzucania dystrakcji na sensorycznym poziomie przetwarzania. Możliwości te są jednak uwarunkowane zarówno jakością prezentowanej stymulacji, jak i zdolnością systemu do obrony przed zakłóceniami (Cave, Wolfe, 1990; Egeth, Virzi, Garbart, 1984; Szymura, 1999). Z kolei w badaniach nad przeszukiwaniem koniunkcyjnym McLeod, Driver i Crisp (1988) wykazali, że czas potrzebny na poszukiwanie koniunkcyjne celu charakteryzowanego przez dwie cechy: kształt i ruch, nie musi być rosnącą funkcją wzrastającej liczebności bodźców. W kolejnym eksperymencie Driver i Baylis (1989) stwierdzili, że poruszające się wraz z sygnałem bodźce za­ kłócające wywołują większą interferencję niż dystraktory statyczne, nawet wtedy, gdy te ostatnie umieszczone są znacznie bliżej poszukiwanego sygnału. Wreszcie McLeod, Driver, Dienes i Crisp (1991) wykazali, że proces poszu­ kiwania koniunkcyjnego w przypadku dwóch cech: ruchu i kształtu obiektów, jest równoległy niezależnie od możliwego kierunku ruchu obiektów. W ostatnim z prezentowanych tu badań, Driver i McLeod (1992) stwierdzili natomiast, iż poszukiwanie obiektów charakteryzowanych przez znacznie zmienioną orientację przestrzenną (obrót o 45° kątowych) i zdefiniowanych przez ruch jest znacznie łatwiejsze i szybsze niż wówczas, gdy obiekty te pozostają w bezruchu. Przeciwny efekt został jednakże zaobserwowany przy stosunkowo niewielkich odchyleniach bodźców od wspomnianych osi symetrii (obrót o 9° kątowych). Prowadząc eksperymenty nad prostym i koniunkcyjnym poszukiwaniem obiektów zdefiniowanych przez cechy statyczne, Treisman (1988, 1993) nadal jednak uzyskiwała wyniki świadczące o szeregowym charakterze badanego pro­ cesu. Zgodziła się tylko z sugestią Drivera i McLeoda (1992; McLeod, Driver, 1993), iż ruch może być cechą wyjątkową wśród kodowanych charakterystyk obiektów, przyspieszającą etap integracji i tym samym cały proces selekcji. Właściwości takie nazwano mianem cech priorytetowych (McLeod i in., 1991). Priorytetowy charakter cechy oznacza możliwość wczesnego, szybkiego i auto­ matycznego przetwarzania informacji z nią związanych. Uznano, że przetwa­ rzanie właściwości priorytetowych ma miejsce we wczesnej fazie selekcji, zwanej przeduwagową (preattentive). W fazie tej dokonuje się segregacja pola wzrokowego zgodnie z analizowaną cechą, np. na część ruchomą i statyczną. Taka wstępna analiza pola wzrokowego możliwa jest jedynie wtedy, gdy cecha priorytetowa rzeczywiście wyróżnia obiekt w polu wzrokowym, to znaczy przyjmuje wartości dystynktywne (Treisman, Viera, Hayes, 1992). Dlatego właściwością priorytetową może być ruch obiektu, ale również jego szczególnie wyrazisty kolor (D’Zamura, 1991; Kyllingsbek, Bundesen 2001; Słabosz, Szy­ mura, 2004). Z kolei ruch obiektu sam w sobie nie musi stać się cechą prio­ rytetową (Driver, McLeod, 1992), zwłaszcza gdy odbywa się poza centrum uwagi, czyli na peryferiach pola wzrokowego (Mack, Rock, 1998; Mack i in., 1992; Rock i in., 1992; Szymura, Horbaczewski, 2005). Modyfikując swą pierwotną koncepcję, Treisman (1993) uznała, że prio­ rytetowe właściwości obiektów (np. ruch, dystynktywny kolor) są kodowane w odpowiadających im mapach cech znacznie szybciej niż pozostałe cechy. Mapy właściwości priorytetowych znajdują się w najwyższym stopniu gotowości i uprzywilejowania. Gdy dochodzi do integracji poszczególnych cech w obiekt, 5.2. Teorie uwagi 199 mapy właściwości priorytetowych aktywizują bądź dezaktywizują pozostałe mapy cech konieczne do identyfikacji obiektu. Model równoległej i szeregowej integracji cech (Treisman, 1993; Treisman, Sato, 1990) opisuje działanie dwóch procesów: „odgórnego”, polegającego na aktywizacji właściwych map cech zgodnie z narzuconą zasadą selekcji, i „oddolnego”, sprowadzającego się do automatycznej dezaktywacji pozostałych map cech. Poprawiony przez Treisman (1998) model przeszukiwania pola wzroko­ wego zyskał akceptację, choć różni badacze nadal znajdują wyjątki od zapropo­ nowanych przez nią reguł przeszukiwania pola wzrokowego. Wolfe, Cave i Franzel (1989) wykazali np., że selekcja obiektów charakteryzowanych przez trzy cechy niepriorytetowe może być szybsza i bardziej poprawna od selekcji celów wybieranych ze względu na dwie takie właściwości. Cave i Wolfe (1990) wykryli ponadto, że detekcja unikatowych bodźców w polu wzrokowym, de­ finiowanych jako koniunkcja wielu różnych cech, niekoniecznie priorytetowych czy dystynktywnych, może być również procesem szybkim i równoległym. Stwierdzili bowiem brak zależności czasu, potrzebnego na takie przeszuki­ wanie, od liczby elementów w zbiorze przeszukiwanych bodźców. W sfor­ mułowanym na podstawie tych badań modelu przewodników uwagi Cave i Wolfe (1990; Wolfe, Cave, Franzel, 1989; Wolfe i in., 1990) sugerują, że jeśli ilość informacji o obiekcie, zgromadzona w przeduwagowej fazie kodowania percepcyjnego, jest dostatecznie duża, wówczas proces integracji cech w obiekt nie jest konieczny. W takim przypadku brak drugiego etapu, ze swej natury oparte­ go na zasadzie przetwarzania szeregowego, sprawia, że caty proces selekcji składa się z procesów przetwarzania równoległego. Taki specyficzny, bogaty w cechy obiekt wyróżnia się tak bardzo na tle innych obiektów, jak gdyby „wyskakując” (pop out) z pola wzrokowego, że automatycznie przyciąga uwa­ gę i może zostać trafnie zidentyfikowany już na podstawie samej fazy kodowania cech (Irwin, 1981). Zjawisko przyciągania uwagi przez właściwości bodźców badano także w inny sposób. Yantis i Jonides (1984; Yantis, 1993; Jonides, Yantis, 1988) zmodyfikowali paradygmat przeszukiwania pola wzrokowego, opóźniając pojawienie się sygnału w stosunku do reszty prezentowanego zestawu. Dzięki temu sygnał pojawiał się zupełnie niespodziewanie dla osoby badanej na tle występujących już w polu wzrokowym innych elementów prezentowanego zestawu. Sygnały były w tym badaniu pojedynczymi, specyficznymi dla całości stymulacji bodźcami; pytano np. o zieloną literę „X”, gdy w zestawie nie było żadnych innych zielonych liter. Yantis i Jonides wykazali, że czas potrzebny na identyfikację takiego sygnału jest niezależny od liczby bodźców stanowiących tło zestawu. Prowadząc badania w tym samym paradygmacie, Theeuwes (1994) stwierdził jednak, iż nie zawsze nagle pojawienie się bodźca w polu wzrokowym jest w stanie skutecznie przyciągnąć uwagę. Na przykład identyfikacja nagle pojawiającego się sygnału może być opóźniona, jeśli w polu wzrokowym tkwi bardzo intensywny, choć statyczny element. Na podstawie tych wyników Theeuwes sformułował model uwagi podążającej za najbardziej znaczącą, czy też dystynktywną, właściwością prezentowanej stymulacji: Według tego modelu w polu uwagi najpierw wyodrębniamy element charakteryzujący się kombinacją najbardziej wyrazistych cech. W przypadku jednoczesnej prezentacji całego zestawu bodźców jest to obiekt charakteryzowany przez najbardziej dystynk- 200 Rozdział 5. Uwaga i świadom ość tywną właściwość. Jeśli więc kolor jest najbardziej wyróżniającą się właści­ wością w polu wzrokowym, to nawet nagłe pojawienie się nowego bodźca nie jest w stanie odciągnąć uwagi od przetwarzania bodźca charakteryzującego się taką właśnie cechą dystynktywną. Jednak zazwyczaj pojawienie się nowego bodźca w polu wzrokowym jest wystarczające, aby nowy element nabrał cech dystynktywnych. Dotyczy to nie tylko sygnałów, lecz również dystraktorów: jeśli mają one charakter dynamiczny (np. nagle pojawiają się w polu wzrokowym), wywołują znacznie większą interferencję niż statyczne bodźce zakłócające (Driver, Baylis, 1989). Dwufazowy, równoległo-szeregowy model przeszukiwania pola wzrokowe­ go, autorstwa Treisman (1993, 1998), jest obecnie uznawany przez większość badaczy uwagi. W modelu tym wyróżnia się opartą na procesach równoległych fazę kodowania, z ewentualną segregacją pola wzrokowego przy wykorzystaniu cech priorytetowych, oraz opartą na procesach szeregowych fazę integracji cech niepriorytetowych w obiekt, będący celem przeszukiwania. Prowadzone obecnie badania zmierzają do ustalenia, które właściwości bodźców mają zdolność do przyciągania uwagi. Bez wątpienia właściwością priorytetową jest ruch obiektu w polu wzrokowym, szczególnie pewna odmiana ruchu, jaką jest nagłe pojawienie się bodźca - niezależnie od tego czy jest nim sygnał, czy dystraktor. Także inne cechy, w szczególności kolor, ale także umiejscowienie obiektu w głębi lub w tle, mogą uzyskać status cech priorytetowych, jeśli pozostaną wystarczająco intensywne. 5.2.3. Teorie przedłużonej koncentracji Trwała, przedłużona w czasie uwaga to synonim czujności (vigilance), rozu­ mianej jako „stan gotowości na wykrycie, rozpoznanie i reakcję na niezwykle subtelne zmiany w środowisku, zachodzące przypadkowo w dłuższym odcinku czasu” (Mackworth, 1957, s. 389-390). Wiadomo, że gdy uwaga musi być sku­ piona przez dłuższy czas na jednym lub kilku źródłach informacji, a odbierane bodźce są wydarzeniami rzadkimi i nieprzewidywalnymi, w pewnym momencie zaobserwujemy spadek czujności. Przejawia się to obniżoną liczbą poprawnych rozpoznań sygnału, notowanych w dłuższym okresie wykonania jakiegoś zadania. Mackworth (1950) wykryła, że liczba prawidłowych detekcji sygnału znacznie się obniża już po upływie pół godziny; dalszy spadek jest już wol­ niejszy, niezależnie od długości trwania testu (ryc. 5.5). Podobne wyniki uzys­ kano badając procesy monitorowania bodźców wzrokowych w innych ekspery­ mentach, naśladujących realne sytuacje życiowe, takie jak kontrola jakości produkcji przemysłowej lub nadzór nad operacjami chirurgicznymi. Badania nad spadkiem czujności uwagi długo koncentrowały się wokół problemu ustalenia empirycznych wskaźników tego procesu. W eksperymencie Parasuramana i Daviesa (1976) badanym polecono w czasie 45-minutowej ekspozycji stymulacji wzrokowej rozróżniać bodźce ze względu na ich jasność. Sygnałem był bodziec jaśniejszy od reszty bodźców. Liczba prawidłowych rozpoznań zmniejszała się wraz z czasem trwania zadania. Największą różnicę obserwowano między pierwszym a drugim 15-minutowym blokiem prób, przy czym spadek czujności był'mniejszy w przypadku osób, którym sygnały 201 5.2. Teorie uw agi środ o w isko i ludzka skuteczność 0 5 10 15 20 minuty od rozpoczęcia półgodzinnego interwału Ryc. 5.5. Procent niezauważonych sygnałów w teście zegara Mackworth w zależności od długości trwania testu (za: Mackworth, 1950). ^ prezentowano częściej, w porównaniu do osób, które musiały wykrywać sy­ gnały prezentowane rzadziej. Parasuraman i Davies wykazali także, że czas reakcji na krytyczny sygnał wzrasta o ok. 100 milisekund na przestrzeni l 45-minutowego okresu badania. Wskaźnikiem spadku czujności jest również wzrost odchyleń od średniego czasu reakcji, co wykryli Thackray, Jones i Touchl stone (1973). I Zachowanie ludzi w warunkach wymagających przedłużonej koncentracji i uwagi analizuje się zazwyczaj w języku teorii detekcji sygnałów (ramka 5.2). f Przewiduje ona, że idealny obserwator zauważy każdy sygnał (reakcja typu trafienie) i zawsze zignoruje szum lub dystraktor (prawidłowe odrzucenie), f Obserwator może jednak popełnić jeden z dwóch rodzajów błędu, czyli zareagować na szum lub dystraktor (fałszywy alarm, FA) lub zignorować sygnał (błąd ominięcia, OM). Dobre wykonanie zadania wymagającego selekcji oznacza, że obserwator dobrze odróżnia sygnały od szumu i dystrakcji; świadczy o tym duża v liczba trafień (a zatem mała liczba błędów ominięcia) i mała liczba fałszywych ; alarmów. Teoria przewiduje ponadto, że popełniając błędy obserwator może \ przyjąć różne strategie wykonania zadania. W szczególności może skłaniać się [ raczej ku fałszywym alarmom niż ominięciom, lub odwrotnie. Pierwsza strategia | może być korzystna wtedy, gdy konsekwencje wzniecenia fałszywego alarmu są I mniejsze niż konsekwencje ominięcia ważnego sygnału. Odwrotna strategia 202 Rozdział 5. Uwaga i świadom ość pojawia się wtedy, gdy konsekwencje ominięcia sygnału nie są dramatyczne, natom iast konsekwencje wywołania fałszywego alarmu mogą być nader dotkliwe. Przyjmuje się, że każdy obserwator ustawia sobie odpowiedni próg wyzwalania reakcji, zwany też progiem reaktywności lub kryterium decyzyjnym: im niższy, tym większe prawdopodobieństwo zauważenia sygnału, ale też tym większe ryzyko fałszywego alarmu. Im próg wyzwalania reakcji wyższy, ryzyko popełnienia błędu typu FA maleje, ale za to rośnie ryzyko błędu typu OM. W badaniach nad przedłużoną koncentracją wykazano, że wraz z upływem cza­ su maleje liczba prawidłowych detekcji i liczba fałszywych alarmów, a zwiększa się liczba ominięć, co wynika z podwyższenia progu reaktywności (Parasuraman, Davies, 1976). Ponieważ jednak liczba fałszywych alarmów w zadaniach na czujność uwagi jest relatywnie niewielka (Baddeley, Colquhuon, 1969; Parasuraman, Davies, 1976), więc wraz z upływem czasu obserwuje się po prostu wzrost sumarycznej liczby błędów. Ramka 5.2 Teoria detekcji sygnałów Teoria detekcji sygnałów (Signal Detection Theory, SDT) powstała jako model procesu odróżniania sygnału od szumu (Green, Swets, 1966). Początkowo wyko­ rzystywano ją przede wszystkim w naukach technicznych, np. do analizy transmisji sygnałów radiowych i zakłóceń spowodowanych elektromagnetycznym „tłem”. Później TDS znalazła zastosowanie w odniesieniu do żywych systemów wykrywa­ nia sygnałów. W psychologii podstawowe założenia i pojęcia tej teorii wykorzystuje się w badaniu uwagi, spostrzegania, pamięci i podejmowania decyzji. Wyobraźmy sobie, że terapeuta ocenia ryzyko podjęcia przez pacjenta próby samobójczej. Pewne reakcje i wypowiedzi pacjenta sygnalizują zagrożenie, ale równie dobrze mogą być mylącym „szumem informacyjnym”. Terapeuta może w tej sytuacji zareagować na dwa sposoby, to znaczy stwierdzić ryzyko samobójstwa lub je wykluczyć. W obu przypadkach terapeuta może mieć rację lub się pomylić. Jeśli wykryje istniejące ryzyko samobójstwa, zaliczymy mu trafienie (hit), a jeśli pra­ widłowo ryzyko takie wykluczy, powiemy, że zastosował poprawne odrzucenie (correct rejection). Gdy terapeuta stwierdzi zagrożenie, którego nie ma, popełni błąd fałszywego alarmu (false alarm, FA), a gdy nie zauważy istniejącego ryzyka, popełni błąd ominięcia (miss, OM). Teoria przewiduje więc cztery możliwe skutki działalności terapeuty, podobnie jak każdego systemu wykrywającego sygnały: trafienie, poprawne odrzucenie, fałszywy alarm i ominięcie. Obserwator, np. psy­ cholog eksperymentalny, ma pełną wiedzę na temat proporcji każdego z tych czterech skutków w stosunku do rzeczywistej liczby działających na system sygna­ łów i bodźców innego rodzaju (zakłóceń, szumów). Terapeuta podejmujący decyzję działa w warunkach niepewności, która wy­ nika z działania szumu. Szum wewnętrzny wynika z zawodności procesów poznaw­ czych terapeuty, z rozmaitych przekłamań, błędów i tendencji w procesie stawiania diagnozy, z losowych wahań koncentracji uwagi, z pojawiających się niekontrolo­ wanych myśli lub skojarzeń itp. Szum zewnętrzny wynika z braku jednoznaczności w klinicznym obrazie zachowań poprzedzających samobójstwo i z zawodności kryteriów, pozwalających podjąć racjonalną decyzję. Prawdziwa depresja może 5.2. Teorie uw agi 203 dawać nietypowe objawy, a z drugiej strony całkiem „niedepresyjne” zachowanie pacjenta może sugerować zagrożenie. Wszystko to może zmylić mało doświad­ czonego terapeutę. Sygnały, zakłócenia i szumy docierające do systemu układają się w pewien wzorzec, który skłania decydenta do reakcji TAK lub NIE. Na razie nie ma jeszcze żadnej jawnej decyzji, jest tylko stan wewnętrzny systemu; w przypadku terapeuty są to jego doznania sensoryczne, myśli, przywołane elementy wiedzy. Rycina 5.6a stan wewnętrzny Ryc. 5.6a. Rozkład prawdopodobieństwa reakcji NIE i TAK w zależności od wewnętrznego stanu systemu wykrywającego sygnały. pokazuje rozkład prawdopodobieństwa reakcji NIE (nie ma ryzyka samobójstwa), jak też analogiczny rozkład prawdopodobieństwa reakcji TAK (jest zagrożenie). Reakcja NIE jest najbardziej prawdopodobna przy stanie wewnętrznym N, ale może się też pojawić przy innych stanach wewnętrznych. Reakcja TAK jest najbardziej prawdopodobna przy stanie wewnętrznym T, ale może się pojawić kiedy indziej. Oba rozkłady prawdopodobieństw przyjmują kształt krzywej Gaussa. Jak widać, rozkłady te częściowo na siebie zachodzą, co oznacza, że w pewnych stanach wewnętrznych możliwa jest zarówno reakcja TAK, jak i reakcja NIE. Nakładanie się obu rozkładów sprawia, że system jest podatny na popełnianie błędów. Im bardziej rozkłady wzajemnie się rozchodzą, tym niższe ryzyko błędu. Zdarza się to wtedy, gdy sygnał jest bardzo dobrze odróżnialny od szumu, np. ze względu na swą intensywność, jednoznaczność lub kontrast w stosunku do tła. Jeśli natomiast sygnał jest trudno odróżnialny od szumu (np. dźwięk „c” od dźwięku „cis” dla kogoś nieuzdolnionego muzycznie), oba rozkłady w znacznym stopniu na siebie nachodzą, a ryzyko pomyłki wzrasta. Obiektywna odróżnialność sygnału od szumu decyduje o tym, że oba rozkłady mają swoje wartości modalne w dużym wza­ 204 Rozdział 5. Uwaga i świadomość jemnym oddaleniu. Może też być tak, że wartości modalne znajdują się blisko siebie, ale odchylenia standardowe są stosunkowo nieduże. Odpowiada to sytuacji, w której wprawdzie sygnał jest dość podobny do szumu, ale system dobrze odróżnia jedno od drugiego, bo jest czuły na subtelne różnice między sygnałem a szumem. Na przykład zawodowy muzyk łatwo odróżni dźwięk „c” od dźwięku „cis”, chociaż obiektywnie rzecz biorąc są to wartości bardzo do siebie podobne. Mamy wtedy dwa rozkłady leptokurtyczne, w niewielkim stopniu nakładające się na siebie. Zatem obiektywne własności stymulacji przekładają się na wewnętrzne stany systemu, a te - na poziom pewności decydenta co do tego, czy ma do czynienia z sygnałem czy szumem. Im wyższy poziom pewności, tym mniejszy zakres nakładania się rozkładów prawdopodobieństw. Im decydent mniej pewny, z czym ma do czynienia, tym bardziej rozkłady na siebie nachodzą, co zwiększa ryzyko pomyłki. Subiektywna pewność decydenta zależy zaś od stopnia obiek­ tywnego podobieństwa sygnałów i szumu (wartości modalne rozkładów położone są blisko lub daleko od siebie) oraz od sprawności samego decydenta (odchylenia standardowe rozkładów są duże lub małe). Zdolność decydenta do odróżniania sygnałów od szumu oddaje wskaźnik, oznaczony jako d ’ (od: discriminability). Wartość d' równa się różnicy między średnią rozkładu dla reakcji NIE a średnią rozkładu dla reakcji TAK, wyrażonej w jednostkach odchylenia standardowego, czyli w skali z. Jak wiadomo, stan­ dardowa skala z przekształca średnią arytmetyczną rozkładu normalnego w O(zero), a odchylenie standardowe w 1 (jeden). Zatem dystans między dwiema średnimi, wyrażony w skali z, wynosi tyle, ile odchyleń standardowych mieści się między jedną średnią a drugą. Gdyby oba rozkłady - dla reakcji NIE i TAK - w ogóle się od siebie nie różniły, dystans między średnimi byłby zerowy, a wartość d ’ = O, czyli system nie byłby w stanie odróżnić sygnału od szumu. Dystans równy trzem odchyleniom standardowym oznaczałby, że decydent idealnie rozróżnia sygnały od szumu, bo rozkłady prawie w ogóle na siebie nie nachodzą. W praktyce d’ przyj­ muje wartości między O a 3. Aby wyliczyć tę wartość, trzeba znać proporcję trafień (ile razy powiedziano TAK, gdy sygnał był obecny) oraz proporcję fałszywych alar­ mów (ile razy powiedziano TAK, gdy sygnału nie było). Przypuśćmy, że w kon­ kretnym eksperymencie osoba badana trafiała w 92% przypadków, a w 14% popełniała błąd fałszywego alarmu (przykład za: Levine, Parkinson, 1994). Oznacza to np., że na 100 sygnałów 92 razy powiedziała TAK, a na 1000 przypadków działania szumu bądź dystrakcji osoba ta 140 razy również powiedziała TAK. Gdyby reakcje były przypadkowe, należałoby oczekiwać 50% trafień i 50% fałszywych alarmów. W podanym przykładzie proporcja trafień odbiega od przypadku na poziomie -0,42 (bo 0,50 - 0,92 = -0,42), a proporcja fałszywych alarmów - na poziomie 0,36 (0,50 - 0,14 = 0,36). Według wzoru: d’ = zN|E - Zjaki czyli d ’ to różnica między średnią dla NIE a średnią dla TAK wyrażona w skali z. Z tabeli rozkładu normalnego odczytujemy, że 36% powyżej średniej (o tyle od­ biega od przypadku proporcja FA) odpowiada wartości z = 1,08. Z kolei 42% poniżej średniej (o tyle odbiega od przypadku proporcja trafień) odpowiada war­ tości z = -1,41. Podstawiając obie wartości do wzoru otrzymujemy wynik: 5.2. Teorie uwagi 205 d’ = 1,08- (-1,41) = 1,08 + 1,41 = 2,49. Wynik ten oznacza dość dobrą rozróżnialność sygnału od szumu, co może wynikać z obiektywnie dużej różnicy między nimi lub z wrażliwości obserwatora. O zachowaniu systemu wykrywającego sygnały decyduje nie tylko rozkład prawdopodobieństw, ale również przyjęta strategia decyzyjna. Na przykład tera; peuta może uznać, że w sytuacji zagrożenia życia lepiej na wszelki wypadek zareagować na bardzo nikłe ryzyko samobójstwa, niż zlekceważyć prawdziwe za­ grożenie. Będzie wówczas skłonny raczej popełnić fałszywy alarm niż błąd ominięcia. Ale decydent może też przyjąć odwrotną strategię. Na przykład tera­ peuta, aby nie „płoszyć” pacjenta lub niczego mu nie sugerować, może zignorować sygnały zagrożenia jako zbyt słabe, albo może uznać, że ewentualny fałszywy alarm byłby emocjonalnie bardzo kosztowny dla pacjenta lub jego rodziny. De; cydent jest w takiej sytuacji skłonny popełnić raczej błąd ominięcia niż fałszywego ‘ alarmu. Strategia decydenta zależy od miejsca, w którym ustanowi on kryterium : rozróżniania między sygnałem a szumem (ryc. 5.6b). Każdy bodziec słabszy od szumem. W sytuacji, gdy rozkłady prawdopodobieństw choć trochę się na siebie nakładają, nie ma możliwości uniknięcia jakichkolwiek błędów. Można jedynie przyjąć, że tendencja do popełniania fałszywych alarmów jest mniej szkodliwa od tendencji do popełniania błędów ominięcia, lub odwrotnie. W każdym razie, dopiero w momencie ustanowienia kryterium możliwa jest jawna reakcja typu TAK lub NIE; 206 Rozdział 5. Uwaga i świadomość wcześniej można było mówić jedynie o stanach wewnętrznych systemu i zwią­ zanych z tym prawdopodobieństwach wystąpienia reakcji określonego rodzaju. Kryterium można zatem zdefiniować jako minimalny poziom pewności decydenta, że sygnał się pojawił i należy na niego zareagować. Wskaźnik przyjętej przez osobę badaną strategii, czyli [3 (beta), można wyliczyć z empirycznie stwierdzonej proporcji trafień i fałszywych alarmów. Trzeba w tym celu odczytać wartość funkcji rozkładu normalnego, odpowiadającą wcześ­ niej wyliczonym wartościom na skali z, osobno dla rozkładu NIE i TAK. Każdej wartości na osi odciętej, traktowanej jako zmienna niezależna, odpowiada określo­ na wartość rzędnej, reprezentującej zmienną zależną. Gdyby to były wartości realne, oś pionowa reprezentowałaby empiryczną częstość występowania od­ powiednich wartości na osi poziomej. W przypadku rozkładu teoretycznego, gdzie na osi poziomej mamy skalę z, oś pionowa informuje nas o prawdopodobieństwie występowania danych wartości. Na przykład prawdopodobieństwo wystąpienia wartości z = 0 (czyli wartości średniej arytmetycznej, tożsamej z medianą i modalną) wynosi 0,3989, prawdopodobieństwo wystąpienia wartości z = 1,08 jest równe 0,2227, a prawdopodobieństwo wystąpienia wartości z = 1,41 wynosi 0,1476. Dane te można odczytać z tabeli prawdopodobieństw pod krzywą rozkładu normalnego. Wzór na wskaźnik f3 to proporcja prawdopodobieństwa reakcji NIE do reakcji TAK, czyli: _ P (T A K ) P (N IE ) W omawianym przypadku ¡3 = 0,1476 : 0,2227 = 0,6628. Jest to wartość, która mówi nam, że osoba badana przyjęła strategię reagowania „na wszelki wypadek” woli „popełnić” fałszywy alarm niż ominąć sygnał, choć oczywiście zdarza się jej również to ostatnie. Wartości f3 mniejsze od 1 świadczą o takiej właśnie tendencji, podczas gdy wartości większe od 1 - o tendencji przeciwnej, czyli skłonności do unikania fałszywych alarmów, nawet kosztem ominięcia ważnego sygnału. Oczy­ wiście im bardziej wartość ¡3 odbiega od 1 w którąkolwiek stronę, tym silniejsza jest jedna lub druga tendencja. Gdy natomiast ¡3 = 1, system nie przejawia żadnej tendencji, czyli traktuje oba rodzaje błędów jako równie kosztowne. Wskaźniki d ’ i ¡3 są wzajemnie niezależne. System może cechować się dużą lub małą zdolnością do dyskryminacji sygnału od szumu (cT), ale nie zależy to w żaden sposób od przyjętego kryterium, a zatem również od tendencji do pre­ ferowania błędów FA lub OM. I odwrotnie - system może przyjąć jedną z dwóch strategii, czyli reagować tendencyjnie, a siła tej tendencji może być mała lub duża, lecz nie zależy to w żaden sposób od jego ogólnej sprawności w rozróżnianiu sygnałów od szumu. Dlatego c/’ informuje nas o ogólnej sprawności systemu jako detektora sygnałów, a [3 - o przyjętej przezeń strategii działania. Idealny obserwator ma niższe kryterium decyzyjne dla sygnałów prawdo­ podobnych niż dla bodźców mniej prawdopodobnych. Wzrost prawdopodobień­ stwa pojawienia się sygnału powoduje więc obniżenie się tego kryterium, a tym samym przyczynia się do wzrostu prawdopodobieństwa wystąpienia popraw­ nych odpowiedzi, choć zwiększa przy tym ryzyko wystąpienia fałszywych alarmów (Baddeley, Coląuhuon, 1969; Broadbent, Gregory, 1965; Green, Swets, 5.2. Teorie uwagi j 207 1966; Murrell, 1975; Parasuraman, Davies, 1976; Williges, 1971, 1973). W eks­ perymencie Baddeleya i Colquhuona (1969) osobom badanym pokazywano serię kół o określonej średnicy, a ich zadaniem było zauważenie koła większego L od innych. Prawdopodobieństwo pojawienia się sygnału (większe koło) zostało określone w przedziale od 0,02 do 0,36 dla pięciu grup eksperymentalnych j- (czynnik międzygrupowy). Baddeley i Colquhuon stwierdzili, że wraz ze wzrostem prawdopodobieństwa pojawienia się sygnału rosła zarówno częstość l prawidłowych odpowiedzi (od 0,34 do 0,52), jak i częstość fałszywych alarmów (od 0,001 do 0,05). Colquhuon i Baddeley (1964, 1967) pokazali również, że i oczekiwania odnośnie do prawdopodobieństwa pojawienia się sygnału, narzu­ ta cone badanym podczas sesji treningowej, mają wpływ na spadek czujności I uwagi w trakcie sesji testowej. Spadek ten był znacznie większy w przypadku osób, którym pokazywano sygnały częściej podczas treningu niż w czasie regularnej sesji. Spadek prawdopodobieństwa pojawienia się sygnału w stosun; ku do sesji treningowej uśpił więc czujność osób badanych. Z kolei Craig (1980) ustalił, że badani informowani o prawdopodobieństwie pojawiania się bodźców s wykazywali się mniejszym spadkiem czujności uwagi, niż badani pozbawieni tej informacji. MacFarland i Halcomb (1970) oraz Craig i Colquhuon (1975) sugeI rują wręcz, że główną przyczyną spadku czujności uwagi mogą być nief adekwatne oczekiwania badanych odnośnie do prawdopodobieństwa wystąpie! nia sygnału, wynikające z uprzednich, błędnych doświadczeń. Powyższe wyniki badań są zgodne z koncepcją czujności uwagi sformułop waną przez Bakera (1963). Istotną rolę pełnią w niej oczekiwania osób badanych co do wielkości przedziału czasowego, w którym musi pojawić się i sygnał. Baker sugeruje, że zależność między subiektywnym prawdopodobień\ stwem pojawienia się sygnału a wielkością przedziału czasowego, w którym ; pojawia się ów sygnał, jest krzywoliniowa, w postaci odwróconego „U”. Począt­ kowo wzrost wielkości interwału czasowego na jeden sygnał powoduje zwięk­ szenie oczekiwań co do jego pojawienia się, czyli wzrost subiektywnego prawf dopodobieństwa zaistnienia sygnału. Jednak dalszy wzrost szerokości przeŁ działu czasowego sprawia, że subiektywne prawdopodobieństwo sygnału maleje (Baker, 1959; Deese, 1955). W każdym jednak przypadku badany oczekuje pojawienia się sygnału mniej więcej w takim odstępie czasowym, w jakim pop przedni wykryty przez niego sygnał pojawił się po sygnale jego z kolei poprze■ dzającym (Baker, 1963). Dodatkowo Baker (1959) ustalił, że ci badani, którzy ; byli najbliżej prawdy w subiektywnej ocenie prawdopodobieństwa sygnału, notowali także najmniejszy spadek w zakresie czujności uwagi, a Baker i Hara­ s' bedian (1962) wykazali, że badani poinformowani o szerokości interwału cza­ sowego notowali znacznie mniejszy spadek czujności uwagi (13%) w porów­ naniu do badanych pozbawionych tej wskazówki (20%). Wyniki eksperymentów sugerują także, że przedłużoną koncentrację uwagi i można poprawić poprzez trening. Binkford i Loeb (1966) odkryli, że liczba fałszywych alarmów zmniejsza się znacząco w trzech pierwszych sesjach wy­ konania zadania na rozpoznawanie dźwięków w wyniku nabywania wprawy ! przez badanych. Kerkhof, van der Schaaf i Korving (1980) ustalili natomiast, że ; liczba błędów ominięcia obniża się sukcesywnie w ciągu pierwszych pięciu sesji 1 wykonania. W kolejnych sesjach, po okresie nabywania wprawy, zarówno liczba i fałszywych alarmów, jak i liczba ominięć utrzymywała się na stałym poziomie. 208 Rozdział 5. Uwaga i świadom ość Z kolei Moray, Fitter, Ostry, Favreau i Nagy (1976) oraz Ostry, Moray i Marks (1976) wykazali, że trening pozwala zredukować efekt spadku czujności uwagi także w zadaniach na przedłużone monitorowanie sygnałów w paradygmacie podążania. Spadek czujności uwagi może też wynikać ze zmniejszenia się wrażliwości na prezentowane bodźce, jeśli te pojawiają się w danym interwale czasowym bardzo rzadko lub bardzo często. Mackworth i Taylor (1963) wykazali, że wraż­ liwość na sygnały dźwiękowe maleje w miarę, jak wydłużeniu ulega przedział czasu, w którym pojawia się pojedynczy sygnał. Z kolei Jerrison i Pickett (1964) pokazali, że badani testem zegara (paradygmat 5.3) charakteryzują się wysoką i stałą liczbą prawidłowych rozpoznań (90%), gdy sygnały pojawiają się z często­ tliwością 5 na min. Kiedy proporcja ta wzrosła do 30 sygnałów na minutę, liczba rozpoznań zmalała aż trzykrotnie. Podobnie było w przypadku, gdy proporcja liczby sygnałów do czasu trwania zadania zmalała do 1 sygnału na 2,5 min. (Mackworth, 1948,1950). Wyniki te wielokrotnie potwierdzono (Loeb, Binford, 1968; Parasuraman, Davies, 1976; Warm, 1977). Co ciekawe, efekt spadku czujności uwagi może się nie ujawnić w złożonych zadaniach na monitorowanie sygnałów (Adams, 1963; Frankman, Adams, 1962; Parasuraman, 1976, 1983), a więc w zadaniach, które nie są aż tak monotonne i nudne, jak zwykłe testy czujności. Według Daviesa i Parasuramana (1982) wyjaśnienie efektu spadku koncentracji uwagi może się kryć w analizie poziomu pobudzenia (aktywacji) osób badanych w trakcie wykonywania zadania na czujność uwagi. Poziom wykonania każdego zadania zależy bowiem od aktual­ nego stanu energetycznego organizmu (Yerkes-Dodson, 1908; Corcoran, 1965; Eysenck, 1982; Nęcka, 1994). Prawo Yerkesa-Dodsona opisuje omawianą za­ leżność jako krzywoliniową w postaci odwróconego „U”. Poziom wykonania zadania jest najlepszy przy średnim poziomie pobudzenia, a daleki od optymal­ nego zarówno przy niskiej, jak i wysokiej aktywacji. Potwierdzenie słuszności prawa Yerkesa-Dodsona znaleźć można również w odniesieniu do czujności uwagi (Davies, Tune, 1969). W trakcie długich, nudnych i monotonnych zadań na czujność uwagi można początkowo zaobserwować wzrost poziomu aktywacji, do czego przyczynia się relatywna nowość dostarczanej stymulacji, nowość sytuacji eksperymentalnej, specyficzna sytuacja poddania się badaniom itp. Pobudzenie osób badanych osiąga wtedy z reguły poziom optymalny, co sprawia, że zadanie na czujność uwagi jest wykonywane na bardzo wysokim poziomie, nawet do 100% prawidłowych detekcji (Baker, Harabedian, 1962). Wkrótce jednak omawiane zadanie przestaje być ekscytujące, co utrudnia utrzymanie optymalnego pozio­ mu pobudzenia, koniecznego do zapewnienia czujności uwagi. W konsekwencji obserwuje się obniżenie poziomu wykonania zadania, świadczące o spadku czujności uwagi. Koncepcję Daviesa potwierdzają także wyniki badań psycho­ fizjologicznych. Spadkowi poziomu wykonania zadań na czujność towarzyszyło z reguły obniżenie się poziomu aktywacji osób badanych, mierzonej aktywnoś­ cią fal mózgowych EEG (Daniel, 1967; Davies i Krkovic, 1965), czy rytmem pracy serca (Davies, 1964; Stern, 1964), choć przyznać należy, że kilka ekspe­ rymentów dostarczyło zgoła odmiennych rezultatów. Dokonując przeglądu i metaanalizy badań nad związkami cech tempera­ mentu z poziomem wykonania zadań na czujność uwagi, Koelega (1990) 5.2. Teorie uw agi 209 stwierdził, że związek ten uzależniony jest od poziomu złożoności zadania, a więc „zdolności” zadania do zwiększania poziomu pobudzenia, rozumianego jako niespecyficzna energetyzacja organizmu (Eysenck, 1982). W szczególnie monotonnych i łatwych zadaniach na czujność uwagi lepiej radzą sobie in­ trowertycy, których charakteryzuje chronicznie podwyższony poziom pobudze­ nia kory mózgowej, podczas gdy w bardziej złożonych i stymulujących zada­ niach na monitorowanie sygnałów lepiej wypadają, charakteryzujący się zde­ cydowanie niższym poziomem aktywacji, ekstrawertycy (Eysenck, 1967). Tak więc efekt spadku czujności uwagi może zależeć nie tylko od pobudzenia chwi­ lowego wywołanego przez samo zadanie, ale także pobudzenia konstytucjonal­ nego, związanego z biologicznie zdeterminowanymi cechami temperamentu (Eysenck, 1967; Eysenck, 1982). Efekt spadku czujności uwagi jest jednym z lepiej poznanych zjawisk z za­ kresu uwagi selektywnej. Jego opis w terminach teorii detekcji sygnałów SDT Greena i Swetsa (1966) jest kompletny, zaś próby jego wyjaśnienia hipoteza­ mi subiektywnego prawdopodobieństwa Bakera (1963) czy zmieniającej się aktywacji Daviesa i Parasuramana (1982) wydają się wiarygodne i dobrze udokumentowane wynikami badań. W przyszłości badania nad tym aspektem selektywnej uwagi będą się prawdopodobnie koncentrować na różnicach indywidualnych co do zakresu i tempa spadku czujności (Eysenck, 1982; Koelega, 1990). 5.2.4. Teorie podzielności Już najwcześniejsze badania nad selektywnością, prowadzone w paradygmacie dychotycznej prezentacji bodźców (paradygmat 5.1), były w gruncie rzeczy ba­ daniami nad podzielnością uwagi. Od osób badanych wymaga się bowiem dzielenia uwagi na dwa zadania w najtrudniejszej dla nich sytuacji, gdy wedle instrukcji jedno z zadań polega na odrzuceniu informacji z jednego z kanałów. Trudno przecież przypuszczać, by zgodne z instrukcją powstrzymanie się od przetwarzania informacji ignorowanych, co jest istotą badań w paradygmacie podążania, nie wymagało jakiegokolwiek wysiłku mentalnego. Pierwsze badania nad podzielnością uwagi prowadzono więc niemal wyłącznie w tym właśnie paradygmacie (Broadbent, 1952; Allport, Antonis, Reynolds, 1972; Ninjo, Kahneman, 1974). Donald Broadbent (1952, 1954) początkowo bardziej intereso­ wał się wykonywaniem w tym samym czasie dwóch zadań (mówienie i słuchanie; jednoczesne słuchanie) niż koncentracją na jednym z nich. Doszedł zresztą do wniosku, że efektywność mechanizmów selekcji informacji w warunkach ko­ niecznej podzielności uwagi jest bardzo niska, a dalsze badania w paradygmacie podążania prowadził z użyciem instrukcji odrzucania jednego z dwóch prze­ kazów. Zdaniem Drivera (2001) Broadbent niesłusznie narzucił badaczom uwagi przekonanie o tym, że skuteczna analiza i selekcja informacji musi być jednokanałowa, jednak przekonanie to było na tyle silne, że przez długi czas hamowało podjęcie badań nad przetwarzaniem wielokanałowym. Pytanie o możliwość równoległej selekcji informacji w zakresie dwóch różnych czynności poznawczych podjęła Bernstein wraz ze współpracownikami (Bernstein, 1970; Bernstein, Edelstein, 1971; Bernstein, Clark, Edelstein, 1969). 210 Rozdział 5. Uwaga i świadom ość Autorkę nurtowało pytanie, czy możemy widzieć i słyszeć w tym samym czasie bez ponoszenia kosztów wykonywania tych dwóch czynności jednocześnie. Wszystkie rezultaty jej badań świadczyły o pełnej niezależności obu czynności. Okazało się ponadto, że jeśli obie modalności przetwarzania informacji, czyli wzrokowa i słuchowa, dotyczą tego samego zadania, informacja słuchowa skraca czas reakcji na jednocześnie prezentowany bodziec wzrokowy. Podobne wyniki uzyskał potem Duncan (1984): jednoczesne podjęcie dwóch różnych decyzji selekcyjnych w odniesieniu do tego samego obiektu nie wymagało ja­ kichkolwiek kosztów poznawczych. Na podstawie uzyskanych przez siebie wyników, a także podobnych danych zgromadzonych przez innych badaczy (Eriksen, Spencer, 1969; Ostry, Moray, Marks, 1976), Duncan (1984, 1985) sformułował koncepcję uwagi ukierunkowanej na obiekt. Zgodnie z tą teorią podzielność uwagi w zakresie tego samego zadania, czy też w odniesieniu do tego samego obiektu, jest możliwa bez ponoszenia dodatkowych kosztów, np. wydłużenia czasu reakcji lub wzrostu liczby błędów. Wprawdzie wyników uzyskanych przez Bernstein, Duncana i innych nie był w stanie potwierdzić Pashler (1992; Fagot, Pashler, 1992), jednak dane empiryczne zgromadzone przez zwolenników koncepcji uwagi ukierunkowanej na obiekt świadczą wyraźnie przeciwko jednokanałowym teoriom filtra, co Bernstein szczególnie silnie akcentowała. Wykonywanie dwóch różnych czynności w tym samym czasie bez ponoszenia kosztów nie jest bowiem możliwe nawet w świetle teorii elastycznego filtra uwagi sformułowanej przez Johnstona (1978; Johnston, Heinz, 1978), chyba, że procesy poznawcze obsługujące te czynności są realizo­ wane na tym samym poziomie przetwarzania informacji, a pojemność pojedyn­ czej bramki jest wystarczająca dla analizy wszystkich informacji potrzebnych dla wykonania obu czynności, co jest praktycznie niemożliwe. W pierwszym ze swych eksperymentów Allport, Antonis i Reynolds (1972) prosili osoby badane o powtarzanie fragmentów prozy w paradygmacie prezen­ tacji dychotycznej, a następnie przedstawiali im listę wyrazów, z których połowa pokrywała się ze słowami, jakie pojawiły się wcześniej w kanale odrzucanym, połowa zaś była zupełnie nowa. Liczba poprawnie rozpoznanych wyrazów oscylowała z reguły wokół poziomu przypadku (50%), co potwierdza wyniki uzyskane przez Broadbenta (1952). W drugim eksperymencie słowa pojawiające się uprzednio w kanale odrzucanym prezentowano wizualnie, a w trzecim zastąpiono je obrazkami. Wskaźnik błędów obniżył się w drugim badaniu do 30%, a w badaniu trzecim - do 10%. Jedna z sześciu osób badanych w ekspe­ rymencie trzecim nie popełniła żadnego błędu rozpoznania, a więc nie poniosła żadnych kosztów jednoczesnego wykonywania dwóch czynności: powtarzania prozy i zapamiętywania obrazków. Allport i współpracownicy stwierdzili na tej podstawie, że w eksperymencie pierwszym badani mieli do czynienia z filtro­ waniem informacji akustycznych i zachowywali się zgodnie z przewidywaniami jednokanałowego modelu filtra uwagi (Broadbent, 1957, 1958), podczas gdy w drugim i trzecim badaniu zastąpienie sensorycznego kanału akustycznego kanałem wizualnym spowodowało receptoryczne rozdzielenie dwóch jedno­ cześnie wykonywanych zadań, przez co osoby badane zaczęły radzić sobie równie dobrze, jak uczestnicy badań Bernstein i współpracowników (Bernstein, 1970; Bernstein, Edelstein, 1971; Bernstein, Clark, Edelstein, 1969). Do uzys­ kania poziomu niemal 100% poprawności w rozpoznawaniu, oprócz zmiany 5.2. Teorie uw agi 211 kanału sensorycznego, konieczna była także zmiana sposobu kodowania nietrwałych reprezentacji umysłowych odbieranych bodźców z werbalnych na niewerbalne (obrazowe; zob. rozdz. 2.2). W ostatnim, czwartym eksperymencie studenci wyższej szkoły muzycznej powtarzali ze słuchu fragment prozy i grali z nut na pianinie. Nie zaobserwowano większych różnic w poziomie wykonania obu zadań między warunkiem wymuszonej podzielności uwagi a warunkiem zadań pojedynczych. Należy podkreślić, iż Allport, Antonis i Reynolds uważnie dobrali prezentowany materiał werbalny i niewerbalny: słowa pojawiające się w przekazie odrzucanym były rzadko używane, by zmniejszyć szanse przy­ padkowego ich odgadnięcia, a obrazki dobrano tak, aby zapamiętanie jednego szczegółu nie mogło stanowić o poprawnym rozpoznaniu całości. Z kolei ba­ dani studenci muzyki byli wystarczająco sprawni w manipulowaniu klawisza­ mi instrumentu, choć nie byli jeszcze uznanymi profesjonalistami w swojej dziedzinie. Na podstawie wyników swoich badań Allport (Allport, Antonis, Reynolds, 1972) sformułował multikanałową koncepcję selektywnej uwagi. Autor przyjął, że uwaga może funkcjonować jako zestaw wielu niezależnych kanałów, zawierających własne filtry i zdolnych do niezależnej selekcji informacji. Poje­ dynczy filtr funkcjonuje zgodnie z koncepcją selekcji źródła informacji Broadbenta, Treisman, Deutsch i Deutscha czy Johnstona. Gdy konieczna jest kon­ centracja na jakimś zadaniu czy też obiekcie, bez zarzutu może funkcjonować tylko jeden filtr uwagi. Im bardziej nieprzewidywalne wymagania ze strony jednocześnie wykonywanych zadań, i im większe ryzyko popełnienia błędu, tym bardziej prawdopodobna jest decyzja systemu poznawczego o przetwarzaniu szeregowym i jednokanałowym. W takich warunkach narzucona konieczność jednoczesnego wykonywania dwóch zadań zawsze będzie wiązać się z kosztami poznawczymi. Allport nie zgadza się jednak z twierdzeniami zwolenników kon­ cepcji jednego filtra uwagi, iż jednokanałowa forma analizy i selekcji informacji jest dla systemu poznawczego obligatoryjna. Wyników zgodnych z koncepcją Allporta dostarczył także Greenwald (1972; Greenwald, Shulman, 1973). Potwierdził on możliwość percepcyjnego filtrowania informacji w kanale odrzuconym przy całkowitym braku kosztów czasowych. Z kolei Salter (1973) polecił badanym jednoczesną koncentrację na obu przekazach werbalnych, prezentowanych po jednym do obu kanałów sen­ sorycznych. Mimo że przekaz priorytetowy powtarzano bardzo wiernie, także i drugi komunikat był przez osoby badane reprodukowany, wprawdzie już tylko fragmentarycznie, ale za to z zachowaniem jego formy lingwistycznej. Poziom wykonania zadania uzupełniającego był zależny od indywidualnej szybkości artykulacji, jednak samo wykonywanie tego zadania wskazywało na obecność funkcjonującego równolegle drugiego filtra uwagi. Przeglądu wyników podob­ nych badań dostarczył Allport (1980a). Rezultatów sprzecznych z koncepcją multikanałową dostarczyli z kolei Treisman i Davies (1973). Autorzy potwierdzili wprawdzie, że gdy zadania jed­ noczesne angażują dwie różne modalności sensoryczne (akustyczną i wizual­ ną), badani nie mają większych problemów z rozpoznawaniem obu kategorii sygnałów. Jeśli jednak instrukcja wymaga semantycznej integracji informacji należących do różnych modalności, zadania jednoczesne wykonywane są znacznie gorzej. Treisman i Davies stwierdzili więc, że w systemie poznawczym 212 Rozdział 5. Uwaga i świadomość może istnieć wiele kanałów sensorycznych wyposażonych w filtry funkcjonujące zgodnie z zasadą „wszystko albo nic”, jednak kanał semantyczny, wyposażony w filtr działający zgodnie z zasadą osłabiacza, może być tylko jeden. Kosztów jednoczesności, mimo rozdzielenia kanałów sensorycznych w obu zadaniach wykonywanych w tym samym czasie, nie udało się także wyeliminować Salthause’owi (1975) i Brebnerowi (1977). Biorąc pod uwagę wyniki powyższych badań, w nowej wersji swojej kon­ cepcji Allport (1980a) dokonał kilku uściśleń. Uznał, że niezależność kana­ łów selekcyjnych zależy od tego, czy dwa konkurencyjne zadania wymagają różnych receptorów, reprezentacji umysłowych i efektorów. Uwaga może dzia­ łać jako zbiór niezależnych, selekcjonujących informacje modułów. To, który moduł zostanie użyty, jest zdefiniowane na wejściu - przez rodzaj receptora, na wyjściu - przez rodzaj efektora, oraz w kanale przetwarzania - przez rodzaj reprezentacji umysłowej. Każdy moduł jest wyspecjalizowanym podsystemem, posiadającym własne zasoby, dzięki czemu możliwe jest równoległe przetwa­ rzanie informacji. Moduły są jednak ograniczone zarówno na wejściu, jak i na wyjściu. Tylko jeden moduł może przetwarzać informację wzrokową, jeden słuchową, dotykową itd. Podobnie, tylko jeden moduł może wypracować reakcję motoryczną, jeden - werbalną itd. Ograniczenia procesu selekcji informacji nie wynikają więc z obecności w systemie poznawczym jednego tylko filtra, lecz z limitowanej dostępności niezależnych modułów, wyposażo­ nych w odrębne mechanizmy filtrujące. Walka o moduły dokonuje się w ramach tej samej modalności. Wyniki badań McLeoda (1977) potwierdziły koncepcję modułową. Osoby badane wykonywały dwa zadania jednocześnie. W pierwszym eksperymencie zadania były zróżnicowane ze względu na kanał sensoryczny - wzrokowy lub słuchowy. W badaniu tym uwzględniono także dwa różne sposoby reagowania na bodźce. W warunku pierwszym oczekiwano reakcji werbalnych na bodźce akustyczne i reakcji motorycznych (naciśnięcie klawisza) na bodźce wizualne. W warunku drugim badani reagowali tylko motorycznie: jedną ręką na bodźce wizualne, a drugą na akustyczne. Liczba poprawnych reakcji w zadaniu z bodź­ cami wzrokowymi okazała się zależna od sposobu reagowania. Badani popełniali więcej błędów, gdy w drugim zadaniu należało reagować tylko moto­ rycznie, a mniej - gdy jedna reakcja była motoryczną, a druga werbalna. W drugim eksperymencie zadanie polegające na werbalnej reakcji na bodźce akustyczne zastąpiono przez zadanie arytmetyczne o dwóch stopniach trud­ ności. Poziom wykonania zadania z bodźcami wzrokowymi był niezależny od stopnia trudności problemu arytmetycznego rozwiązywanego „w pamięci”. Tym samym zasada niezależności modułów selekcyjnych, postulowana przez Allporta (1980), została potwierdzona. W przeciwieństwie do Allporta, Kahneman (1970) był zdania, że uwaga selektywna może skutecznie funkcjonować jedynie pod warunkiem szeregowe­ go, jednokanałowego przetwarzania informacji. Jeśli z konieczności dochodzi do równoległego przetwarzania w wielu kanałach, muszą pojawić się koszty jed­ noczesnego wykonywania kilku czynności, wynikające z wzajemnego zakłóca­ nia przebiegu współwystępujących procesów analizy i selekcji informacji (Kahneman, 1973). Wykorzystując obserwacje dotyczące owego zjawiska in­ terferencji (zob. rozdz. 6.1), autor sformułował teorię podzielności uwagi, 5.2. Teorie uw agi 213 ŹRÓDŁA POBUDZENIA (lęk, strach, gniew, podniecenie seksualne, napięcie mięśniowe, wpływ substancji pobudzających: leków, narkotyków itp.) if-%. as- W i^Si ODPOWIEDZI & Ryc. 5.7. Model zasobów uwagi wg Kahnemana (1973). zwaną teorią zasobów (ryc. 5.7). Każdy system poznawczy dysponuje określoną ilością energii mentalnej, czy też mocy obliczeniowej, zwanej zasobami poznaw­ czymi. System wykorzystuje te zasoby, przeznaczając je na wykonanie poszcze­ gólnych procesów przetwarzania informacji; zjawisko to nosi nazwę alokacji zasobów. Każde zadanie poznawcze wymaga pewnego wysiłku, co wiąże się ze zużyciem pewnej ilości „paliwa mentalnego”, czyli zasobów. W systemie poznawczym trwa więc nieustanna walka równolegle zachodzących procesów o zasoby uwagi, a nadrzędny mechanizm selekcjonujący zachowuje się jak cen­ tralny dyspozytor energii (Nęcka, 1994, 1995; Szymura, Nęcka, 2004), roz­ dzielając ją pomiędzy poszczególne procesy. To do niego należy decyzja, czy 214 Rozdział 5. Uw aga i świadom ość trzeba wszystkie siły skupić na jednym zadaniu, gdy wymagania płynące z jego strony pokrywają się z możliwościami energetycznymi systemu, czy też zasobów wystarcza jeszcze na podjęcie zadania konkurencyjnego. Walka o zasoby zawsze jednak wiąże się z interferencją między procesami poznawczymi i wynikającymi stąd kosztami jednoczesności przetwarzania. Według Kahnemana ilość zasobów przeznaczona do podziału w konkretnej sytuacji jest tylko częścią ogólnej puli zasobów. Część ta może ulec zwiększeniu, jeśli system jest w stanie pobudzenia. Liczne i różnorodne źródła pobudzenia przekładają się na jawne wskaźniki wysiłku i zaangażowania (np. reakcja elektrodermalna, szybkie tętno). W takich sytuacjach organizm mobilizuje zasoby, zbliżając się w swoich „wydatkach energetycznych” do całkowitej puli zasobów. Potwierdzenie teorii zasobów znalazł Kahneman w wynikach badań włas­ nych z wykorzystaniem paradygmatu podążania (Ninio, Kahneman, 1974). Zadaniem osób badanych było reagowanie na pojawiające się w kanale słucho­ wym nazwy zwierząt. W pierwszym warunku eksperymentalnym uczestnikom prezentowano dwa przekazy jednocześnie, z zadaniem skupienia się tylko na jednym z nich. W warunku drugim połowie osób badanych utrudniono zadanie polecono im monitorować dwa przekazy jednocześnie. Natomiast drugiej połowie badanych zadanie ułatwiono - prezentowano im tylko jeden przekaz. Okazało się, że wskaźniki wykonania zadania (czas reakcji, liczba błędów ominięcia) zdecydowanie się pogorszyły w przypadku konieczności dzielenia uwagi między dwa ważne przekazy, w porównaniu do warunków, gdzie wyma­ gano koncentracji tylko na jednym komunikacie. Natomiast poziom wykonania zadania wymagającego koncentracji uwagi na jednym z dwóch przekazów był tylko minimalnie gorszy od poziomu wykonania zadania, w którym prezento­ wano tylko jeden komunikat. W przypadku pojedynczego komunikatu niemal w ogóle nie było błędnych reakcji, podczas gdy - w warunku uwagi skupionej na jednym z dwóch przekazów - pojawiały się okazjonalne ominięcia. Na tej podstawie Ninio i Kahneman (1974) wywnioskowali, że w warun­ kach dychotycznej prezentacji muszą być przetwarzane - przynajmniej częś­ ciowo - oba przekazy. Gdyby filtr selekcjonujący informacje z obu kanałów był tylko jeden, musiałby w takim przypadku ponosić koszty czasowe, związane z przełączaniem się z jednego przekazu na drugi. Kosztów czasowych jednak nie obserwowano, co wyraźnie wskazywało na istnienie dwóch mechanizmów filtrujących. Wystąpiły natomiast koszty związane z obniżoną poprawnością, co sugeruje wzajemną zależność filtrów, spowodowaną walką o ograniczone za­ soby systemu. Jednak w kolejnych badaniach (Kahneman, 1975) nie udało się wykryć interferencji między dwoma procesami przetwarzania informacji, polegającymi na zapamiętaniu dwóch konkurencyjnych, jednocześnie prezento­ wanych list wyrazów. Udało się natomiast wykazać, że koszty czasowe związane z przetwarzaniem równoległym i z interferencją procesów selekcji informacji mogą być zredukowane, jeśli osobom badanym wcześniej dostarczy się infor­ macji o położeniu celów i dystraktorów (Kahneman, Treisman, Burkel, 1983). W efekcie Kahneman (1975) wycofał się z twierdzenia, że interferencja mecha­ nizmów filtrujących informacje jest koniecznym następstwem walki o ograni­ czone zasoby systemu (zob. Kahneman, Treisman, 1984; Kahneman, Treisman, Burkel, 1983), a Navon (1984, 1985) i Gopher (1992), uzupełniając koncepcję Kahnemana, stwierdzili, że wystąpienie interferencji jest uzależnione od „ła­ 5.2. Teorie uw agi 215 dunku mentalnego” zadań jednoczesnych, a więc od wymagań, jakie stawiają one systemowi poznawczemu. Należy jednak podkreślić, iż Kahneman falsyfikował teorię zasobów na podstawie badań, w których uczestnikom dostarczano różnych informacji zawsze tym samym kanałem sensorycznym. Były to np. dwa kanały akustyczne (Ninio, Kahneman, 1974) lub dwa kanały wizualne (Kahneman, Treisman, Burkel, 1983). W takich warunkach teoria modułów Allporta (1980a) również przewiduje wystąpienie zjawiska interferencji, choć upatruje jego przyczyn nie w walce o zasoby, lecz w zaangażowaniu jednego modułu do obsługi różnych czynności. W istocie więc wyniki uzyskane przez Kahnemana świadczą zarówno na korzyść teorii zasobów, jak i teorii modułów, zupełnie nie rozstrzygając między konkurencyjnymi wyjaśnieniami powstawania kosztów: interferencją strukturalną (Allport) i interferencją zasobową (Kahneman). W wielu badaniach (Allport, Antonis, Reynolds, 1972; Greenwald, Shulman, 1973; Kahneman, 1975; McLeod, 1977), w których stworzono możliwości redukcji efektu interfe­ rencji strukturalnej, efekt interferencji zasobowej nie ujawniał się. W konse­ kwencji, na podstawie wyników uzyskanych przez Kahnemana i innych badaczy problematyki alokacji zasobów uwagi, trudno jednoznacznie ustalić, w jakich warunkach może pojawić się zakłócenie związane z walką o zasoby, i czym zakłócenie to różni się od interferencji strukturalnej (zob. ramka 5.3). Ramka 5.3 Czy uwaga jest konstruktem jednorodnym? Nęcka (1995) oraz Szymura i Nęcka (2004) podjęli próbę rozstrzygnięcia kwestii czy uwaga jest systemem jednorodnym, czy też zbiorem kilku niezależnych subsystemów odpowiedzialnych za poszczególne funkcje uwagowe. Zgodnie z koncep; cjami parcjalistycznymi, uwaga jest systemem modułów - niezależnych struktur : uwagowych (Allport, Antonis, Reynolds, 1972; Allport, 1980), określonych przez wejście sensoryczne, wyjście efektoryczne oraz specyficzną reprezentację umy; słową. Moduły te mogą realizować niezależne od siebie funkcje uwagowe. Z kolei holiści (Kahneman, 1973; Navon, 1984, Gopher, 1992) sugerują jednorodność ; uwagi, która ich zdaniem miałaby się zajmować dystrybucją jednorodnych zasobów umysłowych systemu. Zgodnie z koncepcjami parcjalistycznymi zjawisko interfe{ rencji (wzajemnego zakłócenia) dwóch jednoczesnych procesów uwagowych wyi stępuje wtedy, gdy korzystają one z tych samych podzespołów modułów (np. tego 5samego wejścia sensorycznego; tzw. interferencja strukturalna). Natomiast zgodnie ? z koncepcjami holistycznymi interferencja pojawia się zawsze wtedy, gdy wymagania ze strony jednocześnie wykonywanych procesów przekraczają możliJ wości systemu (tzw. interferencja zasobowa). Stanowisko pośrednie między | parcjalizmem a holizmem reprezentują m.in. Hirst i Kalmar (1987). Uważają oni, | że uwaga może funkcjonować jako zestaw do pewnego stopnia niezależnych za| sobów specyficznych (związanych z wykonywaniem konkretnych procesów i poznawczych). Jeśli wymagania ze strony jednocześnie realizowanych różnych ? procesów nie przekraczają możliwości systemu w zakresie zasobów specyficznych, j które można przydzielić tym procesom, to uwaga funkcjonuje jako system nie| zależnych podsystemów zasobowych. 216 Rozdział 5. Uwaga i świadomość Podczas wykonywania zadań jednoczesnych stwierdza się często występo­ wanie kosztów równoległości procesów przetwarzania informacji. Mogą one mieć charakter kosztów ogólnych, jeśli wykonywanie zadania drugiego, „doładowujące­ go”, pogarsza ogólnie wykonywanie zadania pierwszego lub odwrotnie. Koszty te mogą mieć również charakter bardziej specyficzny, jeśli jakakolwiek manipulacja poziomem trudności w zakresie jednego z zadań (zwłaszcza głównego) ma wpływ na wykonanie zadania drugiego. Brak jakichkolwiek kosztów wskazuje na nie­ zależność subsystemów odpowiedzialnych za wykonanie poszczególnych zadań. Występowanie kosztów specyficznych (silne zjawisko interferencji) przemawia za tezą o jednorodności uwagi. Występowanie kosztów ogólnych (słabe zjawisko interferencji) jest z kolei argumentem na korzyść stanowiska pośredniego w sporze o naturę uwagi. Inaczej mówiąc, podsystemy uwagi mogą być zupełnie niezależne, częściowo niezależne lub tworzyć jednorodny, zunifikowany organizm. W badaniach z użyciem testu selektywnej i podzielnej uwagi DIVA (opis testu w: Nęcka, 1994a; Szymura, 1999) stwierdzono występowanie kosztów ogólnych w łatwiejszej odmianie tego testu i kosztów specyficznych w jego trudniejszej wersji. Gdy zadanie selekcyjne testu DIVA wymagało zastosowania sensorycznego kryterium odróżniania sygnałów od szumu, a zadanie doładowujące polegało na kontroli jasności wolno zmieniających swoją luminację kwadratów, Nęcka (1995) stwierdził jedynie ogólny efekt jednoczesności zadań - badani popełniali więcej błędów selekcji w sytuacji zadania podwójnego niż wtedy, gdy zadanie selekcyjne miało monopol na zasoby uwagi. Gdy jednak test DIVA utrudniono poprzez zastosowanie semantycznego kryterium selekcji informacji oraz zmianę zadania doładowującego (kontrola opadania szybko poruszającej się linii), Szymura i Nęcka (2004) wykryli zarówno ogólne, jak i specyficzne koszty jednoczesności zadań poznawczych. Uczestnicy badań zawsze popełniali więcej błędów w zadaniu se­ lekcyjnym, gdy wykonywali je jednocześnie z zadaniem doładowującym niż wtedy, gdy wykonywali je pojedynczo. Jednak manipulacje w zakresie zadania selekcyj­ nego (m.in. zwiększanie liczby jednocześnie prezentowanych bodźców, obecność bodźców zakłócających) miały również wyraźny wpływ na poziom wykonania zadania doładowującego - im trudniejsze stawało się zadanie selekcyjne, tym gorzej badani kontrolowali ruch opadającej linii. Na tej podstawie autorzy formułują wniosek, że uwaga jest mechanizmem jednorodnym, co ujawnia się szczególnie mocno wtedy, gdy zadania jednoczesne są relatywnie trudne. W warunkach „opresji” system uwagi jak gdyby zaostrza swą politykę rozdziału zasobów. Natomiast w sytuacji, gdy zadania są łatwe, poszczególne składniki systemu uwagi uzyskują częściową, ale i łatwo odwracalną „suwerenność”. Broniąc koncepcji zasobów uwagi, Navon i Gopher (1979) stwierdzili, iż obserwowany niekiedy brak spodziewanej interferencji między procesami se­ lekcji informacji wynika stąd, że jednocześnie wykonywane czynności nie konkurują o jedną pulę zasobów, jak to zakładał Kahneman (1973). Navon i Gopher uważają, że istnieje wiele niespecyficznych „zasobników” energii mentalnej. Dwa łatwe zadania, podobne w swoich wymaganiach, mogą prowa­ dzić do interferencji, gdyż dochodzi wtedy do walki o specyficzne zasoby, od­ powiedzialne za realizację podobnych czynności. Z kolei dwa różne, trudne 5.2. Teorie uwagi 217 zadania nie muszą wywoływać interferencji, jeśli nie dojdzie do współzawod­ nictwa między nimi o moc obliczeniową: ich realizacja może wymagać różnych, specyficznych pul zasobów. Ani dla Navona i Gophera, ani dla podzielających ich poglądy Wickensa (1984), czy Hirsta i Kalmara (1987), nie jest jednak jasne, jak dużą liczbą specyficznych pul zasobów dysponuje system poznawczy. Nie jest także wiadome, jaką pojemnością cechują się rezerwuary zasobów spe­ cyficznych. Pisanie na maszynie wydaje się angażować co najmniej dwa specy­ ficzne pola zasobów: pierwsze odpowiedzialne za rozpoznawanie liter i znaków, drugie - za generowanie reakcji motorycznych w postaci uderzania w odpowied­ nie klawisze (Gopher, Brickner, Navon, 1982). Być może jednak w czynności tej bierze również udział specyficzna pula zasobów, odpowiadająca np. za koordy­ nację psychomotoryczną lub inne jeszcze rezerwuary mocy obliczeniowej. Pytania o ilość zasobów oraz liczbę ich rezerwuarów nadal pozostają bez odpowiedzi. Podważa to wiarygodność koncepcji zasobów, uniemożliwiając jej empiryczną weryfikację oraz dopracowanie szczegółów teorii (Navon, 1985). Należy także podkreślić, iż postulowanie istnienia zasobów specyficznych upo­ dabnia teorię zasobów do teorii modułów uwagi. Mechanizm interferencji zasobowej można równie dobrze opisać w języku interferencji strukturalnej, a rezerwuary zasobów specyficznych uznać za niezależne moduły uwagi. Nie bez znaczenia jest też niejasność co do kluczowego pojęcia „zasobów”, definio­ wanego raczej metaforycznie (energia, paliwo mentalne) niż poprzez ścisłe terminy obserwacyjne. Teorii zasobów zarzuca się wręcz, że popada w błędne koło, tłumacząc efekt interferencji walką o zasoby, jednocześnie dowodząc istnienia zasobów i ich ograniczonego charakteru na podstawie efektu inter­ ferencji. Najważniejsze jednak pytanie, na które nadal nie znamy odpowiedzi, dotyczy tego, w jakich warunkach selektywna uwaga może funkcjonować wielo­ kanałowo, a w jakich zmuszona jest przetwarzać informacje w jednym kanale selekcji. 5.2.5. Teorie przerzutności Zwolennicy koncepcji jednokanałowego systemu selekcji informacji są zdania, iż system poznawczy może wykonywać zadania jednoczesne tylko w ten sposób, że nieustannie przełącza się z jednego na drugie. Konsekwencją takiego sposobu myślenia jest hipoteza przełącznika (Nęcka, 1994). Wykonując zadania jedno­ czesne, hipotetyczny filtr uwagi przez pewien odcinek czasu pozostaje na usługach jednego z dwóch zadań. W tym czasie informacje dotyczące drugiego zadania nie podlegają analizie, przez co jest ono po prostu ignorowane. Jeśli przełączenia pomiędzy zadaniami dokonują się dostatecznie szybko i często, koszty powstające w wyniku takiego funkcjonowania mechanizmów selekcji ograniczają się do czasu - reakcje po przełączeniu są nieco dłuższe, co wynika z konieczności dostosowania mechanizmu filtrującego do zadania sprzed przełączenia. Konieczna może się okazać np. zmiana poziomu analizy danych, kryteriów selekcji informacji lub tempa przetwarzania bodźców, co wymaga czasu. Jeśli jednak przełączenia są zbyt wolne lub rzadkie, zaczynają się ujaw­ niać również koszty w zakresie poprawności; pojawiają się ominięcia sygnałów i fałszywe alarmy, a więc błędne reakcje będące efektem spóźnienia w odbiorze 218 Rozdział 5. Uwaga i świadom ość bodźców lub też wynikające ze stosowania nieadekwatnej zasady selekcji. W myśl koncepcji jednokanałowych, przełączanie jednego i tego samego filtra uwagi między zadaniami jednoczesnymi zawsze pociąga za sobą koszty, które niekiedy ograniczają się do wydłużonego czasu reagowania, a kiedy indziej zwiększają poziom zawodności systemu. Rogers i Monsell (1995) wyróżnili dwa rodzaje procesów biorących udział w przełączaniu uwagi: wzbudzane wewnętrznie i zewnętrznie. Pierwsza kate­ goria obejmuje procesy odgórne, uruchamiane przez system selekcjonujący in­ formacje. Ich rola polega na przygotowaniu odpowiednich operacji umysłowych, niezbędnych do wykonania zadania pojawiającego się jako następne w kolej­ ności. Procesy te zostały nazwane przygotowawczymi, ponieważ działają proaktywnie: ich uruchomienie następuje jeszcze przed pojawieniem się bodźców sygnalizujących nowe zadanie. Możliwość ich uruchomienia istnieje niezależnie od zewnętrznej stymulacji, również wtedy, gdy dane potrzebne do wykonania kolejnego nowego zadania nie są jeszcze dostępne przetwarzaniu (Sohn, Ander­ son, 2001; Sohn, Carlson, 2000). Natomiast procesy wzbudzane zewnętrznie mają charakter oddolny i działają reaktywnie, ponieważ stanowią odpowiedź systemu na już zaistniałą, nową sytuację. Rola procesów wzbudzanych zew­ nętrznie polega na dokończeniu dzieła zapoczątkowanego przez procesy przygotowawcze. Jest oczywiste, że procesy przygotowawcze nie są w stanie samodzielnie sterować przerzutnością uwagi, ponieważ dopiero pojawienie się nowego zadania ostatecznie określa, jakie wymagania stawia ono systemowi poznawczemu. Procesy przygotowawcze mają charakter kontrolny (Norman, Shallice, 1986), podczas gdy procesy wzbudzane zewnętrznie są raczej auto­ matyczne (Styles, 1997; zob. rozdz. 6.1). Działanie procesów kontrolnych jest wyraźnie widoczne wówczas, gdy osoba badana wie, jakie będzie kolejne zada­ nie w serii, jaki cel należy w nim zrealizować, a najlepiej - w jaki sposób można ten cel osiągnąć. Może się wówczas przygotować do wykonania zadania poprzez zaplanowanie sposobu realizacji celu. Podstawowa rola procesów kontrolnych w elastycznym reagowaniu na zmianę warunków zadania polega więc na odpowiednim doborze operacji umysłowych potrzebnych do realizacji zadania, ustaleniu ich kolejności i następstwa, a także na kontrolowaniu ich przebiegu (Ruthruff, Remington, Johnston, 2001). Próbując wyjaśnić, jak jest możliwe przełączanie uwagi między zadaniami, Rogers i Monsell (1995) wprowadzili pojęcie zestawu zadaniowego (task-set). Zestawem jest wyspecjalizowany, dobrze zorganizowany i dopasowany do sy­ tuacji układ operacji poznawczych niezbędnych do wykonania zadania. Działanie zestawu zadaniowego polega na skupieniu uwagi na istotnych ele­ mentach stymulacji, uaktywnieniu właściwego wyjścia motorycznego, urucho­ mieniu stosownych reguł łączenia wejścia sensorycznego z wyjściem motorycznym oraz na ustaleniu kryteriów poprawnej reakcji. Procesy składające się na zestaw tworzą więc funkcjonalny moduł przechowywany w pamięci. Przełą­ czenie uwagi z jednego zadania na drugie wymaga rekonfiguracji zestawu - dwa następujące po sobie zadania mogą wymagać udziału tych samych procesów, ale w innym układzie, albo wręcz nieco innego zestawu procesów. Im więcej czasu damy osobie badanej na rekonfigurację, tym mniejsze będą czasowe koszty przerzucania uwagi, dlatego wydłużanie przerwy między próbami nieco redukuje koszty; zwykle wystarczy na to mniej niż 1000 ms (Rogers, Monsell, 5.2. Teorie uwagi 219 1995). Choć adekwatna zmiana zestawu zadaniowego wydaje się niezbędnym warunkiem redukcji kosztów, nie jest jasne, w jaki sposób przebiega sam proces rekonfiguracji (Meiran, Chover, Sapir, 2000). Niektórzy badacze twierdzą, iż omawiany proces dokonuje się poprzez wydobywanie danych z pamięci, hamowanie nieistotnych informacji, monitorowanie zadań, utrzymywanie lub zmienianie celów oraz aktywację reguł zadania (Gopher, Armony, Greensphan, 2000; Goschke, 2000; Meiran, 2000; Rubinstein, Meyer, Evans, 2001). Nie jest to z pewnością lista kompletna; służy raczej pokazaniu, jakiego typu procesy przetwarzania informacji mogą mieć znaczenie dla redukcji kosztów przerzucania uwagi. W wielu eksperymentach sprawdzano efektywność procesów przygotowaw­ czych w zależności od rodzaju dostarczanej osobom badanym informacji o tym, jakie zadanie pojawi się jako następne w kolejności (Arbuthnott, Frank, 2000; Arbuthnott, Woodward, 2002; Sohn, Carlson, 2000). Informacja ta sprowadzała się do regularnego układu zadań, dzięki czemu badani mogli przewidzieć ich kolejność (Rogers, Monsell, 1995; Sohn, Anderson, 2001), lub miała postać wskazówki dostarczanej w czasie przerwy między poszczególnymi zadaniami (De Jong, 2000; Gopher, Armony, Greensphan, 2000; Meiran, 2000; Meiran, Chover, Sapir, 2000). Wyniki tych badań wyraźnie wskazują, że jeśli osoby badane wiedzą, jakie zadanie pojawi się jako następne oraz mają wystarczająco dużo czasu na przygotowanie się do niego, to koszty przełączania uwagi znacznie maleją. Przerwę między zadaniami, konieczną do zredukowania kosztów przerzutności określa się skrótem RSI (response-stimulus interval), ponieważ obejmuje czas między poprzednią reakcją a bodźcem sygnalizującym nowe zadanie. Długość tej przerwy zależy od rodzaju zadań, między którymi uwaga się przełącza. Na przykład w badaniu Sohna i Andersona (2001) efektywna przerwa trwała 200 ms lub 600 ms, w zależności od tego, czy osobom badanym prezentowano w czasie przerwy wskazówkę informującą o rodzaju kolejnego zadania do wykonania (krótsza przerwa wystarczająca), czy też nie (długa przerwa konieczna). U Meirana (1996) przerwa trwała 200 ms lub 1400 ms. W eksperymencie Śmigasiewicz, Szymury i Słabosz (2004) przerwa wynosiła 400 ms lub 800 ms w zależności od rodzaju redukowanych błędów (fałszywe alarmy - 400 ms; ominięcia - 800 ms). Natomiast w badaniu Ruthruffa, Remingtona i Johnstona (2001) długość przerwy dochodziła nawet do 2500 ms. Jeżeli za powstawanie kosztów przerzucania uwagi byłyby odpowiedzialne tylko procesy kontrolne, to koszty te powinny ulec całkowitej redukcji w wyniku działania wskazówki wyprzedzającej lub wystarczająco długiego RSI; w rzeczywistości redukcja kosztów nigdy nie jest zupełna (Goschke, 2000; Meiran, 2000; Ruthruff, Remington, Johnston, 2001). Oznacza to, że w generowaniu kosztów przełączenia biorą udział również procesy automatyczne, wzbudzane i ukierunkowywane oddolnie przez stymulację zewnętrzną. Przykładem działania procesów automatycznych jest efekt poprzedzania pozytywnego. Polega on na szybszym przetwarzaniu w kolejnym zadaniu z serii tej samej stymulacji, która działała w poprzednim zadaniu, lub podobnej (Sohn, Anderson, 2001; Sohn, Carlson, 2000). Tego typu automatyczne procesy ułatwiają przetwarzanie informacji w przypadku powtórzenia zadania selekcyj­ nego, ale mogą mieć niekorzystne skutki, gdy konieczne będzie przełączenie 220 Rozdział 5. Uwaga i świadom ość uwagi na inny rodzaj stymulacji. Procesem automatycznym, odpowiedzialnym za powstawanie kosztów przełączania uwagi między zadaniami, jest aktywacja struktur poznawczych, stanowiąca rezultat uprzednio wykonywanego zadania. Wyniki badań prowadzonych przez Allporta i jego współpracowników (Allport, Styles, Hiesh, 1994; Allport, Wylie, 2000) wskazują, że na powstawanie tych kosztów ma wpływ proaktywna interferencja ze strony zadania wcześniejszego w stosunku do zadania występującego jako następne w kolejności. Aktywacja reguł koniecznych do wykonania ukończonego właśnie zadania nie zanika natychmiast po jego zakończeniu. Przy przejściu do nowego zadania, utrzy­ mująca się aktywacja związana z poprzednim zadaniem utrudnia wzbudzenie nowej aktywacji, koniecznej do rekonfiguracji zestawu zadaniowego. Aby zre­ dukować koszty przerzutności związane z interferencją proaktywną, należy od­ dzielić przełączane zadania odpowiednio długą przerwą. Allport, Styles i Hiesh (1994) stwierdzili, że im dłuższa przerwa między zadaniami, tym mniejsze koszty przełączania uwagi między nimi. Według Allporta i współpracowników świadczy to o tym, że aktywacja uprzednio utworzonego zestawu zadaniowego samoistnie zanika wraz z upływem czasu. Zdaniem Allporta (1980, 2000), im bardziej moduły selekcyjne dla różnych zadań są do siebie podobne, tym większa jest interferencja między nimi. Jest ona większa również wtedy, gdy połączenia tworzące moduł dla pierwszego zadania dominują z jakiś powodów (np. w wyniku priorytetu przyznanego przez in­ strukcję eksperymentalną) nad połączeniami modułu obsługującego zadanie drugie. Wyniki badań Allporta świadczą na korzyść tezy, że koszty przerzutności są związane z wykonywaniem wcześniejszego zadania w serii, a nie zadania nadchodzącego jako kolejne. Tylko w pierwszym przypadku poziom trudności zadania miał wpływ na wielkość kosztów przełączania się między zadaniami, zaś poziom trudności zadania następczego nie miał znaczenia. Istotny wpływ aktywacji zestawu odpowiadającego zadaniu wcześniejszemu na wielkość kosz­ tów przerzutności stwierdzono również w badaniach Meirana (2000; Meiran, Chover, Sapir, 2000). Jednakże wyniki badań Smigasiewicz, Szymury i Słabosz (2004) nie potwierdziły tezy Allporta. W badaniach tych koszty przełączenia z zadania A na zadanie B były wyższe w przypadku, gdy poziom trudności zadania B był wysoki, niż wtedy, gdy zadanie B było stosunkowo łatwe. Na podstawie powyższych argumentów empirycznych można wnosić, że wielkość kosztów przerzutności uwagi między zadaniami zależy od poziomu trudności tych zadań. Wielu badaczy (np. Rubinstein i in., 2001) uważa jednak, że koszty te wynikają nie tyle z działania elementarnych procesów poznawczych, ile z funkcjonowania mechanizmów kontrolnych - dlatego też są one, ich zdaniem, niezależne od poziomu trudności zadań. Manipulacje zmierzające do redukcji kosztów przerzutności (wskazówka dla procesów kontrolnych i przerwa dla procesów automatycznych) są sku­ teczne, ale tylko do pewnego stopnia. Ujawniające się mimo wszystko koszty przerzutności nie podlegające redukcji, nazwano kosztami rezydualnymi. Różni autorzy nie są zgodni co do tego, z czego wynikają te koszty. Tipper, Weaver, Cameron, Brehaut i Bastedo (1991) są zdania, że rekonfigurowanie zestawu zadaniowego może zostać wstrzymane na pewnym etapie i odroczone aż do momentu, w którym pojawi się stymulacja dotycząca nowego zadania. Innymi słowy, uruchomienie procesów zewnętrznych może być koniecznym warunkiem 5.3. Uwaga, percepcja i (nie)św iadom ość t',.- 221 s I l i I l! g I | p i | | | | | | I | I I 1 ■ B dokończenia procesów przygotowawczych (Rogers, Monsell, 1995). Źródłem kosztów rezydualnych może być także mechanizm inhibicji (Mayr, Keele, 2000). Przejście do kolejnego zadania w serii wymaga bowiem uruchomienia dwóch procesów: pierwszy polega na wzbudzeniu aktywacji nowego zestawu zadaniowego, drugi natomiast - na zahamowaniu aktywacji zestawu, który wraz z zakończeniem poprzedniego zadania utracił swą przydatność. Mayr i Keele (2000) wykazali, że ponowna aktywacja modułu potrzebnego do realizacji zadania wcześniej „odłączonego” trwa dłużej (układ zadań ABA) niż aktywacja modułu koniecznego do wykonania zadania całkiem nowego, dotąd nie wykonywanego (układ zadań ABC). Jest to zjawisko analogiczne do efektu poprzedzania negatywnego (Neill, 1977; Tipper, 1985; zob. rozdz. 6.2): reakcja na bodziec uprzednio ignorowany jest znacznie utrudniona. Koszty rezydualne mogą więc powstawać w wyniku konieczności „odhamowania” reakcji wcześniej zahamowanej. Badania nad przerzutnością uwagi koncentrują się wokół problemu kosztów przełączania się między zadaniami - ich przyczynami i możliwościami redukcji. Oddzielenie wpływu procesów kontrolnych i automatycznych na redukcję tych kosztów wydaje się niemożliwe, gdyż głównym czynnikiem pozwalającym zwiększyć efektywność przełączenia jest długość przerwy RSI (Allport, Styles, Hiesh, 1994; Sohn, Anderson, 2001). W wyniku jej działania możliwy jest zarówno automatyczny zanik aktywacji wywołanej poprzednim zadaniem, jak i kontrolowany proces przygotowania się do wykonywania następnego zadania w serii. | 5.3. Uwaga, percepcja i (nie)świadomość | |: I I I I I I I I 1 1 1 I; | | i I 1 I Zgodnie z tradycją, wprowadzoną przez Jamesa (1890), przez dłuższy czas uważano, że uwaga jest zdolnością umysłu do świadomej koncentracji na wybranym podmiocie: myśli bądź rzeczy. Przyjmowano, że jeśli coś się przedostanie przez filtr uwagi, musi być uświadomione, a jeśli nie jest uświadomione, to znaczy, że zanikło na bardzo wczesnych etapach przetwarzania. Obróbkę informacji na wczesnych etapach nazywano w związku z tym procesami przeduwagowymi (preattentive processes). Obecnie stanowisko psychologów w tej kwestii uległo złagodzeniu. Uważa się, że uwaga skutecznie selekcjonuje informacje nawet wtedy, gdy ich treść nie przedostaje się do świadomości. Zebrano dane empiryczne, świadczące o możliwości nieświadomej obróbki danych na najwyższym, semantycznym piętrze przetwarzania. Na określenie tych zjawisk nadal używa się historycznego terminu „procesy przeduwagowe”, choć nikt nie wątpi, że są to zjawiska całkowicie uwagowe. Badanie związków uwagi, percepcji i świadomości wymaga ustalenia empirycznych kryteriów świadomości. Velmans (1999) uważa, że proces przetwarzania informacji można uznać za świadomy, jeśli są spełnione następujące warunki: człowiek zdaje sobie sprawę z przebiegu procesu poznawczego i dysponuje wiedzą o rezultatach tego procesu, a świadomość procesu ma wpływ na jego przebieg. Zaś zdaniem Baara (1997) proces można uznać za nieświadomy, jeśli nie wyzwala subiektywnego doświadczenia i nie można go w żaden sposób 222 Rozdział 5. Uwaga i świadomość zrelacjonować czy odtworzyć, nawet w warunkach optymalnych, ale ujawnia­ ją się obiektywne skutki jego działania. Marcel (1983) oraz Cheesman i Merikle (1984) zaproponowali eksperymentalne sposoby sprawdzenia, czy głę­ bokie, semantyczne przetwarzanie informacji może mieć charakter nieświado­ my. Chodzi o wypracowanie operacyjnych definicji tego, czym jest bodziec podprogowy. Mianem bodźca podprogowego (subliminalnego) określa się stymulację, która jest wystarczająco silna, aby pobudzić organy sensoryczne, ale zbyt słaba, aby można ją było świadomie zauważyć. Bodziec podprogowy działa więc po­ wyżej absolutnego progu percepcji, ale poniżej progu świadomości. Technicznie rzecz biorąc, podprogowy charakter stymulacji najczęściej uzyskuje się poprzez drastyczne skrócenie czasu jej trwania (nawet do kilku ms). Problem polega na tym, czy inne m anipulacje eksperymentalne - poza skróceniem czasu prezentacji - pozwalają uznać bodziec za podprogowy. Zdaniem Marcela (1983) przebiegu nieświadomego procesu przetwarzania informacji nie można zaobserwować bezpośrednio - o jego występowaniu świadczy natomiast wpływ, jaki proces ten wywiera pośrednio na inne, świa­ dome procesy poznawcze. Bezpośrednie efekty oddziaływania bodźców w zadaniach poznawczych sprawdza się zazwyczaj poprzez wskaźniki poprawności oceny fizycznych charakterystyk tych bodźców, np. ich obecności lub lokalizacji w prezentowanym zestawie. Natomiast efekty pośrednie można ocenić mierząc wpływ bodźców zdegradowanych, np. zniekształconych, maskowanych lub prezentowanych w bardzo krótkim czasie, niewystarcza­ jącym do świadomego rozpoznania. Pośredni jest np. efekt synonimu, uchwy­ cony w paradygmacie podążania jako spowolnienie reakcji na sygnały poja­ wiające się w kanale ważnym, gdy w kanale ignorowanym występują ich sy­ nonimy (Treisman, Squire, Green, 1974; Treisman, Sykes, Gelade, 1977). Badani nie mają świadomości występowania synonimów w kanale ignorowa­ nym, a zwłaszcza nie zdają sobie sprawy z ich wpływu. Zgodnie z definicją Velmansa, efekt ten można więc uznać za przykład nieświadomego przetwa­ rzania informacji. Zdaniem Marcela, bodziec można uznać za subliminalny nawet wtedy, gdy trwa odpowiednio długo, pod warunkiem, że pojawia się na peryferiach pola uwagi - jest np. zamaskowany lub pojawia się na peryferiach pola widzenia (w tle). Natomiast Cheesman i Merikle (1984, 1986) argumentują, że świadome przetwarzanie może teoretycznie objąć każdy bodziec, działający powyżej absolutnego progu percepcji. Ich zdaniem nie można wykluczyć, że synonimy pojawiające się w kanale ignorowanym są w istocie przetwarzane świadomie, choć badani mogą ich później nie pamiętać, przez co badacz błędnie wnioskuje o braku świadomości ich występowania (Holender, 1986; Velmans, 1991). Wynika stąd, że wpływ bodźców bardzo krótkich, jeśli się ujawni, musi być skutkiem nieświadomej analizy i selekcji informacji, to wpływ bodźców zde­ gradowanych w inny sposób (np. pojawiających się w odrzucanym kanale akustycznym czy na peryferiach pola wzrokowego) - niekoniecznie. Jednakże, niezależnie od ustalenia operacyjnej definicji bodźca podprogowego, nie brakuje argumentów empirycznych, świadczących o tym, że jest możliwa nieświadoma selekcja i analiza informacji. 5.3. Uwaga, percepcja i (nie)świadomość 223 5.3.1. Analiza wskazów ek peryferycznych [ i [ \ [ | [ | | I | ; 5 Mendelsohn wraz ze współpracownikami (Mendelsohn, 1976; Mendelsohn, Griswold, 1964, 1966) prosili osoby badane o wykonanie kolejno dwóch zadań. Pierwsze polegało na zapamiętywaniu listy wyrazów, a drugie - na rozwiązy­ waniu anagramów (układanie wyrazów z losowo rozrzuconych liter). Niektóre słowa, stanowiące rozwiązanie anagramów, były obecne na liście wyrazów do zapamiętania. Mimo iż badani nie zdawali sobie sprawy z relacji między obu zadaniami, rozwiązywali znacznie więcej anagramów wtedy, gdy słowa stanowiące ich rozwiązanie znajdowały się na zapamiętywanej uprzednio liście bodźców. Nazwano to efektem nieuświadomionej podpowiedzi. Mendelsohn i Liedholm (1972) wykazali, że jego wielkość zależy od modalności sensorycznej. Znacznie większy efekt zaobserwowano wtedy, gdy lista zapamiętywanych wyrazów prezentowana była w modalności wizualnej, niż wtedy, gdy przedstawiano ją słuchowo. Nieco bardziej sceptyczne wnioski wynikają z badań Macka, Rocka oraz ich współpracowników (Mack i in., 1992; Rock i in., 1992; Mack, Rock, 1998). Wykonali oni serię eksperymentów w celu zbadania, czy możliwa jest percepcja bodźców znajdujących się poza centrum uwagi. Zadaniem osób badanych była ocena, które ramię prezentowanego im na ekranie krzyża było dłuższe. W części zadań oprócz krzyża pojawiał się inny bodziec (w centrum lub na peryferiach pola percepcyjnego), o czym badani nie byli uprzedzani. Po zakończonym eksperymencie pytano osoby badane, czy oprócz krzyża widziały jeszcze jakieś inne bodźce. W przypadku odpowiedzi pozytywnej proszono o ich wymienienie, a w przypadku odpowiedzi negatywnej - o wybranie spośród kilku obiektów tych, które mogły być uprzednio pokazywane. W każdym z cytowanych tu badań, gdy bodźce dodatkowe prezentowano peryferycznie, 25-35% respon­ dentów udzielało negatywnej odpowiedzi na pytanie eksperymentatorów. Badani ci nie byli również w stanie rozpoznać sygnału wśród sześciu prezen­ towanych im później figur. Jeśli natomiast sygnał pojawiał się tuż obok krzyża (w centrum uwagi), praktycznie nie zdarzyło się, aby pozostał niezauważony. W zauważeniu bodźca peryferycznego pomagały cechy priorytetowe, takie jak ruch czy kolor, jeśli były dystynktywne (zob. też Horbaczewski, Szymura, 2005; Szymura, Horbaczewski, 2005). Wykryto też, że aż 90% osób badanych zauwa­ żało pojawienie się na peryferiach pola wzrokowego, poza ogniskiem uwagi, własnego imienia (por. Moray, 1959). Jeśli jednak na ekranie pojawiało się jakieś inne imię, zauważało je niewiele ponad 60% uczestników eksperymentu, a tylko 45% z nich było w stanie poprawnie je zidentyfikować. Gdy nie­ oczekiwanym bodźcem było błędnie napisane własne imię osoby badanej, ta zwykłe nie była w stanie go zidentyfikować, ani nawet zauważyć. Podobnie było w przypadku innych wyrazów niosących ze sobą specyficzne znaczenie, zu­ pełnie jednak niezwiązane z zadaniem przetwarzanym w centrum uwagi. Bodźce pojawiające się na peryferiach uwagi są więc przetwarzane raczej słabo, i tylko na dość płytkim poziomie, z niewielkim udziałem analizy semantycznej (Mack, Rock, 1998). 224 Rozdział 5. Uwaga i świadomość 5.3.2. Reakcje na informacje odrzucane Prowadząc badania w paradygmacie podążania, Lackner i Garrett (1972) prezen­ towali w ważnym kanale komunikaty o niejasnej treści, a w kanale ignorowanym - wskazówki pomocne w ich interpretacji. Stwierdzono, że badani wykorzysty­ wali wskazówki, choć nie byli w stanie odtworzyć jakichkolwiek informacji po­ chodzących z kanału ignorowanego. Interpretacja niejasnego przekazu była tym lepsza, im większa była semantyczna zbieżność nieuświadomionej wskazówki z treścią owego komunikatu. Wyniki te potwierdził następnie Mackay (1973), a jeszcze silniejszych argumentów za nieświadomym przetwarzaniem semantycz­ nym w kanale odrzucanym dostarczył Holender (1986). Wykorzystując procedurę Lacknera i Garretta, autor dokonał dodatkowej manipulacji, polegającej na roz­ dzieleniu w czasie wskazówki i dwuznacznego przekazu: informacja pomagająca w interpretacji przekazu znacznie go wyprzedzała. Holender uzyskał wyniki zbliżone do rezultatów Lacknera i Garretta oraz Mackaya - nieuświadomiona wskazówka nadal pomagała w wykonywaniu głównego zadania. Ze względu na czasową rozbieżność prezentacji bodźców w obu kanałach, w interpretacji niejasnego komunikatu nie mogła pomagać nietrwała reprezentacja wyobraże­ niowa wskazówki, ale raczej jej trwała i głęboka reprezentacja umysłowa. Przy założeniu, że brak werbalizacji wskazówki oznacza brak jej uświadomienia, wyniki uzyskane przez Holendra, można traktować jako bardzo ważny argument na rzecz tezy o nieświadomym przetwarzaniu znaczenia bodźców. Dallas i Merikle (1976) wykazali, że prawidłowa reakcja na słowo prezen­ towane w kanale ważnym (np. samochód) może być znacznie przyspieszona, gdy w kanale ignorowanym pojawi się słowo semantycznie z nim związane (np. kierownica). Czas reakcji wydłuża się natomiast wtedy, gdy w kanale ignorowa­ nym pojawi się synonim słowa, na które należy zareagować (np. auto), co nosi nazwę efektu synonimu (zob. ramka 5.1). Nie jest jasne, dlaczego synonim zmniejsza szybkość reagowania, a słowo bliskie znaczeniowo skraca czas reakcji. Nie ma jednak wątpliwości, że informacje pozornie ignorowane przedostają się do kanału przetwarzania semantycznego, mimo iż uczestnicy badań nie zdają sobie z tego sprawy. Informacje pojawiające się w kanale ignorowanym mogą również prowadzić do nieuświadomionych, specyficznych reakcji psychofizjologicznych organizmu. Corteen i współpracownicy (Corteen i Dunn, 1974; Corteen i Wood, 1972) uwarunkowali osoby badane na określone słowa, poprzedzając ich prezentację delikatnym szokiem elektrycznym. Zaobserwowano, że reakcja elektrodermalna (skórno-galwaniczna) wystąpiła w odpowiedzi na bodziec warunkowy, czyli słowo sygnalizujące szok elektryczny, niezależnie od tego, czy bodziec ten pojawiał się w kanale ważnym, czy ignorowanym, z czego oczywiście badani nie zdawali sobie sprawy. Co więcej, jak wykazali Von Wright, Anderson i Stenman (1975), reakcja elektrodermalna pojawia się także w odpowiedzi na synonimy słów skojarzonych z szokiem elektrycznym, prezentowane w kanale ignorowanym. Efekt synonimu Treisman i Daviesa został więc po raz kolejny potwierdzony, tym razem z wy­ korzystaniem miar psychofizjologicznych. Wobec braku świadomości zarówno samego efektu, jak i występowania słów-synonimów, wyniki te uznano za dowód na istnienie procesów nieświadomego przetwarzania znaczenia sygnałów (Holender, 1986; Yelmans, 1991). 5.3. Uwaga, percepcja i (nie)świadomość 225 5.3.3. Poprzedzanie podprogowe Poprzedzanie jest techniką eksperymentalną, polegającą na badaniu wpływu bodźca prezentowanego wcześniej (prymy) na przetwarzanie bodźca docelowe­ go, pojawiającego się później (paradygmat 5.6). Dla dyskusji dotyczącej nie­ świadomego przetwarzania znaczeń, najistotniejsze są badania nad poprze­ dzaniem peryferycznym i subliminalnym; inne formy poprzedzania omówiono w rozdz. 6.2. 1 Paradygmat 5.6 | Poprzedzanie (prymowanie, priming) ~ą i Poprzedzanie ma miejsce wtedy, gdy jeden bodziec, zwany prymą (prime), wpływa | na przetwarzanie następującego po nim bodźca docelowego (target). W starszych l pracach psychologicznych podobne efekty nazywano nastawieniem. Pryma i boI dziec docelowy muszą być powiązane sensorycznie (np. identyczny lub podobny f wygląd; Evett, Humphreys, 1981) lub semantycznie (np. identyczne lub bliskie I znaczenie; Posner, Snyder, 1975). Nie jest więc przykładem prymowania jakief kolwiek oddziaływanie - rzeczywiste lub potencjalne - tego, co było wcześniej, na ; to, co pojawia się później. Gdyby definicję prymowania aż tak rozszerzyć, pod­ li padałoby pod nią w zasadzie całe życie psychiczne człowieka. Chcąc uniknąć 8 kłopotów związanych z przyjęciem zbyt szerokiej definicji zjawiska, terminem „pry8 mowanie” oznaczamy technikę badań eksperymentalnych, czyli paradygmat, pole- : i gający na poprzedzaniu bodźca docelowego bodźcem w jakiś sposób z nim powiązanym. W zależności od rodzaju powiązania rozróżniamy wiele typów poprzedzania. a Poprzedzanie repetytywne polega na któtkiej ekspozycji tego samego bodźca, j który za chwilę ma być przez osobę badaną rozpoznany, przeczytany, zaliczony do | jakiejś kategorii lub w inny sposób przetworzony. Poprzedzanie semantyczne f polega na tym, że pryma nie jest identyczna z bodźcem docelowym, ale jest z nim I znaczeniowo powiązana. Pryma może być np. synonimem bodźca docelowego | (biblioteka ► księgozbiór) lub słowem należącym do tej samej kategorii (długopis | -> ołówek). W badaniach tego typu stwierdza się zazwyczaj, że bodziec prymujący | | ułatwia przetwarzanie bodźca docelowego, np. skraca czas potrzebny na jego 8 rozpoznanie, przeczytanie, nazwanie itp. Mamy wtedy do czynienia z poprze­ dzaniem pozytywnym, zwanym też niekiedy torowaniem, ponieważ pryma jak gdyby toruje drogę bodźcowi docelowemu. Może się jednak zdarzyć, że bodziec i poprzedzający wydłuża czas reakcji albo w inny sposób utrudnia przetwarzanie | bodźca docelowego. Nazywamy to efektem poprzedzania negatywnego, który | zwykle ujawnia się tylko w specyficznym układzie bodźców (zob. rozdz. 6). 1 Jeśli bodziec poprzedzający działa w bardzo krótkim czasie, od kilku do kil- 8 I kudziesięciu ms, osoba badana nie jest w stanie go zauważyć. Jeśli mimo to | obserwujemy zmiany w przetwarzaniu bodźca docelowego, mamy do czynienia I z poprzedzaniem podprogowym, inaczej subliminalnym. Trzeba jednak pamiętać, | że poprzedzanie podprogowe niekoniecznie wymaga bardzo krótkiej ekspozycji 8 I prymy. Niekiedy efekt podprogowości można uzyskać inaczej, np. prezentując bo- 8 | dziec o bardzo małej intensywności. Możemy w tym celu manipulować poziomem ¡ ¡ 226 Rozdział 5. Uwaga i świadomość jasności bodźca wzrokowego lub poziomem głośności bodźca słuchowego. Jeśli bodziec poprzedzający jest wystarczająco intensywny i trwa wystarczająco długo, a mimo to osoba badana nie zdaje sobie sprawy z jego oddziaływania, mamy do czynienia z poprzedzaniem peryferycznym. Bodziec wzrokowy może np. znaj­ dować się na peryferiach pola widzenia albo w centrum pola widzenia, ale doskoi nale zamaskowany innymi bodźcami, przez co osoba badana nie jest w stanie go I zauważyć. Jeśli mimo to obserwujemy obiektywny wpływ takiej prymy na prze> twarzanie bodźca docelowego, możemy mówić o efekcie poprzedzania peryferycz| nego. Peryferyczna może być też pryma słuchowa, występująca tuż przed bodź­ cem docelowym i obiektywnie wystarczająco głośna, ale pojawiająca się w tzw. kanale ignorowanym (paradygmat 5.1). Szczególnym przypadkiem jest poprzedzanie afektywne, które polega na aplikowaniu przed bodźcem docelowym bodźców emocjonalnie nieobojętnych, np. wizerunków uśmiechniętych lub zasmuconych twarzy, fotografii przyjemnych albo nieprzyjemnych obiektów lub scen, czy też słów oznaczających uczucia lub koI jarzących się z emocjami. W takim przypadku obserwuje się zwykle, że bodziec i; docelowy jest inaczej oceniany pod wpływem działania prymy. Na przykład bodziec i pierwotnie neutralny może nam się wydawać sympatyczny lub niesympatyczny, 5 w zależności od emocjonalnego znaku zastosowanej prymy. W większości badań nad poprzedzaniem zachowuje się ścisłe powiązanie czasowe między prymą a bodźcem docelowym. Typowy eksperyment polega na zaaranżowaniu szeregu prób, z których każda składa się z określonej sekwencji zdarzeń, np.: Pryma trwa zwykle bardzo krótko, chyba że celowo rezygnujemy z możliwych efektów subliminalnych. Po niej następuje maska, czyli np. rząd gwiazdek **** lub liter XXXX, które zapobiegają utrzymywaniu się śladu bodźca - już po jego zniknięciu - na siatkówce oka. Po masce pojawia się bodziec docelowy, na który należy zareagować zgodnie z instrukcją. Po krótkiej przerwie następuje kolejna próba, skonstruowana według tego samego schematu. Taki schemat badania nazywamy poprzedzaniem sekwencyjnym. W niektórych badaniach nad pamięcią stosuje się inny, niesekwencyjny pa­ radygmat prymowania. Osoba badana czyta np. krótki fragment prozy, zawierający pewną liczbę semantycznie powiązanych słów. Mogą to być słowa należące do tej samej kategorii lub kojarzące się z czymś wspólnym. Po pewnym czasie, który może trwać ok. tygodnia, osobie badanej prezentuje się inny fragment prozy, sprawdzając, czy wcześniej prezentowane bodźce w jakiś sposób wpłynęły na ocenę drugiego fragmentu, albo na to, w jaki sposób będzie on zapamiętany lub zinterpretowany. W badaniach tego typu udało się wykazać, że bodźce prymujące, prezentowane na długo przed właściwym tekstem, są w stanie wpłynąć na sposób przetwarzania bodźców docelowych, choć osoba badana nie zdaje sobie z tego sprawy. Obfitość i różnorodność badań z użyciem paradygmatu poprzedzania spra­ wia, że jest to obecnie jedna z bardziej popularnych technik eksperymentowania w psychologii poznawczej. 5.3. Uwaga, percepcja i (nie)świadomość 227 Neill (1977) prosił osoby badane o podejmowanie decyzji leksykalnych: uczestnicy oceniali, czy prezentowany im na ekranie ciąg liter jest sensownym, poprawnie napisanym wyrazem ich ojczystego języka. Niektóre bodźce poprzedzano prymą powiązaną semantycznie z bodźcem docelowym (np. miód -> pszczoła), a inne - prymą semantycznie niezwiązaną lub neutralną (np. trak­ tor -+ pszczoła). Było to poprzedzanie peryferyczne, polegające na podawaniu prymy odpowiednio długotrwałej, ale trudnej do zauważenia ze względu na sporą odległość względem punktu fiksacji. Okazało się, że decyzja leksykalna (np. czy „pszczoła” to słowo języka polskiego?) była znacznie szybsza, gdy bo­ dziec docelowy (pszczoła) poprzedzono prymą semantyczną. Neill dostarczył więc argumentów zwolennikom tezy, że peiyferyczny, prawdopodobnie nie­ uświadomiony bodziec poprzedzający może mieć wpływ na późniejsze prze­ twarzanie bodźca właściwego. Rodzą się jednak wątpliwości, czy w tych badaniach prymy były rzeczywiście nieuświadomione. Znacznie mocniejszych argumentów dostarczają więc badania z wyko­ rzystaniem poprzedzania subliminalnego, czyli podprogowego (Fowler i in., 1981). Prymy prezentowano zbyt krótko, jak na możliwości percepcyjne osób badanych, a ponadto poddano je natychmiastowemu maskowaniu. Okazało się, że efekt poprzedzania jest równie silny w przypadku poprzedzania podprogowego i okołoprogowego. Co więcej, Fishler i Goodman (1978) wykazali, że prymy podprogowe (bardzo krótkie) mogą czasem działać silniej niż prymy nadprogowe (odpowiednio długie). W obu badaniach upewniono się, że uczestnicy przetwarzali bodźce poprzedzające bez udziału świadomości, ponieważ nie byli w stanie ich później rozpoznać (był to tzw. test świa­ domości) . Underwood (1977) wskazał jednak na pewne ograniczenia zdolności systemu poznawczego do nieświadomej analizy znaczenia bodźców. W jego badaniu poprzedzanie miało charakter nadprogowy, ale połączono je z pro­ cedurą podążania. Bodźce poprzedzające pojawiały się zarówno w kanale ważnym, jak i w kanale ignorowanym. Autor zreplikował efekt poprzedzania, i to tak w kanale ważnym (co oczywiste), jak i w kanale ignorowanym (co mniej oczywiste, a bardzo interesujące). Różna była jednak jakość tego efektu w obu przypadkach. Podczas gdy poprzedzanie semantyczne w kanale ważnym przyczyniało się do głębokiej analizy przekazu, ułatwiając zrozumienie dłuższej wypowiedzi, w kanale ignorowanym działało tylko w odniesieniu do poje­ dynczych słów, czyli obejmowało stosunkowo płytki poziom identyfikacji znaczenia. Wyniki opisane w trzech ostatnich podrozdziałach świadczą na korzyść tezy 0 zdolności umysłu ludzkiego do nieświadomego przetwarzania informacji na poziomie semantycznym; inne argumenty znaleźć można w pracy Szymury 1 Słabosz (2002). Wyniki te zebrano z wykorzystaniem różnych procedur i wie­ lokrotnie replikowano. Jednakże wyniki badań Macka i Rocka (1998) oraz Underwooda (1977) nakazują pewną ostrożność interpretacyjną, bowiem nie­ świadome przetwarzanie znaczenia może ograniczać się do stosunkowo płyt­ kiego poziomu obróbki informacji. 228 Rozdział 5. Uwaga i świadomość 5.4. Podsumowanie Treść niniejszego rozdziału pokazuje, jak wiele funkcji pełni mechanizm uwagi i jak wieloma metodami można go badać. Mimo licznych i różnorodnych zadań, takich jak selekcja źródła informacji, przeszukiwanie pola percepcyjnego, utrzy­ mywanie gotowości do działania, obsługa zadań jednoczesnych i przerzutność między zadaniami, uwaga pozostaje mechanizmem jednorodnym, czerpiącym ze wspólnych zasobów poznawczych. Trzeba tu jednak podkreślić, że w tym rozdziale mowa była o uwadze rozumianej tradycyjnie: jako mechanizmu odpo­ wiedzialnego za ochronę systemu poznawczego przed negatywnymi skutkami przeładowania informacyjnego. Oprócz tego uwadze przypisuje się funkcje kon­ trolne, te jednak opiszemy w rozdz. 6. Wydaje się, że problem kontroli poznaw­ czej jest zbyt ważny, aby „upychać” go między rozważaniami poświęconymi uwadze w wąskim rozumieniu. Ponadto kontrola poznawcza to nie tylko uwaga, ale również pewne elementy pamięci roboczej, nie mówiąc o problemach związanych z automatyzacją procesów poznawczych. Treść tego rozdziału skłania do jeszcze innego wniosku, mianowicie że uwaga jest ściśle powiązana z energią i jej wydatkowaniem. Zgodnie z nieco żartobliwą definicją Broadbenta „uwaga to tajemnicza energia, czasem powią­ zana z ludzkim działaniem, a czasem nie”. Poznawcze funkcje uwagi niewąt­ pliwie wymagają nakładu energii, a ich pełnienie w dłuższym okresie prowadzi do zmęczenia. Bezwysiłkowe, bo automatyczne, są natomiast procesy przeduwagowe, co być może stanowi wystarczający powód, aby je wyróżniać i tak właśnie nazywać. Pojęcie energii mentalnej jest niezbyt dobrze zdefiniowane i zoperacjonalizowane, ale jak dotąd nie udało się zbudować sensownej teorii psychologicznej, która mogła by się bez niego obyć. Dotyczy to w szczególności teorii opisującej działanie uwagi. R ozdział Kontrola poznawcza Czynności autom atyczne i au to m aty za­ cja 231 Kryteria autom atyczności przetw arza­ nia 231 Schneidera i Shiffrina teoria kontinuum 233 Logana teoria rywalizacji egzemplarzy 239 Konsekwencje automatyzacji czynności 248 Hamowanie jako m echanizm kontrolny 251 Istota i funkcje hamowania 251 Hamowanie dominującej reakcji Odporność na dystrakcję 253 255 Odporność na interferencję proaktywną 261 Czy hamowanie jest konstruktem jedno­ rodnym? 262 Funkcje zarządcze 266 Istota funkcji zarządczych czyli homuncu­ lus odnaleziony 266 Rodzaje funkcji zarządczych 267 Mechanizm zarządczy w koncepcji uwagi Posnera 269 Dwustopniowy system kontroli zachowa­ nia w koncepcji Shallice 271 Centralny system wykonawczy pamięci roboczej w modelu Baddeleya 274 Podsumowanie 276 Kontrola poznawcza to zdolność systemu poznawczego do nadzorowania i regulowania własnych procesów poznawczych, a także do planowanego sterowania ich przebiegiem. Automatyzacja jest procesem, dzięki któremu czynność poznawcza lub motoryczną stopniowo uwalnia się spod kontroli poznawczej, przez co jest wykonywana szybko i bez wysiłku, ale schematycznie. Według Daniela Dennetta „umysł to armia idiotów”, w dodatku pozbawiona sztabu generalnego i naczelnego dowództwa. Wszystkie funkcje, łącznie z najbardziej złożonymi, są możliwe dzięki współdziałaniu wielkiej liczby sto­ sunkowo prostych elementów. Czy przy takiej wizji jest w ogóle możliwe zmie­ rzenie się z problemem kontroli poznawczej? Czy problem kontroli umysłu nadaje się do badania metodami naukowymi? Zdolność umysłu do samokontroli i samoregulacji jest dla nauki bardzo trudnym wyzwaniem, ponieważ problem ten „zahacza” o podstawowe kwestie religijne i filozoficzne, takie jak pytanie o wolność i wolną wolę. Nauka szuka wyjaśnień deterministycznych, dlatego dość łatwo oddaje pole tam, gdzie do­ strzega granice deterministycznego sposobu opisu świata i mechanistycznego wyjaśnienia badanych mechanizmów. Poza tym próby uchwycenia fenomenu kontroli poznawczej nazbyt często odwołują się - zwykle nie wprost - do hom unculusa: małej istoty tkwiącej w naszym umyśle i sprawującej nad nim kontrolę (Nęcka, 2004). Ten rodzaj wyjaśniania jest oczywiście pozorny, po­ nieważ trzeba by zapytać, kto steruje naszym homunculusem, a następnie homunculusem homunculusa itd. Jeśli mimo to podejmuje się próby badania kontroli poznawczej, to dlatego, że bez tego konstruktu nie sposób wyobrazić sobie trafnego i względnie kompletnego opisu tego, jak działa ludzki umysł. Rola procesów kontroli jest szczególnie duża wtedy, gdy nasze czynności poznawcze wymagają planowania i podejmowania decyzji, gdy konieczna jest korekta błędów i reagowanie na pojawiające się problemy, gdy musimy wykonać czynności nie dość dobrze wyuczone, gdy sytuacja jest nowa, niebezpieczna lub trudna, a także wtedy, gdy wymagane jest przezwyciężenie silnego nawyku lub odparcie pokusy (Norman, Shallice, 1986). W innych przypadkach możemy polegać na procesach automatycznych, wykonywanych poza kontrolą albo z niewielkim jej udziałem. Zakres i doniosłość sytuacji, w których kontrola poznawcza jest ważna lub niezbędna, nakazuje poddać procesy kontroli systematycznemu badaniu. Psy­ chologia poznawcza próbuje więc wykryć, jak działa nasz wewnętrzny homunculus: jakie czynności wykonuje, z czego się składa i do jakich skutków pro­ wadzi jego działalność. Podstawowym zabiegiem, jakiego trzeba dokonać na wstępie, jest podział procesów poznawczych na dwie grupy: te które bezpośrednio wykonują czynności poznawcze oraz te, które wyspecjalizowały się w nadzorowaniu i kontrolowaniu. Pierwsze nazwiemy procesami kontrolo­ wanymi, drugie - procesami kontrolnymi. W literaturze funkcjonują również inne określenia, np. komponenty i metakomponenty procesu poznawczego (Sternberg, 1977a). Według Adama Chuderskiego (2005) kontrola poznawcza przyjmuje trzy postaci: 6.1. Czynności automatyczne i automatyzacja 231 • monitorowanie, czyłi sprawdzanie przez procesy kontrolne sposobu przebiegu i skutków działania procesów kontrolowanych, bez aktywnej ingerencji w ów przebieg; • regulacja, czyli reakcja procesów kontrolnych na błędy i zakłócenia w przebiegu procesów kontrolowanych; • sterowanie, czyli aktywne i planowane wpływanie przez procesy kontrolne na przebieg procesów kontrolowanych. !. [: [ [ | j j I Nie wszystkie aspekty i formy kontroli poznawczej zostały poddane badaniom. Najczęściej spotyka się prace dotyczące automatyzacji procesów poznawczych. Automatyzacja, jako uwalnianie się procesu poznawczego spod kontroli, jest zarazem sposobem na zmniejszenie kosztów przetwarzania informacji, zwłaszcza kosztów związanych z kontrolą czynności jednoczesnych lub przerzucaniem się z jednego zadania na inne. Duża część badań poświęcona jest też hamowaniu poznawczemu, czyli zdolności systemu poznawczego do „wyłączenia” procesu, który w danej sytuacji jest niepożądany lub kosztowny, Trzeci obszar badań, ostatnio niezwykle intensywnie rozwijany, dotyczy samych procesów kontroli: ich taksonomii, sposobów działania i wzajemnych związ­ ków. Procesy te, zwane niekiedy funkcjami zarządczymi, odpowiadają za najbardziej złożone, świadome i inteligentne czynności umysłu ludzkiego. Te trzy obszary badań nad kontrolą poznawczą będą przedmiotem rozważań w niniejszym rozdziale. 6.1. Czynności automatyczne i automatyzacja 6.1.1. Kryteria automatyczności przetwarzania Automatyzacja polega na nabywaniu wprawy w zakresie wykonywania czyn­ ności na skutek treningu, czyli powtarzania tej czynności w tych samych lub zmienionych warunkach zadania (Schneider, Shiffrin, 1977a, 1977b; Shiffrin, Schneider, 1977). Trening jednorodny występuje wtedy, gdy jedna i ta sama reakcja jest odpowiedzią na zawsze ten sam układ bodźców. Trening nie­ jednorodny polega natomiast na częstych zmianach kategorii bodźców (np. liter na cyfry i odwrotnie) przy zachowaniu tego samego typu reakcji. W wyniku długotrwałego i systematycznego treningu dochodzi do pełnej automatyzacji, czyli wytworzenia czynności automatycznej. Przebieg takiej czynności staje się relatywnie szybki, bezwysiłkowy i pozbawiony większych kosztów poznaw­ czych, a jej realizacja dokonuje się bez namysłu i kontroli ze strony świadomości (Czyżewska, 1991; Schneider, Dumais, Shiffrin, 1984). Automatyzacja czynności pozwala więc na uwolnienie zasobów systemu poznawczego (Kahneman, 1973; Norman, Bobrow, 1975; zob. rozdz. 5.2.4), związanych wcześniej z wykonywaniem tej czynności, pozwalając na inne ich przeznaczenie - np. na jednoczesne wykonanie innej czynności. Istnienie procesu automatyzacji czynności ma swoje ewolucyjne uzasadnienie (Bargh, 1999; Bargh, Chartrand, 1999). Jak słusznie zauważył Whitehead (1911), postęp cywilizacyjny dokonuje się przez zwiększanie liczby operacji, które można wykonywać bez konieczności myślenia o nich. W tym czasie, ldedy właśnie te 232 Rozdział 6. Kontrola poznawcza operacje są wykonywane, system poznawczy może bowiem zająć się twórczym rozwiązywaniem problemów oraz podejmowaniem kluczowych decyzji. Whitehead porównuje przebieg procesów poznawczych do pola bitwy. Uporczywie drążąca to pole piechota „czynności automatycznych” daje miejsce i czas dla „kontrolowanej” kawalerii myśli. Ta jest wprawdzie nieliczna i wymaga „świeżych koni” (zasobów), ale wysyła się ją na pole bitwy jedynie w momentach decydujących o przebiegu batalii. Procesy automatyczne można też opisać poprzez analogię do automatycz­ nego pilota samolotu (Bargh, Chartrand, 1999; Jaśkowski, Skalska, Verleger, 2003; Logan, 1988). Pozwala on na kontynuowanie lotu na określonym po­ ziomie i z określoną szybkością, podobnie jak czynność automatyczna pozwala na poprawne i szybkie wykonanie zadania, za które odpowiada. Pilot auto­ matyczny ma jednak pewne wady. Po pierwsze, raz uruchomiony skutecznie utrudnia zmiany w zakresie parametrów lotu. Ta korekta musi być wprowa­ dzona w sposób kontrolowany. Po drugie, jego zastosowanie ograniczają warunki lotu - w sytuacjach trudnych i nieprzewidywalnych użycie automatycz­ nego pilota może nawet doprowadzić do katastrofy. Analogicznie, jedną z najważniejszych charakterystyk czynności automatycznej jest to, że bardzo trudno ją zmodyfikować. Czynność taka, raz rozpoczęta, musi zostać ukończona, chyba że - tak samo jak pilot automatyczny - zostanie zatrzymana przez mechanizm kontrolny wyższego rzędu. Tę cechę procesów automatycz­ nych określa się jako balistyczność (Hasher, Zacks, 1979). Podobnie, wyko­ nywanie czynności automatycznych w warunkach niestandardowych może doprowadzić do wyniku zupełnie nieadekwatnego do okoliczności. Analogia do pilota automatycznego pokazuje więc doskonale zalety i wady czynności auto­ matycznych - konsekwencją wysokiego poziomu wykonania są zarówno ogra­ niczone możliwości ingerencji w przebieg takiej czynności, jak i wąski zakres jej użyteczności. Procesom automatycznym często przeciwstawiane są procesy świadome (Bargh, Chartrand, 1999), choć wydaje się to błędne (Nęcka, 2002). Proces poznawczy jest świadomy, gdy zdajemy sobie sprawę przynajmniej z niektórych jego aspektów, w szczególności z tego, że właśnie przebiega. Proces taki może być automatyczny, jeśli wiemy, że on zachodzi, ale nie możemy go zahamować ani zmodyfikować. Dlatego procesy automatyczne należy przeciwstawiać nie procesom świadomym, lecz procesom nieautomatycznym. Aby to jednak było możliwe, potrzebny jest konsens, którego do tej pory nie osiągnięto, co do kry­ teriów czynności automatycznych (Bargh, 1994, 1999). Jak się wydaje, przy­ czyną braku porozumienia jest nie dość staranne rozróżnianie kilku różnych klas procesów automatycznych, charakteryzujących się nieco innymi właści­ wościami. Dwie z nich: procesy zautomatyzowane i procesy pierwotnie auto­ matyczne wydają się najważniejsze. Badania nad automatyzacją czynności i nabywaniem wprawy (skill acqusition) pozwoliły na zdefiniowanie pierwszej kategorii, czyli procesów zautomatyzowanych. W wyniku nabywania wprawy procesy pierwotnie nieauto­ matyczne wyzwalają się spod świadomej kontroli ze strony systemu poznaw­ czego (Anderson, 1983a; Schneider, Shiffrin, 1977a, 1977b; Shiffrin, Schneider, 1977). Automatyzacja tych czynności nie pozbawia ich jednak intencjonalności czy celowości, a jedynie pozwala zmniejszyć wysiłek umysłowy konieczny do ich 6.1. Czynności automatyczne i automatyzacja j \ I ! ; l j [ j ( 1 I [ [ j [ [ f : j j 233 realizacji. Można je więc określić jako procesy wtórnie automatyczne. Ich przeciwieństwem są procesy pierwotnie automatyczne, czyli takie, które nie tylko są bezwysiłkowe, ale ponadto ich uruchomienie odbywa się w sposób całkowicie niezależny od naszej woli i intencji (Posner, Synder, 1975; Treisman, 1988; Murphy, Zajonc; 1994). Hasher i Zacks (1979) nazywają te dwie kategorie procesami słabo i silnie automatycznymi. Istnienie procesów silnie automa­ tycznych wykazano w wielu badaniach dotyczących czynności przeduwagowych. Podstawowymi kryteriami wyróżniającymi wszystkie procesy automatyczne byłyby więc: bezwysiłkowość (nie konsumują zasobów) i bezrefleksyjność (nie wymagają świadomej kontroli). Dodatkowo procesy pierwotnie automatyczne charakteryzowałyby się jeszcze brakiem intencji, czyli zamiaru ich wzbudzenia. Przykładem procesu pierwotnie automatycznego jest proces segregacji pola wzrokowego podczas przeszukiwania pola percepcyjnego w fazie przeduwagowej (zob. rozdz. 5.2.2). Jeśli obiekty w polu wzrokowym charakteryzują się cechami priorytetowymi, to cechy te automatycznie, niezależnie od naszej woli i intencji, stają się podstawą do podziału pola wzrokowego na część zawierającą obiekty wyposażone w te cechy i część, która takich bodźców nie zawiera (Treisman, 1993; Treisman, Sato, 1990). Przykładem procesu wtórnie automatycznego jest przeszukiwanie pola wzrokowego w fazie uwagowej ze względu na właściwości niepriorytetowe. Na skutek dużej liczby powtórzeń w warunku treningu jednorodnego (np. 36 serii po 106 powtórzeń każda; Shiffrin, Dumais, Schneider, 1981) poszukiwanie koniunkcyjne ze względu na cechy kształtu i koloru staje się równie szybkie, jak poszukiwanie proste tylko ze względu na cechę kształtu (zob. rozdz. 5.2.2, gdzie omówiono rodzaje przeszukiwania). Tak więc pierwotnie kontrolowany i szeregowy proces uwagowego przeszukiwania pola wzrokowego nabiera cech procesu bezuwagowego: wtórnie automatycznego, równoległego i pozbawionego kontroli. Automatyzm czynności poznawczych jest powszechną ich właściwością, rozwiniętą w długim procesie ewolucji naszych sprawności poznawczych (Bargh). Stanowi właściwość adaptacyjną, dzięki której możemy uwolnić część zasobów poznawczych przeznaczając je na inne, ważniejsze lub pilniejsze czyn­ ności. Niektóre procesy przetwarzania informacji ulegają automatyzacji w procesie nabywania wprawy (Shiffrin i Schneider), podczas gdy inne są automatyczne ze swej natury (Posner). Cecha automatyczności przysługuje zarówno procesom elementarnym, jak np. segregacja pola wzrokowego podczas jego przeszukiwania (Treisman), jak i procesom złożonym, jak np. spostrzeganie i komunikowanie emocji poprzez wyraz mimiczny (Zajonc). Poniżej zostaną omówione koncepcje procesów automatycznych, odnoszące się głównie do elementarnych procesów przetwarzania informacji. Odniesienie zawartych w tych teoriach poglądów do złożonych procesów afektywnych i społecznych znaleźć można w literaturze polskiej w pracach Aliny Kolańczyk i współpra­ cowników (2004) i Rafała K. Ohme (2003). 6.1.2. Schneidera i Shiffrina teoria kontinuum Większość koncepcji procesów automatycznych przeciwstawia je procesom kontrolowanym (Styles, 1997). W zasadzie jednak tylko wczesne teorie czyn- 234 Rozdział 6. Kontrola poznawcza ności automatycznych (Atkinson, Shiffrin, 1968; Posner, Snyder, 1975; Schneider, Shiffrin, 1977a, 1977b; Shiffrin, Schneider, 1977) lokalizowały te procesy na dwóch biegunach pewnego kontinuum. Teorie te dotyczyły raczej procesów wtórnie automatycznych, zaś najważniejsze badania związane z rozwojem tych koncepcji dotyczyły efektów nabywania wprawy i „przesu­ wania się” procesów wzdłuż kontinuum od bieguna kontroli w stronę bieguna automatyzmu. Co ciekawe, tendencja ta nie była zgodna z oryginalnym poglą­ dem w tym zakresie i pierwszą definicją procesów automatycznych, sformuło­ waną przez Atkinsona i Shiffrina. Badacze ci zaproponowali bowiem podział procesów poznawczych na dwie klasy. W swojej koncepcji systemu poznaw­ czego przeciwstawili oni czynnościom kontrolowanym procesy będące włas­ nościami strukturalnymi systemu. Te ostatnie mają charakter stabilny, co oznacza, że są wykonywane zawsze w ten sam sposób, niezależnie od wymagań stawianych przez warunki zadania. Będąc niezmiennymi, pozbawione są jakiejkolwiek kontroli ze strony umysłu. Jako własności strukturalne systemu, procesy te, przynajmniej w części, wydają się pierwotnie automatyczne. Jednak dalsze rozważania Shiffrina i jego współpracowników koncentrowały się niemal wyłącznie na procesach wtórnie automatycznych. W eksperymentach poprzedzających ogłoszenie koncepcji, Shiffrin wraz ze swoimi współpracownikami (Shiffrin, Gardner, 1972; Shiffrin, McKay, Shaffer, 1976; Shiffrin, Pisoni, Castaneda-Mendez, 1974) starali się empirycznie wy­ kazać istnienie procesów nie wymagających kontroli poznawczej. Wykorzys­ tując paradygmaty podążania (zob. rozdz. 5.2.1) oraz przeszukiwania pola wzrokowego (zob. rozdz. 5.2.2) udało się im wykazać, że jeśli badani mają wykonywać zadanie selekcyjne na płytkim, sensorycznym poziomie przetwa­ rzania informacji (Craik, Lockhart, 1972), czynią to szybko i bezwysiłkowo, analizują równolegle duże porcje stymulacji i nie mają świadomości przebiegu tego procesu. Przy płytkim kryterium selekcyjnym nie miała znaczenia ani liczba jednocześnie prezentowanych na ekranie liter (zestawy 1-4 literowe; Shiffrin, Gardner, 1972), ani też liczba ich możliwych lokalizacji (9 pozycji dla liter lub 49 pozycji dla kropek; Shiffrin, McKay, Shaffer, 1976). Warunkiem skutecznego śledzenia kilku możliwych bodźców, pojawiających się w kilkudziesięciu możliwych lokalizacjach, było, po pierwsze, uprzedzenie badanych o możliwym położeniu bodźców, a po drugie - niewielka liczba samych bodźców. Podsumowując wyniki wczesnych badań Shiffrina i jego współpracowników, współautor koncepcji kontinuum procesów - Schneider (1984) - przyznaje, że replikacja tych wyników z użyciem zestawów liczniejszych niż 4 litery raczej nie ma szans powodzenia. Badani w eksperymentach Shiffrina byli też zdolni do reagowania na informacje pojawiające się w kanale ignorowanym, gdy reakcja na nie była w prosty sposób skojarzona z prezentowanym bodźcem i nie wymagała jego dalszego przetworzenia lub zapamiętania (Shiffrin, Pisoni, Castaneda-Mendez, 1974). Wyniki badań pozwoliły Shiffrinowi na stwierdzenie istnienia dwóch klas procesów poznawczych, różnych pod względem przebiegu: automatycznej detekcji i kontrolowanego przeszukiwania. Tym samym udało mu się rozróżnić wpływ procesów automatycznych i kontrolowanych w badaniach nad uwagową detekcją sygnałów. Podstawowym czynnikiem umożliwiającym dokonanie tego rozróżnienia była głębokość procesów przetwarzania informacji (Craik, 6.1. Czynności automatyczne i automatyzacja 235 Lockhart, 1972; zob. rozdz. 5.2.1). Procesy automatyczne operowały bowiem na płytkich poziomach przetwarzania, podczas gdy konieczność elaboracji bodźca na głębszych poziomach przetwarzania zmuszała umysł do uruchomienia kontroli poznawczej i wzbudzenia procesów kontrolowanych. Shiffrin i Schneider (1977; Schneider, Shiffrin, 1977a, 1977b) zapropono­ wali złożony model systemu poznawczego (ryc. 6.1), w ramach którego możliwe LTM Ryc. 6.1. Model procesów automatycznych i kontrolowanych wg Shiffrina i Schneidera (1977; za Schneider, Shiffrin, 1977). są dwie ścieżki przetwarzania informacji. Pierwsza z nich wymaga kontroli ze strony uwagi, ujawnia się w przypadku pojawienia się nowych bodźców i braku adekwatnych strategii postępowania. Nowość i nieprzewidywalna zmienność warunków zadania zmusza system poznawczy do kontrolowanego przetwa­ rzania informacji, zależnego od ograniczonych możliwości systemu poznawcze­ go (tj. ograniczonych zasobów uwagi i limitowanej pojemności pamięci ro­ boczej). Ten typ przetwarzania wymaga czasu i jest podatny na działanie zasady przetargu między przechowywaniem informacji a jej przetwarzaniem (McElree, Dosher, 1993). Druga ścieżka przetwarzania informacji w ramach systemu poznawczego związana jest z automatyczną detekcją układu bodźców i szybkim, pozbawionym kontroli uruchomieniem strategii (programów działania), za­ 236 Rozdział 6. Kontrola poznawcza kodowanych w pamięci długotrwałej i dostosowanych do takiego układu wyzwalającego. Reakcja systemu poznawczego pojawia się wtedy bez udziału uwagi czy świadomości. Jest ona także niepodatna na modyfikacje za pomocą instrukcji werbalnych. Procesy kontrolowane mogą być dwojakiego rodzaju. Po pierwsze, są wśród nich procesy jawne, dostępne świadomości, takie jak intencjonalne przywoły­ wanie danych z pamięci czy też przeszukiwanie magazynu wiedzy według zadanego klucza. Wyróżnia je z jednej strony możliwość bieżącej modyfikacji, a z drugiej - niewielka wydajność i relatywnie najwolniejszy przebieg. Procesy tego rodzaju uaktywniają się np. wówczas, gdy zostaniemy poproszeni o wymie­ nienie nazw miesięcy według alfabetu. Po drugie, wśród procesów kontrolowa­ nych Shiffrin i Schneider wyróżniają procesy zawoalowane (veiled), niedostępne świadomości. Przykładem takiego procesu jest porównywanie elementów prze­ chowywanych w pamięci świeżej. Odróżnia je od procesów jawnych relatywnie szybki przebieg i, w konsekwencji, niewielkie możliwości w zakresie ich mody­ fikacji (ze względu na brak czasu). Procesy zawoalowane podlegają jednak zmianom na skutek instrukcji werbalnych lub nabywania wprawy (automaty­ zacja przeszukiwania pamięci świeżej; Szymura, Jagielski, w przygotowaniu). Wszystkie procesy kontrolowane nadzorują przepływ informacji między po­ szczególnymi blokami pamięci (koncepcja umysłu Shiffrina i Schneidera ma charakter modelu blokowego; zob. rozdz. 1). Procesy automatyczne są nieświadome i jednorodne z założenia. Mogą być inicjowane przez umysł, z czego zresztą wynika jedyne wymaganie, jakie sta­ wiają zasobom poznawczym - nawet procesy automatyczne wymagają mini­ malnej ilości zasobów czy też wysiłku mentalnego, chociażby w celu ich sensorycznej i efektorycznej realizacji (Kahneman, Chajczyk, 1983; Posner, Synder, 1975; Ryan, 1983). Gdyby procesy te przebiegały zupełnie bez udziału zasobów, to równolegle w systemie poznawczym mogłaby zachodzić nieskoń­ czona liczba automatycznych procesów przetwarzania informacji. Tymczasem jednoczesne wykonywanie tylko kilku czynności, nawet dobrze zautomatyzo­ wanych, może nam sprawić problemy. Wynika to z ograniczeń strukturalnych: liczba wejść sensorycznych i wyjść efektorycznych jest ściśle limitowana. Dla­ tego interferencja strukturalna jest niemożliwa do całkowitego zredukowania, nawet w przypadku procesów całkowicie automatycznych (Allport, Antonis, Reynolds, 1972). Automatyzacja pomaga natomiast ograniczyć rozmiar inter­ ferencji zasobowej, gdyż czynności automatyczne, jak się wydaje, nie walczą o tę samą, ograniczoną pulę energii mentalnej. Shiffrin i Schneider (1977; Schneider, Shiffrin, 1977a, 1977b) stwierdzili różnice w zakresie stopnia automatyzacji różnych procesów detekcji uwagowej. Badanym w ich eksperymentach (ryc. 6.2) prezentowano kolejno na ekranie monitora karty zawierające zestawy bodźców (od 1 do 4 elementów). Poszu­ kiwanymi sygnałami mogły być litery lub cyfry. O tym, jaki bodziec będzie sygnałem w kolejnej serii, badani byli informowani tuż przed jej rozpoczęciem. W warunku spójnym badanym prezentowano na kartach bodźce tej samej ka­ tegorii, z której pochodził sygnał. W warunku niespójnym bodźce pochodziły z innej kategorii (np. litery) niż sygnał (np. cyfra). Okazało się, że dla uzyskania wskaźnika poprawności detekcji na poziomie 95% potrzebne było tylko 80 ms prezentacji kart w warunku niespójnym i aż 400 ms w warunku spójnym. Na 6.1. Czynności automatyczne i automatyzacja 237 podstawie uzyskanych wyników Shiffrin i Schneider stwierdzili, że detekcja cyfry z tła liter jest procesem automatycznym, nie wymagającym kontrolowanego różnicowania bodźców i identyfikacji sygnału. W warunku niespójnym sygnał był bowiem jedynym bodźcem należącym do swojej klasy w całym materiale bodźcowym. Natomiast detekcja litery z tła utworzonego przez inne litery była procesem kontrolowanym, wymagającym identyfikacji poszczególnych bodźców i złożonej decyzji co do tego, czy zidentyfikowany bodziec spełnia kryterium selekcji. Uzyskane przez Shiffrina i Schneidera wyniki były zatem potwierdze­ niem ich wcześniejszych rezultatów dotyczących istnienia dwóch różnych 1 a 1 - prezentacja zbioru pamięciowego a - punkt fiksacji wzroku (500 ms) b, c - zbiór dystraktorów poprzedzający poszukiwany element (pierwsze trzy karty nie zawierające sygnału - b, dalsze karty, na których może pojawić się sygnał - c) d - zbiór zawierający element poszukiwany e, f - zbiór dystraktorów następujących po elemencie poszukiwanym (ostatnie dwie karty nie zawierające sygnału - f, dalsze karty, na których może pojawić się sygnał - e) Ryc. 6.2. Schemat badania Shiffrina i Schneidera (1977; Schneider, Shiffrin, 1977) w warunku spójnym przy liczbie bodźców do zapamiętania wynoszącej 2 (powyżej) i niespójnym przy liczbie bodźców do zapamiętania wynoszącej 4 (poniżej). 238 Rozdział 6. Kontrola poznawcza klas procesów poznawczych: automatycznych i kontrolowanych (Shiffrin, Gardner, 1972; Shiffrin, McKay, Shaffer, 1976; Shiffrin, Pisoni, Castaneda-Mendez, 1974). Badacze ci stwierdzili także, że nabywanie procesów automatycznych, czyli proces automatyzacji, wymaga długotrwałego, bardzo specyficznego treningu. W tym celu osoby badane wielokrotnie powtarzały proces kontrolowanej detekcji litery pochodzącej z jednego zbioru bodźców na tle liter pochodzących z całkiem innego zestawu. Badani potrzebowali aż 2100 serii testowych w warunku spójnej prezentacji znaków, aby osiągnąć poziom wykonania od początku notowany w warunku niespójnym (czyli 95% poprawnych decyzji przy czasie prezentacji 80 ms). Zatem w procesie automatyzacji czynności kontro­ lowane osiągnęły po długim treningu poziom wykonania czynności automatycz­ nych. Co więcej, wraz z kolejnymi powtórzeniami, proces kontrolowanego przeszukiwania coraz bardziej zbliżał się w zakresie empirycznych wskaźników swojego przebiegu do procesu automatycznej detekcji - stawał się np. niezależny od liczby bodźców prezentowanych w ramach pojedynczej karty. W kolejnym badaniu tej samej serii Fisk i Schneider (1981) stwierdzili, iż automatyzacja może usprawniać wykonanie takich kontrolowanych czynności, jak czujność czy koncentracja uwagi (zob. rozdz. 5.2.3). Podobne wynild zależ­ ności przedłużonej w czasie koncentracji uwagi od nabywania wprawy uzyskali jeszcze Kerkhof, van der Schaaf i Korving (1980). Wszystkie te rezultaty wy­ raźnie przemawiały na korzyść jednego z podstawowych stwierdzeń koncepcji Shiffrina i Schneidera - tezy o kontinuum procesów na wymiarze automatycz­ ne/kontrolowane i zależności położenia procesu na tym kontinuum od stopnia wtórnie nabytej wprawy w zakresie jego wykonywania. Dalsze badania procesów automatycznych i kontrolowanych prowadzone przez Schneidera i jego współpracowników dotyczyły interakcji tychże proce­ sów (Schneider, Fisk, 1982) oraz zależności transferu wprawy pomiędzy proce­ sami od stopnia ich automatyzacji (Schneider, Fisk, 1984). Zgodnie z wynikami tych badań, interakcja procesów automatycznych i kontrolowanych nie musi wyzwalać efektów interferencji. Do zaburzenia przebiegu procesów kontrolo­ wanych (procesy automatyczne są niemodyfikowalne!) może prowadzić automatyczna reakcja na niektóre elementy kontrolowanej sekwencji przetwa­ rzania. Taką automatyczną odpowiedź systemu poznawczego wywołują np. bodźce, które są zgodne z celem detekcji, ale występują w lokalizacji naka­ zującej - zgodnie z instrukcją - ich zignorowanie (Theeuwes i in., 1999; Godijn, Theeuwes, 2002; zob. rozdz. 5.2.5). Schneider i Fisk wykazali także, że możliwy jest transfer wprawy w zakresie zautomatyzowanej czynności przeszukiwania pola wzrokowego z jednego zestawu bodźców na inny. Dzięki transferowi czas reakcji dla nowego zestawu bodźców był wyraźnie krótszy, porównywalny z czasem, jaki wcześniej obserwowano w przypadku starego zestawu w wyniku procesu nabywania wprawy. Co więcej, przeszukiwanie starych i nowych zestawów miało - jako zadanie doładowujące - podobny wpływ (w sensie konieczności inwestowania zasobów uwagi) na wykonanie zadania prioryteto­ wego w paradygmacie zadań jednoczesnych (zob. rozdz. 5.2.4). Shiffrin, Schneider i ich współpracownicy dostarczyli więc przekonujących argumentów na rzecz tezy o istnieniu kontinuum procesów kontrolowanych i wtórnie automatycznych. Udało im się również wykazać istnienie dwóch 6.1. Czynności automatyczne i automatyzacja 239 Tab. 6.1. Porównanie właściwości procesów automatycznych i kontrolowanych wg Schneidera, Dumasa i Shiffrina (1984). Właściwość Procesy automatyczne Procesy kontrolowane zasoby systemu nie wymagane wymagane kontrola niekompletna kompletna komponentowość holistyczne parcjalne modyfikacja trudna łatwa szeregowość/ równoległość równoległe szeregowe poziom wykonania wysoki niski świadomość niska wysoka uwaga nie wymagana, ale możliwa wymagana wysiłek niewielki, jeśli jakikolwiek duży rodzajów czynności automatycznych: takich, które są automatyczne pierwotnie (z natury rzeczy, w sposób wrodzony) i takich, które automatyzacji dopiero j wymagają (tab. 6.1). Proces nabywania wprawy zdaje się wymagać wiele wy­ siłku i czasu ze strony systemu poznawczego, ale w jego konsekwencji procesy i' kontrolowane mogą zostać zautomatyzowane aż do postaci typowej dla pro­ cesów pierwotnie automatycznych, co można zaobserwować analizując szybi kość i poprawność ich wykonania. 6.1.3. Logana teoria rywalizacji egzemplarzy i i ! ! t ś ! ; [ j;' ( f i i | i | Zgodnie z teorią kontinuum, jednym z podstawowych kryteriów procesów automatycznych, wynikającym wprost z przeciwstawienia tych procesów procesom kontrolowanym, jest ograniczona możliwość sprawowania nad nimi kontroli (Schneider, Dumais, Shiffrin, 1984; tab. 6.1). Wprawdzie autorzy koncepcji kontinuum dopuszczali pewne formy nadrzędnej kontroli poznawczej nad automatyzmami, związane np. z możliwością kontrolowanego uruchomienia procesu wtórnie automatycznego, jednak w zasadzie byli zdania, iż raz uruchomiony proces automatyczny nie podlega kontroli (balistyczność automatyzmów; Hasher, Zacks, 1979). Przeciwnego zdania byli Logan (1980, 1982; Logan, Zbrodoff, 1998) oraz Tzelgov wraz ze współpracownikami (Tzelgov, Henik, 1995; Tzelgov, Henik, Leister, 1990), którzy wskazali na możliwości kontroli procesów automatycznych, a przynajmniej modyfikowania ich w trakcie przebiegu. Gordon Logan (1982) wykazał np., że osoby biegle piszące na maszynie (proces wtórnie automatyczny) są w stanie szybko przerwać pisanie na skutek pojawienia się błędu lub też w odpowiedzi na specjalny sygnał, który zgodnie z instrukcją zmuszał ich do zatrzymania wykonywania czynności („sygnał stopu”; paradygmat 6.1). Osoby badane wykonywały zaledwie jedno bądź dwa zbędne uderzenia w klawisze po tym, jak przekazano im sygnał, że powinny 240 Rozdział 6. Kontrola poznawcza przerwać bieg automatycznej czynności. Ladefoged, Silvestrien i Papcun (1973) oraz Levelt (1983) ustalili, że zatrzymanie na dany znak tak dobrze zauto­ matyzowanej czynności, jak mówienie, również jest możliwe. Najkrótsze zaobserwowane opóźnienie wyniosło tym razem jedną sylabę. Na podstawie tych wyników Logan (1982, 1988) stwierdził, iż możliwe jest kontrolowanie czynności automatycznych, a przynajmniej procesów wtórnie automatycznych, do momentu uruchomienia specyficznej reakcji motorycznej lub werbalnej w odpowiedzi na prezentowany bodziec. Paradygmat 6.1 Sygnał stopu Paradygmat sygnał stopu (stop-signal; Logan, 1982) wykorzystuje się w bada­ niach nad hamowaniem dobrze wyuczonych, silnie zautomatyzowanych czyn­ ności, głównie motorycznych. Osoby badane wykonują taką czynność w warunkach presji czasu. W różnych, nieprzewidywalnych momentach uczestnikom ekspery­ mentu podaje się umówiony sygnał, który nakazuje im przerwać wykonywaną do tej pory czynność. Początkowe badania dotyczyły pisania na maszynie (Logan, 1982) i mówienia (Levelt, 1983). Zachowanie osób badanych można w tych warunkach interpretować jako efekt „wyścigu” (teoria rywalizacji egzemplarzy; Logan, 1988, 2002) między dwoma procesami. Pierwszy jest wzbudzany przez instrukcję i bodźce określające rodzaj zadania, a jego efekt to aktywacja odpo­ wiednich struktur poznawczych i wykonanie oczekiwanej czynności poznawczej. Drugi proces jest wzbudzany przez sygnał zatrzymania (stop), powodując po­ wstrzymanie się od dalszego wykonywania czynności, czyli zahamowanie dominującej reakcji (Logan, Cowan, 1984). W zgodzie z teorią rywalizacji egzem­ plarzy, badani są w stanie tym szybciej zahamować wykonywaną czynność, im krótszy jest interwał pomiędzy pojawieniem się bodźca wzbudzającego wykony­ waną czynność a pojawieniem się sygnału stopu. Powstrzymanie wykonywanej czynności jest jednak możliwe nawet przy relatywnie długich interwałach (De Jong i in., 1990). Interesujące modyfikacje w zakresie omawianego paradygmatu przedstawił De Jong (De Jong, Coles, Logan, 1995). Zamiast mówienia czy pisania na ma­ szynie, badani wykonywali prostą czynność motoryczną, polegającą na ściskaniu umieszczonego w ich dłoni dynamometru. Sygnałem do zatrzymania był specjalnie dobrany dźwięk. De Jong porównał trzy rodzaje hamowania dominującej reakcji: przez zwykłe powstrzymanie się od jej wykonywania (stop ogólny; stop-all), przez powstrzymanie się od jej wykonania i wzbudzenie w jej zastępstwie reakcji alter­ natywnej (stop-zmiana; stop-change; zamiast ściskania dynamometru badani musieli nacisnąć nogą specjalny pedał) oraz przez powstrzymanie się od jej wy­ konania, ale tylko w zakresie jednego z dwóch efektorów (stop selektywny; selective-stop\ badani musieli powstrzymać się od reagowania jedną z rąk, zazwyczaj dominującą). Badania Logana (1985) wykazały, że hamowanie dominu­ jącej reakcji jest znacznie trudniejsze w warunku drugim (stop-zmiana) niż pierw­ szym (stop ogólny), natomiast w eksperymencie De Jonga, Colesa i Logana (1995) stwierdzono, że najtrudniejsze jest hamowanie reakcji w zakresie tylko jednego z dwóch możliwych efektorów (stop selektywny). 6.1. Czynności automatyczne i automatyzacja j j 241 Paradygmat sygnał stopu może być używany w badaniach nad różnicami indywidualnymi w zakresie skuteczności procesów kontroli i hamowania. Im sku­ teczniejsi jesteśmy w kontrolowaniu własnych procesów poznawczych, oczywiście % tylko w aspekcie hamowania, tym krócej kontynuujemy dobrze wyuczoną czyn- I ność, mimo odebrania sygnału stopu. Tak zdefiniowany wskaźnik skuteczności / kontroli pogarsza się wraz ze starzeniem się, a także w niektórych stanach choro­ bowych. Obserwujemy wówczas wydłużenie czasu, w którym czynność jest nadal wykonywana, mimo sygnału stopu. W skrajnych przypadkach obserwuje się nawet ignorowanie sygnałów stopu. Realistycznym odpowiednikiem takiego zachowania jest niemożność przerwania raz uruchomionej wypowiedzi, mimo odbieranych z otoczenia sygnałów, że mówimy niepotrzebnie lub nie na temat. ;■ Efekt Stroopa (1935; paradygmat 6.2) długo uważano za silny argument za balistycznością procesów automatycznych. Na powszechność takich interpreta; cji zwracają uwagę np. Tzelgov, Henik i Leister (1990). Logan (1980; Logan, i Zbrodoff, 1998) stwierdził jednak, że jeśli badanym prezentuje się listę wymie­ szanych bodźców spójnych (np. wyraz „czerwony” napisany czerwonym atramentem) i bodźców konfliktowych (np. wyraz „czerwony” napisany zielo­ nym atramentem), to wielkość efektu Stroopa zależy od proporcji tych bodźców. Gdy lista zawierała tylko 20% bodźców konfliktowych (czyli 80% bodźców spójnych), efekt Stroopa był istotnie większy niż wtedy, gdy na liście było aż 80% bodźców konfliktowych (czyli tylko 20% bodźców spójnych). Wynika stąd, że łatwiej nam zahamować narzucającą się, automatyczną reakcję, gdy jest ku temu stosunkowo wiele okazji. Ale najistotniejsze jest to, że siła automatyzmu | zależy od proporcji bodźców odpowiedniego rodzaju, a zatem - że procesy automatyczne nie są całkowicie balistyczne. Jednym z warunków redukcji efek­ tu Stroopa jest też użycie niewielkiej liczby kolorów w konstrukcji bodźców gdy liczba kolorów wzrasta, wpływu proporcji bodźców spójnych do konflikto­ wych na wielkość efektu Stroopa z reguły się nie stwierdza (Logan, Zbrodoff, Williamson, 1984). Paradygmat 6.2 Efekt Stroopa Efekt interferencji Stroopa (1935) jest jednym z najsłynniejszych zjawisk w psy­ chologii eksperymentalnej. Na przełomie lat 1980/1990 przywoływano go w blisko 80 pracach rocznie. Tendencja ta ma ciągle charakter wzrostowy. Dla porównania równie słynny efekt świeżości, odkryty przez Petersona i Peterson (1959), przywoływano tylko w 30 publikacjach rocznie i liczba ta była dość stała (MacLeod, 1992). Zadanie Stroopa wykorzystywano jako metodę badawczą w przypadku ponad 20 prac rocznie. Popularność tego efektu wynika z dwóch przyczyn. Po pierwsze, jest on zawsze istotny statystycznie, silny i powtarzalny. Po drugie, pomimo 70 lat badań nad tym zjawiskiem, nadal pozostaje on fenomenem nie do końca wyjaśnionym co do swego podłoża i mechanizmu (MacLeod, 1991). 242 Rozdział 6. Kontrola poznawcza Istotą efektu Stroopa jest utrudnienie w przetwarzaniu bodźców niespójnych (np. słowo „czerwony” napisane zielonym atramentem) w porównaniu z bodźcami spójnymi (np. słowo „czerwony” napisane czerwonym atramentem; zob. ryc. 6.3). Osoby badane czytają słowa spójne lub niespójne, albo nazywają kolor atramentu użyty do napisania słów spójnych lub niespójnych. Czytanie słów zwykle wymaga mniej czasu niż nazywanie kolorów, ponieważ jest czynnością silnie zautomatyzo­ waną. Jeśli chodzi o nazywanie kolorów, czynność ta jest zwykle znacznie dłuższa w przypadku słów niespójnych, w porównaniu ze spójnymi. Nazwano to efektem interferencji, a jego miarą jest różnica między średnim czasem, potrzebnym na nazwanie koloru słowa niespójnego, a średnim czasem potrzebnym na nazwanie koloru słowa spójnego. Jeśli w badaniu bierze udział bardzo heterogeniczna próba, w której skład wchodzą osoby o różnym podstawowym tempie reagowania, lepszą miarą efektu interferencji jest proporcja średnich czasów reakcji, a nie ich różnica. □□□ czerw ony czerwony okno pająk czerwony czerwony >:^n:^V.-.W^L.niipV,Tr^.'WiJ„nń Ryc. 6.3. Bodźce używane w badaniach nad efektem interferencji Stroopa (1935) oraz rozkłady czasów reakcji w warunkach neutralnym i konfliktowym. Drugi z bodźców każdej pary jest bodźcem konfliktowym, podczas gdy pierwszy jest bodźcem spójnym. Interferencja może dotyczyć kierunku, znaczenia, aspektu emocjonalnego lub układu przestrzennego bodźców. Interpretacja efektu interferencji Stroopa wymaga starannej analizy procesów, biorących udział w jego powstawaniu. Osoba badana musi zahamować nawykową, dobrze wyuczoną czynność (przeczytanie słowa), aby zamiast niej wykonać inną czynność, w ogóle nie wyuczoną i dość „egzotyczną” (nazwanie koloru atramentu, 6.1. Czynności automatyczne i automatyzacja 243 ' jakim napisane jest to słowo). Długotrwały proces nabywania wprawy w czytaniu polega m.in. na tym, aby nauczyć się ignorować to, w jaki sposób dane słowo jest napisane (np. literami dużymi czy małymi, pisanymi czy drukowanymi, czcionką Courier czy Times Roman), a skupić się na jego znaczeniu. W eksperymencie psychologicznym nagle trzeba zachować się zupełnie inaczej, co dla wieiu osób stanowi nie lada problem, a dla wszystkich jest źródłem efektu interferencji. Dlatego : im słabszy ów efekt, tym silniejsza i skuteczniejsza kontrola poznawcza. Osoba zdolna do uruchomienia silnych, wydajnych procesów kontrolnych szybciej | zahamuje niepotrzebną reakcję, dając wolną drogę reakcji wymaganej instrukcją eksperymentu. W rezultacie czas potrzebny na zareagowanie w warunku nie1 spójnym będzie u takiej osoby relatywnie krótki, choć oczywiście znacząco dłuższy niż w warunku spójnym. Jednak relatywne skrócenie czasu reakcji w warunku niespójnym przełoży się na obniżenie wartości wskaźnika interferencji. Natomiast osoba nie dysponująca silnymi, wydajnymi procesami kontroli, będzie miała duże trudności z zahamowaniem niepotrzebnej reakcji. Nawet jeśli w końcu to uczyni, będzie potrzebowała więcej czasu, co przełoży się na relatywnie długi czas reakcji w warunku niespójnym i w konsekwencji - na podwyższenie wskaźnika inter­ ferencji. Badania nad różnicami indywidualnymi zwykle pokazują, że w warunku spójnym wszyscy reagują mniej więcej z taką samą szybkością, choć oczywiście i tu ujawniają się cechy indywidualne. Jednak dopiero w warunku niespójnym wystę­ puje prawdziwe wielkie zróżnicowanie. Dlatego relatywne wydłużenie lub skrócenie czasu reakcji w warunku niespójnym decyduje o wielkości efektu interferencji, a wielkość ta świadczy o silnej (mała wartość efektu) lub słabej (duża wartość efektu) kontroli poznawczej. Taką samą logikę interpretacji stosujemy wobec wszystkich zadań, zawierających aspekt interferencji. Natomiast w przypadku po­ przedzania negatywnego interpretacja jest odmienna (zob. paradygmat 6.3). Współczesne wersje zadania Stroopa nieco się różnią od oryginału. W pierw­ szym badaniu John Ridley Stroop (1935) porównywał szybkość czytania słów oznaczających kolory, napisanych czarnym atramentem (warunek kontrolny) albo atramentem niezgodnym z ich znaczeniem (bodziec niespójny). Badani potrzebo­ wali średnio 23 ms więcej na przeczytanie wyrazu niespójnego niż wyrazu kon­ trolnego. Efekt interferencji, wynikający z niespójnych aspektów bodźca, okazał się nieistotny statystycznie. W badaniu drugim Stroop polecił badanym nazywać kolor atramentu, jakim napisany był wyraz oznaczający kolor, zamiast czytać słowo. Oprócz tego uczestnicy eksperymentu nazywali kolory prostokątów, w tej samej liczbie i układzie kolorów, jaki został utworzony na liście bodźców niespójnych. Badani potrzebowali średnio 470 ms więcej na nazywanie koloru atramentu bodźca niespójnego w porównaniu do kolorowego paska (efekt Stroopa). W badaniu trze­ cim Stroop poddał osoby badane procesowi automatyzacji czynności nazywania ; kolorów. Udało mu się zaobserwować, że osiem dni praktyki zmniejsza efekt inter­ ferencji średnio o 336 ms, co jednak nie zredukowało statystycznej istotności tego efektu. Co więcej, badani, którzy nabyli wprawę w nazywaniu kolorów, wykazali również istotny efekt interferencji w przypadku czynności czytania bodźców niespójnych - wyrazy te czytali średnio 308 ms na bodziec dłużej niż w warunku, w którym były one napisane czarnym, zwykłym atramentem (tzw. odwrócony efekt Stroopa). Ten ostatni efekt zanikał jednak już w drugim postteście (wielkość efektu interferencji średnio 52 ms na bodziec, różnica nieistotna statystycznie). Dokładnej 244 Rozdział 6. Kontrola poznawcza replikacji badań Stroopa (1935) dokonał MacLeod (1986). Uzyskał on analogiczne efekty, a różnice w zakresie wielkości efektu interferencji w porównaniu do ekspe­ rymentów Stroopa nie przekraczały 80 ms na pojedynczy bodziec niespójny. Zadanie Stroopa poddawano licznym modyfikacjom (przegląd w: MacLeod, 1991). Najbardziej znane z nich to: (1) Stroop emocjonalny (zob. np. Williams, Mathews, MacLeod, 1996) zadaniem osób badanych jest nazwanie koloru, jakim napisano słowa kojarzące się z lękiem (np. pająk, wąż), albo rzeczami lub sytuacjami o negatywnym zabarwieniu emocjonalnym (np. gwałt, choroba). (2) Stroop rozproszony (zob. np. Kahneman, Chajczyk, 1983) - zadaniem osób badanych jest nazwanie koloru obiektu (np. plamy, ramka) występującego w towarzystwie wyrazu oznaczającego zupełnie inny kolor. (3) Stroop figuralny (zob. np. Navon, 1977) - osoby badane widzą figurę zbudowaną z innych figur (np. dużą literę H zbudowaną z liter K o mniejszym rozmiarze: zob. ryc. 6.4). Zadanie polega na nazwaniu figury stanowiącej tworzywo, a zignorowaniu figury głównej. RRRRRRRRRRR RRRRRRRRRRR RRRRRRRRRRR RRRRRRRRRRR RRRRRRRRRRR RRRRRRRRRRR RRRRRRRRRRR RRRRRRRRRRR RRRRRRRRRRR KKK KKK KKK KKK KKK KKK KKK KKK KKKKKKKKKKK KKK KKK KKK KKK KKK KKK KKK KKK ************* ************* *** *** *** *** *** *** *** zzz zzz zzz zzzz zzz zzzzz zzz zzz zz zzz zz zzz zzz zz zzz zzz zzzzz zzzz zzz zzz zzz Ryc. 6.4. Bodźce spójne i niespójne używane w badaniach Navona (1977). (4) Stroop kierunkowy (zob. np. Shilling, Chetwynd, Rabbitt, 2002) - zada­ niem osób badanych jest reakcja za pomocą odpowiedniego klawisza kursora klawiatury na strzałkę pokazującą kierunek przeciwny niż klawisz. Osoba badana widzi np. strzałkę skierowaną ku górze, a ma zareagować klawiszem reprezentu­ jącym ruch kursora w dół. We wszystkich badaniach z wykorzystaniem zadania Stroopa, niezależnie od modyfikacji, uzyskuje się efekt interferencji. Jednak efekty te wykazują z reguły swoją specyficzność, ponieważ nie udało się stwierdzić występującej między nimi korelacji (Shilling, Chetwynd, Rabbitt, 2002). 6.1. Czynności automatyczne i automatyzacja 245 I Ponadto Tzelgov i Henik (1995; Tzelgov, Henik, Leister, 1990) wykazali, że ! wielkość efektu Stroopa zależy od ogólnej kompetencji językowej. W przypadku I języka ojczystego krzywa obrazująca tę zależność ma postać odwróconego „U”. I Relatywnie niewielki efekt interferencji stwierdza się w przypadku osób o niskiej I i wysokiej biegłości w posługiwaniu się językiem, podczas gdy największy efekt Stroopa - u osób o przeciętnej kompetencji. Tzelgov i Henik wykazali również, że redukcja efektu Stroopa w przypadku list zawierających niewielki procent bodźców spójnych możliwa jest tylko w języku ojczystym (drugi wa­ runek redukcji efektu Stroopa; Tzelgov, Henik, Leister, 1990). Dlatego też za; równo Logan, jak i Tzelgov oraz Henik sugerują, aby automatyczność i kontrolę : traktować jak dwa aspekty dobrze wyuczonego zachowania, wskazując ich ■ różną funkcję w ramach systemu poznawczego, ale nie przeciwstawiając ich, tak i jak czynili to Shiffrin i Schneider, na podstawie długości procesu nabywania ; wprawy. Zaproponowana przez Logana (1988,1992,2002) teoria rywalizacji egzemj- plarzy (instances), zwana również teorią przypadków, uwzględnia możliwość kontroli procesów automatycznych. Według autora, procesy te charakteryzują się określonym zestawem właściwości. Po pierwsze, są one autonomiczne, gdyż mogą być uruchamiane oraz wykonywane nieintencjonalnie. Detekcja bodźca I powoduje natychmiastowe przywołanie z pamięci wszystkich związanych z nim ; informacji, zarówno deklaratywnych (dotyczących znaczenia bodźca), jak f i proceduralnych (dotyczących procedur postępowania z bodźcem). Decyzji i o przywołaniu z pamięci nie towarzyszy nasza intencja ani wola. Po drugie, { procesy automatyczne mogą podlegać kontroli, gdyż można je wykorzystywać f intencjonalnie. Autonomiczny proces przywoływania z pamięci długotrwałej | można modyfikować np. poprzez stosowanie odpowiednich wskazówek przyt woławczych, uprzednio skojarzonych z odpowiednimi śladami pamięciowymi i w procesie uczenia. Autonomiczność funkcjonowania procesów automatyczp nych polega więc na nieintencjonalnym uruchomieniu dostępu do trwałych f reprezentacji umysłowych. Efekty tego dostępu można jednak intencjonalnie j. kontrolować aż do momentu uruchomienia konkretnych reakcji motorycznych | czy werbalnych, których powstrzymanie jest już niemożliwe. Po trzecie, ze I względu na natychmiastowość dostępu do pamięci długotrwałej, w przypadku | procesów automatycznych występują duże ograniczenia w zakresie pamiętania | tego, co było przetwarzane i w jaki sposób przetwarzanie informacji się doj konywało. Właściwościami procesów automatycznych są więc, po czwarte, brak r introspekcyjnej świadomości ich przebiegu oraz, po piąte, bezwysiłkowość. Najważniejszym konstruktem koncepcji Logana jest pojęcie „egzemplarz”. I Stanowi on jednostkową, trwałą reprezentację umysłową pojedynczego bodź| ca (S) i wymaganego sposobu reakcji (R). Egzemplarz jest kodowany, przechor wywany oraz przywoływany w postaci trwałej wiedzy, odrębnie od pozostałych | egzemplarzy tej samej sytuacji bodźcowej S-R i innych możliwych sytuacji, t Każdy egzemplarz składa się z umysłowego odzwierciedlenia czterech ele| mentów: celu aktywności, bodźca związanego z realizacją tego celu, interpretaI cji nadawanej bodźcowi w kontekście celu, oraz odpowiedzi udzielanej w sto| sunku do bodźca. Logan (2002) wyraźnie odwołuje się więc w swojej koncepcji | procesów automatycznych do egzemplarzowej teorii trwałych reprezentacji I umysłowych (zob. rozdz. 3), obowiązującej, jego zdaniem, zarówno w zakresie 1 Ii& 246 Rozdział 6. Kontrola poznawcza pamięci semantycznej (znaczenie S i R), jak i pamięci epizodycznej (przypadki stosowania R wobec S). Sprzeciwia się natomiast prototypowej koncepcji re­ prezentacji świata w umyśle, jako że prototypy niekoniecznie odzwierciedlają konkretne obiekty czy zjawiska świata rzeczywistego, mogąc być sztucznymi konstruktami, zbudowanymi na podstawie uśrednionych czy najczęstszych właściwości szerszej klasy sytuacji bodźcowych. W przeciwieństwie do proto­ typu, egzemplarz zawsze jest odzwierciedleniem konkretnego elementu rze­ czywistości. Egzemplarze, jako trwałe reprezentacje umysłowe, podlegają procesowi nabywania - są one gromadzone w ramach trwałej wiedzy zgodnie z czterema podstawowymi prawami. Po pierwsze, pojawienie się odrębnego bodźca powo­ duje zapis odrębnego egzemplarza w pamięci. Po drugie, odmienne pojawienie się tego samego bodźca powoduje również ukształtowanie się odrębnej reprezentacji egzemplarzowej. Po trzecie, gromadzenie egzemplarzy jest tożsa­ me z procesem nabywania wprawy w zakresie wykonywania czynności odpo­ wiadających tworzonym dla nich reprezentacjom egzemplarzowym. Nabyta wprawa ma wpływ zarówno na wybór konkretnej reakcji na pojawiający się bodziec, jak i na szybkość tej reakcji. Po czwarte, zależność szybkości reakcji od wprawy opisuje opadająca krzywa wykładnicza (Logan, 1988). Pokazuje ona, że początkowo efekty gromadzenia egzemplarzy i dowodów ich skuteczności wy­ wołują gwałtowne skrócenie czasów reakcji (ryc. 6.4). Jednak dalsze ćwiczenie w coraz mniejszym stopniu przyczynia się do poprawy wykonania, mierzonej zwykle skracającym się czasem reagowania. W końcu, dalsze gromadzenie dowodów potwierdzających efektywność wyuczonej procedury reagowania na bodźce nie przyczynia się już do poprawy wykonania, co oznacza, że krzywa osiągnęła poziom asymptoty. W ramach egzemplarzy gromadzona jest wiedza dotycząca sposobów reagowania (response-set) , a nie kategorii bodźców (stimulus-set). Świadczy o tym stwierdzony przez Logana (1990) brak transferu wprawy w warunkach całkowitej zmiany sposobów reagowania na uprzednio prezentowane bodźce. W wyniku takiej zmiany wszystkie nabyte „egzemplarze reakcji” przestają być adekwatnymi odpowiedziami na aktualnie prezentowane bodźce. W momencie pojawienia się bodźca system poznawczy ma do wyboru dwa sposoby przetwarzania informacji: zastosowanie ogólnego algorytmu reakcji dla bodźców podobnego typu lub odwołanie się do skutecznego, znanego z prze­ szłości sposobu poradzenia sobie z bodźcem. Jest to wybór między automatycz­ nym przywołaniem procedury reakcji z pamięci a kontrolowanym przetwarza­ niem danych przez system uwagi. Jeśli przetarg wygra pamięć, proces przebiega automatycznie, a w obrębie wiedzy trwałej pojawi się zapis o efektywności zastosowania danego egzemplarza. Jeśli zaś pamięć nie dysponuje jeszcze od­ powiednim do sytuacji bodźcowej egzemplarzem (dzieje się tak w sytuacjach nowych), to przetarg wygrywa uwaga, a po wykonaniu czynności - w ramach trwałej wiedzy - pojawia się pierwszy egzemplarz, będący efektem kontrolowa­ nego przetwarzania informacji i zastosowania ogólnych algorytmów radzenia sobie w przypadku szerokiej klasy zjawisk, do której należy prezentowany bodziec. W konsekwencji Logan (1988) stwierdził, że problemy z wykonaniem nowych zadań nie wynikają z braku zasobów (rzekomo zbyt duże wymagania), ale raczej z braku wiedzy (braku egzemplarzy). 6.1. Czynności automatyczne i automatyzacja 247 Ryc. 6.5. Poprawa poziomu wykonania zadania (coraz krótszy czas reakcji) jako wykładnicza funkcja długości czasu nabywania wprawy (za: Logan. 1988). Każda funkcja zaczyna się w tym samym punkcie, reprezentującym początkowy poziom wykonania, i asymptotycznie zbliża się do poziomu idealnego. Każdej krzywej, reprezentującej pojedynczy przypadek, odpowiada określona wartość wykładnika. I I | i | | I Automatyczna reakcja ze strony pamięci jest zdeterminowana przez pierw­ szy przywołany egzemplarz. Detekcja bodźca, oprócz rywalizacji pomiędzy kontrolowanymi procesami uwagowymi a automatycznymi procesami pamię­ ciowymi, prowokuje więc „wyścig” o pierwszeństwo między dostępnymi w pamięci egzemplarzami. Nagrodą jest uruchomienie sposobu postępowania z bodź­ cem zgodnie z zakodowaną w egzemplarzu procedurą. O zwycięstwie w wyścigu decyduje liczba dowodów dotychczasowej, udanej stosowalności egzemplarza w odpowiedzi na bodziec. Każde udane współwystąpienie bodźca i specyficznej reakcji zwiększa wagę egzemplarza reprezentującego to konkretne zachowanie. Nabywanie wprawy polega więc na zwiększaniu wagi dominującego egzempla­ rza, tak by jego zwycięstwo w rywalizacji przypadków nie podlegało wątpliwoś­ ci. Model wyścigu egzemplarzy dobrze wyjaśnia zarówno szybkość procesów wtórnie automatycznych (tym większą, im większa jest wprawa w zakresie wykonywanych czynności), jak też podatność na błędy w przypadku bodźców konfliktowych (np. w zadaniu Stroopa). Bodźce takie uruchamiają tyle rywali­ zujących ze sobą ścieżek, ile konfliktowych aspektów stymulacji zawierają. Ze względu na brak jednego dominującego egzemplarza w reakcji na bodziec mogą pojawić się błędy. Reakcja może być wtedy korygowana przez instrukcję dla osoby badanej lub jej intencjonalną decyzję, ale nie bez ponoszenia kosztów czasowych, wynikających z uruchomienia uwagowych mechanizmów kontrol­ nych (zob. rozdz. 6.2). Logan potwierdził słuszność swojej koncepcji w kilku badaniach z wykorzystaniem różnych prostych zadań, w których badani nabywali wprawę. Były to np. zadania na podejmowanie decyzji leksykalnych (Logan, 1988), testy arytmetyczno-alfabetyczne, wymagające sprawdzania poprawności równań matematycznych, w których występowały litery i cyfry, np. A + 2 = C? (Logan, 1992; Logan, Klapp, 1991), jak również zadanie Stroopa (Logan, 1980; Logan, 248 Rozdział 6. Kontrola poznawcza Zbrodoff, 1998). Autor zawsze prosił osoby badane o wykonanie kilkunastu serii zadań tego samego typu, gdyż podobnie jak Shiffrin i Schneider wierzył, że tylko trening jednorodny umożliwia szybkie i skuteczne nabywanie wprawy. Mierzył czas reakcji jako funkcję automatyzacji. Wszystkie badania Logana potwierdziły, iż opadająca krzywa wykładnicza dobrze opisuje proces automa­ tyzacji czynności w poszczególnych zadaniach. Na przykład w teście arytmetyczno-alfabetycznym (Logan, 1992) badani początkowo rzeczywiście stosowali algorytm dodawania. Czas weryfikacji równania wyrażonego ogólną formułą „litera + cyfra = litera” zależał od odległości w alfabecie dwóch liter wystę­ pujących w równaniu - im większa odległość, tym dłuższy czas reakcji (przyrost 400-500 ms na pozycję alfabetu). Wraz z kolejnymi pozycjami testu, gdy badani uczyli się, które przypadki równań są fałszywe, a które prawdziwe, czas reakcji ulegał znacznemu skróceniu. Przyrost wprawy, duży z początku wykonywania testu i niewielki na zakończenie procesu automatyzacji, dobrze opisywała opa­ dająca krzywa wykładnicza. Pod koniec procesu nabywania wprawy nie stwier­ dzono już różnic w weryfikowaniu równań, niezależnie od manipulowanej odległości pomiędzy literami równania. Badani weryfikowali poszczególne po­ zycje testowe automatycznie, odwołując się do zgromadzonych w pamięci dłu­ gotrwałej egzemplarzy poprawnych równań. Z koncepcji rywalizacji egzempla­ rzy, a szczególnie z definicji samego konstruktu egzemplarza wynika, iż czyn­ ności automatyczne pojawiają się tylko w odpowiedzi na specyficzne bodźce wyzwalające. Wobec tego transfer wprawy w zakresie wykonywanej czynności z jednej grupy bodźców na inną nie powinien w ogóle zaistnieć (Logan, 1990). Stwierdzić można zatem, że zgodnie z teorią rywalizacji egzemplarzy więk­ sza wprawa w wykonywaniu czynności poznawczej może wiązać się zarówno z wtórną automatyzacją tej czynności, jak i z możliwością sprawowania nad nią większej kontroli. Automatyczność i kontrolowalność nie są dwoma przeciw­ nymi biegunami kontinuum procesów, ale dwoma aspektami tego samego zjawiska nabywania wprawy. Teoria rywalizacji egzemplarzy podkreśla, iż automatyzmy mogą wiązać się raczej z funkcjonowaniem pamięci (dostępność egzemplarzy), a nie funkcjonowaniem uwagi (dostępność zasobów). Uwaga wiąże się z wtórną automatyzacją o tyle, o ile ułatwia proces nabywania egzem­ plarzy i zmiany ich relatywnych wag (Logan, Etherton, 1994; Logan, Taylor, Etherton, 1996). 6.1.4. Konsekwencje automatyzacji czynności Automatyzacja czynności ma wiele pozytywnych konsekwencji. Część z nich przedstawiono już powyżej. Dzięki automatyzacji uwalniane są zasoby systemu, które można przeznaczyć na wykonywanie innych zadań. Nabywanie wprawy prowadzi też do istotnego przyspieszenia i zwiększenia poprawności reagowa­ nia. Efekty te opisuje opadająca krzywa wykładnicza. W konsekwencji auto­ matyzacja czynności powinna prowadzić również do redukcji efektu przetargu między szybkością a poprawnością, co należy uznać za kolejny pozytywny skutek nabywania wprawy. Efekt przetargu między szybkością a poprawnością występuje w zadaniach z presją czasu (Snodgrass, Luce, Galanter, 1967). W takich warunkach badani 6.1. Czynności automatyczne i automatyzacja 249 z reguły nie są w stanie uzyskać dobrych wskaźników wykonania zarówno w zakresie szybkości, jak i z poprawności reakcji (Meyer i in., 1988). Przetarg między szybkością a poprawnością jest podstawową zasadą funkcjonowania elastycznego filtra uwagi (Johnstona, 1978; Johnston, Heinz, 1978; zob. rozdz. 5). Im płytszy poziom analizy bodźców, tym szybszy i mniej poprawny proces selekcji informacji. Na głębokich poziomach przetwarzania informacji analizy selekcyjne są znacznie bardziej złożone, wymagają więcej czasu, ale w konsekwencji - są też bardziej poprawne. Z kolei zgodnie z modelem prze­ wodników uwagi (Wolfe, 1994; zob. rozdz. 5), proces przeszukiwania pola wzrokowego, polegający na integracji cech w poszukiwany obiekt, jest uru­ chamiany wtedy, gdy suma pobudzenia w zakresie kodowanych cech stymulacji przekroczy pewien minimalny próg. Im znaczniejsze przekroczenie progu, tym szybszy proces przeszukiwania pola wzrokowego. Proste, sensoryczne cechy priorytetowe (np. ruch) charakteryzują się dużym ładunkiem aktywacyjnym i wymuszają przetwarzanie na relatywnie wczesnych etapach obróbki bodźca. Jednak proces selekcji na podstawie tych cech bodźców przebiega szybko i intuicyjnie - analizie podlegają jedynie priorytetowe właściwości stymulacji, co prowadzi do zwiększonej liczby błędów. Gdy proces selekcji obejmuje kilka złożonych cech, wymagających głębszej i dłuższej analizy, ale mniej stymulu­ jących, wówczas przebiega wolniej, ale i bardziej poprawnie. Wtedy bowiem w procesie integracji cech w obiekt uwzględnia się wiele różnych charakterystyk stymulacji w celu przekroczenia sumarycznego progu aktywacji i uruchomienia procesu przeszukiwania. Koszty poznawcze związane z przyspieszeniem przebiegu procesów poznawczych pod presją czasu znajdują empiryczne odzwierciedlenie w zakresie sumarycznej liczby błędów (Dickman, Meyer, 1988; Larson, Saccuzzo, 1986; Szymura, Nęcka, 1998), a także w zakresie błędów ominięcia (Lobaugh, Cole, Rovet, 1998; Zenger, Fahle, 1997). Kosztów polegających na wzroście liczby fałszywych alarmów raczej się nie stwierdza, nawet jeśli analizy dotyczą osób szczególnie impulsywnych (Dickman, Meyer, 1988; Larson, Saccuzzo, 1986; Szymura, Nęcka, 1998). W warunkach szybkiego przetwarzania informacji większość aspektów stymulacji nie jest uwzględniana przy podejmowaniu decyzji selekcyjnej. W rezultacie osoby badane często wybierają strategię zga­ dywania, podejmując decyzję selekcyjną mimo niepełnych przesłanek. Jak wykazali Chun i Wolfe (1996), takie zgadywanie w ponad 80% przypadków kończy się decyzją negatywną (brak detekcji, możliwy błąd ominięcia), zaś tylko w niecałych 20% - decyzją pozytywną (detekcja, możliwy fałszywy alarm). Efekt przetargu stwierdzili w swoich badaniach nad uwagą selektywną Szymura i Słabosz (2002). Osoby badane „płaciły” za zwiększoną szybkość procesów selekcji informacji wzrostem liczby błędów ominięcia. Wielkość tego efektu ulegała jednak sukcesywnemu zmniejszeniu w każdej kolejnej próbie tego samego testu (trening jednorodny), choć najbardziej istotne różnice stwier­ dzono na początku nabywania wprawy - między pierwszym a drugim wyko­ naniem testu. Wyniki okazały się więc zgodne z prawem opadającej krzywej wykładniczej. Co ciekawe, w omawianym badaniu prawo to ujawniło się nie tylko poprzez poprawę w zakresie pojedynczych empirycznych wskaźników wykonania (spadek liczby błędów), ale również poprzez jakościową zmianę sposobu wykonywania czynności selekcji informacji (redukcja efektu przetar­ 250 Rozdział 6. Kontrola poznawcza gu). Inaczej mówiąc, automatyzacja czynności poznawczej powoduje ogólną poprawę wskaźników wykonania, a ponadto redukuje koszty związane z koniecznością „płacenia” szybkością za poprawność lub poprawnością za szybkość. Automatyzacja może jednak prowadzić również do konsekwencji negatyw­ nych. Chodzi szczególnie o trudność w zakresie deproceduralizacji wtórnie automatycznego procesu. Większość modeli nabywania wprawy zakłada trzy stadia automatyzacji: poznawcze, asocjacyjne i autonomiczne (Ackerman, 1988; Anderson, 1983). W stadium poznawczym automatyzacja polega na zrozumie­ niu i przyswojeniu instrukcji, ogólnym zaznajomieniu się z celem czynności oraz wstępnym sformułowaniu procedury wykonania. W stadium asocjacyjnym, na skutek treningu jednorodnego, następuje proceduralizacja sposobu wykonania czynności (Anderson, 1983). Jest to właściwe stadium nabywania wprawy, dzięki któremu skraca się czas reakcji i zmniejsza liczba błędów. W trzecim stadium, czynność automatyzowana uzyskuje status procesu autonomicznego (Logan, 1988) - raz wyzwolona w jej ramach reakcja przebiega bezwysiłkowo, a zadanie obsługiwane przez tę czynność wykonywane jest tak szybko i poprawnie, jak tylko pozwalają na to możliwości psychomotoryczne organizmu. W stadium autonomicznym możliwe jest wyzwolenie długiej sek­ wencji zautomatyzowanych czynności za pomocą jednego bodźca lub pojedyn­ czej intencji. Jednak w niektórych okolicznościach niezbędna jest deproceduralizacja czynności. Konieczność taka zachodzi w warunkach minimalnej choćby zmiany wymagań zadania, co wymusza wprowadzenie zmian w obrębie już zau­ tomatyzowanej czynności. Mogą się wtedy pojawiać błędy wynikające z „bez­ refleksyjnego” wykonywania automatycznej procedury (zob. metafora auto­ matycznego pilota; rozdz. 6.1.1). Przykładem kosztów wynikających z procesu automatyzacji jest zjawisko transferu negatywnego, polegające na tym, iż dobrze wyuczona czynność utrudnia wykonywanie czynności podobnej, ale nie tożsamej z uprzednio wyuczoną. W badaniu Woltza, Bella, Kyllonena i Gardnera (1996) uczestnicy najpierw nabywali wprawę w wykonywaniu zadania polegającego na stosowaniu prostych reguł redukcyjnych w celu zastąpienia liczby trzycyfrowej liczbą jednocyfrową. Osoby, które nabyły umiejętność stoso­ wania tych reguł w stosunku do jednego zestawu liczb, cechowały się znacznie wydłużonym czasem opracowywania nowych zestawów, jeśli reguły postępo­ wania zostały minimalnie zmienione. Badani z grupy kontrolnej, którzy nie nabywali wcześniej żadnych reguł, okazali się znacznie szybsi w procesie przetwarzania nowych zestawów liczb. Przy wykorzystaniu nieco trudniejszych reguł redukcyjnych, Woltz, Gardner i Bell (2000) stwierdzili negatywny transfer umiejętności również w zakresie poprawności wykonywania nowej czynności. Pamiętać jednak należy, iż efekty transferu są bardzo zależne od podobieństwa zestawów bodźców i odpowiadających im wymaganych reakcji. Dlatego Logan (1990) nie uzyskał w zadaniu na transfer żadnego istotnego efektu, a Tzelgov (1999) uzyskał nawet efekt transferu pozytywnego. W badaniach nad uwagą selektywną Szymura i Słabosz (2002) stwierdzili występowanie transferu negatywnego w przypadku konieczności dostosowania tego samego typu reakcji do bodźca wyzwalającego uprzednio inny rodzaj reakcji. W wyniku transferu negatywnego, czynność selekcji powracała pod 6.2. Hamowanie jako mechanizm kontrolny ; I j j [ j j [ j Ę i[ \ 251 względem parametrów efektywności do poziomu wykonania typowego dla asocjacyjnego stadium nabywania wprawy (Anderson, 1983). Zwiększył się także efekt przetargu pomiędzy szybkością a poprawnością, istotnie uprzednio zredukowany na skutek automatyzacji. Ponadto, na zmianie warunków wy­ konywania zadania szczególnie tracili ci badani, którzy wykazali się bardziej skuteczną automatyzacją czynności selekcji w początkowych etapach nabywa­ nia wprawy, charakteryzujących się bardzo szybkim przyrostem efektów. Podsumowując, automatyzacja może być skutecznym narzędziem kontroli poznawczej. Wydaje się, że przeciwstawianie automatyzacji procesom kontroli nie znajduje potwierdzenia w wynikach badań, które sugerują raczej, iż automatyzacja i kontrola są dwoma aspektami procesu nabywania wprawy, procesu, który umożliwia redukcję kosztów poznawczych, związanych z wykonywaniem wielu trudnych zadań jednocześnie lub bezpośrednio po sobie, Pozytywne efekty związane z automatyzacją przeważają nad negatywnymi. Należy jednak pamiętać, iż automatyzacja może czasami uniemożliwiać transfer pozytywny, a nawet powodować transfer negatywny, jeśli trzeba wykonać tę samą czynność w nieco zmienionych warunkach lub nieco zmodyfikowaną czynność w tych samych warunkach. 6.2. Hamowanie jako mechanizm kontrolny 6.2.1. Istota i funkcje hamowania Automatyzacja czynności jest jednym ze sposobów redukcji interferencji zaso­ bowej (zob. rozdz. 6.1.2). Zjawisko to polega na zakłóceniach przebiegu czyn­ ności nieautomatycznej przez inne czynności: automatyczne, gdy angażują te same receptory lub efektory, albo nieautomatyczne, jeśli rywalizują o ograni­ czoną pulę zasobów. Czynności automatyczne w znacznie mniejszym stopniu podlegają zakłóceniom, jednakże mogą stać się źródłem interferencji dla czyn­ ności nieautomatycznej. Na przykład wtórnie automatyczna czynność czytania może zakłócać niezautomatyzowaną czynność nazywania koloru atramentu, co stanowi istotę efektu Stroopa (1935; zob. paradygmat 6.2). Wprawdzie auto­ matyzacja jest w stanie nieco osłabić efekt interferencji (Tzelgov, Henik, 1995), ale nigdy nie redukuje go w pełni. System poznawczy musi zatem dysponować bardziej skutecznym narzędziem, zapobiegającym powstawaniu zakłóceń w przebiegu czynności poznawczych lub zmniejszającym skutki pojawienia się takich zakłóceń. Hamowanie jest mechanizmem kontrolnym, wspomagającym proces selek­ cji informacji. Jego funkcja polega, z jednej strony, na utrudnieniu dostępu do informacji nieistotnych (irrelewantnych) względem aktualnie przetwarzanych danych (Dempster, Brainerd, 1995; Tipper, 1995), a z drugiej strony - na powstrzymywaniu niepożądanej w danym momencie aktywności neuronalnej, mentalnej lub behawioralnej (Neill, Valdes, 1992). Podstawowym zadaniem hamowania jest więc blokowanie jakichkolwiek pobudek, zarówno zewnętrz­ nych (bodźce nieważne, dystraktory), jak i wewnętrznych (bodźce „symbolicz­ ne”, impulsy, czynniki afektywne lub motywacyjne), które mogłyby wyzwolić 252 Rozdział 6. Kontrola poznawcza reakcje konkurencyjne względem aktualnie wykonywanych czynności i przez to wywołać zjawisko interferencji zasobowej (Nigg, 2000). Terminy „hamowanie” i „kontrola interferencji” były zresztą bardzo długo używane zamiennie (Fried­ man, Miyalce, 2004). Obecnie kontrola interferencji jest traktowana jako jeden z możliwych rodzajów hamowania (Nigg, 2000). Hamowanie jest bowiem raczej konstruktem niejednorodnym. Wskazują na to badania korelacyjne wielkości efektu interferencji w przypadku różnych wersji zadania Stroopa. Shilling, Chetwynd i Rabbitt (2002) poprosili badanych 0 wykonanie czterech wersji tego zadania: werbalnej, figuralnej, numerycznej 1 kierunkowej. Wskaźniki efektu interferencji, odzwierciedlające zgodnie z zało­ żeniem siłę procesu hamowania, korelowały ze sobą w zakresie od 0,22 do 0,13. Szymura i Patraszewska (w przygotowaniu) przeprowadzili badania, w których również wykorzystano kilka wersji zadania Stroopa. W eksperymen­ cie pierwszym zastosowano wersję werbalną zwykłą, werbalną emocjonalną oraz werbalną rozproszoną (w tej wersji aspekty konfliktowe bodźca werbalnego są rozdzielone przestrzennie), natomiast w eksperymencie drugim - wersję kierunkową i werbalną zwykłą. Tylko w pierwszym badaniu uzyskano wysoką korelację wielkości efektu interferencji (0,54); dotyczyła ona zresztą tylko zwykłej i emocjonalnej wersji zadania Stroopa. Zależność ta była prawdopo­ dobnie efektem wspólnego, werbalnego charakteru obu użytych odmian zadania, gdyż w odniesieniu do pozostałych wersji zastosowanego testu ujaw­ niono zaledwie bardzo słabe, choć pozytywne, związki siły mechanizmu hamo­ wania (0,22-0,26). Badania z wykorzystaniem różnych testów hamowania przy­ noszą z reguły jeszcze słabsze wyniki w zakresie korelacji siły tego mechanizmu w poszczególnych zadaniach (Kramer i in., 1994; Friedman, Miyake, 2004). Brak korelacji jest tutaj wynikiem trudnym do wyjaśnienia (Miyake, Emmerson, Friedman, 2000). Może wynikać z różnych przyczyn, niekoniecznie związanych z samą naturą procesu hamowania. Friedman i Miyake (2004) wymieniają trzy możliwe przyczyny. Po pierwsze, nie jest całkiem jasne, czy wykonanie niektórych zadań testowych rzeczywiście wymaga wzbudzenia kontrolnych mechanizmów hamowania; jest to argument o niskiej trafności teoretycznej testów hamowania. Po drugie, wyniki niektórych testów zależą od wprawy osoby badanej w używaniu mechanizmów kontrolnych określonego rodzaju, przez co nie zawsze nadają się do ponownego zastosowania; to argu­ ment niskiej stabilności pomiarów. Po trzecie, nie stworzono jeszcze zadania, które by dostarczało czystej miary siły hamowania - blokowanie irrelewantnych informacji za każdym razem dotyczy innego zakresu zjawisk przeszkadzających w przetwarzaniu informacji; jest to argument nadmiernej zależności wyników testów hamowania od treści zadania. Jeśli jednak założyć, że brak korelacji nie wynika z niedoskonałości narzędzi pomiarowych, to nasuwa się wniosek o istnieniu całej rodziny mechanizmów hamowania poznawczego, której członkowie nie zawsze są blisko spokrewnieni (Friedman, Miyake, 2004; Nigg, 2000). Przeciwko powyższej tezie świadczą jednak wyniki badań neurofizjolo­ gicznych (Posner, Raichle, 1994; Rabbit, Lowe, Shilling, 2001), które pozwalają na lokalizację mechanizmu hamowania, niezależnie od jego rodzaju, w obrębie płatów czołowych mózgu. 6.2. Hamowanie jętko mechanizm kontrolny 253 6.2.2. Hamowanie dominującej reakcji Badania tej odmiany hamowania często prowadzono z wykorzystaniem zadania Stroopa (1935; Friedman, Miyake, 2004; Logan, Zbrodoff, 1998; MacLeod, 1991; Shilling, Chetwynd, Rabbitt, 2002; Tzelgov, Henik, 1995). Ich wyniki zostały już wcześniej w większości omówione. W tym miejscu, w kontekście hamowania dominującej reakcji, szerszego omówienia wymagają natomiast wyniki uzyskane w paradygmacie badawczym sygnału stopu (stop-signal; pa­ radygmat 6.1). Eksperymenty prowadzone w tym paradygmacie dotyczą głównie zatrzymywania reakcji motorycznych. De Jong, Coles i Logan (1995) przeprowadzili badania nad efektywnością hamowania reakcji motorycznej w różnych warunkach zadania. W ich wyniku okazało się, że hamowanie ze wzbudzeniem alternatywnej reakcji motorycznej jest trudniejsze niż proste powstrzymanie dominującej reakcji - badani uzyski­ wali dłuższe o 46 ms czasy reakcji na sygnał zatrzymania w warunku stop-zmiany niż w warunku stop-ogólny (zob. paradygmat 6.1). Zdaniem De Jonga i współpracowników, w warunku stop-ogólny powstrzymywaniem dominującej reakcji zajmują się jedynie szybkie i peryferyczne (w zakresie systemu kontroli motorycznej) mechanizmy hamowania. Ich zadanie polega na niedopuszczeniu do ekspresji reakcji poprzez odcięcie niezbędnej dla wykonania ruchu energii. Wydłużenie czasu działania mechanizmów hamowania w sytuacji zmiany sposobu reakcji motorycznej (np. z ręcznej na nożną) jest natomiast związane z funkcjonowaniem centralnych mechanizmów hamowania, gdyż odcięcie energii koniecznej dla wykonania ruchu nie jest w tym warunku efektywnym sposobem sprawowania kontroli (ruch innym efektorem musi zostać przecież wykonany). W warunku stop-zmiany dłuższe czasy reakcji związane są więc z kosztami przerzutności w zakresie sposobu reakcji, jakie ponosi centralny system hamowania przy udanej próbie kontroli sytuacji. Najtrudniejszym zadaniem dla badanych okazało się jednak hamowanie selektywne, dotyczące powstrzymywania tylko jednej z dwóch możliwych do wzbudzenia reakcji motorycznych (reakcji jednej z dwóch rąk). Na selektywne powstrzymanie się od reakcji (warunek stop-selektywny; zob. paradygmat 6.1) badani potrzebowali o 99 ms więcej niż na reakcję w warunku stop-ogólny. Wykonanie instrukcji zatrzymania w warunku stop-selektywny zabierało jednak również więcej czasu (o 53 ms) niż w warunku stop-zmiana. Co więcej, selek­ tywne powstrzymanie się od reakcji dominującą ręką było o 44 ms szybsze niż wykonanie tego samego zadania z użyciem ręki niedominującej. Zdaniem De Jonga i współpracowników wyniki te odzwierciedlają kosztowną współpracę peryferycznych i centralnych mechanizmów hamowania dominującej w danym momencie reakcji. W warunku stop-selektywny należy bowiem zablokować energię potrzebną do wykonania ruchu (peryferyczne hamowanie reakcji), ale nie każdego ruchu, a jedynie takiego, który zostanie centralnie wskazany do zablokowania (centralne hamowanie reakcji). Centralny system hamowania reakcji odpowiadałby więc za selekcję w zakresie tego, co (rodzaj efektora) i w jaki sposób (zmiana efektora, selektywny wybór efektora spośród możli­ wych) jest hamowane. Zadaniem peryferycznego systemu hamowania dominu­ jącej reakcji byłoby blokowanie energii koniecznej do wykonania reakcji. System centralny hamowania reakcji można więc określić jako selektywny, 254 Rozdział 6. K ontrola poznaw cza podczas gdy peryferyczny - jako nieselektywny (De Jong, Coles, Logan, 1995; Horstmann, 2003). W badaniu drugim De Jong i współpracownicy zastosowali tylko warunek stop-selektywny. W połowie prób dokonali jednak degradacji bodźca wzbu­ dzającego hamowanie czynności motorycznej poprzez jego maskowanie. Manipulacja rozróźnialnością bodźca okazała się efektywna - wydłużyła ona (o 64 ms) zarówno czas reakcji na bodziec w zakresie wykonywanej czynności, gdy nie była ona powstrzymywana, jak i czas reakcji na sygnał do zatrzymania (o 50 ms). W badaniu tym stwierdzono jednak istotną interakcję obecności sygnału do zatrzymania i trudności w identyfikacji bodźca wzbudzającego za­ trzymaną czynność. Przetwarzanie sygnału do zatrzymania interferowało z wy­ konywaniem zatrzymywanej czynności nawet wtedy, gdy sygnał do zatrzymania nie był prezentowany, i zwłaszcza wtedy, gdy rozróżnialność bodźców wzbu­ dzających była niska. Oznacza to, że czynność zatrzymywana i operacja zatrzy­ mywania zakłócają się wzajemnie. Należy jednak pamiętać, że z reguły inter­ ferencja tego rodzaju nie jest zbyt duża. Logan i Burkell (1986) porównali wielkość możliwej interferencji pomiędzy dwoma czynnościami w paradygmacie zadań jednoczesnych i w paradygmacie stop-sygnał. Wykazali oni, że inter­ ferencja w paradygmacie hamowania reakcji jest znacznie mniejsza i dotyczy jedynie selekcji właściwej reakcji (zob. też Logan, 1982, 1988). Badania nad wielkością efektu interferencji w paradygmacie sygnału stopu podjął również Horstmann (2003). Interesował go problem współzależności interwalu czasu potrzebnego na wykonanie zatrzymywanej czynności i interwalu koniecznego do jej zastopowania. Wykonywaną czynnością motoryczną było pisanie na maszynie. Czynność tę wybrano ze względu na to, że będąc wtórnie zautomatyzowaną podlega ona stosunkowo łatwej kontroli (Logan, 1982) i może być równocześnie realizowana z wieloma innymi czynnościami poznawczymi, nie wywołując przy tym nazbyt dużego efektu interferencji (Pashler, 1994). Na ekranie monitora pojawiały się tylko dwie litery, które sygnalizowały albo możliwość wykonywania czynności, czyli naciśnięcia klawisza (T; tap), albo konieczność zatrzymania czynności, czyli powstrzymania się od uderzania w klawisz (H; halt). Testowano zachowanie badanych, poddając ich różnym próbom: startu - gdy litera T pokazywała się po jednej lub po kilku literach H; ciągłego wykonania - bez litery H; ciągłego powstrzymywania się od wykonania - bez litery T; oraz hamowania - gdy litera H pokazywała się po jednej lub po kilku literach T. Manipulowano odstępem (SOA) pojawienia się liter na ekranie. W wyniku testu Horstmann wykazał, że reakcja na drugi sygnał z każdej pary jest tym szybsza, im dłuższy jest interwal SOA (200 ms). Jednakże reakcja na sygnał „stop H ” po sygnale do wykonywania czynności T, czyli zatrzymanie wykonywania czynności, okazała się tym bardziej efektywna (o 13% więcej zatrzymań), ale jednocześnie dłużej (89 ms) trwająca, im krótsze było SOA (100 ms). Wynik ten pozostaje jedynie w częściowej zgodzie z teorią rywalizujących egzemplarzy Logana (1988, 2002), który stwierdził, że hamowanie reakcji może być skuteczne, jeśli pojawi się ono zanim reakcja w zakresie zatrzymywanej czynności zostanie uruchomiona, a więc przy krótkim odstępie między bodźcem wzbudzającym czynności a sygnałem stopu. Jednakże dokonana przez Horstmanna manipulacja eksperymentalna w zakresie odstępu czasu między poja­ 6.2. H am ow anie jako m echanizm kontrolny 255 wieniem się sygnałów do kontynuowania i zatrzymania czynności ujawniła, że szybkość przebiegu procesu hamowania jest zależna od momentu jego rozpo­ częcia. Oznacza to wystąpienie współzależności interwału czasu potrzebnego na wykonanie zatrzymywanej czynności i interwału koniecznego do jej zasto­ powania. Czynność hamowania reakcji nie różni się więc od innych, aktywnych czynności w swej zależności od psychologicznego okresu refrakcji (PRP; psychological refractory period; Pashler, 1994). Efekt PRP polega na tym, że jeśli bodziec S2 pojawi się przed wykonaniem reakcji na bodziec S1; reakcja na bodziec S2 będzie nienaturalnie wydłużona. Druga reakcja jak gdyby czeka, aż system „dojdzie do siebie” po wykonaniu pierwszej. Horstmann w kolejnych eksperymentach wykazał również szereg bardziej złożonych związków procesu hamowania reakcji i kolejności dokonywanej zmiany w czasie ciągłego wyko­ nywania czynności. Kolejne wykonania i zatrzymania okazały się w jeszcze większym stopniu zależne od SOA i porządku poprzedzających je czynności. Przeprowadzone badania nasuwają wniosek, że hamowanie dominującej reakcji jest raczej procesem wysiłkowym i intencjonalnym, o czym świadczą zależności tego rodzaju hamowania od manipulacji zarówno w zakresie rozróżnialności sygnałów do wykonania (De Jong), jak i odstępu czasu pomiędzy sygnałami do rozpoczęcia i zatrzymania czynności (Horstmann). Jako proces wysiłkowy i intencjonalny, hamowanie dominującej reakcji wykazuje interfe­ rencję z czynnością aktualnie wykonywaną. Interferencja ta jest jednak słabsza niż wzajemne zakłócanie się dwóch czynności jednoczesnych (Logan). 6.2.3. Odporność na dystrakcję Badania w paradygmacie podążania (zob. rozdz. 5.2.1) wykazały, że informacje nieistotne są często przetwarzane aż do poziomu identyfikacji ich znaczenia lub nawet do poziomu selekcji reakcji (zob. rozdz. 5.3). Dystrakcja nie jest więc w całości odrzucana przez system poznawczy, mimo że stopień odporności na zakłócenia na sensorycznym poziomie przetwarzania informacji jest ważnym czynnikiem determinującym efektywność głębokiego przetwarzania wyselek­ cjonowanych treści (Johnston, Dark, 1982) i, w konsekwencji, ich zapamięty­ wania (Eriksen, Eriksen, Hoffman, 1986). Francolini i Egeth (1980) twierdzą, że w pewnych warunkach proces odrzucania dystrakcji może być całkowicie skuteczny. Przywołują oni argumenty empiryczne udanych prób redukcji efektu Stroopa (Kahneman, Chajczyk, 1983) oraz efektu flankerów (Eriksen, Eriksen, 1974) w wyniku przestrzennej separacji konfliktowych aspektów bodźca. Bodźce zakłócające przetwarzane poza ogniskiem uwagi (często bez udzia­ łu świadomości i intencji; Johnston, Dark, 1986) są w stanie wzbudzić reakcję konkurencyjną względem wykonywanej czynności (Eriksen, Eriksen, 1974; Eriksen, Schultz, 1979; Eriksen, Eriksen, Hoffman, 1986). W Teście flankerów (Eriksen, Eriksen, 1974; Broadbent, Broadbent, Jones, 1989; Smith, 1991) ba­ dani reagują na literę pojawiającą się w centrum ekranu. Litera ta jest otoczona przez dwa bodźce zakłócające (flankery), którymi są inne litery pojawiające się po obu stronach sygnału w jednym rzędzie. Podstawowa wersja testu uwzględ­ nia dwie manipulacje eksperymentalne. Po pierwsze, flankery mogą być tożsame z sygnałem lub też mogą być zupełnie innymi literami. Po drugie, zadania tes- 256 Rozdział 6. Kontrola poznaw cza 550 500 co E 450 400 0,06" 0,5" 1" odległość kątowa sygnału od dystraktora Reakcje na litery: H i K - lewy kursor, S i C - prawy kursor Warunek 1 - dystraktor taki sam jak sygnał, np.: H H H H H H H Warunek 2 - dystraktor zgodny pod względem klucza reakcji, np.: K K K H K K K Warunek 3 - dystraktor niezgodny pod względem klucza reakcji, np.: S S S H S S S Warunek 4 - dystraktor podobny, np.: N W Z H N W Z Warunek 5 - dystraktor niepodobny, np.: Q J Q H Q J Q Ryc. 6.6. Efekt flankerów stwierdzony w eksperymencie Eriksena i Eriksen (1974). towe różnią się w zakresie przestrzennej lokalizacji bodźców zakłócających (bliżej lub dalej względem sygnału). Eriksen i Eriksen stwierdzili (ryc. 6.6), że czas reakcji na sygnał znacznie wydłuża się, gdy pojawiają się flankery, w po­ równaniu do sytuacji, gdy ich nie ma lub są tożsame z sygnałem. Co więcej, czas ten wydłuża się tym bardziej, im bardziej są do siebie podobne sygnały i dys- 6.2. H am ow anie jako m echanizm kontrolny l 257 ------------------------------------------------------------------------------------------------------------------------------------------------ I traktory (zob. też zależność procesu selekcji od podobieństwa sygnału i dystrakI tora; Duncan, Humphreys, 1989) oraz im mniejsza wzajemna odległość bodźców i dystraktorów (zob. też metafora reflektora; LaBerge, 1995). Efekt flankerów można jednak zredukować dokonując oddzielenia (przestrzenna se­ paracja) liter w rzędzie. Broadbent, Broadbent i Jones (1989) doszli do wniosku, I że wielkość wpływu zakłóceń na proces selekcji w Teście flankerów, a tym saI mym odporność na dystrakcję, oddaje wskaźnik ERIK, skalkulowany jako I różnica policzona dla warunków separacji i współwystępowania dystraktorów i oraz sygnału pomiędzy różnicami w czasach detekcji sygnału dla flankerów I niespójnych i spójnych z sygnałem. Broadbent, Broadbent i Jones (1989) oraz Smith (1991) niezależnie potwierdzili efekt flankerów oraz prawa, którym i podlega. I Zdaniem Eriksena i Eriksen efekt flankerów wynika z konieczności zaha[ mowania potencjalnej reakcji na bodziec zakłócający. Hamowanie to jest koszI towne, bowiem powoduje wydłużenie czasu reakcji w warunkach współwysl tępujących, dystrakcyjnych flankerów. W zgodzie z tą interpretacją pozostają í wyniki badań Eriksena, Colesa, Morrisa i O’Hary (1985). W eksperymencie tym l wykazano, że prezentowanie w polu wzrokowym bodźca zakłócającego, mogące[ go stać się alternatywnym sygnałem, prowadzi do wystąpienia reakcji mięśniowej j (EMG), pomimo iż badani zdają sobie sprawę z tego, że bodziec ten mają ! ignorować. Należy zwrócić uwagę, że zgodnie z interpretacją Eriksena i jego i współpracowników wykonanie Testu flankerów bardziej związane jest z hamo; waniem konkurencyjnej reakcji (na dystraktor), niż z odpornością na dystrakcję l traktowaną jako powstrzymywanie się od przetwarzania bodźców zakłócających. ; Odmienne stanowisko zaprezentowali Friedman i Miyake (2004). Z kolei Karen, O'Hara i Skelton (1977) wykorzystali w swoim badaniu zadanie Posnera i Mitchella (1967). Polecili osobom badanym podjęcie decyzji, I czy para prezentowanych im liter spełnia narzucone przez instrukcję kryterium selekcyjne. Uczestnicy eksperymentu mieli do dyspozycji trzy kryteria: identyi czności fizycznej identyczności (np. „AA”), identyczności nominalnej (np. r „Aa”) oraz opartej o regułę (np. „Ae”). Osoby badane wykonywały zadanie ; w obecności dystraktorów, którymi były inne litery. Opierając się na uzyskanych ; wynikach Karen i współpracownicy wykazali, że przetwarzanie bodźców [ zakłócających może być powstrzymane bardzo wcześnie, na poziomie ich I rozpoznania, lub też bardzo późno, na poziomie przetwarzania ich znaczenia. \ W pierwszym przypadku, dystraktory powodowały interferencję tylko w zada­ ją niach, w których zastosowano kryterium fizycznej identyczności, natomiast były skutecznie odrzucane w warunkach selekcji wymagających uwzględnienia \ znaczenia bodźców. Jednak, gdy dystraktory były przetwarzane ze względu na [ ich znaczenie, interferencję z ich strony stwierdzono w zakresie wszystkich i zadań, niezależnie od kryterium selekcji. | Wykorzystując dynamiczną wersję zadania Posnera i Mitchella (test selek\ tywnej i podzielnej uwagi DIVA; zob. Nęcka, 1994a), Szymura (1999) pokazał, \ że sposób przeszukiwania pola percepcyjnego jest zależny od odporności na j. dystrakcję. Niezależnie od rodzaju kryterium selekcji (fizyczne vs. nominalne), J jeśli tylko badani radzili sobie z odrzucaniem bodźców zakłócających (brak L różnic w efektywności procesu selekcji ze względu na obecność dystrakcji), ; proces przeszukiwania pola wzrokowego był szybki, równoległy i niezależny od 258 Rozdział 6. K ontrola poznaw cza liczby elementów w polu. Gdy jednak hamowanie dystrakcji było mniej efek­ tywne (wzrost czasu reakcji w warunkach z dystrakcją w porównaniu do jej braku), proces przeszukiwania pola okazywał się wolny, szeregowy i zależny od liczby prezentowanych bodźców. Prowadzący wcześniej swoje badania Eriksen, Eriksen i Hoffman (1986) wykazali, że zakłócanie poprzez prezentację dystraktorów etapu kodowania bodźców w celu ich przechowania w pamięci świeżej nie zmienia szeregowego charakteru procesu przeszukiwania pamięci (Sternberg, 1966), a jedynie wydłuża czas potrzebny na przeszukanie każdego zestawu bodźców w celu udzielenia odpowiedzi na pytanie dotyczące obecności sygnału w zapamiętywanym zestawie. Efekt tłumienia dystrakcji (distractor-supression effect) badał z kolei Neill (1977, 1982). W eksperymentach zastosował zadanie Stroopa (zob. paradygmat 6.2), układając w specyficzny sposób porządek bodźców na liście niespójnej. N + l bodziec tej listy był napisany kolorem atramentu, który był tożsamy ze znaczeniem N-tego bodźca tej listy. Na przykład, jeśli na N-tej pozycji znajdował się wyraz „czerwony” napisany na zielono, to kolejny, N + l wyraz był pisany czerwonym atramentem. Neill wykrył, że reakcja na uprzednio tłumiony aspekt bodźca konfliktowego jest wolniejsza niż wówczas, gdy aspekt ten nie był uprzednio odrzucany. Podobne wyniki uzyskali Allport, Tipper i Chmiel (1985) oraz Tipper i Cranston (1985), wykorzystując zadanie na przeszukiwanie pola percepcyjnego, a także Allport, Tipper i Chmiel (1985) oraz Tipper (1985) w zadaniu na odróżnianie różnokolorowych kształtów figur. W różnych wersjach tych testów bodźce ignorowane w poprzednich próbach stawały się sygnałami w próbach kolejnych, wywołując spowolnienie mechanizmów selekcji informacji. Prowadząc dalsze badania nad efektem tłumienia dystrakcji Neill i Westberry (1987) odkryli, że efekt ten jest zależny od strategii rozwiązania przetargu między szybkością a poprawnością (zob. rozdz. 6.1.3). Gdy badani, wykonując zadanie Stroopa, poświęcali poprawność na rzecz szybkości, nie stwierdzono efektu tłumienia dystrakcji, gdy zaś poświęcali szybkość na rzecz poprawności efekt ten wystąpił z jeszcze większą siłą. Manipulując odstępem między poszczególnymi pozycjami testu, Neill i Westberry wykazali także, że tłumienie dystrakcji jest krótkotrwałe - proces ten jest aktywny przez najwyżej 1000 ms. Paradygmat badawczy, wykorzystany przez Neilla, został nazwany poprze­ dzaniem negatywnym (paradygmat 6.3). N-ty bodziec nazwano prymą, a N + l próbą testową. Własną wersję zadania w tym paradygmacie stworzył także Tipper (1985; Tipper, Driver, 1988; Driver, Tipper, 1989). W jego ekspery­ mentach zarówno pryma, jak i bodziec testowy tworzyły złożone układy symboli (liter i cyfr). Tipperowi udało się wykazać, że w takich warunkach efekt poprze­ dzania negatywnego może trwać nieco dłużej (1500 ms; w badaniach Kossow­ skiej, 2005 - nawet 2000 ms). May, Kane i Hasher (1995), powołując się na wyniki badań Tippera, Weavera, Camerona, Brehaut i Bastedo (1991), twierdzą, że efekt ten w specyficznych warunkach może trwać nawet do 6000 ms (w cytowanych badaniach Tippera i współpracowników poprzedzanie negatyw­ ne dotyczyło nazywania narysowanych obiektów). Przedstawione tu wyniki badań dowodzą, że odporność na dystrakcję jest ważnym mechanizmem kontrolnym, choć pokazują również, że możliwości w zakresie tłumienia zakłóceń ze strony systemu poznawczego są mocno ogra- 6.2. H am ow anie jako m echanizm kontrolny i S I i r i [ 259 niczone (Johnston i Dark). Dystraktory są często przetwarzane aż do momentu selekcji i wzbudzenia konkurencyjnej reakcji, wywołując w ten sposób interferencję procesów (Eriksen i Eriksen). Kontrola tej interferencji prowadzi z jednej strony do pozytywnych konsekwencji przetwarzania, jak np. przyspieszenie przeszukiwania pamięci świeżej (Eriksen, Eriksen i Hoffman) czy też zmiana charakteru przeszukiwania pola percepcyjnego z szeregowego na równoległy (Szymura). Z drugiej jednak strony, wywołuje ona zjawisko tłumienia dystrakcji (Neill), które jest szczególnie niekorzystne wtedy, gdy dystraktory stają się w kolejnych zadaniach sygnałami, na które trzeba zwrócić uwagę (poprzedzanie negatywne; Neill, Tipper). : Paradygmat 6.3 ) Poprzedzanie negatywne ; | Poprzedzanie negatywne polega na prezentowaniu bodźca poprzedzającego (pry! my), który utrudnia przetwarzanie bodźca właściwego. Zwykle obserwuje się wy| j dłużenie czasu potrzebnego na przetworzenie bodźca właściwego, poprzedzonego i I odpowiednio dobraną prymą, w porównaniu do bodźca niczym nie poprzedzonego | lub poprzedzonego prymą neutralną. | Tipper (1985; Tipper, Dreiver, 1988; Dreiver, Tipper, 1989) był zdania, że dla | efektywnej selekcji informacji konieczne jest skuteczne hamowanie dwóch typów ! f dystraktorów: bodźców specyficznie zakłócających, wywołujących interferencję, ; | i bodźców ogólnie zakłócających, nie powodujących interferencji. Paradygmat po1 przedzania negatywnego miał być tym, który pozwoli na zbadanie procesu tłu\ mienia dystrakcji specyficznej (Neill, 1977). Zadaniem osób badanych było zli- | czanie czerwonych bodźców, rozrzuconych wśród różnych liter i cyfr prezentowa| nych w tym samym czasie przez bardzo krótki okres (200 ms) (Tipper, Dreiver, f 1988; Dreiver, Tipper, 1989). Wyróżniono dwa rodzaje przedstawień, które nazwano I testowym {probe) i poprzedzającym (prime). Przedstawienia testowe zawierały tylko i czarne i czerwone litery, natomiast przedstawienia poprzedzające zawierały żarów| no czarne litery lub cyfry, jak i czerwone litery. Ze względu na bodziec poprzeI dzający (prymę) wyróżniono dwa typy zadań: (1) zadanie interferencyjne, w którym ; ij w kolorze czarnym w ramach prymy prezentowano cyfrę inną niż oczekiwany wynik | zliczania (liczba czerwonych bodźców) oraz (2) zadanie neutralne, w którym ■ 1 w kolorze czarnym prezentowano litery pozostające bez żadnego związku z ocze\ I kiwanym wynikiem zliczania. Ze względu na możliwe sposoby połączenia przed5 I stawienia poprzedzającego i testowego wyróżniono trzy warunki eksperymentalne: : (1) neutralno-kontrolny, w którym przedstawienia testowego i poprzedzania neutrali l nego nie łączyła żadna relacja; (2) interferencyjno-odmienny, w którym po prymie l interferencyjnej prezentowano przedstawienie testowe, zawierające inną liczbę j czerwonych liter niż ignorowana w prymie czarna cyfra oraz (3) interferencyjnoi -jednakowy, w którym po prymie interferencyjnej prezentowano przedstawienie, i zawierające liczbę liter zgodną z ignorowaną w prymie czarną cyfrą. Trzeci warunek nazywano warunkiem poprzedzania negatywnego. Uprzednio ; ignorowany bodziec (czarna cyfra) podpowiada oczekiwaną reakcję (liczbę i czerwonych cyfr). Ponieważ w przedstawieniu poprzedzającym był on odrzucany, ( obserwuje się wydłużenie czasu reakcji w przedstawieniu testowym. Tipper i Driver | f i ; ( f \ 260 Rozdział 6. Kontrola poznaw cza wykazali zarówno efekt poprzedzania negatywnego (warunek 3), jak i efekt po­ przedzania bodźcem zakłócającym, wywołującym interferencję (warunek 2). Ich zdaniem świadczy to o tym, iż w procesie selekcji wszystkie bodźce zakłócające, niezależnie od tego, czy wywołują interferencję czy też nie, są hamowane i w miarę możliwości odrzucane. Paradygmat poprzedzania negatywnego obejmuje liczne i różnorodne zadania poznawcze. Główne manipulacje dotyczą następujących warunków eksperymen­ talnych. (1) Odległość (w czasie) prymy i celu Neill i Westburry (1987) wykazali, że efekt poprzedzania negatywnego nie ujawnia się przy bardzo krótkich (do 50 ms) interwałach czasowych między po­ jawieniem się prymy i bodźca docelowego. Zauważyli także, że wielkość tego efektu obniża się zdecydowanie, gdy odstęp czasu między prezentacją prymy i bodźca docelowego jest większy niż 500 ms. Z kolei Tipper i współpracownicy (1991) potwierdzili możliwość utrzymywania się efektu poprzedzania negatywnego przez dłuższy okres (nawet 6600 ms). Co więcej, w przypadku dłuższych interwa­ łów czasowych wielkość efektu inhibicji ponownie rosła, będąc dwukrotnie większa przy odstępie 6600 ms niż przy interwale 3100 ms (22 ms. versus 10 ms). Brak efektu poprzedzania negatywnego w fazie przeduwagowej selekcji informacji i jego konsekwentne występowanie przez całą fazę uwagową świadczy na korzyść tezy, iż hamowanie jest mechanizmem kontrolnym, występującym tylko wtedy, gdy kon­ trola uwagowa może być efektywnie sprawowana. (2) Rodzaj bodźców, rodzaj zadań, rodzaj reakcji W badaniach nad efektem poprzedzania negatywnego rodzaj bodźców (np. litery versus obrazki), rodzaj zadania (np. nazywanie kolorów versus identy­ fikacja kształtów) oraz rodzaj reakcji (np. werbalna versus motoryczna) wydają się nie mieć większego znaczenia dla istotności uzyskiwanego efektu (May, Kane, Hasher, 1995). Wprawdzie wielkość efektu interferencji zależy zarówno od rodzaju reakcji Qest np. o 10 ms większa przy rekcji werbalnej niż motorycznej; Tipper, MacQueen, Brehaut, 1988), jak i od rodzaju bodźca (o 26 ms większa dla cyfr niż liter; Driver, Tipper, 1989), jednak manipulacje te nie mają wpływu na wielkość efektu negatywnego poprzedzania (Tipper i in., 1988; Tipper, 1989). Zdaniem May i jej współpracowników (1995) oznacza to, że mechanizm hamowania, ujaw­ niający się w zjawisku poprzedzania negatywnego, ma charakter centralny i jest związany z blokowaniem semantycznych, głębokich reprezentacji dystraktorów, niezależnie od ich powierzchniowego odzwierciedlenia w systemie poznawczym (zob. rozdz. 2). (3) Kontekst zewnętrzny poprzedzania negatywnego Omawiany efekt występuje tylko w kontekście konieczności dokonywania procesu selekcji w obrębie pary bodźców. Lowe (1979) wykazał skuteczną redukcję hamowania w warunku reakcji na pojedynczy bodziec, gdy dystraktor nie był obecny w prezentacji testowej. Udało mu się także wykazać, iż na wielkość efektu poprzedzania negatywnego mają wpływ oczekiwania osób badanych odnośnie do trudności zadania do wykonania. Jeśli próba testowa wykorzystuje mechanizmy selekcji, to przeświadczenie respondentów o jej trudności rośnie i - tym samym wzrasta wielkość efektu hamowania, co można wyjaśniać większym zaangażowa­ niem mechanizmów kontrolnych w przetwarzanie informacji. Z kolei Neill I Westberry 6.2. H am ow anie jako m echanizm kontrolny I j | 261 (1987) pokazali, że w celu zwiększenia efektu poprzedzania negatywnego wystarczy wzbudzić oczekiwania osób badanych odnośnie do wysokiego poziomu wymagań, niezależne od rzeczywistej trudności zadania. Efekt ten może więc pojawić się również w prostym zadaniu na nazwanie koloru atramentu, wykonywanym bez konieczności selekcji, jeśli tylko badani nabędą przeświadczenie o dużej trudności takiego testu. Zdaniem May i jej współpracowników (1995) : oznacza to, że mechanizm poprzedzania negatywnego jest adaptacyjny i elastyczny - możliwe jest bowiem dostosowanie jego funkcjonowania (aż do możliwości całkowitej redukcji) do zmiennych warunków trudności zadania. i i i i ® ; f i£ j; i; | 6.2.4. Odporność na interferencję proaktywną E' j: i Pamiętanie czegoś może powodować zapominanie innych informacji. Odpamię» tywanie informacji z konkretnej kategorii, np. numeru telefonu do przyjaciela, może spowodować brak możliwości przypomnienia innej informacji z tej samej kategorii, np. numeru telefonu członka rodziny, choć nie ma wpływu na odpamiętywanie informacji z innych kategorii. Zagadnieniem odporności na inter­ ferencję pamięciową zajęli się Anderson, Bjork i Bjork (1994). Zaobserwowany przez siebie efekt nazwali zapominaniem z powodu przywoływania (retrieval-induced forgetting). W badaniach nad tym efektem uczestnicy eksperymentu z reguły zapamiętują listę par egzemplarzy, należących w każdej parze do tej samej kategorii. Następnie ćwiczą się (powtarzając egzemplarze) w odpamiętywaniu tylko niektórych egzemplarzy z wybranych kategorii. Wreszcie ich zadaniem jest przywołanie wszystkich wyuczonych w pierwszym etapie egzem­ plarzy, przy czym w trakcie przywoływania dysponują oni nazwą kategorii jako wskazówką pamięciową. W wyniku zastosowania takiej właśnie procedury z reguły stwierdza się, że: (1) odpamiętywane wyrazy należą głównie do ćwiczonych kategorii (co oczywiste) oraz (2) przywołanie niepowtarzanych egzemplarzy z ćwiczonych kategorii jest znacznie słabsze niż egzemplarzy z niećwiczonych kategorii (co intrygujące). Przeprowadzając tego typu eksperymenty Perfect, Moulin, Conway i Perry (2002) pokazali dodatkowo, że proces rozpoznawania niepowtarzanych egzemplarzy z ćwiczonych kategorii jest znacznie wolniejszy niż proces roz­ poznawania pozostałych rodzajów reprezentacji pamięciowych tworzonych w trakcie badania. W innych badaniach (Anderson, Spellman, 1995) okazało się, że efekt zapominania z powodu przywoływania jest niezależny od rodzaju wskazówki pamięciowej. Anderson i Spellman umieścili na listach par słów egzemplarze należące do różnych kategorii, a następnie próbowali wydobyć od badanych informacje niepowtarzane, stosując różne wskazówki pamięciowe. Efekt był zawsze ten sam - liczba niepowtarzanych przedstawicieli ćwiczonych kategorii była istotnie niższa niż liczba innych reprezentacji pamięciowych. Wyniki badań nad zapominaniem z powodu przywoływania uzupełnili Veiling i van Knippenberg (2004), dowodząc, że czas rozpoznawania niepowtarzanych egzemplarzy ćwiczonych kategorii jest wolny i niezależny od użytej wskazówki. Wszystkie te wyniki sugerują, że efekt zapominania z powodu przywoływania 262 Rozdział 6. Kontrola poznawcza jest niezależny od rodzaju przywoływania (odpamiętywanie versus rozpozna­ wanie) oraz rodzaju wskazówki w odpamiętywaniu. Analizując wyniki badań nad zapominaniem z powodu przywoływania Perfect, Moulin, Conway i Perry (2002) zdefiniowali proces hamowania pamię­ ciowego, jako redukcję w zakresie poziomu aktywacji reprezentacji pamięciowej. W trakcie ćwiczenia poprzez powtarzanie poszczególnych egzemplarzy danej kategorii dochodzi bowiem do równoległego procesu relatywnego wzmacniania poziomu aktywacji ćwiczonych egzemplarzy i redukcji poziomu aktywacji egzemplarzy niećwiczonych. W konsekwencji odpamiętywane są przede wszyst­ kim egzemplarze ćwiczone. W przypadku niećwiczonych kategorii, nie tworzy się relatywna nierównowaga w poziomie aktywacji reprezentacji pamięciowych wszystkie uzyskują podobne wzmocnienie w procesie uczenia się, wszystkie mogą być też odpamiętane ze stosunkowo zbliżonym prawdopodobieństwem. Jak słusznie zauważają Veiling i van Knippenberg (2004), próba definicji hamowania pamięciowego, dokonana przez Perry’ego i współpracowników, bar­ dziej jednak przypomina proces biernego zapominania nieaktywnych reprezenta­ cji pamięciowych niż proces czynnego hamowania reprezentacji mniej aktyw­ nych. Chcąc wykazać, iż zapominanie przez przywoływanie ma jednak cechy aktywnego procesu hamującego, Veiling i van Knippenberg w eksperymencie drugim zmienili zadanie wykorzystywane w celu uzyskania tego efektu. Zamiast testu pamięci jawnej użyli zadania na pamięć ukrytą w paradygmacie podejmo­ wania decyzji leksykalnych (LDT; zob. rozdz. 5.3). Zadaniem osób badanych było podjęcie decyzji, czy słowo w ich ojczystym języku, prezentowane na ekranie, jest napisane poprawnie czy też błędnie. Okazało się, że średni czas decyzji w przy­ padku egzemplarzy kategorii niećwiczonych był taki sam jak dla powtarzanych egzemplarzy kategorii ćwiczonych (542 ms), natomiast średni czas decyzji w przy­ padku niepowtarzanych egzemplarzy kategorii ćwiczonych był istotnie dłuższy (o 32 ms). Veiling i van Knippenberg w dyskusji wyników swojego badania wyraźnie podkreślają, że - ze względu na wykorzystany test LDT - uzyskanych przez nich rezultatów nie można interpretować w kategoriach biernego za­ pominania, ale należy je rozumieć jako przykład aktywnego blokowania dostępu do niektórych egzemplarzy. Sugerują także, iż zjawisko zapominania przez przy­ woływanie powinno zmienić nazwę na efekt hamowania przez przywoływanie. 6.2 .5 . Czy ham owanie jest konstruktem jednorodnym? Nigg (2000) zaproponował szczegółową klasyfikację rodzajów hamowania, uwzględniającą sześć podstawowych mechanizmów tego typu. Wśród wyróż­ nionych typów znalazły się: (1) kontrola interferencji, czyli niedopuszczanie do interferencji konfliktowych aspektów bodźców lub reakcji albo osłabianie skutków takiej interferencji; (2) hamowanie percepcyjne, czyli tłumienie od­ ruchu sakkadowego; (3) hamowanie poznawcze, czyli tłumienie irrelewantnych reprezentacji umysłowych; (4) hamowanie behawioralne, czyli tłumienie zbędnych reakcji; (5) hamowanie powrotu, czyli niedopuszczanie do powrotu uwagi do miejsca lokalizacji poprzedniego bodźca, oraz (6) hamowanie uwagowe odruchu orientacyjnego, polegające na niedopuszczeniu do przekierowania uwagi do miejsca lokalizacji nowego bodźca. W swojej taksonomii Nigg 6.2. Hamowanie jako mechanizm kontrolny ! j | I ; I i ; ; | ! 263 uwzględnił trzy wymiary: (1) automatyczność procesu (wysiłkowy lub bezwysiłkowy), (2) poziom przetwarzania informacji (hamowanie poznawcze lub behawioralne) oraz (3) aktywność procesu (aktywne hamowanie lub bierna od­ porność na zakłócenie). W ten sposób kontrola interferencji i hamowanie percepcyjne zostały zaliczone do biernych i wysiłkowych procesów poznawczych (na płytkim poziomie przetwarzania), hamowanie poznawcze - do aktywnych i wysiłkowych procesów poznawczych (na głębokim poziomie przetwarzania), hamowanie behawioralne - do aktywnych i wysiłkowych procesów behawioral­ nych, a hamowanie powrotu i hamowanie odruchu orientacyjnego - do aktyw­ nych i bezwysiłkowych procesów poznawczych (na płytkim poziomie przetwa­ rzania). Dokładne omówienie klasyfikacji Nigga wraz z przykładami wskaźni­ ków pomiarowych oraz korelatów neuronalnych poszczególnych rodzajów hamowania znaleźć można w książce Małgorzaty Kossowskiej (2005). Częściowo odmienną taksonomię rodzajów hamowania zaproponowali Friedman i Miyake (2004). Według tych autorów warto wyróżniać tylko trzy rodzaje hamowania. Pierwszym jest hamowanie dominującej reakcji {prepotent response inhibition). Testem pozwalającym mierzyć skuteczność tego rodzaju hamowania jest - zdaniem Friedmana i Miyake - zadanie Stroopa (1935). W teście tym badani muszą powstrzymać narzucającą się czynność czytania słowa, aby móc nazwać kolor atramentu, którym słowo to jest napisane. Ten rodzaj hamowania łączy w sobie cechy hamowania behawioralnego i percepcyjnego - jest ono aktywne, wysiłkowe, intencjonalne i może przebiegać na różnych poziomach selekcji. Drugi rodzaj hamowania to odporność na dystrakcję (resistance to distractor interference). Dzięki temu procesowi kontrolnemu możliwe jest odrzucenie informacji irrelewantnych, czyli nieistotnych z punktu widzenia aktualnie przetwarzanych danych. Ten typ hamowania bliski jest więc w kla­ syfikacji Nigga kontroli interferencji (jeśli wykluczy się z niej interferencję reakcji, uwzględnioną już w hamowaniu dominującej reakcji) i hamowaniu uwagowemu, zarówno odruchu orientacyjnego, jak i powrotu. Friedman i Miya­ ke nie uwzględniają jednak w ogóle hamowania w uwadze, sprowadzając odporność na dystrakcję jedynie do kontroli interferencji. Zadaniem, które ich zdaniem pozwala zmierzyć skuteczność odporności na dystrakcję jest Test flankerów (Eriksen, Eriksen, 1974). W teście tym badani muszą dokonać identyfi­ kacji litery w warunku, gdy jest ona otoczona („oflankowana”) innymi literami. W warunku kontrolnym tego zadania litery wymagające rozpoznania prezentuje się bez dystraktorów lub w otoczeniu liter identycznych (zob. rozdz. 6.2.3). Trzeci rodzaj hamowania to odporność na interferencję proaktywną (resistance to proactive interference). Odpowiada on hamowaniu poznawczemu - jest procesem aktywnym i wysiłkowym, prowadzonym przy wykorzystaniu głębokich, trwałych reprezentacji umysłowych. Zadaniem pozwalającym zmierzyć siłę tego typu hamowania jest, według Friedmana i Miyakego, jeden z wariantów zadania Petersonów (Peterson, Peterson, 1959). Polega ono na odpamiętywaniu egzemplarzy pojedynczej kategorii, które wcześniej są sukcesywnie prezentowa­ ne. Procedura tego rodzaju wymusza intruzje w przywoływanym materiale. Jeśli na przykład lista zawiera tylko nazwy zwierząt, w odpamiętywanym materiale znajduje się dużo nazw zwierząt nie włączonych do pierwotnej listy. Im większa siła hamowania, tym mniej takich intruzji. 264 Rozdział 6. Kontrola poznaw cza i 100 ms i t I maska maska 600 ms 100 ms 500 ms 100 ms t b 6.2. Hamowanie jako mechanizm kontrolny - f j. { S i j ! sif | | 265 Badania Friedmana i Miyakego (2004) ujawniły, że odporność na interfe­ rencję proaktywną jest jakościowo odmienną formą hamowania. Ten typ ha­ mowania nie korelował w ogóle z odpornością na dystrakcję (-0,03), wykazując jedynie słaby, pozytywny związek z hamowaniem dominującej reakcji (0,18). Z kolei odporność na dystrakcję okazała się silnie powiązana z hamowaniem dominującej reakcji (0,68), podważając hipotezę o odrębności tych dwóch ro­ dzajów hamowania. Dodatkowo, zadanie Stroopa okazało się najlepszym zada­ niem mierzącym siłę hamowania dominującej reakcji (korelacja wyniku testu Stroopa i czynnika hamowania dominującej reakcji wyniosła 0,55), a Tęst flankerów najlepszym sposobem pomiaru siły odporności na dystrakcję (korelacja wyniku Testu flankerów i czynnika hamowania dystrakcji wyniosła 0,42). Jedynie zadanie Petersonów okazało się relatywnie słabym testem odporności na interferencję proaktywną (korelacja wyniku testu Petersonów i czynnika hamo­ wania pamięciowego wyniosła 0,29). Znacznie lepsze w tym względzie okazało się zadanie odpamiętywania ze wskazówką (Tolan, Tehan, 1999; korelacja wy­ niku Testu Tolanów i czynnika hamowania pamięciowego wyniosła 0,47), w którym badani zapamiętywali najpierw dwie listy wyrazów, a następnie odpamiętywali tylko drugą z nich, broniąc się przed interferencją płynącą z zapa­ miętywania pierwszej listy. Przezwyciężali tym samym tzw. efekt pierwszeństwa (zob. rozdz. 9), co należy zinterpretować jako przejaw skutecznej kontroli poznawczej. Friedman i Miyake (2004) sprawdzili także, czy wyróżnione rodzaje hamowania wpływają na wykonanie dwóch zadań, wymagających znaczącej kontroli poznawczej: zadania na poprzedzanie negatywne (paradygmat 6.3) i testu przerzutności uwagi (paradygmat 5.5). W pierwszym przypadku bada­ ny miał zareagować na jeden z dwóch bodźców, który w poprzedniej parze znaków powinien być ignorowany (ryc. 6.7). W drugim przypadku wymagano od osób badanych elastycznej zmiany w zakresie przetwarzania informacji alfabetycznych albo numerycznych, w zależności od wskazówki. Wykonanie zadania na poprzedzanie negatywne w niewielkim stopniu zależało od kombinowanego czynnika odporności na dystrakcję i hamowania dominującej reakcji (0,19), natomiast wyniki testu na przerzutność, jak się okazało zależą niemal wyłącznie od tego czynnika (0,91). Odporność na interferencję pro­ aktywną nie była istotnie związana z wykonaniem żadnego z dwóch powyż­ szych zadań. Można więc sformułować wniosek, że, niestety, próba strukturalnej dywer­ syfikacji rodzajów hamowania nie powiodła się. Friedman i Miyake zaproponowali redukcję sześciu rodzajów hamowania, znanych z taksonomii Nigga, do trzech tylko typów, pominąwszy zupełnie hamowanie w zakresie uwagi. Dwa Reakcja następuje na każdą kartę zawierającą bodźce (wyrazy lub kształty). Bodziec docelowy w parze jest narysowany zawsze na czarno, a bodziec ignorowany na biało, a - pryma z dystraktorem b - pryma bez dystraktora c - bodziec docelowy w układzie negatywnego poprzedzania d - bodziec docelowy w układzie kontrolnym Ryc. 6.7. Przykłady zadań do badania poprzedzania negatywnego z wykorzystaniem bodźców werbalnych i niewerbalnych (za: Friedman, Miyake, 2004). 266 Rozdział 6. Kontrola poznawcza proponowane przez nich typy hamowania: odporność na dystrakcję i hamowanie dominującej reakcji, okazały się silnie powiązane wzajemnie, a z kolei odpor­ ność na interferencję proaktywną nie wykazywała żadnych związków z pozo­ stałymi formami hamowania. Łatwo zrozumieć związek pierwszych dwóch typów hamowania, gdy zastanowić się nad procesami biorącymi udział w wykonywaniu zadania Stroopa i Testu flankerów. W przypadku obu zadań trzeba zarówno stłumić dominującą reakcję (przeczytanie słowa w zadaniu Stroopa lub nazwanie bodźca otaczającego literę w Teście flankerów), jak i obronić się przed dystrakcją (znaczenie słowa w zadaniu Stroopa i znaczenie dominujących ze względu na swą liczbę bodźców otaczających nazywaną literę w Teście flankerów). Zresztą Test flankerów bywa traktowany jako substytut zadania Stroopa (MacLeod, 1991). Zadania uznane przez Friedmana i Miyakego za kluczowe dla wyróżnionych typów hamowania mogą więc, jak się wydaje, być diagnostyczne również dla innych rodzajów tego zjawiska. W efekcie swych analiz Friedman i Miyake uzyskali więc tylko dwa czynniki hamowania, z których pierwszy można byłoby określić mianem uwagowego, a drugi pamięciowego. Tym dwóm rodzajom hamowania zdają się odpowiadać dwa typy interferencji: zasobowa interferencja uwagowa i proaktywna interferencja pamięciowa. Chcąc więc uporządkować strukturalnie przestrzeń różnych rodzajów hamowania, Friedman i Miyake sprowadzili je do dwóch, wcześniej dobrze już znanych mechanizmów (interferencja a zasoby Kahneman, 1973; interferencja a odpamiętywanie - Keppel i Underwood, 1962), znacznie upraszczając problem. Na podstawie dostępnych wyników badań i analiz teoretycznych trudno więc jednoznacznie rozstrzygnąć kwestię jednorodności mechanizmu hamowania. Na uwagę zasługują natomiast wyniki dotyczące przerzutności uwagi i poprzedzania negatywnego. Friedmanowi i Miyakemu udało się wykazać, że odporność na dystrakcję i hamowanie domi­ nującej reakcji odpowiadają niemal całkowicie za redukcję kosztów prze­ rzutności, a ponadto, że procesy te nie mają nic wspólnego z odpornością na poprzedzanie negatywne. 6.3. Funkcje zarządcze 6.3 .1 . Istota funkcji zarządczych czyli h o m u n cu lu s odnaleziony Psychologowie poznawczy od lat opisują różne, często bardzo złożone procesy przetwarzania informacji. Wiele już wiadomo np. na temat strategii podejmo­ wania decyzji, sposobów rozwiązywania problemów czy funkcjonowania reprezentacji umysłowych. Poszczególne rozdziały tego podręcznika wiedzę tę przedstawiają i ilustrują bogatym materiałem empirycznym. Nadal jednak nierozwiązany pozostaje problem homunculusa (Nęcka, 2004) - odnalezienia, opisania i wyjaśnienia mechanizmów działania Tego, który buduje reprezenta­ cje, steruje myśleniem i podejmuje ważne dla całości systemu poznawczego decyzje, a więc Tego, który mówiąc wprost kontroluje działanie systemu po­ znawczego. Próby rozwiązania problemu homunculusa sprowadzają się w psy­ chologii do podejścia funkcjonalnego, w którym określa się sposób działania 6.3. Funkcje zarządcze f jj I I f S I ; : f = l l i i l i ; I 1; 5 l f i 267 mechanizmów kontrolnych, wskazując przy tym na ich różnorodne ograniczenia. Posługując się takim podejściem, omówiono w tym rozdziale mechanizmy automatyzacji (zob. rozdz. 6.1) i hamowania (zob. rozdz. 6.2), a w rozdziale poprzednim - podzielności (zob. rozdz. 5.2.4) i przerzutności uwagi (zob. rozdz. 5.2.5). Homunculus odnaleziony przez psychologów poznawczych (jakkolwiek tylko funkcjonalnie) ma różne nazwy. Zazwyczaj jednak określa się go mianem funkcji zarządczych (executive function). Od bardzo dawna (Gall, 1798; Liu, 1704; za: Zhu, 1989) wyrażano przekonanie, że w przednich płatach czołowych mózgu zlokalizowane są mechanizmy kontrolne procesów przetwarzania informacji. Ze względu na to, że mechaniżmy te wydają się odpowiadać za ukierunkowanie zachowania, zostały one nazwane zarządczymi. Są one niespecyficzne w tym sensie, że nie jest ich bezpośrednim zadaniem realizowanie jakiejkolwiek konkretnej formy przetwarzania informacji (np. myślenia indukcyjnego spostrzegania czy zapamiętywa­ nia). Ich upośledzenie (np. wskutek uszkodzeń strukturalnych mózgu lub lezji przednich płatów czołowych) zakłóca jednak wykonywanie wszelkich operacji poznawczych, przebiegających w dowolnych obszarach umysłu (Baddeley i in., 1997). Deficyty te noszą wspólną nazwę syndromu czołowego (frontal syn­ drome; Baddeley i in., 1997) i mają swoje konsekwencje w postaci dezorganiza­ cji wszystkich form zachowania. Badanie funkcji zarządczych jest jednak bardzo trudne. Kwestia ta w nieco węższym zakresie - tylko w odniesieniu do badań nad funkcjonowaniem me­ chanizmu hamowania - została omówiona już wcześniej (Friedman, Miyake, 2004; zob. rozdz. 6.2.1). Główny problem w badaniu funkcji zarządczych Baddeley i jego współpracownicy (1997) widzą w zależności wyników testów tych funkcji od zdolności w zakresie procesów przetwarzania informacji, których wykonanie w danym teście nadzoruje system kontrolny. Nie da się badać nad­ zoru w oderwaniu od tego, co jest nadzorowane. Dodatkowo, jedną z ważnych, immanentnych cech funkcji zarządczych wydaje się nieustanne dążenie do coraz większej wprawy w nadzorowaniu czynności - ponawianie badań z użyciem tego samego testu funkcji zarządczych z udziałem tych samych badanych prowadzi do znacznego uzależnienia wyników od efektu nabywania wprawy (Reitan, Wolfson, 1994), czy wręcz od wtórnej automatyzacji wykonania (Duncan, 1995). Co więcej, nie istnieje takie narzędzie, które pozwalałoby na zmierzenie jednocześnie wszystkich dysfunkcji w zakresie kontroli - w efekcie poszczególne testy funkcji zarządczych są używane łącznie, wykazując w różnych badaniach mniejszą lub większą wspólną wariancję w zakresie mierzonych procesów nadzoru (Baddeley i in., 1997). Prowadzi to do wyróżniania coraz to nowych funkcji zarządczych i nieustannego tworzenia strukturalnych teorii owych funkcji na podstawie uzyskanych współczynników korelacji. : 6.3.2. Rodzaje funkcji zarządczych | f f | Badaniem struktury funkcji zarządczych zajął się Miyake wraz ze współpracownikami (2000). Zastosowali oni w swoim badaniu na dużej próbie osób zdrowych (bez dysfunkcji czołowych) wiele różnych zadań, uważanych za testy funkcji zarządczych. Testy te odnoszą się do różnych procesów przetwarzania 268 Rozdział 6. Kontrola poznawcza informacji, zarówno elementarnych (np. selektywna uwaga w warunku przerzutności - Wisconsin Card Sorting Test), jak i złożonych (np. rozwiązywanie problemów - Wieża z Hanoi). W wyniku analiz korelacyjnych i czynnikowych (podobnych jak dla funkcji hamowania; Friedman, Miyake, 2004), autorom udało się wykazać istnienie trzech odrębnych funkcji zarządczych. Wprawdzie poziom wykonania testów diagnostycznych dla tych funkcji był pozytywnie skorelowany ze sobą, ale relatywnie niewielki procent wspólnej wariancji suge­ rował raczej odrębność wyróżnionych funkcji. Konfirmacyjna analiza czynni­ kowa nie potwierdziła także istnienia czynnika wyższego rzędu - generalnego czynnika funkcji zarządczych. Miyake, Friedman, Emerson, Witzki i Howerter (2000) wymieniają więc wśród funkcji zarządczych następujące ich rodzaje: (1) przerzutność (pomiędzy zadaniami, procesami, czynnościami); (2) hamowanie (niepożądanej reakcji, bodźców zakłócających, narzucających się reprezentacji umysłowych) oraz (3) odświeżanie informacji w zakresie pamięci roboczej. Kluczowymi dla po­ szczególnych rodzajów funkcji zarządczych okazały się następujące zadania: (1) Wisconsin Card Sorting Test dla przerzutności; (2) Wieża z Hanoi dla ha­ mowania (tu: dominującej reakcji) oraz (3) Test Sternberga dla odświeżania informacji w zakresie pamięci roboczej. Fakt stwierdzonych korelacji między wyróżnionymi rodzajami funkcji zarządczych Miyake i współpracownicy wyjaś­ nili heterogenicznym charakterem użytych testów. Na przykład wykorzystane przez nich zadanie na generowanie interwałów losowych (Vandierendonck, de Voight, Van der Gotten, 1998) wymagało wykorzystania zarówno hamowa­ nia dominującej (tu: rytmicznej) reakcji, jak i odświeżania zawartości pamięci roboczej (Vandierendonck, 2000). Zadanie to silnie angażuje funkcje zarządcze pamięci roboczej, przez co jego realizacja jednocześnie z innymi zadaniami, wymagającymi kontroli, prowadzi do nieuniknionej interferencji. W badaniu stwierdzono zresztą także korelacje poziomów wykonania po­ szczególnych testów funkcji zarządczych. Autorzy analiz zasugerowali, że kore­ lacje te mogą wynikać z faktu wykorzystywania przez badanych dwóch ogólnych zdolności, które pomagają w rozwiązaniu każdego testu. Po pierwsze, wszystkie wykorzystane testy wymagają utrzymywania w pamięci roboczej uprzednio otrzymanych informacji o celu oraz treści wykonywanego zadania. Wymagają zatem zarówno zasobów kontroli uwagowej (aktywne podtrzymanie celu podanego w instrukcji), jak i pojemności pamięci prospektywnej (przechowanie celu przyszłej czynności; Marsh, Hicks, 1998). Po drugie, każde z zastosowanych zadań wymaga generalnych zasobów systemu, które można przeznaczyć na niespecyficzne hamowanie treści w danym momencie irrelewantnych. Istnienie generalnej zdolności do hamowania postulowali np. Dempster i Corkill (1999), jednak Friedman i Miyake (2004) nie byli w stanie wykazać jej istnienia (zob. rozdz. 6.2.2). Niestety, nie można stworzyć zadań nie wymagających udziału pamięci celu, ani wykonywać ich w warunkach nie wymagających w ogóle hamowania informacji nieistotnych. Odrębną kwestią pozostaje, czy odwołanie się do tak ogólnych zdolności czy też właściwości sytemu poznawczego dobrze wyjaśnia stwierdzone korelacje poziomu wykonania poszczególnych zadań wykorzystanych przez Miyakego i współpracowników. W badaniach tych (Miyake i in., 2000) wykryto także jeden test, którego rozwiązywanie nie było związane z żadnym z wyróżnionych rodzajów funkcji 6.3. Funkcje zarządcze ! | j j [■ j ; i ; I i : ■ i ! 269 zarządczych. Co ciekawe, było to jedno z najbardziej złożonych zadań, jakie badani musieli wykonać, a więc taki test, w którego wykonywanie powinno być uwikłanych wiele różnych mechanizmów kontrolnych. Zadaniem tym był test selektywnej uwagi w warunku koniecznej jej podzielności. Badani musieli wykonywać jednocześnie dwa zadania: generowania słów i rozróżniania kształtów geometrycznych. Wprawdzie zadania te pozbawione były interferencji strukturalnej, ale trudność w ich wykonaniu polegała na konieczności odpo­ wiedniego zarządzania zasobami uwagi (interferencja zasobowa) i pojemnością pamięci krótkotrwałej. Dlatego też Collette i Van der Linden (2002) postulują dołączenie do taksonomii funkcji zarządczych, zaproponowanej przez Miyake i współpracowników, kolejnego, czwartego ich rodzaju - koordynacji wykonywania czynności jednoczesnych. Collette i Van der Linden (2002) dokonali także przeglądu badań nad neuronalnymi korelatami funkcji zarządczych. Zaprzeczyli tezie, iż funkcje zarządcze należy lokalizować tylko w przednich płatach czołowych. Wykonanie szeregu zadań na wszystkie cztery rodzaje funkcji zarządczych wymagało akty­ wacji zarówno przednich płatów czołowych, jak i płatów tylnych, a w szcze­ gólności ciemieniowych obszarów kory mózgowej nawet wtedy, gdy wpływ obciążenia pamięci treścią zadania został z analiz wykluczony. W innych ba­ daniach, nad pacjentami z chorobą Alzheimera, Collette, Van der Linden i Delrue (2002) wykazali, że dysfunkcje zarządcze mogą być związane nie tyle z zaburzeniem funkcjonowania płatów czołowych, ile z uszkodzeniem połączeń pomiędzy przednimi a tylnymi rejonami mózgu. Z kolei Owen (2000; Duncan, Owen, 2000) stwierdził, że mechanizm hamowania dominującej reakcji należy lokalizować tylko w części przednich płatów czołowych, zawierających obsza­ ry: środkową część grzbietowo-boczną, środkową część brzuszno-boczną oraz grzbietową część przedniej części zakrętu obręczy. Z analizy powyższych argumentów empirycznych wynika, że, z jednej stro­ ny, w obrębie płatów czołowych może występować specjalizacja dotycząca lo­ kalizacji poszczególnych funkcji zarządczych, a z drugiej zaś, że rejonów mózgu odpowiedzialnych za sprawowanie funkcji zarządczych należałoby poszukiwać również poza przednimi płatami czołowymi. Oznacza to, że poszukiwanie w mózgu lokalizacji homunculusa odpowiadającego za kontrolę są dalekie od zakończenia. Próba teoretycznego opracowania koncepcji funkcji zarządczych zaowocowała wieloma modelami kontroli poznawczej. Najbardziej znanymi wśród nich są koncepcje: markerów somatycznych (Damasio, Tranel, Damasio, 1991); mechanizmów uwagowych (Posner, 1980, 1994/1999; Norman, Shallice, 1986; Shallice, 1988) oraz mechanizmów pamięciowych (Baddeley, 1986, 1996, 2002). Poniżej przedstawione zostaną teorie uwagowe Posnera i Shallice’a oraz teoria pamięciowa Baddeleya, która de facto, jak się okaże, również jest teorią kontroli uwagowej. Natomiast omówienie koncepcji markerów somatycznych znaleźć można w pracy Aliny Kolańczyk (2004). ; 6.3.3. Mechanizm zarządczy w koncepcji uwagi Posnera ; Zgodnie z koncepcją Posnera (1980, 1994/1999) istnieją trzy podstawowe mei chanizmy uwagowe. Pierwszy z nich to mechanizm aktywacyjny. Zadaniem i uwagi jest m.in. podtrzymanie umysłu w stanie pobudzenia niezbędnego do 270 Rozdział 6. Kontrola poznawcza wykonania danej czynności poznawczej. Zależność różnych aspektów funkcjo­ nowania uwagi od mechanizmu pobudzeniowego jest często uwzględniana, zwłaszcza w koncepcjach uwagi podzielnej (Kahneman, 1973; Nęcka, 1994; zob. rozdz. 5.2.4) oraz w teoriach przedłużonej w czasie koncentracji uwagi (Davies, Tune, 1969; Davies, Parasuraman, 1982; zob. rozdz. 5.2.3). Zgodnie z tymi koncepcjami poziom pobudzenia jest wprost proporcjonalny do ilości zasobów, jakie można przeznaczyć na jednoczesne wykonanie różnych czyn­ ności poznawczych, oraz do ilości czasu, w którym można koncentrować uwagę na rzadko pojawiających się sygnałach. Drugi z wyróżnionych przez Posnera mechanizmów funkcjonowania uwagi to mechanizm orientacyjny. Mechanizm ten odpowiada za przenoszenie uwagi w polu percepcyjnym z obiektu na obiekt. Jego funkcjonowanie opisują wyniki badań w paradygmacie przeszukiwania pola wzrokowego (Treisman, 1988; Yantis, Jonides, 1984; zob. rozdz. 5.2.2). Mechanizm orientacyjny włącza się, gdy w polu wzrokowym nastąpi jakakolwiek zmiana stymulacji, np. wtedy, gdy pojawi się w nim nowy bodziec (Yantis, Jonides, 1984) lub bodziec już w polu występujący zostanie wprawiony w ruch (Tarnowski, Terelak, 1996). Bodziec taki przyciąga uwagę, niezależnie od tego czy jest sygnałem, czy też dystraktorem (Theeuwes, 1994). Włączenie mechanizmu orientacyjnego w odpowiedzi na zmianę w polu percepcyjnym ma charakter automatyczny, a sprawowanie nad nim kontroli jest możliwe, ale znacznie utrudnione, nawet wtedy, gdy badani znają możliwą lokalizację sygnałów i bodźców zakłócających (Godijn, Theeuwes, 2002). Ostatnim z wyróżnionych przez Posnera i jednocześnie najważniejszym z punktu widzenia tych rozważań mechanizmem uwagi jest mechanizm zarząd­ czy. Odpowiada on za kontrolę wykonania czynności celowych (np. za detekcję określonego typu sygnałów). Mechanizm zarządczy bierze górę nad mechaniz­ mem orientacyjnym w przypadku funkcjonowania uwagi człowieka dorosłego. Na przykład wskazuje podróżnemu poszukiwanie informacji o czasie odjazdu pociągów na żółtym rozkładzie jazdy - rozkład odjazdów, a nie na białym rozkład przyjazdów. Tak więc mechanizm orientacyjny odpowiada z grubsza uwadze mimowolnej, a zarządczy - uwadze dowolnej. Przewagę mechanizmu zarządczego nad orientacyjnym wykazał w swoich badaniach Theeuwes wraz ze współpracownikami (1999; Godijn, Theeuwes, 2002; choć wyniki tych badań Theeuwes skłonny był interpretować przeciwnie; por. Theeuwes, 2001; Szy­ mura, 2004). W ich eksperymentach okazało się, że w przypadku tylko jednej trzeciej ogółu zadań detekcyjnych badani ulegali mechanizmom orientacyjnym, programując błędny ruch sakkadowy gałek ocznych w stronę lokalizacji poja­ wiającego się właśnie w ich polu widzenia dystraktora, mimo że zdawali sobie sprawę z tego, iż w tej lokalizacji pojawienie się sygnału nie jest możliwe. Po 100 ms fiksacji na bodźcu zakłócającym, mechanizm zarządczy uwagi dokony­ wał korekty, programując ruch sakkadowy gałek ocznych w kierunku lokalizacji następnego sygnału pojawiającego się w polu wzrokowym. Jednak w przypadku aż dwóch trzecich ogółu zadań detekcyjnych mechanizm zarządczy sprawował skuteczną kontrolę nad mechanizmem orientacyjnym, uniemożliwiając przekierowanie percepcji i uwagi na bodziec zakłócający. W innym eksperymencie Theeuwes i Burger (1998) wykazali, że mechanizm zarządczy może skutecznie ograniczyć interferencję płynącą z bodźców zakłóca- 6.3. Funkcje zarządcze 271 jących, jeśli system poznawczy z wyprzedzeniem zna np. kolor, odróżniający oba l rodzaje bodźców: sygnał i dystraktor. Z kolei wiadomo, że fałszywe wskazówki dla mechanizmu zarządczego znacznie pogarszają efektywność uwagi selektywnej - mechanizm zarządczy steruje wtedy mechanizmem orientacyjnym w stronę, f w której sygnał się nie pojawia, a szybkość detekcji znacznie się obniża (Posner, i Nissen, Ogden, 1978; Theeuwes, Kramer, Atchley, 1999). Z powyższych danych wynika, że zarządczy mechanizm uwagi odpowiada za takie funkcje kontrolne, jak hamowanie uwagowego odruchu orientacyjnego \ oraz kontrolę interferencji pochodzenia zewnętrznego (odporność na dystrakcję). Niepowodzenie w funkcjonowaniu tego mechanizmu odpowiada natomiast za hamowanie powrotu (inibition oj return), czyli niedopuszczanie do powrotu uwagi do wskazanego miejsca pojawienia się sygnału. Hamowanie powrotu | zostało stwierdzone po raz pierwszy przez Posnera i Cohena (1984). Zauważyli oni, że relewantna wskazówka odnośnie do lokalizacji sygnału przyspiesza jego detekcję do 150 ms po jej prezentacji. Jednak w 300 ms po prezentacji relewantnej wskazówki następuje znaczne pogorszenie szybkości detekcji sygnału w pozycji przez nią wskazanej. Tak więc po wczesnym ułatwieniu (facylitacja) następuje późne utrudnienie (hamowanie) reakcji na sygnał. Hamowanie po­ wrotu jest niezależne od modalności sygnału, ale zależne od intensywności sygnału, co klasyfikuje ten proces jako uwagowy (Reuter-Lorenz, Jha, Rosenquist, 1996). Jedno z wyjaśnień efektu hamowania powrotu, zgodne z teorią Posnera, sugeruje, że czas 200 ms od prezentacji wskazówki (w odchyleniu od 150 ms do 300 ms) jest interwałem, w którym mechanizm orientacyjny na­ kierowany przez mechanizm zarządczy na lokalizację potencjalnego sygnału (zgodnie ze wskazówką) oczekuje na pojawienie się spodziewanego bodźca. Brak oczekiwanego bodźca, interpretowany przez system prawdopodobnie jako nieskuteczność funkcjonowania mechanizmu zarządczego powoduje przejęcie kontroli nad uwagą przez mechanizm orientacyjny i poszukiwanie bodźca w innej lokalizacji (Kolańczyk, 2004). Kontrola uwagowa jest, zgodnie z modelem Posnera, sprawowana odgórnie (top-down) i ma charakter wewnętrzny (endogenous) - to właśnie mechanizm zarządczy efektywnie determinuje, co i w jaki sposób będzie dalej przetwarzane. Mechanizm ten ma ogólną przewagę nad mechanizmem orientacyjnym. Per­ cepcja podąża więc z reguły za uwagą, a nie uwaga za percepcją (zob. dyskusja dotycząca modeli kontroli poznawczej pomiędzy Theeuwsem i Bundesenem Szymura, 2004). Wyjątkiem są sytuacje, w których mechanizm zarządczy nie jest jeszcze dostatecznie ukształtowany (labilna uwaga małych dzieci), albo pojawia się niepewność odnośnie do pojawienia się sygnału (hamowanie po­ wrotu) bądź stosowanej zasady selekcji. Wtedy bowiem mechanizm orientacyjny bierze górę nad zarządczym, a przetwarzanie informacji sterowane jest oddolnie (.bottom-up) i ma charakter zewnętrzny (exogenous), przez co uwaga podąża za percepcją, będąc automatycznie nakierowaną na spostrzegany obiekt (Duncan, 1985; Chun, Wolfe, 2001). 6.3.4. Dwustopniowy system kontroli zachowania w koncepcji Shallice'a Zgodnie z koncepcją Tima Shallice’a (1988; Norman, Shallice, 1986) zachowa­ nie jest kierowane w większości przez automatyzmy (rutyny), zarówno 272 Rozdział 6. Kontrola poznawcza pierwotne (odruchy), jak i wtórne (nawyki). Czasami zdarza się jednak, że poszczególne czynności automatyczne pozostają ze sobą w konflikcie. Na przy­ kład czynność kierowania samochodem w drodze do domu w miejscu stałego zamieszkania pozostaje w konflikcie z reakcją na czerwone światło (sygnał-stop) w miejscu przejścia dla pieszych. W przypadku konfliktu czynności automatycznych o tym, która czynność jest realizowana jako pierwsza w kolejności, decyduje system kontroli czynności automatycznych, działający również w sposób automatyczny. Jego zadaniem jest hamowanie tych wszystkich rutyn, które w mniejszym stopniu - niż wyselekcjonowana czynność automatyczna - są dostosowane do sytuacji bodźcowej. Warto zwrócić uwagę, iż w koncepcji systemu kontroli czynności automatycznych Shallice proponuje nieco inne - niż Logan (1988, 2002) w swojej teorii rywalizacji egzemplarzy kryterium rozstrzygania o tym, który proces wygrywa wyścig o pierwszeństwo w wykonaniu. To dostosowanie czynności do sytuacji bodźcowej, a nie liczba dowodów skutecznego stosowania tej czynności, decyduje - zdaniem Shallice’a - o jej uruchomieniu. W powyższym przykładzie czynność prowadzenia samochodu zostanie automatycznie powstrzymana - jest ona bowiem zupełnie niedostosowana do warunków jazdy (czerwone światło dla kierunku jazdy). Ogólnym zadaniem mechanizmu automatycznego, selektywnego hamowania działań rutynowych jest ustalenie rozkładu jazdy czynności automatycznych (contention scheduling). Zgodnie z takim rozkładem czynność kierowania samochodem zostaje uruchomiona jako druga w kolejności, w momencie gdy zmienią się warunki sytuacji (zapali się zielone światło dla kierunku jazdy). System kontroli czynności automatycznych jest jednak nieskuteczny w sy­ tuacjach nowych, w których stosowanie rutyny kończy się z reguły niepowo­ dzeniem. W takich bowiem warunkach trzeba zahamować dominującą reakcję, monitorować i korygować błędy wynikające z prób dostosowania posiadanych schematów do nowych układów bodźców je wyzwalających, a także podejmo­ wać złożone decyzje i tworzyć nowe plany działań. Kontrolą przetwarzania informacji w takich warunkach zajmuje się nadzorczy system uwagi (Supervi­ sory Attentional Subsystem, SAS; Shallice, 1988; Norman, Shallice, 1986; inna polska nazwa tego systemu to dominujący system zadaniowy - zob. Kolańczyk, 2004). System ten zaangażowany jest zawsze wtedy, kiedy pomiędzy dwoma celowymi czynnościami nieautomatycznymi występuje konflikt interesów, powodowany przez niespójność bodźców, ich reprezentacji w umyśle, czy też generowanych w odpowiedzi na nie reakcji. Podobnie, jak w przypadku systemu kontroli czynności automatycznych, zadaniem SAS jest układanie „rozkładu jazdy” czynności kontrolowanych oraz ich bieżący monitoring (scheduling and control). Zadanie to SAS realizuje poprzez tworzenie ad hoc nietrwałej reprezentacji umysłowej dla sytuacji problemowej, zawierającej plan działania w odniesie­ niu do bodźców wyzwalających. Reprezentacja jest tworzona przez system kon­ troli, czyli selektywne zestawianie ze sobą danych umysłowych (pamięć długo­ trwała) i danych zmysłowych (bodźce z otoczenia). Działanie SAS można więc z jednej strony (uwagowej) opisać jako proces rekonfiguracji zestawów zada­ niowych (Rogers, Monsell, 1995; zob. rozdz. 5.2.5; Shallice, 1988, była zwo­ lenniczką koncepcji modularności umysłu; zob. rozdz. 1), a z drugiej (pamię­ ciowej) -ja k o proces modyfikacji i nabywania schematów pamięciowych (przez 6.3. Funkcje zarządcze ! [ i j i j ; ; ; ; i j I ; ; ; i ś : j 273 przyrost informacji, dostrajanie i restrukturalizację; Rumelhart, Norman, 1978, 1981). Błędy kontroli ze strony SAS pojawiają się wtedy, gdy schematy pamię­ ciowe zostają zastosowane automatycznie, bez koniecznej korekty, uwzględnia­ jącej nowość sytuacji bodźcowej. Na przykład, gdy zadaniem jest podrzucenie w drodze do domu kogoś mieszkającego na sąsiednim osiedlu, SAS dostosowuje plan jazdy do zadania. Jeśli jednak kierowca zaangażuje się w rozmowę z pasa­ żerem, jego system kontroli czynności może przełączyć monitoring czynności prowadzenia samochodu z poziomu kontrolowanego na automatyczny, anga­ żując się na wyższym poziomie nadzoru w kontrolę rozmowy. W takiej sytuacji prawdopodobnie kierowca będzie musiał podwozić pasażera znacznie dalszą drogą, przebiegającą najpierw przez jego osiedle (co zapewne stwierdzi z zażenowaniem). System kontroli czynności nieautomatycznych posługuje się więc mechanizmami selektywnej inhibicji i selektywnej aktywacji w konstruowaniu nowych planów działania. Z założeń modelu kontroli zachowania, według Shallice’a, wynikają trzy istotne konsekwencje. Po pierwsze (wskazuje na to również powyższy przykład), działanie systemu kontroli czynności nieautomatycznych może zostać upośledzone w sytuacji wykonywania zadań jednoczesnych o porównywalnym priorytecie. Słuszność tego przypuszczenia wykazali Shallice i współpracownicy (1994; Shallice, Burgess, 1996; zob. jednak Baddeley i in., 1984). Osoby badane w ich eksperymentach miały problemy z przywoływaniem informacji z pamięci epizodycznej podczas wykonywania jednoczesnego zadania wymagającego koncentracji uwagi. W pamięci epizodycznej przechowywane są ślady skuteczności działania schematów w poszczególnych sytuacjach bodźcowych. Utrudnienie przywoływania tych informacji może powodować problemy w tworzeniu adekwatnego planu działania w nowej sytuacji. Po drugie, system kontroli czynności nieautomatycznych może funkcjonować skutecznie jedynie przy efektywnym hamowaniu interferencji ze strony danych zawartych w pamięci (Gilbert, Shallice, 2002). W warunkach nowości nie istnieje bowiem gotowa do zastosowania, automatyczna czynność, a przywoływanie z pamięci dotyczy różnych schematów lub ich elementów, które muszą być następnie selektywnie hamowane lub aktywizowane. Po trzecie, ponieważ umysł zmuszony jest per­ manentnie funkcjonować w sytuacji zadań jednoczesnych, jednym z najważniejszych mechanizmów kontrolnych SAS powinien być mechanizm przerzutności pomiędzy elementami aktualnie przetwarzanych schematów działań (Shallice, 1988). Efektywne przełączenia, np. pomiędzy czynnościami prowadzenia samochodu i rozmowy z pasażerem zapobiegają błędom SAS. Nadzorczy system uwagi lokalizowano - podobnie jak pozostałe funkcje, mechanizmy czy systemy zarządcze - w obrębie przednich płatów czołowych (Shallice, 1988; Norman, Shallice, 1986). W badaniach pacjentów z uszkodzo­ nymi tymi właśnie strukturami mózgowymi stwierdzono występowanie błędów perseweratywności (Shallice, 1982). Badani ci nie byli w stanie dostosować planu swojego działania do zmieniających się warunków stymulacji. Kontynuowali wykonanie starego planu (rutyny), nawet wtedy, gdy nie było to im pomocne w danej sytuacji lub nie było to od nich wymagane (Shallice i in., 1989). Z kolei Owen i współpracownicy (1993) wykazali istotne zaburzenia w zakresie funkcjonowania przerzutności uwagi u badanych z deficytami neuronalnymi przednich płatów czołowych. Powyższe dane potwierdzają zarówno lokalizację 274 Rozdział 6. Kontrola poznawcza SAS, jak i podstawowe znaczenie dla funkcjonowania tego systemu, jakie ma mechanizm przerzutności uwagi, pozwalający na radzenie sobie w sytuacji zadań jednoczesnych. Dwustopniowy model kontroli poznawczej Shallice’a, obejmujący system kontroli czynności automatycznych i system kontroli czynności nieautomatycz­ nych, jest wprawdzie modelem kontroli uwagowej, ale w znacznie większym stopniu niż model Posnera odnosi się on do trwałych reprezentacji pamięcio­ wych. W modelu tym dużą rolę odgrywają mechanizmy hamowania interferencji pamięciowej, zaś wśród mechanizmów uwagowych znacznie większe znaczenie mają procesy uwagowe wyższego rzędu, związane z zarządzaniem zasobami (kontrola czynności jednoczesnych) czy rekonfiguracją zestawów zadaniowych (kontrola przerzutności uwagi) niż procesy uwagowe niższego rzędu, związane z kontrolą percepcyjną (mechanizm zarządczy sprawujący kontrolę nad mechanizmem orientacyjnym). Modele uwagowej kontroli Posnera i Shallice’a są więc komplementarne - wskazują bowiem na inne mechanizmy kontroli poznawczej, które są realizowane w ramach różnych aspektów uwagi (selektywność vs. przerzutność i podzielność) i są wzbudzane w zależności od poziomu złożoności sytuacji (prosta detekcja vs. złożone zachowanie). 6 .3 .5 . Centralny system wykonawczy pamięci roboczej w modelu Baddeleya Baddeley (1986) zapożyczył model SAS od Shallice’a i wykorzystał go w two­ rzeniu własnej koncepcji centralnego systemu wykonawczego (central executi­ ve; Baddeley, 2002; Olivie, 2004). System ten jest jednym z elementów pamięci roboczej (working memory, WM; Baddley, 1986, 2002; Baddeley, Hitch, 1974). Koncepcja pamięci roboczej omówiona została w innym miejscu (zob. rozdz. 8.2.3). Poniżej scharakteryzowana zostanie jedynie rola, jaką pełni w systemie poznawczym centralny system wykonawczy. Wprawdzie Baddeley (1986,1996) wyraźnie sugerował, że centralny system wykonawczy sprawuje swe funkcje kontrolne w sposób bardzo zróżnicowany, to jednak badania mechanizmów jego funkcjonowania skupiły się jedynie na problemie kontroli wykonania zadań jednoczesnych (Baddeley i in., 1997). Baddeley i Lewis (1981) wykazali np. możliwość jednoczesności przetwarzania dwóch różnych informacji werbalnych. Badani w paradygmacie podążania byli zdolni do powtarzania zasłyszanej prozy oraz decydowania o rymach pokazy­ wanych im jednocześnie wyrazów. Baddeley (1990) poprosił również badanych o jednoczesne wykonywanie zadania Sternberga (1966) na przeszukiwanie pamięci krótkotrwałej i weryfikowanie prawdziwości zdań w paradygmacie podejmowania decyzji semantycznych (Smith, Shoben, Rips, 1974). Okazało się, że badani radzili sobie z jednoczesnym wykonywaniem obu zadań, a jedyne koszty, które ponosili, były kosztami czasowymi (wydłużenie czasu weryfikacji zdań o 33%) w warunku maksymalnego (8 elementów) obciążenia pamięci roboczej. Natomiast badania prowadzone nad pacjentami z chorobą Alzheimera pokazały, że jednoczesne wykonywanie dwóch zadań (śledzenie obiektów w po­ lu wzrokowym oraz przechowywanie cyfr w pamięci krótktotrwałej) jest znacz- 6.3. Funkcje zarządcze 275 i \ i I I i | l i ( | [ [ nie upośledzone w przypadku tych pacjentów w porównaniu do zdrowych osób badanych z grupy kontrolnej, mimo że w wykonaniu pojedynczym tych zadań nie stwierdzono żadnych różnic pomiędzy wyróżnionymi grupami (Baddeley i in., 1991; Logie i in., 2000). Badani pacjenci z chorobą Alzheimera szybciej także ulegali zmęczeniu, gdy zmuszeni byli kontrolować te dwa zadania jednocześnie (Della Sala i in., 1995). Baddeley i współpracownicy (1997) zbadali ponadto dwie grupy pacjentów z lezjami przednich płatów czołowych. Grupy te różniły się ze względu na występowanie syndromu czołowego. Wszyscy badani wykonywali test zadań podwójnych, na który składały się: test WCST (Wisconsin Card Sorting Test - test selektywności w warunku przerzutności uwagi) oraz zadanie na płynność słowną. Nie stwierdzono żadnych istotnych różnic w zakresie wykonania pojedynczych zadań przy porównaniu obu badanych grup. Jednak pacjenci z syndromem czołowym wykazali się znacznie gorszą koordynacją wykonania obu tych zadań jednocześnie - ich wyniki w warunku zadań podwójnych były znacznie gorsze, niż rezultaty uzyskane przez badanych z grupy nie wykazującej syndromu czołowego. Centralny system wykonawczy, zdaniem Baddeleya (1993, 2002), jest więc odpowiedzialny za kontrolę zadań jednoczesnych. Jego głównym zadaniem jest zarządzanie zasobami uwagowymi systemu poznawczego i przeznaczanie ich do wykonywania czynności jednoczesnych. Kontrola czynności jednoczesnych, jak pokazały wcześniejsze badania Baddeleya i współpracowników, jest możliwa, a redukcja kosztów poznawczych w wyniku efektywnej kontroli - wydajna. Istnieją jednak takie zadania, które wydają się pobierać całą dostępną moc centralnego systemu wykonawczego i ich kontrolowanie jednocześnie z innymi zadaniami okazuje się niemożliwe. Przykładem takiego zadania jest test gene­ rowania liczb losowych. Baddeley, Emslie, Kolodny i Duncan (1998) wykazali, że jednoczesne generowanie liczb losowych i wykonywanie równoległych zadań, zarówno werbalnych, jak i wizualnych prowadzi do nieredukowalnych kosztów w zakresie wykonywania tych ostatnich. Baddeley (1996, 2002) nie widzi zresztą większych funkcjonalnych różnic między systemem dystrybucji zasobów (Kahneman, 1973) a centralnym syste­ mem wykonawczym swojej koncepcji pamięci roboczej. Dodatkowym argumen­ tem za tym, iż centralny system wykonawczy ma charakter uwagowego systemu kontrolnego, były wyniki badań Baddeleya i współpracowników (1984). Wykazali oni, że wprawdzie zadanie doładowujące w paradygmacie zadań podwójnych upośledza zapamiętywanie (co jest przecież funkcją uwagi; zob. hipoteza uwagowa; Logan, Etherton, 1994; Logan, Taylor, Etherton, 1996), jednak nie wpływa ono w żadnym stopniu na przywołanie informacji z pa­ mięci. Dlatego nadzorczy system uwagi SAS i centralny system wykonawczy pamięci roboczej są przypuszczalnie różnymi konstruktami. Podczas gdy ten pierwszy funkcjonuje na podstawie informacji przywołanych z pamięci dłu­ gotrwałej i selektywnego hamowania wybranych trwałych reprezentacji umysłowych, to mechanizm działania tego drugiego dotyczy kontroli jedynie w aspekcie hamowania interferencji uwagowej, związanej z rywalizacją o zasoby systemu. Centralny system wykonawczy lokalizowany jest w przednich płatach czołowych, choć jego umiejscowienie należałoby jeszcze doprecyzować, bo nie wszystkie uszkodzenia tej struktury mózgu są związane z deficytami w zakresie 276 Rozdział 6. Kontrola poznawcza funkcjonowania tego systemu, a jedynie te, które wiąże się z syndromem czoło­ wym. Nie do końca jest także jasne, czy centralny system wykonawczy pamięci roboczej jest jednolity strukturalnie i funkcjonalnie. Postulowane przez Badde­ leya (1996) badania z użyciem dużej liczby zadań w najprzeróżniejszych ich jednoczesnych kombinacjach, wraz z zastosowaniem analiz korelacyjnych i czynnikowych (podobnie jak w przypadku mechanizmu hamowania - zob. Friedman, Miyake, 2004) nie zostały do tej pory konsekwentnie podjęte. Zda­ niem Baddeleya (2002, s. 89) centralny system wykonawczy jest jednak kandydatem na poszukiwanego przez psychologię poznawczą homunculusa, kontrolującego zachowanie. 6.4 . Podsum ow anie Czy teza Daniela Dennetta, że „umysł to armia idiotów”, znajduje potwierdzenie w treści niniejszego rozdziału? Sens tej przewrotnej i prowokacyjnej tezy sprowadza się do tego, że nauka musi odrzucić wszelkie próby wyjaśnienia zja­ wiska kontroli poznawczej, które w ten czy inny sposób odwołują się do homunculusa. Jeśli tego nie zrobi, będzie musiała szukać odpowiedzi na pyta­ nie, kto kontroluje homunculusa itd. Jak się wydaje, psychologia jest jeszcze dość daleko od tego celu. Liczne koncepcje kontroli poznawczej w ten czy inny sposób „przemycają” homunculusa do architektury umysłu, nadając mu inne nazwy, np. centralny system zarządczy, nadzorczy system uwagi lub funkcje zarządcze. Opisane w tym rozdziale koncepcje i badania niosą ważną treść i duży ładunek rzetelnej wiedzy, a jednak ciągle tkwią w pułapce zastawionej przez ukrytego homunculusa. Prawdziwy przełom w badaniach nad kontrolą i sa­ mokontrolą dokona się prawdopodobnie dopiero wtedy, gdy psychologia empiryczna zmierzy się z problemem podmiotu. Wydaje się, że jest to jednym z ważniejszych wyzwań stojących przed naszą dyscypliną. Rozdział Percepcja Podstawowe właściwości percepcji 278 Recepcja sensoryczna i percepcja umy­ słowa 278 Naiwne koncepcje spostrzegania 280 Spostrzeganie a rozpoznawanie wzorców 281 Spostrzeganie jako proces oddolny 283 Odbiór i kodowanie wrażeń zmysłowych 283 Magazyny informacji sensorycznej 285 Spostrzeganie głębi 288 Identyfikacja obiektu 292 Spostrzeganie jako proces odgórny 295 Stałość spostrzegania 295 Nastawienie 296 Złudzenia i błędy percepcji 297 Wpływ kontekstu na spostrzeganie 298 Teorie percepcji 299 Teoria asocjacjonistyczna 299 Teoria postaciowa 301 Teoria wzorców 303 Teoria cech 305 Teoria obliczeniowa 307 Teoria ekologiczna 309 Proces spostrzegania w praktyce 312 Spostrzeganie twarzy 312 Czytanie słów 314 Podsumowanie 317 Percepcja (spostrzeganie) to proces aktywnej interpretacji danych zmysłowych z wykorzystaniem wskazówek kontekstuałnych, nastawienia i wcześniej nabytej wiedzy. W wyniku percepcji dochodzi do rozpoznania obiektu, np. przedmiotu. Recepcja sensoryczna polega na odzwierciedleniu bodźców w receptorach, czyli narządach zmysłów. Stanowi konieczny warunek i pierwszy etap procesu spostrzegania. Jak zauważył Blaise Pascal: „Jest lepiej patrzeć na coś z punktu widzenia całości, niż na całość z punktu widzenia jednej rzeczy”. Do tej intuicji XVII-wiecznego francuskiego filozofa współczesny psycholog poznawczy mógłby dodać, że najczęściej tak właśnie się dzieje. Patrząc na coś, widzimy raczej cały obiekt, niż składające się nań części. Widzimy przedmiot, a nie tworzące go kształty, kolory, kontury i inne atrybuty. Możemy oczywiście nazwać kolor obiektu, ale najpierw rozpoznajemy, co to za obiekt, a dopiero wtórnie możemy skupić uwagę na jego cechach lub składnikach. W przypadku innych zmysłów, czyli słuchu, dotyku, węchu i smaku, zasada prymatu całości nad częścią jest trudniejsza do udo­ wodnienia, ale istnieją poważne argumenty za nią przemawiające. Na przykład słuch dostarcza nam informacji o tym, jaki obiekt słyszymy, a smak - co jemy. Do organizmu docierają pojedyncze sygnały pozbawione znaczenia, np. fale świetlne lub akustyczne o określonych parametrach amplitudy i częstotliwości. System poznawczy dokonuje olbrzymiego wysiłku, aby te sygnały zinter­ pretować, co prowadzi go do identyfikacji obiektu, stanowiącego źródło stymu­ lacji. Psychologia poznawcza bada i opisuje czynność identyfikacji obiektów w procesie spostrzegania, a także rozpoznaje czynniki mające wpływ na przebieg tego procesu. Percepcja to zresztą nie pojedynczy proces, a zbiór procesów poznawczych. Ich zadanie polega na zapewnieniu nam kontaktu z rzeczywistością, czyli z wydarzeniami mającymi miejsce poza organizmem, a ściślej rzecz biorąc poza układem nerwowym, bo do zadań percepcji należy też dostarczanie danych o stanie narządów wewnętrznych (np. ból brzucha) i aktualnym stanie poło­ żenia kończyn (propriocepcja, tj. czucie własne). W wyniku tych procesów pojawiają się w umyśle spostrzeżenia (percepty), czyli nietrwałe umysłowe reprezentacje obiektów. Spostrzeżenia mają postać obrazową, są nietrwałe, choć od samego początku procesy spostrzegania podlegają wpływom ze strony reprezentacji trwałych (pojęcia, schematy) oraz ze strony struktur wiedzy. 7.1. Podstawowe właściwości percepcji 7.1 .1 . Recepcja sensoryczna i percepcja um ysłowa Stanowisko konstruktywistyczne w psychologii poznawczej zakłada aktywność umysłu w poznawaniu rzeczywistości. Proces spostrzegania nie jest z tego punktu widzenia biernym odzwierciedlaniem w umyśle rzeczywistych obiek­ tów, ale aktywnym konstruowaniem reprezentacji tych obiektów. Levine i Shefner (1981, s. 1) sugerują, że „[...] percepcja odnosi się do sposobu, 7.1. Podstaw ow e w łaściw ości percepcji 279 w jaki człowiek interpretuje informacje zgromadzone przez zmysły”. Mówiąc innymi słowy: człowiek odczuwa obecność stymulacji, a spostrzega, czym ona jest. Podczas gdy gromadzenie informacji przez zmysły, czyli recepcja sen­ soryczna, zwana również sencepcją1, jest procesem raczej pasywnym, to ich dalsze odzwierciedlanie w systemie poznawczym, czyli percepcja umysłowa, nie może obyć się bez aktywności umysłu. Oba składniki procesu spostrzegania są niezbędne dla efektywnej percepcji. Bez recepcji sensorycznej nie ma bowiem informacji, która może być później interpretowana, natomiast bez interpretacji zgromadzone dane nic nie znaczą - nie może być wtedy mowy 0 identyfikacji spostrzeganych obiektów. Dlatego też Bruner (1957; Bruner, Goodman, 1947) określił spostrzeganie jako proces konfrontacji danych zmysłowych z danymi umysłowymi, do której dochodzi wtedy, gdy narząd zmysłu (np. smaku) rozpoczyna gromadzenie informacji (kwaśność, słodkość itd.), które w procesie interpretacji służą włączeniu poznawanych obiektów do kategorii nadrzędnej (np. jabłko z gatunku „Lobo”). Podstawowym problemem teorii spostrzegania jest próba opisu procesu przemiany relatywnie prostych danych zmysłowych w złożone reprezentacje umysłowe. Sekuler i Blake (1994) określają ten proces jako przekład informacji zmysłowych na język kodu, który może być zrozumiały dla złożonych struktur nerwowych sytemu poznawczego. Podobnie Roth (1986) opisuje percepcję jako proces transformacji informacji pochodzących ze środowiska w indywidualne doświadczenie obiektów, wy­ darzeń czy zjawisk, wskazując na narządy zmysłów jako stacje przekaźnikowe tej przemiany. Fizyczną formę energii, zdolną do zapoczątkowania procesu spostrzegania, przyjęło się w psychologii nazywać bodźcem. Bodziec w procesie recepcji sensorycznej zmienia swój charakter. Początkowo jest to bodziec dystalny, zewnętrzny, znajdujący się poza systemem poznawczym i odległy względem jego receptorów. Wskutek bezpośredniego kontaktu z narządem zmysłu bodziec dystalny staje się bodźcem proksymalnym, wewnętrznym i bliskim. W przypadku zmysłu wzroku bodźcem proksymalnym jest odwrócony i pomniejszony na siatkówce obraz bodźca dystalnego. Natomiast w przypadku zmysłu słuęhu dystalne dźwięki wywołują proksymalne drgania błony bębenkowej ucha. Także zmysły dzielą się na bliskie i dalekie (Sekuler, Blake, 1994). Do tych pierwszych, zwanych również receptorami kontaktowymi, zaliczamy zmysł smaku, dotyku 1 węchu, podczas gdy zmysły dalekie, zwane też telereceptorami, są reprezen­ towane przez wzrok i słuch. Odebranie (rejestracja; recepcja) bodźca proksymalnego prowadzi do powstania wrażeń. Są one najprostszymi procesami psychicznymi, w wyniku których dochodzi do odzwierciedlenia w spostrzegającym umyśle pojedynczych właściwości rejestrowanych obiektów (Hebb, 1969). Według Hebba wrażenia należy traktować jako wynik aktywności receptorów zmysłowych i dróg czu­ ciowych, przekazujących tę aktywność z narządów zmysłowych do kory czucio­ wej w mózgu. Odbiór bodźców wzrokowych zwykle prowadzi do odczucia takich wrażeń, jak np. kolor, wielkość czy kształt. Recepcja bodźców słucho­ wych wywołuje wrażenia związane ze skalą dźwięku (wysoki, niski), barwą 1 Termin ukuty przez prof. Andrzeja Klawitera. 280 Rozdział 7. Percepcja (czysty, mieszany) czy siłą (cichy, głośny). Spostrzeżenie jest natomiast ca­ łościowym odzwierciedleniem obiektów, składających się na ten obiekt bodźców dystalnych i wywoływanych przez nie wrażeń. Jednym z głównych problemów psychologii percepcji jest określenie wzajemnych relacji pomiędzy wrażeniami a spostrzeżeniami. Nawet najprostsze spostrzeganie jest procesem biologicznym, a zatem wymaga złożonych interakcji najprzeróżniejszych systemów komórek nerwo­ wych. Opisując proces percepcji od strony neurofizjologicznej, próbujemy wskazać układy nerwowe odpowiedzialne za detekcję poszczególnych właści­ wości bodźców; zróżnicowanie w ich zakresie zostanie przedstawione w rozdz. 7.4.5 przy okazji omówienia teorii obliczeniowej Marra (1982). Równie ważne w percepcji jest to, że wymaga ono doznań zmysłowych w optymalnej dawce. Deprywacja sensoryczna, czyli znaczne obniżenie poziomu stymulacji senso­ rycznej, które występuje przy eliminacji bodźców wzrokowych, słuchowych i dotykowych, prowadzi z reguły do wystąpienia halucynacji i urojeń (Siegel, 1984). Nie odpowiadające rzeczywistości wrażenia (halucynacje) i myśli (urojenia) stają się dla systemu poznawczego niezbędną rekompensatą za braki w zakresie wejściowych danych sensorycznych. Szkodliwy jest również nadmiar stymulacji, jednakże w tym przypadku system poznawczy dysponuje mecha­ nizmem pozwalającym radzić sobie z przeciążeniem informacyjnym. Jest nim selektywna uwaga (Broadbent, 1958). Istotne dla spostrzegania jest także to, że percepcja to proces wymagający działania ze strony podmiotu. Niekiedy jest to działanie w sensie fizycznym, np. wtedy, gdy obserwując bodźce w polu wzro­ kowym zmieniamy własne położenie w stosunku do obiektu. Możliwość analizy bodźców z różnej perspektywy i dystansu pozwala wyeliminować wiele złudzeń optycznych, zatem spostrzeganie musi być przynajmniej częściowo czynnością motoryczną, co podkreśla w swej ekologicznej teorii Gibson (1966; zob. rozdz. 7.4.6). Aktywność podmiotu spostrzegającego może się jednak ograniczać do czynności umysłowych. W każdym razie tylko dzięki aktywności podmiotu możliwa jest właściwa interpretacja stymulacji. Widać to szczególnie wyraźnie na przykładzie bodźców zdegradowanych, czyli niepełnych, niekompletnych lub pojawiających się w nieoptymalnych warunkach czasowych lub przestrzennych. Bodźce zdegradowane nie pozwalają na pełną recepcję sensoryczną, przez co w ich przypadku udział „wyższych” procesów wnioskowania i interpretacji znacząco wzrasta. 7.1 .2 . Naiwne koncepcje spostrzegania Naiwne koncepcje percepcji, zwane też potocznymi, ignorują problem przekładu danych zmysłowych na dane umysłowe. Zgodnie z tymi koncepcjami rejestrator zmysłowy pełni funkcje przekaźnika informacji na drodze do kory mózgowej. Przekazywana informacja ma charakter zmysłowy - jest więc np. obrazem lub dźwiękiem i w taki sposób, przy wykorzystaniu właściwej modalności sen­ sorycznej, jest trwale kodowana. Potoczne koncepcje spostrzegania przyjmowa­ ły zatem dodatkowe założenie dotyczące natury trwałych reprezentacji umysło­ wych - według rozważanego stanowiska odzwierciedlenia te mają zawsze formę odzmysłową. 7.1. Podstawowe właściwości percepcji 281 U źródeł tak uproszczonego myślenia o procesie spostrzegania leżało przekonanie o słuszności metafory aparatu fotograficznego. Zwolennicy naiw­ nych koncepcji wskazywali na wiele strukturalnych i funkcjonalnych podo­ bieństw narządu wzroku do aparatu fotograficznego. I tak, strukturalnym odpo­ wiednikiem źrenicy wydaje się przesłona, soczewki - obiektyw, a siatkówki błona fotograficzna (film). Efekt rejestracji obrazu na siatkówce przypomina również wynik czynności robienia zdjęcia - w obu przypadkach otrzymujemy obraz odwrócony i pomniejszony. Wskazując na podobieństwa, często jednak zapominano, że oba sposoby rejestracji obrazu wyraźnie się różnią. Istotną strukturalną różnicą w budowie oka i aparatu fotograficznego wydaje się to, że błona fotograficzna jest płaska, a siatkówka wypukła. Zupełnie inaczej prze­ biega też w procesie spostrzegania i robienia zdjęcia detekcja koloru - komórki nerwowe odpowiedzialne za ten proces są rozmieszczone w oku w jednej warstwie, podczas gdy na błonie filmowej warstwy wrażliwe na poszczególne kolory są umieszczone jedna nad drugą. W oku nie ma także żadnej struktury analogicznej do migawki w aparacie fotograficznym. Co więcej, zanik obrazu na siatkówce jest związany ze stopniem złożoności obrazu i tempem pojawiania się kolejnych obrazów, a nie z ilością światła emitowanego lub odbijanego przez obiekt. Pominąwszy jednak różnice strukturalne i funkcjonalne pomiędzy na­ rządem wzroku i aparatem fotograficznym, rozstrzygającym argumentem na niekorzyść naiwnych teorii spostrzegania wydaje się fakt, iż trwałe reprezento­ wanie w umyśle informacji w postaci odzmysłowej byłoby bardzo nieekono­ miczne. Ten sam bodziec wzrokowy (np. twarz dziecka), podlegający przecież nieustannym zmianom (np. w wyniku rozwoju), musiałby być zapisywany w formie coraz to innego obrazu wraz z każdym pojedynczym spostrzeżeniem „obiektu”. Trudno wyobrazić sobie system przechowywania danych, który byłby zdolny poradzić sobie z takim przeładowaniem informacyjnym. Z powyższych powodów naiwne koncepcje spostrzegania zostały w zasadzie uznane za fałszywe, zaś współczesne teorie percepcji odwołują się w opisie i wyjaśnianiu tego procesu do koncepcji trwałych reprezentacji umysłowych (zob. rozdz. 3). Jedynym modelem procesu spostrzegania, który wyłamuje się z tego nurtu myślenia o percepcji, jest ekologiczna teoria Gibsona (1966). W swych założeniach zaprzecza ona istnieniu trwałych reprezentacji umysłowych, przez co odrzuca konieczność procesu translacji danych zmysłowych. 7.1.3. Spostrzeganie a rozpoznawanie wzorców Badania w zakresie rozpoznawania wzorców {pattern recognition) dotyczą tego, w jaki sposób ludzie identyfikują rzeczywiste obiekty w swoim środo­ wisku (Reed, 1988). Jak bardzo ważna jest to umiejętność, widać na przykła­ dzie czynności czytania pisma ręcznego (zob. rozdz. 7.5.2). Forma ręcznego pisania jest do tego stopnia indywidualną właściwością każdego człowieka, że może stać się jego wizytówką, która pomoże w rozpoznaniu danej osoby jako sprawcy jakiegoś wydarzenia. Międzyosobnicza zmienność w zakresie takiego wzorca (np. litery „a”) jest więc ogromna, a zmienność wewnątrzosobnicza również dość duża, bo pisząc stawiamy litery za każdym razem nieco inaczej. 282 Rozdział 7. Percepcja Mimo to system percepcyjny człowieka potrafi właściwie rozpoznać konkretny symbol (np. „koślawe a” dziecka uczącego się dopiero pisać pierwsze litery) jako przedstawiciela danego wzorca (np. litery „a” jako takiej), niezależnie od cech charakterystycznych, przynależnych tylko konkretnej egzemplifikacji wzorca. W odpowiedzi na pytanie, w jaki sposób możliwy jest proces identyfikacji obiektów, sformułowano dwie teorie percepcji: koncepcję modeli (zob. rozdz. 7.4.3) oraz koncepcję cech (zob. rozdz. 7.4.4). Obie koncepcje w odmien­ ny sposób opisują proces kategoryzacji, czyli zaliczenia spostrzeganego obiektu do nadrzędnej kategorii umysłowej (por. rozdz. 3). Zgodnie z koncepcją modeli spostrzegany egzemplarz jest porównywany do modelu wzorca, który reprezentuje nadrzędną kategorię. Modelem może być specyficzny egzemplarz, czyli pierwszy napotkany przedstawiciel danego wzorca (np. własna matka może być modelową mamą) lub prototyp, czyli najczęstszy z dotychczas napotkanych egzemplarzy wzorca (np. wróbel może być modelowym ptakiem). Z kolei koncepcje cech sugerują, że decyzja o rozpoznaniu wzorca jest wyni­ kiem porównania cech kategoryzowanego obiektu i cech wzorcowych. Argu­ menty na rzecz obu koncepcji, bynajmniej nie rozstrzygające, stają się zrozumiałe, gdy rozważy się dokładniej przebieg procesu rozpoznawania twarzy (zob. rozdz. 7.5.1). Jednakże, niezależnie od słuszności jednej z dwóch koncepcji, zwraca uwa­ gę sposób wyjaśniania przez nie procesu spostrzegania jako procesu kategory­ zacji. Taką możliwość jako pierwszy zasugerował Bruner (1957), a empirycznie potwierdzili ją Posner i Mitchell (1967) w eksperymencie dotyczącym porów­ nywania liter. Badanym prezentowano pary liter, w stosunku do których trzeba było podjąć decyzję, czy są one identyczne czy różne, kierując się narzu­ conymi regułami. Wprowadzono trzy warunki eksperymentalne. W pierwszym litery uznawano za takie same, gdy były identyczne fizycznie (np. „AA”), w drugim - gdy były tożsame nominalnie (np. „Aa”), natomiast w trzecim gdy były identyczne zgodnie z abstrakcyjną regułą (np. „AE”). Warunek pierwszy wymagał tylko identyfikacji fizycznej - porównania z wzorcem (bez konieczności rozpoznania znaczenia), warunek drugi - identyfikacji fizycznej oraz ustalenia nominału bodźca (rozpoznania znaczenia litery), natomiast warunek trzeci - identyfikacji fizycznej, ustalenia nominału oraz sprawdzenia, czy spełniona jest dodatkowa reguła kategoryzacyjna. Manipulacja ekspery­ mentalna dotyczyła zatem liczby potencjalnych kategoryzacji, jakich trzeba byto dokonać w celu udzielenia poprawnej odpowiedzi na pytanie o tożsa­ mość prezentowanych bodźców. Posner i Mitchell ustalili, że czas reakcji w warunku pierwszym wynosi od 400 do 500 ms, w warunku drugim jest o średnio 80 ms dłuższy, a w warunku najtrudniejszym - aż o 160 ms dłuższy. Wyniki tego badania mogą sugerować, iż proces rozpoznawania bodźców jako reprezentujących określone wzorce polega na kategoryzacji, która trwa tym dłużej, im więcej kategorii system poznawczy musi sprawdzić w procesie spostrzegania. Dodatkowo można na podstawie tych badań wnosić, iż czas prostej kategoryzacji percepcyjnej trwa ok. 80 ms. Problem ten wymaga jednak dalszych badań. 7.2. Spostrzeganie jako proces oddolny 283 7.2. Spostrzeganie jako proces oddolny Spostrzeganie jest procesem oddolnym (bottom-up). Przebiega w kierunku od rejestracji wrażeń do identyfikacji obiektów. Na poszczególnych etapach tego procesu biorą udział różnorodne struktury poznawcze. Mechanizm orientacyjny uwagi selektywnej umożliwia uchwycenie przez receptory faktu wystąpienia bodźca w polu percepcyjnym. Za odbiór i kodowanie wrażeń zmysłowych odpowiedzialne są detektory cech (zob. rozdz. 5), a za krótkotrwałe przecho­ wywanie efektów recepcji bodźców - magazyny informacji sensorycznej (pamięć ultrakrótko trwała, zob. rozdz. 8). Identyfikacja spostrzeganych bodźców (np. piorun podczas burzy) odbywa się dzięki wiedzy zgromadzonej w zakresie pamięci trwałej (np. dotyczącej zjawisk atmosferycznych). Poszczególne subsystemy wchodzące w skład architektury umysłu włączają się w proces postrzegania kolejno, wraz ze wzrostem jego złożoności. Jednak właśnie wystąpienie bodźca dystalnego (np. piorunu podczas burzy) uruchamia cały mechanizm percepcji. 7.2.1. Odbiór i kodowanie wrażeń zmysłowych Pierwszy krok na drodze do powstania złożonego spostrzeżenia jest raczej oczywisty. Zadaniem receptorów jest pomiar natężenia danego bodźca dystal­ nego. W przypadku zmysłu wzroku fotoreceptory oka mają za zadanie zmierzenie intensywności światła emanującego od spostrzeganego obiektu lub przezeń odbitego (Sekuler, Blake, 1994). W ten sposób obiekt ten jest repre­ zentowany po raz pierwszy na peryferiach systemu poznawczego w formie mapy punktów świetlnych, różniących się swoją intensywnością. Oko wyposażone jest w dwa rodzaje fotoreceptorów; są to pręciki, odpowiadające za rejestrację słabych w swoim natężeniu bodźców świetlnych (widzenie nocne, czarno-białe), oraz czopki, funkcjonujące jedynie przy dobrym oświetleniu, odpowiadające za widzenie barw i ostrość wzroku (widzenie dzienne, pełna paleta barw). Infor­ macje zebrane przez fotoreceptory oka są przekazywane dalej do komórek dwu­ biegunowych, a następnie zwojowych, których zadaniem jest wstępne opraco­ wanie informacji sensorycznej. Komórki zwojowe są ściśle wyspecjalizowane. Barlow (1953) oraz Lettvin, Maturana, McCulloch i Pitts (1959) ustalili, że odrębne grupy tych komórek reagują na odmienne cechy wyzwalające, takie jak np. linie pionowe lub pozio­ me (krawędzie), ruch obiektu czy jego lokalizacja przestrzenna. Grupy komórek zwojowych odpowiedzialne za detekcję poszczególnych właściwości stymulacji nazwano detektorami cech. Im bardziej złożony system poznawczy, tym więcej w nim prostych detektorów cech, służących detekcji elementarnych właściwości bodźców. Wyniki badań Lettvina, Maturany, McCulloch i Pittsa (1959) przeanalizo­ wał Maruszewski (1996). Badacze ci wskazują na istnienie tylko czterech de­ tektorów cech u żaby, odpowiedzialnych za odbiór tylko dwóch właściwości stymulacji: wielkości i ruchu obiektu. Specyficzne kombinacje zarejestrowanych cech mają swoje konsekwencje w zachowaniu się żaby: „małe” i „szybkie” 284 Rozdział 7. Percepcja obiekty wywołują u niej reakcje pokarmowe (np. widok poruszającego się żuka; Barlow, 1953), natomiast „duże” i „powolne” (np. bociany) - reakcje ucieczki. Liczba detektorów cech wizualnych u człowieka jest oczywiście znacznie więk­ sza; znajdują się one również poza siatkówką, na czuciowej drodze wstępującej do kory mózgowej (Marr, 1982). Detektory cech różnią się swoją złożonością strukturalną i funkcjonalną. Ich badaniem zajęli się m.in. Hubel i Wiesel (1959), którzy do swoich badań wybrali koty. Ustalili oni, że na drodze wzrokowej u kotów występuje aż sześć różnych rodzajów detektorów cech, z czego cztery ostatnie znajdują się już w korze wzrokowej. Z kolei Marr (1982), analizując strukturę i funkcjonowanie drogi wzrokowej u człowieka, wyróżnił jedynie trzy rodzaje różnych detektorów cech, stwierdzając że tylko u jednego rodzaju występują połączenia z komórkami kory mózgowej. Mimo sporów dotyczących liczby różnych detektorów cech, nie ma wątpliwości odnośnie do ich strukturalnego i funkcjonalnego zróżnicowa­ nia. Im dalej od narządu zmysłu i im bliżej kory mózgowej, tym bardziej są detektory cech strukturalnie złożone i tym bardziej złożone właściwości stymulacji są przez nie dekodowane. Ostatecznie pobudzenie napływa do kory wzrokowej, umiejscowionej w płatach potylicznych. Szczegółową analizę deko­ dowanych cech w ramach poszczególnych detektorów zawiera teoria oblicze­ niowa Marra (1982; zob. rozdz. 7.4.5). Z kolei odbiór i kodowanie wrażeń słuchowych odbywa się w komórkach włoskowych narządu Cortiego, zlokalizowanego w uchu wewnętrznym. Zada­ niem tych receptorów jest pomiar intensywności dźwięku docierającego do ucha zewnętrznego. Dźwięk ten jest wzmacniany przez narząd słuchu i przenoszony w formie rytmicznych drgań przez błonę bębenkową ucha. Jedna z kosteczek słuchowych (strzemiączko), wprawiona w ten sposób w drganie, przenosi rytm fali dźwiękowej poprzez wywieranie hydraulicznego ciśnienia na płyn znajdu­ jący się w ślimaku ucha wewnętrznego. To właśnie ciśnienie tego płynu wywołuje ugięcie komórek włoskowych, ich pobudzenie i w efekcie generowanie impulsu nerwowego przesyłanego do kory słuchowej. Poszczególne komórki receptoryczne zmysłu słuchu różnią się w zakresie częstotliwości dźwięku, na jaki reagują (Sekuler, Blake, 1994), co przekłada się na wielkość wytworzonego przez falę dźwiękową ciśnienia płynu w ślimaku ucha, koniecznego do ugięcia komórek włosowatych. Przekroczenie progu pobudzenia komórki włoskowej jest konieczne do rejestracji dźwięku, jednakże każdy receptor słuchowy działa tylko w pewnym zakresie częstotliwości. Jeśli intensywność dźwięku jest zbyt duża dla danej komórki włoskowej, osiąga ona stan nasycenia (saturation effect; Sekuler, Blake, 1994), który uniemożliwia wzbudzenie impulsu nerwowego. W takim przypadku reagują receptory słuchowe wyspecjalizowane w odbiorze dźwięku o wyższej częstotliwości, które z kolei nie są wzbudzane przez dźwięki o niższej częstotliwości, ponieważ takowe nie wywołują przekroczenia ich poziomu wzbudzenia. Impulsy nerwowe generowane przez komórki włoskowe informują system poznawczy o czasowej i częstotliwościowej charakterystyce słyszanych dźwięków. Interpretacja tak zakodowanych bodźców akustycznych odbywa się w korze słuchowej, znajdującej się w płatach skroniowych. Detektory cech tam zloka­ lizowane nie są już jednak zainteresowane wielkością natężenia czy częstotli- 7.2. Spostrzeganie jako proces oddolny I ! j i | i | Ś | j ; !' ' 285 wością pojedynczego dźwięku. Są one wyspecjalizowane w reagowaniu na złożone zestawy dźwięków, definiowane przez specyficzne zmiany w zakresie fizycznej charakterystyki dźwięków składowych (Moore, 1987). Dzięki temu każde znane człowiekowi słowo posiada prawdopodobnie w korze słuchowej swój detektor, czyli uldad komórek interpretacyjnych wzbudzanych przez brzmienie słowa. Wskazują na to wyniki badań nad małpami, prowadzone przez Wollberga i Newmana (1972). Okazało się, że odrębne grupy neuronów kory słuchowej są odpowiedzialne za dekodowanie różnych rodzajów małpich komunikatów, takich jak rechotanie (cackle), piszczenie (shrieks) czy trelowanie (trills). Biorąc pod uwagę, że w relatywnie ubogim języku małp rodzaj komunikatu decyduje o sensie przekazu, można się spodziewać, że w przypadku człowieka wyspecjalizowanie detektorów bodźców akustycznych w korze słuchowej może dotyczyć pojedynczych morfemów, tj. elementarnych jednostek znaczeniowych (zob. rozdz. 13). Reagowanie przez komórki kory słuchowej na zmiany w zakresie wysokości tonu ma jeszcze jedną istotną funkcję - dzięki temu możliwa jest analiza intonacji, bez której rozumienie znaczenia dłuższych komunikatów werbalnych byłoby bardzo trudne, jeśli nie niemożliwe. Pewne komórki nerwowe kory słuchowej reagują na zmianę tonu dźwięku na wyższy (jak podczas wypowiadania pytającego słowa „Tak?”, gdy nic nie ro­ zumiemy), a inne na niższy (jak podczas ziewania, gdy jesteśmy znudzeni; Sekuler, Blake, 1994). Należy zatem stwierdzić, że odbiór i kodowanie wrażeń zmysłowych odby­ wa się za pomocą specyficznych układów komórek nerwowych, zwanych detektorami cech. Wstępujące drogi czuciowe są wyposażone w takie właśnie zestawy neuronów, różniące się zarówno strukturalnie, czyli poziomem złożoności i wielością połączeń nerwowych, jak i funkcjonalnie, czyli dostosowa­ niem do percepcji konkretnych właściwości podlegającej detekcji. Recepcja sensoryczna polega na kodowaniu fizycznych charakterystyk bodźca dystalnego, związanych z intensywnością jego oddziaływania na narząd zmysłu. Percepcja umysłowa polega natomiast na identyfikowaniu bodźca poprzez integrację informacji, dotyczących wszystkich jego właściwości. Proces ten zostanie opisany dokładniej w rozdz. 7.2.4. 7.2.2. Magazyny informacji sensorycznej Hipoteza istnienia magazynów informacji sensorycznej dotyczy przechowywa­ nia w ramach systemu poznawczego przez krótki czas, po bezpośrednim wystąpieniu bodźca sensorycznego, efektów jego działania. Dotyczy więc prze­ chowywania bodźców proksymalnych, zanim ulegną one procesowi dekodo­ wania przez bardziej złożone dekodery cech występujących w drodze czuciowej. Do tej pory potwierdzono istnienie dwóch magazynów informacji sensorycznej: magazynu ikonicznego dla zmysłu wzroku i magazynu echoicznego dla zmysłu słuchu. Wprawdzie Baddeley (1976) postuluje istnienie aż pięciu magazynów sensorycznych - tylu, ile różnych zmysłów występuje u człowieka - jednak hipoteza ta nie doczekała się do tej pory weryfikacji. Ponieważ magazyny informacji sensorycznej są tożsame z subsystemami pamięci ultrakrótkiej, dokładnie omówionymi w rozdz. 8, w tym miejscu będą 286 Rozdział 7. Percepcja przedstawione jedynie te ich właściwości, które wydają się najważniejsze dla analizy procesu spostrzegania. Sperling (1960, 1963) prezentował badanym za pomocą tachistoskopu przez 50 ms tabelę zawierającą 12 bodźców (liter lub cyfr), ułożonych w 4 ko­ lumny po 3 rzędy pól. Zadaniem osób biorących udział w eksperymencie było przypomnienie sobie tuż po prezentacji jak największej liczby elementów z prezentowanej tabeli. Uczestnicy badania byli w stanie przypomnieć sobie prawidłowo 4-5 znaków (ok. 35% znaków w ogóle, czyli 1-2 z każdego rzędu). W kolejnym eksperymencie Sperling wprowadził dodatkową manipulację wska­ zówką - niemal natychmiast po prezentacji tachistoskopowej prezentował oso­ bom badanym dźwięk o wysokiej, średniej lub niskiej tonacji, określający rząd tabeli, z którego należało sobie przypomnieć uprzednio prezentowane bodźce. Poziom poprawności przypominania wzrósł u badanych dwukrotnie - tym razem byli oni w stanie przypomnieć sobie poprawnie ok. 70% (2-3) znaków ze wskazanego rzędu. W następnym badaniu Sperling manipulował czasem prezentacji wskazówki w przedziale od 0 do 1000 ms od momentu zakończenia prezentacji tachistoskopowej. Poprawność przypominania okazała się malejącą funkcją czasu opóźnienia wskazówki, przy czym wpływ wskazówki okazał się całkowicie zredukowany w przypadku przerwy trwającej 500 ms lub dłużej. Dodatkowo, w kolejnych badaniach z użyciem tej samej procedury ekspe­ rymentalnej stwierdzono, że jeśli pole ekspozycji zostanie tuż po zniknięciu bodźców rozjaśnione, to przechowywanie informacji w magazynie ikonicznym będzie utrudnione. Odwrotny wynik zaobserwowano, gdy pole ekspozycji zostało zaciemnione. W takich warunkach percepcyjnych wskazówka pomagała również po upływie 500 ms (nawet do 1000 ms). Z kolei, gdy bezpośrednio po prezentacji bodźców przedstawiony został w polu widzenia złożony układ innych sygnałów (np. konkurencyjna tabela innych bodźców), to możliwość prawidłowego przypomnienia sobie uprzednio prezentowanych bodźców oscylowała wokół poziomu przypadku. Kiedy natomiast zestaw bodźców składał się w połowie zarówno z liter, jak i z cyfr, wskazówka, dotycząca rodzaju bodź­ ców (liter lub cyfr), które należy sobie przypomnieć, nie miała żadnego zna­ czenia dla poprawności wykonania zadania. Uzyskane przez Sperlinga wyniki doprowadziły do sformułowania pod­ stawowej charakterystyki magazynu ikonicznego. Czas przechowywania infor­ macji w tym magazynie okazał się relatywnie krótki. W sprzyjających warunkach percepcyjnych, gdy do magazynu ikonicznego nie wchodzą żadne inne bodźce wzrokowe, czas ten może się wydłużyć nawet do 1000 ms, ale z reguły jest znacznie krótszy, przeciętnie oscyluje wokół 500 ms. Ze względu na to, że oko ludzkie dokonuje w ciągu sekundy czterech fiksacji na materiale bodźcowym (Rayner, 1997), a więc czterokrotnie ma okazję do rejestracji nowego układu bodźców, w naturalnych warunkach spostrzegania obiektów w polu wzroko­ wym czas przechowywania efektów rejestracji bodźców w magazynie ikonicz­ nym nie powinien przekraczać 250 ms. W istocie jednak czas ten jest znacznie krótszy i wynosi tylko około 100 ms, gdyż pobieranie informacji z pola wzro­ kowego nie może się dokonywać przez cały czas fiksacji oka w danym punkcie pola wzrokowego (zob. rozdz. 7.5.2). Po upływie 100 ms informacje albo są przetwarzane dalej przez bardziej złożone detektory cech, albo ulegają wyparciu przez nowe dane. 7.2. Spostrzeganie jako proces oddolny ' ; j | | S ; i ' ; | \ j | [ i 287 Z analizy wyników badań przeprowadzonych przez Sperlinga wynika również, że pojemność magazynu ikonicznego jest zmienna w czasie. Począt­ kowo rejestrowany jest niemal pełny materiał bodźcowy znajdujący się w zasięgu narządu wzroku. Sensoryczny kod zapisu informacji w tym magazynie uniemożliwia jednak jakiekolwiek opracowanie przechowywanych informacji, co zwiększyłoby szansę ich przetrwania. Ograniczenie pojemności kanału przetwarzania danych ze względu na ich bardziej złożone właściwości sprawia, iż do dalszej obróbki trafia tylko 1/3 z zarejestrowanej początkowo stymulacji. Nie ma natomiast wątpliwości, iż sposób kodowania informacji w ramach magazynu ikonicznego jest ściśle sensoryczny, związany z fizyczną charakterys­ tyką sygnału, jaka może być zdekodowana przez najprostsze detektory cech, znajdujące się jeszcze w komórkach zwojowych. Wskazówki, dotyczące fizycznej charakterystyki sygnału (lokalizacji czy też wielkości bodźców), są jedynymi, które mogą pomóc w lepszym odtworzeniu informacji zgromadzonych w tym magazynie. Badania nad funkcjonowaniem magazynu echoicznego, tj. badania w zakre­ sie gromadzenia i krótkotrwałego przechowywania bodźców słuchowych, realizowane przez Crowdera i współpracowników (Crowder, Morton, 1969; Darwin, Turvey, Crowder, 1972), prowadzono w podobnym paradygmacie jak eksperymenty nad funkcjonowaniem magazynu ikonicznego. Prezentowano w nich symultanicznie serie dźwięków z różnych lokalizacji przestrzennych, a następnie proszono osoby uczestniczące w badaniach o przypomnienie sobie dźwięków pochodzących z wybranego źródła, sygnalizowanego przez wskazówkę wizualną. Okazało się, że badani są w stanie przypomnieć sobie zaledwie jeden, ostatni dźwięk z wybranego źródła, niezależnie od jego lokalizacji. Z kolei Glucksberg i Cowan (1970), prowadząc badania w paradygmacie podążania (zob. rozdz. 5.2.1), zaobserwowali, że gdy w komunikacie ignoro­ wanym pojawiały się słowa oznaczające cyfry, to osoby badane nie były w stanie odpowiedzieć na pytanie: „jaka to cyfra?”, jeżeli przerywano im reprodukcję komunikatu ważnego w czasie dłuższym niż 4 s od momentu prezentacji cyfry. Jeśli jednak zatrzymanie czynności powtarzania ważnego komunikatu następo­ wało w czasie do 4 s od pojawienia się cyfry w kanale ignorowanym, uczestnicy eksperymentu prawidłowo przypominali sobie bodziec uprzednio zgodnie z instrukcją przez nich ignorowany. Wyniki te świadczą na korzyść tezy, że chociaż pojemność magazynu echoicznego jest znacznie mniejsza niż pojemność magazynu ikonicznego, to jednak magazyn echoiczny ma tę właściwość, że dłużej przechowuje informację. Powyższe spostrzeżenia na temat pojemności i czasu przechowywania informacji w magazynie ikonicznym i echoicznym korespondują z tym, co wiadomo na temat przetwarzania nietrwałych reprezentacji umysłowych (zob. rozdz. 2). System obrazowy jest holistyczny i umożliwia równoległe przetwarzanie większej ilości danych w tym samym czasie. System werbalny jest parcjalny i wymaga szeregowego przetwarzania kolejnych bodźców słuchowych, Nie ma natomiast różnic między dwoma magazynami informacji sensorycznej w zakresie sposobu kodowania wrażeń zmysłowych. Kodowanie to ma charakter ściśle sensoryczny i jest związane z detekcją jedynie fizycznej charakterystyki prezentowanych bodźców. 288 Rozdział 7. Percepcja 7.2.3. Spostrzeganie głębi Obraz obiektu zarejestrowany na siatkówce jest dwuwymiarowy, podczas gdy jego spostrzeżenie jest trójwymiarowe. Staje się to możliwe dzięki per­ cepcji głębi, a więc możliwości spostrzegania absolutnego dystansu (absolute distance), jaki dzieli obserwatora od obiektu oraz względnego dystansu (relative distance), dzielącego poszczególne obiekty w polu wzrokowym od siebie (Sekuler, Blake, 1994). Spostrzeganie głębi (depth perception) jest niezwykle istotnym elementem poznawczego wyposażenia człowieka, nie tylko dlatego, że pozwala mu orientować się i skutecznie działać w trójwymiarowej prze­ strzeni, ale również z tego powodu, że bez niej nie byłoby możliwe wyodręb­ nienie przedmiotu z tła. Zdolność do percepcji głębi zapewnia nam to, że rzeczywistość składa się dla nas z poznawczo odrębnych, samoistnych przed­ miotów i innych obiektów fizycznych, a nie ze zwykłej mozaiki wrażeń wzro­ kowych. Z kolei bez zdolności do percepcji przedmiotów prawdopodobnie nie byłoby myślenia pojęciowego, czyli jednego z najważniejszych procesów po­ znawczych człowieka (Lorenz, 1977). Samoistnie przedmioty mogą być bowiem grupowane według różnych kryteriów i cech, co daje podstawę do kategoryzo­ wania, a następnie do przypisania kategoriom nazw. Tak więc spostrzeganie głębi warunkuje percepcję przedmiotów, a percepcja przedmiotów jest warun­ kiem kategoryzowania i myślenia pojęciowego. Biorąc pod uwagę znaczenie tej zdolności poznawczej, nie powinno nas dziwić, że w procesie ewolucji wykształciły się liczne i różnorodne mechanizmy fizjologiczne i psychologiczne, dzięki którym - mimo dwuwymiarowej siatkówki oka - widzimy świat w trzech wymiarach, łącznie z głębią. Szacowanie przez system poznawczy odległości w polu wzrokowym jest możliwe dzięki wykorzystywaniu dwóch rodzajów wskazówek. Przede wszyst­ kim wykorzystuje się wskazówki okulomotoryczne, wynikające ze zmiany poło­ żenia obserwatora względem obiektu lub różnych obiektów względem siebie. Śledząc zmiany lokalizacji obiektu w polu wzrokowym podczas kolejnych fiksacji oka, narząd wzroku dokonuje akomodacji soczewki, pełniącej w oku funkcję obiektywu. Bliżej zlokalizowane przedmioty wymagają większej akcji mięśni, regulujących kształt soczewki i odpowiadających za jej ogniskową, podczas gdy obiekty dalekiego planu wymagają mniejszego wysiłku przystoso­ wawczego. Można to łatwo sprawdzić zbliżając do nosa z dalszej odległości palec - wysiłek mięśni soczewki, próbujących utrzymać ostrość obrazu pomimo niewielkiego dystansu absolutnego stanie się wtedy łatwo odczuwalny. Informacja o tym, ile wysiłku zużywają mięśnie, regulujące kształt soczewki, jest użyteczną i prostą wskazówką dla systemu nerwowego odnośnie do abso­ lutnego dystansu obiektu w polu wzrokowym, jednak użyteczność tej wska­ zówki jest ograniczona przez wielkość dystansu. Wskazówka ta działa najlepiej w przypadku obiektów zlokalizowanych w promieniu do kilku metrów od obserwatora, podczas gdy przy większych odległościach staje się nieprecyzyjna (Sekuler, Blake, 1994). Wtedy system poznawczy korzysta z innej wskazówki okulomotorycznej - jest nią siła sygnału przesyłanego nerwowymi drogami zstępującymi z centrum kontroli motorycznej w mózgu do mięśni, regulujących kształt soczewki. Jest to sygnał wymuszający przystosowanie się do ostrego widzenia obiektów oddalonych. 7.2. Spostrzeganie jak o proces oddolny 289 Ponadto, w percepcji głębi działają również wskazówki wizualne, które są dostępne niezależnie od ruchu obiektu w polu wzrokowym lub ruchu samego obserwatora. Znane są dwa rodzaje takich wskazówek: (1) monokularne, wymagające użycia tylko jednego oka, oraz (2) binokularne, korzystające z in­ formacji zgromadzonych przez parę oczu. Korzystanie z tych drugich jest częstsze i. łatwiejsze, ale istnienia tych pierwszych nie da się podważyć, ponieważ percepcja głębi jest przecież możliwa z użyciem tylko jednego oka (Eysenck, Keane, 1990). Wśród wskazówek jednoocznych można wyróżnić siedem podstawowych informacji, którymi kieruje się system poznawczy w ocenie głębi pola percepcyjnego. Pierwszą z nich jest wskazówka określana jako perspektywa liniowa. W oddalającej się perspektywie równoległe pobocza drogi biegnącej prostopadle do obserwatora coraz bardziej zbliżają się do siebie, zbiegając się w końcu w jedną linię. Równoległe krawędzie pozostają więc w coraz mniejszej odległości od siebie wraz ze wzrostem absolutnego dystansu. Ocena odległości może wynikać również z oszacowania wielkości cienia, rzucanego przez obiekt (druga wskazówka), jednak kierowanie się tym kryterium ma sens jedynie wówczas, gdy wszystkie obiekty w polu wzrokowym są jednolicie oświetlone. Zazwyczaj tak właśnie jest na otwartych przestrzeniach, stąd w procesie percepcji system poznawczy przyjmuje założenie owej jednolitości. W takich warunkach oświetlona jest zawsze góra obiektu, jeśli receptory wzrokowe znajdują się w normalnej pozycji percepcyjnej, charakterystycznej dlawyprostowanej postawy ciała (Horward, Bergstróm, Masao, 1990). Inaczej bywa, gdy iluminacja obiektów pochodzi z różnych źródeł i cienie rzucane przez obiekty w polu wzrokowym nakładają się na siebie. Wówczas wzrok, kierując się wskazówką wielkości cienia, ulega najprzeróżniejszym złudzeniom optycznym - np. trójwymiarowości przy dwuwymiarowych obrazach (Ramachandran, 1988). Bardzo użyteczne informacje wynikają z oceny kontrastu (wskazówka trzecia). Światło odbite od spostrzeganych obiektów musi się przebić do fotoreceptorów przez zanieczyszczoną z reguły atmosferę. W konsekwencji obiek­ ty dalsze wydają się mniej kontrastowe, a bliższe - bardziej wyraźne i odróż­ niające się od siebie. Czwarta wskazówka obejmuje szczegóły powierzchni, czyli charakterystyczne zmiany faktury przedmiotu. Szczegóły są lepiej widoczne z bliższej odległości niż dalszej. Łatwo to sprawdzić przyglądając się np. krawężnikowi drogi: stojąc na początku drogi, w bliskiej odległości od punktu obserwacji, jesteśmy w stanie rozpoznać rodzaj krawężnika, jednak z dalszego dystansu widzimy już tylko liniowe ograniczenie drogi. Ocena dystansu odbywa się również za pomocą porównania względnej pozycji obiektów w polu wzrokowym (wskazówka piąta), zgodnie z założeniem, że obiekty bliższe prze­ słaniają części obiektów dalszych. Trzeba tu jednak zwrócić uwagę na pewne niebezpieczeństwo kierowania się tą wskazówką, można bowiem ulec tzw. złudzeniu Kanizsy (1976). Gaetano Kanizsa przeprowadził eksperyment, w którym pokazywał osobom badanym 3 czarne koła ułożone w 3 rogach białej planszy. Każde koło zostało pozbawione pewnej części - tej, która była najbliższa środka planszy. W rezultacie powstało percepcyjne złudzenie białego trójkąta na pierwszym planie, który swoimi wierzchołkami jak gdyby przysłania 3 czarne koła na drugim planie (ryc. 7.1). 290 Rozdział 7. Percepcja * ^ V ^ Ryc. 7.1. Złudzenie Kanizsy. W ocenie dystansu może nam też pomóc wskazówka szósta - znajomość wielkości obiektu. Wiedząc, jaka jest prawdziwa wielkość obiektu, możemy skorygować ocenę jego odległości. Na przykład samochód pozornie równy pod względem wielkości pudełku od zapałek ocenimy po prostu jako samochód odległy, bo wiemy, jakie są mniej więcej jego prawdziwe rozmiary. Zagadnie­ niem tym zajmował się Itellson (1951), który prezentował uczestnikom swojego badania znany im przedmiot zawsze z tej samej odległości. Manipulował natomiast wielkością prezentowanego obiektu, pokazując go osobom badanym w jego naturalnej wielkości, albo w dwukrotnym powiększeniu lub pomniejsze­ niu. Okazało się, że uczestnicy eksperymentu poprawnie oceniali odległość w odniesieniu do obiektów naturalnej wielkości. Mając do czynienia z obiektami dwukrotnie zmniejszonymi, badani przeszacowywali dystans, a gdy obiekt zo­ stał dwukrotnie zwiększony, wykazywali tendencję do niedoszacowania odległości. Co więcej, w przypadku obiektów zmniejszonych odległość była przeceniona mniej więcej dwukrotnie, a jeśli chodzi o obiekty zwiększone nie­ doszacowanie wyniosło tylko ok. 10%. Sześć wyżej omówionych wskazówek ma charakter statyczny (Sekuler, Blake, 1994; Eysenck, Keane, 1995). Wśród jednoocznych wskazówek wyróżnia się także siódmą, dodatkową wskazówkę, związaną z ruchem obiektów w polu wzrokowym. Jeśli dwa obiekty, bliższy i dalszy, wskazane obserwatorowi, po­ ruszają się w polu wzrokowym z tą samą prędkością, to obiekt dalszy pokonuje pozornie krótszą drogę. Na podstawie oceny paralaksy ruchowej, tj. przebytego dystansu, system poznawczy może wnioskować, który obiekt znajduje się bliżej, a który dalej. Podobnie rzecz się ma w przypadku, gdy porusza się obserwator, a obiekty w polu wzrokowym są statyczne. Jeśli chodzi o wskazówki dwuoczne, wyróżnia się dwie, z których jedna, konwergencja dwuoczna, działa podobnie jak wskazówka okulomotoryczna, bo wykorzystuje informację o napięciu mięśni sterujących ruchem gałek ocznych. Skupienie wzroku na obiekcie bliskim wymaga bardziej rozwartego kąta widzenia, podczas gdy przedmioty odległe wymagają kąta bardziej ostrego (ryc. 7.2). Mięśnie sterujące gałką oczną muszą wykonać odpowiednią pracę, która jest znacznie bardziej intensywna w przypadku obiektów bliskich. Na­ pięcie mięśni sterujących ruchem gałek ocznych i odpowiedzialnych za ich konwergencję jest informacją, na podstawie której mózg oblicza odległość obiektu. Druga wskazówka wiąże się z faktem, że każde z dwojga oczu odbiera 7.2. Spostrzeganie jako proces oddolny 291 Ryc. 7.2. Fizjologiczny mechanizm widzenia stereooptycznego. Jeśli obiekt jest odległy, gałki oczne muszą się na nim skupić pod mniejszym, bardziej ostrym kątem a, podczas gdy w przypadku obiektu odległego gałki skupiają się pod bardziej rozwartym kątem p (góra ryc.). Ponadto każda gałka oczna „widzi” obiekt nieco inaczej, ale w przypadku obiektu odległego ta różnica jest mniejsza (dół ryc.). Mózg ocenia odległość obiektu biorąc pod uwagę zarówno kąt konwergencji gałek ocznych, jak też rozbieżność informacji docierającej do każdej z gałek. i | | [ [ [ [ ś nieco inną informację o spostrzeganym obiekcie. Ze względu na swoją lokalizację (umieszczenie obok siebie w odległości przeciętnie 65 mm), każde z oczu obserwuje pole wzrokowe z nieco innej pozycji, a więc pod innym kątem. W konsekwencji ten sam obiekt jest widziany inaczej przez prawe i lewe oko, chociaż w procesie identyfikacji obiektu system poznawczy różnicę tę zaniedbuje. Wykorzystuje ją natomiast w procesie percepcji głębi - wielkość tej różnicy przekłada się bowiem na ocenę względnego dystansu pomiędzy obiektami w polu wzrokowym. Im bliżej siebie znajdują się spostrzegane obiekty, tym większe jest 292 Rozdział 7. Percepcja zróżnicowanie w zakresie obrazu pomiędzy lewym a prawym okiem; im dalej są położone, tym różnice te są mniejsze. Zdolność do oszacowania względnego dystansu obiektów znajdujących się obok siebie w polu wzrokowym, nazwano widzeniem stereooptycznym (stereopsis; Sekuler, Blake, 1994). 7.2.4. Identyfikacja obiektu Proces identyfikacji obiektu składa się z kilku faz. Humphreys i Bruce (1989) sugerują, że odbywa się on w sposób szeregowy, a kolejne fazy nie mogą się rozpocząć bez ukończenia wcześniejszych stadiów. Proponowany przez Humphreysa i Bruce model spostrzegania jest więc skonstruowany zgodnie z założeniami klasycznych modeli blokowych (zob. rozdz. 1). Pierwsza faza identyfikacji obiektu to faza recepcji danych zmysłowych. Te wczesne procesy spostrzegania prowadzą do reprezentacji obiektu w systemie poznawczym w for­ mie zależnej od punktu obserwacji. Utworzenie takiego odzwierciedlenia sty­ mulacji kończy fazę drugą omawianego procesu. W fazie trzeciej następuje klasyfikacja percepcyjna obiektu - jego struktura (dane zmysłowe) jest porów­ nywana ze zgromadzonymi w ramach systemu wiedzy strukturami znanych obiektów (dane umysłowe). Klasyfikacja percepcyjna poprzedza więc klasyfika­ cję semantyczną, w trakcie której przywołane zostają dane dotyczące funkcji pełnionych przez obiekt oraz dane innych obiektów blisko z nim związanych. Wreszcie w ostatniej fazie następuje klasyfikacja leksykalna, w trakcie której obiektowi przypisywana jest skojarzona z nim etykieta werbalna. Odrębność faz klasyfikacji percepcyjnej i semantycznej potwierdzili Humphreys i Riddoch (1987). Badany przez nich pacjent HJA wykazywał deficyty w rozpoznawaniu struktury percepcyjnej obiektów: czynność ta zajmowała mu nawet do 30 s w przypadku prostych obiektów; nie mógł od­ różnić rysunków obiektów rzeczywistych od nierzeczywistych, ale złożonych z rzeczywistych części. Nie miał jednak żadnych problemów z klasyfikacją semantyczną przedmiotu już poprawnie zidentyfikowanego. Z kolei pacjent JB stosunkowo poprawnie klasyfikował percepcyjnie i leksykalnie pokazywane mu obiekty. Miał jednak problemy z zapamiętywaniem i przypominaniem sobie funkcji, jakie pełnią obiekty już przez niego nazwane. Silveri i Gainotti (1988) wykazali jednak, że faza klasyfikacji leksykalnej zależy od przebiegu poprzednich faz procesu identyfikacji obiektów. Nie można więc mówić o całkowitej niezależności wskazywanych przez Humphreysa i Bruce faz identyfikacji obiektu. Przypisanie etykiety werbalnej na podstawie definicji percepcyjnej (struktura i wygląd obiektu) okazało się w ich badaniu znacznie mniej efektywne niż nadanie nazwy obiektowi, którego definicja se­ mantyczna (funkcje i znaczenie obiektu) jest znana. Inni badacze, Howard i Orchard-Lisle (1984), pokazali ponadto, że w przypadku pacjentki JCU, mającej kłopoty z klasyfikacją leksykalną, dodatkowa wskazówka w postaci pierwszego fonemu poprawnej nazwy pomagała w nadaniu etykiety werbalnej, a wskazówka w postaci fonemu obiektu semantycznie związanego z aktualnie nazywanym - wręcz przeszkadzała. Wyniki te wskazują, z jednej strony, na relatywną odrębność poszczególnych faz identyfikacji obiektu (upośledzenie 7.2. Spostrzeganie jako proces oddolny : I : ; * : 1 ; I 293 jednej raczej nie przekłada się na deficyty w innej), a z drugiej - na ich sztywne następstwo czasowe konieczne dla efektywności procesu identyfikacji. Badacze procesu spostrzegania, analizując proces identyfikacji obiektu, skupili się raczej na fazie identyfikacji percepcyjnej. Na przykład Marr i współ­ pracownicy (Marr, 1982; Marr, Nishihara, 1978) skoncentrowali się na badaniu procesu tworzenia reprezentacji obrazowej obiektów w umyśle przez detekcję określonych cech strukturalnych tych obiektów. Klasyfikacji semantycznej na najwyższym poziomie rozpoznawania obiektów badacze ci poświęcili relatywnie niewiele miejsca (zob. opis teorii obliczeniowej w rozdz. 7.4.5). Podobnie Irving Biederman (1987) w swojej teorii identyfikacji obiektów poprzez detekcję ich geometrycznych komponentów strukturalnych, zwanych geonami (geons; tj. geometrical ions), bardziej zwraca uwagę na proces konstrukcji reprezentacji percepcyjnej niż semantycznej, czy też leksykalnej. Zgodnie z jego koncepcją, 36 różnych kształtów geometrycznych, takich jak np. bloki, walce, sfery, łuki czy ostrosłupy, zupełnie wystarczy do opisania zróżnicowania w zakresie wszyst­ kich obiektów rzeczywistych (ryc. 7.3). Podobnie zresztą tylko 44 fonemy, istniejące w języku angielskim, wystarczają do stworzenia reprezentacji lek­ sykalnej wszystkich znanych słów w tym języku (Eysenck, Keane, 1990). Według Biedermana system poznawczy dysponuje subsystemami, umożliwiają­ cymi rozpoznanie tych kształtów dzięki zbieraniu informacji dotyczących rejestrowanych w polu wzrokowym linii, krawędzi i kątów, przy czym analizie podlegają cechy równoległości i symetrii. W ten sposób detekcja kubka wymaga rozpoznania dwóch komponent strukturalnych: cylindra (na ciecz) i łuku (ucho do trzymania). Rozpoznane komponenty są następnie zestawiane z trwałymi reprezentacjami umysłowymi w celu identyfikacji postrzeganego obiektu. Klasyfikacja percepcyjna jest rozstrzygana na rzecz takiej reprezentacji, do której komponenty strukturalne są najlepiej dopasowane. Biederman i współpracownicy (Biederman, Ju, Clapper, 1985; Biederman, Beiring, Blickle, 1985) potwierdzili słuszność koncepcji rozpoznawania obiektów dzięki detekcji komponentów strukturalnych. W pierwszym badaniu udało im się wykazać, że niekompletność komponentów nie jest przeszkodą w identyfikacji obiektu, bowiem nadal - w celu rozpożnania prezentowanego przedmiotu - system poznawczy dobiera taką reprezentację, która najlepiej pasuje do obrazu percepcyjnego. W ten sposób pozbawienie 9-komponentowego obiektu nawet czterech elementów strukturalnych nie wyklucza jeszcze poprawnej identyfikacji. W następnym eksperymencie Biederman i współpracownicy pokazywali osobom badanym trzy rodzaje obiektów wizualnych: kompletne, niekompletne, tj. pozbawione jakiegoś komponentu (np. stół pozbawiony jednej nogi), oraz zniekształcone, tj. utworzone z komponentów kompletnych, ale zdegradowanych (np. stół z blatem i wszystkimi nogami narysowany przerywaną kreską). Obiekty były prezentowane krótko (100 ms), albo długo (200 ms). Oczywiście najlepiej identyfikowane były obiekty kompletne. W przypadku krótkiej prezentacji badani poprawniej identyfikowali obiekty pozbawione jakiegoś komponentu niż obiekty kompletne, ale znie­ kształcone przez niewyraźną formę prezentacji. W przypadku dłuższej prezenta­ cji wzorzec wyników ulegał odwróceniu - uczestnicy badania lepiej identyfikowali obiekty zdegradowane, choć kompletne pod względem tworzących je geonów. Interpretując uzyskane wyniki, Biederman ustalił, że krótka prezenta- 294 Rozdział 7. Percepcja cP (p o 0 + + + + + + + + + + + — + + + + — + + — -+ + + + Ryc. 7.3. Geony i obiekty z nich utworzone Na górnej części ryc. widzimy sześć geonów, różniących się pod względem czterech kryteriów: krzywizny krawędzi, symetrii, stałości kształtu na całej długości oraz krzywizny głównej osi. Na przykład pierwszy geon („cegła”) charakteryzuje się brakiem krzywizny krawędzi, symetrią, stałym kształtem na całej długości oraz brakiem krzywizny (za: Biederman, 1987). Na dolnej części ryc. pokazano cztery przykładowe obiekty utworzone z geonów. 7.3. Spostrzeganie jako proces odgórny 295 cja mało wyrazistych percepcyjnie bodźców uniemożliwia detekcję komponen­ tów strukturalnych - dlatego w tym warunku percepcyjnym lepiej dla rozpoznawanego obiektu jest, aby przynajmniej kilka komponentów było wy­ raźnych, a braki w zakresie pozostałych zostają pominięte w procesie dostosowania reprezentacji wizualnej do umysłowej. Długa prezentacja pozwala z kolei na odgórne uzupełnienie brakujących części wszystkich elementów strukturalnych rozpoznawanych obiektów i wówczas identyfikacja staje się możliwa dzięki korekcie geometrycznych komponentów strukturalnych. j 7.3. Spostrzeganie jako proces odgórny i Nie lekceważąc roli procesów oddolnych, trzeba stwierdzić, że spostrzeganie j jest również procesem odgórnym (top-down). Identyfikacja obiektów w polu I percepcyjnym jest możliwa dzięki temu, że reprezentację percepcyjną kon­ frontuje się z danymi umysłowymi. To one gwarantują z jednej strony stałość spostrzegania (twarz mimo zmian rozwojowych pozostaje twarzą przynależną tej samej osobie), choć z drugiej strony są przyczyną powstawania różnorod­ nych błędów i złudzeń percepcyjnych. Dowody na odgórny charakter percepcji znajdziemy w czterech grupach badań: nad (1) stałością spostrzegania; (2) [• wpływem nastawienia na spostrzeganie; (3) złudzeniami i błędami w spostrze­ ganiu, a także nad (4) wpływem kontekstu na spostrzeganie. Wiele badań tego rodzaju wywodzi się z teorii postaci (Gestalt, zob. rozdz. 7.4.2). Inne zapocząt­ kowano w nurcie badawczym nazwanym „nowym spojrzeniem” na spostrzega­ nie (New Look), zapoczątkowanym pod koniec lat 40. XX w. przez Jerome’a Brunera (Bruner, Goodman, 1947; Bruner, Postman, 1947). Badania prowa­ dzone w tym nurcie akcentowały wpływ oczekiwań i nastawienia na proces spostrzegania, a ponadto widziały percepcję w szerszym kontekście badań nad osobowością, motywacją i czynnikami społecznymi. 7.3.1. Stałość spostrzegania Stałość percepcyjna ma miejsce wtedy, gdy spostrzeżenie jakiegoś obiektu nie zmienia się, mimo zmiany warunków, np. oświetlenia lub odległości, co prowadzi do zmian w zakresie bodźca dystalnego, a w konsekwencji do zmian w zakresie bodźców proksymalnych i rejestrowanych wrażeń. Doświadczenie zgromadzone w formie trwałych reprezentacji umysłowych pozwala systemowi poznawczemu na konstatację, że ten sam obiekt nie może zmieniać swojej fizycznej charak­ terystyki wraz ze zmianą perspektywy, warunków oświetlenia lub kontekstu. Wykrywanie stałości percepcyjnych pozwala na „korygowanie” obrazu na siatkówce (Gibson, 1966). W efekcie spostrzegamy coś, czego nie widzą nasze zmysły, a co podpowiada nam nasza wiedza o świecie rzeczywistym. Wyróżnia się kilka podstawowych stałości percepcyjnych. Stałość wielkości polega na tym, że ten sam obiekt reprezentuje zawsze tę samą wielkość niezależnie od absolutnego dystansu pomiędzy obserwatorem a spostrzeganym obiektem. Jego obraz na siatkówce jest tym bardziej pomniejszony, im dalej 296 Rozdział 7. Percepcja znajdują się względem siebie obserwator i obiekt, jednak wrażenie to pozostaje bez wpływu na doświadczaną w spostrzeżeniu właściwość wielkości obserwo­ wanego obiektu. Zjawisko stałości wielkości umożliwia więc korektę wrażenia wynikającego z oszacowania dystansu absolutnego. Uczestnicy eksperymentu Itellsona (1951; zob. rozdz. 7.2.3), nieświadomi manipulacji wielkością obiek­ tów, błędnie oceniali stały dystans pomiędzy prezentowanym im znanym bodźcem a ich punktem obserwacji. Bodziec ten w przekonaniu osób badanych miał stałą wielkość, skoro więc odczuwali oni wrażenie jego zmieniającej się wielkości, to zmianie musiała ulec ocena odległości obserwatora od obiektu. Takich też oszacowań dokonywali uczestnicy eksperymentu Itellsona. Z kolei stałość kształtu pozwala na korektę wrażeń związanych z dystansem względnym. Jak się powszechnie sądzi, obserwowanie figur geometrycznych pod różnym kątem prowadzi często do początkowo błędnego wnioskowania o ich kształcie: okna zamiast prostokątnych wydają się trapezowate, a ściany budyn­ ków zdają się być najwyższe w punkcie obserwacji. Zmiana punktu obserwacji i wykorzystanie przez umysł zasady stałości kształtu pozwala na korektę tych błędnych wrażeń w spostrzeżeniu. Podobnie, stałość jasności i barwy wynika z odzwierciedlonych w ramach trwałych reprezentacji umysłowych właściwości wizualnych konkretnych obiektów. Wychodząc w zimie nocą na spacer, cieszymy się, że na ziemi leży biały śnieg, który być może rozjaśni nam ciem­ ności, mimo że z braku słońca nie odbija on niemal żadnego światła. Śnieg jest w takich warunkach percepcji co najwyżej szary, ale i tak widzimy go jako biały, bo wiemy, że taki jest ze swej natury. Na tej samej zasadzie krew widzimy raczej w kolorze czerwonym, nawet na czarno-białym filmie, a trawę - w zielonym, nawet na impresjonistycznym obrazie, gdzie naprawdę jest fioletowa. 7.3.2. N astaw ienie Nastawienie percepcyjne {perceptual set) to wstępne przygotowanie umysłu do odbioru w procesie spostrzegania określonej informacji. Jeśli np. człowiek jest przygotowany, że zobaczy kwadrat, może być przekonany, że tak właśnie się stało, mimo że naprawdę pokazano mu prostokąt lub trapez. Prostą ilustracją zjawiska nastawienia percepcyjnego jest spostrzeganie rysunków, dwuznacz­ nych, których interpretacja percepcyjna zależy od tego, co pokazywano nam wcześniej lub czego się spodziewamy. Na przykład kształt o może być odczytany jako jedna z liter alfabetu greckiego, jako zlepek dwóch małych liter „d” i „p”, a nawet jako kontur ptaka w locie. Siła nastawienia percepcyjnego może być tak duża, że spostrzeżenie będzie zupełnie nieadekwatne do rzeczywistości. W przypadkach mniej skrajnych na­ stawienie wydłuża czas spostrzegania obiektów nieoczekiwanych, czyli nie­ zgodnych z treścią nastawienia, a skraca czas percepcji obiektów oczekiwanych. Nastawienie percepcyjne odpowiada też za niektóre błędy kategoryzacji. Przy­ puśćmy, że pokażemy komuś rysunek, który może być zintepretowany na dwa sposoby: jako wizerunek łysego mężczyzny w okularach lub sylwetka szczura 7.3. Spostrzeganie jako proces odgórny 297 (Bugelski, Alampay, 1961). Jeśli wcześniej pokażemy serię rysunków należących do jednej z tych kategorii (np. obrazki różnych zwierząt), sprawimy, że rysunek dwuznaczny będzie zintepretowany jako przedstawiający szczura. Wystarczą cztery wcześniej pokazane rysunki zwierząt, aby 100% osób badanych zobaczyło szczura, podczas gdy w grupie kontrolnej, nie poddanej działaniu nastawienia, 81% osób spontanicznie interpretuje dwuznaczny rysunek jako portret mężczyzny (ryc. 7.4). Ryc. 7.4. Wpływ nastawienia na spostrzeganie dwuznacznego rysunku. Ostatni rysunek, identyczny w obu rzędach, jest przez większość osób interpretowany jako portret mężczyzny w okularach. Jeśli jednak wcześniej pokażemy cztery rysunki zwierząt, większość ludzi zobaczy w ostatnim rysunku sylwetkę szczura (za: Bugelski, Alampay, 1961). Wpływ nastawienia wywołanego manipulacją eksperymentalną jest krótko­ trwały. Aby je wyeliminować, zwykle wystarczy jawne odwołanie poprzedniej instrukcji lub zmiana charakteru bodźców poprzedzających. Bywają jednak ro­ dzaje nastawienia, wynikające z trwałych i głęboko utrwalonych struktur wiedzy albo ze stereotypów i uprzedzeń. Osoba uprzedzona w stosunku do pewnej grupy etnicznej będzie dostrzegać w wyglądzie i zachowaniu jej członków cechy, których zwykle nie zauważa, jeśli są to cechy zgodne ze stereotypem. 7.3.3. Złudzenia i błędy percepcji Trzecia grupa faktów, świadczących o odgórnym charakterze spostrzegania, to złudzenia i błędy w odbiorze informacji z otoczenia. Lista złudzeń percepcyjnych jest niezwykle długa, a podłoże działania różnych kategorii złudzenia jest nieco inne (Gregory, 1997). Niemniej niektóre z nich potwierdzają zasadę, że wiedza i wcześniejsze przygotowanie umysłu zniekształca sposób widzenia obiektów, czyli sposób interpretowania danych zmysłowych. Spektakularnym przykładem złudzeń percepcyjnych są tzw. figury nie­ możliwe (ryc. 7.5). Widząc tzw. trójkąt Penrose’a, nie umiemy zinterpretować poszczególnych linii, cieni i konturów, tak aby uzyskać spójną interpretację tego, co właściwie jest nam pokazywane. Nie umiejąc dokonać interpretacji, dochodzimy do wniosku, że taki przedmiot jest niemożliwy, to znaczy nie istnieje inaczej, jak tylko w wyobraźni artysty. Figury niemożliwe, w których lubował się holenderski artysta Maurits Comelis Escher, są interesującym 298 Rozdział 7. Percepcja a a \ a Ryc. 7.5. Figury „niemożliwe”. Pierwsza to trójkąt Penrose’a, a trzecia to „niemożliwy” sześcian Neckera. przykładem działania konwencji przedstawiania trójwymiarowych przedmiotów na dwuwymiarowej kartce papieru. Chcąc narysować trzeci wymiar, artysta musi posłużyć się umownymi wskazówkami tego, co jest bliżej, a co dalej. Obie strony - twórca i odbiorca - znają tę konwencję jako coś zastanego, czyli jako część kultury, w której wzrastali. Wobec tego mogą nie zdawać sobie sprawy, że mają do czynienia z konwencją, która w innej kulturze, być może, nie obowiązywałaby (Deregowski, 1972). Niekiedy artysta dopuszcza się celowego nadużycia owej konwencji i w ten sposób powstają figury niemożliwe. Efekt paradoksu i zaskoczenia wynika stąd, że są to obiekty niemożliwe do wyprodu­ kowania, ale możliwe do narysowania. 7.3 .4 . W pływ kontekstu na spostrzeganie Ten sam układ bodźców może być różnie interpretowany w zależności od bodźców towarzyszących. Oznacza to, iż samo wrażenie zmysłowe może także prowadzić do zupełnie różnych spostrzeżeń. Siłę wpływu kontekstu można ocenić na przykładzie prostego układu 6 czarnych kół, położonych koncen­ trycznie wokół koła białego (ryc. 7.6). W zależności od tego, czy koło białe jest otoczone czarnymi kołami o małej czy dużej średnicy, może być widziane jako większe lub mniejsze. Mamy tu do czynienia ze złudzeniem percepcyjnym, którego mechanizm polega na działaniu kontekstu sytuacyjnego, wywołanego szczególnym układem bodźców. W klasycznym eksperymencie Stevena Palmera (1975) osobom badanym pokazywano złożoną scenę, np. widok typowej kuchni, a następnie pojedyncze obiekty, takie jak bochenek chleba, skrzynka na listy i dziecięcy bębenek do gry. 7.4. Teorie percepcji 299 :o: so -j * Ryc. 7.6. Wpływ kontekstu na spostrzeganie. Środkowe białe koło jest w obu wypadkach identyczne, jednak lewe wydaje się większe od prawego. Zadanie polegało na nazwaniu tego obiektu, co wymagało jego rozpoznania percepcyjnego i zaliczenia do właściwej kategorii. Dodatkowo manipulowano stopniem wzajemnego podobieństwa obiektów wymagających rozpoznania; np. bochenek chleba nieco przypominał wyglądem skrzynkę na listy. Okazało się, że gdy obiekt był dopasowany do kontekstu, wprowadzonego przez wcześniej pokazywaną scenę (np. chleb i widok kuchni), rozpoznawano go łatwo i często, bo w ponad 80% przypadków. Gdy zaś obiekt był neutralny ze względu na kontekst, rozpoznawano go znacznie gorzej (ponad 60% rozpoznań), ale naj­ gorzej (ok. 40% prawidłowych odpowiedzi) rozpoznawano obiekty niezgodne z kontekstem, ale wizualnie podobne do obiektów zgodnych z kontekstem (np. skrzynka na listy w kontekście kuchni). Podobnie jak w przypadku prostych figur geometrycznych (por. ryc. 7.6), to samo wrażenie zmysłowe może pro­ wadzić do różnych perceptów, które w dodatku są konstruowane z mniejszym lub większym wysiłkiem. 7.4. Teorie percepcji Teorie spostrzegania dotyczą różnych aspektów tego procesu. Starsze koncep­ cje, jak teoria asocjacjonistyczna czy postaciowa, odpowiadają na pytanie o wzajemne zależności pomiędzy wrażeniami i spostrzeżeniami, koncentrując swoje rozważania na problemie prymatu całości lub części w procesie percepcji. Koncepcje te noszą nazwę teorii strukturalnych. Teorie modeli i teorie cech poszukują odpowiedzi na pytanie, w jaki sposób rozpoznajemy obiekt w polu percepcyjnym, zaś sam proces recepcji sensorycznej raczej ich nie zajmuje. Są one nazywane teoriami identyfikacji obiektów. Najpełniej proces spostrzegania opisują koncepcja obliczeniowa i koncepcja ekologiczna, wskazując w nieco odmienny sposób na dwukierunkowy (oddolny i odgórny) charakter procesu spostrzegania. 7.4.1. Teoria asocjacjonistyczna [Główną tezą koncepcji asocjacjonistycznej jest twierdzenie, że spostrzeżenie to prosta suma wrażeń i powstaje jako ich połączenie. Na przykład percepcja koncertu rockowego „na żywo” jest wynikiem sumowania szeregu wrażeń po­ chodzących z różnych zmysłów. Są wśród nich wrażenia: (1) słuchowe, zwią­ 300 Rozdział 7. Percepcja zane z odbieranymi dźwiękami muzyki i reakcją tłumu; (2) wzrokowe, wyni­ kające m.in. z oprawy scenicznej występu; (3) węchowe, przybierające na sile wraz z czasem trwaniem występu (oraz ilością „wylanego potu”); czy też (4) dotykowe, zależne od miejsca, z którego występ się ogląda (pod sceną zazwyczaj jest tłoczniej). Pozbawienie koncertu rockowego na żywo pewnych wrażeń, takich jak wrażenia dotykowe, węchowe czy zapewne także niektóre wrażenia słuchowe (np. chóralny śpiew publiczności) prowadzi do zmiany spostrzeżenia - żaden szanujący się bywalec tego typu imprez nie uzna wyda­ rzenia pobawionego powyższych wrażeń za koncert rockowy na żywo. Z drugiej strony, w przypadku koncertu rockowego oglądanego w telewizji ważne są jedynie wrażenie wzrokowe i niektóre słuchowe, a słuchanego w radio - jedynie wrażenia słuchowe. Odmienne zestawy wrażeń definiują więc, przez swoją su­ mę, odmienne spostrzeżenia. Wrażenia łączą się ze sobą w spostrzeżenia na zasadzie praw kojarzenia. Pierwsze prawo dotyczy styczności wrażeń w czasie. W procesie percepcji łączymy ze sobą w spostrzeżenie te wrażenia, które współwystępują w tym samym czasie, bądź też te, które wiąże następstwo czasowe. W ten sposób wrażenia smakowe, związane np. z piciem szampana, z jednej strony kojarzą się z wrażeniami dobrej zabawy, z drugiej jednak strony - z wrażeniem bólu głowy następnego dnia. Drugie prawo mówi o styczności wrażeń w przestrzeni. W tym przypadku łączymy ze sobą w spostrzeżenie te wrażenia, które współwystępują w jednym miejscu przestrzeni. W ten sposób doznanie gorąca raczej nie zostanie skojarzone z wrażeniem bieli śniegu, a doznanie zimna z wrażeniem barwy pustynnego piasku. Trzecie prawo głosi zasadę kojarzenia wrażeń przez podobieństwo. Spostrzeżenie powstaje z połączenia wrażeń, które uznajemy za podobne z jakiś powodów, np. pod względem barwy czy kształtu. Wreszcie ostatnie prawo głosi, że wrażenia mogą tworzyć spostrzeżenie przez wzajemny kontrast. Człowiek mały wzrostem bywa często uznawany za wielkiego duchem, nawet wtedy, gdy jego duch nie jest wcale silniejszy niż innych ludzi. Współwystępowanie wrażeń jest niezbędnym, ale niewystarczającym wa­ runkiem powstania spostrzeżenia. Dopiero wielokrotne łączne występowanie poszczególnych wrażeń sprzyja powstaniu skojarzenia w postaci spostrzeżenia. W przeciwnym wypadku ktoś, kto widziałby śnieg tylko kilka razy podczas kwietniowych wypadów na narty na Kasprowy Wierch, mógłby dokonać spostrzeżenia, iż biel śniegu jest powiązana z wrażeniem ciepła, a nie zimna. Najbardziej problematycznym twierdzeniem koncepcji asocjacjonistycznej jest jednak teza jednoznacznie identyfikująca sumę wrażeń z konkretnym spostrze­ żeniem. Znanym przykładem przemawiającym przeciwko tej tezie jest spostrzeżenie kostki Neckera (ryc. 7.7). Wrażenia powstające przy oglądaniu tego sześcianu za każdym razem są takie same, jednak spostrzeżenia mogą być zupełnie inne, w zależności od tego, na której ścianie - przedniej czy tylnej jako pierwszej zogniskuje się wzrok. Koncepcja asocjacjonistyczna głosi więc prymat części nad całością oraz wrażeń nad spostrzeżeniam i, które od wrażeń właśnie są całkowicie i jednoznacznie zależne. Niezwykle prosty mechanizm powstawania spostrzeże­ nia jako prostej sumy wrażeń, sugerowany przez tę koncepcję, jest całkowicie oddolny i nie uwzględnia w ogóle roli reprezentacji umysłowych w procesie percepcji. A przecież fakt braku spostrzeżenia „ciepłego śniegu” na Kasprowym 7.4. Teorie percepcji 301 Ryc. 7.7. Sześciany Neckera. W zależności od tego, które z krawędzi uznamy za bliższe obserwato­ rowi, możemy wyobrazić sobie zupełnie różne interpretacje tego samego układu wrażeń wzrokowych. Wierchu w kwietniu na równi wynika z rzadkości współwystępowania wrażenia ciepła i bieli śniegu, jak i z faktu korzystania z trwałych reprezentacji umysło­ wych, czyli wiedzy na temat warunków klimatycznych panujących w polskich górach na wiosnę. 7.4.2. Teoria postaciowa Zwolennicy postaciowej koncepcji spostrzegania (Max Wertheimer, Kurt Koffka, Wolfgang Kohler) jako podstawową przyjęli tezę prymatu całości nad częścią. Ich zdaniem (np. Wertheimer, 1923) pierwotne są spostrzeżenia, wra­ żenia zaś wtórne, gdyż wynikają z analizy tego, co zostało pierwotnie spostrze­ żone. Całość jest czymś więcej niż sumą części, dlatego sumowaniem wrażeń nie da się, według psychologów postaci, wyjaśnić procesu percepcji. Prostymi argu­ mentami na rzecz tej tezy są: (1) zjawisko płynnego ruchu pozornego elementów statycznych (szybko wyświetlane po sobie statyczne obrazy wywołują złudzenie ruchu, np. w filmie rysunkowym) oraz (2) spostrzeganie konstelacji gwiazd wcześniej niż elementów składających się na te konstelacje. Drugi z powyższych argumentów potwierdził empirycznie Navon (1977). Prezentował on osobom badanym bodźce w postaci liter, które skonstruował z innych liter (por. ryc. 6.4), polecając wyodrębnić albo literę stanowiącą budulec (spostrzeganie części), albo literę zbudowaną z innych liter (spostrzeganie całości). W wyniku prze­ prowadzonego eksperymentu wykazał on, że spostrzeganie postaci jest z reguły szybsze niż spostrzeganie części stanowiących tę postać. Jeden z najwybitniejszych psychologów postaci, Max Wertheimer (1923), podał pięć podstawowych zasad, zgodnie z którymi system poznawczy w procesie spostrzegania wyodrębnia całości (figury) z tła różnorodnych wra­ żeń. Zasady te działają automatycznie, odpowiadając za spontaniczną orga­ nizację elementów w polu spostrzeżeniowym. Autor ten stwierdził, że figurę tworzą elementy znajdujące się blisko siebie. Bliskość przestrzenna poszcze­ gólnych elementów konstelacji gwiazd decyduje więc o tym, że spostrzegamy je jako całość, czyli gwiazdozbiór. Zauważył również, że figurę tworzą ele­ 302 Rozdział 7. Percepcja menty jednakowe lub podobne. Gdyby nie podobieństwo, czyli jednakowy wygląd kartek, ryzę papieru widzielibyśmy jako 500 pojedynczych arkuszy. Zgodnie z kolejną zasadą Wertheimera, figurę definiuje kontynuacja, inaczej wspólny ruch obiektów w tym samym kierunku, nawet wyobrażony. Spostrze­ gamy więc korek samochodowy jako całość, a nie jako zbiór pojedynczych samochodów w różny sposób blokujących nam przejazd. Figurą staje się również obiekt niedokończony, który w jakiś sposób można „domknąć”; rządzi tym kolejna reguła, zwana zasadą pregnancji. Z dwóch układów geometrycz­ nych percepcyjnie łatwiej wyodrębnić ten, który tworzy linię zamkniętą (jest fizycznie domknięty). Jeśli natomiast jakiemuś obiektowi brakuje poje­ dynczej części (np. trójkątowi brak jest jednego wierzchołka), to w procesie spostrzegania fakt ten jest pomijany: widzimy trójkąt, a dopiero późniejsza analiza pozwala znaleźć jego niedoskonałości jako figury geometrycznej (ryc. 7.8). Obserwacje te ujęto w ogólną zasadę dobrej figury. Właśnie ze względu na tę zasadę tak trudno jest dobrze wykonywać zawód korektora tekstów: nawet doświadczony redaktor często nie zauważa literówek, mentalnie uzupełniając błędnie napisane słowo do dobrej figury, jaką jest wyraz napisany poprawnie. a) Zasada bliskości: mimo tej samej liczby gwiazdek, po lewej stronie widzimy dwie linie, po prawej sześć mniejszych odcinków. ^> ]<>;<^ >;« % * ^ łji # »¡«# # # ¡5«# >J{ % %#* »¡i & b) Zasada podobieństwa: widzimy raczej sześć kolumn niż cztery rzędy. * <- % <■ ❖ ^ * < * < * < * < * < * < c) Zasada kontynuacji (wspólnej drogi, wspólnego losu): widzimy dwie przecinające się linie, a nie kilkanaście rozrzuconych w nieładzie krótkich odcinków. \ i / __ ^ " d) Zasada pregnancji: widzimy trójkąt, mimo że poniższa figura nie jest „domknięta”. Ryc. 7.8. Zasady percepcji postaci, czyli reguły spontanicznego grupowania się elementów w polu spostrzeżeniowym, opisane przez psychologów postaci. 7.4. Teorie percepcji 303 I [ Koncepcja postaciowa sugeruje zatem wyraźną wtómość wrażeń wobec spostrzeżeń. Parafrazując tytuł publikacji Navona (1977), ludzie z reguły najierw zauważają las, a następnie zdolni są wyodrębnić poszczególne drzewa tworzące ten las. Niemniej nie brakuje też i takich, którzy wpierw dostrzegają elementy budujące większą całość, by potem z nich złożyć spostrzeżeniową postać. Wieloletnie eksperymenty autorów tego podręcznika z udziałem stu­ dentów i studentek I roku psychologii z wykorzystaniem procedury Navona wyraźnie wskazują, że o ile kobiety szybciej radzą sobie w warunku percepcji detali, o tyle mężczyźni znacznie szybciej wykonują zadanie, gdy wymaga się od nich postrzegania całości. Wyniki te sugerują istnienie znacznych różnic indywidualnych w zakresie ulegania zasadzie prymatu percepcyjnego (części nad całością lub całości nad częścią), a w konsekwencji pozwalają na konkluzję, iż obie wyżej opisane strukturalne koncepcje spostrzegania: asocjacjonistyczna oraz postaciowa, mogą prawidłowo opisywać proces percepcji w zależności od warunków percepcji oraz indywidualnych cech systemu poznawczego. Ta ostatnia teza jest zresztą zgodna z piątą zasadą percepcji postaci głoszącą, iż o tym, czym jest figura, decyduje nastawienie i doświadczenie percepcyjne. Jeśli podmiot cechuje się analityczno-detalicznym stylem percepcyjnym, wykształco­ nym wskutek wcześniejszych doświadczeń percepcyjnych, to raczej trudno od niego wymagać, aby proces spostrzegania rozpoczynał od detekcji całościowo ujmowanego, nadrzędnego obiektu w polu percepcyjnym. J 7.4.3. Teoria wzorców ; ; j | Koncepcja ta zakłada, że proces identyfikacji obiektu przebiega na zasadzie porównania obrazu percepcyjnego z jego umysłowym wzorcem (template). O wzorcach porównawczych zakłada się, że są holistycznymi, nie podlegającymi rozbiciu na elementy składowe, jednostkami (Reed, 1988). Proces porównania zmierza do pomiaru wielkości korespondencji (zgodności) pomiędzy zarejes­ trowanym obrazem bodźca a jego odpowiednikiem przechowywanym w magaI zynie pamięci trwałej (Anderson, 1995). Obiekt zostaje rozpoznany jako ten : wzorzec, który w największym stopniu pasuje do obrazu zarejestrowanego bodźca (best match) . Miarą umożliwiającą rozpoznanie jest stopień pokrywania ; się (przystawania) obrazu percepcyjnego i wzorca (Reed, 1988). Stosowanie w procesie identyfikacji obiektów takiej miary, jak stopień i pokrywania się porównywanych obiektów, jest jednak bardziej problematyczne j niż użyteczne. Po pierwsze, porównanie może zachodzić tylko w przypadku, gdy ; obiekt porównywany do wzorca znajduje się w naturalnej (takiej jak zwykle) i pozycji percepcyjnej. Zgodnie z prawem rotacji mentalnych (zob. rozdz. 2.2) identyfikacja obiektu transformowanego o pewien kąt rotacji wymaga jego przekształcenia do pozycji naturalnej. Im większy jest kąt rotacji, tym dłużej trwa poprawna identyfikacja obiektu. Po drugie, zróżnicowanie w zakresie obrazów percepcyjnych tego samego obiektu (widzianego np. z różnych punk­ tów obserwacji) jest tak duże, że żaden konkretny wzorzec nie jest w stanie ; objąć takiego zróżnicowania. Konkretność i holizm wzorca porównawczego wyklucza możliwość elastycznego dostosowania się nawet wtedy, gdy różnice ; w przystawaniu obrazu percepcyjnego i jego wzorca są niewielkie. Znakomicie 304 Rozdział 7. Percepcja ilustruje ten problem przykład automatu bankowego. Realizuje on transakcję tylko w przypadku 100% zgodności obrazu karty bankomatowej konkretnego właściciela i wzorca tej karty, który przechowuje w swojej pamięci. Nawet minimalne uszkodzenie karty, polegające np. na zmniejszeniu wypukłości jednej z cyfr jej numeru powoduje, iż nie jest ona rozpoznawana przez bankomat, a transakcja nie może być zrealizowana. Zgodnie z tą teorią niewielka różnica, odstępstwo od wzorca, zaniedbywana na poziomie rejestracji sensorycznej, uniemożliwia identyfikację bodźca. Po trzecie wreszcie, omawiana koncepcja nie wskazuje na sposób, w jaki różnią się od siebie poszczególne wzorce. Jedyne, co można stwierdzić w ramach teorii modeli, to fakt braku przystawania poszczególnych wzorców do siebie, ale stopień tej nieprzystawalności jest tak samo niewymierny, jak niewymierne są możliwe odstępstwa od pokrywania się obrazu percepcyjnego i jego wzorca. Mimo powyższych problemów, teoria wzorca okazuje się użyteczną kon­ cepcją rozpoznawania obiektów w pewnych szczególnych warunkach percepcyjnych. Phillips (1974) prezentował osobom badanym tabele, w których część cel (rubryk) była całkowicie wypełniona, a część pozostawała pusta (pola wy­ pełnione i puste umieszczano w tabeli losowo). Następnie, po upływie pewnego czasu, uczestnikom eksperymentu prezentowano ponownie tabelę (tę samą lub inną) z pytaniem, czy jest ona identyczna, czy różna od uprzednio pokazywanej. Druga tabela mogła być prezentowana albo dokładnie w lokalizacji pierwszej, albo w lokalizacji przesuniętej horyzontalnie o jedną celę (rząd) tabeli. Pre­ zentacja bodźca porównawczego była opóźniona - w tym miejscu zostaną uwzględnione w opisie wyników opóźnienia jedynie w zakresie od 20 do 600 ms. W wyniku badań Phillips wykazał, że jeśli bodźce były prezentowane w tej samej lokalizacji przestrzennej, to poprawność wykonania zadania przez badanych malała jako funkcja czasu opóźnienia prezentacji bodźca porównawczego. Przy opóźnieniu większym niż 300 ms ta sama lokalizacja przestrzenna dwóch tabel nie pomagała istotnie w procesie porównywania. Natomiast w przypadku różnej lokalizacji bodźca zapamiętywanego i porównywanego, czas opóźnienia nie miał żadnego znaczenia dla bardzo niskiej poprawności wykonania zadania przez badanych. Powyższe wyniki Reed (1988) wyjaśnia zasadami funkcjonowania maga­ zynu ikonicznego (zob. rozdz. 7.2.2). W magazynie tym informacja wizualna jest kodowana sensorycznie w postaci całościowego obrazu. Zapis ten ulega bardzo szybkiej degradacji, z jednej strony, wskutek nietrwałości kodu percepcyjnego, a z drugie strony, z następstwa kolejnych obrazów percepcyjnych. Zgodnie zaś z wynikami badań Sperlinga (1960), jeśli narząd wzroku zostanie zmuszony do kolejnej, szybkiej fiksacji na kolejnym bodźcu, informacje dotyczące po­ przedniej fiksacji ulegają całkowitemu wyparciu. Tak działo się w przypadku, gdy prezentacja jednej tabeli bodźców następowała bardzo szybko po przed­ stawieniu innej. Inaczej dzieje się jednak, jeśli w punkcie fiksacji zostanie zaprezentowany po raz drugi ten sam bodziec. Wtedy poprawność porównania dwóch obrazów (bodźca do zapamiętania i bodźca porównawczego) jest uza­ leżniona od trwałości magazynu ikonicznego, a ta - jak wiadomo - zmniejsza się wraz z czasem przechowywania informacji. Dlatego poprawność wykonania w warunku tej samej lokalizacji jest tym lepsza, im krótszy czas opóźnienia prezentacji bodźca porównawczego. 7.4. Teorie percepcji 305 Można zatem stwierdzić, że koncepcja identyfikacji obiektów przez porów­ nywanie całościowych obrazów percepcyjnych i umysłowych jest możliwa do zaakceptowania w zasadzie tylko na poziomie recepcji sensorycznej. Rzeczy­ wiście, informacja przechowywana w magazynach sensorycznych, zdaje się mieć holistystyczny charakter, a wobec braku możliwości wyodrębnienia poszczegól­ nych właściwości tego typu reprezentacji na poziomie sensorycznym porówny­ wanie ich ze sobą może dotyczyć tylko całości. Jak się jednak wydaje, na dal­ szych etapach procesu spostrzegania dochodzi do wyodrębnienia poszczegól­ nych cech obiektów. Ich porównanie dokonuje się raczej dzięki analizie wy­ odrębnionych właściwości, a nie sprawdzania przystawania poszczególnych odzwierciedleń względem siebie. Takie też rozwiązanie proponuje koncepcja cech. 7.4.4. Teoria cech [ \ ; ; i | ; | | [ ; i I i L j \ \ i f ; : i j [ Zasadniczym problemem teorii modeli jest wyżej wskazana niewielka trwałość danych przechowywanych w magazynach informacji sensorycznej. Tylko w przypadku, gdy proces identyfikacji obiektu trwa bardzo krótko, system poznawczy może polegać* wyłącznie na zakodowanych w wyniku rejestracji zmysłowej obrazach sensorycznych. Proces ten wymaga jednak coraz więcej czasu, w miarę jak wzrasta liczba potencjalnych kategorii umysłowych, do których można zaliczyć przetwarzane dane zmysłowe (Posner, Mitchell, 1967; zob. rozdz. 7.2.2). Jednocześnie, dalsze przetwarzanie tych danych polega na wyróżnianiu ich dystynktywnych właściwości przez zespoły komórek zwane detektorami cech (zob. rozdz. 7.2.1). Stąd można wnosić, że w procesie identyfikacji obiektów, przebiegającym w dłuższej perspektywie czasowej, rozpoznanie opiera się nie na analizie całościowego obrazu sensorycznego obiektu, ale jest dokonywane na podstawie analizy szczególnie dystynktywnych właściwości tych obiektów i porównania tychże właściwości z cechami reprezentacji umysłowych obiektów tej samej kategorii umysłowej. Gibson (1969) stwierdziła, że nabywanie wzorcowych reprezentacji umy­ słowych odbywa się w procesie spostrzegania dystynktywnych cech (;features), pozwalających odróżnić jeden wzorzec od drugiego. Zaproponowała ona cztery zasady, zgodnie z którymi wyróżniane są w procesie spostrzegania takie właśnie cechy kryterialne. Gibson zauważyła (zasada pierwsza), że cecha kryterialna musi przyjmować różne wartości dla różnych wzorców. Taką właściwością dla liter wydaje się np. ich wysokość, pozwalająca odróżnić choćby litery: „d”, „s” i „p”. Konkretna wartość cechy kryterialnej przypisana konkretnemu modelowi powinna, według Gibson (zasada druga), pozostać niezmienna niezależnie od punktu i właściwości obserwacji (jasność, wielkość i perspektywa). W ten sposób litera „d” pozostaje zawsze wyższa niż litera „s”, niezależnie od rodzaju użytej czcionki (pod warunkiem, że tej samej dla obu liter). Gibson stwierdziła również (zasada trzecia), że wszystkie cechy kryterialne powinny razem (mechanizm integracji cech w obiekt - zob. rozdz. 5.2.2) układać się w unikatowy wzorzec - żadne dwa różne wzorce nie mogą się charakteryzować kombinacją tych samych cech kryterialnych. Litery „d” i „b” mają mnóstwo cech wspólnych, takich jak np. wysokość, „brzuszki” itd. jednak ich różna orientacja prze­ 306 Rozdział 7. Percepcja strzenna w zestawieniu z tymi wspólnymi właściwościami gwarantuje ich rozróżnialność. Jako ostatnią, czwartą zasadę wyodrębniającą cechy kryterialne Gibson przyjęła, że liczba cech kryterialnych powinna być relatywnie mała. W przeciwnym razie proces identyfikacji obiektu przebiegałby bardzo długo, a przecież mamy wrażenie, że przebiega bardzo szybko (np. czytanie liter czy też rozpoznawanie twarzy). Zgodnie z teorią modeli prawidłowa decyzja o tym, że dwa obiekty nie są egzemplarzami tego samego wzorca, nie powinna zależeć od stopnia podo­ bieństwa obu porównywanych bodźców. Wystarczy drobne nieprzystawanie porównywanych obrazów sensorycznych, by podjąć szybką decyzję. Natomiast zgodnie z teorią cech, szybkość podejmowania decyzji o różności obiektów zależy od proporcji liczby cech wspólnych i kryterialnych. W eksperymencie Gibson, Shapiro i Jonas (1968) osoby badane porównywały litery. Decyzja 0 różności liter „G” i „W” zapadała bardzo szybko, a czas jej podjęcia wyniósł średnio 458 ms. Uczestnicy tego badania potrzebowali średnio aż 113 ms więcej (czyli 571 ms), aby prawidłowo ocenić różność liter „P” i „R”. Czas decyzji okazał się rosnącą funkcją podobieństwa obu porównywanych obiektów pod względem cech kryterialnych. Wynik ten wyraźnie wskazuje na niekorzyść teorii modeli i na słuszność koncepcji cech w odniesieniu do bodźców prezentowa­ nych aż do momentu ich identyfikacji. Townsend (1971) również prezentował badanym litery do porównania, jednak swoją prezentację przeprowadzał bardzo szybko z wykorzystaniem tachistoskopu, aby być pewnym, że prezentowane bodźce trafiają do magazynu ikonicznego. Okazało się, że badani popełniali relatywnie dużą liczbę błędów. Co więcej, liczbę i rodzaj błędów (litery uzna­ wane za podobne mimo swej różności) przy krótkiej prezentacji udawało się lepiej przewidzieć na podstawie koncepcji modeli (korelacja: błędy oczekiwane - błędy stwierdzone wyniosła aż 0,70), niż na podstawie koncepcji cech (ana­ logiczna korelacja tylko 0,50). Powyższe wyniki wskazują na komplementarność obu koncepcji: modeli 1 cech, w wyjaśnianiu procesu identyfikacji obiektów. Przy krótkiej prezentacji i braku czasu na wyodrębnianie cech kryterialnych, system poznawczy kieruje się w procesie spostrzegania zarejestrowanym, całościowym obrazem sensorycz­ nym i odpowiadającymi mu obrazowymi modelami umysłowymi. Proces iden­ tyfikacji obiektów ma bowiem charakter próby dopasowania właśnie zareje­ strowanych danych zmysłowych do trwałych obrazów umysłowych. Porównanie to ma charakter całościowy i często - na skutek pomijania małych różnic (ela­ styczność modeli) - prowadzi do błędów identyfikacji. Przy długiej prezentacji system poznawczy ma wystarczająco dużo czasu na wyodrębnienie cech kry­ terialnych i porównywanie obiektów poprzez szczegółową ich analizę pod kątem tychże właściwości. Tego typu identyfikacja jest procesem trwającym dłużej, ale prowadzi do bardziej poprawnych rozróżnień. Podkreślić warto, iż roz­ poznawanie obiektów jest złożonym procesem umysłowym, do którego stosuje się podstawowa zasada funkcjonowania umysłu, wykorzystywana również przy detekcji prostych sygnałów, tj. zasada przetargu między szybkością a popraw­ nością (zob. rozdz. 5.2.1). Szybka, ale mało poprawna identyfikacja na podsta­ wie zestawiania modeli sensorycznych i umysłowych, oraz wolna, ale dokładna identyfikacja na podstawie analiz zestawów cech kryterialnych, są dwoma alternatywnymi sposobami rozpoznawania złożonych bodźców peręepcyjnych. 7.4. Teorie percepcji 307 7.4.5. Teoria obliczeniowa i ; i ■ I I i i I i j i : j I : j ; j j : | Zdaniem Davida Marra (1982), proces spostrzegania polega na generowaniu pewnej serii reprezentacji spostrzeganego środowiska. Reprezentacje te zawiera­ ją opis właściwości obiektów obecnych w polu percepcyjnym. Wśród wielu różnych form odzwierciedleń percepcyjnych Marr wyróżnił jednak tylko trzy, oznaczając je: 2D, 2V2D oraz 3D, gdzie D oznacza wymiar, a cyfra go poprze­ dzająca - liczbę wymiarów uwzględnianych w reprezentacji umysłowej. Pier­ wotne reprezentacje (primal sketch; 2D) przynoszą opis pola wzrokowego jako dwuwymiarowego obrazu, a odzwierciedlenie to pozbawione jest percepcji głębi. Taka reprezentacja jest możliwa dzięki strukturalnie najprostszym detektorom cech, zlokalizowanym w komórkach zwojowych siatkówki. Wychwytują one dzięki analizie natężenia światła odbijanego czy też emanowanego przez postrzegane obiekty - jedynie takie właściwości stymulacji, jak krawędzie, kontury, linie i powierzchnie barwne obiektów. Możliwość wyróżnienia krawędzi figury (jej kształtu) zawdzięczamy temu, że oddziela ona dwa obszary o różnej luminacji światła. Efekt ten został nazwany zjawiskiem przechodzenia przez krawędź (zero-crossing; Marr, Hildreth, 1980). Natomiast powierzchnie zostają wyodrębnione przez otaczające je krawędzie oraz przez intensywność światła przez nie odbijanego, związanego z ich naturalną barwą. Marr (1976) podzielił jeszcze pierwotne reprezentacje na surowe (raw) i pełne (fuli). Pierwsze stanowią jedynie mapę punktów świetlnych (pixels; tj. picture elements), różniących się intensywnością, podczas gdy drugie - czyniąc użytek z informacji zawartych w danych surowych - odzwierciedlają kształty obiektów w polu wzrokowym. Ze względu na to, że natężenie światła w po­ szczególnych punktach świetlnych zmienia się nieustannie, surowe reprezentacje pierwotne są tworzone nieustannie, a pełna reprezentacja pierwotna jest efektem przefiltrowania wielu odzwierciedleń surowych. Nałożony na mapy punktów świetlnych filtr pozwala wyeliminować chwilowe fluktuacje w inten­ sywności światła (związane np, ze zmianą kąta widzenia czy opadającym na obiekty cieniem), utrudniające spostrzeganie właściwych kształtów obiektów. Jako kolejna w procesie spostrzegania tworzy się reprezentacja 2x/2-wymiarowa (21/ 2D). Odzwierciedlenie to uwzględnia opis obiektów w kategoriach głębi (perspektywy przedmiotu) oraz obrazu powierzchni (strona widoczna). Podobnie jak w przypadku reprezentacji pierwotnych, także i to odzwierciedle­ nie jest zależne od punktu obserwacji. Jest ono jednak konstruowane już nie tylko z informacji pochodzących od receptorów wzrokowych, ale również z uwzględnieniem wskazówek wizualnych, będących efektem trwałej wiedzy dotyczącej świata zewnętrznego oraz fizjologicznych mechanizmów funkcjonowania narządu wzroku. Dzięki wskazówkom jednoocznym i dwuocznym możliwa jest percepcja absolutnego i względnego dystansu między obiektami. Zróżnicowanie w zakresie dystansu pozwala* na wychwycenie charakterystyki powierzchni spostrzeganych obiektów. Argumentów na rzecz odrębności w procesie spostrzegania reprezentacji 2D oraz 2 V2D dostarczyły analizy możliwości percepcyjnych pacjenta S (Benson, Greenberg, 1969). Badany ten, z jednej strony, potrafił rozpoznawać małe zróżnicowania w zakresie jasności obiektów czy też wychwytywać ruch przedmiotów w polu wzrokowym. Z drugiej jednak strony, nie był w stanie 308 Rozdział 7. Percepcja porównywać ani kopiować kształtu figur geometrycznych. Zdaniem Eysencka i Keane’a (1995) świadczy to na korzyść tezy, iż S był w stanie korzystać z re­ prezentacji pierwotnych (z pewnością z ich formy surowej, z dużym prawdo­ podobieństwem z formy pełnej), jednak zaburzeniu uległ u niego proces przekształcania reprezentacji pierwotnych w reprezentacje 2 V2-wymiarowe. Przetwarzanie informacji dotyczących kształtu - jak wynika z tego przypadku jest konieczne dla stworzenia reprezentacji głębi i powierzchni przedmiotu. Jednocześnie badacze zauważyli, że S potrafił korzystać z trwałych umysłowych reprezentacji obiektów znajdujących się w polu wzrokowym, jeśli uruchomienie pełnego odzwierciedlenia prezentowanych mu przedmiotów nie odbywało się za pośrednictwem zmysłu wzroku. Wskazówki słuchowe lub dotykowe umożli­ wiały pacjentowi S dokonanie semantycznej i leksykalnej klasyfikacji spostrze­ ganych bodźców. Jeśli jednak musiał ograniczyć się jedynie do percepcji wzrokowej, identyfikacja obiektu przekraczała jego możliwości. Jak się więc wydaje, reprezentacja 2 */2D jest koniecznym etapem pośrednim w tworzeniu ostatecznej reprezentacji trójwymiarowej (3D), jeśli spostrzeżenie tworzy się wyłącznie na podstawie informacji wizualnych. Dzięki różnorodności narządów zmysłów możliwe jest skonstruowanie pełnej, trójwymiarowej reprezentacji percepcyjnej obiektu bez korzystania ze zmysłu wzroku. To zapewne dlatego niewidomi od urodzenia, poznający kształty figur jedynie zmysłem dotyku, ulegają efektowi rotacji mentalnych (Marmor, Zaback, 1976; zob. rozdz. 2.2), który - jak się wydaje - jest nieodłącznie związany z przetwarzaniem re­ prezentacji obrazowych. Odzwierciedlenia 3D są, zdaniem Marra (1982), ostatecznym produktem procesu percepcji. Reprezentacje tego typu uwzględniają pełny trójwymiarowy obraz obiektów w polu wzrokowym (łącznie ze stroną niewidoczną dla oka), niezależny od lokalizacji punktu obserwacji, a co za tym idzie - niezależny również od kąta obserwacji. Układy komórek nerwowych, odpowiedzialne za ich konstrukcję, znajdują się już w korze wzrokowej. Mają one bogate połączenia z tymi obszarami mózgu, które odpowiadają za trwałe przechowy­ wanie wiedzy o świecie. Marr i Nishihara (1978) zaproponowali trzy kryteria wyróżniające reprezentacje 3D. Zgodnie z pierwszym kryterium, odzwierciedle­ nia te muszą być łatwo dostępne i łatwo konstruowalne (tak łatwo, jak dostępna jest trwała wiedza na temat obiektów, które reprezentują). Według drugiego kryterium, muszą one być niezależne od możliwego kształtu obiektu widzianego z różnych perspektyw (np. reprezentacja wizualna twarzy musi być niezależna od tego, czy jest widziana z lewego, czy też z prawego profilu). Trzecie kryterium stanowi, że reprezentacje 3D muszą być elastyczne, aby zdolne były dopuszczać niewielkie rozbieżności w widoku obiektu z różnych perspektyw. Badania nad niezależnością reprezentacji 2 1/ 2D i 3D przeprowadzili Warrington i Taylor (1978). Uczestniczący w nich pacjent potrafił identyfikować obiekt na pokazywanych mu zdjęciach na podstawie analizy jego kształtu. Jeśli jednak pokazywano mu zdjęcie znanego przedmiotu w niezwykłej rotacji (np. żelazka w rzucie od strony uchwytu), nie był w stanie prawidłowo rozpoznać obiektu. Jak sugerują Eysenck i Keane (1990), u tego pacjenta funkcjonowanie reprezentacji 2 1/ 2D nie było zaburzone, jednakże pełna trójwymiarowa reprezentacja wizualna spostrzeganego środowiska pozostawała poza jego za­ sięgiem. 7.4. Teorie percepcji i Ę l j I i E 309 Nad odzwierciedleniami 3D pracowali również Marr i Nishihira (1978). Stwierdzili oni, że subsystemy niezbędne do konstrukcji odzwierciedleń 3D mają postać walców, obracających się wokół trzech podstawowych osi układu współrzędnych w przestrzeni. W zależności od wymaganej precyzji spostrzega­ nia, postać człowieka może być reprezentowana wizualnie albo przez odcisk figury w ramach pojedynczego walca, albo przez sześć uformowanych walców, odpowiadających dwóm nogom, dwóm rękom, głowie i korpusowi, albo też przez bardzo wiele walców różnych wielkości, przy czym każdy odzwierciedlał­ by szczegóły anatomiczne poszczególnych kończyn, czy wręcz narządów. Podział obiektu na poszczególne części przedstawione za pomocą różnej wielkości walców byłby w tym przypadku możliwy dzięki detekcji wklęsłości (concavities). Informacja o zróżnicowaniach w zakresie powierzchni figury (wklęsłościach i wypukłościach) jest już bowiem dostępna na poziomie re­ prezentacji 2V2D. Tam prawdopodobnie zapada więc decyzja o liczbie elemen­ tów obiektu odzwierciedlanych w formie walców 3D. Kontynuując badania nad formą reprezentacji 3D, Hoffman i Richards (1984) wykazali, że twarze wy­ raźnie zarysowane (dzięki wklęsłościom pomiędzy wypukłymi elementami, jak np. nos, brwi, podbródek) są łatwiej rozpoznawane niż twarze, w których przypadku charakterystyczne elementy są „wtopione” w powierzchnię („buzia jak księżyc w pełni”). Propozycję Marra i Nishihiry rozwinął Biederman (1987), sugerując jednak, że reprezentacje 3D są konstruowane z różnych przestrzennych form podstawowych. Wyróżnił on 36 takich możliwych form geometrycz­ nych - geonów (zob. rozdz. 7.2.4). Teoria obliczeniowa Marra (1982), tak nazwana ze względu na ambicje autora, aby wykorzystać ją do modelowania komputerowego, znajduje swoje potwierdzenie w różnorodnych danych. Z jednej strony potwierdzają ją dane psychofizyczne, dotyczące funkcjonowania narządu wzroku oraz sposobu rejestracji natężenia iluminacji obiektów w polu percepcyjnym, z drugiej zaś, teoria ta znajduje mocne potwierdzenie w badaniach psychofizjologicznych, dotyczących zróżnicowań strukturalnych i funkcjonalnych wśród detektorów cech na wstępującej drodze czuciowej. Zgodne są też z nią wyniki badań psychologicznych z udziałem pacjentów klinicznych, którzy - cierpiąc na różnorodne deficyty w zakresie układu nerwowego - borykają się z trudnościa­ mi w zakresie konstrukcji poszczególnych wizualnych reprezentacji obiektów w polu percepcyjnym. Teoria obliczeniowa jest koncepcją zakładającą, iż spostrzeganie to proces dwukierunkowy. Wychodząc od danych zmysłowych nie może być w pełni realizowane bez danych pamięciowych. Pewnym ogra­ niczeniem koncepcji Marra jest natomiast jej odniesienie tylko do percepcji wzrokowej. 7.4.6. Teoria ekologiczna Według Jamesa Gibsona (1979), otaczającą nas rzeczywistość poznajemy bez­ pośrednio, bez konieczności posługiwania się danymi pamięciowymi dotyczą­ cymi spostrzeganych obiektów. Głosi on więc ideę bezpośredniego poznania, sprzeczną w zasadzie z podstawowymi założeniami psychologii poznawczej, zgodnie z którymi umysł aktywnie konstruuje wewnętrzną reprezentację 310 Rozdział 7. Percepcja poznawanej rzeczywistości (Bruner, 1957). Jego koncepcja jest więc przykładem oddolnego podejścia do procesów spostrzegania. W odniesieniu do recepcji sensorycznej Gibson (1950) zgadza się w zasadzie z innymi badaczami procesu spostrzegania, według których informacje docierają do receptorów w szyku optycznym (optic array), uporządkowanym ze względu na intensywność światła odbijanego od poszczególnych obiektów, a fotoreceptory rejestrują natężenie światła, przyczyniając się do powstania obrazu spostrzeganych obiektów na siatkówce. Tu jednak podobieństwa koncepcji ekologicznej i obliczeniowej się kończą. Gibson (1966) twierdzi bowiem, że poszczególne właściwości obiektów w polu wzrokowym są wykrywane bezpośrednio - nie jest zatem, jego zdaniem, potrzebny cały ciąg reprezentacji w celu detekcji cech lub funkcji przedmiotów, a przetwarzanie informacji zgromadzonej w receptorach ma minimalny zakres. Złożoną właściwością bezpośrednio daną w percepcji jest np., według Gibsona, absolutny dystans obserwatora względem spostrzeganego obiektu. Cecha ta jest dostępna na podstawie analizy gradientu struktury powierzchni (texture gradient). Obiekty widziane z daleka mają tę strukturę mniej skomplikowaną, a intensywność światła odbijanego przez taką powierzchnię jest mniej zróż­ nicowana dla fotoreceptorów oka. Różnica pomiędzy koncepcją obliczeniową a ekologiczną jest zatem widoczna już na poziomie reprezentacji percepcyjnych kształtów. Marr uważa, że detekcja głębi i struktury powierzchni wyma­ ga skomplikowanych przekształceń mapy punktów świetlnych na poziomie reprezentacji 21/ 2D, natomiast Gibson twierdzi, że właściwości te są dane bez­ pośrednio w postrzeganiu w postaci różnic w intensywności rejestrowanego światła. W przypadku obiektów odległych różnice te są jednak minimalne. Dlatego, zdaniem Gibsona (1979), percepcja ma charakter motoryczny. Poruszanie się obserwatora w polu wzrokowym pozwala na precyzyjne uchwycenie właści­ wości absolutnego i względnego dystansu wobec obiektów. Obiekty położone dalej lub też lokalizowane poza kierunkiem ruchu przybliżają się/oddalają się znacznie wolniej niż obiekty położone bliżej. Zjawisko paralaksy ruchowej umożliwia więc prostą detekcję głębi i dystansu. Gibson (1950) wykazał to, analizując zachowanie pilotów samolotów bojowych podchodzących do lądowania. Ruch obiektów jest zresztą, jego zdaniem (i nie tylko; zob. rozdz. 5.2.2), właściwością priorytetową obiektów w polu wzrokowym. Cecha ta jest rejestrowana przez specjalny rodzaj receptorów w ramach zmysłu wzroku, tj. prioreceptory. Motoryczny charakter percepcji pozwala także na wykrycie dwóch rodzajów właściwości pola percepcyjnego wyższego rzędu: (1) niezmienników (invariants) inaczej - stałości), tj. właściwości pola, które nie zmieniają się wraz ze zmianą punktu obserwacji oraz (2) zmienników (transpositions), czyli cech, które tym zmianom podlegają. Z punktu widzenia przebiegu procesu percepcji ważne są zwłaszcza niezmienniki. Gibson (1979) zdefiniował niezmiennik jako pewną liczbę własności pola percepcyjnego, która zmienia się regularnie i zgodnie z pewnymi prawami wraz ze zmianą punktu obserwacji. Podstawą do wykrycia niezmienników jest zatem zmieniająca się perspektywa. Inaczej jeszcze można niezmienniki określić jako „rzutowane” (niezależne od dystansu absolutnego) właściwości obiektów. Ta sama lokomotywa widziana z bliska 7.4. Teorie percepcji 311 i z daleka będzie miała te same właściwości w rzucie, obojętne czy tran­ sformowana do rzutu jest lokomotywa widziana z daleka czy z bliska. Wynika to z faktu iz wzajemne proporcje między obiektami (np. lokomotywa i otoczeniem) są stałe i niezależne od odległości punktu obserwacji. Złudzenia percepcyjne, według Gibsona, są wynikiem unieruchomienia obserwatora w jednym punkcie obserwacyjnym i przez to odebrania mu możliwości przyjrzenia się obiektowi z różnych perspektyw, tak aby możliwe było wykrycie stałości w analizowanej sytuacji percepcyjnej. Na przykład tzw. złudzenie Amesa polega na widzeniu trapeizodalnego w istocie pokoju jako prostokątnego. Złudzenie natychmiast znika, gdy obserwatorowi pozwoli się wejść do wnętrza i poruszać po tak zbudowanym pokoju (Gehringer, Engel, 1986). Percepcja wynika więc, zdaniem Gibsona, z wyuczonej umiejętności. Róż­ nych niezmienników, korygujących błędny obraz na siatkówce, system poznawczy uczy się przez całe życie. Gordon (1989) słusznie zauważył, iż - według autora ekologicznej koncepcji spostrzegania - nauka ta polega na nabywaniu wprawy przez mechanizmy selektywnej uwagi odnośnie do tego, na co należy nakierowywać percepcję. Dlatego ten sam zestaw bodźców może być inaczej spostrzegany w różnych okresach życia człowieka, w zależności od jego wprawy w spostrze­ ganiu. Ci, którzy nigdy nie mieli okazji obserwować pod różnymi kątami widzenia kolumn greckich, prawie zawsze ulegają złudzeniom optycznym, wykrywając po­ zorną boczną wypukłość. Złudzeniu temu można zapobiec, wprawiając obserwa­ tora w ruch zbliżający/oddalający od obserwowanego obiektu (tu: kolumny). Ci, którzy dzięki ruchowi własnemu już raz wykryli niezmiennik dotyczący greckiej proporcji w architekturze kolumn, są w stanie skorygować wrażenia sensoryczne odbierane przez receptory, dzięki informacji zwrotnej pochodzącej z mózgu. Ale w jaki sposób teoria ekologiczna radzi sobie z problemem klasyfikacji semantycznej w procesie identyfikacji obiektów? Gibson (1979) twierdzi, że nie tylko cechy percepcyjne (takie jak np. absolutny dystans) są dane w bez­ pośrednim spostrzeganiu obiektów. Także cechy związane ze znaczeniem, a przede wszystkim funkcje spostrzeganych obiektów, są bezpośrednio spo­ strzegane. Percepcyjnie, według Gibsona, dane są więc również afordancje, czyli „akty lub zachowania, których wykonanie umożliwiają nam pewne obiekty, miejsca lub zdarzenia” (Michaels, Carello, 1985, s. 42). W spostrzeżeniu drabiny zawarta jest możliwość wspinania się po niej, a w percepcji krzesła możliwość siedzenia na nim. Afordancje są również dane w postrzeganiu bardziej złożonych obiektów. Zdaniem Gibsona (1979, s. 139), spostrzeżenie skrzynki pocztowej zawiera w sobie również afordancję możliwości wysłania listu do innego członka tej samej społeczności (ciekawe, że tylko do takiego, który odpisuje na listy; to letter-writting human in a community with postał system). Zasadniczym problemem teorii Gibsona jest fakt, iż spostrzeganie niezmienników i wykorzystywanie informacji zwrotnej, pochodzącej z mózgu, w celu korygowania danych wzrokowych, pochodzących z obrazu na siatkówce, wydaje się procesem poznawczym, wymagającym przetworzenia dość dużych porcji informacji w jednym momencie czasu. Tymczasem, jak pokazała to Gregory (1970), mózg jest w stanie akceptować informacje z pola wzrokowego w bardzo wolnym tempie - ok. 12 bitów na 100 ms. Kwestią trudną do wyjaśnienia jest również fakt, iż, z jednej strony, Gibson traktuje postrzeganie jako proces oddolny, a z drugiej strony, jako proces korygowany odgórnie przez 312 Rozdział 7. Percepcja trwale wyuczone niezmienniki. W zasadzie można chyba uznać, że ekologiczna koncepcja spostrzegania jest również koncepcją dwukierunkową percepcji, zaś różnica między teorią obliczeniową a stanowiskiem reprezentowanym przez Gibsona polega na odmiennym przekonaniu odnośnie do tego, co odgórnie ma wpływ na kształtowanie się spostrzeżenia (trwałe reprezentacje czy stałości percepcyjne). Ważnym wkładem Gibsona do teorii spostrzegania jest natomiast stwierdzenie, że bodziec wzrokowy zawiera w sobie więcej informacji niż się wydaje, zwłaszcza przy statycznej jego obserwacji. Wprawienie obserwato­ ra w ruch pozwala łatwo wykryć wiele właściwości pola wzrokowego i obiektów w nim prezentowanych, właściwości, których wykrywanie jest przez inne kon­ cepcje percepcji traktowane jako złożony proces realizowany na górnych piętrach przetwarzania. 7.5. Proces spostrzegania w praktyce 7.5.1. Spostrzeganie twarzy Twarz jest bodźcem specyficznym w procesie percepcji i identyfikacji obiektów (DeRenzi, 1986; Ohme, 2003). Wskazują na to badania pacjentów chorych na prozopagnozję. Nie są oni zdolni do rozpoznawania twarzy innych ludzi, a nawet czasami swojej własnej - widzianej w lustrze. Jednocześnie nie mają jednak żadnych trudności w rozpoznawaniu innych obiektów, a także kłopotów z iden­ tyfikacją osób na podstawie wskazówek innych niż wizualne (głos, dotyk lub imię osoby). Wyniki, dotyczące deficytów przejawianych przez pacjentów cho­ rych na prozopagnozję, interpretowano na korzyść tezy o wymaganej przez proces percepcyjny większej precyzji w zakresie rozpoznawania twarzy niż roz­ różniania innych obiektów. DeRenzi (1986) wykazał jednak, że pacjenci cier­ piący na prozopagnozję potrafią znakomicie rozróżniać obiekty różniące się niewielką liczbą cech kryterialnych (np. monety włoskie i inne), nadal nie radząc sobie z procesem identyfikacji zróżnicowanych pod względem wyglądu twarzy. Jak się więc wydaje, proces spostrzegania twarzy nie jest po prostu skom­ plikowanym procesem rozpoznawania obiektów, skomplikowanym ze względu na złożoność identyfikowanego obiektu, ale jest jakościowo swoistym innym niż rozpoznawanie pozostałych obiektów, procesem percepcyjnym. Argumentów na korzyść takiego stanowiska dostarczyli Sergent, Ohta i MacDonald (1992). Wykazali oni, że aktywność mózgu w przypadku rozpoznawania twarzy jest znacznie większa niż w przypadku rozpoznawania innych obiektów. Co więcej, w przypadku rozpoznawania twarzy i innych obiektów badacze ci zauważyli jakościowe różnice w aktywności prawej półkuli mózgowej. Półkula ta wydaje się szczególnie ważna dla procesu identyfikacji twarzy, jako że jej uszkodzenia charakteryzują właśnie pacjentów z prozopagnozją. Dlatego też Farah (1992) argumentuje na rzecz istnienia dwóch niezależ­ nych subsystemów rozpoznawania obiektów. Pierwszy z nich miałby charakter analityczny i rozpoznawałby obiekty przez ich dekompozycję do postaci listy cech kryterialnych. Drugi miałby charakter holistyczny - identyfikacja obiektów odbywałaby się w nim przez zestawienie obrazów sensorycznych z umysłowymi. 7.5. Proces spostrzegania w praktyce 313 System analityczny, jego zdaniem, odpowiadałby za rozróżnianie zwykłych obiektów w polu wzrokowym, zaś system holistyczny - obiektów specjalnych, właśnie takich jak np. twarze. Dodajmy, że pierwszy z wymienionych systemów funkcjonowałby zgodnie z założeniem teorii cech, zaś drugi - zgodnie z zało­ żeniem koncepcji modeli. Poglądy na temat rozpoznawania twarzy dobrze ilustrują spór pomiędzy koncepcjami modeli i cech dotyczący mechanizmu rozpoznawania obiektów. W koncepcjach modeli przyjmuje się, że twarz jest reprezentowana w formie obrazu o określonej rozdzielczości (Ellis, 1975). W procesie rozpoznania twarzy obraz sensoryczny jest zatem zestawiany z obrazem umysłowym, a decyzja 0 identyfikacji jest podejmowana na podstawie oszacowania przystawania obu obrazów do siebie. Koncepcje modeli mają jednak problemy z odpowiedzią na trzy zasadnicze pytania: (1) „W jaki sposób możliwe jest rozpoznawanie twarzy z dużej odległości, gdy uzyskanie wymaganej przez obraz umysłowy rozdziel­ czości jest niemożliwe?”; (2) „W jaki sposób możliwe jest spostrzeganie tej samej twarzy pod różnym kątem obserwacji?” oraz (3) „ W jaki sposób możliwe jest spostrzeganie tej samej twarzy w perspektywie czasowej (z wiekiem zmienia się przecież wygląd twarzy)?” Aby uratować koncepcję modeli jako wyjaśniającą proces identyfikacji twarzy, Ellis (1975) proponuje zabieg normalizacji, ale nie do końca wiadomo, na czym zabieg ten - stosowany przez spostrzegający umysł - miałby polegać. Przez normalizację Ellis rozumie wszelkie możliwe transformacje na obrazach, takie jak rotacje mentalne czy też powiększanie/pomniejszanie obrazu. Istnienie takich operacji na reprezentacjach obrazowych potwierdzono w zakresie funk­ cjonowania wyobraźni (Kosslyn, 1975; zob. rozdz. 2) - być może więc wyo­ braźnia pośredniczy w procesie identyfikacji twarzy, umożliwiając przekształce­ nie obrazu na siatkówce do pozycji naturalnej, w której mogłoby się odbywać zestawienie obrazu sensorycznego i umysłowego. Przyjęcie istnienia zabiegu normalizacji pozwala odrzucić dwie pierwsze z trzech wyżej zarysowanych wątpliwości. Koncepcja modeli nadal jednak nie radzi sobie z problemem czasu. Identyfikacja twarzy w perspektywie czasu jest czynnością najbardziej obarczo­ ną możliwością błędu w przypadku percepcji tego typu bodźców. Nie rozpozna­ nie po latach twarzy przyjaciela może więc wynikać z braku adekwatnego modelu w umyśle, a jej rozpoznanie może być rezultatem elastyczności posia­ danych modeli umysłowych. Zwolennicy koncepcji cech uważają z kolei, iż informacja konieczna do rozpoznania twarzy jest przechowywana w umyśle w formie listy cech. Ellis, Shepherd i Davies (1979) wykazali, iż poszczególne cechy pełnią znaczącą rolę w procesie rozpoznawania twarzy. Stwierdzili oni, że kiedy ludzie opisują czy­ jąś twarz, działają w określonym porządku. Najpierw opisywane są włosy i oczy, w drugiej kolejności nos, usta i brwi, a na samym końcu policzki i czoło. Roberts 1Bruce (1988) potwierdzili te doniesienia wykazując, że dla rozpoznania twarzy najważniejsze są rejony oczu, a najmniej istotne - rejony nosa. Jeśli jednak opisywana jest twarz znana, to w pierwszej kolejności uwzględniane są cechy wewnętrzne (oczy, nos, usta), a dopiero w drugiej - zewnętrzne (włosy, kształt głowy). W przypadku osób nieznajomych porządek opisu ulega odwróceniu najpierw analizowane są cechy zewnętrzne, a dopiero jako drugie w kolejności cechy wewnętrzne. Podobnie rzecz się ma z rozpoznaniem - bliskie nam osoby 314 Rozdział 7. Percepcja identyfikujemy po cechach wewnętrznych, a nieznajome - po zewnętrz­ nych. W badaniach Malone, Morris, Kay i Levine (1982) wykazali, że proces identyfikacji twarzy osób znanych i nieznanych różni się jakościowo. Badani przez nich pacjenci charakteryzowali się albo deficytami w zakresie rozpozna­ wania twarzy znanych, albo mieli kłopoty z rozróżnianiem twarzy nieznanych. Jak się wydaje, zaburzeniom w obu przypadkach uległ mechanizm analizy innych cech, służących do identyfikacji. Jednakże w rozpoznawaniu twarzy istotne są nie tylko cechy, ale także re­ lacje, jakie pomiędzy nimi zachodzą. Young, Hellawell i Hay (1987) prezentowali osobom badanym obrazy składające się z połówek zdjęć twarzy znanych osób. Uczestnikom eksperymentu znaczną trudność sprawiło rozpoznanie tak wymie­ szanych fotografii, szczególnie wtedy, gdy dolna połówka - będąca fragmentem portretu innego aktora - była dobrze dopasowana do górnej części zdjęcia. Va­ lentine (1988) zaobserwował natomiast znaczne problemy w rozpoznawaniu twarzy na zdjęciach odwróconych do góry nogami, a Bruce i Valentine (1985) odkryli nie mniejsze kłopoty w rozpoznawaniu twarzy nawet znanych badanym osób, gdy charakterystyczne elementy tych twarzy „zamieniły się” na zdjęciu swoim naturalnym położeniem („twarze przemieszane”, np. oczy na wysokości ust, a usta zamiast brwi). Wreszcie Tanaka i Sengco (1997) zauważyli, że ma­ nipulacja w zakresie relacji między poszczególnymi elementami twarzy (np. zbli­ żenie do siebie oczu), nawet przy pozostawieniu tych elementów na swoim miejscu, powoduje także kłopoty w identyfikacji twarzy, do tej pory rozpozna­ wanej bez większych problemów. Jeśli jednak system poznawczy w procesie identyfikacji twarzy analizuje nie tylko cechy kryterialne, ale również relacje, jakie między nimi zachodzą, to uwzględniając liczbę charakterystycznych elementów twarzy - informacji do przeanalizowania może okazać się zbyt dużo jak na proces, który przebiega bardzo szybko. Poza kłopotami z wyjaśnieniem szybkości procesu rozpoznawa­ nia twarzy, koncepcje cech nie radzą sobie także z problemem percepcji twarzy w perspektywie czasu. Lista cech wyodrębniona na podstawie obrazu senso­ rycznego, widzianego po latach, może bowiem znacznie różnić się zarówno liczbą, jak i intensywnością w porównaniu z listą wzorcową, reprezentującą twarz w naszym umyśle (Sergent, 1984). Na przykład niektóre rysy twarzy mogą ulec zatarciu (np. wskutek tycia), natomiast inne mogą się wykształcić z upływem czasu (np. zmarszczki z powodu starzenia się). Z dwóch koncepcji identyfikacji twarzy znacznie lepiej uzasadniona wydaje się teoria cech. Wskazują na nią zwłaszcza badania dotyczące specyfiki procesu rozróżniania twarzy znajomych i obcych. Proces ten, jak wskazują badania, jest bowiem także jakościowo, a nie tylko ilościowo, odmienny w różnych warunkach percepcji, gdyż różni pacjenci przejawiają pojedyncze deficyty w zakresie roz­ poznawania tylko pewnych kategorii twarzy. Należy jednak podkreślić, że obie koncepcje nie potrafią odpowiedzieć na pytanie o to, w jaki sposób możliwe jest rozpoznanie twarzy nie widzianej od lat, której wygląd uległ znacznej zmianie. 7 .5 .2 . Czytanie słó w Czytanie jest złożonym procesem umysłowym, wymagającym zrozumienia. Jako takie, stanowi przedmiot badań nad przetwarzaniem języka i rozumieniem 7.5. Proces spostrzegania w praktyce 315 tekstu (por. rozdz. 13). W tym podrozdziale ograniczymy się do wybranego aspektu czytania, jakim jest spostrzeganie i rozpoznawanie słów. Oko zmienia punkt fiksacji (fixation point) mniej więcej cztery razy w ciągu sekundy (Rayner, 1997). Około 200-225 ms trwa każda kolejna fiksacja oka na materiale bodźcowym, podczas gdy 25-30 ms trwa ruch sakkadowy gałek ocznych w miejsce następnej fiksacji. Jednak już po zafiksowaniu wzroku na materiale bodźcowym fotoreceptory odbierają informacje wizualne bynajmniej nie w sposób nieprzerwany. Połowa czasu fiksacji to okres refrakcji (odpoczyn­ ku) - oko jest na tyle „zmęczone” wysiłkiem motorycznym związanym z wyko­ naniem ruchu sakkadowego, że rejestrowanie danych zmysłowych nie jest w tym czasie możliwe. Zjawisko to nosi nazwę tłumienia sakkadowego (McConkie, 1983). Okres refrakcji trwa z reguły połowę czasu każdej fiksacji. Informacje wizualne są kodowane przez oko jedynie przez ok. 100 ms podczas każdej fiksacji, co oznacza, że większość czasu pracy narządu wzroku jest przezna­ czona na funkcjonowanie motoryczne, a jedynie 400 ms każdej sekundy jest czasem pobierania informacji o świecie zewnętrznym. Skoro tak, to umiejętność prawidłowej fiksacji wzroku (w odpowiednim miejscu przestrzeni) wydaje się kluczowym elementem procesu spostrzegania i rozpoznawania obiektów. Wagę tej umiejętności szczególnie podkreślają dane empiryczne dotyczące przebiegu czynności czytania. Badając tę czynność Rayner, Weil i Pollatsek (1980) wykryli zjawisko asymetrii wokół punktu fiksacji. Stwierdzili oni, że obszar na lewo od punktu fiksacji jest trzykrotnie mniejszy od obszaru na prawo od tego punktu. Pollatsek, Bolozky, Weil i Rayner (1981) uzyskali podobny efekt. W ich badaniu asymetria wokół punktu fiksacji okazała się jednak odwrotna niż w poprzednim badaniu: obszar objęty wzrokiem był trzykrotnie szerszy na lewo od punktu fiksacji niż na prawo. Różnicę w wynikach udało się Raynerowi i Pollatskowi wyjaśnić na podstawie klasyfikacji osób badanych względem rodzaju pierwszego języka używanego podczas czytania. W pierwszym przypadku językiem tym był angiel­ ski, który wymaga czytania w kierunku od lewej do prawej strony kartki. Natomiast w drugim eksperymencie badano umiejętność czytania w języku hebrajskim, w którym porządek przetwarzania materiału werbalnego jest odwrotny (od prawej do lewej). Wyniki, które uzyskali Rayner i Pollatsek, ozna­ czają, że zjawisko asymetrii wokół punktu fiksacji jest powszechne, a obszar obejmowania wzrokiem jest większy zawsze w kierunku, w którym czyta osoba przejawiająca taką asymetrię. Zgodnie z efektem asymetrii wokół punktu fiksacji można przypuszczać, że w przypadku osób czytających w języku ja­ pońskim (choć takie badania akurat nie były prowadzone), szerszy obszar wokół punktu fiksacji powinien znajdować się poniżej tego punktu. W powyżej omawianych badaniach uczestnicy eksperymentów zawsze czytali zdecydowanie lepiej w swoim ojczystym języku niż w jakimkolwiek innym. Badania dotyczyły też wyłącznie czytania w języku ojczystym. Z kolei Inhoff (1989) wykazał, że u osób posługujących się dwoma językami, odmien­ nymi pod względem kierunku czytania, asymetria wokół punktu fiksacji zmienia się wraz z intensywnością praktyki czytania w danym języku. Po zmianie języka czytania (np. z angielskiego na hebrajski) musi jednak upłynąć pewna ilość czasu, zanim prawostronna asymetria zmieni się w lewostronną. Podobna asy­ metria wokół punktu fiksacji ma miejsce wtedy, gdy w obszarze fiksacji znajduje 316 Rozdział 7. Percepcja się tylko jedno słowo. Wówczas prawidłowy punkt fiksacji wypada w okolicy gdzie kończy się ów wyraz, co zauważył z kolei Rayner (1979). 0 ’Reagan i Jacobs (1992) uzupełnili te spostrzeżenia o tezę, że przesunięcie punktu fiksacji względem prawidłowego położenia o jedną literę w wyrazie spowalnia proces czytania o 20 ms. Przy dłuższych wyrazach opóźnienia te mogą wynosić już nawet do 100 ms, co w przypadku czytania całych zdań może przekładać się na kilkusekundowe spowolnienie. Z kolei Rayner i Morris (1992) podjęli próbę funkcjonalnego wyjaśnienia istnienia efektu asymetrii wokół punktu fiksacji. Stwierdzili oni, że asymetria ta ułatwia poprzedzanie percepcyjne, niezbędne w procesie szybkiego i sprawnego czytania. Z punktu widzenia pojedynczej fiksacji asymetria wokół punktu fiksacji nie ma bowiem żadnego znaczenia. Podobna liczba tak samo daleko położonych obiektów z lewej i prawej strony punktu fiksacji jest równie szybko rozpoznawana. Jednak rozpoznanie obiektów położonych daleko od punktu fiksacji w kierunku czytania jest znacznie szybsze w przypadku kolejnej fiksacji, która obejmuje je już w swoim centrum. Jest tak dlatego, że w poprzedniej fiksacji obiekty te były objęte wstępną analizą percepcyjną i w kolejnej fiksacji ten wstępny etap analizy może zostać pominięty. Istnienie poprzedzania percepcyjnego (perceptual priming) w procesie czytania wykazali empirycznie Evett i Humphreys (1981). Poprzedzali oni podprogowo bodźcami werbalnymi słowa, które należało przeczytać i rozpoznać. Bodźce poprzedzające nie były semantycznie powiązane ze słowami poprzedzanymi (czasami bodźce poprze­ dzające były nawet bezsensownymi zbitkami liter) - jedyne, co je łączyło, to stopień podobieństwa w zakresie liter składających się na oba bodźce werbalne. W warunku pełnego poprzedzania wyraz torujący był tożsamy z torowanym, w warunku braku poprzedzania ani jedna litera bodźca poprzedzającego nie pokrywała się z literami składającymi się na wyraz poprzedzany. Evett i Humphreys wykazali, że im więcej wspólnych liter posiadały oba prezentowane bodźce, tym szybsza była reakcja na słowo torowane. Uzyskany wynik badacze ci wyjaśnili odnosząc się do koncepcji abstrakcyj­ nych subsystemów, odpowiedzialnych za detekcję pojedynczych liter w procesie czytania. Ich aktywizacja w trakcie poprzedzania umożliwia, według nich, szybszą identyfikację słowa poprzedzanego. Jak się wydaje, podobne zjawisko zachodzi w procesie czytania. Wprawdzie litery odległe od punktu fiksacji w kierunku czytania nie są identyfikowane w trakcie fiksacji je obejmującej, jednak na skutek recepcji tych liter dochodzi do pobudzenia subsystemów odpowiedzialnych za ich przetwarzanie. Gdy oko zmieni swój punkt fiksacji i litery te staną się obecne w centrum fiksacji, ich rozpoznanie będzie ułatwione (zjawisko facylitacji), właśnie dzięki uprzedniej ich aktywacji, która miała miejsce w już zaistniałej fiksacji. Zjawiska asymetrii wokół punktu fiksacji i poprzedzania percepcyjnego w trakcie czytania wyraźnie świadczą na korzyść tezy, iż czytanie jest czyn­ nością wykorzystującą oddolne mechanizmy spostrzegania (od percepcji liter do czytania wyrazów i zdań). Pojawiły się jednak również argumenty wskazujące na to, że czynność czytania wymaga także odgórnych mechanizmów spostrze­ gania. Ważne w tym względzie są badania Reichera (1969), który wykazał istnienie efektu przewagi słowa nad literami (word superiority effect). W jego eksperymencie osoby badane weryfikowały występowanie konkretnej litery na 7.6. Podsumowanie 317 określonej pozycji w prezentowanym im wyrazie (np. czy czwartą literą w wy­ razie „PRACA” jest litera „C”). W warunku pierwszym Reicher prezentował badanym słowa, w warunku drugim - werbalizowalne zbitki liter, które nic nie znaczyły, natomiast w warunku trzecim - niewerbalizowalne, losowe zbitki liter. Gdyby proces czytania był tylko procesem oddolnym, to rodzaj etykiety werbalnej, w odniesieniu do której należałoby podjąć decyzję dotyczącą jednej z jej liter składowych, nie miałby żadnego znaczenia. Okazało się jednak, że najkrótszy czas reakcji uzyskali badani w warunku sensownych słów - tak jakby znajomość sensu całego słowa pomagała w identyfikacji jego składowych liter. Odgórny charakter procesu czytania wykazał także Frisby (1979). W jego eksperymencie osoby badane w trakcie czytania nie dostrzegały braku poje­ dynczych liter, a nawet całych słów, uzupełniając tak zdegradowany komunikat do jego całości, zgodnie z zasadami koncepcji postaciowych spostrzegania. Na przykład, badani nie byli w stanie stwierdzić braku litery „p” w wyrazie „spring” (prezentowano wyraz „sring”), gdy komunikat dotyczył repertuaru teatru w sezonie wiosennym. Można zatem stwierdzić, iż czytanie angażuje zarówno oddolne, jak i od­ górne mechanizmy spostrzegania. Zjawiska asymetrii wokół punktu fiksacji i poprzedzania percepcyjnego wyraźnie wskazują na zależność efektywności czytania od rejestracji sensorycznej. Wiele ćwiczeń z zakresu nauki szybkiego czytania polega na przyspieszeniu procesu zmiany punktu fiksacji czy też roz­ szerzeniu obszaru fiksacji w kierunku czytania, tak aby objąć efektem poprze­ dzania większą liczbę liter i tym samym większą partię tekstu. Efektywność czytania zależy jednak również od procesów odgórnych. Im większą liczbą etykiet werbalnych dysponuje system poznawczy osoby czytającej, tym łatwiej jest mu przewidzieć znaczenie komunikatu. Pewne ćwiczenia z zakresu szybkiego czytania uczą pomijania nieistotnych fragmentów komunikatu, a więc takich, których czytający może się domyślić albo na podstawie wiedzy ogólnej, albo na podstawie konstrukcji całego komunikatu. 7.6. Podsumowanie Treść tego rozdziału powinna skłonić nas do wniosku, że świat nie jest taki, jakim się wydaje. Otaczająca na rzeczywistość, np. przedmioty, zdarzenia lub inni ludzie, są źródłem bodźców, ponieważ emanują fizyczną energią w postaci fal optycznych (wzrok), fal akustycznych (słuch), cząsteczek chemicznych (smak, węch) lub ucisku mechanicznego (dotyk, ból). Energia ta wyzwala zmiany w wyspecjalizowanych receptorach i daje początek procesowi spostrze­ gania. Istota tego procesu sprowadza się do daleko idących przekształceń pierwotnej energii zmysłowej niosącej informację. Owo przetwarzanie informa­ cji skutkuje powstaniem perceptu, czyli spostrzeżenia. Nie znaczy to, że proces przetwarzania informacji w tym momencie się kończy, ponieważ percepcja stanowi podłoże i konieczny warunek innych procesów poznawczych, takich jak pamięć, myślenie, przetwarzanie języka itd. Nie znaczy to również, że nasze spostrzeżenia są zasadniczo błędne i nieadekwatne. One są tylko niedokładne i wybiórcze. 318 Rozdział 7. Percepcja Spostrzeżeniu zazwyczaj towarzyszy subiektywne doznanie, choć istnieją przypadki percepcji bez udziału świadomości. W każdym razie nie wolno nam utożsamiać percepcji ze światem subiektywnych doznań zmysłowych. Owe doznania w pewien sposób reprezentują zewnętrzną rzeczywistość, ale są koń­ cowym efektem długiego i skomplikowanego procesu przetwarzania informacji. Z tego punktu widzenia percepcja wcale nie jest prostym procesem poznaw­ czym. Jeśli zaliczyliśmy ją do tej kategorii, to dlatego, że złożoność funkcji psychicznych jest zawsze relatywna, a inne procesy - omawiane w rozdz. 10-13 - są w porównaniu ze spostrzeganiem jeszcze bardziej złożone. R o zd zia ł Pamięć Natura pamięci 320 Rodzaje i funkcje pamięci 320 Blokowe (magazynowe) modele pamię­ ci 326 Model długotrw ałej pam ięci roboczej Ericssona i Kintscha 358 Pamięć prospektywna 360 Systemy pamięci trwałej 363 Procesualne modele pamięci 333 Pamięć sem antyczna Systemy pamięci przemijającej 340 Pamięć epizodyczna Pamięć sensoryczna 340 Pamięć krótkotrwała 343 Pamięć robocza: w ielokom ponentow y model Baddeleya 349 Pamięć robocza: model aktywacyjny Cowana 355 363 366 Pamięć autobiograficzna Podsumowanie 371 369 Pamięć jest zdolnością do przechowywania informacji i późniejszego jej wy­ korzystania. Z innego punktu widzenia pamięć to zespól procesów poznaw­ czych, zaangażowanych w nabywanie, przechowywanie i późniejsze odtwa­ rzanie informacji. Pamięć przemijająca przechowuje informacje w sposób nietrwały, czyli w stosunkowo krótkim czasie, co nie jest jej wadą, lecz wynika z pełnionych przez nią funkcji. Pamięć trwała przechowuje informacje bez wyraźnych ograniczeń czasowych. „Głowa bez pamięci to twierdza bez garnizonu”, powiedział Napoleon Bona­ parte, pokazując w ten sposób, jak bezbronny byłby nasz umysł bez zasobów pamięci. Wszystkie procesy poznawcze, od najprostszych, jak odbiór wrażeń, do najbardziej złożonych, jak rozwiązywanie problemów, zależą od pamięci, ale też na nią wpływają. Bez pamięci nie byłoby możliwe poznanie, dlatego wiele modeli umysłu to w gruncie rzeczy modele pamięci (zob. rozdz. 1). W wąskim ujęciu pamięć to system zapisu, przechowywania i odtwarzania informacji w celu jej przyszłego użycia. Dzięki tak rozumianej pamięci możemy np. przygotować się do egzaminu lub rozmowy kwalifikacyjnej. W szerokim rozumieniu pamięć jest systemem przechowywania informacji bez względu na cel, zamiar czy intencję. Jest odpowiedzialna za przechowywanie wszelkich informacji, nie­ zależnie od formatu lub źródła pochodzenia. Przechowuje informacje w czasie ultrakrótkim (mniej niż jedna sekunda) lub przez cale życie człowieka. Prze­ chowuje wiedzę o ogólnie znanych faktach, o indywidualnych doświadczeniach i o procedurach. Zapisuje wszelkie ślady przeszłych doświadczeń, nawet te, z których człowiek nie zdaje sobie sprawy. Mając na warsztacie zjawisko o tak podstawowej funkcji, psycholog po­ znawczy musi odpowiedzieć sobie na następujące pytania: „Czy pamięć jest systemem jednolitym?” „Jakie funkcje pełnią procesy i struktury pamięci w re­ gulacji życia psychicznego człowieka?” „Czy pamięć jest ograniczona w swej pojemności, a jeśli tak, to czy dotyczy to wszystkich jej rodzajów?” Na te pyta­ nia będziemy szukać odpowiedzi z niniejszym rozdziale. 8.1. Natura pamięci 8.1.1. Rodzaje i funkcje pamięci Schacter i Tulving (1982) uważają, że pamięć człowieka nie jest systemem mo­ nolitycznym. Pod tym pojęciem kryje się wiele odrębnych, ale wewnętrznie zintegrowanych systemów. Ich wspólną cechą jest funkcja, jaką pełni pamięć jako całość. Stwarza mianowicie możliwość wykorzystania przechowywanej w niej informacji. Funkcja ta może być realizowana tym skutecznej, im bardziej efektywna jest filogenetyczna zdolność naszego umysłu do zapamiętywania, przechowywania i odpamiętywania informacji. Norman (1970) doszukał się ponad dwudziestu rodzajów pamięci (dziś z pewnością byłoby ich jeszcze więcej). Przyjmując za podstawę rozróżnienia kryterium językowe, osobno potraktował każde pojęcie, zawierające w nazwie 8.1. Natura pamięci ’ i ; i | I j t 321 rzeczownik „pamięć” oraz jakiś przymiotnik (por. Shettleworth, 1993). Takie postępowanie było o tyle racjonalne, że nie ma zgody wśród autorów co do sposobu kategoryzacji, a co za tym idzie liczby systemów pamięci. Z drugiej jednak strony, wprowadzenie jakiegoś terminu i posługiwanie się nim nie jest równoznaczne z istnieniem odpowiadającego mu systemu pamięciowego. Przykładowo, pamięć werbalna jest swego rodzaju abstraktem zbudowanym ze względu na formalne kryterium przechowywanego materiału. Materiał werbalny może być jednak przechowywany w pamięci krótko- albo długotrwałej. Po­ dobnym abstraktem jest termin „pamięć sensoryczna”, bowiem istnieją pod­ stawy, aby twierdzić, iż z każdym ze zmysłów związany jest odrębny system ultrakrótlcotrwałego przechowywania informacji. Poza tym wiele określeń pa­ mięci to synonimy, np. pamięć krótkotrwała i robocza. Odpowiadają im różne koncepcje teoretyczne, lecz ich podstawowe funkcje są podobne. Aby uporządkować „przestrzeń problemu” Endel Tulving (1984) zapropo­ nował pięć kryteriów, które muszą być spełnione, aby mówić o odrębności systemów pamięci. Zdaniem autora systemy są odrębne, jeśli: • mają różne funkcje behawioralne i kognitywne oraz są wyspecjalizowane w przetwarzaniu różnych rodzajów informacji, • funkcjonują wedle różnych reguł, • mają różne podłoże neuronalne, • pojawiają się w różnym czasie w rozwoju onto- i filogenetycznym, • różnią się formatem reprezentowania informacji. Innymi słowy, system pamięciowy miałby być definiowany ze względu na mechanizmy mózgowe, sposób reprezentacji nabywanej, przechowywanej i od­ twarzanej informacji oraz reguły jej przetwarzania. Powyższe kryteria wydają się tak restrykcyjne (por. Sherry, Schacter, 1987; Nadel, 1992; Schacter, Tulving, 1994), że wiele współczesnych wielokomponentowych modeli pamięci ich nie spełnia. Poniżej krótko scharakteryzujemy systemy pamięci wyodrębnione ze względu na różne kryteria. Szczegółowy opis tych systemów, wraz z propozycjami teoretycznymi i wynikami badań, przedstawimy w dalszych częściach rozdziału. Klasyczny podział pamięci, wywodzący się z blokowego (magazynowego) modelu Atkinsona i Shiffrina (1968, zob. rozdz. 8.1.2), oparty został na kry­ terium czasu przechowywania informacji1. Ze względu na to kryterium wy­ różniono trzy systemy: magazyn sensoryczny (sensory storage), krótkotrwały (short term storage, STS) i długotrwały (long term storage, LTS). Każdy z nich ma inne funkcje w procesie przetwarzania informacji: od fazy percepcji bodźców pochodzących ze środowiska, poprzez krótkotrwałe przechowanie i udostępnie­ nie ich wyższym procesom poznawczym, aż po ich utrwalenie w LTS. Magazyn sensoryczny jest specyficzny dla powiązanego z nim zmysłu, np. wzroku, słuchu, węchu. Podstawową funkcją każdego z nich jest przetrzymanie bodźca przez krótki okres (np. maksymalnie kilkaset ms w przypadku pamięci ikonicznej, 1 Schacter i Tulving (1994) uważają, że model Atkinsona i Shiffrina jest rozwinięciem modelu Waugh i Normana (1965), którzy jako pierwsi rozróżnili pamięć pierwotną (primary), czyli krótko­ trwałą, i wtórną (secondary), czyli długotrwałą. Jednak model Atkinsona i Shiffrina, jako bardziej rozbudowany i szczegółowy, pełniej oddaje istotę klasyfikacji pamięci ze względu na kryterium czasu przechowywania. 322 Rozdział 8. Pamięć związanej ze zmysłem wzroku) w kodzie analogowym w stosunku do modalności zmysłowej, którą ów bodziec dociera do systemu poznawczego. Do magazynu sensorycznego trafia cała informacja o sytuacji bodźcowej, zwykle bardzo złożonej. Jego pojemność, szczególnie w przypadku pamięci ikonicznej, musi być ogromna, a w każdym razie większa niż STS. Nie ma jednak zgody nie tylko co do tego, jaka jest pojemność każdego z magazynów, ale również w jakich jednostkach powinno się ją wyrazić. Ponieważ funkcjonowanie pamięci sensorycznej jest całkowicie automa­ tyczne, jej zawartość nie podlega kontroli wolicjonalnej (chyba, że za kontrolę uznamy np. zamknięcie oczu, blokujące percepcję bodźców pochodzących z oto­ czenia). Nie oznacza to jednak, że nie można fenomenologicznie doświadczyć jej istnienia. Każdy wie, że kiedy nocą zgasimy światło, to jeszcze przez krótką chwilę „widzimy” obraz pomieszczenia, w którym przebywamy. Magazyn pamięci krótkotrwałej charakteryzuje się zupełnie innymi właści­ wościami, mimo że przechowuje informacje, które dotarły do niego m.in. z magazynów sensorycznych. Na jego zawartość może składać się nie tylko wyselekcjonowana stymulacja bodźcowa, ale również informacja przywołana z LTS, albo efekty bieżącego przetwarzania informacji (np. wynik zsumowania dwóch wartości liczbowych). Początkowo zakładano, że STS posługuje się wyłącznie kodem werbalnym, czy wręcz fonologicznym, a mechanizm pod­ trzymywania informacji w niej zawartych wykorzystuje czynność bezgłośnego powtarzania (maintenance rehearsal). Współcześnie funkcjonuje kilka konku­ rujących modeli tego mechanizmu, jednak każdy z nich dopuszcza możliwość obecności w STS różnych kodów reprezentacji informacji, w tym niewerbal­ nego, np. dotyczącego relacji przestrzennych między obiektami. Problem w tym, że magazyn pamięci krótkotrwałej jest mało pojemny i łatwo ulega przeciążeniu. Wiadomo ponadto, że pojemność ta jest wyraźnie zróżnicowana indywidualne. W życiu codziennym każdy z nas nauczył się optymalnie wykorzystywać dostępną mu pojemność STS, a mimo to próba krótkotrwałego przechowania numeru telefonu poznanej właśnie koleżanki albo rejestracji pojazdu uciekają­ cego z miejsca wypadku może być zadaniem powodującym jego przeciążenie. Czas przechowywania informacji w STS szacowany jest w przedziale od kilku do kilkudziesięciu sekund. W optymalnych warunkach - kiedy mało pojemny STS nie ulega przeciążeniu - jest to czas wystarczający do wykonania często bardzo złożonych operacji poznawczych, np. wyciągania wniosków z przesłanek w zadaniach dedukcyjnych (por. rozdz. 10.7.2, ramka 10.2). Często jednak jest on niewystarczający, co w połączeniu z ograniczoną pojemnością STS stanowi źródło różnorodnych błędów poznawczych. Podstawową funkcją STS jest zatem przechowanie informacji w czasie niezbędnym do jej przetworzenia zgodnie z celem, jaki w danym momencie realizujemy. Celem tym może być dobiegnięcie do telefonu, aby wystukać numer telefonu, który nie jest przechowywany w pamięci długotrwałej, rozwiązanie zadania z testu inteligencji Ravena, czy utrwalenie w LTS nazwisk klasyków badań nad pamięcią. Magazyn pamięci długotrwałej charakteryzuje się najdłuższym czasem przechowywania informacji, mierzonym niekiedy w perspektywie lat. O sporach dotyczących sposobu kodowania informacji w pamięci pisaliśmy przy okazji problemu reprezentacji trwałych, np. pojęć czy wiedzy (zob. rozdz. 3 i 4). Ze wszystkich trzech systemów pamięci obecnych w koncepcji Atkinsona i Shif- 8.1. Natura pamięci 323 frina, pamięć długotrwała wykazuje największe zróżnicowanie zarówno co do rodzajów, jak i funkcji. Szczegółowo zajmiemy się nimi później. Jednak wspólną funkcją wszystkich rodzajów pamięci trwałej jest umożliwienie skutecznej adaptacji jednostki do środowiska, szczególnie w dłuższej perspektywie czasowej. Dzięki różnym rodzajom wiedzy, przechowywanej w systemach LTS, możliwe jest zróżnicowanie i elastyczność sposobów owej adaptacji. Wiedza semantyczna, umiejętności proceduralne i gromadzenie doświadczeń osobistych w różny spo­ sób służą temu przystosowaniu, doskonale uzupełniając się wzajemnie. Rozróżnienie między systemami pamięci, dokonane na podstawie modelu Atkinsona i Shiffrina, nie ogranicza się wyłącznie do kryterium czasu przecho­ wywania. Wspomniano już o innych różnicach dotyczących pojemności i formy reprezentacji informacji. Różnice między różnymi systemami dotyczą ponadto sposobów kodowania, przechowywania, wydobywania i zapominania informa­ cji, a także możliwości sprawowania kontroli nad funkcjonowaniem poszcze­ gólnych magazynów. Zgromadzono również pewną liczbę dowodów neurobiologicznych przemawiających za ich rozłącznością. Do tych kwestii powrócimy w rozdz. 8.1.2. Bardziej szczegółowych rozróżnień rodzajów pamięci długotrwałej doko­ nano w oparciu o różnice w sposobach zapamiętywania, przechowywania i odpamiętywania informacji. Istotą podziału pamięci trwałej w tym ujęciu były pierwotnie różnice w zakresie tych trzech podstawowych faz procesu pamię­ ciowego, w zależności od rodzaju przetwarzanej informacji. Twierdzi się, że każda z faz ma charakter procesualny, co wydaje się oczywiste w przypadku zapamiętywania i odpamiętywania, o czym wspominaliśmy. Ale również prze­ chowywanie ma charakter procesualny, co oznacza, że w tej pozornie statycznej fazie zawartość pamięci może być modyfikowana. Po pierwsze, o procesualnym charakterze tej fazy świadczy zjawisko zapominania. Różne mechanizmy poznawcze i neuronalne powodują „zacieranie się” śladów pamięciowych lub utratę dostępu do nich. Po drugie, używanie informacji, nawet bez modyfikacji jej treści czy relacji względem posiadanej wiedzy, powoduje lepsze utrwalenie materiału (Ebbinghaus, 1885/1913). Częściej jednak użycie informacji wiąże się z jej rekodowaniem (Tulving, 1976a), czyli modyfikacją zapisu pamięciowego w związku z nowo napływającą informacją, albo procesami inferencji z wcześniej nabytą wiedzą. Proces rekodowania może wpływać zarówno na treść zapisu pamięciowego, jak i na związki, w które wchodzi on z innymi zapisami. Wpływ ten może być jednak wybiórczy. Przykładowo, informacja, że woda mineralna „Żywiec Zdrój” nie jest produkowana w Żywcu, a w Cięcinie, może wpłynąć jedynie na treść zapisu. Jeśli nie posiadamy wystarczającej wiedzy o różnicach, np. w składzie, walorach zdrowotnych czy choćby czystości wód mineralnych pochodzących z tych dwóch źródeł, nie zmienią się relacje pojęcia wody mine­ ralnej „Żywiec Zdrój” do innych obszarów naszej wiedzy, systemu przekonań czy nawyków. Z kolei, jeśli dowiemy się, że siostra Zosi - Ola - wróciła z zagranicy i ponownie zamieszkały razem, prawdopodobnie zmianie ulegnie jedynie relacja, która aktualnie je łączy. Nie zmienią się natomiast właściwości charakteryzujące nasze pojęcia Oli i Zosi. Za najogólniejszą klasyfikację rodzajów pamięci ze względu kryteria prze­ biegu trzech faz pamięciowych uznać można podział wprowadzony przez Squire’a (1986; 1994; Squire, Zola-Morgan, 1991). Ma on charakter głównie 324 Rozdział 8. Pamięć porządkujący: autor, odwołując się do znanych wcześniej podziałów, dokonał ich klasyfikacji, uwzględniając relacje, które zachodzą między różnymi rodza­ jami pamięci (zob. ryc. 8.1). Podstawowy podział rodzajów pamięci odwołuje się koncepcji wiedzy według Ryle’a (1949), zaadaptowanej do badań nad pamięcią przez Andersona (1976). Squire czyni więc rozróżnienie na wiedzę deklara­ tywną i proceduralną. Autor zauważył jednak, że w kontraście do wiedzy deklaratywnej, umiejscowić można nie tylko proceduralne nawyki i umiejęt­ ności, tradycyjnie ujmowane pod pojęciem wiedzy proceduralnej. Również inne formy nabywania albo modyfikacji zapisów w pamięci, tj. efekty poprzedzania, warunkowania klasycznego czy nieasocjacyjnego uczenia się (np. habituacji), mają pewną wspólną właściwość, która charakteryzuje również wiedzę proceduralną. Wszystkie one mają mianowicie postać niedeklaratywną, co oznacza trudność w zakresie werbalizacji treści wiedzy. Squire i Zola-Morgan (1991) dokonali również zabiegu redukcji różnorodności rodzajów pamięci, wskazując na podobieństwo pamięci deklaratywnej do jawnej, a pamięci niedeklaratywnej do ukrytej. pamięć deklaratywna (jawna) niedeklaratywna (niejawna) umiejętności i nawyki poprzedzanie2 warunkowanie2 nieasocjacyjne klasyczne uczenie się (habituacja, sensytyzacja) Ryc. 8.1. Klasyfikacja rodzajów pamięci wg Squire’a i Zola-Morgan (1991). Za: Schacter, Tulving, 1994, s. 204. Squire zdawał sobie sprawę z tego, że kategoria „pamięć niedeklaratywna” jest niejednorodna (Squire, Zola-Morgan, 1991). Właściwie poza trudnością w za­ kresie werbalizacji zawartości różnych rodzajów pamięci niedeklaratywnej, reszta ich właściwości jest bardzo zróżnicowana. Co więcej, trudność ta nie oznacza, że werbalizacja jest zupełnie niemożliwa, o czym pisaliśmy w rozdz. 4. Możliwy jest też transfer między wiedzą deklaratywną i proceduralną, bez utraty możliwości werbalizacji reguł opisujących procedury (zob. proceduralizacja wg Andersona, 1981a; rozdz. 4.3.2). Podważono również założenie o niemożności werbalizacji wiedzy nabywanej np. w uczeniu się mimowolnym, należącym, według Squire’a, do zakresu kategorii zjawisk z zakresu pamięci niedeklaratywnej. Dalej Squire rozróżnia dwa typy wiedzy deklaratywnej, odnoszące się do faktów i wydarzeń. Odpowiadają one pamięci semantycznej i epizodycznej, według podziału wprowadzonego przez Tulvinga (1972). Pamięć semantyczna 2 Klasyfikację Squire’a podajemy za oryginałem, chociaż, według nas, poprzedanie i warun­ kowanie to nie rodzaje pamięci, lecz procedury, w wyniku których może powstać zapis pamięciowy. 8.1. Natura pamięci 325 obejmuje specyficzną, stosunkowo łatwą do werbalizacji wiedzę ogólną, oder­ waną od kontekstu (zob. rozdz. 4.2.2 i 8.3.1). Jest rodzajem „umysłowego tezaurusa, zorganizowanej wiedzy, jaką jednostka posiada o słowach i innych symbolach werbalnych, ich znaczeniach i referencjach, relacjach miedzy nimi oraz o regułach, formułach i algorytmach manipulacji tymi symbolami, pojęciami i relacjami” (Tulving, 1972, s. 386). Z kolei pamięć epizodyczna dotyczy „in­ formacji o czasowo umiejscowionych epizodach i wydarzeniach oraz czasowo-przestrzennych relacjach między nimi” (Tulving, 1972, s. 385). Możliwość ich werbalizacji zależy od sprawności posługiwania się językiem i od poziomu szcze­ gółowości zapisu. Niektórzy badacze przyjmują, że dzieci gromadzą wiedzę epi­ zodyczną już w okresie poprzedzającym nabycie umiejętności posługiwania się językiem. Student, który wysłucha niezrozumiałego dla siebie wykładu, również zgromadzi wiedzę epizodyczną, jednak możliwość jej zwerbalizowania, podobnie jak przekazanej na wykładzie wiedzy semantycznej, będzie ograniczona. Zapisy w pamięci epizodycznej uwzględniają całe bogactwo kontekstu informacji, czyli jej umiejscowienie w czasie i przestrzeni oraz związki przy­ czynowo-skutkowe między różnymi wydarzeniami. Wiedza epizodyczna, podob­ nie jak wiedza semantyczna, może być łączona w większe struktury, jak np. historia jakiejś afery z życia politycznego. Różne informacje, pozyskiwane nawet w długiej perspektywie czasu, mogą zostać połączone w spójną całość. Upo­ rządkowaniem tej całości rządzą odkrywane związki przyczynowo-skutkowe, a kodowanie informacji obywa się z uwzględnieniem osi czasu. Elementem tego zapisu może stać się kontekst pozyskania informacji, np. jej źródło, oceniane jako mniej lub bardziej wiarygodne. Specyficzną odmianą pamięci epizodycznej są zapisy wydarzeń, w których sami braliśmy udział. Tego typu wydarzenia kodowane są w tzw. pamięci autobiograficznej. Dla uczestników wspomnianej afery, wydarzenia z nią związane przynajmniej w części będą miały postać autobiograficzną, podczas gdy dla dowiadujących się o niej z mediów obywateli - wyłącznie epizodyczną. Wiedza zawarta zarówno w pamięci epizodycznej, jak i autobiograficznej jest zapisem tego typu konkretnych wydarzeń. Natomiast pamięć semantyczna obejmuje wiedzę, dla której kontekst pozyskania jest nieistotny, dlatego zapis pamięciowy zazwyczaj go nie zawiera. Złożoność ludzkiego umysłu powoduje, że zapisy w pamięci semantycznej i epizodycznej mogą się przenikać. Przykładowo, jako dziecko mogliśmy się dowiedzieć, że hejnał mariacki byłby słyszalny na krakowskich błoniach, gdyby nie Kopiec Kościuszki, uniemożliwiający swobodne rozchodzenie się dźwięku z Rynku. Wiedza ta mogła zostać włączona w struktury wiedzy semantycznej, podobnie jak to, że 2 + 2 = 4. Jednak kiedy dowiedzieliśmy się, że Kopiec Kościuszki nie stoi na drodze rozchodzenia się dźwięków hejnału z Wieży Mariackiej, wiedza ta została zmodyfikowana (np. na błoniach nie słychać hejnału, gdyż jest zbyt daleko od Rynku), a historia, raczej jako anegdota, jak zostaliśmy podstępnie oszukani, mogła trafić do pamięci epizodycznej. Niektóre mnemotechniki, wymyślone w celu ułatwienia zapamiętywania wiedzy seman­ tycznej, odwołują się do metody kodowania informacji w pamięci epizodycznej albo do utrwalonych w niej zapisów (zob. rozdz. 9.1.4). Tak zwana metoda miejsc polega na nałożeniu nabywanej wiedzy na dobrze utrwalony zapis autobiograficzny, związany z lokalizacją przestrzenną charakterystycznych obiektów. 326 Rozdział 8. Pamięć Podstawą rozróżnień dokonanych przez Squire’a - obok treści podlegają­ cych kodowaniu - jest sposób zapamiętywania, przechowywania i odpamiętywania zapisów pamięciowych. Kodowanie informacji w pamięci deklaratywnej odbywa się poprzez włączanie nowej informacji w struktury wiedzy, co do­ konuje się na drodze uczenia się jawnego. W przypadku pamięci semantycznej przechowywane są symboliczne reprezentacje wiedzy ogólnej. Proces zapamię­ tywania musi zatem uwzględniać sposób tworzenia tego typu reprezentacji oraz kształtowania związków semantycznych z posiadaną już wiedzą. W pamięci epizodycznej przechowywane wydarzenia kodowane są bezpośrednio, w takiej postaci, w jakiej zostały spostrzeżone, z całym bogactwem kontekstu, np. za­ pachów towarzyszących wczorajszej kolacji. Sposób reprezentowania informa­ cji również zawiera relacje między nimi, ale mają one przede wszystkim charakter uporządkowania przyczynowo-skutkowego. Wydobycie wiedzy dekla­ ratywnej ma charakter wolicjonalny i polega na jej werbalizacji, bo przecież dzięki językowi została zakodowana. Mechanizmy wydobycia różnią się w przy­ padku pamięci semantycznej i epizodycznej, jednak wspólną ich właściwością jest wykorzystanie relacji między elementami zakodowanej informacji. Z kolei wszelkie formy pamięci niedeklaratywnej są nabywane na drodze wielokrotnego powtarzania czynności (w wypadku procedur) albo uczenia się mimowolnego. Ich reprezentacja, w postaci programów czy systemów reguł, jest zapisem sekwencji działań, wyzwalanych w pewnym kontekście. Świadomość nie jest niezbędna do wydobycia tej wiedzy, bowiem jest ona uruchamiana automatycznie, w związku z zainicjowaniem dobrze nam znanej czynności. 8 .1 .2 . Blokowe (magazynowe) m odele pamięci Pojęcie „blokowe” w odniesieniu do pamięci, czy - ogólnie - przetwarzania informacji, oznacza pewną metaforę rozumienia struktury i funkcji systemu po­ znawczego człowieka. Jeśli chodzi o strukturę, oznacza ono wyraźną jej modutowość: system poznawczy składa się z pewnej liczby modułów o wyspecjalizo­ wanych funkcjach. Przetwarzanie informacji polega na przesyłaniu efektów pracy jednego modułu do kolejnego w ściśle określonej sekwencji. Z tego względu przetwarzanie informacji, w tej metaforze, ma charakter sekwencyjny: przetworzenie informacji w danym module możliwe jest po otrzymaniu kompletu danych z modułu poprzedzającego. Przetwarzanie odbywa się więc „krok po kroku”, od wczesnych do późnych faz przetwarzania informacji (por. Neisser, 1967). Metafora blokowa wywodzi się z działania systemów kom­ puterowych, które początkowo składały się z odrębnych modułów, przetwa­ rzających informację sekwencyjnie, według określonych algorytmów. W modelach blokowych pamięć rozumiana jest jako magazyn, a właściwie system wielu magazynów. Odrębne właściwości pamięci wyjaśnia się istnieniem osobnych magazynów, wyspecjalizowanych w przechowywaniu określonej informacji. Od początku magazyny rozumiane były jako hipotetyczne konstrukty teoretyczne, a nie realnie istniejące struktury fizjologiczne. Jednak me­ tafora magazynu jako pojemnika o względnie stałych parametrach (np. pojem­ ności), biernie przechowującego zawarte w nim informacje, znalazła swoje odbicie w teoriach pamięci. 8.1. Natura pamięci 327 Atkinson i Shiffrin (1968, 1971) zaproponowali model, w którego skład wchodziły trzy magazyny pamięciowe: sensoryczny, krótkotrwały i długotrwały (zob. rozdz. 1.3.1, ryc. 1.3). Magazyny, ze względu na odmienne funkcje, umiejscowione zostały w różnych fazach procesu przetwarzania informacji. Dane pochodzące ze środowiska, po zarejestrowaniu przez zmysły, przez bardzo krótki czas utrzymywane są w jednym z systemów pamięci sensorycznej (bądź wielu, jeśli informacja jest kombinacją wielu modalności). Dzięki procesom uwagowym część tych danych przenoszona jest do STS, gdzie procesy kontrolne decydują o sposobie ich wykorzystania. Informacja ta może być użyta w procesie sterowania zachowaniem, albo - dzięki powtarzaniu - zostać włą­ czona do jednego z systemów pamięci długotrwałej. Transfer informacji z STS do LTS jest relatywnie wolny. O jego ograniczeniach decyduje zarówno cha­ rakter samego zapisu w LTS, polegający na uwzględnieniu jego relacji do innych zapisów, jak i ograniczony czas przebywania informacji w STS. Może się więc zdarzyć, że informacja zanika z STS, zanim zostanie zakodowana w LTS. Pamięć krótkotrwała jest również miejscem, do którego przywoływane są informacje z LTS. Przywołanie wymaga aktywacji odpowiednich zapisów z ma­ gazynu pamięci trwałej, dokonujących się dzięki użyciu strategii wydobycia (jednej z funkcji kontrolnych STS). Innymi słowy, pamięć krótkotrwała nie tylko stanowi „pole”, w którym chwilowo przechowywane są informacje przy­ wołane z LTS, ale dzięki procesom kontrolnym aplikuje znane jednostce strategie. O sprawności korzystania z zasobów LTS decyduje efektywność organizacji kodowania materiału oraz jego wydobywania. W późniejszych modyfikacjach modelu Shiffrin ze współpracownikami (Shiffrin, Atkinson, 1969; Shiffrin, Geisler, 1973) starali się wyeliminować po­ ważny mankament pierwszej wersji modelu. Chodziło o zarzut dotyczący możliwośęi włączenia do magazynu STS treści bez pośrednictwa LTS. Ponieważ zakładano, że treści te mają co najmniej postać akustyczną, jeśli nie werbalną, muszą więc podlegać wcześniejszej obróbce z udziałem reprezentacji poznaw­ czych. Aby informacja sensoryczna mogła zostać zwerbalizowana, konieczne jest jej wcześniejsze rozpoznanie, co - jak wiadomo - nie może odbyć się bez udziału trwałych wzorców reprezentacji. Dlatego też autorzy zamienili w swoim modelu kolejność dwóch bloków: STS i LTS. Według nowej wersji wyselek­ cjonowana informacja sensoryczna kodowana jest bezpośrednio w pamięci długotrwałej, co również budzi pewne wątpliwości. Innym interesującym modelem blokowym pamięci jest koncepcja Lehrla i Fischera (1988). Autorzy prowadzili badania mające na celu dokładne oszacowanie ograniczeń przetworzeniowych systemu poznawczego człowieka. Przyjęli, że procesy przetwarzania informacji powinny podlegać pomiarowi głównie w jednostkach czasu (sekundy) i ilości informacji (bity). Według Lehrla i Fischera (1988), system percepcyjny człowieka przetwarza w przybliżeniu 109-1011 bitów informacji na sekundę, uwzględniając stymulacje pochodzące ze środowiska zewnętrznego i z samego organizmu (zob. ryc. 8.2). Z tego, uwzględniając wszystkie kanały sensoryczne, obróbce percepcyjnej podlega ok. 107 bitów w ciągu sekundy. Informacja rejestrowana za pomocą różnych analizatorów podlega integracji, a następnie selekcji. Procesy te zachodzą na materiale sensorycznym zawartym w strukturze zwanej „przechowalnią” (accommodator), która połączona jest z pamięcią długotrwałą (long term 328 Rozdział 8. Pamięć przechowalnia 15 bit/s (accomodator) percepcja ^ 107 l . L I I \ zmysły STM ~ 80 bit konsolidacja 0,01 - 1 bit/s inne kanały sensoryczne I l \ 106 4x105 5 x 103 103 W 10 ~107 bit/s 13 bit/s L 109-1011bit/s ZACHOWANI E Ryc. 8.2. Model przetwarzania informacji z uwzględnieniem struktur poznawczych, kierunków przepływu informacji oraz przepustowości systemu, (za: Lehrl, Fischer, 1988, s. 885). memory, LTM). Następnie informacja przesyłana jest do pamięci krótkotrwałej (short term memory, STM), którą scharakteryzowano za pomocą czterech parametrów: (1) szybkość strumienia informacji na wejściu do STM (Cu), który wynosi 15 ± 3,1 bit/s; (2) czas przechowywania informacji w STM (TR), tj. 5,4 ± 0,8 s; (3) całkowitą pojemność STM (K k = CK x TR), czyli ok. 80 bitów oraz (4) tempo konsolidacji, czyli transferu informacji z STM do LTM ('Cv), wynoszące 0,01-1 bit/s. STM, podobnie jak w modelu Atkinsona i Shiffrina, ma również funkcję kontrolną, sterując zachowaniem człowieka. W swoich badaniach autorzy posłużyli się zadaniem polegającym na po­ miarze czasu czytania trzech rodzajów znaków: liter, liczb i symboli chemicz­ nych. Podjęcie decyzji leksykalnej dotyczącej każdej litery wymaga przetwo­ rzenia ok. 5 bitów informacji (dla 27 liter alfabetu niemieckiego, które wyko­ rzystano w badaniach, log227 = 4,75). Zatem do przeczytania ciągu złożonego z 20 Uter wymagane jest przetworzenie ok. 100 bitów (= 20 x 5 bitów). Jeśli czas czytania ciągu wyniósł np. 5 s, to przeciętna szybkość przetwarzania jest równa 20 bit/s (= 100 bitów/5 s), czyli 1 bit w ciągu 50 ms. Pojemność STM szacowana jest przez Lehrla i Fischera na podstawie dwóch parametrów: szybkości strumienia na wejściu i przeciętnego czasu przechowywania informacji w STM. Magazyn o pojemności rzędu 80 bitów pozwala, według obliczeń dokonanych przez autorów, na przechowanie średnio przez 5,4 s, ok. 11 dwucyfrowych liczb (11 x 7 bitów = 77 bitów), albo ciągu złożonego z losowo dobranych 16 liter (16x5 bitów = 80 bitów). Wartość ta jest więc w przybliżeniu dwukrotnie większa niż pojemność STM szacowana przez Millera (1956), tj. 7 ± 2 jednostki. Wyliczenia Lehrla i Fischera wydają się nie uwzględniać mechanizmu zanikania informacji w pamięci krótkotrwałej: dostępność informacji spada szybko wraz z upływem czasu. Waugh i Norman (1965), uwzględniając zjawisko interferencji informacji w STM występujące w swobodnym odtwarzaniu listy elementów, oszacowali jej pojemność na 2-3 8.1. Natura pamięci 329 elementy. Współczesne badania nad pamięcią roboczą również wydają się wskazywać, że wartość „magicznej liczby” Millera została przeszacowana (Cowan, 1995; zob. rozdz. 8.2.4). Lehrl i Fischer przyjęli również wątpliwe założenie, że strumień danych na wejściu do STM ma zawsze taką samą szyb­ kość. W przypadku większości realistycznych zadań poznawczych, obok trans­ feru danych z rejestrów sensorycznych, STM zajmuje się wydobywaniem i przechowywaniem informacji z LTM, a także ich przetwarzaniem. Utrzymanie parametru Ck na maksymalnym poziomie w dłuższej perspektywie czasu wydaje się zatem niemożliwe. Pomimo formułowanych pod ich adresem zastrzeżeń, Lehrl i Fischer wyprowadzili ze swoich badań dwa godne uwagi wnioski. Pierwszy dotyczy parametru CK, który okazał się niezależny od typu materiału (litery, liczby) i wokalizacji (czytanie głośne i ciche). We wszystkich zastosowanych przez autorów seriach zadań, w których manipulowano tymi zmiennymi, czas reakcji nie różnił się istotnie. Wydaje się, że jest to dowód na formalny charakter pa­ rametru Ck - Drugi wniosek dotyczy niezależności parametrów CK i TR. Autorzy podają argumenty na rzecz owej niezależności, które są o tyle ciekawe, iż uważa się, że pomiędzy nimi zachodzi dość ścisły związek (np. Eysenck, 1986; Jensen, 1970b). Argumenty przytoczone przez Lehrla i Fischera dotyczą niezależności zmian w zakresie obu parametrów w przypadku różnych zaburzeń o charakterze klinicznym. Jednak w innych badaniach Lehrla (1988; za: Lehrl, Fischer, 1988), przeprowadzonych wśród osób zdrowych, parametry te skorelowane były pozytywnie na poziomie 0,65. Istotą metafory magazynowej w zastosowaniu do pamięci jest traktowanie jej systemów jako odrębnych. Idea odrębności, przecie wszystkim systemów pamięci krótko- i długotrwałej, wywodzi się jeszcze z XIX-wiecznych prac Williama Jamesa. Zwolennicy tej idei wskazują na szereg danych przemawia­ jących za tym podziałem. Dane eksperymentalne tego typu odwołują się do tzw. krzywych pozycyjnych, będących ilustracją prawdopodobieństwa prawidłowego odtworzenia bodźców z listy (np. słów) w zależności od ich pozycji na tej liście. Liczba bodźców na liście musi być na tyle duża, aby przekraczała pojemność pamięci krótkotrwałej. W klasycznych badaniach dotyczących zapamiętywania Glanzer i Cunitz (1966) prezentowali osobom badanym listę 15 słów z po­ leceniem ich zapamiętania. Prezentacja odbywała się sekwencyjnie. Następnie, po upływie 0, 10, albo 30 s, osoby badane proszone były o odpamiętanie tylu słów, ile tylko potrafią. Kolejność odtwarzania była dowolna, w szczególności nie musiała być zgodna z kolejnością prezentacji. Jest to jedna z klasycznych procedur stosowanych w badaniach nad pamięcią, tj. metoda swobodnego od­ twarzania (free recall). W warunkach, w których zastosowano odroczenie (10 albo 30 s) pomiędzy ekspozycją listy a rozpoczęciem jej odtwarzania, osoby badane w czasie przerwy wykonywały zadanie odliczania wstecz. Ponieważ jest to zadanie silnie angażujące pamięć krótkotrwałą, utrudnione staje się wówczas powtarzanie w pamięci listy słów. Wyniki uzyskane przez Glanzera i Cunitz zaprezentowano na ryc. 8.3. Wskazują one na wystąpienie tzw. efektu pierw­ szeństwa i efektu świeżości. Pierwszy dotyczy wyższego prawdopodobieństwa odtworzenia bodźców z początku listy, a drugi - z jej końca. Ponieważ lista jest na tyle długa, że jej zawartość nie może zostać w całości zakodowana w pamięci krótkotrwałej, efekt pierwszeństwa wyjaśnia się transferem informacji do LTM. 330 Rozdział 8. Pamięć 1 5 10 15 pozycja elementu na liście Ryc. 8.3. Efekt pozycji - prawdopodobieństwo odtworzenia pierwszych i ostatnich kilku elementów listy elementów (np. słów) jest wyższe niż elementów środkowych. (Glazer, Cunitz, 1966, za: Eysenck, Keane, 2000, s. 154). Efekt ten jest dość odporny na upływ czasu i interferencję wywołaną w pamięci krótkotrwałej (nie znika w warunkach odroczenia czasowego z zadaniem odliczania wstecz). Z kolei efekt świeżości wiązany jest z udziałem STM w od­ twarzaniu materiału, nawet gdy lista jest bardzo długa. Jeśli odtwarzanie roz­ poczyna się natychmiast po prezentacji listy, ostatnie jej elementy znajdują się jeszcze w pamięci krótkotrwałej. Efekt ten jest jednak silnie podatny na upływ czasu (odroczenie) i na interferencję (odliczanie wstecz). W warunku odro­ czenia odtwarzania już o 10 s efekt ten zanika, albo zdecydowanie słabnie (por. Bjork, Whitten, 1974). Okazuje się więc, że w warunkach odroczenia odtwarza­ nia wybiórczo redukowany jest efekt świeżości przy zachowaniu efektu pierw­ szeństwa. Wybiórczość tę uznano za dowód odrębności magazynów pamięcio­ wych, z którymi wiążą się obydwa efekty. Inne dane eksperymentalne sugerują odrębność STM i LTM ze względu na postulowane mechanizmy zapominania. Twierdzi się, że w obu wypadkach działa mechanizm interferencji. Wyniki badań wskazują, iż w pamięci krótkotrwałej czynnikiem ją wywołującym jest podobieństwo akustyczne bodźców, podczas gdy w pamięci długotrwałej - ich podobieństwo semantyczne. Ponadto postuluje się istnienie specyficznego dla LTM mechanizmu zapominania, polegającego na utra­ cie dostępu do informacji (cue-dependent forgetting). Mimo że informacja nie zo­ stała usunięta z LTM tracimy do niej dostęp, najczęściej chwilowo. Spektakular­ nym dowodem udziału tego mechanizmu w zapominaniu jest tzw. efekt końca języka (tip of tongue effect), kiedy doskonale zdajemy sobie sprawę z tego, że coś wiemy, ale nie jesteśmy w stanie sobie tego przypomnieć. Druga grupa dowodów odrębności magazynów STM i LTM pochodzi z badań fizjologicznych i odnosi się do zjawiska tzw. podwójnej dysocjacji (double dissociation) u pacjentów z uszkodzeniami mózgu. Przyjmuje się, że jeśli dwa zadania angażują różne mechanizmy poznawcze czy mózgowe, to w zależności od rodzaju uszkodzenia pacjenci będą wykonywać jedno z tych zadań gorzej niż osoby zdrowe, podczas gdy poziom wykonania drugiego po­ 8.1. Natura pamięci 331 zostanie niezmieniony. Krzywe pozycyjne, według zwolenników metafory ma­ gazynowej, odzwierciedlają zaangażowanie odrębnych podsystemów pamięcio­ wych. Wybiórcze zniesienie efektu pierwszeństwa z równoczesnym zachowa­ niem efektu świeżości przy specyficznych uszkodzeniach mózgu, uznać należy za dowód odrębności mechanizmów kryjących się za tymi efektami. Rezultaty tego typu pochodzą z badań przeprowadzonych na pacjentach z amnezją wsteczną lub następczą, spowodowaną uszkodzeniami przyśrodkowych płatów skronio­ wych, wzgórza lub okolic przedczołowych, zaistniałymi w wyniku wypadku albo interwencji chirurgicznej. Wyniki tych badań omówione zostaną w rozdz. 8.3.2. W tym miejscu zaznaczmy tylko, że opisano przypadki pacjentów, u których stwier­ dzono wybiórcze zaburzenia w zakresie efektu pierwszeństwa albo świeżości. Idea magazynowych modeli pamięci z jednej strony wydaje się intuicyjnie trafna. Większość znanych nam systemów przechowywania informacji ma strukturę magazynową, np. różnego rodzaju bazy danych, zarówno analogowe, (np. katalogi biblioteczne), jak i elektroniczne (np. baza danych o podatnikach). Samo pojęcie przechowywania sugeruje istnienie jakiegoś schowka czy pojemnika. Z drugiej strony, podstawowym „grzechem” tego podejścia jest błąd nadmiernego uproszczenia. Po pierwsze, jako nadmiernie uproszczony, a nawet zupełnie nietrafny, uznano statyczny charakter modeli blokowych, podczas gdy ogólne założenia paradygmatu poznawczego akcentują dynamikę procesów poznawczych. Trudności w oszacowaniu podstawowych własności magazynów pamięciowych, tj. pojemności i czasu przechowywania (poza LTM, która wydaje się nie posiadać ograniczeń w tym zakresie), wynikają zapewne z owej statyczności ujęcia, typowego dla metafory magazynowej. Reynolds i Flagg (1983) po analizie rezultatów wielu badań ustalili, że pojemność STM szacuje się w granicach od 3 do 20 jednostek. Również czas przechowywania informacji w pamięci krótkotrwałej mieści się w przedziale od 5 s (Lehrl, Fisher, 1988) do 1 min (Sternberg, 1996b). Różnice wynikają w sposób jednoznaczny z zastosowanych procedur eksperymentalnych, ale oznacza to, że różnorodne procesy poznawcze wpływają zarówno na czas przechowywania, jak i pojemność STM. Dzięki efektywnemu kodowaniu z wykorzystaniem mnemotechnik i mechanizmowi wewnętrznych powtórek można zwiększyć zakres obu parametrów pamięci. Właściwości pamięci sensorycznej wydają się bardziej stałe, ale również w jej przypadku pojemność i czas przechowywania zapisu różnią się w zależności od angażującego ją zadania poznawczego. Po drugie, kontrowersyjny wydaje się pogląd, że przetwarzanie informacji z udziałem systemów pamięciowych odbywa się zgodnie z ustaloną w modelach blokowych ścieżką. Właściwie żadna z omówionych propozycji teoretycznych nie rozwiązuje tego problemu w sposób zadowalający. Tymczasem proces mi­ mowolnego uczenia się w paradygmacie sztucznych gramatyk wydaje się pomijać pamięć krótkotrwałą, ale już werbalizacja reguł gramatyki (przynaj­ mniej częściowo możliwa) wiąże się transferem informacji z LTM do STM. Co więcej, aby wyjaśnić to zjawisko, niezbędne jest opisanie mechanizmu kodo­ wania informacji (abstrakcyjnego albo - co wydaje się już prostsze - egzem­ plarzowego) bez udziału STM. Również zautomatyzowane czynności procedu­ ralne realizowane są bez udziału pamięci krótkotrwałej. Wydaje się, że metafora magazynowa w ogóle nie pasuje do ludzkiego umysłu, którego struktura - jak uważa Czesław Nosal (1990) - podlega dynamicznym zmianom. 332 Rozdział 8. Pamięć Po trzecie, podważono ideę zróżnicowania kodów reprezentacji danych w poszczególnych magazynach. Najmniej wątpliwości budzi rodzaj kodu w pa­ mięci sensorycznej. Jednak już np. model pamięci roboczej Baddeleya (1986; Baddeley, Hitch, 1974) wyróżnia odrębne kody podsystemów przechowywania informacji werbalnej i wzrokowo-przestrzennej, a także informacji zintegrowa­ nej z różnych modalności (Baddeley, 2001, 2002). Z kolei teoria Paivio (1971, 1986) zakłada, że kodowanie informacji w pamięci trwałej może odbywać się zarówno werbalnie, jak i niewerbalnie (np. obrazowo), a nie tylko semantycznie. Długotrwale pamiętanie dźwięków melodii, smaków czy zapachów, jak również procedur, sugeruje, że LTM wykorzystuje pełną pulę kodów reprezentowania informacji. Nie wydaje się, aby koncepcja uniwersalnego, abstrakcyjnego kodu propozycjonalnego była do utrzymania w odniesieniu do kodowania, np. dźwięków muzyki, a przecież każdy człowiek umiejętność tę posiada. Po czwarte, zauważono, że dowody odrębności STM i LTM, oparte na krzywych pozycyjnych, można wyjaśnić bez przyjmowania założeń o głębokich różnicach strukturalnych. Zniesienie efektu świeżości można wyjaśnić zjawis­ kiem interferencji pomiędzy przechowywaną informacją werbalną (listą słów), a werbalnym zadaniem odliczania wstecz. Kiedy bowiem zastosowano inne zadanie „przeszkadzające” w powtarzaniu listy stów, które polegało na wy­ łapywaniu z zestawu dźwięków tonu o określonej wysokości, efekt świeżości utrzymywał się nawet do 40 s (Reitman, 1971, 1974). Również dane kliniczne, dotyczące efektu podwójnej dysocjacji, można wyjaśnić odwołując się do zaburzenia przebiegu procesów przetw arzania informacji, związanych z różnymi mechanizmami pamięciowymi. Może to być zaburzenie konsolidacji śladu pamięciowego, dokonującej się z udziałem hipokampa (zob. rozdz. 9.1.3). Inne ujęcie wymaga zmiany spojrzenia na funkcje struktur mózgowych w procesie pamięciowym. Być może struktury mózgowe, niewątpliwie odrębnie aktywowane w zadaniach klasycznie uznawanych za miary STM i LTM, nie wskazują na odrębną lokalizację systemów, ale na odrębność związanych z nimi procesów poznawczych, np. konsolidacji śladu pamięciowego, albo przywoły­ wania określonych zapisów pamięciowych. Zaburzenia w zakresie tych mechanizmów, nawet jeśli mają dobrze poznaną etiologię, związaną z uszko­ dzeniem określonych partii mózgu, mogą być dowodem odrębności mechaniz­ mów pamięciowych, a nie systemów pamięci. W końcu po piąte, modele blokowe ujmują procesy pamięciowe w izolacji od innych procesów poznawczych. Według Craika i Lockharta (1972), różnice pomiędzy ilością danych trwale przechowywanych w pamięci, a ilością in­ formacji aktualnie świadomie przetwarzanych wynikają nie z lokowania ich w odrębnych magazynach, lecz z działania procesów uwagowych odpowiedzial­ nych za aktywowanie informacji. Trudno byłoby wyjaśnić proces kodowania informacji w LTM w oderwaniu od selekcji danych, która też jest procesem uwagowym. Również wydobywanie informacji z LTM, polegające na przeszu­ kaniu jej olbrzymich zasobów, nie byłoby tak szybkie bez udziału uwagi selektywnej. Połączenie różnych procesów poznawczych w jednym modelu jest zabiegiem skomplikowanym i generuje różne trudności. Na przykład pojawił się problem, czy mechanizm uwagowy angażowany w przeszukiwanie pola wzrokowego jest tym samym, który wspomaga przeszukiwanie pamięci. Innymi słowy, ważne wydaje się ustalenie, czy uwaga jest mechanizmem jednorodnym 8.1. Natura pamięci 333 (por. Nęcka, 1995; Szymura, Nęcka, 2004). Jednak pomijanie czynników istot­ nych dla danego zjawiska, chociaż w tradycji badawczej analizowanych odrębnie, byłoby nieuprawnionym uproszczeniem. 8.1.3. Procesualne modele pamięci Modele procesualne są alternatywnymi koncepcjami wyjaśniającymi wyniki badań nad pamięcią. W szczególności oznacza to, że nie kwestionując tych wyników, można wyjaśnić funkcjonowanie pamięci bez odwoływania się do metafory magazynowej. Co więcej, kontrowersje związane z próbami oszaco­ wania pojemności i czasu przechowywania informacji w różnych systemach są łatwiejsze do wyjaśnienia w ujęciu procesualnym niż strukturalnym. Nauka przedkłada proste rozwiązania nad bardziej złożone, jeśli te pierwsze wyjaśniają zgromadzone dane co najmniej tak samo dobrze, jak te drugie. W przypadku procesualnych modeli pamięci, a szczególnie teorii poziomów przetwarzania Craika i Lockharta (1972), wydaje się, że wyjaśnienia przez nie proponowane uznać można nawet za lepsze, niż wyjaśnienia proponowane w ujęciu maga­ zynowym. Przykładowo, wspomniane kontrowersje dotyczące właściwości magazynów, które są nie do uniknięcia w tradycyjnym, blokowym ujęciu pamięci, w większości z łatwością i niejako przy okazji, są wyjaśniane jako efekt głębokości przetwarzania informacji. Teoria poziomów przetwarzania nie była pierwszą próbą procesualnego wyjaśnienia funkcjonowania pamięci. Jednak w kontraście np. do procesualnego modelu pamięci długotrwałej Rumelharta, Lindseya i Normana (1972), nie była ograniczona tylko do jednego systemu pamięci. Jej ambicją, podobnie jak opisanych powyżej modeli blokowych, było wyjaśnienie szerokiej klasy zjawisk, niekiedy kosztem niewystarczającego poziomu szczegółowości postulowanych mechanizmów pamięciowych. Niemniej teoria poziomów przetwarzania była absolutnie przełomową, alternatywną próbą zrozumienia mechanizmów pamię­ ciowych. Craik i Lockhart (1972) przyjęli, że trwałość śladów pamięciowych wiąże się z głębokością przetworzenia stymulacji. Ponieważ głębokość przetwarzania jest efektem wielu procesów, nie tylko kodowania informacji, ale również póź­ niejszej obróbki, jest to zmienna ciągła. Skoro trwałość informacji jest skutkiem głębokości przetworzenia, niepotrzebne, a co najmniej uproszczone jest ogra­ niczanie się do skończonej liczby poziomów przetworzenia (w metaforze maga­ zynowej - liczby systemów pamięci). W teorii poziomów przetwarzania traktuje się pamięć jako system jednorodny, chociaż pogłębienie przetwarzania może angażować różne mechanizmy poznawcze. Przykładowo inne będą mechanizmy płytkiej sensorycznej obróbki stymulacji, a inne głębokiego kodowania infor­ macji w relacji do posiadanej wiedzy. Zapisy pamięciowe w teorii Craika i Lockharta stanowią swego rodzaju produkt uboczny percepcyjnej analizy stymulacji. Pojęcie analizy percepcyjnej rozumiane jest przez autorów jako proces złożony, angażujący - przy głębszym przetworzeniu - również wieloaspektową interpretację stymulacji. Ślady pamięciowe nie stanowią bezpośredniego odwzorowania bodźca, lecz są za­ pisem operacji poznawczych, składających się na proces jego percepcji. Stąd 334 Rozdział 8. Pamięć proces odpamiętywania jest próbą odtworzenia sytuacji percepcyjnej. Ponieważ teoria poziomów przetwarzania zakłada, że pogłębienie przetwarzania wiąże się z wykonaniem wcześniejszych, płytszych operacji poznawczych, dlatego odtwa­ rzanie stymulacji przebiega tym sprawniej, im głębiej została ona przetworzona. Przywołania pamięciowe są tym samym uzależnione od przebiegu procesów interpretacji bodźca oraz od możliwości późniejszego odtworzenia operacji, które uczestniczyły w procesie interpretacyjnym. Rozwiązanie takie pozwala na wyjaśnienie różnic intra- i interindywidualnych w przywołaniach pamięciowych, czyli różnic ujawniających się zarówno między osobami uczestniczącymi w ja­ kimś zdarzeniu, jak również między kolejnymi przywołaniami tej samej osoby. Jak zauważa Najder (1997), w przeciwieństwie do wyjaśnień pochodzących z modeli magazynowych, teoria poziomów przetwarzania zakłada, że nawet gdyby usunąć wszystkie niesprawności systemu poznawczego, przywołania pa­ mięciowe - przynajmniej inter-, a być może i intraindywidualnie - byłyby nadal różne. Wynika to z przebiegu procesu interpretacji stymulacji, który może prze­ biegać zupełnie inaczej u różnych ludzi, nawet jeśli działają na nich te same bodźce. Różne mogą być też możliwości odtworzenia operacji poznawczych, które składały się na proces percepcji i interpretacji. Craik i Lockhart przyjęli dla uproszczenia podział poziomów przetwarzana na: płytsze, związane z analizą fizycznych właściwości stymulacji, i głębsze, związane z analizą znaczenia stymulacji. Każdy z nich może zawierać wiele podpoziomów, jednak autorzy nie chcieli przesądzać o ich liczbie i unikalnych właściwościach każdego z nich. W badaniach empirycznych potwierdzono hi­ potezę, wiążącą głębokość przetwarzania bodźca z prawdopodobieństwem roz­ poznania (Craik, TuMng, 1975; zob. paradygmat 8.1) albo swobodnego przypominania (Rogers, Kupler, Kirke, 1977). Paradygm at 8.1 Badanie pamięci w kategoriach poziomów przetwarzania W klasycznym badaniu Craika i Tulvinga (1975) przeprowadzono łącznie dziesięć eksperymentów. W każdym z nich uczestniczyło ponad 20 osób badanych, którym prezentowano kilkadziesiąt (40 do 60) krótkich rzeczowników o konkretnym zna­ czeniu. Słowa te były prezentowane tachistoskopowo w czasie 200 ms. Przed każI dym słowem osobie badanej czytano lub prezentowano na piśmie pytanie dotyczą- i | ce najbliższego słowa. Na pytanie to trzeba było odpowiedzieć już po zapoznaniu ? * się z bodźcem, naciskając odpowiedni przycisk (klucz reakcyjny TAK lub NIE) albo x emitując reakcję werbalną. W każdym przypadku mierzono czas reakcji. Istotą procedury Craika i Tulvinga było manipulowanie charakterem pytań, tak ; aby - zgodnie z przyjętym stanowiskiem teoretycznym - określone pytanie ? stymulowało odpowiedni poziom przetwarzania informacji. Na poziomie płytkim, nazwanym przez autorów poziomem strukturalnym, pytano o to, czy słowo napisane jest wielkimi literami. W przypadku, gdy za chwilę pojawiło się np. słowo „STÓŁ”, należało odpowiedzieć TAK, a gdy słowo napisano jako „stół”, właściwa odpowiedź brzmiała NIE. Na nieco głębszym poziomie „fonemicznym” pytano, czy słowo rymuje się z innym słowem. Na przykład pytanie brzmiało: „Czy słowo rymuje 8.1. Natura pamięci 335 się ze słowem DYNIA?” Jeśli po tym pytaniu badany zobaczył słowo „skrzynia”, powinien zareagować TAK, a jeśli widział słowo „targ”, powinien nacisnąć przycisk NIE. Na najgłębszym poziomie, wymagającym analizy semantycznej, pytano albo o przynależność kategorialną słowa, albo o to, czy słowo pasuje do konkretnego zdania. Na przykład na pytanie: „Czy to jest gatunek ryby?”, należało odpowiedzieć TAK w przypadku słowa „REKIN”, a NIE w przypadku słowa „niebo”. Z kolei na pytanie: „Czy to słowo pasuje do zdania: ‘Spotkał ___ na ulicy’?”, należało odpowiedzieć TAK w przypadku słowa „PRZYJACIEL”, a NIE w przypadku słowa „chmura”. Drugą, niezwykle istotną, częścią procedury był niespodziewany test pamięci. Osoby badane proszono o odpamiętanie prezentowanej wcześniej listy słów, albo w warunkach swobodnego przypominania („Przypomnij sobie w dowolnej kolej­ ności słowa, które widziałeś w zadaniu na spostrzeganie”), albo w warunkach roz­ poznawania. Jeśli stosowano test rozpoznawania, badanym prezentowano listę słów oryginalnych wraz z dwu- lub trzykrotnym nadmiarem. Na przykład, jeśli oryginalna lista liczyła 40 słów, w teście rozpoznania znajdowało się 80 lub 120 słów, w tym lista oryginalna w całości. Sprawdzano procent poprawnie odpamiętanych słów w zależności od warunku eksperymentalnego. Okazało się, że manipulacja poziomami przetwarzania wpłynęła zarówno na czas reakcji, jak i na poprawność odpamiętania. Na przykład w pierwszym eksperymencie z serii dziesięciu, średni czas reakcji w warunku strukturalnym wy­ niósł 614 ms, w warunku fonemicznym - 689 ms, w warunku wymagającym decyzji kategorialnej - 711 ms, a w warunku wymagających analizy treści zdania - 746 ms. Dane te dotyczą sytuacji, gdy poprawna odpowiedź brzmiała TAK. W przypadku 1 odpowiedzi negatywnych wartości czasu reakcji było nieco inne, choć nie różniły się znacząco od czasu reakcji pozytywnych. Jeśli chodzi o poprawność w teście odpamiętania, była ona najniższa w warunku strukturalnym (18%), znacząco wyższa - w warunku fonemicznym (78%), a najwyższa - w warunkach semantycz­ nych (91%, jeśli chodzi o decyzje kategorialne, a 96% w przypadku analizy treści zdania). Dane te dotyczą poprawności reakcji typu TAK; w przypadku reakcji typu I NIE zaobserwowano nieco słabszy przyrost poprawności w miarę przechodzenia \ na głębszy poziom przetwarzania, chociaż i tutaj przyrost ten był znaczący (od 14% w warunku strukturalnym do 85% w warunku wymagającym analizy treści zdania), f Można więc powiedzieć, że im głębszy poziom przetwarzania, tym dłuższy czas | reagowania, ale lepszy wskaźnik niezamierzonego zapamiętywania materiału. Dłuższy czas reakcji świadczy zapewne o większej złożoności procesu pozna­ wczego, zaangażowanego w przetwarzanie materiału na poziomie głębokim. Nato­ miast wyższy odsetek poprawnych reakcji w teście pamięci świadczy niewątpliwie | o większej i jakościowo lepszej pracy umysłu wtedy, gdy postawi mu się zadanie I dogłębnej analizy materiału. Jak piszą sami autorzy: „przechowanie materiału w pamięci stanowczo zależy od jakości wykonanych operacji kodowania” (Craik, Tulving, 1975, s. 291). Paradygmat Craika i Tulvinga był wielokrotnie wykorzystywany w badaniach z zakresu pamięci, ale też w badaniach nad mimowolnym uczeniem się. i Zadecydowała o tym istotna część przyjętej przez nich procedury, zgodnie z którą | osoba badana kontaktuje się z materiałem bodźcowym bez zamiaru zapamiętania 336 Rozdział 8. Pamięć go, lecz w odpowiedzi na polecenie eksperymentatora, aby ten materiał w jakiś sposób przetworzyć. Potem znienacka następuje próba pamięci, której wyniki świadczą o efektywności mimowolnego, niezamierzonego zapamiętywania. Po­ sługując się tą logiką stworzono procedury do badania skuteczności niezamierzo­ nego, mimowolnego uczenia się (np. Nęcka, 1994a; Nęcka, Machera, Miklas, I 1992). Interesującą modyfikację tej procedury zaproponowała Dorota Bienicewicz>Krasek (2003). Punktem wyjścia była dla autorki chęć rezygnacji z bodźców l słownych, które niewątpliwie prowokują pojawienie się operacji poznawczych typowych dla materiału werbalnego. Mimo że pojęcie poziomów przetwarzania odnosi się do poznania w ogóle, w badaniach eksperymentalnych wykorzystywano tylko te zabiegi, które nadawały się do słów. Na przykład na poziomie płytkim pytano, czy słowo jest napisane wielkimi literami, a na poziomie głębokim, czy pasuje logicznie do zdania. W proponowanej modyfikacji pokazywano osobom badanym obrazki. Chcąc sprowokować płytki poziom przetwarzania, pytano o to, jakiego koloru (z czterech do wyboru) jest na obrazku najwięcej. Natomiast głębszy poziom przetwarzania wzbudzano pytaniem, czy dwa przedmioty pokazane na osobnych obrazkach należą do tej samej kategorii, albo czy mogłyby się pojawić w tym samym kontekście („Gdyby przedmiot w kółku pojawił się na obrazku obok, ; czy miałoby to sens?”). W ten sposób przełamano tradycję, zgodnie z którą głęboki poziom przetwarzania określano jako poziom semantyczny. Wyniki badań i Bienicewicz-Krasek pokazały, że tak spreparowany materiał daje analogiczne zależności, jak materiał werbalny, bowiem procent poprawnie rozpoznanych bodź­ ców w teście pamięci był znacząco wyższy wtedy, gdy bodźce te opracowywano na poziomie głębokim. Rogers, Kupler i Kirke (1977) zastosowali podobną procedurę jak Craik i Tulving, ale wprowadzili dodatkowo jeszcze jeden typ pytania, odnoszący się do Ja osoby badanej. Badani mieli mianowicie odpowiedzieć na pytanie, czy prezentowane im słowo opisuje ich samych. Wyniki testu swobodnego odtwarzania słów stosowanych jako materiał do tego pytania były znacząco wyższe, niż rezultaty odnoszące się do semantycznego poziomu przetwarzania, uważanego zwykle za najgłębszy. Co istotne, wyniki te dotyczyły zarówno słów, które badani oceniali jako bardziej trafnie opisujące ich osobę, jak też słów mniej trafnych, przy czym te pierwsze pamiętane były zdecydowanie najlepiej. Autorzy nazwali swój rezultat efektem autoreferencji. Wydaje się, że odpowiedź na pytanie tego typu wymaga bardzo głębokiej analizy słowa w odniesieniu do kluczowej dla jednostki wiedzy na temat Ja. Bellezza (1984) dowodzi, że wiedza tego typu jest rozbudowana i łatwo dostępna, dlatego efekt autoreferencji jest wyjątkowo silny. Nie ma jednak powodu, aby uznawać go za jakościowo różny od innych mechanizmów głębokiego poziomu przetwarzania. Z kolei badania Hyde’a i Jenkinsa (1969), w których użyto uproszczonej wersji paradygmatu stosowanego przez Craika i Tulvinga, wykazały, że nawet jeśli osoby badane zostaną poinformowane o teście sprawdzającym poziom za­ pamiętania słów, nie ma to większego znaczenia dla uzyskanych rezultatów. Badacze zastosowali plan międzygrupowy, w którym manipulowali głębokością przetworzenia i informacją o teście sprawdzającym poziom zapamiętania słów. 8.1. Natura pamięci 337 Płytki poziom przetworzenia związany był z zadaniem polegającym na policzeniu liter w każdym z prezentowanych słów, a głęboki - z oceną, w jakim stopniu przyjemne jest dane słowo. W grupach, w których test swobodnego odtwarzania słów użytych w eksperymencie byt niespodzianką, uzyskano 68% poprawnych odtworzeń w grupie głębokiego poziomu przetwarzania i 39% w grupie poziomu płytkiego. Jeśli osoby badane poinformowano o czekającym je teście odtwarzania, uzyskano odpowiednio 69% poprawnych odtworzeń w gru­ pie głębokiego i 43% - w grupie płytkiego poziomu przetwarzania. Byt to spek­ takularny dowód na bardzo silny wpływ głębokości przetwarzania na poziom odtworzenia i bardzo słaby wpływ informacji uprzedzającej o tym, że słowa należy zapamiętać. W teorii poziomów przetwarzania przyjęto szereg innych, kontrowersyjnych niekiedy założeń, z których istotne wydaje się twierdzenie dotyczące „obiegu” informacji w obrębie poziomów przetwarzania i pomiędzy nimi. U Craika i Lockharta są to dwa mechanizmy: powtarzania podtrzymującego (maintenance rehearsal) i powtarzana pogłębiającego (elaborative rehearsal). Mechanizm po­ wtarzania podtrzymującego polega na powtarzaniu operacji, które zostały uprzednio wykonane na danym materiale. Mechanizm ten nie prowadzi do pogłębienia przetwarzania. Jego funkcją jest aktywne podtrzymywanie informacji na danym poziomie. Z kolei mechanizm powtarzania pogłębiającego polega na zastosowaniu nowych - najczęściej semantycznych - operacji w stosunku do materiału pamięciowego, prowadzących do jego głębszego przetworzenia. Nie stworzono wyczerpującego katalogu operacji, które prowadzą do pogłębienia przetwarzania. Według Morrisa, Brandsforda i Franksa (1977), można podzielić je na dwie grupy: dotyczące elaboracji materiału albo elaboracji relacji. Pierwszy rodzaj elaboracji polega na kodowaniu z uwzględnieniem poszczególnych cech bodźca, a drugi - na kodowaniu bodźca w odniesieniu do właściwości innych zapisów pamięciowych. W obu przypadkach kodowanie może obejmować różne poziomy przetwarzania, np. cechy fonemiczne i semantyczne słowa „książka” (elaboracja materiału) czy relacje fonemiczne słów „książka” oraz „wstążka”, albo relacje semantyczne z pojęciami, takimi jak: „druk”, „wiedza”, „wiersz” itd. (elaboracja relacji). Szczególnym rodzajem elaboracji relacji jest strategiczne organizowanie informacji, polegające na poszukiwaniu w nabywanym materiale określonego porządku. Klein i Kihlstorm (1986) wykryli, że jeśli informacja łatwiej poddaje się porządkowaniu, czyli ułatwia głębokie przetworzenie, to jej późniejsze odtworzenie jest bardziej efektywne. Oba mechanizmy obiegu informacji są unikalne dla koncepcji poziomów przetwarzania. Co prawda powtarzanie podtrzymujące pojawia się również w koncepcjach magazynowych, ale obie koncepcje prowadzą do różnych pre­ dykcji co do jego efektów. Powtarzanie podtrzymujące w ujęciu magazynowym prowadzi do utrwalenia śladu pamięciowego, podczas gdy w teorii poziomów przetwarzania nie ma na to wpływu. Craik i Watkins (1973) zaprojektowali badanie, którego celem była weryfikacja tych predykcji. W zadaniu prezento­ wano listę wyrazów, z poleceniem zapamiętania ostatniego słowa, rozpoczyna­ jącego się na określoną literę (słowo docelowe). Na liście znajdowało się wiele tego typu słów, co wymagało ciągłej aktualizacji pamięci: nowe słowo docelowe zastępowało poprzednie. Pomiędzy nimi na liście znajdowały się słowa roz­ poczynające się na inne litery. Ich liczba podlegała manipulacji eksperymental­ 338 Rozdział 8. Pamięć nej w zakresie 0-12. Słowa te mogły być ignorowane przez osoby badane po stwierdzeniu, że zaczynają się na niewłaściwą literę. Istotą tej manipulacji było założenie, że w trakcie prezentacji listy wyrazów ignorowanych osoby badane mają okazję do powtarzania ostatniego słowa docelowego. Ponieważ zadanie nie wymaga od osób badanych pogłębionego przetwarzania słowa, powtarzanie podtrzymujące wystarcza do jego wykonania. Przyjęto, że więcej wyrazów ignorowanych pomiędzy kolejnymi ekspozycjami słów docelowych pozwala na większą liczbę tego rodzaju powtórek. Jednak w myśl założeń teorii poziomów przetwarzania, nie powinno to mieć wpływu na poziom ich odtworzenia. Na zakończenie badania zastosowano procedurę swobodnego odtwarzania słów docelowych z całej listy, o czym nie poinformowano wcześniej osób badanych. W badaniach wykazano, że poziom odtw,orzenia nie wiąże się z liczbą przypuszczalnych powtórzeń słowa docelowego, co było zgodne z teorią poziomów przetwarzania. Coraz częściej pojawiają się badania odnoszące się do mózgowego podłoża teorii poziomów przetwarzania (zob. ramka 8.1). Stosowane w nich odmiany klasycznego paradygmatu eksperymentalnego Craika i Tulvinga (1975; zob. paradygmat 8.1) połączono z różnymi technikami neuroobrazowania, przez co uzyskano wgląd w aktywację struktur mózgowych w warunkach płytkiego i głębokiego przetwarzania. Zwolennicy teorii poziomów przetwarzania zaproponowali nie tylko nowe spojrzenie na pamięć. Poddali również reinterpretacji koronny argument na rzecz strukturalnej odrębności magazynów STM i LTM, tj. wyniki badań nad krzywymi pozycyjnymi. Dokonał tego Bernbach (1975). Jego zdaniem, począt­ kowa część listy zostaje lepiej zapamiętana dzięki pogłębionej analizie, co wy­ jaśnia efekt pierwszeństwa. Ponieważ nie udaje się to w stosunku do wszystkich elementów długiej listy, np. ze względu na zbyt szybkie tempo jej prezentacji, późniejszy materiał kodowany jest już płycej. Efekt świeżości jest również skutkiem płytkiego przetwarzania, o czym świadczy jego duża podatność na dystrakcję wywoływaną zadaniem wykonywanym zaraz po ekspozycji listy. Dzięki pewnym zabiegom, np. wymuszeniu powtarzania każdego elementu listy tyle samo razy, udaje się znieść oba te efekty. Jeśli założyć, że powtarzanie może się wiązać z określoną strategią elaboracji (Morris, Brandsford, Franks, 1977), powtarzanie jest sposobem pogłębienia przetwarzania każdego elementu listy. Teoria poziomów przetwarzania była intensywnie krytykowana, co dopro­ wadziło do gruntownej jej modyfikacji (Lockhart, Craik, 1990). Modyfikacje polegały w większości na osłabieniu pierwotnych twierdzeń teorii z 1972 r., bez przyjmowania nowych, oryginalnych rozwiązań. Osłabiono główne twierdzenie o związku głębokości przetwarzania z trwałością śladów pamięciowych. Autorzy uwzględnili dane wskazujące na wyższą - niż przewidywana przez ich koncepcję - trwałość śladów pamięciowych informacji przetworzonej na płytkim poziomie sensorycznym. Później wykazano, że uzasadnione wydaje się jeszcze większe ograniczenie zakresu tego twierdzenia. Challis i Brodbeck (1992) wykazali, że efekt głębokości przetwarzania nie stosuje się do testów pamięci ukrytej, a jedynie do tradycyjnych miar pamięci jawnej, czyli rozpoznawania i przypominania. Wydaje się więc, że założenie o żwiązku głębokości przetwarzania z poziomem odpamiętania należałoby rozumieć jako efekt statystyczny (nie mający mocy wyjaśniającej, lecz wyłącznie opisową) i ograniczyć do pamięci jawnej. 8.1. Natura pamięci 339 Ramka 8.1 Neuroobrazowanie poziomów przetwarzania Kapur, Craik, Tulving i współpracownicy (1994) poddali weryfikacji twierdzenie 0 głębokości przetwarzania z użyciem tomografii pozytonowej (PET). Podobnie jak w klasycznych badaniach, osobom badanym prezentowano najpierw listę słów (rzeczowników), manipulując poziomem ich przetworzenia. W warunku płytkiego przetworzenia zadanie polegało na detekcji litery „a” w prezentowanym słowie, a w warunku przetwarzania głębokiego - na kategoryzacji rzeczowników, jako odnoszących się do obiektów ożywionych bądź nieożywionych. W badaniach zreplikowano efekt wpływu głębokości przetwarzania na poziom odtworzenia w teście rozpoznania. Za pomocą techniki PET zidentyfikowano różne obszary, aktywowane w trakcie fazy prezentacji słów w warunkach płytkiego i głębokiego przetwarzania. Różnica dotyczyła aktywności lewej dolnej kory przedczołowej półkuli (left inferior prefrontal cortex), angażowanej w warunku przetwarzania głębokiego. Otten i Rugg (2001) używając techniki funkcjonalnego rezonansu magnetycz­ nego (fMRI) przeprowadzili eksperyment, w którym osoby badane miały zdecydo­ wać, czy prezentowane im słowo oznacza obiekt ożywiony, czy nie (poziom głębszy, ze względu na konieczność analizy znaczenia), albo czy słowo posiada parzystą czy nieparzystą liczbę liter (poziom płytki). Podobnie jak u Kapura i współpracowników, jedynie warunek głębokiego przetwarzania angażował korę przedczołową lewej półkuli oraz jej obszar przyśrodkowy (left and medial prefrontal cortex). Z kolei w warunku płytkiego przetwarzania angażowane były obustronnie obszary bruzdy śródciemieniowej (bilateral intraparietal sulcus) i zakrętu wrzecionowatego (bilateral fusiform gyrus) oraz obszar przedczołowy prawej półkuli (right prefrontal cortex) 1górny zakręt potyliczny lewej półkuli (left superior occipital gyrus). Obszary przedczołowe lewej półkuli, których wzmożona aktywność ujawniła się w warunkach przetwarzania głębokiego w obydwu badaniach, związana jest z przetwarzaniem znaczenia stymulacji oraz zaangażowaniem reprezentacji wer­ balnych. Z kolei obszary mózgu aktywne w warunku płytkiego przetwarzania wiążą się z wyższorzędowymi operacjami percepcyjnymi. Przewaga aktywności struktur prawej półkuli wskazuje na angażowanie operacji wzrokowo-przestrzennych. Wyniki te zdają się potwierdzać trafność manipulacji stosowanej w paradygmacie poziomów przetwarzania. j { ; i Osłabieniu uległo również założenie mówiące o ustalonej sekwencji obiegu informacji z poziomów płytszych do głębokich. Craik i Lockhart zakładali po­ czątkowo, że obróbka stymulacji na głębszych poziomach nie może odbyć się bez uprzedniego przetworzenia na poziomach płytszych. W wielu obszarach psychologii poznawczej można odnaleźć dane wskazujące na współistnienie jednocześnie oddolnych i odgórnych procesów przetwarzania informacji. Pierw­ sze dokonuje się od płytkich do głębokich poziomów przetwarzania, a drugie odwrotnie. Dlatego Lockhart i Craik (1990) stwierdzili, że przetwarzanie in­ formacji jest swego rodzaju kompromisem między procesami oddolnymi i odgór­ nymi, które na dodatek mogą zachodzić częściowo lub w pełni równolegle na różnych poziomach przetwarzania. 340 Rozdział 8. Pamięć Koncepcja Craika i Lockharta była niewątpliwie przełomowa w spojrzeniu na funkcjonowanie pamięci. Z powodzeniem była w stanie odmiennie wyjaśnić wiele danych eksperymentalnych, uzyskanych i interpretowanych w ujęciu ma­ gazynowym. Po jej opublikowaniu zgromadzono wiele danych przemawiających na rzecz jej trafności. Nie powinno nas jednak dziwić, że nawet po modyfikacjach teoria ta nadal posiada ograniczoną moc wyjaśniającą. Złożoność ludzkiego umysłu wymaga teorii eleganckich i prostych, ale przede wszystkim trafnych, tj. ujmujących całą złożoność wielu systemów i mechanizmów pamięciowych. Być może dlatego obecnie mniejszy nacisk kładzie się na uniwersalność teorii, tj. szeroki zakres jej zastosowania do różnorodnych zjawisk pamięciowych. Bieżące badania koncentrują się raczej na wąskiej klasie tych zjawisk, przy maksymal­ nym pogłębieniu analizy ich mechanizmów. W ocenie teorii poziomów przetwarzania uwzględnić należy możliwość ścisłego powiązania między różnymi procesami poznawczymi człowieka, zwykle traktowanymi odrębnie od pamięci. Chodzi głównie o procesy percepcyjne, które - według Craika i Lockharta - są podłożem zjawisk pamięciowych. Istotne wydają się również szerokie możliwości połączenia teorii poziomów przetwa­ rzania z pamięcią semantyczną, czego nie dawały modele magazynowe. Nawet jeśli uznać zasadność krytyki teorii poziomów przetwarzania, Craik i Lockhart wyznaczyli nią nowe sposoby opisu i badania pamięci. 8.2. Systemy pamięci przemijającej Nawiązując do kryterium czasu przechowywania informacji, systemy pamięci podzielono na dwie kategorie. W pierwszej mieszczą się systemy pamięci prze­ mijającej, obejmujące rejestry sensoryczne i pamięć krótkotrwałą (roboczą). Informacje przechowywane w tych systemach, z racji ich funkcji i mechaniz­ mów działania, są nietrwałe. Co więcej, ich przemijający charakter jest w tym przypadku zaletą, bowiem zapisy pamięciowe mogą zostać łatwo usunięte, ustępując miejsca nowo napływającej informacji. Dynamika, zarówno elemen­ tarnych, jak i złożonych procesów poznawczych, wymaga ciągłej aktualizacji przetwarzanych danych, czemu sprzyja łatwość „pozbywania” się niepotrzeb­ nych już informacji. Co istotne, procesy elementarne, np. percepcji, korzystają przede wszystkim z rejestrów sensorycznych, podczas gdy procesy złożone, np. rozumowanie - raczej z pamięci krótkotrwałej (roboczej). W drugiej kategorii mieszczą się systemy pamięci trwałej, do których wrócimy w rozdz. 8.3. 8 .2 .1 . Pamięć sensoryczna Teoretycznie przyjmuje się, że każdy z narządów zmysłu został wyposażony w odpowiadający mu rejestr sensoryczny. Ze względów technicznych badaniom empirycznym poddawano głównie dwa rejestry: pamięć ikoniczną (iconic memory), związaną ze zmysłem wzroku i pamięć echoiczną (echoic memory), związaną z słuchem (Neisser, 1967). 8.2. Systemy pamięci przemijającej 341 Paradygmat 8.2 Procedura odtwarzania częściowego według Sperlinga Sperling (1960) eksponował osobom badanym matrycę złożoną z liter, których liczba przekraczała pojemność pamięci krótkotrwałej. W warunkach standardowej prezentacji tachistoskopowej osoby badane były w stanie odtworzyć poprawnie 4-5 liter, niezależnie od wielkości owej matrycy. Ponieważ odtwarzanie w takim zadaniu angażuje pamięć krótkotrwałą, był to kolejny dowód na jej znaczne ogra­ niczenie, przy czym mogło ono dotyczyć albo pojemności STM, albo czasu zani­ kania zawartej w niej informacji. Sperlinga nie interesowała jednak pojemność STM, lecz pamięci ikonicznej. Zaproponował więc modyfikację opisanego zadania, w któ­ rej osoba nie odtwarzała całości zaprezentowanego materiału, lecz losowo wska­ zaną jego część. W krótkim interwale czasu prezentowano jej matrycę liter, która podobnie jak w oryginalnym zadaniu - ze względu na swoją wielkość przekraczała pojemność STM (zob. ryc. 8.4). Prezentacja standardowo trwała 50 ms, po czym następowała przerwa, w której wyświetlano pustą planszę (białą albo czarną). Długość tej przerwy podlegała manipulacji eksperymentalnej. Następnie pojawiała się wskazówka akustyczna (ton o określonej, łatwej do różnicowania wysokości), albo wizualna (strzałka), która informowała osobę badaną o tym, który z rzędów niewidocznej już matrycy należy odtworzyć. Ponieważ wskazówki pojawiały się w porządku losowym, osoba badana nigdy nie wiedziała, który z rzędów będzie musiała odtworzyć. Zakładano, że jeśli istnieje magazyn pamięci ikonicznej, osoba badana powinna mieć ultrakrótkotrwały dostęp do całej informacji zawartej w matrycy, również po jej zniknięciu z ekranu tachistoskopu. Jeśli więc w tym czasie wskazana zostanie pewna niewielka część materiału (nie przekraczająca pojem­ ności STM) będzie możliwe jej odtworzenie, bez względu na to, gdzie będzie umiejscowiona. Badania Sperlinga wykazały, że jeśli przerwa pomiędzy ekspozycją matrycy liter a wskazówką była dłuższa niż 500 ms, poprawność odtwarzania była podobna jak w oryginalnym zadaniu. Jeśli jednak czas tej przerwy mieścił się w przedziale 100-500 ms, badani byli w stanie odtworzyć dowolny ze wskazanych im rzędów z niemal stuprocentową poprawnością. Oznacza to, że do momentu uzyskania wskazówki przechowywali obraz całej matrycy, ale tylko jeśli przerwa była bardzo krótka. Nie było istotnych różnic w uzyskanych wynikach, gdy zwiększono wielkość matrycy do 12 liter (3 rzędy po 4 bodźce). plansza z bodźcami pusta plansza ton wysoki - górny wiersz ton średni - środkowy wiersz ton niski - dolny wiersz b t k m d j h w d 50-100 ms bodziec wskaźnikowy 100-500 ms Ryc. 8.4. Procedura zastosowana w zdaniu Sperlinga (1960). ? i 5 j ! 342 Rozdział 8. Pamięć Odkrycia pamięci ikonicznej dokonał Sperling (1960), stosując tzw. pro­ cedurę odtwarzania częściowego (partial-report procedure; zob. paradygmat 8.2). Okazało się, że w pamięci ikonicznej mieści się znacznie więcej informacji niż w pamięci krótkotrwałej, lecz czas przechowywana jest bardzo ograniczony. Badania Sperlinga dowodziły, że przechowaniu podlegają fizyczne właściwości bodźców wzrokowych. Dzięki różnym odmianom procedury odtwarzania częściowego okazało się, że osoby badane mają dostęp nie tylko do lokalizacji bodźców. Zapis w pamięci ikonicznej pozwalał na odtworzenie materiału ze względu na wielkość liter (wielkich lub małych), a nawet ich kolor. Wydaje się zatem, że pamięć ikoniczna wiernie koduje wszelkie właściwości fizyczne stymulacji, dzięki czemu dalsza obróbka danych może odbywać się ze względu na dowolne kryteria. Procedura odtwarzania częściowego doczekała się wielu modyfikacji. Jedną z nich poświęcono oszacowaniu pojemności pamięci ikonicznej. Averbach i Coriell (1961) eksponowali osobom badanym losowy ciąg 16 liter umieszczo­ nych w dwóch rzędach. Przed albo po ekspozycji liter prezentowano planszę zawierającą znak, wskazujący osobie badanej literę, którą powinna była odtwo­ rzyć. Zatem z jednej strony zwiększono liczbę prezentowanych liter, a zmniej­ szono do jednej liczbę liter wymagających odtworzenia. Okazało się, że badani byli w stanie poprawnie odtworzyć ok. 75% bodźców, czyli średnio 12 z 16 liter. W innym eksperymencie Averbach i Coriell (1961) odkryli dużą podatność pamięci ikonicznej na interferencję wywołaną nowo napływającą informacją. Kiedy w miejscu prezentacji bodźca w odstępie minimum 100 ms pojawia się kolejny bodziec, ten pierwszy ulega całkowitemu zatarciu. Zjawisko to nosi nazwę maskowania wstecznego (backward masking). Jeśli jednak odstęp mię­ dzy bodźcami jest krótszy niż 100 ms, dochodzi do nakładania się ich na sie­ bie. Erikson i Collins (1967) badali to zjawisko, prezentując osobom badanym w krótkich odstępach czasu dwa układy kropek, które po nałożeniu na siebie tworzyły litery V, C albo H. Jeżeli dwa układy kropek pokazywano w odstępie mniejszym niż 100 ms, osoby badane rozpoznawały litery, nie zdając sobie sprawy z tego, że zostały one utworzone z dwóch odrębnych obrazów. Jeśli jednak odstęp ten był dłuższy niż 100 ms, następowało zjawisko maskowania wstecznego, powodujące niemożność rozpoznania liter. Badania nad pamięcią echoiczną prowadzono w paradygmacie słuchania dychotycznego. Treisman (1964a) prezentowała osobom badanym w różnych kanałach dwie informacje, które mogły być identyczne albo różne. Jak zwykle jeden z kanałów zdefiniowany był jako ważny, a drugi - jako ignorowany. Jeśli odstęp czasowy między informacją w kanale ignorowanym i ważnym był nie dłuższy niż 2 s, osoby badane były w stanie ocenić podobieństwo obu przeka­ zów. Oznacza to, że informacja, którą należało ignorować pozostawała dostępna przetwarzaniu jeszcze przez 2 s, co można uznać za wskaźnik czasu utrzymy­ wania informacji w pamięci echoicznej. Z kolei Darvin, Turvey i Crowder (1972) zastosowali procedurę będącą połączeniem zmodyfikowanych paradyg­ matów Sperlinga i Treisman. Osobom badanym w słuchawkach stereofonicz­ nych prezentowano po 3 bodźce akustyczne w trzech różnych lokalizacjach przestrzennych: z lewej strony (kanał lewy), z prawej strony (kanał prawy) i z góry (stereofonicznie). Natomiast wizualnie pojawiała się wskazówka okreś­ lająca lokalizację, z której należało odtworzyć zaprezentowany materiał. Oka­ 8.2. Systemy pamięci przemijającej 343 zało się, że czas przechowywania informacji sensorycznej w pamięci echoicznej wynosił do 4 s. W innych badaniach wykazano, że czas przechowywania in­ formacji w rejestrach sensorycznych można w sprzyjających warunkach znacz­ nie przedłużyć. Jeśli zminimalizuje się poziom dystrakcji, to informacja w pa­ mięci ikonicznej utrzymuje się do 2 s, a w pamięci echoicznej - nawet do 10 s (Cowan, 1984). Ultrakrótkiemu przechowaniu informacji w rejestrach sensorycznych pod­ legają, jak się wydaje, fizyczne właściwości stymulacji. Dzięki nim możliwa jest poznawcza obróbka bodźca, nawet jeśli nie jest on już dostępny percepcyjnie. W przypadku pamięci ikonicznej ten krótki czas daje możliwość przeprowa­ dzenia analizy cech stymulacji, ich późniejszą integrację i w końcu rozpoznanie bodźca. Pamięć echoiczna wydaje się mieć kluczowe znaczenie dla rozpozna­ wania mowy, bowiem przechowane w niej fonemy mogą się z sobą łączyć, dając możliwość analizy znaczenia, jeśli utworzą znane nam słowo. 8.2.2. Pamięć krótkotrwała W ujęciu magazynowym podstawowe właściwości charakteryzujące odrębne systemy pamięciowe to pojemność i czas przechowywania kodowanych w nich informacji. Jedne z pierwszych badań, kluczowych dla precyzyjnego oszacowa­ nia tych właściwości, wykonano w latach 50. XX w. Pierwsze dane wskazywały, że czas przechowywania nawet niewielkich porcji informacji w STM wynosi od kilku do kilkunastu sekund, w zależności od przyjętego kryterium poziomu odpamiętania (zob. paradygmat 8.3). Badania Petersonów (Peterson, Peterson, 1959) wykazały, że w poprawne odtwarzanie materiału z pamięci krótkotrwałej spada poniżej 50% po ok. 7 s. O tak słabych rezultatach decyduje szczególny rodzaj materiału i procedury tych badań. Możliwość zastosowania różnych mnemotechnik, a przede wszystkim swobodnego wykorzystania mechanizmu bezgłośnego powtarzania, pozwala na znaczące przedłużenie czasu przechowy­ wania informacji w STM. Paradygmat 8.3 1 Procedura badania pamięci krótkotrwałej Browna-Petersonów SW procedurze eksperymentalnej Browna (1958) I Petersonów (Peterson, Peterson, | 1959) eksponowano zestawy trzech bezsensownych spółgłosek, np. XLR, oraz trzycyfrową liczbę, np. 123. Zadanie osoby badanej polegało na zapamiętaniu zestawu liter, a następnie głośnym odliczaniu trójkami wstecz, poczynając od za­ prezentowanej liczby (120, 117, 114 itd.). Po upływie pewnego czasu należało przerwać odliczanie i odpamiętać zestaw spółgłosek. Manipulacji eksperymentalnej podlegał interwał czasu pomiędzy ekspozycją zestawu spółgłosek (i liczby), a poleceniem jego odtworzenia. Wynosił on 3, 6, 9, 12, 15 albo 18 s. Celowo zastosowano bezsensowne zestawy spółgłosek, nie mające swojego odpowiednika w języku, aby wyłączyć tzw. strategię grupowania (chunking strategy), polegającą na łączeniu materiału w większe całości (zob. opis w tekście). Dlatego wyeliminowano zestawienia w rodzaju MSW albo CCC, które łatwo poddają się grupo- * :] ■' i f f ® 344 Rozdział 8. Pamięć I waniu. Z kolei odliczanie trójkami wstecz miało na celu zminimalizowanie udziału J mechanizmu bezgłośnego powtarzania. Uzyskane rezultaty dotyczące poprawności odtworzenia zestawów spółgłosek I zilustrowano na ryc. 8.5. Okazało się, że poziom odpamiętania sylab bardzo szybko | spada w funkcji czasu, i nawet w wypadku najkrótszego interwału nie osiągnął 100%. czas przechowywania Ryc. 8.5. Wyniki uzyskane W eksperymencie Peterson i Petersona (1959). Podobne rezultaty uzyskał Murdock (1961), stosując procedurę Petersonów, ale po zastąpieniu zestawów spółgłosek słowami. Okazało się, że poziom odtworzenia zestawu 3 słów spadał równie szybko, jak w przypadku bezsensow­ nych sylab. Przy okazji jest to wynik wskazujący, że jednostki pamięciowe magazynu STM (w których wyraża się „magiczna liczba” Millera, czyli 7 ± 2 ) mogą mieć różną „pojemność” wyrażoną w bitach informacji. Jest to kolejny dowód, że przedstawione powyżej analizy Lehrla i Fischera traktować należy z dużą ostrożnością. W innym warunku eksperymentu Murdocka, kiedy to badani mieli w każdej próbie do zapamiętania tylko jedno słowo, poziom odtworzenia był wysoki (nie spadał poniżej 80%), nawet w przypadku najdłuższego interwału 18 s. Procedura Petersonów, w założeniu mająca na celu eliminację mechaniz­ mów decydujących o różnicach indywidualnych w funkcjonowaniu pamięci, wprowadza jednak innego typu zakłócenie. Oba zadania wykonywane przez osobę badaną - przechowywanie spółgłosek i odliczanie trójkami wstecz angażują ten sam rodzaj reprezentacji werbalnych. Baddeley (1986) wykazał, że w takim przypadku dochodzi do interferencji, która byłaby znacznie słabsza, gdyby jedno z zadań angażowało inny typ reprezentacji. Zapominanie w pamięci krótkotrwałej może więc mieć różnorodne podłoże. Po pierwsze, informacja zanika z upływem czasu. Zanik ten następuje 8.2. Systemy pamięci przemijającej 345 samoistnie i wydaje się być funkcją spadku aktywacji krótkotrwale wzbudzo­ nej informacji. Po drugie, w STM dość łatwo dochodzi do interferencji między zawartymi w niej informacjami, tym silniejszej, im bardziej są one do siebie podobne. I po trzecie, ponieważ funkcje kontrolne pamięci krótkotrwałej wią­ zane są z uwagą, dochodzić może do tzw. przekierowania uwagi (diversion of attention), tj. zaniechania powtarzania jakiegoś materiału na rzecz innego zadania angażującego STM (Reitman, 1974). Sposobem na „powiększenie” pojemności pamięci jest grupowanie {chunk­ ing). Oczywiście nie chodzi o powiększenie wielkości magazynu STM (jeśli w ogóle mamy do czynienia z magazynem), lecz o zmianę organizacji zapamię­ tywanego materiału w taki sposób, aby lepiej „upakować” go w pamięci. Polega to na próbie połączenia materiału, którego każda część stanowi pojedynczą „bryłę” {chunk). Przykładowo: ciąg cyfr 123987 łatwo pogrupować, łącząc ra­ zem 123 i 987. Jeszcze łatwiej pogrupować nawet dłuższe ciągi, np. 123456789 albo 101010101010101010. Strategia grupowania polega niekiedy na nadaniu „bryłom” odrębnego znaczenia. Wówczas jednostką pamięci jest „idea” odno­ sząca się do zgrupowanego materiału. Jednak, jak zauważyli Bower i Springston (1970), tego rodzaju grupowanie jest ściśle związane z posiadaną wiedzą. Przykładowo, sekwencja liter: U JU WU GSW PS zapewne byłaby trudna nawet do chwilowego przechowania. Jednak jeśli pogrupujemy litery inaczej: UJ UW UG SWPS, utworzą one znane wielu osobom skróty. Dzięki strategii grupowania nie można jednak w nieskończoność zwiększać pojemności pamięci krótkotrwałej. Simon (1974) wykazał, że w STM można zapamiętać mniej dużych „brył” (np. fraz złożonych z ośmiu słów), a więcej ma­ łych (np. jednosylabowych słów). Wynika to z akustycznego mechanizmu bez­ głośnej artykulacji jako sposobu podtrzymania zawartości STM. Jeśli jednostka pamięci składa się z większej liczby sylab, to jej powtarzanie zajmować będzie więcej czasu, co decyduje o zmniejszonej efektywności tego mechanizmu. Podob­ ne rezultaty uzyskali Ellis i Hennly (1980), stosując zadanie wymagające doko­ nywania obliczeń w pamięci przez dzieci posługujące się językiem angielskim albo walijskim. Podstawową różnicą dotyczącą liczebników w tych dwóch językach jest ich długość: liczebniki angielskie są krótsze niż walijskie. Okazało się, że dzieci z pierwszej grupy wykonywały zadania arytmetyczne istotnie lepiej niż dzieci z grupy drugiej i nie wynikało to z niższego poziomu ich zdolności intelektualnych. Przyjmuje się, że obliczenia w pamięci nie sprowadzają się wyłącznie do prze­ twarzania informacji, lecz wymagają również przechowywania liczb, na których dokonuje się obliczeń, a także wyników cząstkowych (por. Hitch, 1978). Jeśli mechanizm tego przechowywania polega na bezgłośnej artykulacji, to w ogra­ niczonej pojemnością pamięci krótkotrwałej „zmieści” się ich tym mniej, im więcej sylab mają powtarzane słowa. Dzieci walijskie potrafią zmieścić w pamięci mniej liczebników, stąd efektywność obliczeń dokonywanych w pamięci okazała się w ich grupie niższa, niż w grupie dzieci angielskich. Powyższe wyniki można interpretować również w odniesieniu do specyfiki kodowania informacji w STM. Nie wydaje się, aby był to abstrakcyjny kod semantyczny, gdyż znaczenie liczebników jest identyczne w języku angielskim i walijskim. Informacja w pamięci krótkotrwałej kodowana jest fonologicznie (albo akustycznie, np. w przypadku melodii), a w każdym razie na tym kodzie pracuje mechanizm wewnętrznych powtórek. Dowodów na fonologiczny cha­ 346 Rozdział 8. Pamięć rakter wewnętrznych powtórek dostarczył również Conrad (1963, 1971; Con­ rad, Hull, 1964). Badacz ten stwierdził większą liczbę pomyłek w odpamiętaniu liter o podobnym brzmieniu, np. „B” i „P”, niż liter, których brzmienie znacząco się różni, np. „B” i „Z”. Efekt ten wystąpił w warunkach zarówno słuchowej, jak i wzrokowej prezentacji bodźców. Baddeley (1966) potwierdził ten efekt rów­ nież w odniesieniu do słów. Słowa o podobnym brzmieniu (np. man, mad, map) okazały się trudniejsze do wydobycia - szczególnie jeśli wymagano odpowied­ niej kolejności przywołania - niż słowa o wyraźnie różnym brzmieniu (np. pen, few, cow). Baddeley nazwał go efektem podobieństwa fonologicznego (phonological similarity effect). Osobnym problemem w badaniach nad pamięcią krótkotrwałą jest mecha­ nizm przeszukiwania jej zawartości. Problem ten może wydawać się ważniejszy w odniesieniu do bardzo obszernej LTM, niż bardzo ograniczonej pojemnością STM, jednak analizy te okazały się istotne dla głębszego zrozumienia właściwości pamięci krótkotrwałej. Podstawowy paradygmat badawczy stoso­ wany w analizie mechanizmu przeszukiwania STM jest bardzo podobny do stosowanego w badaniach nad uwagą (zob. paradygmat 8.4). Rezultaty badań w obu obszarach, częściowo zbieżne, interpretowane były przez niektórych ba­ daczy na korzyść tezy o wspólnej lokalizacji procesów uwagowych i pamięcio­ wych (np. Guilford, Juola, 1976). Współczesne koncepcje pamięci roboczej, będące procesualnym ujęciem tradycyjnie rozumianej pamięci krótkotrwałej, akcentują związek pamięci i uwagi, lecz te ostatnie uważają za odrębne od procesów uwagi percepcyjnej. Paradygmat 8.4 ; Przeszukiwanie pamięci krótkotrwałej Zadanie wymagające przeszukiwania (search task) stosowane jest zarówno w ba­ daniach nad uwagą, jak i nad pamięcią. Polega ono na prezentacji zbioru bodźców (search set), w którym poszukiwany jest bodziec docelowy (target, probe). Ma­ teriałem bodźcowym najczęściej stosowanym w tego typu zadaniach są litery i cyfry, ale również obrazy, słowa, czy dźwięki. Zadaniem osoby badanej jest udzielenie odpowiedzi twierdzącej, jeśli sygnał (zgodny z bodźcem docelowym) był obecny w zaprezentowanym zestawie (próby pozytywne), albo przeczącej, kiedy był w nim “ nieobecny (próby negatywne). Podstawową zmienną podlegającą manipulacji w tego rodzaju zadaniach jest rozmiar przeszukiwanego zbioru (set size). W zadaniach polegających na przeszukiwaniu pamięci (memory search task) zadaniem osób badanych jest zapamiętanie prezentowanego zestawu bodźców. Prezentacja najczęściej odbywa się sekwencyjne, ale niekiedy również symulta­ nicznie. W warunku prezentacji sekwencyjnej zestaw bodźców prezentowany jest element po elemencie. Prezentacja symultaniczna polega na jednoczesnym zapre­ zentowaniu całego zestawu, np. w postaci matrycy. Bodziec docelowy eksponof wany jest po zaprezentowaniu całego zbioru elementów. Manipulacji eksperymen\ talnej podlega w tym przypadku - poza rozmiarem zbioru elementów - również : :i'; szereg innych czynników. Najważniejsze z nich to: czas ekspozycji przypadający na pojedynczy element, proporcja reakcji pozytywnych do negatywnych oraz rodzaj prezentowanego materiału. Przykładowo, manipulacja czasem ekspozycji wpływa 8.2. System y pam ięci przem ijającej 347 na sposób kodowania bodźców: im jest on dłuższy, tym więcej właściwości można zakodować. Jeśli czas jest zbyt krótki, kodowanie materiału będzie nieefektywne, podobnie jak późniejsze rozpoznanie, czy bodziec docelowy jest zgodny z którymś elementów zapamiętanego zestawu. Jeśli czas ten jest zbyt długi, możliwe staje się zastosowanie mnemotechnik, np. grupowania. W obu przypadkach na poziom wykonania zadania wpływać będą niekontrolowane czynniki uboczne. W zadaniu polegającym na przeszukiwaniu analizie podlegają głównie wskaźni­ ki związane z czasem reakcji, tj. miary tendencji centralnej, czyli średnia i mediana RT (Van Zandt, Townsend, 1993), a także miary rozrzutu - odchylenie standardowe RT (Townsend, 2001). Zdecydowanie rzadziej analizuje się poprawność reakcji, gdyż w klasycznych badaniach liczba błędów była niska, a ich rozkład - wyraźnie skośny. Badania nad mechanizmami przeszukiwania pamięci krótkotrwałej zapo­ czątkował Saul Sternberg (1966, 1969b). W użytej przez niego wersji zadania polegającego na przeszukiwaniu STM, sekwencyjnie prezentowano losowo do­ brane cyfry, zgrupowane w zestawy o rozmiarze od 1 do 6 elementów. Czas prezentacji przypadający na każdy element wynosił 1,2 s. Po przedstawieniu całego zestawu pokazywano bodziec docelowy. Zadaniem osoby badanej było stwierdzenie, czy bodziec ten znajdował się w prezentowanym wcześniej zbiorze. Sternberga interesowała odpowiedź na dwa pytania: „Czy przeszukiwanie pamięci jest procesem sekwencyjnym, przebiegającym element po elemencie, czy też równoległym, obejmującym jednocześnie wszystkie elementy?” i „Czy przeszukiwanie w próbach pozytywnych jest kompletne (zawsze dotyczy całego zbioru), czy też jest wygaszane w momencie odnalezienia bodźca docelowego w STM?” Konkluzje z pierwszych badań Sternberga (1966, 1969) były takie, że przeszukiwanie pamięci krótkotrwałej jest procesem sekwencyjnym i wyczer­ pującym. Przeszukiwanie sekwencyjne (serial search) oznacza, że w danym momencie przetwarzany może być jeden i tylko jeden bodziec, wobec czego przeszukanie całego zbioru wymaga porównania po kolei każdego elementu zawartego w STM z bodźcem docelowym. O sekwencyjności przeszukiwania Sternberg wnioskował na podstawie liniowego przyrostu czasu reakcji w zależ­ ności od wielkości zbioru elementów (zob. ryc. 8.6). Okazało się, że czas reakcji rośnie liniowo wraz ze zwiększaniem się rozmiaru przeszukiwanego zbioru elementów, przeciętnie o 37,9 + /- 3,8 ms na każdy symbol. Jeśli przeszukiwanie byłoby równoległe (parallel search) to, zdaniem Sternberga, nie powinien ujawnić się taki wzorzec zależności. Funkcja czasu reakcji (RT) od wielkości zbioru elementów powinna być płaska, bowiem równoległy dostęp do 2, 4 czy 6 elementów byłby zawsze tak samo szybki. Z kolei przeszukiwanie wyczerpujące (exhaustive search) oznacza, że do­ tyczy ono wszystkich zapamiętanych elementów, zarówno w próbach negatyw­ nych, jak i pozytywnych. O ile w przypadku prób negatywnych jest to teore­ tycznie uzasadnione (żeby „wiedzieć”, że w zestawie nie było bodźca docelo­ wego trzeba porównać go z całą zawartością zestawu), o tyle byłoby to zaska­ kujące w próbach pozytywnych. W tym przypadku, przeszukiwanie może zostać wygaszone (self-terminated search) po stwierdzeniu zgodności bodźca docelo­ wego z którymś z elementów zestawu, czyli powinno - średnio w dużej liczbie 348 Rozdział 8. Pamięć liczba symboli, s Ryc. 8.6. Czas reakcji (T) a liczba symboli przechowywanych w pamięci (s) w pierwszym eksperymencie. Średni czas reakcji w warunku pozytywnym (czarne punkty) i negatywnym (białe punkty). Predykcje modelu przeszukiwania sekwencyjnego (linia ciągła) wykazują lepsze dopasowa­ nie do danych niż predykcje modelu przeszukiwania równoległego (linia przerywana). Za: Sternberg, 1966, s. 653. wielkość zestawu pozytywnego, s Ryc. 8.7. Czas reakcji (T) a wielkość zestawu pozytywnego (s) w drugim eksperymencie. Średni czas reakcji w warunku pozytywnym (czarne punkty) i negatywnym (białe punkty). Predykcje modelu przeszukiwania sekwencyjnego (linia ciągła) wykazują lepsze dopasowanie do danych niż predykcje modelu przeszukiwania równoległego (linia przerywana). Za: Sternberg, 1966, s. 653. prób - odpowiadać przeszukaniu połowy zestawu. Czas reakcji w próbach po­ zytywnych powinien być zatem znacząco krótszy niż w negatywnych. Sternberg nie uzyskał istotnej różnicy w RT między reakcjami pozytywnymi a negatyw­ nymi, co uznał za dowód na wyczerpujący i automatyczny charakter przeszu­ kiwania w obu warunkach (zob. ryc. 8.7). Jedną z cech procesów automatycz­ nych jest to, że po ich zainicjowaniu nie można ich modyfikować ani przerwać. Ponieważ przeszukiwanie w próbach pozytywnych teoretycznie powinno zostać wygaszone po stwierdzeniu zgodności jednego z elementów przechowywanych 8.2. Systemy pamięci przemijającej 349 w STM z bodźcem docelowym, a jednak było kontynuowane do momentu sprawdzenia całego zbioru, Sternberg uznał, że przebiega ono automatycznie. W późniejszych badaniach wykazano istotność różnicy w czasie reakcji pomiędzy próbami negatywnymi a pozytywnymi, zgodną z modelem wyczerpu­ jącego przeszukiwania w pierwszym przypadku i samowygaszającego się w dru­ gim (np, Egeth, Jonides, Wall, 1972; przegląd badań w: Van Zandt, Townsend, 1993). Podważono również założenie, że przetwarzanie równoległe zawsze generuje płaską funkcję czasu reakcji w zależności od wielkości zbioru elemen­ tów. Jeśli założyć, że proces przetwarzania informacji jest limitowany pojem­ nością systemu (capacity limited), to wzrastające obciążenie poznawcze pro­ wadzi do podziału ograniczonych zasobów na coraz większą liczbę elementów. W związku z tym większy rozmiar zbioru oznacza mniej zasobów przypadają­ cych na pojedynczy element. W przypadku STM oznacza to mniejsze „doin­ westowanie” procesu przeszukiwania, co prowadzi do wzrostu czasu reakcji, nawet gdyby było ono równoległe. Model sekwencyjnego i wyczerpującego przeszukiwania podważono jesz­ cze w inny sposób. Mianowicie nie przewiduje on tzw. efektu pozycji, czyli związku czasu reakcji z pozycją sygnału w zestawie (por. Van Zandt, Townsend, 1993). Okazało się, że wykryto istotny efekt skracania się czasu reakcji na elementy znajdujące się na ostatnich pozycjach (Townsend, 1974; Townsend, Roos 1973). Jeśli przeszukiwanie byłoby wyczerpujące, to nie miałoby znacze­ nia, na której pozycji jest bodziec docelowy, bowiem do udzielenia odpowiedzi trzeba i tak przeszukać cały zbiór, więc ogólny czas reakcji byłby sumą czasów poszczególnych porównań. Suma ta byłaby identyczna niezależnie od tego, czy sygnał znajdował się na pierwszej, ostatniej, czy którejś ze środkowych pozycji w zbiorze. 8.2.3. Pamięć robocza: w ielokom ponentowy model Baddeleya Idea pamięci roboczej (working memory, WM) pochodzi od Alana Baddeleya i Grahama Hitcha (1974). Autorzy zerwali z ujęciem pamięci krótkotrwałej jako systemu wyspecjalizowanego wyłącznie w przechowywaniu informacji. W ujęciu Baddeleya i Hitcha pamięć robocza jest systemem odpowiedzialnym zarówno za przechowywanie, jak i przetwarzanie informacji. Odgrywa ona zasadniczą rolę w złożonej aktywności poznawczej człowieka, bowiem z jej udziałem miałoby odbywać się wszelkie kontrolowane przetwarzanie informacji. Pomimo znacznej różnorodności modeli pamięci roboczej, większość z nich akcentuje funkcję kontrolną, sprawowaną przez uwagowy mechanizm planowania i nadzoru. Oberauer, Süß, Wilhelm i Wittmann (2003), dokonując przeglądu różnych teorii pamięci roboczej, wyróżnili cztery podstawowe funkcje tego systemu. Są to: przechowywanie (storage), przetwarzanie (processing), nadzorowanie (supervi­ sion) oraz koordynacja (coordination). Pierwsza z nich związana jest z klasycz­ nie ujmowaną funkcją pamięci krótkotrwałej, chociaż modele pamięci roboczej odchodzą od czysto magazynowego rozumienia jej realizacji. Pozostałe trzy funkcje WM przypisywane są uwagowemu mechanizmowi kontrolnemu. W ni­ niejszym rozdziale opisano najważniejsze koncepcje pamięci roboczej, począw­ szy od przełomowej teorii Baddeleya i Hitcha. 350 Rozdział 8. Pamięć Pamięć robocza w ujęciu Baddeleya i Hitcha (1974; zob. też Baddeley, 1986) jest wielokomponentowym systemem odpowiedzialnym za przechowy­ wanie informacji i kontrolę jej przetwarzania. Ze względu na zaakcentowanie aspektu przetworzeniowego, WM odgrywa istotną rolę w złożonej aktywności poznawczej człowieka, np. rozumowaniu czy przetwarzaniu języka. Początkowo teoria Baddeleya i Hitcha obejmowała trzy podsystemy: centralny system wy­ konawczy (central executive) i dwa podlegle mu bufory pamięciowe (slave systems) - pętlę fonologiczną (phonological loop) i szkicownik wzrokowo-przestrzenny (visuo-spatial sketch-pad). Podstawową funkcją buforów jest krótko­ trwałe przechowywanie informacji - odpowiednio - w kodzie akustycznym (ze szczególnym uwzględnieniem kodu werbalnego) i w kodzie wizualnym. W ko­ lejnej wersji teorii (Baddeley, 2000, 2001) uzupełniono ją o bufor epizodyczny (episodic buffer), którego funkcją ma być przechowywanie złożonej informacji, pochodzącej z kilku modalności. I właśnie tę wersję modelu Baddeleya zilustro­ wano na ryc. 8.8. szkicownik wzrokowo - przestrzenny pętla fonologiczną pętla artykulacyjna t i bufor epizodyczny magazyn fonologiczny Ryc. 8.8. Wielokomponentowy model pamięci roboczej wg Baddeleya (2000, s. 421). Centralny system wykonawczy ze względu na wielość przypisywanych mu funkcji jest systemem niejednorodnym. Jest czymś w rodzaju poznawczego homunculusa, co przyznaje sam twórca koncepcji WM (Baddeley, Logie, 1999). W długiej ewolucji modelu Baddeleya zmieniały się jego poglądy w tej kwestii. Z przeglądu jego prac wynika, iż można wyróżnić trzy funkcje centralnego systemu wykonawczego. Pierwszą funkcją jest bieżące przetwarzanie informacji. Z tego powodu WM odgrywa istotną rolę w wykonywaniu złożonych zadań poznawczych, np. w ro­ zumowaniu (por. rozdz. 10.7.2). Funkcja ta sprowadza się do realizacji kon- 8.2. Systemy pamięci przemijającej 351 kretnych operacji poznawczych, wchodzących w skład strategii wykonania określonego zadania. Operacje te są realizowane z udziałem podsystemów pa­ mięciowych, podlegających centralnemu systemowi wykonawczemu. W tych podsystemach przechowywane są kluczowe dane, niezbędne do realizacji prze­ twarzania, w tym wskazówki dotyczące strategii. Te ostatnie określają zestaw operacji przetwarzania informacji, aplikowanych w celu wykonania konkret­ nego zadania poznawczego. Efektywne przetwarzanie informacji wymaga koordynacji buforów pamięci roboczej, co stanowi kolejną funkcję centralnego systemu wykonawczego. Funkcja ta ujawnia się szczególnie w czasie wykonywania zadań jednoczesnych (zob. paradygmat 8.5), wymagających rozdzielania zasobów centralnego systemu wykonawczego między jednocześnie wykonywane zadania poznawcze. Baddeley zakłada, że system ten cechuje się limitowaną pojemnością, rozumianą w kategoriach ograniczonych zasobów uwagowych (Baddeley, Della Sala, 1998; Baddeley, Logie, 1999). Ograniczenie to przejawia się przede wszystkim w spad­ ku szybkości przetwarzania informacji wraz ze wzrostem wymagań, jakie na­ kłada na WM zadanie realizowane w danym momencie. Paradygmat 8.5 Paradygmat zadań jednoczesnych w badaniach nad pamięcią roboczą Paradygmat zadań jednoczesnych, stosowany również w badaniach nad uwagą podzielną, wymaga kontroli dwóch zadań (A i B), wykonywanych w tym samym czasie. W wersji zastosowanej przez Baddeleya i Hitcha (1974) zadanie A polegało na wykonywaniu złożonego zadania poznawczego, np. przeprowadzaniu wniosko­ wania logicznego, czytaniu tekstu ze zrozumieniem albo uczeniu się. Z kolei zadanie B polegało na zapamiętywaniu zestawu elementów (liczb) o zmiennej długości. W analizie wyników porównuje się poziom wykonania zadania A w warunkach, gdy towarzy mu zadanie B z warunkiem kontrolnym. W najprostszej wersji para­ dygmatu zadań jednoczesnych warunkiem kontrolnym jest test wykonania zadania A, kiedy nie towarzyszy mu żadne inne zadanie. Niekiedy manipulacji ekspery­ mentalnej podlega waga zadań jednoczesnych. Najczęściej jedno z nich należy traktować priorytetowo, a drugie jako dystraktor. Baddeley i Hitch (1974) założyli, że rosnące obciążenie pamięci roboczej przechowywaniem większych zbiorów liczb prowadzić będzie do spadku wyko­ nania złożonego zadania poznawczego. Badania potwierdziły te przypuszczenia. Wyjaśniono je, podobnie jak w badaniach nad uwagą podzielną, spadkiem ilości wolnych zasobów, w tym wypadku zasobów WM, które mogą zostać przydzielone wykonaniu zadania A. Spadek ten jest proporcjonalny do wymagań, jakie stawia zadanie pamięciowe B. Co ciekawe, nawet przy bardzo dużym obciążeniu pamięci (zbliżającym się do wartości „magicznej liczby” Millera), poziom wykonania obu zadań był wyższy od poziomu przypadku. Zadanie pamięciowe może przyjmować różnie formy, w zależności od tego, jaki mechanizm WM ma zostać zaangażowany (Baddeley, 1986). Zadanie pamię­ ciowe wykonywane na materiale werbalnym (np. odliczanie trójkami wstecz) wiąże się z udziałem pętli fonologicznej. Zadanie niewerbalne (np. śledzenie poruszają­ cego się obiektu), angażować będzie raczej szkicownik wzrokowo-przestrzeny. 352 Rozdział 8. Pamięć Specyficznym zadaniem, które powoduje obciążenie centralnego systemu wyko­ nawczego, bez udziału podsystemów pamięciowych, jest tzw. generowanie inter­ wałów losowych (Vandierendonck, De Vooght, Van der Goten, 1998). Wymaga ono od osoby badanej nierytmicznego stukania, np. w klawisz komputera. Trudność tego zadania polega na konieczności przełamania automatycznej tendencji do wystukiwania regularnego rytmu. Generowanie losowości wymaga więc stałej kon­ troli ze strony centralnego systemu wykonawczego. Trzecia funkcja centralnego systemu wykonawczego to nadzór (kontrola) nad bieżącym przetwarzaniem informacji. Baddeley (1993), analizując tę funkcję nawiązał do koncepcji uwagi wykonawczej Normana i Shallice (1986), której składową jest tzw. nadzorczy system uwagi (supervisory attentional system). Pełni on rolę kontrolną, polegającą na planowaniu i nadzorowaniu wykonania złożonych zadań poznawczych. Jego działanie ujawnia się przede wszystkim w sytuacjach nowych, szczególnie wtedy, kiedy zostaną uznane za trudne lub zagrażające. Nadzór nad bieżącym przetwarzaniem obejmuje również aktualiza­ cję zawartości buforów pamięciowych. Polega ona na selektywnym „pozbywaniu” się informacji, która z racji wykonywanego zadania nie jest już potrzebna. Jest to szczególnie ważne w kontekście znacznego ograniczenia ich pojemności. W zasadzie można byłoby wyróżnić jeszcze jedną funkcję centralnego systemu wykonawczego, chociaż nie jest ona nowa w koncepcji Baddeleya. Chodzi o jego udział w kodowaniu i przywoływaniu informacji z LTM oraz rzecz jasna - w podlegających mu podsystemach krótkotrwałego przechowywa­ nia informacji (Baddeley, Logie, 1999). Interesujące dowody, że korzystanie z zasobów pamięci długotrwałej odbywa się z udziałem centralnego systemu wykonawczego, pochodzą z badań Susan Gathercole (1999), w których okazało się, iż krótkotrwałe przechowywanie bezsensownych zlepków liter jest tym bardziej efektywne, im bardziej są one podobne do słów języka naturalnego. Wskazuje to na istotny udział wiedzy językowej pochodzącej z LTM w kodo­ waniu informacji w pamięci roboczej. Pętla fonologiczna jest jednym z trzech buforów pamięciowych podlegają­ cych centralnemu systemowi wykonawczemu. Odpowiada za krótkotrwałe przechowanie informacji fonologicznych. Baddeley (1986) wyróżnił dwa me­ chanizmy przechowywania: pasywny (retention) i aktywny (rehearsal), wyróż­ niając w pętli fonologicznej dwie odrębne, odpowiadające tym mechanizmom struktury. Pasywne przechowywanie informacji możliwe jest dzięki magazynowi fonologicznemu. Jeśli przechowywana w nim informacja nie byłaby aktywnie odświeżana, zanika w ciągu kilku sekund (średnio po upływie 2 s; Cohen, Kiss, LeVoii, 1993). Zanik śladu pamięciowego jest podstawowym, ale nie jedynym mechanizmem zapominania informacji zawartej w magazynie fonologicznym. Również interferencja, wynikająca z podobieństwa do innej informacji, utrudnia jej efektywne wydobycie. Od pierwszego sformułowania teorii pamięci roboczej Baddeley utrzymuje, że magazyn fonologiczny przechowuje informacje w kodzie fonologicznym, a nie semantycznym, nawet jeśli są to słowa obdarzone pewnym znaczeniem (Baddeley, Logie, 1999). Badania Conrada (1963, 1971; Conrad, Hull, 1964) i Baddeleya (1966) nad efektem podobieństwa fonologicznego, stanowią empi­ 8.2. Systemy pamięci przemijającej 353 ryczny dowód dominacji kodu fonologicznego w przechowaniu materiału werbalnego (zob. rozdz. 8.2.2). Baddeley (1966) stwierdził istotnie większy wpływ podobieństwa brzmienia słów na liczbę błędów w zadaniu pamięciowym niż ich podobieństwa semantycznego. Nie oznacza to, że materiał werbalny przechowywany w pamięci roboczej nie ma charakteru semantycznego, ale że mechanizm jego odświeżania, odwołuje się do bezgłośnych powtórek wyko­ rzystujących brzmienie słowa, a nie jego znaczenie. Wskazują na to np. badania McErlee (1996), który zastosował zadanie polegające na przeszukiwaniu pa­ mięci (zob. paradygmat 8.4). W jego badaniach uczestnicy mieli za zadanie oprócz tradycyjnego sprawdzania zgodności bodźca docelowego z zapamiętanym zestawem elementów - udzielić odpowiedzi na pytanie, czy bodziec docelowy rymuje się z którymś z elementów zestawu albo czy jest synonimem któregoś z nich. Okazało się, że informacja ta była dostępna zarówno z klucza fonolo­ gicznego, jak i semantycznego. Aktywnym odświeżaniem zawartości magazynu fonologicznego zajmuje się mechanizm pętli artykulacyjnej. Baddeley podtrzymuje, że podstawą jej funkcjonowania jest bezgłośne powtarzanie, podobne do artykulacji mowy (Baddeley, 1998). Ellis i Hennly (1980) uzyskali dane będące spektakularnym dowodem trafności tego mechanizmu (zob. rozdz. 8.2.2). Przypomnijmy, że słowa o dokładnie tym samym znaczeniu w różnych językach (liczebniki), wy­ korzystywane były przez pamięć roboczą tym gorzej, im były dłuższe. Również Baddeley, Thomson i Buchanan (1975) uzyskali podobne rezultaty wyjaśniając większą trudność odtwarzania dłuższych wyrazów wzrostem czasu ich powta­ rzania w pętli artykulacyjnej. Inne dowody fonologicznego charakteru działania pętli artykulacyjnej pochodzą z badań, w których wykorzystuje się procedurę tłumienia artykulacyjnego (articulatory suppresion). Polega ona na powtarzaniu narzuconego słowa w trakcie wykonywania zadania pamięciowego. W ba­ daniach Baddeleya, Thomsona i Buchanana (1975) tłumienie artykulacyjne, polegające na powtarzaniu rodzajnika the, powodowało zmniejszenie liczby zapamiętanych słów. Podobne rezultaty uzyskano w przypadku wizualnej pre­ zentacji słów, co wskazuje na istotną rolę pętli fonologicznej w rekodowaniu materiału wizualnego na kod werbalny. Szkicownik wzrokowo-przestrzenny jest swego rodzaju analogiem pętli fo­ nologicznej, z tym, że jego podstawową funkcją jest przechowywanie materiału wzrokowego i przestrzennego. Baddeley długo nie zajmował się detalicznie strukturą tego podsystemu. Dopiero Logie (1995), eksploatując analogię po­ między podsystemem fonologicznym i wzrokowo-przestrzennym, zaproponował rozróżnienie dwóch mechanizmów funkcjonowania szkicownika. Mechanizm pasywnego przechowywania informacji wzrokowej i przestrzennej realizowany byłby w strukturze podręcznego magazynu wzrokowego (visual cache). Wew­ nętrzny „skryba” (inner scribe) miałby rolę aktywną, korzystając z procesów modelowania przedruchowego (planowanie sekwencji ruchów) i tworzenia wyobrażeń. W wykonaniu tych procesów wewnętrzny system piszący korzysta z magazynu wzrokowego, czyli ich wzajemne związki są podobne do skła­ dowych pętli fonologicznej. W badaniach empirycznych uzyskano interesujące wyniki, podobne do efektu tłumienia artykulacyjnego w pętli fonologicznej. Mianowicie Logie (1986) wykazał, że wykonywanie zadania wzrokowego, przy jednoczesnej prezentacji sekwencji obrazów niezwiązanych z tym zadaniem, wpływa negatywnie na przechowywanie informacji wizualnej. W późniejszych 354 Rozdział 8. Pamięć eksperymentach przeprowadzonych ze współpracownikami (Logie, Zucco, Baddeley, 1990; Logie, Marchetti, 1991) dowiódł, że wykonywanie czynności ruchowych jednocześnie z zadaniem wzrokowo-przestrzennym upośledza przechowywanie informacji o relacjach przestrzennych. Cowan (1999) twierdzi, że kodowanie werbalne może być z powodzeniem zastosowane do materiału niewerbalnego. Jest to oczywiste, kiedy zapamiętu­ jemy dobrze znane obrazki, np. dom, drzewo. Co więcej, każdy materiał niewer­ balny możemy w pewien sposób nazwać. Znacznie trudniejsza do werbalizacji jest lokalizacja przestrzenna bodźców, jeśli nie jest trywialna (np. prawo, lewo, góra, dół). Ideę badania pamięci przestrzennej wykorzystano w klasycznym zadaniu „klocki Corsiego” (Corsi blocks, Milner, 1971). W pierwotnej wersji zadania Corsiego, osoba badana ma przed sobą specjalną planszę z 9 roz­ lokowanymi na niej otworami. W tych otworach sekwencyjnie (w tempie co 1 s) pojawiają się sześcienne klocki. Zadanie polega na zapamiętaniu pozycji prezentowanych klocków i sekwencji ich wyświetlania. Liczba prezentowanych klocków jest zwiększana do momentu, w którym osoba badana zaczyna po­ pełniać błędy. Vandierendonck, Kemps, Fastame i Szmalec (2004) użyli zadania Corsiego jednocześnie z innym zadaniem angażującym jeden z podsystemów WM: pętlę fonologiczną, szkicownik wzrokowo-przestrzenny albo centralny system wykonawczy. Badacze założyli, że pogorszenie poziomu wykonania za­ dania Corsiego w warunku zadań jednoczesnych będzie świadczyć o zaangażo­ waniu określonego systemu WM w jego wykonanie. Okazało się, że klasyczna wersja zadania Corsiego wiąże się z obciążeniem szkicownika wzrokowo-przestrzennego i centralnego systemu wykonawczego. Nie jest natomiast związana z obciążeniem pętli fonologicznej. W opisywanej już wersji modelu Baddeleya (2000, 2001) postuluje się istnienie bufora epizodycznego. Główną jego funkcją byłoby czasowe przecho­ wywanie zintegrowanych epizodów (integrated episodes), tj. informacji repre­ zentowanej jednocześnie za pomocą różnych kodów, np. werbalnego i wizual­ nego. Podobnie jak inne podsystemy magazynowe, bufor epizodyczny jest ogra­ niczony pojemnościowo i podlega kontroli ze strony centralnego systemu wy­ konawczego, który odpowiada również za integrowanie informacji z różnych źródeł w spójne epizody (Baddeley, 2000). Za istnieniem bufora epizodyczne­ go, zdaniem autora, przemawia szereg badań eksperymentalnych dotyczących kodowania i przechowywania złożonej informacji (np. Luck, Vogel, 1997) oraz badania neurobiologiczne (Prabhakaran i in., 2000). Podobnie jak pozostałe podsystemy, bufor epizodyczny uczestniczy w nabywaniu i wydobywaniu in­ formacji z pamięci długotrwałej. W tym przypadku jest to pamięć epizodyczna (zob. rozdz. 8.3.3). Skądinąd wiadomo, że wiedza epizodyczna kodowana jest w sposób kompleksowy. Epizody kodowane są wraz z ich możliwie najpeł­ niejszym kontekstem, stąd nie da się tego procesu sprowadzić do pojedyncze­ go kodu. Kolacja przy świecach jest złożonym epizodem, w którym istotną rolę odgrywają składające się nań zdarzenia, np. elementy rozmowy, zapachy, smaki, emocje. Wszystko ma swoją wewnętrzną logikę następstw czasowych i związków przyczynowo-skutkowych. Wprowadzenie bufora epizodycznego do modelu pamięci roboczej nie stanowi może wyjaśnienia eleganckiego, ale jest interesującą propozycją połączenia funkcji pamięci roboczej z wiedzą epizodyczną. 8.2. Systemy pamięci przemijającej 355 8.2.4. Pamięć robocza: model aktywacyjny Cowana Alternatywą dla wielomodalnościowego modelu Baddeleya są koncepcje jednorodne, które wyjaśniają funkcjonowanie pamięci roboczej bez odwoływa­ nia się do odrębnych podsystemów krótkotrwałego przechowywania informacji. W ich ramach postuluje się również brak ostrego rozgraniczenia między pamięcią trwałą a roboczą. Oba założenia opierają się na próbach alternatyw­ nego wyjaśnienia danych eksperymentalnych, o które opiera się model pamięci roboczej Baddeleya. Twierdzi się mianowicie, że pamięć robocza to uaktywnio­ na, dzięki mechanizmom uwagi, część pamięci długotrwałej. Tym co stanowi ograniczenie pamięci roboczej, ujmowane tradycyjnie w kategoriach jej pojemności, jest nie tyle statyczna właściwość magazynu (bufora), lecz dyna­ mika procesu aktywacji informacji. Mechanizm uwagowy odpowiedzialny za ten proces pozwala na jednoczesną aktywację niewielkiej liczby elementów. Dzięki aktywacji stają się one dostępne świadomemu przetwarzaniu. Kiedy uwaga jest przenoszona na nowe obiekty, powoduje ich pobudzenie, co jednak wiąże się ze zmniejszeniem albo utratą dostępu do informacji, które były aktywne jeszcze przed chwilą. Uważa się też, że dane eksperymentalne wskazujące na odrębność podsystemów można wyjaśnić odwołując się do zjawiska interferencji, wystę­ pującego w obrębie uaktywnionej informacji. Jeżeli dwa zadania angażują podobne kody reprezentacji (np. tylko fonologiczne albo tylko wzrokowe) inter­ ferencja jest silniejsza, niż wówczas, kiedy angażowane są różne kody. Dane te nie stanowią zatem dowodów na odrębność buforów pamięciowych, a jedynie sugerują, że zanik informacji w WM jest skutkiem interferencji (Glass i in., 1985). Jednym z pierwszych autorów ujmujących pamięć roboczą w kategoriach uaktywnionej części pamięci trwałej był Nelson Cowan (1993, 1995). Pamięć robocza, według Cowana, jest rozumiana procesualnie, a więc jako proces poznawczy, który odpowiada za utrzymywanie dostępności informacji w celu realizacji bieżących zadań poznawczych. Z punktu widzenia zawartości infor­ macyjnej, WM jest aktywną w danym momencie częścią informacji przechowy­ wanej w LTM. Teorie aktywacyjne nie wymagają przyjmowania założeń dotyczących liczby podsystemów pamięciowych WM. Cowan twierdzi, że nie jest wykluczone istnienie większej ich liczby, bowiem konkretny bodziec szczególnie, jeśli jest złożony - może aktywować różne rodzaje pamięci i być kodowany na wiele różnych sposobów (Cowan, 2001). Oznacza to aktywację różnych systemów pamięci trwałej, ale niekoniecznie każdemu z nich musi odpowiadać odrębny podsystem WM, przeznaczony dla specyficznych rodzajów kodów przetwarzania. W tym sensie Cowan (1999) rozumie pamięć roboczą jako system jednorodny. Aktywacja śladu pamięciowego może przyjąć jeden z trzech poziomów (zob. ryc. 8.9). Najbardziej aktywna informacja znajduje się w ognisku uwagi (focus of attention). Jego pojemność jest niewielka: Cowan szacuje ją na ok. 4 jednostki pamięci. Aktywacja informacji w ognisku oznacza jej udostępnienie świadomości. W krótkim czasie aktywacja informacji spada na tyle, że bez jej ponownego wzbudzenia nie jest już dostępna świadomości, ale może mieć wpływ na procesy bieżącego przetwarzania informacji. Ten pośredni stan aktywacji Cowan utożsamia z pamięcią krótkotrwałą. Informacja niewzbudzona, znajdująca się 356 Rozdział 8. Pamięć w LTM, potencjalnie podlega uaktywnieniu, ale dopóki tak się nie stanie, nie może być przetwarzana z udziałem centralnego systemu wykonawczego. Ponieważ poziom aktywacji śladów pamięciowych spada wraz z upływem czasu, obserwujemy stopniowe zanikanie zawartości WM. W modelu Cowana dynamika aktywacji śladów jest zdeterminowana czasem, podczas gdy ognisko uwagi ma ograniczoną pojemność. Za wolicjonalne kierowanie uwagi jest odpowiedzialny centralny system wykonawczy. Uwaga może zostać ukierunko­ wana w dwojaki sposób: na zewnątrz, tj. kiedy aktywacji podlega reprezentacja bodźca pochodząca z pola percepcyjnego, albo do wewnątrz - na dane utrwa­ lone w LTM. Piotrowski (2004) wykazał, że w obu przypadkach angażowane są zasoby uwagi pochodzące z jednej i tej samej puli. Innymi słowy, niezależnie od źródła informacji (pole percepcyjne czy pamięć długotrwała), jej aktywacja angażuje wspólny mechanizm uwagowy. Model Cowana uwzględnia trzy przypadki, w których informacja sensorycz­ na zostaje aktywowana w pamięci roboczej (zob. ryc. 8.9). Jednak zanim to się stanie, informacja jest kodowana w pamięci długotrwałej. Po pierwsze, aktywacja jest możliwa dzięki wolicjonalnemu skierowaniu uwagi na jakiś bodziec. Wówczas aktywacja osiąga zwykle taki poziom, że bodziec trafia do ogniska uwagi (bo­ dziec „a”). Jeśli bodźce są znane i nie wiążą się z zadaniem (bodziec „b” i „c”) podlegają habituacji. Mogą jednak osiągnąć poziom aktywacji istotnie różniący je od zapisów zupełnie nieaktywnych. Jeśli bodźce są nowe, nie podlegają habituacji, co wydaje się mieć walor przystosowawczy, a poziom ich aktywacji jest wystar­ czająco wysoki, aby objąć je ogniskiem uwagi, nawet bez konieczności jej wolicjonalnego przekierowania (bodziec „d”). Przykładowo, jeśli spojrzeć z tej perspek­ tywy na odruch orientacyjny, to powoduje on automatyczne przyciągnięcie uwagi i uświadomienie sobie źródła stymulacji. Cowan uwzględnił również dwie drogi sterowania zachowaniem. Pierwsza wymaga zaangażowania centralnego systemu wykonawczego i odpowiada reak­ cjom kontrolowanym. Z kolei reakcje automatyczne nie angażują centralnego systemu wykonawczego. Jednak w obu wypadkach wzbudzane reprezentacje należą - zdaniem Cowana - do obszaru pamięci krótkotrwałej zawierającego reprezentacje o średnim poziomie aktywacji. Analizując różne dane, Cowan (1995, 2001), oszacował pojemność ogniska uwagi na elementy o bardzo dużej dostępności. Korzystając z zadania polegającego na przeszukiwaniu WM, Cowan (1995) wykazał, że czas reakcji na sygnały znajdujące się na kilku ostatnich pozycjach zestawu jest wyraźnie krót­ szy niż czas reakcji na sygnały pojawiające się wcześniej. Również poprawność przeszukiwania jest wyższa, niż w wypadku elementów eksponowanych na wcześniejszych pozycjach w zestawie (zob. ryc. 8.10 i 8.11). Okazało się również, że w obrębie zestawu o rozmiarze do czterech elemen­ tów nie występuje zjawisko interferencji proaktywnej (Halford, Maybery, Bain, 1988). Wcześniej nabyte bodźce nie wpływają na możliwość przyswajania kolej­ nych. Efekt ten okazał się niezależny od podobieństwa fonologicznego bodź­ ców (Tehan, Humphreys, 1995). McErlee (1998) interpretuje te dane na korzyść tezy o wysokiej dostępności informacji znajdujących się w ognisku uwagi. Dostępność informacji w ognisku uwagi jest na tyle wysoka, że nie potrzeba żad­ nych procesów jej wydobycia. Stan ten jest jednak bardzo krótkotrwały. Wpro­ wadzenie dodatkowego zadania między ekspozycją ciągu elementów a bodźcem 8.2. Systemy pamięci przemijającej 357 0 C c o E N 0 'c. 0 O © 'N "O nO © nowy @ bodziec Ryc. 8.9. Aktywacyjny model pamięci roboczej wg Cowana (1998). Ryc. 8.10. Obserwowany i symulowany czas poprawnych reakcji (ms) w zadaniu polegającym na przeszukaniu WM. Wyniki dotyczą kolejnych pozycji i różnych liczebności zbioru bodźców do zapamiętania (4, 7 i 10). OBS obserwowane wyniki empiryczne, SYM - wyniki symulacji w modelu ACT-R. Za: Chuderski, Orzechowski, 2005. docelowym, niemal całkowicie eliminuje efekt pełnej dostępności. McErlee (1998) twierdzi jednak, że uprzywilejowanie bodźców w ognisku uwagi dotyczy tylko jednego, ostatnio eksponowanego albo najbardziej pobudzonego elementu. Zdaniem Oberauera i Kliegla (2001), na owo ograniczenie wpływają dwa czyn­ niki. Po pierwsze, reprezentacje podobnych obiektów kodowanych w pamięci roboczej, posiadających wspólne cechy, częściowo się przenikają. Po drugie, wy­ stępuje zjawisko rywalizacji między reprezentacjami tych obiektów, w momencie podejmowania decyzji o zgodności (albo jej braku) między bodźcem docelo­ wym a zawartością WM. Te dwa czynniki wiążą się z różnymi fazami procesu pamięciowego: pierwsze z kodowaniem, a drugie z wydobywaniem informacji z WM. 358 Rozdział 8. Pamięć Ryc. 8.11. Obserwowany i symulowany odsetek poprawnych reakcji w zadaniu polegającym na przeszukaniu WM. Wyniki dotyczą kolejnych pozycji i różnych liczebności zbioru bodźców do zapamiętania (4, 7 i 10). OBS obserwowane wyniki empiryczne, SYM - wyniki symulacji w modelu ACT-R Za: Chuderski, Orzechowski, 2005. Ramka 8.2 Metody pomiaru pojemności pamięci roboczej W metodach pomiaru pojemności pamięci roboczej nawiązuje się do kategorii zadań, stosowanych do pomiaru pojemności pamięci krótkotrwałej (span task). Klasyczne zadania tego typu polegały na zapamiętywaniu zestawów liczb (digit span) lub wyrazów (word span). Następnie sprawdzano poziom odpamiętania materiału w kolejności zgodnej z sekwencją prezentacji, szacując jaki jest pułap możliwości obciążenia pamięci osoby badanej. Pomiar pojemności pamięci roboczej wymagał jednoczesnego uchwycenia efektywności przechowywania i przetwarzania informacji. Opracowano wiele wersji zadań, które wymagały jednocześnie dokonywania operacji poznawczych na prezentowanym materiale i zapamiętywania wyników tych operacji. Na szczególną uwagę zasługują dwie wersje tego typu zadań. Pierwsza wersja polega na głośnym czytaniu prezentowanych zdań i zapamiętywaniu słowa, znajdującego się na końcu z każdego z nich (reading span task; Daneman, Carpenter, 1980). Głośne czytanie angażuje centralny system wykonawczy, a zapamiętywanie słów - pętlę fonologiczną. Druga wersja zadania wymaga rozwiązania prezentowanych kolejno zadań arytmetycznych oraz zapamiętania towarzyszących im słów (operation-word span task; Turner, Engle, 1989). Czas i poprawność wykonania zadań arytmetycznych jest wskaźnikiem sprawności centralnego systemu wykonawczego, a liczba zapa­ miętanych słów - pętli fonologicznej. 8 .2 .5 . Model długotrwałej pamięci roboczej Ericssona i Kintscha Ericsson i Kintsch (1995) zaproponowali rozszerzony model pamięci roboczej, powiązanej z przechowywaniem informacji w pamięci długotrwałej. Koniecz­ ność tworzenia tego typu modeli wynika, zdaniem autorów, z deficytów kia- 8.2. Systemy pamięci przemijającej 359 sycznych teorii pamięci roboczej, które nie są w stanie trafnie opisać złożonych procesów poznawczych obecnych zarówno w sytuacjach codziennych (np. ro­ zumienie tekstu), jak i w korzystaniu z wiedzy eksperckiej. Zdolność rozu­ mienia tekstu wymaga kodowania i wydobywania z LTM informacji będących produktami złożonych operacji przetwarzania informacji, a jednocześnie anga­ żuje tradycyjnie rozumianą STM. Według autorów, pamięć robocza ma za zadanie utrzymywanie efektyw­ nego i selektywnego dostępu do informacji, która jest niezbędna do wykonania danego zadania (Ericsson, Delaney, 1999; Ericsson, Kintsch, 1995). Funkcja ta może być realizowana skutecznie dzięki dwóm mechanizmom poznawczym: krótkotrwałej pamięci roboczej (short-term working memory, ST-WM) i dłu­ gotrwałej pamięci roboczej (long-term working memory, LT-WM). Zadaniem ST-WM jest - jak w klasycznych koncepcjach WM - magazynowanie danych i półproduktów, niezbędnych do bieżącego wykonania złożonych procesów poznawczych, takich jak rozumowanie, rozumienie tekstu czy uczenie się. Zadaniem LT-WM jest utrzymanie czasowego dostępu do informacji z pamięci trwałej. LT-WM pozwala na ominięcie bardzo małej pojemności ST-WM po­ przez magazynowanie w niej efektów bieżącego przetwarzania. Powstałe w ten sposób ślady pamięciowe są trwalsze niż w ST-WM, co nie oznacza, że zostają zapisane w trwałych strukturach wiedzy. Zwykle nie jest to zresztą potrzebne, bowiem LT-WM przechowuje efekty przetwarzania, które nie są jeszcze osta­ tecznym wynikiem czynności poznawczej, np. końcowym wnioskiem w rozu­ mowaniu. Podczas korzystania z LT-WM krótkotrwała pamięć robocza zostaje obciążona wskazówkami pozwalającymi na wydobycie właściwych informacji z pamięci długotrwałej. Autorzy powołują się m.in. na efekty analiz wpływu treningu na funkcjo­ nowanie pamięci roboczej. Ericsson (1985, 1988) podaje wiele spektakularnych przypadków osób, które uzyskiwały po takim treningu zadziwiające efekty. Na przykład zanotowano przypadki badanych, którzy po długim treningu byli w stanie odtworzyć poprawnie zestaw o rozmiarze do 80 cyfr. Przeciętnie badani po 50 godzinach treningu byli w stanie poprawnie odtworzyć ok. 20 cyfr. O zaangażo­ waniu pamięci długotrwałej w uzyskanie tak dobrych wyników świadczy, zda­ niem Ericssona i Kintscha (1995), brak wpływu interferencji wywołanej w STM przed odtwarzaniem zapamiętanego zestawu. Pomimo wykonywania zadania dystrakcyjnego, wymagającego zaangażowania pojemności STM, badani popraw­ nie odtwarzali zapamiętany zestaw, z uwzględnieniem kolejności zawartych w nim cyfr. Efekt ten był jednak ograniczony wyłącznie do danego typu materiału; po jego zmianie poziom wykonania zadań pamięciowych wskazywał na pojemność STM wynoszącą ok. 7 elementów. Trening nie spowodował więc trwałego zwiększenia pojemności STM i nie da się w pełni wyjaśnić strategią grupowania elementów w pamięci roboczej. Nawet