Uploaded by User7850

E. Nęcka - Psychologia poznawcza

advertisement
Psychologia
poznawcza
Edward Nęcka
Jarosław Orzechowski
Błażej Szymura
A C A D E M I C A W y d a w n i c t w o SWPS
ą
W Y D A W N IC T W O
WARSZAWA 2 0 0 6
NAUKOWE
PWN
Spis treści
P rzed m ow a...................................................................................
13
Prolog
Rozdział
Umysł i pozn an ie .............................................................................................................
1.1. Poznanie - umysł - d z ia ła n ie ...............................................................................................
1.1.1. Umysł jako system przetwarzania in fo rm acji.......................................................
1.1.2. Jedność poznania i d ziałan ia.....................................................................................
1.2. Psychologia poznawcza: dziedzina czy paradygm at........................................................
1.2.1. Narodziny i rozwój psychologii poznaw czej...........................................................
1.2.2. Psychologia a inne dziedziny badań nad poznaniem ............................................
1.2.3. Metody badań nad poznaniem ................. .................................................................
1.3. Ogólna architektura u m y słu .................................................................................................
1.3.1. Blokowe modele u m y słu ............................................................................................
1.3.2. Koncepcja poziomów p rz etw arz an ia.......................................................................
1.3.3. Umysł jako system m odułow y ......................................................................
1.3.4. Sieciowe modele u m y słu ............................................................
1.4. P odsum ow anie........................................................................................................................
21
23
23
29
31
31
34
37
45
46
49
51
53
56
Część I. Reprezentacje poznawcze
Rozdział
Istota i forma reprezentacji u m ysłow ych .................................
2.1. Pojęcie reprezentacji um ysłow ej..........................................................................................
2.1.1. Reprezentacje a procesy poznaw cze.........................................................................
2.1.2. Realizm a k o n stru k ty w izm ........................................................................................
2.1.3. Rodzaje reprezentacji umysłowych...........................................................................
2.2. Reprezentacje obrazow e........................................................................................................
2.2.1. Wyobraźnia, wyobrażenia i obrazy um ysłowe........................................................
2.2.2. Teoria reprezentacji obrazowych Kosslyna.............................................................
59
60
60
61
62
64
64
65
b
Spis treści
2.2.3. Hipoteza funkcjonalnej ekwiwalencji percepcji i w yobraźni.............................
2.2.4. Rotacje m e n ta ln e ........................................................................................................
2.2.5. Skaning m en taln y ........................................................................................................
2.2.6. Krytyka stanowiska o b razo w ego.............................................................................
2.3. Reprezentacje w e rb a ln e ........................................................................................................
2.3.1. Weryfikacja sylogizmów i treści zd ań ......................................................................
2.3.2. Teoria podwójnego k o d o w a n ia ...............................................................................
2.3.3. Słowo i obraz - wzajemne r e la c je ..........................................................................
2.3.4. Reprezentacje n u m e ry c z n e ......................................................................................
2.4. Pierwotność czy wtórność nietrwałych reprezentacji um ysłow ych.............................
2.4.1. Hipoteza języka m y śli................................................................................................
2.4.2. Teoria pierwotnych reprezentacji w formiezbioru sądów Pylyshyna................
2.4.3. Teoria modeli mentalnych Johnson-Lairda............................................................
2.4.4. Stanowisko eklektyczne w sporze o kod reprezentacji u m ysłow ych..............
2.5. Podsum ow anie.........................................................................................................................
Rozdział
Pojęcia i sc h e m a ty ..........................................................................
3.1. Konstrukt reprezentacji pojęciow ej....................................................................................
3.1.1. Istota i funkcje reprezentacji pojęciow ych......................................
3.1.2. Ogólne właściwości p o ję ć .........................................................................................
3.1.3. Pojęcia matrycowe i n atu raln e..................................................................................
3.2. Struktura i funkcjonowanie reprezentacji pojęciow ych................................................
3.2.1. Teorie k lasyczne..........................................................................................................
3.2.2. Teorie probabilistyczne..............................................................................................
3.2.3. Teorie prototypów ........................................................................................................
3.2.4. Teorie egzem plarzy.....................................................................................................
3.2.5. Porównanie koncepcji reprezentacji pojęciowych................................................
3.3. Dynamiczna koncepcja umysłu, czyli o relacjach między p o jęciam i..........................
3.3.1. Teorie sieci sem an ty c zn ej.........................................................................................
3.3.2. Złożone struktury sieciow e.......................................................................................
3.3.3. Teoria schem atów ........................................................................................................
3.3.4. Teoria r a m ....................................................................................................................
3.3.5. Teoria planów, scen i te m a tó w ...............................................................................
3.3.6. Porównanie koncepcji struktur sieciowych............................................................
3.4. Podsum ow anie.........................................................................................................................
Rozdział
W ied za
4.1. Rodzaje wiedzy.........................................................................................................................
4.1.1. Wiedza deklaratywna i p ro ced u raln a......................................................................
4.1.2. Wiedza jawna i niejaw na......................................................................................... .
4.2. Organizacja wiedzy.................................................................................................................
4.2.1. Reprezentacja wiedzy za pomocą cech ...................................................................
4.2.2. Organizacja wiedzy sem an ty czn ej................
4.2.3. Organizacja wiedzy proceduralnej: systemy reg u ł.................................................
4.2.4. Organizacja wiedzy w modelach ACT, ACT*i A C T -R ........................................
66
67
72
75
76
76
80
82
86
89
89
91
95
96
97
98
99
99
100
102
103
103
108
112
123
125
126
126
128
129
132
133
134
135
136
138
138
140
148
148
151
157
159
Spis treści
4.3. Nabywanie w ied z y ............................................................
4.3.1. Nabywanie wiedzy sem antycznej..............................................................................
4.3.2. Nabywanie wiedzy proceduralnej..............................................................................
4.3.3. Nabywanie wiedzy niejaw nej.....................................................................................
4.4. Wiedza ekspercka.....................................................................................................................
4.4.1. Kryteria i właściwości wiedzy ek sp erck iej.............................................................
4.4.2. Nabywanie wiedzy eksperckiej...................................................................................
4.5. Podsum ow anie.........................................................................................................................
7
163
163
164
166
168
168
173
174
Część II. Elementarne procesy poznawcze
Rozdział
Uwaga i św iad om ość.........................................................................
\n
5.1. Istota i aspekty uw agi.................................................................................................................
5.2. Teorie u w a g i...............................................................................................................................
5.2.1. Teorie selekcji źródła informacji ...........................................................................
5.2.2. Teorie przeszukiwania pola percepcyjnego...................
5.2.3. Teorie przedłużonej koncentracji..............................................................................
5.2.4. Teorie podzielności......................................................................................................
5.2.5. Teorie p rzerzutności....................................................................................................
5.3. Uwaga, percepcja i (nie)świadom ość......................................................................................
5.3.1. Analiza wskazówek peryferycznych.........................................................................
5.3.2. Reakcje na informacje odrzucane..............................................................................
5.3.3. Poprzedzanie podprogowe..........................................................................................
5.4. Podsum ow anie.........................................................................................................................
178
186
187
195
200
209
217
221
223
224
225
,228
Rozdział
Kontrola poznawcza...........................................................................
229
6.1. Czynności automatyczne i autom atyzacja............................................................................
231
6.1.1. Kryteria automatyczności p rzetw arzan ia...............................................................
231
6.1.2. Schneidera i Shiffrina teoria k o n tin u u m ...............................................................
233
239
6.1.3. Logana teoria rywalizacji egzemplarzy....................................................................
6.1.4. Konsekwencje automatyzacji czynności..................................................................
248
6.2. Hamowanie jako mechanizm kontrolny.................................................................................
251
6.2.1. Istota i funkcje ham o w ania.......................................................................................
251
6.2.2. Hamowanie dominującej re a k c ji..............................................................................
253
6.2.3. Odporność na dystrakcję............................................................................................
255
6.2.4. Odporność na interferencję proaktyw ną.................................
261
6.2.5. Czy hamowanie jest konstruktem jednorodnym ?.................................................
262
6.3. Funkcje z a rz ą d c z e ............................................................................................
6.3.1. Istota funkcji zarządczych czyli homunculus o d n a le z io n y ................................
266
6.3.2. Rodzaje funkcji zarządczych.....................................................................................
267
6.3.3. Mechanizm zarządczy w koncepcji uwagi P o sn e ra ..............................................
269
B
Spis treści
6.3.4. Dwustopniowy system kontroli zachowania w koncepcji Shallice’a ..............
6.3.5. Centralny system wykonawczy pamięci roboczej w modelu B addeleya
6.4. Podsum ow anie.......................................................................
Rozdział /
Percepcja...................
7.1. Podstawowe właściwości p e rce p cji....................................................................................
7.1.1. Recepcja sensoryczna i percepcja umysłowa..........................................................
7.1.2. Naiwne koncepcje sp ostrzegania.............................................................................
7.1.3. Spostrzeganie a rozpoznawanie wzorców...............................................................
7.2. Spostrzeganie jako proces o d d o ln y ....................................................................................
7.2.1. Odbiór i kodowanie wrażeń zm ysłowych...............................................................
7.2.2. Magazyny informacji sensorycznej...........................................................................
7.2.3. Spostrzeganie g łę b i.....................................................................................................
7.2.4. Identyfikacja obiektu...................................................................................................
7.3. Spostrzeganie jako proces o d g ó rn y ....................................................................................
7.3.1. Stałość sp o strz e g a n ia ....................................................................................
7.3.2. N asta w ie n ie .................................................................................................................
7.3.3. Złudzenia i błędy p ercep cji....................................
7.3.4. Wpływ kontekstu na sp o strzeg an ie........................................................................
7.4. Teorie p e rc e p c ji......................................................................................................................
7.4.1. Teoria aso cjacjonistyczna.........................................................................................
7.4.2. Teoria postaciow a........................................................................................................
7.4.3. Teoria w z o rc ó w ..........................................................................................................
7.4.4. Teoria c e c h ....................................................................................................................
7.4.5. Teoria o b liczen io w a...................................................................................................
7.4.6. Teoria ek o lo g iczn a.....................................................................................................
7.5. Proces spostrzegania w praktyce.........................................................................................
7.5.1. Spostrzeganie twarzy...................................................................................................
7.5.2. Czytanie s łó w ...............................................................................................................
7.6. Podsum ow anie.................................................................................................................
Rozdział
P a m ię ć ................................................................................................
8.1. Natura pam ięci.........................................................................................................................
8.1.1. Rodzaje i funkcje p a m ię c i.........................................................................................
8.1.2. Blokowe (magazynowe) modele p a m ię c i...............................................................
8.1.3. Procesualne modele p a m ię c i....................................................................................
8.2. Systemy pamięci p rzem ijającej............................................................................................
8.2.1. Pamięć s e n so ry c z n a ..................................................................................................
8.2.2. Pamięć k ró tk o trw ała..................................................................................................
8.2.3. Pamięć robocza: wielokomponentowy model Baddeleya....................................
8.2.4. Pamięć robocza: modelaktywacyjny C ow ana.......................................................
8.2.5. Model długotrwałej pamięci roboczej Ericssona i K intscha...............................
8.2.6. Pamięć p ro sp ek ty w n a................................................................................................
8.3. Systemy pamięci trw a łe j.......................................................................................................
8.3.1. Pamięć sem antyczna.................................................................................................
271
274
276
211
278
278
280
281
283
283
285
288
292
295
295
296
297
298
299
299
301
303
305
307
309
312
312
314
317
319
320
320
326
333
340
340
343
349
355
358
360
363
363
Spis treści
8.3.2. Pamięć ep izo d y czn a....................................................................................................
8.3.3. Pamięć autobiograficzna............................................................................................
8.4. Podsum ow anie........................................................................................................................
Rozdział
Czynności p am ięciow e...................................................................
9.1. Fazy procesu pamięciowego: prawda czy z łu d zen ie?......................................................
9.2. Zapam iętywanie.......................................................................................................................
9.2.1. Procesy k o d o w an ia......................................................................................................
9.2.2. Interferencja proaktyw na............................................................................................
9.2.3. Konsolidacja śladu pam ięciow ego...........................................................................
9.2.4. Techniki m nem oniczne...............................................................................................
9.3. Przechowywanie.......................................................................................................................
9.3.1. Zapom inanie..................................................................................................................
9.3.2. Interferencja retroaktywna..........................................................................................
9.3.3. Zanikanie śladu kontra utrata d o s tę p u ..................................................................
9.3.4. Reminiscencja................................................................................................................
9.4. Odpamiętywanie.......................................................................................................................
9.4.1. Rodzaje odpam iętywania............................................................................................
9.4.2. Rola wskazówek naprowadzających i kontekstu ...................................................
9.5. Zawodność p a m ię c i................................................................................................................
9.5.1. Pamięć naocznych świadków.....................................................................................
9.5.2. Fałszywe w sp o m n ien ia...............................................................................................
9.5.3. A m nezja.............................................................................................................
9.6. Podsum ow anie.........................................................................................................................
9
366
369
371
372
373
377
377
387
389
390
396
396
397
399
400
403
403
407
409
409
412
414
416
Część III. Złożone procesy poznawcze
Rozdział
Myślenie i rozum ow anie................................................................
10.1. Istota m yślenia.......................................................................................................................
10.2. Rodzaje m y ślen ia..................................................................................................................
10.2.1. Myślenie autystyczne i re a listy c z n e ....................................................................
10.2.2. Myślenie produktywne i reproduktyw ne.............................................................
10.2.3. Myślenie twórcze i o d tw ó rc z e ..............................................................................
10.2.4. Myślenie k ry ty c z n e .................................................................................................
10.2.5. Od myślenia sensoryczno-motorycznego do postform alnego........................
10.3. Teorie m y śle n ia ....................................................................................................................
10.3.1. Teoria Berlyne’a ......................................................................................................
10.3.2. Teoria B a ro n a ...........................................................................................................
10.4. Struktura m yślenia................................................................................................................
10.4.1. Elementy struktury m y śle n ia ...............................
10.4.2. Operacje i s tra te g ie .................................................................................................
10.4.3. Reguły, algorytmy i h eurystyki..............................................................................
10.4.4. Myślenie a inne złożone procesy poznaw cze......................................................
419
421
425
425
426
427
428
429
430
431
433
436
436
437
439
442
iu
spis treści
10.5. Rozumowanie dedukcyjne
.................................
10.5.1. Dedukcja i indukcja.................................................................................................
10.5.2. Rozumowanie sylogistyczne..................................................................................
10.5.3. Błędy rozumowania sylogistycznego...................................................................
10.5.4. Wpływ wiedzy i kontekstu na rozumowanie sylogistyczne.............................
10.6. Rozumowanie w a ru n k o w e .................................................................................................
10.6.1. Istota rozumowania w arunkow ego......................................................................
10.6.2. Błędy rozumowania w arunkow ego......................................................................
10.6.3. Wpływ wiedzy i kontekstu na rozumowanie w arunkow e...............................
10.7. Teorie rozumowania dedukcyjnego.................................................................
10.7.1. Teoria abstrakcyjnych re g u ł..................................................................................
10.7.2. Teoria modeli m e n taln y ch ....................................................................................
10.8. Rozumowanie indukcyjne...................................................................................................
10.8.1. Testowanie h ip o te z .................................................................................................
10.8.2. Rozumowanie przez analogię................................................................................
10.9. Inne rodzaje ro zu m o w an ia.................................................................................................
10.9.1. Rozumowanie p ro b ab ilisty czn e...........................................................................
10.9.2. Rozumowanie nieform alne....................................................................................
10.10. Podsum ow anie.................................
444
444
447
449
453
455
455
456
458
462
462
465
472
472
473
478
478
479
481
Rozdział
Rozwiązywanie problem ów ..........................................................
483
11.1. Problem i rozwiązywanie problem u..................................................................................
11.2. Typy problem ów ....................................................................................................................
11.2.1. Podział problemów ze względu na ich cechy i s tru k tu rę ...............................
11.2.2. Podział problemów ze względu na wymagania poznawcze.............................
11.3. Teorie rozwiązywania problem ów ....................................................................................
11.3.1. Teoria Newella i S im o n a .......................................................................................
11.3.2. Inne ujęcia teoretyczne procesu rozwiązywania p ro b le m ó w ........................
11.4. Heurystyki rozwiązywania problemów.............................................................................
11.4.1. M etoda redukcji różnicy.........................................................................................
11.4.2. M etoda poruszania się w s te c z .............................................................................
11.4.3. M etoda analizy środków i celów...........................................................................
11.5. Fazy rozwiązywania p ro b lem ó w .......................................................................................
11.5.1. Faza identyfikacji p ro b lem u..................................................................................
11.5.2. Faza definiowania problemu..................................................................................
11.5.3. Faza doboru strateg ii..............................................................................................
11.5.4. Faza zdobywania inform acji..................................................................................
11.5.5. Faza alokacji zasobów . ............................................................
11.5.6. Faza m onitorowania p o s tę p u ................................................................................
11.5.7. Faza oceny poprawności rozw iązania.................................................................
11.6. Przeszkody w rozwiązywaniu p ro b lem ó w ......................................................................
11.6.1. Sztywność m yślenia......................................................................
11.6.2. Nastawienie. . . .....................................................................................................
11.6.3. Fiksacja fu n k c jo n a ln a ............................................................................................
11.7. Czynniki wspomagające rozwiązywanie problem ów .....................................................
11.7.1. Transfer pozytyw ny....................................
11.7.2. Transfer przez a n a lo g ię .........................................................................................
484
486
487
491
498
498
502
503
503
507
507
512
513
514
519
523
524
527
528
529
529
530
531
533
533
534
Spis treści
11
11.7.3. In k u b a c ja ..................................................................................................................
11.7.4. W g lą d .........................................................................................................................
11.8. Rozwiązywanie złożonych problem ów ..............................................................................
11.9. Podsum ow anie.......................................................................................................................
535
537
541
546
Rozdział
Wydawanie sądów i podejmowanie decyzji
548
12.1. Wydawanie s ą d ó w ................................................................................................................
12.1.1. Tendencyjność w wydawaniu sądów....................................................................
12.1.2. Ignorowanie proporcji podstaw ow ej....................................................................
12.1.3. Wady i zalety prostych h eurystyk .........................................................................
12.1.4. Sądy in tu ic y jn e .................
12.2. Podejmowanie decyzji...........................................................................................................
12.2.1. Klasyczna teoria decyzji..........................................................................................
12.2.2. Strategie w podejmowaniu d ecy zji.......................................................................
12.2.3. Teoria perspektyw y.................................................................................................
12.2.4. Proces podejmowania decyzji................................................................................
12.3. Podsum ow anie.......................................................................................................................
549
550
557
561
563
572
572
576
581
584
588
Rozdział
Język i m o w a .....................................................................................
589
13.1. Natura języka.........................................................................................................................
13.1.1. Język jako s y s te m ....................................................................................................
13.1.2. Poziomy ję z y k a .........................................................................................................
13.1.3. Język a p o z n a n ie ......................................................................................................
13.2. Przyswajanie ję z y k a .............................................................................................................
13.2.1. Problem natyw izm u.................................................................................................
13.2.2. Stadia przyswajania języka.....................................................................................
13.2.3. Dwujęzyczność i wielojęzyczność....................................
13.3. M ów ienie.................................................................................................................................
13.3.1. Planowanie m o w y ....................................................................................................
13.3.2. Kodowanie sem antyczno-syntaktyczne...............................................................
13.3.3. Kodowanie fo n o lo g iczne........................................................................................
13.4. Rozumienie przekazów językowych...................................................................................
13.4.1. Złamanie k o d u .........................................................................................................
13.4.2. Rozbiór zdania...........................................................................................................
13.4.3. Budowa modelu sytuacyjnego i w nioskow anie.................................................
13.5. Podsum ow anie.......................................................................................................................
590
590
594
599
602
602
607
609
612
612
615
616
619
619
621
625
628
Słownik term inów .........................
269
B ibliografia........................................................................................
663
Indeks n azw isk ..................................................................................................................
721
Indeks rzeczow y .............................................
733
Przedmowa
Przygotowując do druku nowy podręcznik, trzeba mieć przekonanie o sensow­
ności jego wydania. Sprawa jest stosunkowo prosta, gdy na rynku nie ma
żadnego podręcznika z danej dziedziny; w takim przypadku cokolwiek jest lep­
sze niż nic. Tymczasem na polskim rynku wydawniczym jest kilka podręczników
z psychologii poznawczej. Co więc motywowało nas do podjęcia się tej nielekkiej i odpowiedzialnej pracy?
Przede wszystkim wyszliśmy z założenia, że polscy studenci powinni się
posługiwać podręcznikami polskich autorów. Psychologia nie jest wprawdzie
zasadniczo inna w Polsce niż w innych krajach świata, inne są jednak
oczekiwania odbiorców, tradycje nauczania określonych przedmiotów, systemy
edukacyjne, wreszcie mentalność wykładowców i studentów. Dotyczy to
szczególnie podręczników napisanych przez autorów z USA. W amerykańskim
systemie kształcenia na poziomie college’u nie ma kierunków studiowania
w naszym rozumieniu. Przez pierwsze dwa lata student studiuje na wydziale
0 szerokim profilu, a dopiero na III i IV roku wybiera specjalizację, którą mo­
że być psychologia. Uprawnienia zawodowe uzyskuje się w toku dalszych stu­
diów, np. magisterskich lub doktorskich. Z tego powodu kursy z psychologii,
zwłaszcza na poziomie podstawowym, muszą być dostosowane do odbiorców,
którzy niewiele wiedzą o psychologii i w większości nie będą się w tej dziedzinie
specjalizować. To samo siłą rzeczy dotyczy podręczników, które dostosowuje się
poziomem i sposobem prezentacji treści do „studenta-hobbysty”, a niekoniecz­
nie do przyszłego profesjonalisty. Na bogatym i różnorodnym rynku amerykań­
skim istnieją oczywiście podręczniki zaawansowane, ale w Polsce i innych kra­
jach wybiera się do przekładów raczej te podstawowe.
Pisząc Psychologię poznawczą, mieliśmy świadomość, że będziemy kon­
kurować nie tylko z kilkoma pozycjami tłumaczonymi, ale również z jedną
oryginalną pozycją polską: Psychologią poznania Tomasza Maruszewskiego
(2002). Znaczenie tej książki trudno przecenić, ponieważ jest to pierwszy
polski podręcznik z tej tematyki. Nasza publikacja została zaprojektowana
w ten sposób, aby raczej uzupełniała książkę Tomasza Maruszewskiego, niż ją
zastępowała. Znacznie więcej miejsca poświęciliśmy złożonym procesom
poznawczym. Dodaliśmy też bloki rozszerzające o charakterze merytorycznym
1 metodologicznym. W wyniku tych zabiegów niniejszy podręcznik może być
podstawą wykładu z psychologii poznawczej na pierwszych latach psychologii,
ale przyda się też magistrantom, a nawet doktorantom specjalizującym się
14
Przedmowa
w innych działach psychologii, a szukającym podstaw psychologii poznania
i poznawania.
Struktura podręcznika odbiega nieco od standardu, powszechnie przyjętego
przez autorów podręczników z psychologii poznawczej. Ów standard polega na
omówieniu poszczególnych obszarów wiedzy o poznaniu, począwszy od
procesów działających „na wejściu” i uważanych za proste (np. percepcja i uwa­
ga), a skończywszy na procesach działających „na wyjściu”, którym przypisuje
się wysoki stopień złożoności (np. rozwiązywanie problemów). „Po drodze”
omawia się pamięć, wyobrażenia i inne formy procesów „pośredniczących”
między wejściem sensorycznym a wyjściem motorycznym.
Istotą układu treści naszego podręcznika jest podział na struktury i procesy
poznawcze. Procesy prowadzą do powstania struktur lub operują na nich.
Dlatego uznaliśmy, że przed omówieniem sposobu działania procesów poz­
nawczych należy zapoznać studentów z rodzajami i sposobem działania struktur
poznawczych, zwanych również reprezentacjami. Pierwsza część podręcznika,
następująca po prologu, czyli rozdziale prezentującym psychologię poznawczą
„z lotu ptaka”, poświęcona jest właśnie reprezentacjom poznawczym. W roz­
dziale drugim omawiamy istotę sporu o reprezentację poznawczą oraz przy­
taczamy badania nad reprezentacjami nietrwałymi (wyobrażeniami, sądami,
modelami umysłowymi). W rozdziale trzecim jest mowa o reprezentacjach
trwałych, czyli pojęciach i kategoriach, a w rozdziale czwartym - o strukturach
wiedzy. W ten sposób, poczynając od prostych obrazów umysłowych, a kończąc
na złożonych strukturach wiedzy, przedstawiamy liczne sposoby, dzięki którym
umysł ludzki poznawczo reprezentuje rzeczywistość.
Drugą część podręcznika poświęcono procesom poznawczym o stosunkowo
niewielkim poziomie złożoności. Oczywiście podział na procesy proste i złożone
jest trudny i ryzykowny, a jego efekty będą zapewne podlegać krytyce. Im więcej
wiemy o takich procesach jak uwaga czy percepcja, tym trudniej nam za­
akceptować myśl, że są one proste. Za spostrzeganiem obiektów przez czło­
wieka kryje się skomplikowany mechanizm poznawczy, złożony z całej wiązki
procesów, a ponadto wspomagany przez wiedzę, wnioskowanie, przetwarzanie
języka i inne procesy poznawcze. Mimo to, jeśli porównamy percepcję z roz­
wiązywaniem problemów albo z przetwarzaniem języka, musimy uznać, że
spostrzeganie jest procesem relatywnie mniej złożonym. Przemawiają za tym
następujące argumenty.
Po pierwsze, percepcja może być wspomagana przez inne procesy (np.
pamięciowe lub związane z wnioskowaniem), ale nie musi. Niektóre formy
percepcji, zwłaszcza dotyczące spostrzegania zjawisk fizycznych (przedmiotów,
kolorów, kształtów, ruchu), zdają się mieć charakter bezpośredni, to znaczy są
w niewielkim stopniu uwikłane w pośredniczącą rolę reprezentacji poznaw­
czych. Również wiele form funkcjonowania pamięci nie wymaga współdziałania
ze strony innych procesów poznawczych, co nie oznacza, że pamięć takim
oddziaływaniom nie podlega. Natomiast procesy złożone nie są w ogóle możliwe
bez harm onijnego w spółdziałania procesów elem entarnych; dotyczy to
w szczególności myślenia, rozwiązywania problemów, rozumowania, podejmo­
wania decyzji i przetwarzania języka.
Po drugie, w procesach, które uznaliśmy za elementarne, bardzo duży
udział mają automatyzmy w przetwarzaniu informacji. Koncentracja i prze­
Przedmowa
15
rzucanie uwagi, wyodrębnianie przedmiotów z tła, przywołanie informacji z pa­
mięci i inne procesy z tej kategorii dokonują się automatycznie, poza świa­
domością i kontrolą ze strony podmiotu, który co najwyżej jest świadomy
dopiero skutków owych procesów, a i to nie zawsze. Natomiast procesy złożone
opierają się w dużym stopniu na czynnościach kontrolowanych. Nie znaczy to,
że procesy złożone są wykonywane pod pełną kontrolą, chodzi tylko o to, że
udział owej kontroli jest tutaj relatywnie duży.
Kontroli poznawczej poświęciliśmy zresztą osobny rozdział, umieszczony
w części drugiej, w której omawiamy elementarne procesy poznawcze. Decyzja
ta wynika z kilku przesłanek. Przede wszystkim uznaliśmy, że kontrola
poznawcza to niezwykle istotny aspekt ludzkiego poznania, w dodatku coraz
intensywniej badany. Ponadto przyjęliśmy, że niektóre formy kontroli są dość
proste w swoim przebiegu i charakterze, bowiem wywodzą się z mechanizmów
uwagi - zresztą przez niektórych autorów są omawiane wraz z uwagą (np.
przeciwdziałanie interferencji). Wreszcie, w naszym przekonaniu, kontrola
poznawcza nie służy sama sobie, lecz innym procesom poznawczym, głównie
tym, które uznaliśmy za złożone, aczkolwiek nie można ignorować roli pro­
cesów kontrolnych w procesach percepcji i pamięci.
Co do pamięci, poświęciliśmy jej dwa rozdziały w części drugiej, dając w ten
sposób wyraz przekonaniu o niezwykle istotnej roli pamięci w funkcjonowaniu
umysłu i olbrzymiej roli badań nad pamięcią we współczesnej psychologii
poznawczej. Nie wolno ignorować faktu, że dla wielu współczesnych autorów
psychologia poznawcza to przede wszystkim psychologia różnych form i odmian
pamięci, a wiele modeli pamięci (np. sieciowe) to w gruncie rzeczy ogólne mo­
dele umysłu. I chociaż nie chcieliśmy stawiać znaku równości między umysłem
a pamięcią, musieliśmy dać wyraz współczesnemu stanowi badań w tym obsza­
rze. Dodatkowo trzeba było uwzględnić fakt, że w ostatnich latach, w wyniku
gwałtownego rozwoju badań nad pamięcią, wyróżniono wiele form i odmian
tego zjawiska, dawniej nieznanych, a w każdym razie niezbyt intensywnie
badanych. Chodzi o takie konstrukty jak pamięć robocza, pamięć prospektywna
oraz liczne przejawy pamięci niejawnej (implicit memory). Dlatego pamięci
poświęcono dwa rozdziały. Jeden z nich (rozdz. 8) zawiera omówienie różnych
form i rodzajów pamięci, a drugi (rozdz. 9) - omówienie czynności pamię­
ciowych, takich jak zapamiętywanie, przechowywanie i odpamiętanie materiału.
Mimo to mamy wrażenie, że o pamięci można by napisać znacznie więcej.
Współczesny stan badań i teorii pozwalałby np. na poświęcenie osobnego
rozdziału samej tylko pamięci roboczej. Niestety, taka decyzja musiałaby mieć
niepożądane skutki co do rozmiaru i wewnętrznej spójności podręcznika.
Trzecia część książki jest poświęcona złożonym procesom poznawczym:
myśleniu i rozumowaniu (rozdz. 10), rozwiązywaniu problemów (rozdz. 11),
podejmowaniu decyzji i formułowaniu sądów (rozdz. 12) oraz przetwarzaniu
języka (rozdz. 13). W ten sposób liczba rozdziałów jest mniejsza o dwa od liczby
tygodni w jednym semestrze roku akademickiego (teoretycznie 15). Zależało
nam na takim rozwiązaniu, ponieważ dzięki tem u m ożna co tydzień
wykorzystać jeden rozdział podręcznika, mając w rezerwie dwa tygodnie na
czynności wstępne i końcowe. Niestety, w wyniku takiej decyzji w tekście nie
zmieściły się rozdziały, które, być może, powinny się tam znaleźć. Jeśli mie­
libyśmy coś jeszcze dodawać, trzeba by uwzględnić następujące tematy: rozwój
1 1>
Przedmowa
poznawczy, różnice indywidualne w zakresie poznania oraz filozoficzne i teoriopoznawcze implikacje badań w zakresie psychologii poznawczej. Wydaje się, że
te wątki zasługują na osobne potraktowanie, np. w postaci podręczników,
monografii lub prac zbiorowych. W niniejszym podręczniku kwestie te są oma­
wiane skrótowo i mimochodem, przy okazji dyskutowania problemów o cha­
rakterze ogólnym.
Oprócz właściwego tekstu, w podręczniku zamieszczono dwa rodzaje blo­
ków poszerzających. Pierwsza grupa bloków ma charakter merytoryczny. Są to
opisy konkretnych badań, niekiedy dość szczegółowo przedstawionych ze
względu na wysoko przez nas oceniane walory poznawcze. W tego rodzaju
blokach (ramkach) znajdują się np. empiryczne ilustracje szczególnie interesu­
jących zjawisk, opis badań nad mózgowymi korelatami procesów poznawczych
lub badań o szczególnie zaawansowanej i finezyjnej metodologii. Można czytać
tekst, ignorując te ramki, zwłaszcza gdyby podręcznik miał być wykorzystywany
na zajęciach z pierwszymi rocznikami studentów. Druga grupa bloków po­
szerzających ma charakter metodologiczny. Nazwaliśmy te ramki „paradygma­
tami”, zgodnie z niekuhnowską, ale bardzo rozpowszechnioną konwencją
używania słowa „paradygmat” na oznaczenie ustalonego wzorca procedury
eksperymentalnej, wykorzystywanego w badaniach nad wyodrębnionym proce­
sem lub efektem. W literaturze psychologicznej co rusz można się natknąć na
informacje, że pewne badania przeprowadzono np. w paradygmacie poprze­
dzania negatywnego albo w paradygmacie dychotycznej prezentacji bodźców.
Postanowiliśmy dokładniej opisać najważniejsze paradygmaty eksperymentalne,
co powinno ułatwić zrozumienie, w jaki sposób psychologia bada określone
zjawiska i jak dochodzi do takich, a nie innych konkluzji. Lektura ramek paradygmatycznych powinna zatem zwiększyć krytycyzm studenta w zapozna­
waniu się z ofertą współczesnej psychologii poznawczej. Powinna również
ułatwić życie tym, którzy chcieliby projektować i prowadzić własne badania, np.
magistrantom.
Podczas pisania podręcznika nieustannie natykaliśmy się na rafy termino­
logiczne. Polskie słownictwo psychologiczne jest w wielu obszarach nieusta­
lone, co więcej, obserwuje się żywiołowe i niekiedy mało refleksyjne tłuma­
czenia terminów obcojęzycznych. Niektóre już zdążyły się utrwalić, mimo że są
ewidentnie nietrafne. Na przykład pojęcie central executive w teorii pamięci
roboczej dotyczy hipotetycznego mechanizmu rozdzielającego zasoby uwagi
i odpowiedzialnego za bieżące przetwarzanie informacji. Jest to więc struktura
zarządzająca, zgodnie ze znaczeniem angielskiego rzeczownika executive
(dyrektor, członek zarządu). Tymczasem polski odpowiednik „centralny system
wykonawczy” sugeruje raczej podrzędną rolę tego mechanizmu jako systemu
wykonującego polecenia, nie zaś wydającego je. Mimo wątpliwości, termin
„centralny system wykonawczy” utrzymaliśmy ze względu na powszechnie
przyjęty w polskiej psychologii uzus językowy. Ale już executive functions
przetłumaczyliśmy jako „funkcje zarządcze”, bo taki, jak się wydaje, jest sens
tego terminu. Alternatywą byłyby „funkcje wykonawcze”, co zupełnie nie oddaje
istoty rzeczy, zwłaszcza że w tym wypadku nie ma wspomagania w postaci
słówka „centralne”.
Inna kwestia to sposób oddania angielskiego terminu priming. Proponu­
jemy „poprzedzanie” lub zamiennie „prymowanie”, ponieważ jest to określenie
Przedmowa
17
nedtralne i obejmujące wszystkie rodzaje omawianego zjawiska. Stosowane
niekiedy w polskich tekstach słowo „torowanie” nie wydaje się trafne, bo nie
uwzględnia faktu, że bodziec poprzedzający może utrudniać przetwarzanie
bodźca właściwego, jak to ma miejsce np. w przypadku poprzedzania nega­
tywnego. Słówko „uprzedzanie” niesie natomiast niepożądaną konotację, jako­
by ktoś kogoś chciał przed czymś uprzedzić. Dlatego „poprzedzanie” i „prymowanie” wydają się godne rozważenia. Dodatkowo „prymowanie” ma tę zaletę, że
jest spójne z określaniem bodźca poprzedzającego mianem prymy. Są to
spolszczone wersje słów o proweniencji łacińskiej, co jest częstym rozwiąza­
niem w polskiej nomenklaturze naukowej.
Największe problemy wystąpiły jednak z oddaniem angielskich terminów
implicit learning oraz implicit memory. W tekstach angielskich zawarte są dwa
ważne znaczenia: ukryty charakter procesu oraz to, że zdarzenie wcześniejsze
(np. spostrzeżenie bodźca) pociąga za sobą - jak implikacja - późniejsze skutki
behawioralne (np. specyficzny sposób kategoryzowania obiektów lub uzupeł­
niania niepełnych wyrazów). Według naszej wiedzy, język polski nie dysponuje
słowem o takim ładunku znaczeniowym. W polskiej literaturze psychologicznej
można znaleźć kilka rozwiązań tego problemu: uczenie się mimowolne (akcentuje
brak intencji, ale pomija ukryty charakter procesu), pamięć typu implicite
(niezbyt zgrabne), pamięć implikatywna (jeszcze mniej zgrabne), pamięć utajona
lub ukryta. Wydaje się, że najlepsze - bo neutralne - jest określenie „pamięć
niejawna” oraz jej przeciwieństwo, czyli „pamięć jawna” (explicit memory). To
samo dotyczy uczenia się, które może być jawne lub niejawne, z tym że w nie­
których przypadkach warto używać również określenia „uczenie się mimowolne”,
mianowicie wtedy, gdy rzeczywiście chce się zaakcentować brak intencji osoby
uczącej się. Potrzeba posługiwania się terminem neutralnym wynika stąd, że różni
autorzy podają różne definicje i kryteria tego zjawiska, nie mówiąc już o tym, że
nie znamy mechanizmu działania pamięci niejawnej. Na przykład używanie
terminu „pamięć utajona” lub „ukryta” może sugerować, że jest to pamięć, której
zawartość ktoś intencjonalnie przed kimś ukrył. Może też kierować skojarzenia
czytelnika w stronę freudowskich mechanizmów wyparcia i tłumienia. Tego
rodzaju konotacje byłyby niepożądane, bo zbyt silnie sugerują hipotetyczny me­
chanizm działania pamięci niejawnej, a w dodatku nie odpowiadają powszechnie
używanym paradygmatom badania tejże pamięci. Choć sami nie polecamy ter­
minu „pamięć utajona”, z dwojga złego wydaje nam się lepszy, tym bardziej że
pojawił się już termin „poznanie utajone”.
Terminologia dotycząca pamięci nastręcza zresztą wielu innych kłopotów.
Polski termin „zapamiętywanie” nie ma odpowiednika angielskiego; w litera­
turze anglojęzycznej jest natomiast używany termin encoding. Nie zdecydowa­
liśmy się na zastąpienie zapamiętywania kodowaniem, bo byłoby to zbyt dalekim
odejściem od rodzimej tradycji terminologicznej, a ponadto rozwiązaniem
teoretycznie nietrafnym. Kodowanie to ważny element procesu zapamiętywania,
ale nie jedyny, bo nie obejmuje np. operacji utrwalenia śladu pamięciowego.
Utrzymaliśmy też termin „odpamiętywanie”, oznaczający odwrotność zapamię­
tywania, czyli każdy przypadek korzystania z zasobów pamięci - jawnej lub
niejawnej. Mimo że termin „odpamiętywanie” nie jest powszechnie używany
w polskiej literaturze psychologicznej, a niektóre słowniki traktują jego użycie
jako błąd językowy, wydaje nam się logiczny (np. zakręcić i odkręcić) , a ponadto
io
rrzeamowa
obojętny ze względu na domniemany mechanizm teoretyczny tego etapu pro­
cesu pamięciowego. Ogólny termin „odpamiętywanie” można teraz rozbić na
konkretne odmiany tego zjawiska, np. przypominanie lub rozpoznawanie (w od­
niesieniu do pamięci jawnej) oraz liczne formy korzystania z pamięci niejawnej.
Zdajemy sobie sprawę, że nasze rozstrzygnięcia terminologiczne mogą
budzić sprzeciw. Czy się przyjmą, trudno w tej chwili wyrokować. W każdym
razie powinny wzbudzić dyskusję i stymulować próby ulepszenia terminologii
naukowej w zakresie psychologii poznawczej. Język jest jednym z najważniej­
szych narzędzi poznania, więc przyswajanie terminów obcojęzycznych nie
powinno być bezrefleksyjne i powierzchowne. Gdyby nasza publikacja skłoniła
studentów i badaczy do większej staranności w tym zakresie, czulibyśmy się
u saty sfakcj onowani.
Przygotowanie niniejszego podręcznika nie byłoby możliwe bez życzliwości
i współpracy wielu osób i instytucji. Przede wszystkim dziękujemy Wydawnic­
twu Naukowemu PWN za inicjatywę wydania tej książki, a Pani Redaktor
Joannie Marek za anielską cierpliwość w obliczu ciągle zmieniających się
terminów oddania maszynopisu. Dziękujemy obu naszym pracodawcom,
Uniwersytetowi Jagiellońskiemu oraz Szkole Wyższej Psychologii Społecznej,
za stworzenie warunków do pracy naukowej i dydaktycznej, a przede wszystkim
za to, że mając okazję wykładać psychologię poznawczą przez dłuższy czas* dla
wielu roczników studentów, mogliśmy poznać profil i potrzeby przyszłego
czytelnika. Dziękujemy recenzentom wydawniczym, prof. Tomaszowi Maruszewskiemu i prof. Czesławowi Nosalowi, za inspirujące uwagi krytyczne,
obudowane generalną akceptacją naszego projektu. Na koniec dziękujemy
naszym Kolegom z Zakładu Psychologii Eksperymentalnej UJ i z Katedry
Psychologii Poznawczej SWPS. Wszystko, co wiemy o psychologii poznawczej,
narodziło się w związku z dyskusjami, zebraniami i wspólnymi badaniami, które
wspólnie wykonaliśmy w ciągu ostatnich 15 lat. W pracach technicznych bardzo
pomocni byli: Karolina Czernecka, Zofia Stawowy-Winkler, Łukasz Szych i Ka­
mila Smigasiewicz, którym serdecznie dziękujemy.
Kraków, wrzesień 2005.
Edward Nęcka
Jarosław Orzechowski
Błażej Szymura
R o zd zia ł
*
Umysł i poznanie
Poznanie - um ysł - działanie
Ogólna architektura um ysłu
23
45
Umysł jako system przetw arzania infor­
macji 23
Blokowe modele um ysłu
Jedność poznania i działania
Umysł jako system modułowy
29
Psychologia poznawcza: dziedzina czy para­
dygmat 31
Narodziny i rozwój psychologii poznaw­
czej 31
Psychologia a inne dziedziny badań nad
poznaniem 34
Metody badań nad poznaniem
37
46
Koncepcja poziomów przetw arzania
Sieciowe m odele um ysłu
Podsumowanie
56
53
51
Poznanie to zdolność człowieka i innych gatunków do odbioru informacji
z otoczenia oraz przetwarzania ich w celu skutecznej kontroli własnego
działania, a także lepszego przystosowania się do warunków środowiska.
Poznaniem nazywamy też ogół procesów i struktur psychicznych, biorących
udział w przetwarzaniu informacji.
Psychologia poznawcza to subdyscyplina naukowej psychologii, zajmująca się
badaniem procesów i struktur poznawczych, a także ogólnymi zasadami
funkcjonowania umysłu.
Każda nauka określa swoją tożsamość poprzez przedmiot badań i metodę ich
prowadzenia. Psychologia poznawcza (inaczej: kognitywna) jest częścią
psychologii i zgodnie z tą przynależnością określa przedmiot swoich zaintere­
sowań jako badanie mechanizmów sterujących zachowaniem. Jednak w od­
różnieniu od innych działów tej dyscypliny, psychologia poznawcza zawęża
obszar swoich zainteresowań do mechanizmów poznawczych, a nie np.
emocjonalnych, motywacyjnych, osobowościowych lub społecznych. Problemy
naukowe oczywiście nie dzielą się na poznawcze i inne, w związku z tym
psychologia poznawcza wchodzi w liczne i różnorodne „sojusze badawcze”
z innymi dziedzinami badań psychologicznych, jak też z innymi naukami.
Jednak jej podstawowym zadaniem jest badanie tego, jak ludzie poznają świat
i w jaki sposób owo poznanie określa ich zachowanie w różnych sytuacjach
życia codziennego lub podczas zmagania się z rozmaitymi problemami.
Przedmiotem zainteresowania psychologii poznawczej jest złożony system,
wyspecjalizowany w odbiorze i przetwarzaniu informacji. Zgodnie z coraz
powszechniej stosowaną konwencją terminologiczną, będziemy ten system
nazywać umysłem, chociaż pojęcie to powstało znacznie wcześniej, niż ja­
kiekolwiek próby analizowania poznania w kategoriach przetwarzania informa­
cji. Pamiętajmy jednak, aby tak rozumianego umysłu nie utożsamiać ze
świadomością. Zdecydowana większość procesów badanych przez psychologów
poznawczych to procesy nieświadome. Świadoma część umysłu to raczej wy­
jątek niż reguła, choć wyjątek na tyle interesujący, że stanowi przedmiot
szczególnie intensywnych badań. Na gruncie innych nauk, szczególnie filozofii,
termin „umysł” jest używany w węższym znaczeniu: jako podmiot doznań i myśli
(Hamish, 2002). Zatem umysł w wąskim znaczeniu to świadoma część psychiki,
w której rodzą się subiektywne doświadczenia (np. spostrzeżenia) i która jest
zdolna do uruchomienia procesów myślenia; jest to jak gdyby „miejsce”,
w którym przebiegają nasze myśli. Natomiast umysł w znaczeniu szerszym to po
prostu system odbioru i przetwarzania informacji.
Umysł, zdefiniowany jako system poznawczy, jest przedmiotem zaintere­
sowania wielu nauk humanistycznych, społecznych i biologicznych. Granice
między tymi naukami nie zawsze są możliwe do precyzyjnego określenia, nie
zawsze też owe rozgraniczenia są potrzebne. W każdym razie specyficzność
podejścia reprezentowanego przez psychologię poznawczą wynika ze ścisłego
związku z resztą psychologii. Związek ten ujawnia się poprzez badanie relacji
poznania do innych aspektów funkcjonowania psychiki, takich jak emocje,
motywacja, rozwój psychiczny lub zaburzenia zachowania, jednak przede
wszystkim przejawia się w metodologii badań, opartej na obserwacji zacho­
1.1. Poznanie - umysł - działanie
23
wania i wnioskowaniu na tej podstawie o ukrytych procesach psychicznych. Jest
to podejście typowo psychologiczne. I choć psychologia jako nauka, a zwłaszcza
psychologia poznawcza, coraz śmielej sięga po inne narzędzia badawcze, takie
jak obrazowanie pracy mózgu lub modelowanie procesów poznawczych
z użyciem komputera, nie rozstaje się ze swoim klasycznym instrumentarium
badawczym, którego rdzeniem pozostaje obserwacja zachowania i eksperyment
laboratoryjny.
Niniejszy rozdział zawiera definicje podstawowych pojęć psychologii
poznawczej, rozważania na temat jej głównych obszarów badawczych, a także
podstawowe informacje na temat metodologii badań prowadzonych w tym
obszarze tematycznym.
1.1. Poznanie - umysł - działanie
1.1.1. Umysł jako system przetwarzania informacji
To, co w tradycyjnej psychologii ogólnej traktowane było jako odrębne
jakościowo zjawiska lub procesy psychiczne (np. pamięć, myślenie, wyobraź­
nia), w psychologii poznawczej rozumiane jest raczej w kategoriach różnych faz
procesu przetwarzania informacji. Pojęcie przetwarzania informacji (informa­
tion processing) wywodzi się z cybernetyki, czyli nauki o sterowaniu z wyko­
rzystaniem sprzężenia zwrotnego (Wiener, 1948), oraz z matematycznej teorii
informacji (Shannon, Weaver, 1949; zob. Bechtel, Abrahamsen, Graham, 1998);
ta ostatnia dała teoretyczne podstawy rozwoju informatyki. Na gruncie tych
nauk informację definiuje się jednoznacznie jako redukcję niepewności. Na
przykład przed rzuceniem monetą nie wiemy, czy padnie orzeł, czy reszka. Kiedy
po dokonaniu rzutu stwierdzamy wynik (np. orzeł), redukujemy swą począt­
kową niepewność o połowę. Technicznie rzecz biorąc, uzyskujemy w ten sposób
informację o wartości jednego bita, ponieważ bit to jednostka informacji redu­
kująca naszą wyjściową niepewność dokładnie o połowę. Według formalnego
wzoru:
I = log20 ,
czyli wartość uzyskanej informacji równa się logarytmowi o podstawie 2 z liczby
dostępnych opcji. Jeśli tych opcji jest więcej niż dwie, wartość uzyskanej
informacji przekracza jeden bit. Na przykład wiedząc, że było ośmiu
kandydatów do pracy, a przyjęto Kazimierza, uzyskujemy informację o wartości
I = log28 = 3 bity.
W psychologii pojęcie informacji rozumiane jest w sposób mniej jedno­
znaczny. Zazwyczaj też nie umiemy dokładnie zmierzyć ilości informacji
przetwarzanych przez umysł w określonej sytuacji lub podczas zmagania się
z konkretnym problemem. Nie mamy jednak wątpliwości, że aktywność umysłu
polega na przetwarzaniu informacji. Pomiędzy komunikatem na wejściu
(np. znak „stop”) a reakcją na wyjściu (np. zatrzymanie samochodu) zachodzi
bardzo złożony proces przetwarzania danych. Sześciokątny znak „stop” tyl­
ko dlatego jest dla kierowcy bodźcem wzrokowym, że odbija fale optyczne
£•*
Hozaziat i. umysł i poznanie
0 określonej charakterystyce (długość i amplituda). Te fale, przedostając się do
siatkówki oka, wyzwalają w niej reakcje fotochemiczne. Już w tym momencie
dochodzi do przetwarzania informacji, ponieważ dane w postaci fal optycznych
są kodowane na reakcje fotochemiczne. Następnie, zmiany na siatkówce są
kodowane na impulsy nerwowe, które - jak wiadomo - mają charakter
elektryczny, ponieważ polegają na postępującej depolaryzacji błony aksonu
komórki nerwowej. Impulsy te przewodzą informację do pierwszorzędowej kory
wzrokowej, a następnie do innych fragmentów kory (tzw. kory kojarzeniowej).
W czasie tej wędrówki impuls nerwowy jest przewodzony przez liczne neurony,
a za każdą zmianą neuronu informacja musi być przekodowana, tak aby
nadawała się do przekazania za pośrednictwem innego nośnika. Wynika to
z faktu, że choć impulsy nerwowe mają charakter elektryczny, procesy na
synapsie wymagają reakcji chemicznych, w których uczestniczą tzw. neuroprzekaźniki (np. serotonina, dopamina). W końcu informacja trafia do kory
ruchowej, gdzie jest programowana reakcja kierowcy, przede wszystkim
naciśnięcie hamulca, ewentualnie wysprzęglenie samochodu itp. Za te reakcje
odpowiadają mięśnie szkieletowe, które muszą odebrać i odpowiednio zinter­
pretować rozkaz wysłany przez korę. Mimo pozornej prostoty tego przykładu,
mamy tu do czynienia z procesem wielokrotnego przekodowywania informacji
z jednego formatu na zupełnie inny. Trudno byłoby zaprzeczyć, że między
bodźcem a reakcją dokonuje się przetwarzanie informacji, choć nie umiemy
powiedzieć, ile dokładnie bitów zostało przetworzonych.
Ktoś mógłby zauważyć, że w podanym przykładzie jest mowa o przetwa­
rzaniu informacji przez układ nerwowy, przede wszystkim mózg, podczas gdy
psychologia poznawcza ma ambicję zajmowania się umysłem,, pozostawiając
badanie mózgu neurobiologom. Nie wchodząc w tym miejscu w szczegółowe
dyskusje na temat relacji między umysłem a układem nerwowym, przyjmijmy, że
mózg jako narząd jest materialnym podłożem działania umysłu jako systemu
poznawczego. Nie ma w tym kartezjańskiego dualizmu, wedle którego umysł,
czyli dusza, miałby być niematerialnym bytem istniejącym niezależnie od ma­
terialnego mózgu. Nasze stanowisko jest monistyczne, ponieważ zakłada, że
funkcje umysłowe zachodzą na materialnym podłożu tkanki nerwowej, to
znaczy nie mogą istnieć inaczej niż tylko w ścisłej zależności od procesów
przebiegających w tej tkance1. Umysł i mózg to terminy, które w gruncie rzeczy
odnoszą się do tego samego zjawiska, jakim jest zdolność człowieka i innych
gatunków do poznawania świata. Różnice dotyczą przyjętego poziomu analizy
1 sposobu wyjaśniania zjawisk. Badania nad umysłem wymagają spojrzenia ze
stosunkowo wysokiego poziomu, czyli od strony funkcji poznawczych,
natomiast badania nad mózgiem polegają na prowadzeniu obserwacji działania
poszczególnych neuronów lub ich grup. Psycholog bada funkcje poznawcze,.np.
spostrzeganie lub zapamiętywanie, niekoniecznie wnikając w to, jakie struktury
mózgowe odpowiadają za wykonanie owych funkcji, choć ich lokalizacja
mózgowa może go żywo interesować. Natomiast neurobiolog bada budowę
1 Nie jest to stanowisko światopoglądowe, lecz metodologiczne. Wydaje się ono niezbędne,
przynajmniej na gruncie nauk empirycznych. Uczony może być prywatnie przekonany o istnieniu
niematerialnej duszy, ale jako badacz musi roboczo założyć, że istnieje tylko to, co potrafi zmierzyć
lub zaobserwować, lub o czym może zasadnie wnioskować na podstawie obserwacji lub pomiarów.
1.1. Poznanie —umysł - działanie
25
i aktywność określonych obszarów mózgowia lub naw et pojedynczych
neuronów, nie zawsze wnikając w pełnione przez nie funkcje. Na przykład
badanie propagacji impulsu nerwowego wzdłuż aksonu komórki nerwowej nie
wymaga znajomości funkcji pełnionych przez tę komórkę, podobnie jak badanie
procesów przewodzenia synaptycznego nie zawsze wymaga wiedzy, w jakich
zadaniach poznawczych uczestniczy dana synapsa. Można powiedzieć, że
spojrzenie psychologa jest „odgórne”, to znaczy od strony złożonych funkcji
poznawczych, podczas gdy spojrzenie neurobiologa jest „oddolne”, czyli od
strony elementarnych procesów metabolizmu i przewodzenia komórkowego.
Oczywiście oba spojrzenia logicznie się uzupełniają. Być może w przyszłości
nastąpi ich synteza, o czym może świadczyć intensywny rozwój dyscypliny
zwanej neuronauką poznawczą (cognitive neuroscience).
Wszystkie teoretyczne pojęcia psychologii poznawczej dotyczą tego, w jaki
sposób umysł przetwarza informacje. Niektóre z nich dotyczą odbioru
informacji z otoczenia, inne - ich przechowywania i dokonujących się na nich
transformacji, a jeszcze inne - przekazywania danych z powrotem do otoczenia.
Dlatego niezbędność terminu „przetwarzanie informacji” jest dla psychologów
czymś oczywistym, choć odrzucając techniczną definicję tego pojęcia, musimy
znaleźć inne, bardziej nam odpowiadające określenie. Według Ulrica Neissera
(1967), na procesy przetwarzania informacji składają się wszystkie operacje,
dzięki którym odbierane przez jednostkę bodźce są transformowane, prze­
kształcane, redukowane, wzmacniane, zachowywane, przywoływane lub wy­
korzystywane w jakikolwiek inny sposób. Zadaniem psychologii poznawczej
jest opis tych procesów i pokazanie, w jaki sposób kształtują one zachowanie
człowieka.
Podstawowym założeniem dotyczącym procesów przetwarzania informacji
jest założenie o ekonomii ich przebiegu. W myśl tego założenia, przetwarzanie
wszystkich dostępnych informacji nie miałoby żadnego sensu - większość z nich
i tak jest „bezużyteczna” z punktu widzenia wymagań sytuacji, w jakiej znajduje
się organizm. Co więcej, człowiek nie jest w stanie przetworzyć wszystkich
docierających do niego informacji, nawet gdyby były w pełni użyteczne, ponie­
waż jego umysł cechuje ograniczona pojemność (Duncan, Humphreys, 1989).
Jak piszą Susan Fiske i Shelley Taylor (1991), człowiek to skąpiec poznawczy
(icognitive miser), czyli istota, która z reguły angażuje tylko część dostępnych jej
zasobów poznawczych, jak gdyby zachowując resztę na wszelki wypadek
i chroniąc się w ten sposób przed niebezpieczeństwem przeciążenia systemu.
Koncepcja „skąpca poznawczego” wyjaśnia wiele faktów wskazujących na nie­
zbyt efektywne lub odległe od optymalnego wykonanie rozmaitych zadań
poznawczych. Sposobem na uniknięcie przeciążenia informacyjnego jest se­
lekcja danych, dokonująca się na różnych etapach przetwarzania. Selekcję tę
umożliwia mechanizm zwany uwagą. Ponadto umysł dysponuje zdolnością do
hamowania zbędnych reakcji i procesów mentalnych, co jest możliwe dzięki
procesom kontroli poznawczej. Skutkiem „skąpienia” zasobów poznawczych
jest też wszechobecna w ludzkim poznaniu skłonność do stosowania uprosz­
czonych heurystyk, schematów, stereotypów i innych narzędzi poznawczego
upraszczania rzeczywistości.
Ekonomia działania poznawczego przejawia się także tym, iż człowiek
wielokrotnie wykonujący te same działania tworzy coraz bardziej stabilne
Ci u
ttozaziaf i. umysi i poznanie
i jednocześnie coraz elastyczniejsze struktury poznawcze. W przeciwieństwie do
procesów poznawczych, są to względnie trwałe elementy umysłu, możliwe do
wielokrotnego wykorzystania w różnych warunkach i sytuacjach. Do struktur
poznawczych zaliczamy elementy wiedzy, a ponadto sądy, przekonania i sche­
maty poznawcze. Struktury poznawcze powstają dzięki procesom poznawczym
i w wyniku ich działania, lecz od momentu powstania wpływają zwrotnie na
przebieg tych procesów poznawczych, a niektóre procesy polegają po prostu na
przekształcaniu struktur. Na przykład wiedza tworzy się w wyniku procesów
spostrzegania i zapamiętywania. Jednakże raz wykształcone struktury wiedzy
określają kierunek i przebieg przyszłych procesów spostrzegania oraz przyszłych
procesów zapamiętywania. Z tego punktu widzenia umysł to obszar, w którym
dochodzi do ciągłej i wzajemnej interakcji między procesami a strukturami
poznawczymi. Jako względnie trwałe elementy systemu poznawczego, struktury
muszą być przechowywane w odpowiednich magazynach, w których nie ulega­
łyby degradacji i skąd łatwo byłoby je wydobyć. Jest to możliwe dzięki zdolności
umysłu do przechowywania informacji, zwanej pamięcią.
Rozróżnienie dynamicznych procesów i względnie stabilnych struktur po­
znawczych może budzić wątpliwości, jednak z filozoficznego punktu widzenia
ich sposób istnienia wydaje się zasadniczo różny (Stróżewski, 2004). Natomiast
dla psychologów rozróżnienie to okazuje się szczególnie przydatne wtedy, gdy
rozpatrują rodzaje błędów popełnianych przez ludzi podczas zmagania się z roz­
maitymi zadaniami. Okazuje się, że niektóre pomyłki wynikają z niedosko­
nałości struktur poznawczych, a inne - z niewydolności procesów przetwarzania
informacji. Wyobraźmy sobie, że wykonując ciąg obliczeń matematycznych,
musimy podnieść liczbę 5 do trzeciej potęgi. Prawidłowa odpowiedź brzmi:
53 = 125. Ktoś mógłby podać inną wartość, np. 100, bo pomylił się „w procesie”,
mianowicie najpierw pomnożył 5 przez 5 i otrzymał 25, a następnie pomnożył
tak otrzymany wynik jeszcze raz przez 5, ale błędnie uznał, że 5 razy 25 równa
się 100, a nie 125. Ktoś inny mógłby podać wynik 15, gdyby uznał, że trzecia
potęga jakiejś liczby to z definicji wynik mnożenia tej liczby przez trzy. W drugim
przypadku przyczyną błędu jest brak wiedzy na temat, co to znaczy trzecia
potęga dowolnej liczby, a nie błąd w obliczeniach. Brak wiedzy, a także wiedza
niepełna lub fałszywa, to niedostatek struktur poznawczych, któremu nie
jest w stanie zaradzić choćby najsprawniejszy, najszybszy i bezbłędny proces
poznawczy.
Struktury poznawcze tworzą względnie spójny, dobrze zorganizowany
system, w którym występują procesy kontroli. Kontrola poznawcza to zdolność
systemu do samoorganizacji i samoregulacji. Dzięki procesom kontroli możliwe
jest np. powstrzymanie się od reakcji, ale również jej wyzwolenie we właściwym
momencie. W ten sposób zachowanie człowieka uwalnia się od bezpośredniej
presji ze strony stymulacji zewnętrznej. Procesy kontroli poznawczej powodują
zatem, że nasze działania nie są prostą reakcją na bodźce z otoczenia ani na
impulsy dochodzące z organizmu. W szczególności procesy kontroli odpowia­
dają za zdolność człowieka do samodzielnego inicjowania własnych działań
wyłącznie w wyniku aktywności wewnętrznych stanów psychicznych, a nie
w odpowiedzi na bodźce.
Przetwarzanie informacji dokonuje się na wielu poziomach. Pojęcie po­
ziomów przetwarzania oznacza, iż ta sama informacja może być poddana obrób­
1.1. Poznanie - umysł - działanie
27
ce z różną intensywnością i starannością, czyli jak gdyby na wielu różnych
piętrach przetwarzania danych. Bodźce zewnętrzne mogą być np. interpreto­
wane na poziomie sensorycznym, obejmującym fizyczne właściwości stymulacji,
lub na poziomie semantycznym, odpowiadającym znaczeniu danej stymulacji
lub jej przynależności kategorialnej. Z kolei przedmioty fizyczne mogą być
ujmowane przez system poznawczy w postaci pojęć, ale też w postaci obrazów
umysłowych. To, na jakim poziomie informacja będzie przetworzona, zależy od
wymagań sytuacji lub zadania poznawczego. Może też wynikać z wcześniej
utrwalonego nawyku. W każdym razie wielopoziomowość przetwarzania
informacji jest zjawiskiem powszechnym, czyli odzwierciedla jedną z elemen­
tarnych cech umysłu ludzkiego.
Przetwarzanie jest na każdym poziomie uzależnione od kontekstu, zarówno
zewnętrznego (otoczenia), jak i wewnętrznego (wzbudzonych struktur poznaw­
czych). Obraz zagrażającego przedmiotu bez jego fizycznej obecności (np. zdję­
cie żmii) nie pobudza nas z reguły do ucieczki. Kontekst zewnętrzny sugeruje
bowiem, że to tylko obraz niebezpiecznego zwierzęcia, a nie prawdziwe nie­
bezpieczeństwo. Bywa też, że realnie istniejący obiekt, skądinąd zagrażający,
nie wzbudza reakcji ucieczki ze względu na specyficzny kontekst wewnętrzny.
Na przykład dla hodowcy jadowitych węży widok zwierzęcia nie jest bodźcem
do ucieczki, ponieważ dysponuje on wiedzą o sposobach uniknięcia niebez­
pieczeństwa. Badanie zależności przebiegu procesów poznawczych od kontek­
stu jest jednym z głównych zadań psychologii poznawczej.
Większość psychologów poznawczych uważa, że umysł nie jest prostym
odzwierciedleniem otaczającej go rzeczywistości, lecz aktywnie i samodzielnie
utworzoną konstrukcją. Dzięki konstruktywnej aktywności umysłu powstaje
wewnętrzna, poznawcza reprezentacja świata. Pojęcie reprezentacji jest
jednym z kluczowych terminów psychologii kognitywnej. Używa się go za­
równo w liczbie pojedynczej, na oznaczenie ogólnego obrazu świata w umyśle,
jak też w liczbie mnogiej, w odniesieniu do poszczególnych składników tego
obrazu. W tym drugim znaczeniu można mówić o reprezentacjach werbalnych
lub obrazowych, prostych lub złożonych, odnoszących się do rzeczy lub relacji
itd. Pojęcie reprezentacji poznawczej jest wobec tego synonimiczne w stosunku
do omówionego już pojęcia struktury poznawczej, ponieważ umysł - rozpa­
trywany z perspektywy struktur, a nie procesów - po prostu składa się z licznych
i wzajemnie powiązanych reprezentacji poznawczych (inaczej: mentalnych,
umysłowych). Natomiast umysł rozpatrywany z perspektywy procesów, a nie
struktur, polega na manipulowaniu reprezentacjami umysłowymi świata w taki
sposób, aby informacje docierające czy to ze świata zewnętrznego, czy też
z pamięci można było zinterpretować w świetle dotychczasowej wiedzy (czyli
już istniejących struktur), a następnie wykorzystać je do tworzenia nowych
struktur poznawczych (Harnish, 2002; Maruszewski, 1996).
Poznanie można zatem opisać w postaci cyklu polegającego na aktyw­
nym tworzeniu reprezentacji poznawczych, interpretowaniu napływającej infor­
macji poprzez owe reprezentacje, zmianie treści reprezentacji pod wpływem
napływających danych i z powrotem na interpretowaniu nowych danych
poprzez wcześniej zmienione reprezentacje. W ten sposób dochodzi do ciągłe­
go rozwoju możliwości poznawczych człowieka i poszerzania jego wiedzy
o świecie.
¡¿8
Rozdział 1. Umysł i poznanie
Jak można zdefiniować reprezentację poznawczą? Każda reprezentacja jest
czyimś zastępnikiem. Na przykład piłkarska reprezentacja Polski jest symbo­
licznym zastępnikiem wszystkich Polaków, w których imieniu walczy z innymi
reprezentacjami. Poziom piłkarskiej reprezentacji kraju tylko w przybliżeniu
oddaje lokalny poziom piłki nożnej, a już zupełnie nie oddaje przeciętnej
sprawności fizycznej ludności danego kraju. Wynika to z faktu, że reprezentacje
sportowe są wynikiem starannej selekcji, a nie doboru losowego. Również
poznawcza reprezentacja świata w umyśle tylko w przybliżeniu oddaje prawdzi­
we cechy rzeczywistości istniejącej poza umysłem. Wynika to nie tylko stąd, że
reprezentacja ta jest wynikiem aktywnego konstruowania obrazu świata przez
podmiot, a nie biernego odbicia rzeczywistości, lecz również stąd, że każdy z nas
tworzy własny obraz świata, odpowiadający indywidualnemu doświadczeniu.
Można powiedzieć, że każdy umysł dysponuje swoistą, indywidualną wersją
rzeczywistości fizycznej, społecznej i symbolicznej. Nie ma dwóch osób o tym
samym doświadczeniu indywidualnym, a nawet gdyby były, każda z nich
prawdopodobnie wykorzystałaby to samo kwantum doświadczeń jednostko­
wych w sposób całkowicie odmienny. Dlatego każdy ma indywidualną, nie­
powtarzalną reprezentację świata, bo każdy samodzielnie ją utworzył na pod­
stawie własnych doświadczeń. Taki pogląd na naturę umysłu nazywamy kon­
struktywizmem.
Z powyższego stwierdzenia nie należy wyciągać wniosku, że poznawcze
reprezentacje świata są zasadniczo błędne. Gdyby tak było, nie moglibyśmy
skutecznie działać w świecie, a praktyczna użyteczność naszych reprezentacji
umysłowych byłaby porównywalna do przydatności zupełnie nieadekwatnej
mapy drogowej. Gdyby porównać nasze reprezentacje umysłowe do mapy, była­
by to mapa niedokładna, miejscami mocno zniekształcająca obraz terenu, innym
razem zawierająca elementy nieistniejące w rzeczywistości - ale jednak mapa
zasadniczo adekwatna. Zakładając tak, przyjmujemy, że umysł jest swoistym
„narządem” przystosowania się do rzeczywistości, więc gdyby miał tę rzeczy­
wistość fałszować, byłby zbędny, a zatem - z ewolucyjnego punktu widzenia nie powinien był się w ogóle pojawić. Nie ma natomiast żadnych wątpliwości, że
treść reprezentacji poznawczych jest wybiórcza, podporządkowana celom
pragmatycznym, nieldedy zniekształcona, a zawsze - mocno zindywidua­
lizowana.
Jeśli reprezentacja poznawcza jest zastępnikiem, można ją zdefiniować jako
uproszczony model tego, do czego się odnosi (Palmer, 1978). W związku z tym
poznawcza reprezentacja krzesła jest uproszczonym, zastępczym modelem
prawdziwego krzesła jako pewnej kategorii obiektów lub konkretnego egzem­
plarza tej kategorii. Taka reprezentacja może zawierać proste wyobrażenie
obiektu albo treść pojęcia używanego na określenie tego obiektu. Reprezentacje
innych obiektów, zwłaszcza dotyczących świata społecznego lub innych ludzi
albo skomplikowanych problemów naukowych, mogą zawierać znacznie więcej
informacji, zawsze jednak są uproszczonym modelem tego, co reprezentują.
Dzięki tym upraszczającym zastępnikom umysł może radzić sobie w warunkach,
które przez swą złożoność lub nowość przekraczałyby jego możliwości.
Wszechobecne w psychologii poznawczej pojęcie reprezentacji wywołuje
niekiedy wśród jej przedstawicieli spory o reprezentacjonizm (Harnish, 2002).
1.1. Poznanie - umysł - działanie
29
Jest to stanowisko filozoficzne, zgodnie z którym umysł poznaje świat nie bez­
pośrednio, lecz za pośrednictwem własnych kategorii poznawczych (pojęć,
wyobrażeń, sądów, przesądów itd.). W skrajnym przypadku reprezentacjonizm
może prowadzić do solipsyzmu, czyli poglądu o istnieniu wyłącznie podmiotu,
który poznaje już nie świat, lecz własne miazmaty. Podkreślmy więc, że psy­
cholog poznawczy używa pojęcia reprezentacji nie w sporze o istnienie świata
ani nawet nie w kontekście rozważań nad naturą poznania, lecz w zamiarze
adekwatnego opisu i wyjaśnienia zachowania ludzi poznających świat i rozwią­
zujących rozmaite problemy natury poznawczej. Bez tej kategorii pojęciowej
nasze opisy i wyjaśnienia byłyby znacznie uboższe, a niewykluczone, że wręcz
błędne.
1.1.2. Jedność poznania i działania
Zarzuca się niekiedy psychologii poznawczej, że zajmuje się badaniem „czys­
tego” poznania, oderwanego od realnego kontekstu sytuacyjnego i niezależnego
od jawnego zachowania. Zgodnie z tym szkodliwym stereotypem, psychologia
poznawcza buduje modele idealnych procesów przetwarzania informacji, które
rozgrywają się w nieobserwowalnej „czarnej skrzynce”, pośredniczącej między
sensorycznym „wejściem” a motorycznym „wyjściem” i których związek
z jawnym zachowaniem jest trudny do uchwycenia.
Gdyby tak było, psychologia poznawcza zasługiwałaby rzeczywiście na
bardzo surową krytykę, ponieważ dla każdego uważnego obserwatora zacho­
wania ludzi i zwierząt związek poznania z działaniem ukazuje się jako bardzo
ścisły i wielowarstwowy. U człowieka, podobnie jak u wielu gatunków zwierząt,
obserwujemy np. odruch orientacyjny. Jest to reakcja na wydarzenie nagłe
i nieoczekiwane (głośny dźwięk, nowa sytuacja). Obserwuje się wówczas
znieruchomienie i ukierunkowanie receptorów na odbiór bodźców; za pomocą
specjalistycznej aparatury możemy ponadto zaobserwować zmiany w aktywności
serca i innych narządów ciała. U wielu gatunków zwierząt, podobnie jak
u człowieka, występuje też specyficzna forma działania zwana zachowaniem
eksploracyjnym. Polega ono na aktywnym poszukiwaniu informacji w otoczeniu,
niekoniecznie w odpowiedzi na konkretne zapotrzebowanie. Czynności eksplo­
racyjne często interpretujemy jako przejaw tzw. bezinteresownej ciekawości,
kiedy to organizm dąży do poznawczego opanowania jakiegoś przedmiotu lub
sytuacji jak gdyby na wszelki wypadek albo ze względu na satysfakcjonujące
właściwości samego zachowania badawczego.
Bardzo dużo faktów świadczących o ścisłym związku poznania z działa­
niem zgromadziła psychologia rozwojowa. Rozwój poznawczy człowieka do­
konuje się w ten sposób, że większość czynności poznawczych najpierw ujawnia
się w zachowaniu, aby dopiero potem stopniowo się uwewnętrznić. W wyniku
tego procesu, zwanego interioryzacją, wiele czynności umysłowych dorosłego
człowieka to nic innego, jak symboliczna wersja jawnych czynności poznaw­
czych małego dziecka, oczywiście wersja odpowiednio zmieniona i rozwinięta.
Można powiedzieć, że w trakcie rozwoju poznawczego umysł ewoluuje, prze­
kształcając się z postaci jawnej w postać ukrytą. Prawdopodobnie nie każda
óU
Rozdział 1. Umysł i poznanie
czynność mentalna jest ukrytym odpowiednikiem i pochodną czynności jaw­
nych. Wydaje się, że wiele wyspecjalizowanych modułów poznawczych, takich
jak spostrzeganie twarzy ludzkiej lub automatyczne przywołanie informacji
z pamięci, jest nam danych od razu w postaci mentalnej, ponieważ ich pocho­
dzenie wiąże się z dojrzewaniem określonych struktur nerwowych. Ale nawet te
wyspecjalizowane moduły rozwijają się i dojrzewają dopiero pod wpływem
działania człowieka w określonym środowisku.
W niniejszym podręczniku przyjęto zasadę jedności działania i poznania.
Zgodnie z tą zasadą, każdy akt poznania albo sam jest aktem działania, albo też
jest podporządkowany działaniu. Na przykład zachowanie eksploracyjne samo
w sobie jest aktem działania, natomiast przywołanie informacji z pamięci mimo że samo w sobie nie jest jawnym zachowaniem - w ostatecznym rozra­
chunku służy jakiemuś działaniu, choćby temu, by sensownie odpowiedzieć na
pytanie. Z kolei każde działanie albo jest poznaniem, albo wymaga poznania,
albo też do niego prowadzi. Przez działanie rozumiemy celowe zachowanie
człowieka lub przedstawicieli innych gatunków, a także niektórych systemów
sztucznej inteligencji. Rozróżnienie zachowania reaktywnego, stanowiącego
odpowiedź na bodziec, oraz zachowania celowego, polegającego na dążeniu do
wyróżnionych stanów środowiska lub własnego organizmu, pochodzi z teorii
czynności Tadeusza Tomaszewskiego (1975). Teoretyczne podstawy takiego
rozróżnienia znajdziemy też w koncepcji planów zachowania, rozwiniętej
przez Millera, Galantera i Pribrama (1960). Zgodnie z koncepcją Tomaszew­
skiego, czynnością nazywamy każdy poszczególny przypadek działania, czyli
zachowania celowego. Zgodnie zaś z przyjętą zasadą jedności poznania
i działania, każdy akt poznania jest czynnością. Niektóre czynności poznawcze
stanowią część jawnego, obserwowalnego zachowania organizmu (lub systemu
sztucznego), podczas gdy inne czynności są nieobserwowalne - zinternalizowane lub z natury niedostępne obserwacji. Ale nawet wtedy, gdy czynność
poznawcza nie podlega obserwacji, stanowi część większej sekwencji działań,
rozumianych jako dążenie systemu do wyróżnionych stanów. Takim wyróżnio­
nym stanem może być zdobycie informacji, rozwiązanie problemu, podjęcie
decyzji itd.
Psychologia poznawcza uwzględnia zasadę jedności poznania i działania
na wiele sposobów. Po pierwsze, ściśle wiąże procesy i czynności poznaw­
cze z celowym zachowaniem się organizmów. W tym ujęciu każdy proces
poznawczy to ogniwo w długim łańcuchu czynności, z których jedne są
całkowicie obserwowalne, a inne - całkowicie lub częściowo zinterioryzowane. Po drugie, psychologia poznawcza intensywnie rozwija teoretyczne
modele procesów zarówno na „wejściu do czarnej skrzynki”, jak też „na
wyjściu” z niej. Te pierwsze to procesy percepcji i uwagi, te drugie to procesy
programowania i kontroli czynności motorycznych, ze szczególnym uwzględ­
nieniem programowania i kontroli mowy. Po trzecie, psychologia poznaw­
cza uwzględnia aktywność własną podmiotu poznającego jako czynnik wpły­
wający na przebieg i ostateczny wynik czynności poznawczych. Zgodnie z tym
ujęciem, umysł przetw arza przede wszystkim te informacje, które sam
„pobrał” z otoczenia w wyniku czynności eksploracyjnych, oraz te, które
są mu potrzebne do zaprogramowania czynności motorycznych „swojego”
organizmu.
1.2. Psychologia poznawcza: dziedzina czy paradygmat
31
1.2. Psychologia poznawcza: dziedzina czy paradygmat
1.2.1. Narodziny i rozwój psychologii poznawczej
Na początku lat 80. XX w. przeprowadzono badania ankietowe wśród
psychologów amerykańskich. Zapytano ich, z którym ze współczesnych
kierunków psychologii się identyfikują. Ponad trzy czwarte ankietowanych
zadeklarowało, że reprezentuje psychologię poznawczą (Eysenck, 1983). Wyniki
te wydają się bardzo symptomatyczne, m.in. dlatego, że uzyskano je w kraju,
w którym narodziły się lub osiągnęły apogeum swego rozwoju trzy najważniej­
sze nurty współczesnej psychologii: neopsychoanaliza społeczna, neobehawioryzm i psychologia humanistyczna. Co skłoniło tak znaczną liczbę uczonych,
aby określić swoją tożsamość przez akces do psychologii poznawczej?
Wydaje się, że odpowiedź zawiera się w rozróżnieniu kierunku i dziedziny
badań psychologicznych. Kierunek (prąd, nurt) psychologiczny to szczególny
wzorzec uprawiania nauki, swoisty ze względu na podstawowe pojęcia,
założenia metateoretyczne, metodologię i rodzaj stawianych pytań badawczych.
Jest to pojęcie bliskie wprowadzonemu przez Thomasa Kuhna (1970) terminowi
paradygmat. Natomiast dziedzina lub obszar badań to po prostu określone pole
problemowe, czyli zestaw pytań badawczych o naturę wybranego zbioru
zjawisk. Rzecz jasna, ani stawiane pytania, ani nawet zbiór badanych zjawisk
nie wiszą w teoretycznej próżni. Pewne pytania przestają być ważne po zmianie
paradygmatu, inne z kolei zyskują sens i znaczenie dopiero w szerszym
kontekście teoretyczno-metodologicznym. Mimo to w każdym z ważniejszych
kierunków myśli psychologicznej stawia się dość podobne pytania i rozwiązuje
porównywalne problemy. Jeśli więc prawie wszyscy badacze, zajmujący się ta­
kimi zjawiskami, jak spostrzeganie, uczenie się, uwaga, pamięć, język, myślenie,
rozwiązywanie problemów i podejmowanie decyzji, nazywają siebie psycho­
logami poznawczymi, to znaczy, że identyfikują się poprzez dziedzinę, a nie
paradygmat. Inaczej mówiąc, akces do psychologii poznawczej jest w dużej
mierze niezależny od teoretycznego i metodologicznego podejścia do rozważa­
nych zagadnień. Jest tym samym niezależny od reprezentowanego kierunku
czy też nurtu psychologicznego.
Współczesną psychologię poznawczą należy uznać raczej za obszar badań
psychologicznych, choć wcześniej uważano (np. Tomaszewski, 1980; Kozielecki, 1978), że to kierunek lub paradygmat. Istotnie, wczesne teorie poznawcze,
np. koncepcja Ulrica Neissera (1967) lub George’a Kelly’ego (1955), nosiły
wszelkie znamiona nowego paradygmatu badawczego, będącego w opozycji
przede wszystkim wobec neobehawioryzmu, choć do pewnego stopnia również
wobec psychologii dynamicznej. Były to ogólne koncepcje psychologiczne,
mające ambicje opisania i wyjaśnienia całości problematyki psychologicznej
w języku procesów przetwarzania informacji (Kozielecki, 1978). Obecnie
obserwujemy wyraźne odejście od prób tworzenia ogólnych koncepcji psycho­
logicznych na rzecz badania wybranych problemów z zakresu poznania i pozna­
wania. Tak więc współczesna psychologia poznawcza jest raczej dziedziną
badań niż spójnym paradygmatem teoretyczno-metodologicznym. Stąd, jak
uważa Michael Eysenck (1983), czasem łatwiej jest określić, czym psychologia
poznawcza się nie zajmuje, niż wskazać dokładnie obszar jej zainteresowań.
Kozaziai i. umysł i poznanie
Istnieje jednak pojęcie wspólne wszystkim koncepcjom i teoriom z obszaru
poznawczego. Jest to pojęcie procesów poznawczych lub inaczej - procesów
przetwarzania informacji. Wagę dokładnej analizy procesów poznawczych
podkreślają wszyscy psychologowie poznawczy, niezależnie od własnej orien­
tacji badawczej i od stosowanej na własny użytek definicji psychologii
poznawczej.
Historia nauki, podobnie jak historia powszechna, to raczej ciąg powolnych
procesów niż pojedyncze wydarzenia. Mimo to historię często opisuje się
poprzez wydarzenia, szczególnie te, które mają znaczenie przełomowe lub
symboliczne. Zdaniem Margaret Matlin (1994), większość psychologów za
umowną datę powstania psychologii poznawczej uznaje rok 1956. Wówczas to
w Massachusetts Institute of Technology (MIT) odbyło się pierwsze sympozjum
kognitywne, o którym George Miller napisał później, że napełniło go „silnym
przekonaniem, bardziej intuicyjnym niż racjonalnym, że psychologia ekspery­
mentalna, lingwistyka teoretyczna i komputerowa symulacja procesów pozna­
wczych to kawałki większej całości” (za: Matlin, 1994, s. 6). Tą całością okazała
się wkrótce kognitywistyka, której psychologia poznawcza jest do dziś istotną
częścią. Rok 1956 był zresztą ważny również dlatego, że autor tych słów
opublikował wówczas klasyczny, ważny do dzisiaj artykuł o ograniczeniach
pamięci krótkotrwałej (Miller, 1956).
Trzy lata później ukazała się słynna praca Noama Chomsky’ego (1959).
Rzadko się zdarza, aby recenzja cudzej książki stała się sama w sobie
klasycznym dziełem naukowym. Recenzję, którą napisał Chomsky na temat
książki Skinnera Verbal Behavior, należy więc uznać za rzecz najzupełniej
wyjątkową. W pracy tej autor wykazał nieadekwatność teorii bodźca i reakcji do
wyjaśniania zachowań werbalnych człowieka. Przy okazji Chomsky zaatakował
behawioryzm jako model nauki o człowieku, wywodzący się z tradycji logicz­
nego pozytywizmu. Stwierdził, że terminy używane przez Skinnera, jeśli rozu­
mieć je literalnie, zupełnie nie nadają się do opisu tego, jak ludzie mówią, choć
- być może - nadają się do opisu zachowania gołębi w ściśle kontrolowanych
warunkach eksperymentalnych. Jeśli natomiast terminy te rozumieć metafo­
rycznie, ich użycie nie wnosi niczego nowego ponad to, co oferują wyjaśnienia
potoczne. Podstawowy zarzut Chomsky'ego wobec behawiorystów sprowadzał
się do tego, że lekceważą oni rolę wewnętrznych stanów umysłu w sterowa­
niu zachowaniem.
Rok wcześniej brytyjski badacz Donald Broadbent (1958) opublikował
książkę o ograniczeniach w przetwarzaniu informacji, wynikających z małej
pojemności systemu uwagi. Badania prowadził już od lat 40. XX w., kiedy to - pod
wpływem potrzeb wojennych - zainicjowano badania nad tzw. czynnikiem
ludzkim, czyli wpływem ograniczonych możliwości umysłu ludzkiego na nie­
zawodność obsługi skomplikowanego sprzętu technicznego. Dojrzałość teoretycz­
ną i metodologiczną uzyskała psychologia poznawcza w 1967 r., kiedy to Ulric
Neisser (1967) opublikował pierwszy systematyczny podręcznik tej dyscypliny.
Jeśli natomiast analizować rozwój psychologii poznawczej nie od strony
spektakularnych wydarzeń, lecz od strony procesów historycznych, trzeba
wskazać na kilka uwarunkowań. Po pierwsze, w latach 50. XX w. dla więk­
szości psychologów stało się jasne, że radykalne koncepcje behawiorystyczne,
próbujące opisywać i wyjaśniać zachowanie człowieka w języku ściśle obser­
1.2. Psychologia poznawcza: dziedzina czy paradygmat
33
wacyjnym, czyli w kategoriach związków typu bodziec-reakcja (S-R), poniosły
porażkę. Wprowadzenie między bodźce a reakcje tzw. zmiennych pośredni­
czących, oznaczanych literą O (od organism), niewiele w gruncie rzeczy
zmieniło. Model S-O -R jest wprawdzie mniej podatny na krytykę niż pierwot­
ny model S-R, ale pamiętajmy, że tajemniczym symbolem „O” oznaczano
przede wszystkim zjawiska związane z fizjologią organizmu, np. popędy
i potrzeby. Z punktu widzenia rodzących się wówczas nauk kognitywnych
było to ustępstwo idące w dobrym kierunku, lecz zdecydowanie zbyt skrom­
ne. Behawioryści, nawet umiarkowani, unikali „mentalistycznych” terminów
i konstruktów teoretycznych, wkładając je wszystkie do tajemniczej „czarnej
skrzynki”. Natomiast kognitywiści marzyli o tym, aby tę skrzynkę otworzyć
i zobaczyć, co zawiera. Dopiero późniejsze prace wywodzące się z nurtu behawiorystycznego, np. monografia Berlyne’a (1969) o myśleniu, na serio zajęły
się procesami poznawczymi, opisując je jako ciąg symbolicznych bodźców
i reakcji.
Behawiorystyczny model opisu zachowania okazał się zatem za ciasny dla
badaczy mających ambicje badania wewnętrznych stanów umysłu. Okazał się
również niezbyt zdolny do wyjaśnienia faktu, że człowiek jest podmiotem
i sprawcą swoich zachowań. Istotą behawiorystycznej koncepcji człowieka była
i pozostała idea zewnątrzsterowności, to znaczy podporządkowania człowieka
działaniu czynników zewnętrznych (bodźców, wzmocnień itd.). Dopiero
psychologia poznawcza „przywróciła” człowiekowi kontrolę nad własnym
zachowaniem, choć nie neguje faktu, że ludzie bardzo często podporządkowują
swe działania czynnikom zewnętrznym, nawet nie zdając sobie z tego sprawy.
Problem kontroli i samokontroli zachowania wydaje się jednym z centralnych
zagadnień psychologicznych, co psychologia poznawcza od samego początku
uznała, wprowadzając odpowiednie konstrukty teoretyczne i opracowując
stosowne procedury badawcze. Nie zapominajmy jednak, że niektórzy badacze
bliscy behawioryzmowi są do dziś uznawani za prekursorów kognitywizmu.
Wskazać tu należy przede wszystkim Edwarda Tolmana, który już w latach 30.
XX w. wprowadził pojęcie map poznawczych i oczekiwań jako czynników
wewnętrznych zdolnych modyfikować związki typu bodziec-reakcja. Innym
ważnym autorem jest Donald O. Hebb (1949), który opisał działanie tzw.
zespołów komórkowych; pomysł ten dał początek późniejszemu rozwojowi
sieciowych modeli umysłu (zob. rozdz. 1.3.4). Poza tym behawioryści mają
olbrzymie zasługi w „unaukowieniu” psychologii. Można zaryzykować tezę, że
choć kognitywiści zasadniczo zmienili przedmiot zainteresowania psychologii,
zachowali behawiorystyczną dbałość o metodologię badań, ze szczególnym
uwzględnieniem koncentracji na jawnym zachowaniu jako podstawie wniosko­
wania o ukrytych procesach umysłowych.
Ważną przesłanką powstania i rozwoju podejścia poznawczego były prace
Jeana Piageta o rozwoju poznawczym dzieci. Jedną z centralnych idei tego
szwajcarskiego psychologa i filozofa była teza, że rozwój jest równoważeniem
struktur poznawczych. Podmiot asymiluje nowe informacje z otoczenia za
pomocą wrodzonych lub wcześniej opanowanych schematów poznawczych.
Asymilacja trwa dopóty, dopóki schemat nie utraci swej przydatności. W pew­
nym momencie dalsze korzystanie ze schematu staje się niemożliwe - zachodzi
wówczas stan nierównowagi. Jej przywrócenie wymaga zmiany samego
l i i
n u £ U £ ic t i x . u i u y s i i p u z i i o i i i e
schematu, czyli akomodacji. Rozwój poznawczy to nic innego jak nieustający
ciąg asymilacji i akomodacji, dzięki czemu na podstawie starych schematów
poznawczych tworzą się nowe, bardziej dostosowane do zadań, a także bardziej
złożone i wydajne. Ponadto, zdaniem Piageta, rozwój wymaga własnej aktyw­
ności podmiotu. Człowiek rozwijający się jest swego rodzaju badaczem: musi
sam, w wyniku obserwacji i doświadczeń, dojść do tego, że istniejące schematy
stały się nieadekwatne i wymagają akomodacji. Rozwój poznawczy jest więc dla
Piageta analogiczny do procesu badania naukowego; tę samą myśl znajdziemy
u George’a Kelly’ego, który wprowadził do psychologii określenie człowieka
jako „badacza z ulicy”. Trzecia ważna myśl Piageta to teza o konstruktywistycznej naturze poznania. Człowiek nie tyle odbiera informacje z otoczenia,
ile samodzielnie konstruuje wewnętrzny obraz świata. Ten wewnętrzny obraz,
czyli reprezentacja świata w umyśle, jest zazwyczaj tylko częściowo trafny.
Wynika to z faktu, że stanowi raczej samodzielną budowlę niż bierne odbicie
rzeczywistości. Jak widać, idee Piageta czynią go jednym z prekursorów
poznawczego podejścia w psychologii. Bez takich pojęć, jak schemat poznaw­
czy, aktywność podmiotu i konstruktywny charakter poznania, trudno byłoby
sobie wyobrazić współczesną psychologię poznania i poznawania.
Podejście poznawcze było również inspirowane znaczącymi wydarzeniami
mającymi miejsce poza psychologią. Zwróciliśmy już uwagę na doniosłość
językoznawczych prac Chomsky’ego. Nie mniej ważny był rozwój technologii
i teorii informatycznych (Shannon, Weaver, 1949) oraz cybernetycznych (Wie­
ner, 1948). Rozwój ten pozwolił na wykorzystanie komputerów w sterowaniu
eksperymentami i obliczaniu wyników badań oraz - co być może okazało się
nawet istotniejsze - umożliwił komputerową symulację procesów poznawczych.
Dzięki temu współczesna psychologia poznawcza coraz bardziej łączy klasyczne
badania empiiyczne z komputerowym modelowaniem procesów umysłowych.
Nie bez znaczenia były też nowe idee na gruncie filozofii umysłu, przede
wszystkim prace Jerry’ego Fodora (1975, 1983), Daniela Dennetta (1991)
i Patricii Churchland (1986). Prace te dały nowy impuls starym sporom o relacje
między umysłem a mózgiem, psychologom zaś unaoczniły doniosłość prob­
lematyki świadomości, skutecznie wyrugowanej z psychologii w okresie
panowania behawioryzmu.
1.2.2. Psychologia a inne dziedziny badań nad poznaniem
Poznaniem i poznawaniem interesują się liczne nauki wywodzące się z różnych
tradycji teoretycznych i metodologicznych. Najwcześniej rozwiniętą i najbardziej
szacowną jest niewątpliwie epistemologia, czyli filozoficzna teoria poznania
(Woleński, 2000, 2001, 2003). Jej przedstawiciele zajmują się podstawowymi
problemami ludzkiego poznania, takimi jak źródła i charakter wiedzy oraz teoria
prawdy. Początkowo teoria poznania rozwijała się jako nauka spekulatywna,
pomocniczo wykorzystując logikę i potoczne obserwacje. W miarę rozwoju nauk
szczegółowych epistemologia coraz bardziej korzystała z dorobku fizjologii,
psychologii, medycyny, językoznawstwa i innych dyscyplin.
Intensywnie obecnie rozwijanym działem filozofii zajmującym się pozna­
niem jest filozofia umysłu (zob. Graham, 1998). W ramach tej dyscypliny bada
1.2. Psychologia poznawcza: dziedzina czy paradygmat
35
się np. klasyczny problem psychofizyczny. Problem ten, w dawnych wiekach
definiowany jako problem relacji między materialnym ciałem a niematerialną
duszą, obecnie jest raczej stawiany jako kwestia relacji między mózgiem a świa­
domością. Chodzi w szczególności o to, w jaki sposób mózg generuje świadome
stany psychiki, a także jaka jest funkcja i pochodzenie tzw. ąualiów, czyli
jakościowo swoistych, subiektywnych stanów świadomości.
Szczególne podejście do badań nad poznaniem reprezentuje sztuczna
inteligencja. Dziedzina ta zajmuje się konstruowaniem systemów komputero­
wych zdolnych do wykonywania poszczególnych czynności poznawczych. Już
w latach 50. XX w. powstały pierwsze programy, których zadaniem była sy­
mulacja ludzkich procesów poznawczych, takich jak dowodzenie twierdzeń lub
rozwiązywanie problemów. Później rozwinęły się badania nad rozpoznawaniem
wzorców {pattern recognition), użyteczne w różnych dziedzinach życia prak­
tycznego. Sztuczna inteligencja może być uprawiana na dwa sposoby. W pierw­
szej wersji to po prostu dziedzina nauk inżynieryjnych, a jej celem jest kon­
struowanie inteligentnych systemów, które mogłyby być wykorzystane w prak­
tyce. W wersji drugiej chodzi o konstrukcję systemów udatnie naśladujących
procesy poznawcze ludzi. W pierwszym przypadku kryterium sukcesu jest
praktyczna użyteczność systemu, w drugim - możliwości jego wykorzystania
w celu prowadzenia podstawowych badań nad poznaniem. Modelowanie kom­
puterowe, wymienione przez Allporta (1996) jako czwarta grupa metod ba­
dawczych w psychologii poznawczej (zob. rozdz. 1.2.3), jest bardzo bliskie
drugiej wersji sztucznej inteligencji.
Najpełniejszy program badawczy cechuje interdyscyplinarną dziedzinę
badań nad poznaniem, zwaną kognitywistyką (cognitive science). Według tzw.
raportu Sloane’a, sporządzonego w 1978 r. (zob. Hamish, 2002), kognitywistyka jest próbą syntezy problematyki uprawianej przez sześć tradycyjnych
dyscyplin akademickich: filozofię, psychologię, językoznawstwo (lingwistykę),
informatykę, antropologię2 i neuronaukę (Bechtel i in., 1998). Nie wszystkie
tematy badawcze podejmowane na gruncie owych dyscyplin dotyczą poznania.
W przypadku filozofii poznaniem interesują się epistemolodzy, logicy i filozo­
fowie umysłu. Na gruncie psychologii badania nad poznaniem prowadzą psy­
chologowie poznawczy, ale też wielu neuropsychologów, psychofizjologów,
psychologów rozwojowych i społecznych. W przypadku pozostałych nauk także
można stwierdzić, że choć niektóre problemy ściśle wiążą się z poznaniem
i poznawaniem, inne są od tej tematyki dość odległe. Zatem tylko część każdej
z wymienionych dyscyplin wchodzi w skład kognitywistyki tworząc swoistą
wartość dodaną. Rycina 1.1 pokazuje sześciokąt, którego wierzchołki - re­
prezentujące tradycyjne dyscypliny akademickie - połączono zgodnie z istnie­
jącymi powiązaniami badawczymi. Tak więc linia nr 1 reprezentuje cybernetykę,
linia nr 2 - neurolingwistykę, linia nr 3 - neuropsychologię, linia nr 4 2 Antropologia to nazwa co najmniej trzech różnych dyscyplin naukowych. Jako część filozofii
antropologia jest ogólną refleksją nad naturą człowieka. Na gruncie nauk biologicznych antropologia
zajmuje się badaniem człowieka jako gatunku, ze szczególnym uwzględnieniem naturalnej ewolucji
Homo sapiens. Jaka część socjologii antropologia - zwana kulturową - zajmuje się badaniem
kulturowych uwarunkowań ludzkich zachowań i kulturowym zróżnicowaniem struktur społecznych.
Częścią kognitywistyki jest niewątpliwie antropologia kulturowa, choć nie bez znaczenia są też
osiągnięcia antropologii biologicznej w zakresie ewolucji mózgu i jego funkcji.
oo
Jttozaziai i . um ysf i poznanie
komputerowe symulacje procesów poznawczych, linia nr 5 - „obliczeniową”
lingwistykę, linia nr 6 - psycholingwistykę, linia nr 7 - filozofię psychologii, linia
nr 8 - filozofię języka, linia nr 9 - lingwistykę antropologiczną, linia nr 10 antropologię poznawczą, a linia nr 11 - badania nad ewolucją mózgu (Bechtel
i in., 1998).
filozofia
Ryc. 1.1. Sześciokąt nauk kognitywnych (za: Bechtel i in., 1998, s. 70).
Program badawczy kognitywistyki polega nie tyle na uprawianiu wszystkich
wymienionych dyscyplin szczegółowych, ile na rozwijaniu lub powoływaniu do
życia tych obszarów badawczych, które znajdują się między wierzchołkami
sześciokąta. Niektóre z nich są już intensywnie uprawiane, inne dopiero czekają
na swój rozwój. Szczególnie interesujące perspektywy wiążą się z powołaniem
obszarów badawczych uwzględniających łącznie więcej niż dwie z sześciu
dyscyplin wyjściowych. Na przykład na styku filozofii, psychologii i lingwistyki
można podejmować problemy badawcze dotyczące natury języka i jego użycia
w różnych zadaniach poznawczych (Hamish, 2002). Podobnie na styku filozofii,
psychologii i informatyki można prowadzić interesujące badania nad kompute­
rowym modelowaniem kontroli poznawczej i świadomości. Obecny stan
1.2. Psychologia poznawcza: dziedzina czy paradygmat
37
kognitywistyki jest jednak dość daleki od tak wytyczonego celu ze względu na
to, że każda z wymienionych dyscyplin posługuje się ciągle swoistą metodologią
i dość specyficznym językiem (zob. Duch, 1998).
1.2.3. Metody badań nad poznaniem
Psychologowie poznawczy przejawiają różne orientacje metodologiczne, dlatego
są zwolennikami różnorodnych metod badania procesów i struktur umysło­
wych. Allport (1996) wyróżnia cztery podstawowe grupy metod badawczych.
Pierwsza grupa obejmuje metody polegające na obserwacji i rejestracji
wykonania zwykłych, codziennych, dobrze wyuczonych czynności poznaw­
czych, takich jak mówienie na określony temat, słuchanie cudzej wypowiedzi,
czytanie itd. Analizuje się głównie błędy popełniane przez badanych w trakcie
wykonywania rejestrowanych czynności. W wyniku takiego postępowania otrzy­
muje się raport zawierający poznawczą charakterystykę obserwowanej czyn­
ności (np. tworzące ją etapy), rodzaj procesów poznawczych zaangażowanych
w wykonanie czynności (np. uwaga selektywna, pamięć semantyczna) oraz
źródło błędów (np. dekoncentracja, brak dostępu do zasobów pamięci). Raport
taki może sporządzić sama osoba badana, mamy wtedy do czynienia z tzw.
samoopisem (self-report). Najczęściej jednak raport sporządza niezależny ba­
dacz. Niekiedy w wyniku takiego postępowania powstaje studium przypadku
(case study), czyli opis działania konkretnej osoby albo grupy osób (np. firmy),
utworzony na podstawie obserwacji działania tej osoby w naturalnych w arun­
kach życia codziennego.
Drugą metodą badania przebiegu procesów przetwarzania informacji jest
eksperyment laboratoryjny. Eksperymenty zwykle prowadzi się z udziałem
„naiwnych”, czyli niedysponujących specjalistyczną wiedzą, osób badanych.
Uczestnicy eksperymentu są proszeni o wykonywanie różnego rodzaju prostych
zadań poznawczych, wymagających np. porównywania bodźców lub decydo­
wania, czy określony bodziec był prezentowany wcześniej. W przeciwieństwie
do obserwacji w warunkach naturalnych, eksperymenty laboratoryjne są
zazwyczaj prowadzone w warunkach sztucznych, choć dokłada się starań, by
warunki te jak najbardziej zbliżyć do realnych sytuacji życiowych. Nienaturalne
i niezwykle uproszczone są również typowe zadania eksperym entalne.
W zamian za nieuniknioną sztuczność sytuacji laboratoryjnej uzyskuje się
możliwość dokładnej kontroli przebiegu eksperymentu, w tym kontrolę nad
rodzajem prezentowanych bodźców i czasem ich prezentacji. Eksperyment
umożliwia też precyzyjną rejestrację reakcji osób badanych, a zwłaszcza czasu
reakcji, na podstawie którego wnioskuje się o przebiegu ukrytych procesów
poznawczych. Analizie podlega przede wszystkim średni czas reakcji, potrzeb­
ny osobie badanej na udzielenie prawidłowej odpowiedzi, choć niekiedy inte­
resujące są również inne wskaźniki chronometryczne (np. maksymalny lub
minimalny czas reakcji albo indywidualna zmienność czasu reagowania). D ru­
gim, obok czasu reakcji, wskaźnikiem interesującym badaczy jest poprawność
odpowiedzi, wyrażona zwykle w procentach maksymalnego wyniku możliwego
do uzyskania w danych warunkach. Coraz częściej tego typu analizy są
wzbogacane o badania neurobiologiczne (Sternberg, 1996). Możliwa jest np.
óo
Rozdział 1. Umysł i poznanie
równoległa rejestracja EEG, czasu reakcji i błędów popełnianych w trakcie
wykonania zadania.
Kolejną metodą psychologii poznawczej są badania kliniczne z udziałem
pacjentów z upośledzeniem poszczególnych zdolności poznawczych. Przyczyną
upośledzenia jest uszkodzenie niektórych obszarów mózgowia w wyniku
wylewu, urazu mechanicznego lub operacji neurochirurgicznej. Przypadki tego
rodzaju są dla nauki bezcenne, ponieważ powstają w wyniku swoistego „eks­
perymentu” - niezaplanowanego i okrutnego dla osoby badanej, ale badawczo
intrygującego. Z oczywistych względów nie można zdrowej osobie uszkodzić
wybranych fragmentów mózgu, aby sprawdzić, w jaki sposób zmieni to jej
zdolności poznawcze. Natura, dokonując takiego „eksperymentu”, pokazuje
nam rolę poszczególnych obszarów mózgu w sterowaniu zachowaniem.
Pokazuje też, jak działają poszczególne funkcje poznawcze, ponieważ nic tak
nie mówi o przebiegu jakiegoś procesu, jak jego niewydolność w wyniku
uszkodzenia. Dzięki obserwacjom klinicznym stwierdzono np., że pamięć
krótkotrwała nie przekazuje danych do pamięci długotrwałej natychmiast
i automatycznie, lecz z pewnym opóźnieniem, co wynika z działania wyspe­
cjalizowanego mechanizmu, umiejscowionego w strukturze mózgu zwanej
hipokampem. Pewną odmianą podejścia klinicznego są badania nad poznaw­
czym starzeniem się, w których również obserwuje się deficyty poznawcze
u wybranej grupy osób (w tym wypadku u osób starszych). Badania tego rodzaju
wymagają zazwyczaj porównania między grupą seniorów a równoważną pod
względem wieku i wykształcenia grupą kontrolną. Takich porównań nie zawsze
można dokonać w przypadku pacjentów; na przeszkodzie stoi zazwyczaj
niewielka liczebność grup klinicznych.
Ostatnią z wyróżnionych przez Allporta (1996) metod badawczych jest
symulacja komputerowa, czyli modelowanie poszczególnych procesów poznaw­
czych w postaci klasycznego programu komputerowego lub sztucznej sieci
neuropodobnej. Komputerowy model procesu poznawczego jest szczególną
postacią teorii naukowej opisującej ów proces. Badacz tworzy sztuczny system
zdolny do wykonywania określonych zadań, a następnie porównuje wyniki
działania tego systemu z zachowaniem człowieka. Jeśli w wyniku porównania
badacz stwierdza daleko idącą zgodność poziomu wykonania, a zwłaszcza liczby
i rodzaju popełnianych błędów, może uznać model komputerowy za wystar­
czająco wierną symulację naturalnych procesów poznawczych. A ponieważ
model został stworzony przez badacza, jest mu dokładnie znany pod względem
swej architektury i sposobu działania. Badacz może wówczas stwierdzić, że to,
co nieznane, czyli działanie umysłu ludzkiego, wolno mu opisać poprzez to, co
znane, czyli działanie programu komputerowego lub sieci neuropodobnej. Wia­
domo, że podobieństwo dwóch systemów na wyjściu, to znaczy podobieństwo
pod względem poziomu wykonania zadania, nie musi wynikać z podobieństwa
sposobu działania obu systemów, ponieważ ten sam wynik końcowy można
uzyskać na wiele sposobów. Dlatego powyższe rozumowanie jest wysoce
ryzykowne: umysł ludzki może, ale nie musi działać tak jak system sztuczny,
dlatego model komputerowy można przyjąć za teorię procesu poznawczego
tylko z pewnym prawdopodobieństwem. Jednak korzyści poznawcze wynikające
z modelowania komputerowego wydają się oczywiste, lepiej bowiem dyspono­
wać prawdopodobną teorią przebiegu procesu umysłowego, niż nie dysponować
1.2. Psychologia poznawcza: dziedzina czy paradygmat
39
żadną. Ponadto klasyczne badania empiryczne też nie dają wiedzy pewnej, a je­
dynie wiedzę prawdopodobną, ponieważ wnioskowanie z danych empirycznych
o nieobserwowalnych procesach umysłowych jest z natury rzeczy zabiegiem
poznawczo ryzykownym.
Kategoryzację Allporta należałoby uzupełnić o metody obrazowania pracy
mózgu (Buckner, Petersen, 1998). Choć rozwinięte na gruncie nauk medycz­
nych i neurobiologicznych, metody te znajdują coraz szersze zastosowanie
w badaniach z zakresu psychologii poznawczej. Obecnie wykorzystuje się dwie
techniki z tego obszaru: skanowanie techniką emisji pozytonów (positon emmision tomography, PET) oraz funkcjonalny rezonans magnetyczny (functional
magnetic resonance imaging, fMRI). W obu przypadkach rejestruje się aktyw­
ność metaboliczną różnych obszarów mózgu. Technika PET pozwala na
rejestrację poziomu ukrwienia, a technika fMRI - na rejestrację poziomu zuży­
cia tlenu w wybranych obszarach mózgu. Zakłada się, że wzrost przepływu krwi
lub większe zużycie tlenu sygnalizują wzmożoną aktywność określonych
obszarów mózgowia. Jeśli więc damy osobie badanej do rozwiązania jakieś
zadanie poznawcze, a następnie posłużymy się jedną z metod obrazowania,
możemy obserwować, które obszary mózgu są szczególnie aktywne w czasie
wykonywania tego zadania. Dzięki temu możemy poznać mózgową lokalizację
interesujących nas funkcji poznawczych, np. wybranych rodzajów pamięci.
Możemy też poznać różnice w zakresie aktywności mózgu między osobami
mniej i bardziej wprawnymi w wykonywaniu tychże zadań, jak też między
osobami młodszymi i starszymi, zdrowymi i chorymi albo mniej i bardziej inte­
ligentnymi. Co więcej, na podstawie obrazowania pracy mózgu można we­
ryfikować konkurencyjne modele teoretyczne wybranych czynności poznaw­
czych. Wiemy na przykład, że różne zadania angażujące pamięć uaktywniają
różne obszary mózgu, co wyraźnie sugeruje, że pamięć nie jest zjawiskiem
jednolitym, to znaczy różne grupy procesów pełnią odmienne funkcje w czyn­
nościach pamięciowych. Weryfikacja konkurencyjnych teorii wyłącznie na pod­
stawie danych z obserwacji zachowania nie zawsze jest możliwa. Wadą technik
obrazowania jest jednak stosunkowo słaba rozdzielczość czasowa, wynosząca
kilka sekund w przypadku fMRI i aż ok. pół minuty w przypadku PET.
Większość elementarnych procesów poznawczych trwa mniej niż sekundę, np.
przeczytanie słowa zajmuje nam ok. 500 ms. Wobec tego słaba rozdzielczość
czasowa technik neuroobrazowania stanowi poważną przeszkodę w ich
wykorzystaniu do badania przebiegu procesów umysłowych.
Niezależnie od rodzaju zastosowanej metody, kluczem do uzyskania
odpowiedzi na interesujące badacza pytanie jest skrupulatna analiza zachowa­
nia osoby badanej, a zwłaszcza rejestracja poziomu wykonania przez nią
zadania poznawczego. Poziom wykonania zadania odzwierciedla bowiem jakość
realizujących to zadanie procesów przetwarzania informacji. Analiza poziomu
wykonania zadania musi więc być prowadzona tak, aby możliwa była ilościowa
oraz jakościowa charakterystyka poszczególnych procesów przetwarzania
informacji odpowiedzialnych za wykonanie zadania. W przypadku metody
obserwacji, eksperymentu laboratoryjnego i badań klinicznych analiza poziomu
wykonania zadania jest jedynym efektem postępowania badawczego, natomiast
w przypadku modelowania i neuroobrazowania dane behawioralne są nie­
zbędnym elementem całej procedury badawczej. Bez analizy wykonania zadań
4U
Rozdział 1. Umysł i poznanie
przez żywych ludzi nie byłoby możliwe komputerowe symulowanie procesów
poznawczych, a obrazowanie pracy mózgu utraciłoby psychologiczny sens (choć
zachowałoby sens z punktu widzenia biologii czy medycyny). Dlatego tak ważne
w psychologii poznawczej jest właściwe wykorzystanie wskaźników wykonania
przez osobę badaną przedstawionych jej zadań umysłowych. Najważniejsze
wskaźniki to czas reakcji oraz liczba i jakość popełnionych błędów.
Pomiar czasu reakcji jako sposób badania funkcji poznawczych rozwinięto
w ramach podejścia zwanego chronometrią umysłu (mental chronometry).
Nawet w przypadku stosunkowo prostych zachowań - wymagających np. naciś­
nięcia klawisza na sygnał świetlny lub dźwiękowy - od momentu zadziałania
bodźca (sygnału) do momentu wykonania reakcji (naciśnięcia klawisza) upływa
pewien czas. Zmienna „czas reakcji” (reaction time, RT; Exner, 1873) dotyczy
tego właśnie odcinka, czyli okresu utajenia reakcji3. Na czas upływający po­
między bodźcem a reakcją składają się czasy trwania poszczególnych etapów
reagowania: etapu przesłania informacji na temat bodźca do mózgu, etapu
przetwarzania tych informacji przez system nerwowy i etapu zaprogramowania
reakcji i wykonania jej przez mięśnie.
Badanie czasów reakcji ma - jak na psychologię - stosunkowo długą
tradycję, gdyż zaproponowane zostało już w 1850 r. przez pioniera psychologii
eksperymentalnej Hermanna von Helmholtza. Trzeba jednak pamiętać, że czas
reakcji ma dla psychologa jakąkolwiek wartość poznawczą tylko wtedy, gdy
zostanie właściwie zinterpretowany, sam w sobie nie znaczy bowiem nic. Czas
reakcji może być np. wskaźnikiem ogólnego stanu psychofizycznego człowieka
lub ogólnego tempa przewodnictwa neuronalnego. W obu przypadkach nie jest
to miara, z której chcielibyśmy korzystać w badaniu funkcji poznawczych.
Dlatego chronometria umysłu polega na umiejętnym manipulowaniu warunka­
mi zadania poznawczego, przede wszystkim jego złożonością, a następnie
mierzeniu czasu potrzebnego na rozwiązanie każdej wersji zadania. Pobrane
w ten sposób czasy reakcji są następnie porównywane, odejmowane, sumowane
lub inaczej jeszcze przetwarzane. Teoretyczne i metodologiczne podstawy
takiego postępowania stworzył w XIX w. holenderski badacz Franciscus Cor­
nelius Donders.
Donders (1868) założył, że wykonanie każdego zadania wymaga serii
operacji umysłowych, które dokonują się w czasie rzeczywistym. Jak na owe
czasy było to bardzo śmiałe założenie, bo oznaczało, iż operacje mentalne nie są
bezczasowymi aktami, lecz realnymi, materialnie zakotwiczonymi procesami.
Jeśli operacja mentalna jest procesem, którego długość można zmierzyć, to
znaczy, że - przy wszystkich ograniczeniach tego porównania - umysł działa
podobnie do urządzeń technicznych. Mówiąc językiem Kartezjusza, operacje
umysłowe należałoby zaliczyć raczej do kategorii „rzeczy rozciągłych”, bo
mierzalnych, a nie do kategorii rzekomo niematerialnych „rzeczy myślących”.
Z naszego punktu widzenia istotne jest przede wszystkim to, że jeśli operacje
3 Stąd używany niekiedy alternatywnie termin „czas latencji”. Jednak w celu uniknięcia
nieporozumień proponujemy, aby czas między bodźcem a obserwowalną reakcją osoby badanej
nazywać czasem reakcji, zaś termin „czas latencji” zarezerwować dla okresu między bodźcem a bez­
wiedną reakcją fizjologiczną organizmu, np. potencjałem wywołanym (EEG) lub reakcją elektrodermalną (EDA).
1.2. Psychologia poznawcza: dziedzina czy paradygmat
41
umysłowe dokonują się w czasie rzeczywistym, każda z nich wykonywana jest
w osobnym etapie, a wszelkie czynności poznawcze można rozbić na pewną
liczbę takich etapów. Donders założył, że etapy są wzajemnie niezależne.
Natychmiast po zakończeniu przetwarzania w jednym z etapów informacja jest
przesyłana do etapu następnego, a czas niezbędny do przetworzenia informacji
w danym etapie nie ma wpływu na czas potrzebny na dalsze przetworzenie
danych w kolejnych etapach. Z tych założeń wynika, iż czas potrzebny na
wykonanie zadania jest prostą sumą wszystkich odcinków czasu, niezbędnych
do zrealizowania każdego etapu zadania.
Istotą metody Dondersa jest zasada konstrukcji wielu wersji tego samego
zadania, różniących się liczbą niezbędnych operacji umysłowych. Zgodnie
z przyjętymi założeniami, wersje te różnią się liczbą etapów przetwarzania
informacji, a ponieważ każdy etap wymaga czasu - wersje różnią się też
długością czasu, który upływa między bodźcem a reakcją. Na przykład na­
ciśnięcie guzika w odpowiedzi na jeden bodziec wymaga, w uproszczeniu, trzech
etapów: kodowania bodźca, przetworzenia bodźca na reakcję i wykonania
reakcji (ryć. 1.2). Naciśnięcie guzika w odpowiedzi na jeden z dwóch bodźców
(np. reaguj na zielony, nie reaguj na czerwony) wymaga dodatkowego etapu
>
R
RT1
B1
wybór
B2
R
RT2
B1
R1
wybór
decyzja
R1 lub R2
B2
R2
RT3
Ryc. 1.2. Schemat metody Dondersa. Trzy wersje tego samego zadania na czas reakcji różnią się liczbą
etapów przetwarzania informacji, a tym samym długością czasu potrzebnego do wykonania zadania.
Odejmując globalny czas wykonania zadania w wersji prostszej od czasu potrzebnego na rozwiązanie
zadania w wersji bardziej złożonej, otrzymujemy informację o czasie trwania wybranej, nieobserwowalnej operacji umysłowej, np. wyboru bodźca lub podjęcia decyzji co do rodzaju reakcji. BI - bodziec
pierwszy, B2 - bodziec drugi, R1 - reakcja pierwsza, R2 - reakcja druga, RT1 - prosty czas reakcji, RT2
- RT1 = czas wyboru bodźca, RT3 - RT2 = czas podejmowania decyzji.
Rozdział 1. Umysł i poznanie
różnicowania bodźców, dlatego cały proces staje się czteroetapowy. Jeśli
natomiast zadanie polega na tym, aby nacisnąć prawy guzik w odpowiedzi na
światło zielone, a lewy - w odpowiedzi na światło czerwone, potrzebny jest do­
datkowy etap decyzji co do rodzaju reakcji. Dlatego w tej wersji zadanie wymaga
już pięciu etapów. Mierząc całkowity czas reakcji w każdej wersji zadania,
możemy ocenić, jak długo trwa wykonanie procesu mentalnego, składającego się
z trzech, czterech lub pięciu etapów. Mierzymy więc czas między bodźcem
a reakcją, ale wnioskujemy o długości nieobserwowalnego procesu umysłowego.
Co więcej, odejmując czas reakcji uzyskany w wersji czteroetapowej od czasu
w wersji trzyetapowej, uzyskujemy informację, jak długo trwa jeden z etapów
przetwarzania informacji, mianowicie etap różnicowania bodźców. Analogicznie,
posługując się metodą odejmowania, możemy ocenić czas trwania etapu decyzji
o wyborze właściwej reakcji. Nie widząc zatem, interesujących nas procesów
mentalnych, możemy ocenić czas ich trwania. W szczególności możemy
stwierdzić, czy wynik odejmowania dwóch wartości czasu reakcji jest większy
od zera, bo to oznacza, że dany etap istnieje. Gdyby wynik odejmowania był
równy zeru, można by wnioskować, że dany etap nie istnieje, a więc model teo­
retyczny zakładający jego istnienie jest nieadekwatny do rzeczywistości. W ten
sposób, posługując się logiką badawczą zaproponowaną przez Dondersa,
możemy weryfikować konkurencyjne modele badanych procesów poznawczych.
Wzorując się na metodzie Dondersa i twórczo ją rozwijając, psychologowie
poznawczy opracowali wiele technik wnioskowania o procesach poznawczych
na podstawie analizy czasu reakcji (ramka 1.1). Charakterystyczną cechą tego
podejścia jest konieczność skonstruowania wyjściowego modelu teoretycznego,
stanowiącego podstawę do późniejszych pomiarów i innych zabiegów (np.
odejmowania wartości czasu reakcji). Model przedstawiony na ryc. 1.2 może się
wydawać nadmiernie uproszczony, ale jego zadaniem nie jest wierny opis
procesów poznawczych, sterujących naciskaniem guzików w odpowiedzi na
dwojakiego rodzaju bodźce, lecz stworzenie warunków do przyszłego badania
empirycznego. Na podstawie takiego modelu tworzymy wersje zadania różniące
się liczbą etapów przetwarzania informacji. Dopiero dysponując modelem, mo­
żemy dokonywać pomiarów, odejmować poszczególne czasy reakcji, a następnie
wnioskować o strukturze badanego procesu poznawczego, np. o liczbie nie­
zbędnych etapów. Pod wpływem późniejszych zabiegów metodologicznych
możemy ten model poprawić, a nawet całkiem odrzucić, ponieważ spełnił on już
swą rolę jako źródło przewidywań co do zachowania osób badanych w różnych
warunkach eksperymentalnych. Odrzuciwszy model wyjściowy, przyjmujemy
inny - lepiej dopasowany do obserwacji empirycznych. Tak więc model wyj­
ściowy pełni wyłącznie funkcję heurystyczną, to znaczy jest generatorem
przewidywań co do wartości pomiarów w różnych warunkach badania. Jednak
nie dysponując takim modelem, nie bylibyśmy w stanie w ogóle niczego zbadać,
ponieważ nawet gdyby udało nam się zmierzyć jakiś czas reakcji, nie wiedzie­
libyśmy, czemu on odpowiada ani o czym świadczy.
Podejście zwane chronometrią umysłu wymaga bardzo starannej obróbki
danych dotyczących czasu reakcji. Nie potrzeba wyrafinowanego eksperymentu
psychologicznego, aby się przekonać, jak bardzo wartość czasu reakcji jest
podatna na zakłócenia. Niekiedy - sami nie zdając sobie z tego sprawy - tę samą
czynność wykonujemy szybko i bezbłędnie, czasem zaś zdecydowanie wolniej
1.2. Psychologia poznawcza: dziedzina czy paradygmat
43
Ramka 1.1
■i
Zaawansowane wersje chronometrii umysłu
] Twórczymi kontynuatorami Dondersa byli m.in. Saul Sternberg (1969) i Robert i
J. Sternberg (1977). Zbieżność ich nazwisk jest przypadkowa, a każdy z tych bada- ?
czy dopracował się swojej metody, działając niezależnie od drugiego. Saul Sternberg
jest autorem bardzo znanej procedury badania pamięci krótkotrwałej, a Robert J.
Sternberg to wybitny badacz inteligencji człowieka. Zaproponowane przez nich wer­
sje chronometrii umysłu były próbą rozwiązania istotnych problemów związanych
| z oryginalną metodą Dondersa. Chodzi o to, że nie każde zadanie da się skonstruo- ;
| wać w kilku wersjach, różniących się poziomem złożoności. Nawet jeśli byłoby to
możliwe, wersja bardziej złożona może wymagać nieco innych operacji umysłowych i
albo nieco innego układu tych operacji, a nie po prostu jednej operacji umysłowej
więcej. Jeśli tak, to trudno mówić o spełnieniu jednego z podstawowych założeń
metody Dondersa, że odejmowanie wartości czasu reakcji dotyczącego różnych
wersji zadania da nam ocenę czasu trwania pojedynczej operacji umysłowej. Ponad­
to odejmowanie wartości czasu reakcji budzi poważne zastrzeżenia metodologiczne
związane z tym, że wartość różnicy zależy od wartości jej składników. Jeśli ktoś np.
reaguje bardzo wolno, uzyskana dla takiej osoby różnica wartości czasu reakcji
będzie stosunkowo duża, a w każdym razie znacznie większa niż w przypadku
kogoś, kto reaguje szybko. W wyniku odejmowania otrzymujemy więc wartości
w znacznym stopniu nieporównywalne między osobami.
Istotą podejścia, zaproponowanego przez Saula Sternberga, zwanego
metodą addytywną, jest manipulowanie warunkami zadania, np. liczbą elementów
do zapamiętania lub rodzajem wymaganej reakcji (TAK lub NIE). Manipulując
eksperymentalnie warunkami zadania, można sprawdzić, czy mają one wspólny,
czy też odrębny wpływ na czas rozwiązania całego zadania. Zakłada się, że jeśli
wpływ jest wspólny, zaobserwujemy statystyczny efekt interakcji dwóch lub więcej
warunków. Na przykład czas reakcji będzie zależał od warunku A, warunku B,
a ponadto od łącznego wpływu obu warunków (interakcja A x B). Jeśli natomiast
wpływ miałby być odrębny, oba warunki dadzą efekty proste, nie wchodząc
w interakcje, to znaczy czas reakcji będzie zależał od warunku A i osobno od
warunku B, ale już nie od łącznego wpływu obu warunków. Sternberg założył, że
jeśli dwa warunki wpływają na czas wykonania zadania interaktywnie, to znaczy, że
oddziałują na ten sam etap wykonania zadania. Jeśli natomiast dwa warunki nie
wykazują wpływów interkatywnych, a jedynie addytywne (tj. sumujące się), „
wówczas oddziałują na różne etapy przetwarzania informacji. W ten sposób,
inaczej niż metodą odejmowania, próbuje się ustalić liczbę etapów przetwarzania
informacji w danym zadaniu, a także czynniki determinujące proces przetwarzania
informacji w poszczególnych etapach. Próbuje się również nadawać teoretyczną
interpretację kolejnym etapom zadania, nazywając je kodowaniem danych, porów­
nywaniem dwóch reprezentacji umysłowych itd.
Z kolei metoda Roberta J. Sternberga (1977) nazywa się analizą kompo­
nentową, ponieważ polega na dekompozycji złożonego procesu poznawczego na
elementarne składniki (komponenty), operujące na reprezentacjach poznawczych.
Określenie „elementarne” oznacza, że komponentów nie da się już rozbić na skład­
niki niższego rzędu. Istotą analizy komponentowej jest operowanie wskazówkami
44
Rozdział l. Umysł 1 poznanie
wstępnymi (precues), czyli bodźcami niezbędnymi do wykonania określonych ope­
racji umysłowych, pojawiającymi się przed właściwym zadaniem poznawczym. Jeśli
owych wskazówek wstępnych dostarczymy osobie badanej „za darmo”, to znaczy
jeszcze przed włączeniem urządzenia rejestrującego czas reakcji, zmierzona war­
tość sumarycznego czasu reakcji będzie pomniejszona o czas potrzebny na wyko­
nanie tych operacji, które „karmią się” dostarczonymi wskazówkami. Proces po­
znawczy i tak będzie pełny, integralny, niepozbawiony ważnych elementów skła­
dowych. Jednak sumaryczny czas reakcji będzie wyraźnie krótszy, ponieważ osoba
badana wykona niektóre komponenty, jeszcze zanim zaczniemy mierzyć czas.
Na przykład zadanie rozwiązywania prostych sylogizmów werbalnych należy
rozpocząć od kodowania i identyfikowania poszczególnych informacji składających
się na rozwiązywany problem. Można założyć, że kodowanie i identyfikowanie
informacji stanowi pierwszy etap przetwarzania w procesie rozwiązywania sylo­
gizmów. Osoba badana, która rozpoczyna zadanie w momencie, gdy zapoznała się
już ze wszystkimi informacjami niezbędnymi do prawidłowego rozwiązania, skraca
proces rozwiązywania sylogizmu o ten właśnie pierwszy etap, zwany etapem
kodowania. Możemy oczywiście dostarczać różnych wskazówek wstępnych, tym
samym umożliwiając osobie badanej wykonanie różnych komponentów „za
darmo”, czyli zanim zaczniemy mierzyć czas. Porównując teraz czas reakcji
uzyskany w warunkach eksperymentalnych, różniących się liczbą i charakterem
dostarczonych wskazówek wstępnych, możemy ocenić czas trwania poszczegól­
nych komponentów, a przede wszystkim to, czy dany komponent w ogóle istnieje.
Opisany sposób postępowania pozwala weryfikować złożone modele przetwa­
rzania informacji, a ponadto badać różnice indywidualne. Okazuje się bowiem, że
ludzie różnią się ze względu na czas wykonania poszczególnych komponentów,
a różnice te bywają skorelowane z innymi wymiarami, np. z inteligencją ogólną.
i mniej precyzyjnie. Przy wielokrotnych powtórzeniach danej czynności - gdy
narasta wprawa, ale też i zmęczenie - niektóre powtórki są bardziej, inne zaś
mniej udane. Dlatego, opierając wnioskowanie na czasach reakcji, niezbędne
jest zachowanie pewnych rygorów metodologicznych. Do grona zabezpieczeń
przed przypadkowością pomiaru należy m.in. stosowanie dużej liczby powtó­
rzeń wykonania tego samego zadania. W typowym eksperymencie psychologicz­
nym osoba badana wykonuje to samo proste zadanie kilkadziesiąt razy. W koń­
cowym wnioskowaniu wykorzystuje się średnie czasy reakcji, obliczane na pod­
stawie wszystkich wykonanych prób. Niektórzy badacze stosują ponadto statys­
tyczne procedury „poprawiania” wyników, polegające na odrzucaniu wartości
skrajnych. Na przykład w końcowych obliczeniach nie uwzględnia się danych
pochodzących od osoby, której wyniki zdecydowanie odbiegają od przeciętnego
(charakterystycznego dla pozostałych badanych) wzorca reagowania (Jensen,
1982). Podejście to zakłada, iż osoba, która wykonała zadanie wyraźnie inaczej
niż pozostali uczestnicy eksperymentu, albo nie zrozumiała instrukcji, albo
z innych powodów nie była w stanie zadania wykonać, a w konsekwencji wy­
konała coś zupełnie innego, niż zakładano. Może to oznaczać, że badany przez
nas proces poznawczy u takich osób po prostu nie wystąpił. Pierwsze z po­
wyższych zabezpieczeń przed przypadkowością pomiaru, czyli duża liczba pow­
1.3. Ogólna architektura umysłu
45
tórzeń, zwanych próbami eksperymentalnymi (trials), jest powszechnie stosowa­
ne i z pewnością korzystne, drugie natomiast wydaje się kontrowersyjne (Nęcka,
1994). Nie można bowiem wykluczyć, że osoba reagująca znacznie dłużej lub
krócej od pozostałych uczestników eksperymentu stosuje swoistą strategię poz­
nawczą, a więc radzi sobie z zadaniem inaczej, niż to przewiduje wstępny model
teoretyczny przyjęty przez badacza. W takiej sytuacji eliminowanie osób nie­
typowych może oznaczać niezamierzone fałszowanie wyników badań.
Natomiast zabiegiem całkowicie uprawnionym i powszechnie stosowanym
jest „czyszczenie” wyników, polegające na usuwaniu nienaturalnie długich
wartości czasu reakcji z serii prób pobranych od tej samej osoby. Takie nie­
naturalnie długie wartości czasu reakcji zwykle wynikają z dekoncentracji osoby
badanej lub z wpływu czynników niekontrolowanych. Ponadto w badaniach
z użyciem technik chronometrii umysłu zwykle nie uwzględnia się czasu reakcji
błędnych, nie wliczając tych wartości do sumy stanowiącej podstawę obliczania
średniego czasu reakcji. Uważa się mianowicie, że czas reakcji błędnej jest
czasem nie wiadomo czego. Jeśli reakcja jest poprawna, jej czas informuje nas
o sumarycznej długości czasu potrzebnego na wykonanie wszystkich zakłada­
nych przez nas etapów przetwarzania informacji. Ten sumaryczny czas może
być następnie odejmowany od innych wartości itd. Jeśli natomiast reakcja jest
błędna, to nie wiemy, co się stało: czy któryś etap został przez badanego wy­
konany, ale źle, czy też po prostu pominięty. W takiej sytuacji należy czas reakcji
błędnej zignorować, odnotowując sam fakt wystąpienia błędu.
Równie ważnym co czas reakcji wskaźnikiem przebiegu procesów poznaw­
czych są bowiem błędy popełniane podczas wykonania zadania, a zwłaszcza
ich rodzaj i sumaryczna liczba. Na podstawie błędów możemy wnioskować nie
tylko o tym, czy system poznawczy jest sprawny, ale i o przebiegu interesujących
nas procesów poznawczych. Specyficzność popełnianych błędów pozwala
czasem wnioskować o przebiegu procesu przetwarzania, np. o odmiennych
strategiach stosowanych przez różne grupy osób badanych. Nawet w bardzo
prostych zadaniach, np. wymagających reagowania jedną ręką na światło zie­
lone, a drugą na czerwone (zob. ryc. 1.2), zdarzają się błędy. W tym zadaniu
można się pomylić co najmniej na dwa sposoby: (1) nie naciskając przycisku,
choć zgodnie z instrukcją należało to zrobić, lub (2) naciskając przycisk, mimo
że warunki zadania tego nie wymagały. W pierwszym przypadku popełniamy
błąd ominięcia (OM), w drugim - błąd fałszywego alarmu (FA). Informacje
dotyczące błędów analizuje się na kilka sposobów. Czasem uwzględnia się
ogólną liczbę błędów dowolnego rodzaju, czasem zaś wzajemny stosunek
ominięć lub fałszywych alarmów do całkowitej liczby błędów. Skłonność do
popełniania raczej OM niż FA, lub odwrotnie, zależy od warunków zadania,
instrukcji, indywidualnych preferencji osoby badanej lub od przyjętej przez nią
strategii radzenia sobie z zadaniem.
1.3. Ogólna architektura umysłu
Przez pojęcie ogólnej architektury umysłu rozumiemy swoisty rodzaj teorii
naukowej. Jest to teoria o bardzo dużym poziomie ogólności, opisująca naj­
<40
nozaział i. umysi i poznanie
ważniejsze elementy budulcowe umysłu oraz ich wzajemne relacje. Każda z pro­
ponowanych architektur poznawczych opisuje więc strukturę systemu poznaw­
czego, a także wynikające z niej ogólne zasady przetwarzania informacji. Two­
rzy ogólne ramy teoretyczne, w których konstruuje się teorie o węższym zasięgu,
opisujące już konkretne procesy lub czynności poznawcze.
1.3.1. Blokowe m odele um ysłu
Podstawowe założenie modeli blokowych głosi, że informacja jest przetwarzana
przez system poznawczy sekwencyjnie i „oddolnie” (bottom-up), czyli od
wejścia sensorycznego aż po wyjście behawioralne. Sekwencja przetwarzania
składa się z kilku lub kilkunastu etapów następujących kolejno po sobie
i realizowanych w kolejnych blokach procesów przetwarzania informacji. Blok
można zdefiniować jako zespół procesów przetwarzania informacji o podobnym
charakterze i zadaniach, obsługujący wyróżnioną czynność poznawczą (np.
spostrzeganie, pamięć, kontrolę motoryki). Z reguły w każdym modelu bloko­
wym, mającym ambicję ujęcia całości systemu poznawczego, uwzględniano
następujące bloki: wejście sensoryczne, uwagę, spostrzeganie, pamięć, procesy
myślowe, procesy decyzyjne, wyjście behawioralne.
Jednym z najpopularniejszych, wczesnych modeli systemu przetwarzania
informacji jest blokowy model Atkinsona i Shiffrina (1968) .W tym ujęciu system
przetwarzania informacji składa się z trzech magazynów pamięci: rejestru sen­
sorycznego, pamięci krótkotrwałej oraz pamięci długotrwałej. Docierające z oto­
czenia informacje przechodzą przez magazyny systemu poznawczego w tej właś­
nie kolejności (ryc. 1.3), przy czym na każdym etapie podlegają selekcji. O tym,
które informacje przejdą z rejestru sensorycznego do pamięci krótkotrwałej,
decydują procesy uwagi. Natomiast transfer informacji z magazynu pamięci
krótkotrwałej do magazynu pamięci długotrwałej jest warunkowany jedną z naj­
ważniejszych operacji kontrolnych: powtarzaniem (rehearsal) i organizowaniem
materiału. Informacja niepowtarzana bezpowrotnie zanika wraz z upływem
czasu, podczas gdy informacja wystarczająco długo podtrzymywana dzięki kolej­
nym powtórkom zostaje trwale zapisana w pamięci długotrwałej. Pojemność ma­
gazynu pamięci długotrwałej autorzy uznali za nieograniczoną, a tzw. zapo­
minanie wyjaśniali raczej brakiem dostępu do informacji niż jej utratą. Natomiast
pojemność rejestru sensorycznego, a zwłaszcza pamięci krótkotrwałej, uznali
za bardzo ograniczoną. Aby określone informacje mogły być przez właściwy pod­
system przetworzone, muszą zostać wcześniej zapisane w odpowiednim formacie,
za co odpowiedzialne są procesy kodowania pamięciowego. Na przykład pamięć
krótkotrwała, według Atkinsona i Shiffrina, przetwarza informacje werbalne,
podczas gdy pamięć długotrwała zorganizowana jest raczej według znaczenia
przechowywanych w niej informacji. Za sterowanie procesem przetwarzania in­
formacji na poszczególnych etapach, jak też za transfer z jednego magazynu
pamięci do innego odpowiedzialne są procesy kontrolno-regulacyjne. Zarządzają
one analizą sensoryczną, regulacją transferu pomiędzy magazynami, przebiegiem
wydobywania informacji z pamięci długotrwałej oraz zapominaniem.
Istotnym elementem modelu Atkinsona i Shiffrina jest generator reakcji.
Jak widać (ryc. 1.3), reakcja może wystąpić w odpowiedzi na informacje do-
1.3. Ogólna architektura umysłu
47
Ryc. 1.3. Blokowy model przetwarzania informacji Atkinsona i Shiffrina (za: Bechtel i in., 1998, s. 47).
pływające z każdego z trzech bloków pamięci. Sama zawartość rejestru senso­
rycznego może dać impuls do wytworzenia reakcji z pominięciem dwóch
pozostałych systemów pamięci. To samo dotyczy pamięci krótkotrwałej. Nato­
miast pamięć długotrwała może wytworzyć reakcję bezpośrednio albo za
pośrednictwem pamięci krótkotrwałej.
W późniejszej wersji swojego modelu Atkinson i Shiffrin (1971) przyjęli, że
reakcja może być wyprodukowana tylko przez system krótkotrwałego prze­
chowywania informacji (short term storę, STS). W tymże systemie działają też
procesy kontroli, takie jak powtarzanie materiału, kodowanie informacji,
podejmowanie decyzji i strategie przywoływania informacji z systemu długo­
trwałego przechowywania informacji (long term storę, LTS). Blok pamięci krót­
kotrwałej awansował więc do roli centralnego systemu przetwarzania infor­
macji. Zachowano jednak dwa pozostałe bloki, czyli rejestr sensoryczny (wzro­
kowy, słuchowy, dotykowy i inne) oraz magazyn pamięci długotrwałej. Ten
ostatni komunikuje się obustronnie już tylko z blokiem pamięci krótkotrwałej,
tracąc zdolność do samodzielnego sterowania zachowaniem.
Model Atkinsona i Shiffrina zbudowano z wykorzystaniem wcześniejszych
badań nad pamięcią. Na przykład rejestr sensoryczny odpowiada odkrytej
przez George’a Sperlinga (1960) pamięci ikonicznej, stanowiącej coś w rodzaju
bardzo krótkiego (200-500 ms) śladu bodźca wzrokowego na siatkówce oka.
Z kolei podział na pamięć krótko- i długotrwałą był znany już od czasów
Williama Jamesa4, a na pewno od dwóch słynnych prac, w których wykazano
ograniczoną pojemność systemu pamięci krótkotrwałej (Miller, 1956; Peterson,
4 William James używał terminów: pamięć pierwotna i wtórna.
fŁtS
Kozdział i. Umysł i poznanie
Peterson, 1959). Wartość tego modelu należy więc mierzyć nie tym, jak ory­
ginalne były poszczególne rozwiązania terminologiczne, ale tym, w jaki sposób
różne części systemu poznawczego powiązano w spójny mechanizm zdolny do
przetwarzania informacji i sterowania zachowaniem. Ponadto model ten dał
początek nowemu sposobowi uprawiania psychologii poznawczej, polegającemu
na konstruowaniu blokowych koncepcji umysłu. Wraz z rozwojem badań
zwolennicy teorii blokowych rozpoczęli konstruowanie bardziej szczegółowych
modeli dotyczących wcześniej wyróżnionych, poszczególnych podsystemów czy
też etapów przetwarzania informacji. Modele te nie miały już ambicji opisania
całości systemu poznawczego człowieka, a jedynie przedstawienie jego fra­
gmentów. Za wzór może posłużyć stosunkowo wczesna praca Broadbenta
(1958). Autor skonstruował hydrauliczny model uwagi selektywnej, wyróżnia­
jąc w nim trzy bloki: kanały sensoryczne, filtr uwagi i kanał przetwarzania
semantycznego. Modele te będą dokładniej prezentowane przy okazji omawia­
nia problematyki uwagi i pamięci. Tu warto jedynie nadmienić, że w konstrukcji
tych modeli zostały zachowane podstawowe zasady modeli blokowych (zasada
sekwencyjności oraz „oddolny” kierunek przetwarzania).
Wsparciem dla konstrukcji modeli blokowych była tzw. komputerowa
metafora umysłu. Polega ona na porównywaniu elementów ludzkiego systemu
poznawczego do analogicznych elementów systemu komputerowego. Komputer
składa się z urządzeń wejścia (np. klawiatura, mysz, napęd dysków, podłączenie
sieciowe), urządzeń wyjścia (monitor, drukarka, napęd urządzeń zapisujących
na dysk, podłączenie sieciowe) oraz urządzeń pośredniczących między wejściem
a wyjściem. Urządzenia te nazywa się niekiedy „czarną skrzynką”, podkreślając
w ten sposób ukryty, nieobserwowalny charakter samych urządzeń, jak też
wykonywanych przez nie czynności. W komputerowej „czarnej skrzynce” wy­
stępują m.in.: procesor, pamięć operacyjna, twardy dysk. Zestawiając te urzą­
dzenia z wyróżnionymi powyżej blokami przetwarzania informacji, łatwo
dostrzec wyraźne analogie, uwidocznione w tab. 1.1. Co więcej, komputer dziaTab. 1.1. Komputerowa metafora umysłu (oprać, własne).
Umysł
Komputer
procesy sensoryczne
klawiatura, skaner
pamięć robocza
pamięć operacyjna
procesy myślowe
procesor
pamięć trwała
twardy dysk
procesy decyzyjne
procesor
wyjście behawioralne
monitor, drukarka
ła według reguły przetwarzania „oddolnego”: pobiera dane na wejściu, następnie
przetwarza je zgodnie z dostępnymi algorytmami działania, by w końcu „wy­
produkować” informację na wyjściu. Można więc powiedzieć, że metafora kom­
puterowa wiernie oddaje działanie blokowego systemu poznawczego, a kompu­
ter prawdopodobnie został stworzony „na obraz i podobieństwo” systemu
poznawczego człowieka.
1.3. Ogólna architektura umysłu
49
Z drugiej strony coraz więcej danych wskazuje na nieadekwatność metafory
komputerowej. Przede wszystkim komputer jest - przynajmniej na razie urządzeniem działającym sekwencyjnie. Można na nim wprawdzie imitować
równoległość procesów, ale w praktyce polega to na niezauważalnie krótkich
zmianach „zaangażowania uwagi procesora” w obsługę poszczególnych tzw.
równoległych programów. Tymczasem umysł, a zwłaszcza jego materialne pod­
łoże, czyli mózg, cechuje się równoległością przetwarzania. W tym samym czasie
w wielu miejscach systemu zachodzą różne procesy, ale nie ma centralnego
ośrodka przetwarzania. Tego rodzaju krytyka doprowadziła do powstania
nowego nurtu w modelowaniu procesów poznawczych, zwanego koneksjonizmem (zob. rozdz. 1.3.4).
Modele blokowe poddano ostrej krytyce nie tylko ze względu na zbyt daleko
posuniętą analogię między umysłem a komputerem. Podkreślano przede wszyst­
kim, że sekwencyjne ujęcie procesu przetwarzania informacji jest sprzeczne
z licznymi danymi empirycznymi (MacKay, 1998). Na przykład blokowy, sek­
wencyjny model percepcji liter, zwany Pandemonium (Selfridge, Neisser, 1960),
zakłada, że najpierw analizujemy pojedyncze cechy (linie, krzywizny itd.), na
ich podstawie rozpoznajemy kształt całej litery, następnie identyfikujemy
znaczenie tej litery i podejmujemy decyzję na temat tego, co właściwie widzimy.
Dość szybko okazało się, że model Pandemonium słabo pasuje do wyników
badań empirycznych. Według McClellanda i Rumelharta (1981), człowiek nie
analizuje pojedynczych cech, lecz całość wzorca, jakim jest litera. Co więcej,
analiza sensorycznych właściwości bodźca dokonuje się równolegle z analizą
semantyczną, zmierzającą do stwierdzenia, co znaczy widziana przez nas litera.
Ponadto litery zwykle nabierają sensu dopiero w szerszym kontekście słowa,
które tworzą, dlatego proces semantycznej analizy poszczególnych liter doko­
nuje się równolegle z procesem semantycznej analizy słów. Ponieważ informacje
o znaczeniu liter i słów są przechowywane w pamięci trwałej, analiza senso­
ryczna musi się dokonywać równolegle z przywoływaniem danych z tejże pa­
mięci, co jest rażąco sprzeczne z modelem Atkinsona i Shiffrina i w ogóle
z większością blokowych modeli umysłu. Wizja umysłu jako systemu działają­
cego sekwencyjnie i przetwarzającego informacje zawsze w tym samym kierun­
ku wymagała więc zasadniczej rewizji.
1.3.2. Koncepcja poziomów przetwarzania
Koncepcja poziomów przetwarzania informacji, zaproponowana przez Craika
i Lockharta (1972), miała stworzyć ogólne ramy teoretyczne badań nad
pamięcią. Szybko jednak zyskała popularność jako alternatywny - w stosunku
do modeli blokowych - sposób opisu ogólnej architektury umysłu. Podstawowe
założenie koncepcji poziomów przetwarzania informacji głosi, że każda
informacja jest przetwarzana przez te same struktury, ale na różnym poziomie
„głębokości”. Nie przewiduje się tu wyodrębnionych etapów przetwarzania
i odpowiadających im struktur, w związku z czym nie ma potrzeby tworzenia
modeli blokowych. Pojęcie głębokości przetwarzania (depth of processing) jest
oczywiście metaforą, ale można je rozumieć jako zakres i intensywność obróbki
danych. Wraz z „pogłębianiem” przetwarzania wzrasta zarówno liczba, jak
¡j u
n o z a z ia i i . u m y s i i p o z n a n ie
i złożoność operacji, jakim w toku procesu przetwarzania poddawane są
docierające do systemu informacje.
Można wyróżnić co najmniej trzy poziomy przetwarzania. Na pierwszym,
płytkim poziomie dokonuje się sensoryczna analiza danych. Rezultaty płytkiego
przetwarzania informacji są nietrwałe i bardzo podatne na wszelkiego rodzaju
zakłócenia. Poziom ten jest jednak wystarczający do poprawnego wykonania
niektórych zadań, np. detekcji dwóch identycznych znaków (liter, cyfr, błysków
światła itp.). Kolejny poziom jest już głębszy - dokonuje się na nim semantyczna
interpretacja odbieranego sygnału. Na przykład czytając tekst, zazwyczaj się­
gamy do znaczenia użytych w nim słów, chociaż niekiedy wystarczy nam
powierzchowna analiza rodzaju czcionki lub koloru liter. Poziom ten jest
również konieczny do stwierdzenia identyczności dwóch lub więcej elementów
należących do jednej kategorii znaczeniowej (np. owoców, pojazdów, zwierząt).
Przetwarzanie głębokie trwa znacznie dłużej niż płytkie, ale jego rezultaty są
trwalsze i bardziej odporne na wszelkiego rodzaju czynniki zakłócające. Infor­
macje przetworzone na poziomie głębokim są np. odporne na zapominanie,
podczas gdy dane przetworzone na poziomie płytkim w większości bezpo­
wrotnie tracimy. Na trzecim, najgłębszym poziomie przetwarzania aktywizu­
jemy różne skojarzenia związane z wcześniej odebranym i przeanalizowanym
sensorycznie lub semantycznie sygnałem. Skojarzeniami takimi mogą być np.
obrazy czy pojęcia powiązane znaczeniowo z sygnałem przetwarzanym na
poziomie drugim (głębokim). Na najgłębszym poziomie przetwarzania możliwe
jest wzbogacenie naszej wiedzy o dodatkowe elementy bądź też włączenie już
istniejących elementów wiedzy w nowe struktury poznawcze.
Informacja podlegająca przetwarzaniu może pochodzić z dwóch źródeł.
Pierwotny obieg informacji polega na przejściu danych odbieranych na poziomie
płytkim przez poziom głęboki aż do poziomu najgłębszego. Oczywiście nie
każda informacja schodzi na głębsze poziomy przetwarzania. Zależy to od wielu
czynników, m.in. od wymagań sytuacji, od instrukcji eksperymentalnej, od in­
dywidualnych preferencji czy też od ilości dostępnego czasu. Wtórny obieg
informacji polega natomiast na tym, że dane zakodowane w pamięci mogą
zostać włączone do przetwarzania na którymkolwiek poziomie, krążąc po nim
dowolnie długo. Wtórny obieg dotyczy więc zjawisk pamięciowych, które nie
wymagają dopływu informacji z zewnątrz ani też rejestrowania informacji
dotyczących własnego zachowania jednostki. Oprócz dwóch obiegów informacji
Craik i Lockhart (1972) wyróżnili dwa typy przetwarzania. Typ I związany jest
z wtórnym obiegiem informacji na tym samym poziomie przetwarzania. Na­
tomiast w przypadku typu II następuje transfer (przejście) informacji na poziom
głębszy na skutek wtórnego obiegu na poziomie płytszym. W wyniku przetwa­
rzania typu I dochodzi z reguły do zapominania informacji, chyba że zaczynają
one krążyć w obiegu wtórnym. Zapamiętywanie informacji jest znacznie lepsze,
gdy mamy do czynienia z typem II przetwarzania, a więc z transferem informacji
na głębsze poziomy przetwarzania i wtórnym ich obiegiem na poziomie
najgłębszym.
Model Craika i Lockharta (1972) przedstawia umysł jako system jednolity,
bez wyodrębnionych „pudełek” przekazujących sobie informacje w określonym
porządku. Zamiast poszczególnych bloków mamy tutaj system o jednolitej struk­
turze, bez kolejnych etapów przetwarzania, za to z wydzielonymi poziomami
1.3. Ogólna architektura umysłu
51
obróbki danych - od płytkiego do najgłębszego. Wejście do systemu może być
zlokalizowane na którymkolwiek z poziomów, nie ma więc potrzeby wyróżniania
wyspecjalizowanych mechanizmów przewodzenia informacji z rejestru senso­
rycznego do pozostałych struktur. Co więcej, informacja może pozostawać we
wtórnym obiegu na którymkolwiek z poziomów przetwarzania lub go opuścić,
ale zawsze w stronę poziomów głębszych. Z tego względu model ten, podobnie
jak modele blokowe, należy uznać za przykład takiej architektury poznawczej,
która zakłada zasadniczo „oddolny” kierunek przetwarzania.
Zgromadzono wiele danych empirycznych potwierdzających słuszność
modelu jednorodnego systemu poznawczego. Dotyczą one głównie zależności
jakości zapamiętywania od głębokości procesów przetwarzania informacji
uczestniczących w zapamiętywaniu. Badania te zostaną szerzej omówione
w rozdz. 9, poświęconym funkcjonowaniu pamięci. Wnioski przedstawione
przez Craika i Lockharta (1972) na podstawie całej serii podobnych ekspery­
mentów były następujące. Po pierwsze, efektywność pracy systemu poznaw­
czego zależy od głębokości przetworzenia informacji. Tę samą informację
system poznawczy może przetwarzać na różnych poziomach, ale skutki jego
pracy są tym lepsze, im głębszy poziom przetwarzania zaktywizowano. Po dru­
gie, jeśli informacja jest przetwarzana na poziomie płytkim, proces przetwa­
rzania podlega wielu zakłóceniom, a dane - szybkiemu zapominaniu. Jeśli
natomiast pozwoli się na obieg informacji na poziomach głębszych, w systemie
poznawczym pozostanie znacznie więcej „niezakłóconych” danych. Po trzecie,
o wyborze poziomu przetwarzania danej informacji decydują wskazówki zew­
nętrzne (np. rodzaj zadania) lub wewnętrzne (np. wymagania przyjęte przez
sam system poznawczy). System może też sam narzucić wtórny obieg infor­
macji II typu, osiągając wówczas najlepsze rezultaty obróbki danych.
1.3.3. Umysł jako system m odułow y
Jeden z najważniejszych sporów teoretycznych, toczonych na gruncie nauk
kognitywnych, dotyczy modularnej natury umysłu. Centralne pytanie tej debaty
brzmi: czy umysł jest „urządzeniem” uniwersalnym, zdolnym do przetwarzania
dowolnego rodzaju informacji w dowolnym celu, czy też składa się z dużej liczby
wysoce wyspecjalizowanych struktur niższego rzędu, zwanych modułami?
Gdyby umysł miał naturę uniwersalną, najlepiej byłoby go porównać do
komputera, który również jest narzędziem wszechstronnym: w zależności od
dostarczonego mu oprogramowania może przetwarzać tekst, dokonywać
obliczeń statystycznych, sterować przebiegiem różnych procedur i wykonywać
tysiące innych zadań, nie zmieniając swojej budowy i sposobu działania.
Natomiast dobrą metaforą umysłu modularnego jest skrzynka z narzędziami
(Gigerenzer, Todd, 1999), w której znajdziemy mnóstwo różnych, specjalis­
tycznych przyrządów, ale na próżno szukalibyśmy narzędzia uniwersalnego.
Chociaż debata nad modulamością umysłu toczy się od dość dawna, nowy
impuls nadał jej filozof Jerry Fodor, autor książki Modularity of m ind (1983).
W ujęciu Fodora, umysł składa się z trzech rodzajów budulca: przetworników
(,transducers), systemów centralnych i modułów. Rolą przetworników jest po­
zyskiwanie energii dopływającej do organizmu i przekształcanie jej w postać
Dct
Kozaziat i. umysł i poznanie
dostępną dla pozostałych mechanizmów psychologicznych. Rolą systemów
centralnych jest wnioskowanie i tworzenie przekonań; systemy te odpowiadają
zatem za myślenie albo też za poznanie w wąskim sensie tego słowa. Natomiast
zadanie modułów polega na pośredniczeniu między przetwornikami a systemami
centralnymi. Fodor obrazowo określa tę funkcję jako „dostarczanie świata
myślom”.
Istotą modułów jest ich zależność od dziedziny (domain specificity) i automatyczność działania (Appelbaum, 1998). Pierwsza cecha oznacza, że każdy
moduł może działać tylko na wyróżnionej klasie bodźców, takich jak twarz
ludzka, dźwięki mowy itd. Co więcej, każdy moduł jest wyspecjalizowany
w jednej funkcji i nie może pełnić żadnej innej. Na przykład moduł rozpo­
znawania twarzy nie nadaje się do spostrzegania figur geometrycznych, a moduł
różnicowania głosek, istotny dla rozumienia mowy, nie nadaje się do rozpozna­
wania twarzy. Z kolei automatyczność oznacza, że raz uruchomiony moduł nie
może „wyhamować”, dopóki nie wykona swego zadania, za to działa szybko i nie
angażuje centralnych zasobów poznawczych (uwagi, pamięci roboczej). Dzięki
modułom możemy szybko i sprawnie wykonywać bardzo skomplikowane
czynności poznawcze. Sterowanie takimi czynnościami z poziomu systemów
centralnych wymagałoby olbrzymich „mocy obliczeniowych”, a mimo to rezultat
byłby mało satysfakcjonujący (dużo błędów, długi czas działania). Fodor
twierdzi ponadto, że moduły działają we względnej wzajemnej niezależności,
są jak gdyby osobnymi „kapsułkami” poznawczymi, wyizolowanymi od reszty
systemu poznawczego. Również rozwój poznawczy polega na pojawianiu się
modułów we względnej niezależności od innych „kapsułek” i od całości systemu
poznawczego.
Wbrew szeroko rozpowszechnionemu przekonaniu, Jerry Fodor nie
tłumaczy wszystkich funkcji poznawczych działaniem wyspecjalizowanych mo­
dułów. Twierdzi, że wyższe funkcje poznawcze, np. myślenie i rozumowanie, są
realizowane inaczej, mianowicie za pośrednictwem uniwersalnego systemu
przetwarzania danych. Domeną modułów jest przede wszystkim percepcja,
a ponadto sterowanie motoryką. Tak więc moduły obsługują głównie wejście
i wyjście systemu poznawczego, podczas gdy centralne funkcje tego systemu
są obsługiwane przez uniwersalny „procesor” wszechstronnego zastosowania.
Pogląd ten nie zawsze jest podzielany przez zwolenników koncepcji moduło­
wych. Niektórzy, np. Gerd Gigerenzer (Gigerenzer, Todd, 1999), odwołują się
do modułów w wyjaśnianiu „wyższych” funkcji poznawczych, takich jak rozu­
mowanie, wnioskowanie i podejmowanie decyzji. To właśnie Gigerenzer jest
autorem metafory umysłu jako „przydatnej skrzynki z narzędziami” (adaptive
toolbox), z której każdy z nas czerpie w miarę potrzeb. Gigerenzer i jego
współpracownicy wykazali, że niektóre zadania wymagające wnioskowania
z przesłanek, stosunkowo trudne dla większości ludzi, stają się dość łatwe
wtedy, gdy zostaną przedstawione w kontekście społecznym (zob. rozdz. 12).
Istnieje na przykład wyspecjalizowany moduł wykrywania oszustów; jego
uruchomienie sprawia, że trudne zadania logiczne, wymagające rozumowania
warunkowego, stają się dość łatwe nawet dla małych dzieci (Cosmides, 1989).
Modułowy charakter wyjaśnień psychologicznych zyskał szczególną po­
pularność na gruncie psychologii ewolucyjnej (Buss, 1999; Pinker, 1997).
Przedstawiciele tego kierunku widzą umysł jako zestaw wysoce wyspecjalizo­
1.3. Ogólna architektura umysłu
53
wanych funkcji, rozwiniętych w procesie ewolucji w wyniku działania tzw.
nacisku selekcyjnego. Podobnie jak oko, ucho, serce i wszystkie pozostałe
narządy ciała, również umysł jest swoistym „narządem” przystosowania się
organizmu do środowiska, tyle że nie jednolitym, a właśnie modułowym. Według
Anne Campbell (2004), założenie o modularności ludzkiego poznania jest jedną
z cech wyróżniających psychologię ewolucyjną spośród innych kierunków myśli
psychologicznej. Warto jednak pamiętać, że gdyby umysł człowieka był w całości
złożony z modułów, nie pojawiłyby się chyba w toku ewolucji funkcje uni­
wersalne i wszechstronne w zastosowaniu, takie jak kontrola poznawcza lub
rozwiązywanie problemów. Dlatego warto pamiętać o umiarkowanym stano­
wisku Fodora w kwestii modułowej natury umysłu.
1.3.4. Sieciow e m odele um ysłu
Sieciowe modele umysłu powstały w odpowiedzi na krytykę formułowaną pod
adresem tradycyjnej sztucznej inteligencji, jak też pod adresem modeli bloko­
wych wraz z leżącą u ich podłoża komputerową metaforą umysłu. Podkreślano,
że modele blokowe i tradycyjne programy sztucznej inteligencji opierają się na
fałszywej, niezgodnej ze współczesną wiedzą, wizji działania mózgu. Krytyko­
wano też skłonność autorów modeli blokowych do myślenia w kategoriach
homunculusa: inteligentnego ludzika odpowiedzialnego za kontrolę procesu
przetwarzania informacji. Podkreślano, że umysł ludzki ma zdolność samo­
organizacji i samokontroli, zatem koncepcje jego ogólnej architektury powinny
ten fakt brać pod uwagę.
Narodziny nowego podejścia do modelowania procesów poznawczych,
zwanego koneksjonizmem, przypisuje się dziełu grupy uczonych z MIT,
pracujących pod kierunkiem McClellanda i Rumelharta (McClelland, Rumelhart, and the PDP Research Group, 1986; Rumelhart, McClelland, and the PDP
Research Group, 1986). Mimo wielości i różnorodności stworzonych do tej pory
modeli, podejście koneksjonistyczne opiera się kilku podstawowych założeniach
(Elman, 1998). Przyjmuje się, że przetwarzanie informacji dokonuje się dzięki
aktywności bardzo licznych, ale niezwykle prostych jednostek (units). Tworzą
one sieć, której węzły - tożsame z jednostkami - aktywizują się nie jeden po
drugim, lecz w tym samym czasie. Wobec tego koneksjoniści twierdzą, że
poznanie jest równoległym i rozproszonym przetwarzaniem informacji (parallel
and distributed processing, PDP). Twierdzą, że taki model poznania jest
bardziej „wiarygodny biologicznie”, ponieważ lepiej symuluje pracę mózgu.
Organ ten składa się z wielkiej liczby komórek nerwowych, które nic nie znaczą
pojedynczo, ale tworząc skomplikowaną sieć powiązań, są w stanie nie tylko
kontrolować funkcjonowanie organizmu, ale również wykonywać najbardziej
złożone operacje intelektualne. Dążenie do ścisłego naśladowania pracy mózgu
przejawia się m.in. w nazewnictwie: modele koneksjonistyczne są nazywane
sieciami neuropodobnymi (lub wręcz neuronowymi, neural netw orks).
Sieć neuropodobna składa się z neuronów warstwy wejściowej, warstwy
wyjściowej oraz warstw pośredniczących, zwanych ukrytymi (hidden layers).
Sieć może być ponadto wyposażona w warstwę kontekstową, zawierającą
jednostki komunikujące się wyłącznie z warstwami ukrytymi i modyfikujące ich
54
Rozdział 1. Umysł i poznanie
jednostka j
integracja pobudzenia
docierającego z
poprzedniej warstwy
jednostka i
transformacja zsumowanego pobudzenia
na poziom aktywności a;
przekaz poziomu
aktywności jednostkom
następnej warstwy
Ryc. 1.4. Schemat działania sieci neuropodobnej (za: McLeod, Plunkett, Rolls, 1998, s. 16). W górnej
części rysunku widzimy ogólną budowę sieci, w dolnej - działanie jednostki i, należącej do warstwy
ukrytej.
działanie. Liczba warstw ukrytych, jak też obecność warstw kontekstowych de­
cydują o poziomie złożoności sieci. Przetwarzanie informacji polega na odbiorze
danych z otoczenia przez warstwę wejściową i przekazywaniu ich dalej poprzez
warstwy ukryte aż do „efektorów” sterowanych neuronami warstwy wyjściowej.
W prostym przykładzie, przedstawionym na ryc. 1.4, jednostka i, należąca do
warstwy pośredniej, może odbierać sygnały od pięciu neuronów warstwy
1.3. Ogólna architektura umysłu
55
wejściowej, wśród których znajduje się jednostka /'. Jednak o poziomie
wzbudzenia jednostki i decyduje nie tyle liczba połączeń z neuronami warstwy
wejściowej, ile waga tych połączeń. Waga jest jak gdyby mnożnikiem, który
modyfikuje siłę połączeń między jednostkami sieci. Tak więc o tym, czy
jednostka / z warstwy wejściowej zdoła pobudzić do działania jednostkę i
z warstwy ukrytej, decyduje to, czy je d n o stk a sa m a jest aktywna, jak silne jest
jej wzbudzenie, a przede wszystkim - jaka jest waga połączenia ij. Oczywiście
jednostka i pobiera sygnały od innych jednostek warstwy wejściowej. Jeśli
zsumowana wartość zważonych pobudzeń przekroczy wartość progową, jed­
nostka i uaktywni się, a przez to będzie mogła przekazywać sygnały innym
neuronom, przede wszystkim jednostkom warstwy wyjściowej. Skuteczność
takich przekazów będzie rzecz jasna zależała od wag odpowiednich połączeń
między neuronami. Dodajmy, że niektóre połączenia między neuronami mogą
mieć funkcję hamowania aktywności neuronów wyższej warstwy. Zdarzają się
też w sieciach połączenia zwrotne, polegające na tym, że neuron pobudza lub
hamuje sam siebie.
Modelowanie za pomocą sieci neuropodobnych tym się różni od „starej,
dobrej sztucznej inteligencji”, że operuje strukturami subsymbolicznymi. Kla­
syczny program komputerowy napisany jest w języku symboli, które coś znaczą,
np. odnoszą się do twierdzeń rachunku zdań albo do operacji przekształcania
symboli. Oczywiście komputer „nie rozumie” symboli, trzeba go więc wyposażyć
w interpreter, czyli system przekładu symboli na zero-jedynkowy język
maszynowy. W każdym razie, dzięki przetwarzaniu symboli, starsze modele
^tucznej inteligencji były w stanie, za pomocą właściwego programu, dowodzić
twierdzeń lub sensownie odpowiadać na określony zestaw pytań. Modele
sieciowe zbudowane są z jednostek, które same w sobie nie znaczą zupełnie nic,
a więc nie mogą być uznane za symbole czegokolwiek. Sieć neuropodobna może
czytać symbole, np. komunikaty w języku naturalnym, ale tylko pod warunkiem,
że się tego wcześniej nauczy.
Zdolność sieci do uczenia się jest dla psychologa najbardziej frapującym
aspektem modelowania subsymbolicznego. Nowo utworzona sieć jest niczym
tabula rasa: nic „nie wie” i niczego „nie umie”. Wystarczy jednak zadać jej
dowolne zadanie, np. zastąpienia liter w napisie PSYCHOLOGIA literami zaj­
mującymi następne miejsce w alfabecie, aby już po kilku tysiącach prób, zwa­
nych epokami, otrzymać poprawną odpowiedź: RTZDIPMPHJB. Kilka tysięcy
prób to dużo w porównaniu z możliwościami dorosłego, inteligentnego czło­
wieka, pamiętajmy jednak, że sieć startuje z poziomu „zera absolutnego”.
Ponadto dużą liczbę epok można skompensować olbrzymią - w porównaniu
z możliwościami człowieka - szybkością działania maszyny. Zresztą celem
takich zabiegów nie jest stworzenie sztucznej inteligencji, zdolnej pokonać
człowieka, lecz otrzymanie systemu wiernie symulującego ludzkie czynności
poznawcze; koniec końców zawsze chodzi o lepsze poznanie tychże czynności.
Warunkiem wyuczenia się przez sieć określonych sprawności jest dostarczenie
jej informacji zwrotnej. Na przykład przesuwając litery o jedno miejsce
w alfabecie, sieć na początku działa zupełnie chaotycznie, przez co w większości
otrzymuje negatywną informację zwrotną (źle!). Przypadkiem może wykonać
poprawny ruch - wtedy otrzymuje pozytywną informację zwrotną (dobrze!). To
wystarczy, aby sieć wyuczyła się bezbłędnego przesyłania informacji z wejścia
30
Kozaziai 1. Umysł i poznanie
do wyjścia, zgodnie z wymaganiami postawionego jej zadania. Badacz nie
poucza sieci, jak ma działać, mówi jej tylko, czy wynik jest zgodny z jego ocze­
kiwaniami. Sieć uczy się sama, wykazując zdolność do samoorganizacji i samo­
kontroli.
Postępując w ten sposób, badacze stworzyli tysiące modeli przetwarzania
informacji. Zdecydowana większość to modele bardzo szczegółowe, opisujące
np. rozpoznawanie liter lub innych wzorców. Sieci neuropodobne okazały się
szczególnie przydatne do modelowania procesów związanych z obróbką danych
językowych, a także z nabywaniem języka. Zdolność sieci do uczenia się wy­
korzystano w badaniach nad rozwojem poznawczym (Karmiloff-Smith, 1992).
Wykazano też przydatność modelowania za pomocą sieci neuronowych
w badaniach nad deterioracją wybranych funkcji poznawczych. Badacz może
np. nauczyć sieć, aby wytwarzała sensowne reakcje werbalne w odpowiedzi na
zadaną stymulację, a następnie może taką sieć celowo uszkodzić, usuwając z niej
poszczególne jednostki lub warstwy. Zachowanie sieci uszkodzonej symuluje
więc zachowanie pacjenta po wylewie lub operacji neurochirurgicznej. Oczy­
wiście w każdym przypadku modelowania musimy porównać zachowanie sieci
z zachowaniem żywych ludzi, np. pacjentów neurochirurgicznych. Jeśli stwier­
dzimy, że sieć zachowuje się porównywalnie do człowieka (np. generuje ten sam
typ błędów), możemy uznać, że dysponujemy trafnym modelem teoretycznym
badanej funkcji poznawczej. Ten rodzaj postępowania badawczego prowadzi do
gromadzenia wiedzy na temat wybranych czynności poznawczych, na razie
zresztą dość wąsko zdefiniowanych. Jednak cała filozofia prowadzenia tych
badań skłania do wniosku, że koneksjonizm jest czymś więcej niż tylko szcze­
gółową metodologią badań kognitywnych. Jest mianowicie ogólną koncepcją
działania umysłu ludzkiego, jak też wszelkich innych umysłów (zwierzęcych
i sztucznych).
1.4. P odsum ow anie
Omówiony w tym rozdziale podział na stabilne reprezentacje i dynamiczne
procesy poznawcze określił strukturę całego podręcznika. Część pierwszą
poświęcono różnym rodzajom reprezentacji umysłowych, część drugą elementarnym procesom poznawczym (uwaga, kontrola poznawcza, percepcja,
pamięć), a część trzecią - złożonym procesom poznawczym (myślenie, roz­
wiązywanie problemów, podejmowanie decyzji, używanie języka). W dalszych
rozdziałach będziemy się wielokrotnie odwoływać do niniejszego prologu, przez
co treści w nim zawarte nabiorą, być może, nowego sensu. Z drugiej strony
rozmaite kwestie szczegółowe, omawiane w następnych rozdziałach, powinny
stać się bardziej zrozumiałe w wyniku odniesienia ich do podstawowych
problemów teoretycznych podjętych w rozdz. 1.
R ozd ział
Istota i forma
reprezentacji umysłowych
Pojęcie reprezentacji umysłowej
60
Weryfikacja sylogizmów i treści zdań
Reprezentacje a procesy poznawcze
Realizm a konstruktywizm
Teoria podwójnego kodowania
80
Słowo i obraz - w zajem ne relacje
61
Rodzaje reprezentacji umysłowych
Reprezentacje obrazowe
60
62
64
Wyobraźnia, wyobrażenia i obrazy um y­
słowe 64
Reprezentacje num eryczne
76
82
86
Pierwotność czy wtórność nietrw ałych re ­
prezentacji umysłowych 89
Hipoteza języka myśli
89
Teoria reprezentacji obrazow ych Kosslyna 65
Teoria pierw otnych reprezentacji w for­
m ie zbioru sądów Pylyshyna 91
Hipoteza funkcjonalnej ekwiwalencji per­
cepcji i wyobraźni 66
T eoria m odeli m e n ta ln y c h Jo h n so n -Lairda 95
Rotacje m entalne
Stanowisko eklektyczne w sporze o kod
reprezentacji umysłowych 96
Skaning m entalny
67
72
Krytyka stanowiska obrazowego
Reprezentacje w erbalne
76
75
Podsum owanie
97
Reprezentacja poznawcza to umysłowy odpowiednik obiektów - realnie
istniejących, jak też fikcyjnych łub hipotetycznych. Obiektem reprezentacji
może być przedmiot, osoba, kategoria łub relacja. Reprezentacja poznawcza
zastępuje swój obiekt w procesach przetwarzania informacji.
Reprezentacje nietrwałe (wyobrażenia, etykiety werbalne, sądy, modele
umysłowe) powstają doraźnie, np. w celu podjęcia decyzji łub rozwiązania
problemu, po czym zanikają. Reprezentacje trwałe, składające się na struktury
wiedzy, powstają i zmieniają się w dłuższym cyklu czasowym.
Według anegdoty, trzech ślepców napotkało na swej drodze słonia. Jeden dot­
knął trąby i stwierdził, że trzyma w ręku węża. Drugi zderzył się z nogą słonia
i był przekonany, że natknął się na słup. Trzeci złapał za ogon i wydawało mu się,
że trzyma w ręku sznur.
Jeśli zgodzimy się, że słoń jest realnym, obiektywnie istniejącym obiektem,
wypowiedzi trzech ślepców odpowiadają trzem różnym sposobom umysłowej,
poznawczej reprezentacji tegoż obiektu. Nasze poznawcze reprezentacje świata
przypominają wyobrażenia ślepców na temat słonia. Nie są zasadniczo błędne raczej niekompletne, wybiórcze i ściśle powiązane z osobistym doświadczeniem.
Każdy człowiek buduje swój obraz świata, który zazwyczaj jest zasadniczo
różny od obrazu zbudowanego przez inne osoby o podobnych doświadczeniach
i porównywalnych zdolnościach umysłowych. Psychologia poznawcza bada,
w jaki sposób ludzie przedstawiają sobie w umyśle składniki obiektywnego
świata. Zajmuje się też problemem, jaki format przyjmują poznawcze repre­
zentacje rzeczywistości oraz jakie pełnią funkcje.
2.1. Pojęcie reprezentacji umysłowej
2.1 .1 . Reprezentacje a procesy poznawcze
Zdaniem Zenona Pylyshyna (1973), głównym zadaniem psychologii poznawczej
jest rozwiązanie dwóch problemów. Pierwszy polega na badaniu istoty i cha­
rakteru naszej wiedzy, drugi zaś - na ustaleniu, w jaki sposób tę wiedzę na­
bywamy i jak jej używamy. Pierwszy problem sprowadza się do kwestii, dzięki
jakim strukturom świat jest odzwierciedlony czy też reprezentowany w naszym
umyśle. Istotą drugiego problemu jest opisanie i wyjaśnienie przebiegu
procesów przetwarzania informacji. Procesy te z jednej strony polegają na
tworzeniu struktur wiedzy, a z drugiej strony - na przekształceniach i operacjach
dokonujących się na wiedzy wcześniej nabytej. Dzięki procesom nabywania
i przekształcania wiedzy możliwe jest generowanie zachowań adekwatnych do
sytuacji, kontekstu, polecenia lub instrukcji.
Z dwóch problemów, sformułowanych przez Pylyshyna, pierwszy wydaje
się bardziej podstawowy i - z tego właśnie powodu - wymagający rozważenia
w pierwszej kolejności. Charakter i przebieg poszczególnych procesów prze­
twarzania informacji może bowiem wynikać z charakteru i formy reprezentacji
umysłowych, a więc z tego, na jakim operują materiale. Na przykład zupełnie
2.1. Pojęcie reprezentacji umysłowej
61
inne prawa przebiegu procesów poznawczych obowiązują wtedy, gdy pamięć
robocza przechowuje i przekształca materiał wizualny, a inne wtedy, gdy rzecz
dotyczy materiału werbalnego (zob. rozdz. 8.2). Inny przykład: podobieństwo
formy umysłowego odzwierciedlenia bodźców prezentowanych w dwóch za­
daniach jednoczesnych może mieć decydujący wpływ na wzrost kosztów po­
dzielności uwagi, związanych z interferencją strukturalną (zob. rozdz. 5.4).
Zanim więc szczegółowo omówimy przebieg procesów przetwarzania informa­
cji, takich jak procesy pamięci, percepcji lub uwagi, zatrzymamy się nieco dłużej
nad problemem, w jaki sposób człowiek przedstawia sobie w umyśle otaczającą
go rzeczywistość.
Reprezentacja rozumiana ogólnie to „rzecz coś oznaczająca, zajmująca
miejsce czegoś, symbolizująca lub coś przedstawiająca” (Reber, 2000, s. 623).
Funkcją reprezentacji poznawczych jest więc przedstawienie w obrębie umysłu
wszelkich zdarzeń bodźcowych dostępnych zmysłom. W zależności od orientacji
teoretycznej, psychologowie uważają, iż reprezentacje powstają albo w wyniku
bezpośredniego odwzorowania („odciśnięcia”) bodźca w umyśle, albo też w pro­
cesie budowania złożonej konstrukcji umysłowej. Proces tworzenia konstrukcji
umysłowej ma polegać na zakodowaniu danych sensorycznych w specjalnym
języku, w wyniku czego dane zmysłowe zostają „przetłumaczone” na dane
umysłowe. Pierwsze stanowisko określa się mianem realizmu, natomiast drugie
nosi nazwę konstruktywizmu.
2.1.2. Realizm a konstruktywizm
Historycznie rzecz ujmując, realizm w poglądach na naturę reprezentacji do­
minował od starożytności aż do czasów średniowiecznych (Kemp, 1998).
Jednak i w późniejszych okresach rozwoju nauki, aż do nastania „rewolucji
poznawczej”, pogląd ten często uznawano za słuszny. Przekonanie, iż umysłowe
reprezentacje obiektów rzeczywistych są strukturami psychicznymi, zachowu­
jącymi formę oraz szczegóły wyglądu ich realnych pierwowzorów, zostało
zapoczątkowane przez Platona. Metafora umysłu jako zbioru „pieczęci odciś­
niętych w wosku” została później przejęta przez Arystotelesa i dopiero Ockham
wskazał na możliwość istnienia reprezentacji umysłowych innego rodzaju,
niekoniecznie zachowujących sensoryczną formę rzeczy. Ockham (za: Kemp,
1998) był wprawdzie zdania, iż pierwsze spostrzeżenie fizycznego kształtu
przedmiotu jest niezbędne do utworzenia jego reprezentacji umysłowej, jednak
sama reprezentacja nie musi przejawiać właściwości obiektu, do którego się
odnosi. Reprezentacja może być bowiem przywołana również wtedy, gdy obiekt
nie jest dany procesom percepcji, a więc gdy pozostaje tylko wyobrażony, a nie
spostrzeżony. Nic się wtedy nie „odciska” w umyśle, a mimo to powstaje
poznawcze odzwierciedlenie wyobrażonego obiektu.
Współcześnie psychologowie poznawczy stoją raczej na stanowisku konstruktywistycznym (Bruner, 1978). Wynika to z olbrzymiej i ciągle narastającej
liczby danych empirycznych pokazujących, że ten sam obiekt może być umy­
słowo reprezentowany na wiele różnych sposobów, w zależności od nastawie­
nia, kontekstu, wcześniej nabytej wiedzy, oczekiwania, stanu motywacyjnego,
nastroju lub emocji, wreszcie trwałych wymiarów intelektu i osobowości. Jeśli to
u Ci
n o z a z ia i c . is to ta i iurm a re p re z e n ta c ji u m y s io w y tn
samo może być widziane, rozumiane, zapamiętywane i interpretowane na wiele
różnych sposobów, to znaczy, że obiekty nie „odciskają się” w żadnym umysło­
wym „wosku”; przeciwnie, każdy z nas samodzielnie i aktywnie konstruuje treść
swoich przedstawień umysłowych, choć może nie zdawać sobie sprawy z samego
faktu istnienia takiej aktywności. Współczesna psychologia poznawcza, wraz
z naukami pokrewnymi, nie może istnieć bez pojęcia reprezentacji umysłowych,
choć nie brakuje i takich, którzy twierdzą, iż reprezentacje umysłowe nie są
w ogóle przydatne w procesach przetwarzania informacji (Gibson, 1979; zob.
rozdz. 7.4). Z faktu, iż coś nie jest przydatne, wynika, że przypuszczalnie nie
istnieje, ponieważ zakładamy, że funkcjonowanie umysłu podlega zasadzie
ekonomii.
Wydaje się, że spór o istnienie reprezentacji poznawczych toczy się na
dwóch płaszczyznach: teoretycznej i metodologicznej. Na płaszczyźnie teore­
tycznej rozważa się kwestię, czy rzeczywiście istnieją jakieś poznawcze odpo­
wiedniki świata w umyśle. Natomiast na płaszczyźnie metodologicznej chodzi
o pytanie, czy pojęcie reprezentacji poznawczej jest niezbędne do prawidłowego
opisu i wyjaśnienia funkcjonowania umysłu. Ktoś może być przekonany, że
reprezentacje realnie istnieją, ale kierując się zasadą, aby nie mnożyć bytów
ponad konieczną potrzebę, próbuje w uprawianiu psychologii obejść się bez tego
terminu. Ktoś inny może wątpić w realne istnienie reprezentacji poznawczych,
ale posługuje się tym konstruktem, budując teoretyczne modele badanych
zjawisk. Zresztą spór o istnienie reprezentacji może mieć bardzo proste roz­
strzygnięcie, jeśli uzna się, że niektóre czynności poznawcze wymagają przed­
stawień umysłowych, a inne nie. Zgromadzono na przykład wiele danych su­
gerujących, że niektóre procesy spostrzegania mogą polegać na bezpośrednim
kontakcie umysłu z obiektem (Gibson, 1979). Nie zmienia to faktu, że inne
przypadki percepcji, występujące w sytuacjach bardziej złożonych lub wie­
loznacznych, bez żadnej wątpliwości dowodzą istnienia indywidualnych,
aktywnie i samodzielnie skonstruowanych przedstawień umysłowych.
Jednak samo uznanie istnienia reprezentacji, wraz z uznaniem metodolo­
gicznej niezbędności tego konstruktu teoretycznego, nie oznacza jeszcze zgody
co do sposobu ich istnienia i funkcjonowania. Toczący się na gruncie psy­
chologii poznawczej spór o reprezentacje umysłowe sprowadza się więc do
dwóch kwestii: sposobu kodowania danych zmysłowych (języka reprezentacji)
oraz sposobu organizacji danych umysłowych (struktury reprezentacji).
Rozwiązanie tych kwestii zależy od bardziej podstawowego pytania: „W jakim
stopniu umysłowe reprezentacje otaczających nas obiektów mogą odbiegać
swoją formą od sensorycznych właściwości tychże obiektów?”
2.1 .3 . Rodzaje reprezentacji um ysłowych
W świetle poszczególnych stanowisk teoretycznych reprezentacje umysłowe
mogą przyjmować przeróżne formy. Na przykład Allan Paivio (1986) zalicza do
reprezentacji poznawczych m.in. obrazy umysłowe, ślady pamięciowe, słowa
(elementy języka), sądy, pojęcia (reprezentacje pojęciowe: prototypy, listy cech)
oraz schematy (skrypty, ramy, procedury). Reber (2000) za najważniejsze
rodzaje reprezentacji umysłowych uważa obrazy umysłowe, słowa (elementy
2.1. Pojęcie reprezentacji umysłowej
63
języka) i idee (abstrakcje). Wreszcie Eysenck i Keane (1990), w najbardziej
chyba przejrzystym, ale też i najbardziej restrykcyjnym podziale reprezentacji
umysłowych, wyróżniają reprezentacje analogowe (obrazy umysłowe, modele
mentalne) oraz reprezentacje w formie zbioru sądów czy też twierdzeń
(propositions). Obrazy umysłowe są rodzajem reprezentacji umysłowej najbar­
dziej zbliżonym do rzeczywistej formy przedstawianych obiektów, natomiast
abstrakcyjne pojęcia są od tej formy bardzo odległe. Na przykład wyobrażenie
domu nosi pewne cechy prawdziwego domu nie tylko ze względu na obecność
typowych szczegółów (np. okna, dach), ale przede wszystkim ze względu na
odpowiedniość relacji między tymi szczegółami (np. dach jest u góry nie tylko
w prawdziwym domu, ale też w jego wyobrażeniu). Natom iast pojęcie
„instytucja finansowa”, choć zawiera w sobie istotne elementy obiektu, nie za­
chowuje wobec niego żadnej odpowiedniości fizycznej. Pojęcie abstrakcyjne
może być pełne, ścisłe i bogate w treść, ale w niczym nie przypomina repre­
zentowanego obiektu, który zresztą w takim wypadku nie jest obiektem jed­
nostkowym, lecz szeroką i ogólną kategorią nadrzędną. Niektóre reprezentacje
pojęciowe nie mają w ogóle konkretnych, sensorycznych odpowiedników
w świecie rzeczywistym (Paivio, 1986).
Ze względu na różnice w formie odzwierciedlenia rzeczywistości,
reprezentacje umysłowe różnią się także swoją trwałością. Na przykład w toku
rozwiązywania problemu w umyśle tworzone są struktury przedtwórcze (Smith,
Ward, Finkę, 1995) czy też struktury próbne (Nęcka, 1987), którymi mogą być
np. obrazy umysłowe lub utworzone na próbę pojęcia. Są to struktury ułat­
wiające twórcze rozwiązanie problemu dzięki przybliżeniu nas do idealnego, na
razie nieosiągalnego stanu docelowego (Newell, Simon, 1972). Te nietrwałe
reprezentacje, tworzone ad hoc w procesie rozwiązywania problemu, mogą
zostać natychmiast zastąpione innymi reprezentacjami, bardziej adekwatnymi
lub lepiej przybliżającymi nas do celu, czyli rozwiązania. Natomiast reprezenta­
cja pojęciowa matki z reguły należy do najmniej podatnych na jakiekolwiek
zmiany. Kształtuje się bardzo wcześnie w życiu człowieka i zazwyczaj odpo­
wiada pierwszemu napotkanemu egzemplarzowi tej kategorii (Reed, 1972).
Taką formę reprezentacji można uznać za względnie trwałą i w niewielkim
stopniu podatną na modyfikacje.
W tym rozdziale rozważymy problem, w jakim języku kodowania mogą być
reprezentowane dane zmysłowe odbierane przez jednostkę. Omówimy koncep­
cje reprezentacji w formie konkretnych obrazów umysłowych oraz stów
(elementów języka), jak też w formie bardziej abstrakcyjnych sądów lub modeli
umysłowych. Przedmiotem zainteresowania będą zatem nietrwale reprezentacje
poznawcze, powstające w umyśle, np. w procesie rozwiązywania problemów.
Rozważymy również problem, czy konkretne reprezentacje analogowe są wtórne
wobec trwałych, amodalnych zbiorów twierdzeń o relacjach między obiektami.
Problem struktury i funkcjonowania trwałych reprezentacji umysłowych, takich
jak pojęcia, schematy, skrypty i ramy, zostanie rozważony w rozdz. 3.
64
Rozdział 2. Istota i forma reprezentacji umysłowych
2.2. Reprezentacje obrazowe
2.2.1. Wyobraźnia, wyobrażenia i obrazy um ysłowe
Często zamiast pojęcia „reprezentacja umysłowa” stosowany bywa zamiennie
termin „wyobrażenie”, choć wyobrażenie to zaledwie jeden z wielu typów
reprezentacji. Wyobrażeniem nazywamy nietrwałą strukturę poznawczą, nieco
przypominającą spostrzeżenie, choć w przeciwieństwie do percepcji występują­
cą pod nieobecność wyobrażonego obiektu. Wyobraźnia jest zdolnością umysłu
ludzkiego do tworzenia wyobrażeń, zdolnością ściśle związaną ze spostrzega­
niem. Nie znaczy to, że wyobrażenie musi koniecznie przyjmować formę
obrazową; na temat formy reprezentacji wyobrażeniowych toczy się w psycho­
logii ostry spór teoretyczny. W każdym razie wyobrażeniem nazywamy umysło­
we przedstawienie przedmiotu, który przestał działać na nasze zmysły, co
podkreśla Ulric Neisser (1967), Tomasz Maruszewski (1997) i wielu innych
autorów. Według Neissera (1972, s. 245), „człowiek tworzy wyobrażenia (is
imaging), kiedy wykorzystuje te same procesy przetwarzania informacji, które
biorą udział w postrzeganiu, ale w sytuacji, gdy bodźce normalnie wzbudzające
takie spostrzeżenie nie są obecne”. W innym miejscu Neisser traktuje jednak
wyobraźnię jako specyficzny stan uwagi, aby podkreślić, że proces wyobrażania
sobie rzeczywistych obiektów jest związany z aktywną, „odgórną” selekcją
informacji (zob. rozdz. 5.2.1), w przeciwieństwie do pasywnej „oddolnej” ich
percepcji (zob. rozdz. 7.2). Wypada jednak zauważyć, że procesy spostrzegania
są w dużej mierze również „odgórne”, tj. zależne od wiedzy i aktywności
podmiotu.
Żeby uniknąć nieporozumień i pułapek terminologicznych, ustalmy, co
następuje. Wyobrażenie jest jedną z postaci poznawczej reprezentacji obiektu
w umyśle. Charakteryzuje się brakiem trwałości oraz ścisłym powiązaniem
z percepcją. Wyobraźnia to zdolność umysłu do generowania takich właśnie
wyobrażeniowych reprezentacji świata. Tradycyjnie wyróżniano wyobraźnię
odtwórczą i twórczą. Pierwsza miała być odpowiedzialna za tworzenie wyobra­
żeń obiektów wcześniej spostrzeganych i dobrze znanych, np. wyobrażenia
konia, którego w danym momencie nie widzimy. Druga miała tworzyć kon­
strukcje fantazyjne lub „niemożliwe”, np. wyobrażenie Pegaza (pół koń, pół
człowiek) lub syreny (pół ryba, pół kobieta). Obecnie oba rodzaje konstrukcji
umysłowych uznaje się za twory tej samej zdolności do generowania wyobrażeń,
natomiast wyobraźnią twórczą nazywa się inną zdolność, umożliwiającą
tworzenie nie tylko nowych wyobrażeń, ale też nowych pojęć i innych
reprezentacji poznawczych. Trzecie ważne pojęcie to obraz umysłowy. Tym
terminem określamy szczególną formę poznawczej reprezentacji świata
w umyśle, cechującą się analogowym charakterem i ścisłą odpowiedniością
reprezentacji w stosunku do obiektu. Na przykład obraz umysłowy konia to jak
gdyby wewnętrzna „fotografia” tego obiektu w umyśle. Wielu badaczy odrzuca
twierdzenie, jakoby każdy z nas tworzył w umyśle jakieś „fotografie”. Istnienie
wyobrażeń tłumaczy się wówczas inaczej, np. tym, że umysł generuje wyobra­
żenie z głębszych struktur wiedzy, zapisanych nie w postaci obrazów, lecz
w języku pojęć lub twierdzeń; będzie o tym mowa w dalszych częściach tego
rozdziału. Obraz umysłowy jest więc konstruktem teoretycznym, używanym
2.2. Reprezentacje obrazowe
65
w celu wyjaśnienia, jak jest możliwe tworzenie przez umysł wyobrażeniowych
reprezentacji świata, natomiast wyobrażenie to jeden z rodzajów takiej repre­
zentacji, którego istnienie nie jest w zasadzie przedmiotem sporu teoretycznego.
Termin „wyobrażenie” wprowadził do języka nauki Arystoteles, natomiast
pierwsze psychologiczne badania nad wyobrażeniami podjął w XIX w. Francis
Galton (1883). Poprosił on osoby badane o wyobrażenie sobie stołu
zastawionego śniadaniem, a następnie o wypełnienie kwestionariusza, którego
wyniki pozwalały na stwierdzenie, czy wyobrażenia poszczególnych osób różnią
się jakościowo i ilościowo. Okazało się, że reprezentacje umysłowe przywoły­
wane przez badanych były bardzo zróżnicowane. Wystąpiły także wyraźne
różnice między wyobrażeniami tej samej osoby testowanej w różnym czasie.
Przewidywał to już zresztą wcześniej Ockham (za: Kemp, 1998), podważając
tezę o dokładnym i zawsze identycznym odwzorowaniu obiektu (tu: śniadania)
w formie reprezentacji umysłowej (tu: wyobrażenia). Co więcej, część osób
badanych albo nie potrafiła sobie wyobrazić niczego, albo też ich wyobrażenia
były fantazyjne i wyraźnie odbiegały od ich własnego, codziennego doświad­
czenia. Wyniki uzyskane przez Galtona zdecydowanie podważyły więc
stanowisko realizmu w sporze o reprezentacje umysłowe.
2.2.2. Teoria reprezentacji obrazowych Kosslyna
Według Stephena Kosslyna (1975, 1981, 1983), wyobrażenia składają się
z dwóch komponentów: powierzchniowego (surface) i głębokiego (deep).
Składnik powierzchniowy zawiera to, co jest dostępne w doświadczeniu
wewnętrznym, natomiast składnik głęboki obejmuje to, co jest zapisane
w pamięci długotrwałej. Powierzchniowe elementy wyobrażenia powstają w wy­
niku działania elementów głębokich. Świadome i nietrwałe doświadczenie
wyobrażenia dotyczy jedynie komponentu powierzchniowego, zaś właściwe
wyobrażenie ma charakter trwale przechowywanego, ale niedostępnego
świadomemu doświadczeniu obrazu. Obraz ten koduje informację w sposób
przestrzenny i analogowy. Wszystkie obiekty składające się na konkretne
wyobrażenie mają więc swoją wielkość i znajdują się w pewnym położeniu oraz
w pewnej odległości względem innych obiektów. Na poszczególnych elementach
wyobrażenia (obiektach), jak i na całym wyobrażeniu można dokonać takich
samych operacji, jakich dokonuje się na prawdziwych obrazach. Dotyczy to np.
operacji przeglądania (inspekcji obrazu), powiększania czy rotowania. Te
właściwości przestrzenno-operacyjne są dane i realizowane bezpośrednio
w wyobrażeniu i nie mają charakteru symbolicznego. W sposób symboliczny
może być natomiast przedstawiana głęboka reprezentacja umysłowa, ale z prac
Kosslyna niewiele można wyczytać na temat jej formy. Problem głębokich
reprezentacji umysłowych, za pomocą których tworzą się odpowiadające im
powierzchniowe obrazy mentalne, zostanie omówiony w rozdz. 3.
Rozważania Kosslyna, dotyczące powierzchniowego komponentu wyob­
rażenia, prowadzą nas w samo centrum sporu o naturę wyobrażeń. Część
badaczy (Kosslyn, 1981; Paivio, 1986; Cooper, Shepard, 1973) argumentuje, iż
wyobrażenia wzrokowe są kodowane w postaci reprezentacji posiadających
zarówno własności przestrzenne, jak i właściwiści specyficzne dla poszczegól­
uu
nozaziai
i stu ta i iorma reprezentacji umysiowycn
nych modalności zmysłowych. Na przykład wyobrażenie konia zawiera relacje
przestrzenne identyczne jak w przypadku prawdziwego konia: grzywa jest na
łbie, a nie przy ogonie itd. Ponadto, wyobrażając sobie konia, odtwarzamy część
doznań sensorycznych związanych z prawdziwym koniem; chodzi o zmysł
wzroku, słuchu (np. tętent kopyt, rżenie), zapachu itd. Pogląd ten przyjął się
w literaturze pod nazwą stanowiska obrazowego, w przeciwieństwie do
stanowiska nazywanego twierdzeniowym (propozycjonalnym). Zwolennicy
stanowiska propozycjonalnego (np. Anderson, 1997; Pylyshyn, 1973) wyrażają
przekonanie, iż dane zmysłowe są kodowane w postaci abstrakcyjnych zbiorów
twierdzeń czy też sądów, podobnie zresztą jak informacje werbalne. Ich zdaniem
istnienie kodu w postaci abstrakcyjnego zbioru sądów pozwala wyjaśnić, jak to
możliwe, iż ludzie potrafią opisywać obrazy słowami bądź tworzyć obrazy w celu
ilustrowania treści słownych (Pylyshyn, 1973). Zwolennicy stanowiska ob­
razowego uważają natomiast, że informacjom wizualnym i werbalnym przy­
sługują odrębne kody (Paivio, 1976).
Oczywiście, z faktu istnienia dwóch wyszczególnionych stanowisk nie
wynika, iż ktokolwiek kwestionuje istnienie fenomenu, jakim jest wyobraźnia
wzrokowa. W szczególności nikt nie wątpi, że ludzie subiektywnie doświadczają
wyobrażeń wzrokowych, słuchowych, dotykowych, smakowych, węchowych lub
dotyczących zmysłu równowagi. Wątpliwości dotyczą jedynie tego, na ile
fenomenologiczne doświadczenie wyobrażania sobie obiektów odzwierciedla
prawdziwą naturę wyobrażeń. Zdaniem propozycjonalistów, prawdziwa natura
wyobrażeń zawiera się w abstrakcyjnym zapisie w postaci sądów (np. dach jest
zielony, na lewo od drzewa znajduje się kamień). Natomiast zdaniem przed­
stawicieli stanowiska obrazowego prawdziwa natura wyobrażeń sprowadza się
do tego, że są one zapisane w postaci analogowych obrazów umysłowych
o dużym stopniu przestrzennej odpowiedniości w stosunku do „oryginału”.
2.2 .3 . Hipoteza funkcjonalnej ekw iw alencji percepcji i wyobraźni
Istnieje wiele danych świadczących o tym, że wyobrażenia rzeczywiście mogą
mieć formę obrazową oraz że wyobraźnia i percepcja prowadzą do podobnych
skutków poznawczych. Dane te pochodzą m.in. z badań, w których uczestnicy
mogli wykonywać to samo zadanie w dwóch warunkach eksperymentalnych.
W pierwszym osoby badane mogły formułować sądy o obiekcie, opierając się na
spostrzeganiu (zazwyczaj percepcji wzrokowej), a więc na danych zmysłowych,
w drugim zaś - jedynie na swoich wyobrażeniach, a więc na poznawczych
reprezentacjach obiektu. Postępując zgodnie z tą procedurą, badacze starali się
rozstrzygnąć spór o naturę wyobrażeń. Argumentów na rzecz tezy o funkcjo­
nalnej ekwiwalencji wyobraźni i percepcji dostarczają badania prowadzone
zwłaszcza przez Sheparda i jego współpracowników.
Shepard i Chipman (1970) wybrali z mapy Ameryki Północnej 15 stanów
USA. Niektóre były do siebie podobne pod względem kształtu i powierzchni,
inne zdecydowanie różniły się między sobą. Następnie badacze poprosili uczest­
ników o ocenę podobieństwa pod względem kształtu i powierzchni 105 par wy­
branych regionów. Osoby badane w pierwszym warunku mogły przez cały czas
korzystać z mapy. W warunku drugim pytania zadawano dopiero wtedy, gdy
2.2. Reprezentacje obrazowe
67
mapę usunięto już z pola widzenia. Zatem w pierwszym warunku badani mogli
korzystać z percepcji, podczas gdy w warunku drugim umożliwiono im korzysta­
nie tylko z wyobrażeń. Okazało się, że poprawność w warunku percepcyjnym
była wysoko i pozytywnie skorelowana z poprawnością w warunku wyobraże­
niowym. Tak więc osoby dobrze korzystające z możliwości, jakie daje percepcja,
skutecznie radzą sobie wtedy, gdy mogą posłużyć się tylko wyobraźnią.
W kolejnym eksperymencie na wstępie poproszono uczestników o ocenę
podobieństwa cyfr arabskich, umieszczonych na tablicy w zasięgu wzroku (Shepard, 1975). Następnie tablicę usunięto, polecając osobom badanym wyobrazić
sobie cyfry i ponownie określić stopień ich podobieństwa. Wreszcie poproszono
uczestników badania o przedstawienie sobie w umyśle każdej z tych cyfr w postaci
odpowiedniej liczby kropek, co wymagało dokonania transformacji umysłowej. Na
przykład cyfrę 3 należało przekształcić w trzy kropki, a cyfrę 8 - w osiem kropek.
Shepard stwierdził, że choć przed transformacją cyfry 3 i 8 były przez uczestników
eksperymentu często oceniane jako podobne (zarówno w warunku spostrzeże­
niowym, jak i wyobrażeniowym), to po dokonaniu wymaganej przez niego trans­
formacji cyfra 3 (reprezentowana przez trzy kropki) i cyfra 8 (reprezentowana
przez osiem kropek) były spostrzegane jako różne. Po transformacji podobne
wydawały się natomiast cyfry 4 i 6, a także cyfry 8 i 6, ze względu na podobieństwo
graficzne przedstawienia tych cyfr w postaci zbioru kropek ulokowanych w dwóch
rzędach. Wyniki tych badań dostarczają bardzo silnych argumentów na rzecz tezy
o funkcjonalnej ekwiwalencji spostrzegania i wyobrażania.
Według Kosslyna (1981), wyniki prezentowanych powyżej badań potwier­
dzają słuszność jego koncepcji. Kosslyn argumentuje, że jeśli w rozwiązywaniu
zadań percepcja (dane zmysłowe) i wyobraźnia (dane umysłowe) prowadzą do
podobnych wyników i podobnych błędów, to procesy te są funkcjonalnie
ekwiwalentne. Jeśli zaś są funkcjonalnie ekwiwalentne, to - być może - również
mają podobną formę organizacji i zapisu w umyśle. Pierwszy pogląd jest
centralnym elementem funkcjonalnych teorii wyobraźni (zob. np. Cooper,
Shepard, 1973; przegląd: Finkę, 1985), natomiast drugi - koncepcji struktural­
nych (zob. np. Kosslyn, 1981; przegląd: Finkę, 1985). Jednak przejście od
empirycznie potwierdzonych tez teorii funkcjonalnych do wysoce hipotetycz­
nych stwierdzeń teorii strukturalnych należy przyjmować bardzo ostrożnie,
podobnie jak inne twierdzenia psychologiczne oparte na wyjaśnieniach
funkcjonalnych (Edelman, 1998). Sukces egzaminacyjny można osiągnąć albo
w wyniku samodzielnego uczenia się, albo ściągania od kolegi. W obu
przypadkach rezultat testu jest taki sam, ale sposób jego osiągnięcia zupełnie
inny. Różne argumenty empiryczne, mogące świadczyć na korzyść koncepcji
Kosslyna, pochodzą z badań w zakresie dwóch odmiennych paradygmatów
badawczych: rotacji mentalnych (paradygmat 2.1) oraz skaningu umysłowego
(paradygmat 2.2). Za autora pierwszego z nich uznaje się Rogera Sheparda, zaś
pomysłodawcą drugiego jest sam Kosslyn.
2.2.4. Rotacje m entalne
Cooper i Shepard (1973) prezentowali osobom badanym na ekranie monitora
litery (G, J lub R) albo cyfry (2, 5 lub 7) nachylone pod różnymi kątami
Do
Rozdział
Istota i torma reprezentacji umysłowych
względem ich naturalnego położenia (od 0° do 300°; co 45° lub co 60°). Dodat­
kowo symbole te mogły być prezentowane prawidłowo albo w odbiciu lustrza­
nym. Zadaniem osób badanych było stwierdzenie, czy symbol jest wyświetlony
prawidłowo, czy też w lustrzanym odbiciu. Wyniki tego eksperymentu potwier­
dziły hipotezę funkcjonalnej ekwiwalencji percepcji i wyobraźni - badani
przekształcali obiekty w wyobraźni tak samo, jak by to robili, gdyby pozwolono
im korzystać ze spostrzegania lub czynności manualnych (Shepard, 1984). Czas
decyzji okazał się bowiem rosnącą funkcją kąta rotacji, przyjmującego wartość
od 0° do 180°. Dodatkowym argumentem było także stwierdzenie, że badani
dokonywali mentalnych rotacji symboli zawsze w kierunku umożliwiającym jak
najszybsze przekształcenie ich do pozycji naturalnej. W ten sposób litera
intencjonalnie obrócona przez badacza o 300° była mentalnie rotowana przez
badanych nie o 300° w kierunku zgodnym z ruchem wskazówek zegara, ale o 60°
w kierunku przeciwnym. Wykazano to na podstawie porównania czasów decyzji
- w przypadku rotacji o 60° i 300° czasy te były porównywalne. Jeśli jednak
osoby badane uprzedzono, że figura, którą za moment zobaczą, jest zrotowana o dany kąt, to obserwowana zależność zanikała, a czas decyzji był stały
(ok. 400 ms) i niezależny od kąta rotacji (paradygmat 2.1).
Paradygmat 2.1
t: Rotacja mentalna
: Paradygmat rotacji mentalnej polega na prezentowaniu osobie badanej dwóch
| bodźców, np. liter, cyfr iub figur geometrycznych, wzajemnie zrotowanych pod
l pewnym kątem. W każdej parze bodźce mogą być tylko zrotowane, albo zrotowane
i dodatkowo przekształcone, np. na zasadzie lustrzanego odbicia. Zadaniem
uczestnika eksperymentu jest udzielenie odpowiedzi na pytanie, czy dwa
prezentowane bodźce są identyczne. Jeśli są tylko zrotowane, osoba badana ma
i odpowiedzieć TAK (identyczne), ale jeśli bodźce są dodatkowo przekształcone,
| prawidłowa odpowiedź brzmi NIE (różne). Zmienną niezależną jest kąt rotacji,
| a zmienną zależną czas udzielania odpowiedzi. W niektórych eksperymentach
zamiast pary bodźców prezentuje się w każdej próbie tylko jeden element, np. literę
) lub cyfrę, oczywiście odpowiednio zrotowaną lub zrotowaną i dodatkowo 1
l zniekształconą. Do tej pory w badaniach wykorzystywano jako bodźce litery i cyfry
(Cooper, Shepard, 1973) oraz złożone figury dwu- i trzywymiarowe (Shepard,
Metzler, 1971). Zadaniem osób badanych była albo identyfikacja symboli (np.
Corballis i in., 1978), albo porównanie symboli parami (np. Joliceour i in., 1985),
albo podjęcie decyzji, czy symbol jest napisany prawidłowo, czy może w odbiciu
lustrzanym (Koriat, Norman, Kimchi, 1991). Rotacje dotyczyły płaszczyzny (np.
Cooper, Shepard, 1973) lub przestrzeni (np. Bauer, Joliceour, 1995).
W niemal wszystkich badaniach stwierdzono efekt zależności czasu ?
podejmowania decyzji od wielkości kąta rotacji. Zależność ta ma charakter
funkcji silnie rosnącej w przedziale kątowym od 0° do 180°, a funkcji silnie
malejącej w przedziale kątowym od 180° do 360°. Efekt rotacji mentalnych znika na
skutek uprzedzenia osób badanych o wielkości kąta rotacji. Podstawowe prawo
rotacji mentalnej oraz typowe bodźce użyte w eksperymencie przedstawiono
na ryc. 2.1.
2.2. Reprezentacje obrazowe
69
1100
1000
900
w
E
800
700
c
■O
<D
600
500
uprzednia informacja o wielkości
kąta rotacji
400
0
F
60
120
180
>7
ń
240
300
360
F
orientacja przestrzenna bodźca (rotacja zgodna z ruchem wskazówek zegara)
Ryc. 2.1. Wyniki eksperymentu Coopera i Sheparda (1971).
Paradygmat rotacji mentalnej był powszechnie wykorzystywany w badaniach
nad wyobraźnią, wyobrażeniami i zdolnościami przestrzennymi. Nadaje się do
badania różnic indywidualnych w zakresie wyobraźni przestrzennej, zwłaszcza
w wersji, w której trzeba porównywać złożone figury trójwymiarowe w rzucie na
płaszczyznę. Eksperyment tego rodzaju może też służyć jako test do badania
indywidualnego tempa rotacji, na podstawie którego ocenia się ogólne tempo
przetwarzania informacji przez człowieka. Wskaźnikiem tempa umysłowego jest
wówczas stromizna krzywej, przedstawiona na ryc. 2.1. Osoby cechujące się
szybkim tempem przetwarzania informacji uzyskują stosunkowo słabą stromiznę,
podczas gdy w przypadku osób ogólnie spowolniałych przyrost czasu w funkcji
kąta rotacji jest bardzo duży.
Rotacje mentalne nadają się też do prowadzenia badań na pograniczu
psychologii poznawczej i klinicznej. Interesujące wyniki z użyciem tego paradyg­
matu uzyskali Maruszewski i Ścigała (1998). Autorzy wykazali, że aleksytymicy źle
sobie radzą z mentalną rotacją obiektów, gdy są nimi bodźce afektywne, np. zdjęcia
twarzy ludzkich wyrażające emocje.
Podobne zależności ujawniono wtedy, gdy w eksperymentach zastosowano
bodźce trójwymiarowe. W badaniu Sheparda i Metzler (1971) prezentowano
uczestnikom na monitorze komputera dwie rotowane względem siebie figury
/u
nozaziai
istota i torma reprezentacji umysiowycn
trójwymiarowe (a właściwie ich rzuty na płaszczyznę). Następnie proszono
uczestników o decyzję, czy prezentowane obiekty są identyczne, a jedynie
zrotowane względem siebie, czy też różne, uzyskane w wyniku lustrzanego
odbicia jednej z nich. Aby rozwiązać to zadanie, osoby badane musiały po­
nownie dokonać „w umyśle” rotacji prezentowanych im figur, tym razem wy­
konując przekształcenia w wyobrażonej przestrzeni. Uzyskano wyniki podobne
do wcześniejszych - czas decyzji wzrastał wraz z wielkością kąta rotacji.
Płaszczyzna rotacji nie miała natomiast żadnego znaczenia dla wielkości stwier­
dzanego efektu rotacji - czasy decyzji w przypadku rotacji w płaszczyźnie ry­
sunku oraz w płaszczyźnie prostopadłej do płaszczyzny rysunku były porów­
nywalne przy analogicznej wielkości koniecznego kąta rotacji mentalnej. Wyniki
uzyskane przez Sheparda i Metzler potwierdził Jolicoeur wraz z współpra­
cownikami (Jolicoeur i in., 1985; Bauer, Jolicoeur, 1996). Badacze ci porównali
ponadto kształt funkcji zależności czasu decyzji od wielkości kąta rotacji
w przypadku figur dwu- i trójwymiarowych (ryc. 2.2). Funkcja ta okazała się
znacznie silniej rosnąca w przypadku rotacji figur trójwymiarowych niż figur
dwuwymiarowych.
Interesujące wyniki dotyczące efektu rotacji mentalnej uzyskali także
Corballis i współpracownicy (1978). W swoich trzech eksperymentach wyko­
rzystali oni ten sam zestaw symboli, jakiego wcześniej użyli Cooper i Shepard
(1973). Jednak zamiast prosić uczestników o stwierdzenie, czy litery lub cyfry
zostały „napisane” prawidłowo, czy też w lustrzanym odbiciu, wymagali iden­
tyfikacji prezentowanych obiektów, czyli po prostu nazywania bodźców.
Okazało się, że identyfikacja symboli prezentowanych w lustrzanym odbiciu
zabierała badanym więcej czasu niż identyfikacja symboli napisanych prawi­
dłowo, i to przy każdej wielkości kąta rotacji obiektów. Różnica ta wynosiła dla
każdego kąta rotacji od 25 do 30 ms i była względnie stała, ale dopiero od
drugiego bloku zadań, gdy osoby badane nabyły nieco wprawy w wykonywaniu
testu rotacji. Corballis i współpracownicy (1978) stwierdzili, że w przypadku
identyfikacji obiektów prezentowanych w lustrzanym odbiciu badani dokonują
dodatkowego przekształcenia, polegającego na lustrzanym odbijaniu obiektu, tak
by powrócił on w ich wyobraźni do naturalnej formy. Dzieje się to przed
właściwą rotacją kątową lub też po jej wykonaniu. Badacze ci potwierdzili
również wyniki uzyskane przez Coopera i Sheparda (1973) - czas identyfikacji
obiektów okazał się bowiem liniową funkcją kąta rotacji, przyjmującego wartości
od 0° do 180°, zaś mentalna rotacja dokonywała się zawsze w kierunku, któ­
ry zapewniał pokonanie mniejszej odległości kątowej z dwóch teoretycznie
możliwych wartości.
Można zatem wskazać na dwa argumenty przemawiające za tym, że
nietrwałe reprezentacje wyobrażeniowe mają charakter obrazowy. Głównym
argumentem pozostaje wielokrotnie stwierdzana liniowa zależność między ką­
tem rotacji obiektu a czasem potrzebnym na podjęcie w odniesieniu do niego
dowolnej decyzji. Warto podkreślić, że ten liniowy związek wykazywano nieza­
leżnie od typu zadania (identyfikacja, porównanie, decyzja co do pisowni
symbolu), typu rotowanego symbolu (litery, cyfry, symbole wymyślone), jego
wymiaru (bodźce dwu- lub trójwymiarowe), a także niezależnie od formy rotacji
(płaszczyzna, przestrzeń). Zwolennicy stanowiska obrazowego w sporze o na­
turę reprezentacji umysłowych interpretują powyższe fakty w ten sposób, iż
2.2. Reprezentacje obrazowe
71
Ryc. 2.2. Dwu* i trójwymiarowe figury używane w badaniach nad rotacją mentalną (za: Bauer,
Jolicoeur, 1996). Górna część pokazuje figury o rosnącym stopniu złożoności (dwa, trzy lub cztery
zagięcia, odpowiednio w kolumnie 1, 2 i 3). Dolna część pokazuje dwie identyczne pary identycznych
bodźców (wymagana reakcja: TAKIE SAME). Bodźce te są dwuwymiarowe (rząd górny) lub
trójwymiarowe (rząd dolny), zrotowane względem siebie o 60°.
ludzie dokonują w swojej wyobraźni dokładnie takich samych przekształceń,
jakich dokonywaliby, gdyby pozwolono im kontrolować rotację obiektów za
pomocą zmysłu wzroku czy też wtedy, gdyby pozwolono im po prostu ma­
nipulować prawdziwymi obiektami w przestrzeni. Świadczą o tym również
wyniki badań, w których uczestnicy pracowali w dwóch różnych warunkach:
percepcji i wyobraźni, a rezultaty uzyskane w obu warunkach niewiele się
różniły. Jest to drugi argument na rzecz tezy, że wyobrażeniowe reprezentacje
obiektów mają charakter obrazów, zaś przekształcenia, jakim podlegają, niczym
się nie różnią od przekształceń, jakimi można poddać obiekty realne lub
symulowane komputerowo.
/ fi
Hozaziat c. istota i lorma reprezentacji umysiowycn
2.2 .5 . Skaning m entalny
W jednych z pierwszych eksperymentów nad obrazami umysłowymi Kosslyn
(1975) podał uczestnikom sześć różnych wymiarów prostokąta prosząc ich,
aby wyobrazili sobie prostokąt o zadanej wielkości, a następnie - aby w obrębie
wyobrażonego prostokąta dodatkowo wyobrazili, sobie zwierzę, np. tygrysa.
Wreszcie zadawał pytania dotyczące cech wyobrażanego obiektu, np.: „Czy
tygrys jest cętkowany?” Czas udzielenia prawidłowej odpowiedzi okazał się
malejącą funkcją wielkości wyobrażonego prostokąta, a tym samym - wielkości
wyobrażonego zwierzęcia. Im większy był wyobrażony obiekt, tym mniej czasu
trzeba było na udzielenie odpowiedzi. Wielkość wyobrażonego obiektu była
oczywiście wynikiem manipulacji eksperymentalnej, zależała bowiem od
narzuconych przez instrukcję parametrów wyobrażonego w pierwszej kolejności
prostokąta. Liniowa zależność pomiędzy wielkością wyobrażenia a czasem
udzielania odpowiedzi dotyczyła zarówno pytań, w których oczekiwano
odpowiedzi pozytywnej (obiekt charakteryzował się cechą), jak i pytań,
w których poprawna była odpowiedź negatywna (obiekt nie posiadał cechy).
Osoby badane potrzebowały także więcej czasu na udzielenie odpowiedzi do­
tyczących mniejszych elementów danego obiektu (np.: „Czy tygrys ma uszy?”)
niż większych (np.: „Czy tygrys ma ogon?”). Czas decyzji okazał się więc po­
nownie zależny od wielkości reprezentowanych obiektów, które tym razem były
częścią pierwotnego wyobrażenia.
W kolejnych badaniach Kosslyn (1983) prosił uczestników o wyobrażanie
sobie zwierząt parami. Zwierzęta wyraźnie różniły się wielkością w obrębie
każdej pary. Królik mógł np. wystąpić w parze ze słoniem, a w innym zesta­
wieniu - z muchą. Okazało się, że różne cechy królika były znacznie łatwiejsze
do wyobrażenia, gdy występował on w parze z muchą niż gdy występował
w parze ze słoniem. Czas odpowiedzi na pytanie, czy obiekt charakteryzuje się
określoną cechą, zależał od względnej wielkości obu wyobrażonych obiektów.
W parze ze słoniem królik jest znacznie mniejszy niż w parze z muchą, zatem
jego wyobrażenie jest bardziej schematyczne, brakuje mu wielu szczegółów. Aby
udzielić odpowiedzi na pytanie dotyczące cech budowy królika, osoba badana
musi go w wyobraźni „powiększyć”, tak aby królik był widoczny bardzo szcze­
gółowo; tym samym szczegóły budowy słonia zaczynają się „rozmazywać” jako
tło. Nie ma natomiast potrzeby „powiększania”, gdy królik znajduje się na
pierwszym planie w towarzystwie małej, pozbawionej szczegółów muchy. Po­
dobne wyniki uzyskano, różnicując wyobrażenia ze względu na ich złożoność.
W przypadku wyobrażeń złożonych czas decyzji był dłuższy niż w przypadku
wyobrażeń prostych (Kosslyn, 1983). Nazwano to efektem ziarnistości obrazu.
W innych badaniach Kosslyn, Bali i Reiser (1978) prosili uczestników o za­
pamiętanie mapy, na której znajdowało się siedem charakterystycznych obiek­
tów, np. chata, studnia, drzewo (zob. iyc. 2.3). Poprawność przechowania mapy
w pamięci sprawdzano, prosząc o jej narysowanie. Procedurę tę powtarzano aż
do momentu, w którym szczegóły narysowanego z pamięci rysunku nie od­
biegały więcej niż o 6 mm od oryginalnej lokalizacji danego elementu na mapie.
We właściwej części eksperymentu proszono o wyobrażenie sobie zapamiętanej
mapy. Zadaniem uczestników było skupienie uwagi na jednym z wybranych
obiektów, zwanym punktem fiksacji, a następnie wyobrażenie sobie „plamki”
73
czas reakcji (s)
2.2. Reprezentacje obrazowe
0,9
I
2
|
4
I_______I______ I______ I______ |______ I______ L
6
8
10
12
14
16
18
odległość (cm)
Ryc. 2.3. Mapa wyspy wykorzystywana w badaniach Kosslyna, Balia i Reisera (1978) wraz z wykresem
ilustrującym stwierdzany w paradygmacie skaningu umysłowego efekt odległości.
/ “*
Hozaziai a. istota i torma reprezentacji umysiowycn
poruszającej się z punktu fiksacji do innego elementu mapy, podanego w instruk­
cji. Osoby badane sygnalizowały moment osiągnięcia żądanego punktu przez po­
ruszającą się w ich wyobraźni „plamkę”. Im większa była odległość pomiędzy
punktem fiksacji a elementem, do którego należało dotrzeć, tym więcej czasu
trzeba było poświęcić na wykonanie tej operacji. Powtarzając powyższy ekspe­
ryment w niezmienionej postaci, Pylyshyn i Bannon otrzymali identyczną
zależność: czas decyzji okazał się monotonicznie rosnącą funkcją odległości re­
prezentowanych w umyśle obiektów od punktu fiksacji (Pylyshyn, 1981).
Analogiczny efekt uzyskał Zimmer (2004). Trzy grupy uczestników jego
badania zapoznawały się z mapą terenu w szczególny sposób. Pierwsza grupa
miała okazję obejrzeć mapę w całości, druga - jedynie we fragmentach,
natomiast grupa trzecia otrzymała wyłącznie informacje werbalne dotyczące
ujętego na mapie terenu. Zimmer potwierdził wcześniejsze wyniki, stwierdzając,
że im dalej względem siebie były położone lokalizowane obiekty, tym więcej
czasu zajmowało osobom badanym określenie ich położenia. Co więcej, Zimmer
nie stwierdził większych różnic w zakresie czasu decyzji dotyczącej orientacji
obiektów względem siebie między badanymi należącymi do dwóch pierwszych
grup. Oznacza to, według niego, że całościowe wyobrażenie mapy terenu może
zostać utworzone na podstawie jej fragmentów. Natomiast badani dysponujący
informacjami werbalnymi podejmowali swoje decyzje znacznie wolniej, co
może świadczyć albo o większych trudnościach w stworzeniu reprezentacji
obrazowej na podstawie informacji werbalnych, albo o niskiej przydatności
tychże informacji.
Kosslyn (1983) zinterpretował wyniki badań nad skaningiem umysłowym,
opierając się na koncepcji obrazowych reprezentacji poznawczych. Według tej
koncepcji, każde wyobrażenie zapisane jest w postaci analogowego obrazu
umysłowego, w którym zachowane są relacje przestrzenne odpowiadające
wyobrażonemu obiektowi. Jeśli w realnym obiekcie jakiś szczegół jest bliski
innemu szczegółowi, obraz umysłowy przechowa tę zależność i odzwierciedli ją
w wyobrażeniu. Jeśli w obiekcie coś jest u góry lub na dole, tak też będzie
umiejscowione w wyobrażeniu. Zakres odpowiedniości między obiektem a wyo­
brażeniem jest oczywiście raz większy, a raz mniejszy, w zależności od dokład­
ności wyobrażenia. Bywają też wyobrażenia nieadekwatne lub całkiem błędne.
Nie zmienia to faktu, że istotą obrazowych reprezentacji umysłowych jest za­
sada fizycznej odpowiedniości między reprezentowanym obiektem a jego men­
talnym ekwiwalentem. Dlatego właśnie „wycieczka” po obrazie umysłowym, np.
po wyobrażonej mapie terenu, jest tym dłuższa, im więcej wyobrażonej prze­
strzeni trzeba pokonać. Podobnie rzecz się ma w przypadku rotacji mentalnych,
z tym zastrzeżeniem, że w przypadku skaningu umysłowego należy przenieść
punkt fiksacji nie o zadany kąt, lecz do zadanego miejsca w wyobrażonej
przestrzeni. Z tego samego powodu zużywamy znacznie więcej czasu, tworząc
wyobrażenie skomplikowane (np. obrazu „Bitwa pod Grunwaldem” Jana Ma­
tejki), a mniej czasu, gdy jest ono ubogie w szczegóły (np. obrazu „Czarny
kwadrat” Kazimierza Malewicza). Co więcej, w przypadku wyobrażania sobie
małych elementów obiektu człowiek musi przełamać efekt ziarnistości: aby od­
powiedzieć na szczegółowe pytanie dotyczące takiego elementu, osoby badane
muszą go w wyobraźni „powiększyć”. Taki „mentalny zoom” wymaga oczy­
wiście nieco czasu, co wykazano empirycznie.
2.2. Reprezentacje obrazowe
75
2.2.6. Krytyka stanow iska obrazowego
Argumenty na rzecz stanowiska obrazowego, zgromadzone w badaniach nad
rotacjami mentalnymi i skaningiem umysłowym, próbowano poważnie osłabić.
Rezultaty eksperymentów Koriata, Normana i Kimcha (1991) wskazują na
ograniczenia powszechności prawa dotyczącego rotacji mentalnych. Z badań
tych wynika, że ludzie nie zawsze dokonują rotacji figur w wyobraźni, chcąc je
z sobą porównać. Jeśli konieczne jest potwierdzenie identyczności obiektów,
rotacja mentalna wydaje się niezbędna, bo bez takiego przekształcenia dokładne
porównanie figur nie jest możliwe. Ale już stwierdzenie odmienności dwóch
figur geometrycznych nie zawsze wymaga rotacji, bo decyzja może być podjęta
inaczej niż poprzez porównywanie całości obrazów. Być może porównaniu
podlegają wtedy tylko pewne fragmenty obrazów, np. centralne lub szczególnie
wyróżniające się. Gdyby tak było, wyniki uzyskane przez Koriata i współpra­
cowników nie musiałyby godzić w stanowisko obrazowe; można by utrzymać
tezę o obrazowej formie wyobrażeń, a zmienić tylko postulowany mechanizm
porównania obrazów. Możliwe jest jednak wyjaśnienie znacznie prostsze, zgod­
nie z którym najpierw dochodzi do wstępnego porównania pewnych właściwości
prezentowanych figur, np. wypukłości kątów i krawędzi czy też liczby elemen­
tów składowych. Jeśli wynik takiego porównania nie prowadzi do stwierdzenia
różnic między figurami, podejmuje się decyzję o identyczności obu figur.
Pierwszy etap tego procesu niekoniecznie wymaga operow ania na re­
prezentacjach obrazowych, równie dobrze może się odbywać na podstawie
reprezentacji w formie zbioru cech (por. wyjaśnienia procesu rozpoznawania
twarzy przez teorie wzorców i cech; zob. rozdz. 7.5.2).
Argumentów przeciwko koncepcji obrazowej dostarczyli także Marmor
i Zaback (1976), prosząc osoby niewidome od urodzenia o wykonanie zadania
Coopera i Sheparda. Istnieje przekonanie, że niewidomi od urodzenia w ogóle
nie dysponują obrazowymi reprezentacjami poznawczymi. W cytowanym eks­
perymencie badani wykonywali zadanie, korzystając ze zmysłu dotyku. Mogli
dotykiem zapoznać się z figurą, czyli obiektem rotacji, ale samej rotacji doko­
nywali już „w wyobraźni”. Mimo iż forma reprezentacji umysłowych nie mogła
być obrazowa, stwierdzono liniową zależność między czasem podjęcia decyzji co
do rotowanego obiektu a wielkością kąta jego rotacji. Wynik ten nie jest
wprawdzie sprzeczny z twierdzeniem o ekwiwalencji percepcji i wyobraźni,
godzi jedynie w pogląd o obrazowej (czytaj: wizualnej) formie wyobrażeń. Być
może należałoby określić formę wyobrażeń jako sensoryczną, zależną od użytej
modalności zmysłowej. Taki wniosek pozostaje już jednak w opozycji do skraj­
nej wersji koncepcji Kosslyna, która w związku z tym wydaje się zbyt jedno­
stronna.
Do podobnych wniosków prowadzą wyniki niektórych badań prowadzo­
nych w paradygmacie skaningu umysłowego. W jednym z eksperymentów
(Intons-Peterson, Roskos-Ewaldson, 1989) polecono osobom badanym prze­
nieść w wyobraźni piłkę między kilkoma punktami wyobrażonej mapy. W trzech
warunkach eksperymentu piłka miała taki sam kształt, wielkość i rozmiar, ale
różniła się ciężarem (odpowiednio: 3 uncje, 3 funty i 30 funtów). Zgodnie
z prawem dystansu wykrytym przez Kosslyna, w każdym z trzech warunków
eksperymentalnych czas reakcji zależał liniowo i rosnąco od odległości pomię­
#o
Hozaziaf
istota i iorma reprezentacji umysiowycn
dzy punktem startu (punkt fiksacji) a punktem docelowym, zadanym przez
instrukcję. Stwierdzono ponadto, że czas reakcji był tym dłuższy, im cięższą
piłkę należało „przenieść” w wyobraźni. Również Hubbard (1997) wykazał, że
waga obiektów ma wpływ na dokonywaną w wyobraźni ocenę miejsca, w którym
może się znaleźć poruszający się obiekt. Autor wyprowadził na tej podstawie
wniosek, że nietrwałe reprezentacje wyobrażeniowe powstają z uwzględnieniem
ciężaru wyobrażonych obiektów.
Wydaje się więc całkiem możliwe, że powierzchniowe, nietrwale repre­
zentacje umysłowe mają charakter nie tyle obrazowy, co sensoryczny. W takim
przypadku postulowane przez Kosslyna (1983) obrazy umysłowe byłyby tylko
jednym z kilku rodzajów takich reprezentacji. Można by wobec tego mówić
0 wyobrażeniach dotykowych, z których prawdopodobnie korzystali niewidomi
od urodzenia uczestnicy badania Marmora i Zabacka (1976) czy też osoby
biorące udział w innych badaniach (Intons-Peterson, Roskos-Ewaldson, 1989;
Hubbard, 1997). Teoria podwójnego sytemu kodowania (Paivio, 1971, 1986)
uwzględnia możliwość niewerbalnego, ale innego niż obrazowe, kodowania
danych zmysłowych (zob. rozdz. 2.3.2). Wyniki badań nad reprezentacjami
dotykowymi świadczą przeciwko koncepcji obrazów umysłowych jako jedynej
1koniecznej formy wyobrażeń, a ponadto pozwalają na formułowanie wniosków
dotyczących werbalnej formy reprezentacji umysłowych. Reprezentacje tego
rodzaju będą omówione w kolejnym podrozdziale.
2.3. Reprezentacje werbalne
2.3 .1 . Weryfikacja sylogizm ów i treści zdań
Clark (1969) poprosił osoby badane o rozwiązywanie prostych sylogizmów
werbalnych, czyli zadań wymagających wyciągania wniosków z przesłanek.
Miały one porównać kilka fikcyjnych osób pod względem jakiejś cechy, na
przykład wzrostu. Badanym dostarczano na wstępie kilku przesłanek, np.: „Jan
jest wyższy od Piotra. Andrzej jest niższy od Piotra”. Na tej podstawie trze­
ba było sformułować wniosek, np. odpowiadając na pytanie: „Kto jest najwyż­
szy?”. Okazało się, że udzielenie odpowiedzi zajmowało różną ilość czasu
w zależności od poznawczej i językowej złożoności zadania. Stosunkowo
szybko odpowiadano na pytania, gdy były ono językowo zgodne z przesłankami,
np. gdy w przesłankach używano słowa „wyższy”, a pytanie dotyczyło tego,
kto jest „najwyższy”. Natomiast relatywnie więcej czasu wymagało zadanie,
w którym przesłanki operowały relacją wyższości, a pytanie brzmiało: „Kto
jest najniższy?”. Badani zachowywali się więc tak, jak gdyby przekształcenie
relacji „A jest wyższe od B” w relację „B jest niższe od A” wymagało pewnej
porcji czasu. Podobne wyniki uzyskano w przypadku, gdy przesłanki sylogizmu
formułowano za pomocą zdań twierdzących, zaś w pytaniu pojawiało się
przeczenie, np.: „Czy Piotr nie jest wyższy od Jana?”. Co więcej, im bar­
dziej komplikowano pytanie w stosunku do przesłanek (np. użycie podwójnej
negacji), tym więcej czasu trzeba było przeznaczyć na wypracowanie odpo­
wiedzi.
2.3. Reprezentacje werbalne
77
Gdyby reprezentacje towarzyszące procesowi rozwiązywania sylogizmów
były dostępne w postaci obrazów umysłowych, różnice tego rodzaju nie powinny
wystąpić. Wyobrażenie sobie trzech osób: Jana, Piotra i Andrzeja, różniących się
wzrostem i stojących obok siebie, powinno z równą łatwością prowadzić do
odpowiedzi, kto jest najwyższy, jak też do stwierdzenia, kto jest najniższy.
Obraz umysłowy jest dostępny w całości, a ponadto zawiera wszystkie ważne
relacje między obiektami. Stwierdzenie wymienionych wyżej różnic w czasie
reakcji jest więc silnym argumentem przeciwko tezie o obrazowej formie
reprezentacji umysłowych, w każdym razie przeciwko skrajnej wersji tego
stanowiska. Tego typu wyniki skłoniły wielu psychologów do przyjęcia tezy, że
wyobrażenia nie przybierają formy obrazowej, lecz werbalną (Paivio, 1986) lub
propozycjonalną, np. w postaci zbioru sądów o relacjach między obiektami
(Pylyshyn, 1973). Im więcej sądów należy rozważyć bądź im bardziej sąd
odpowiadający pytaniu jest niekompatybilny w stosunku do sądów tworzących
przesłanki, tym dłużej trwa wypracowanie odpowiedzi.
W klasycznym eksperymencie nad weryfikacją treści zdań Clark i Chase
(1972) prosili osoby badane o przyswojenie sobie treści zdania o relacjach
przestrzennych łączących dwa symbole, takie jak plus (+) i gwiazdka (*).
Uczestnicy mieli następnie odpowiedzieć na pytanie, czy na obrazku widać to
samo, o czym jest mowa w zdaniu. Prezentowano np. zdanie: „Plus jest nad
gwiazdką”, a po jego przyswojeniu pokazywano plus nad gwiazdką lub plus pod
gwiazdką; badani musieli odpowiedzieć TAK lub NIE, w zależności od tego, czy
uznawali treść zdania za zgodną z obrazkiem (paradygmat 2.2). Zdania
prezentowane w pierwszej fazie mogły zawierać negację (np. „Plus nie jest
nad gwiazdką”), mogły też wymagać odwrócenia relacji (np. „Plus jest pod
gwiazdką”). Podobnie jak w badaniach Clarka (1969), więcej czasu wymagała
weryfikacja zdań, w których należało użyć negacji lub przekształcić relację,
podczas gdy zdanie niezawierające żadnych przekształceń (np. „Plus jest nad
gwiazdką”) weryfikowano stosunkowo szybko. Co więcej, osoby badane po­
dzielono ze względu na poziom zdolności werbalnych lub przestrzennych. Nie
stwierdzono większych różnic w całkowitym czasie weryfikacji zdań między
grupami wyróżnionymi ze względu na poziom owych zdolności. Uzyskano
natomiast znaczne różnice w odniesieniu do czasu trwania obu faz rozwiązy­
wania zadania: kodowania informacji werbalnej i weryfikowania jej zgodności
z treścią informacji wizualnej. Osoby charakteryzujące się wyższymi zdolnoś­
ciami werbalnymi kodowały treść zdania znacznie szybciej niż osoby o wyższych
zdolnościach obrazowych. W fazie weryfikacji zależność była odwrotna: szybsze
okazały się osoby o wysokim poziomie zdolności przestrzennych (tab. 2.1).
Badania w paradygmacie weryfikacji treści zdań prowadzili również
MacLeod, Hunt i Mathews (1978). Uczestnikom prezentowano wzrokowo
dwa symbole w pewnej relacji przestrzennej (np. znak „ + ” umieszczony nad
znakiem „*”), a następnie proszono ich o weryfikację różnych sądów
opisujących tę relację. Jedyna różnica w stosunku do badania Clarka i Chase’a
(1972) polegała więc na tym, że najpierw podawano informację wzrokową,
a w drugiej kolejności - werbalną. W przypadku większości osób badanych
(43 osoby) wyniki były bardzo podobne do tych, które uzyskali Clark i Chase: im
większa logiczno-gramatyczna złożoność zdania, tym dłuższy czas weryfikacji.
Można wnioskować, że osoby te w fazie przyswajania treści obrazka utworzyły
/o
ttozaziai
istota i iorma reprezentacji umysiowycn
Paradygmat 2.2
Weryfikacja treści zdań
Badania w paradygmacie weryfikacji treści zdań (sentence-picture verification task)
zapoczątkowali Clark i Chase (1972), a kontynuowali MacLeod, Hunt i Mathews
(1978). W tego typu eksperymentach osobom badanym prezentuje się obrazek
przedstawiający dwa elementy (np. symbole
„*”) w relacji przestrzennej. Zwykle
jeden symbol jest u góry, a drugi na dole. Wcześniej lub później uczestnikom
prezentuje się zdanie opisujące przestrzenną relację obu symboli, np.: „Plus jest nad
gwiazdką”. Eksperyment wymaga prezentacji wszystkich możliwych typów zdań,
a więc twierdzących lub przeczących, prawdziwych i nieprawdziwych, operujących
relacją prostą (np. coś jest nad czymś) lub jej zaprzeczeniem (np. coś jest pod
czymś). Pełny układ warunków eksperymentalnych przedstawia poniższa tabela.
Typ zdania
Treść zdania
Twierdzące
Gwiazdka jest nad plusem
Plus jest pod gwiazdką
Twierdzące
Twierdzące
Twierdzące
Przeczące
Przeczące
Przeczące
Przeczące
Obraz
*
Wymagana reakcja
+
*
TAK
+
NIE
Gwiazdka jest nad plusem
Plus jest pod gwiazdką
+
*
NIE
Gwiazdka jest pod plusem
Plus jest nad gwiazdką
+
*
TAK
Gwiazdka nie jest nad plusem
Plus nie jest pod gwiazdką
*
Gwiazdka jest pod plusem
Plus jest nad gwiazdką
+
*
NIE
+
TAK
Gwiazdka nie jest nad plusem
Plus nie jest pod gwiazdką
+
*
TAK
Gwiazdka nie jest pod plusem
Plus nie jest nad gwiazdką
+
*
NIE
Gwiazdka nie jest pod plusem
Plus nie jest nad gwiazdką
Osoba badana ma podjąć decyzję, czy treść zdania jest zgodna z obrazkiem.
Wymaga to zwykle naciśnięcia jednego z dwóch przycisków, przy czym mierzony jest
czas decyzji i liczba błędów. W zależności od wariantu tej procedury najpierw pre­
zentuje się obrazek, a potem zdanie (MacLeod, Hunt, Mathews, 1978) lub odwrotnie
(Clark, Chase, 1972). Można też spowodować, aby pierwsza część stymulacji (np.
zdanie) nie znikała z monitora wraz z pojawieniem się części drugiej (np. obrazka).
Badany może wówczas weryfikować treść zdania, widząc wszystkie potrzebne dane.
W innym wariancie Informacja słowna znika, zanim pojawi się obrazek (lub odwrotnie),
co bardziej angażuje pamięć operacyjną i czyni całe zadanie trudniejszym.
W badaniach prowadzonych w tym paradygmacie zwykle stwierdza się, że czas
weryfikacji treści zdania zależy od stopnia jego logicznej i gramatycznej komplikacji.
Najprostsze do weryfikacji są proste zdania twierdzące, wymagające reakcji TAK, np.
„Plus jest nad gwiazdką”, a najtrudniejsze - zdania przeczące, wymagające reakcji
NIE i dodatkowo zawierające odwróconą relację, np. „Gwiazdka nie jest pod plusem”.
2.3. Reprezentacje werbalne
79
'
Paradygmat weryfikacji treści zdania był często używany w psycholingwistyce,
ponieważ pozwala ocenić koszty poznawcze związane z przetwarzaniem zdań
o różnej konstrukcji i różnym poziomie komplikacji. Okazało się np., że zdania
s zawierające negację wymagają nieco dłuższego czasu weryfikacji niż zdania bez
i negacji. Wynika to prawdopodobnie stąd, że zdania z negacją wymagają
dodatkowej operacji umysłowej, tak jakby samo przeczenie było osobnym za■biegiem poznawczym. Ponadto zdania zawierające słowa typu „pod” lub „za”
wymagają więcej czasu niż niczym się poza tym nieróżniące zdania ze słowami
„nad” i „przed”. Relacja, że coś jest pod czymś lub za czymś, nie jest, być może,
■;poznawczo naturalna czy też pierwotna, gdyż powstaje w umyśle jako zaprzeczenie
i relacji, że coś jest nad czymś lub przed czymś. Innymi słowy, człowiek mówi: „Pies
leży pod stołem”, ale poznawczo reprezentuje tę sytuację w postaci sądu: „Pies
leży nie nad stołem”. Tylko w ten sposób możemy wytłumaczyć fakt, że przetwa­
rzanie pewnych relacji jest związane z większymi kosztami poznawczymi w postaci
wydłużonego czasu podejmowania decyzji i większej podatności na błędy.
Tab. 2.1. Czas weryfikacji treści zdań przez osoby o wysokim (+) lub niskim (-) poziomie zdolności
werbalnych (W) lub wyobrażeniowych (O), w zależności od fazy przetwarzania informacji (za: Clark,
Chase, 1972).
Faza przetwarzania
Osoby typu W +/O -
Osoby typu O+/W -
kodowanie treści zdania
1652 ms
2579 ms
obserwacja obrazka i decyzja
1210 ms
651 ms
całość zadania
2862 ms
3230 ms
reprezentację poznawczą w formie werbalnej, inaczej mówiąc - przetłumaczyły
obrazek na słowa. W fazie weryfikacji porównywały więc ze sobą dwie repre­
zentacje werbalne, przez co traciły na to tym więcej czasu, im bardziej skom­
plikowane były owe reprezentacje. Jednak 16 osób badanych zachowywało się
zupełnie inaczej, tak jakby w trakcie wykonywania zadania posługiwało się cały
czas kodem obrazowym. W przypadku tych 16 osób sądy zawierające negację
czy też odwrócenie relacji były weryfikowane tak samo szybko, jak zupełnie
proste twierdzenia. Osoby te prawdopodobnie nie dokonywały „przekładu”
obrazka na słowa, lecz odwrotnie - pojawiające się w drugiej fazie zdanie
„tłumaczyli” na kod obrazowy. MacLeod i współpracownicy wyciągnęli na tej
podstawie wniosek, że uczestnicy eksperymentu posługiwali się różnymi
strategiami weryfikacji treści zdań: werbalną lub obrazową, a różnice te wy­
nikały ze względnie trwałych preferencji indywidualnych.
Co więcej, w przypadku 43 badanych, prawdopodobnie rozwiązujących
zadania z wykorzystaniem reprezentacji werbalnych, korelacja między pozio­
mem zdolności werbalnych a czasem weryfikacji zdania była wysoka (-0,44),
podczas gdy analogiczna korelacja dotycząca zdolności przestrzennych okazała
się bardzo niska (-0,07). Natomiast w przypadku 16 osób, rozwiązujących
zadania prawdopodobnie z wykorzystaniem reprezentacji obrazowych, kore­
lacja między poziomem zdolności werbalnych a czasem weryfikacji była niska
(-0,05), zaś korelacja między poziomem zdolności przestrzennych a czasem
t5U
Kozdział Ł. istota i lorma reprezentacji umystowycn
weryfikacji - bardzo wysoka (-0,64). Te związki korelacyjne są oczywiście tylko
pośrednim argumentem na rzecz tezy o wykorzystywaniu przez osoby badane
różnych form nietrwałych reprezentacji poznawczych. Argument ten wymaga
bowiem dodatkowego założenia, że wysoki poziom zdolności werbalnych
skłania człowieka do stosowania strategii werbalnej, a wysoki poziom zdolności
przestrzennych - strategii obrazowej. Byłoby jednak wysoce nieekonomiczne
dla systemu poznawczego, gdyby dysponując np. niskim poziomem zdolności
w zakresie operacji obrazowych, preferował on obrazową formę reprezentacji
w rozwiązywaniu sylogizmów.
W innym badaniu Robert Sternberg (1980) analizował związek między cza­
sem rozwiązywania sylogizmów a zdolnościami przestrzennymi (spatial ability)
oraz werbalnymi (verbal ability). Okazało się, że choć obydwie zdolności korelują
ze sobą dość słabo (0,20), obie wywierają wpływ na tempo rozwiązywania sylo­
gizmów. Większe znaczenie wydają się mieć zdolności werbalne (-0,49) niż prze­
strzenne (-0,35), ale istotna rola tych ostatnich sprawia, że nie można wykluczyć
udziału wyobrażeń w rozwiązywaniu zadań wymagających weryfikacji praw­
dziwości sylogizmów. Zdolności przestrzenne (obrazowe) wydają się mieć szcze­
gólne znaczenie w fazie kodowania danych: im wyższy poziom zdolności prze­
strzennych, tym krótszy czas kodowania przesłanek sylogizmu (-0,51). Zależność
między poziomem zdolności werbalnych a czasem kodowania przesłanek jest
znacznie słabsza (-0,25). Z kolei w fazie przekształcania przesłanek w celu
weryfikacji sylogizmu zdolności przestrzenne niemal w ogóle nie wpływają na czas
reakcji (-0,09), podczas gdy zależność między poziomem zdolności werbalnych
a czasem rozwiązywania jest dość silna (-0,30). Wyniki uzyskane przez Sternberga
mogą świadczyć na korzyść tezy o nierozstrzygalności problemu języka kodowania
nietrwałych reprezentacji umysłowych, utworzonych w celu rozwiązania prob­
lemu. Być może człowiek jest w stanie wykorzystywać powierzchniowe, nietrwałe
reprezentacje zarówno w formie obrazowej, jak i werbalnej, i to w trakcie
wykonywania jednego zadania. Forma reprezentacji poznawczych byłaby wtedy
ściśle powiązana z fazą procesu przetwarzania informacji (kodowanie, porówny­
wanie), który te reprezentacje wykorzystuje i na nich operuje.
Podsumowując, weryfikacja prawdziwości sylogizmów i treści zdań opiera
się prawdopodobnie na dwóch typach nietrwałych reprezentacji umysłowych.
Z reprezentacji obrazowych korzystamy przede wszystkim wtedy, gdy podawane
nam informacje przybierają postać obrazów, jak też wtedy, gdy cechujemy się
wysokim poziomem zdolności w zakresie przetwarzania obrazów. Natomiast
z reprezentacji werbalnych korzystamy wtedy, gdy trzeba zweryfikować
prawdziwość wyrażonego słowami twierdzenia o relacjach, a także wtedy, gdy
dysponujemy wysokim poziomem kompetencji językowej. Skrajnie obrazowe
stanowisko w sporze o naturę reprezentacji wydaje się zatem nie do utrzymania,
a stanowisko możliwe do przyjęcia musi uwzględniać istnienie co najmniej
dwóch rodzajów reprezentacji umysłowej.
2.3 .2 . Teoria podwójnego kodowania
Takie umiarkowane stanowisko zaproponował Paivio (1971, 1986). Według je­
go teorii podwójnego kodowania, człowiek reprezentuje rzeczywistość w dwóch
2.3. Reprezentacje werbalne
81
systemach: niewerbalnym (sensorycznym) i werbalnym (językowym). Oba
systemy cechują się specyficzną strukturą wewnętrzną i swoistym sposobem
przetwarzania danych. Paivio twierdzi, że reprezentacje umysłowe są swoiste ze
względu na modalność zmysłową (modality specific), inaczej np. reprezentuje
się dane wizualne, a inaczej słowne. Z tego względu koncepcja podwójnego
kodowania, mimo że zrywa z tezą o zawsze obrazowej reprezentacji rzeczy­
wistości, zajmuje miejsce pośrednie pomiędzy stanowiskiem obrazowym
(Kosslyn) a stanowiskiem propozycjonalnym (Pylyshyn, Anderson). Podczas
gdy Kosslyn zaprzecza, aby nietrwałe reprezentacje umysłowe mogły mieć formę
inną niż obrazowa (np. werbalną), zwolennicy stanowiska propozycjonalnego
nie mogą się zgodzić z polimodalnym ujęciem reprezentacji umysłowych. W ich
ujęciu sądy mają zawsze charakter amodalny, czyli niezależny od zaangażowa­
nego kanału sensorycznej recepcji bodźców.
Według Paivio, dane zmysłowe mogą być kodowane w jednym z pięciu
podsystemów składających się na system niewerbalny. Każdy podsystem cha­
rakteryzuje się innym językiem kodowania i odpowiada za inną modalność
sensoryczną reprezentowanych obiektów. Dzięki temu możliwe jest utworzenie
odrębnego obrazu sensorycznego (sensory picture) dla każdego reprezento­
wanego obiektu. Obrazy umysłowe, opisane przez Kosslyna, to tylko jedna
z pięciu kategorii obejmujących niewerbalne reprezentacje poznawcze. Pozo­
stałe kategorie to dźwięki, odczucia dotykowe, smakowe i zapachowe. Mimo że
obrazy umysłowe nie mają monopolu na niewerbalną reprezentację poznawczą,
zdają się odgrywać rolę dominującą, są bowiem najczęściej przywoływane
i wymieniane jako wewnętrzne odpowiedniki obiektów percepcyjnych (Kosslyn
iin., 1990).
Wszelkie niewerbalne reprezentacje umysłowe, niezależnie od modalności
sensorycznej, zostały przez Paivio nazwane imagenami. Uważa on, że imageny
są przetwarzane szybko i równolegle, gdyż reprezentują struktury holistyczne,
takie jak całe obiekty, całościowe ich fragmenty bądź też grupy obiektów w formie zarówno statycznej, jak i dynamicznej. Imageny charakteryzują się
dużym stopniem analogowości w stosunku do reprezentowanych obiektów.
Oznacza to, że imageny zachowują niektóre fizyczne właściwości obiektu, takie
jak wielkość czy relacje przestrzenne między jego elementami. Wykazano np., że
niewielkie rozmiarem fotografie twarzy ludzkiej są gorzej zapamiętywane niż te
same fotografie o większym rozmiarze, natomiast dla kodowania i zapamięty­
wania prezentowanych wzrokowo słów wielkość i rodzaj użytej czcionki nie
mają żadnego znaczenia (Kolers, Duchnicky, Sundstroem, 1985).
System werbalny umożliwia kodowanie informacji w postaci symboli języ­
kowych. Zazwyczaj są to słowa języka naturalnego, ale możliwe jest też
zakodowanie informacji w postaci innych etykiet werbalnych. Reprezentacje
werbalne mogą bowiem wchodzić w skład jakiegokolwiek języka, również
sztucznego, takiego jak symbole matematyczne czy język programowania kom­
puterowego (Paivio, 1986). W skład systemu werbalnego wchodzą trzy pod­
systemy do kodowania informacji werbalnych, przeznaczone dla danych
nadchodzących kanałem wizualnym, akustycznym lub dotykowym. Niezależnie
od zaangażowanego kanału sensorycznego, wszystkie reprezentacje werbalne
noszą wspólną nazwę logogenów. Istotną ich właściwością jest symboliczny
charakter, związany z użytą konwencją wiązania rzeczy lub innych oznaczanych
obiektów ze znakami. Słowa i etykiety werbalne bardzo rzadko przypominają
brzmieniowo reprezentowane obiekty; wyjątkiem są słowa onomatopeiczne,
dźwiękowo podobne do oznaczanej rzeczy lub czynności (np. charczenie, sze­
lest). W zdecydowanej większości przypadków słowa w niczym nie przy­
pominają sensorycznych właściwości reprezentowanych przez siebie obiektów,
a ich znaczenie jest ustalone na zasadzie powszechnego konsensu i umowy
społecznej. Przeciwnie niż imageny, przetwarzanie logogenów dokonuje się
w wolnym tempie i szeregowo, co wynika z samej natury języka jako systemu
kodowania (zob. rozdz. 13).
Istnienie systemu niewerbalnego wydaje się dobrze uzasadnione wynikami
badań prowadzonych przez zwolenników stanowiska obrazowego. Badania te
wykazały, że w tworzeniu imagenów uczestniczy przede wszystkim wzrok, ale
również inne modalności sensoryczne. Natomiast argumentów za istnieniem
werbalnego systemu kodowania dostarczył sam Paivio (1971). Poczynione
przez niego obserwacje wskazują, iż nie wszystkie obiekty otaczającego nas
świata posiadają swoją sensoryczną reprezentację. Dotyczy to w szczególności
pojęć abstrakcyjnych, jak np. „zaleta” czy „kontekst” (Paivio, Yuille, Madigan,
1968). Próby utworzenia sensorycznej reprezentacji takich pojęć (np. obrazo­
wej) zazwyczaj kończą się niepowodzeniem. W eksperymentach Paivio i współ­
pracowników wymienione wyżej słowa uznano za najtrudniejsze do wyobra­
żenia. Ponadto słowom tym przypisywano najniższe rangi na wymiarze
konkretności, zdefiniowanym jako stopień powiązania z fizycznym wymiarem
rzeczywistości.
2.3 .3 . Słow o i obraz - w zajem ne relacje
Dwa systemy kodowania - werbalny i niewerbalny - są względnie niezależne, co
oznacza, że w tym samym czasie można przetwarzać informacje słowne i obra­
zowe. Możliwe jest np. wykonanie zadania podwójnego, polegającego na jedno­
czesnej grze na pianinie z nut i powtarzaniu prozy ze słuchu (Allport, Antonis,
Reynolds, 1972). Pierwsze zadanie opiera się bowiem na obrazowych, senso­
rycznych reprezentacjach rzeczywistości, podczas gdy drugie - na reprezenta­
cjach werbalnych. Według Paivio (1986), oba systemy są jednak powiązane
wzajemnymi relacjami. Mają one przede wszystkim charakter referencjalny:
reprezentacjom obrazowym odpowiadają werbalne i odwrotnie (zob. ryc. 2.4).
Połączenia te nie zawsze są kompletne: wprawdzie określony imagen jest zwykle
powiązany z jakimś logogenem, ale bywają wyjątki od tej reguły. W systemie
poznawczym istnieją reprezentacje werbalne, którym nie odpowiadają żadne
reprezentacje obrazowe. Chodzi tu w szczególności o pojęcia abstrakcyjne,
odpowiadające nadrzędnym kategoriom obiektów. W systemie mogą też istnieć
reprezentacje obrazowe, którym nie odpowiadają żadne reprezentacje obrazo­
we. Chodzi tu o wyobrażenia, którym nie odpowiada żaden rzeczywisty obiekt,
np. wyobrażenia twórcze, czyli obrazy umysłowe, którym dopiero wtórnie
możemy nadać nazwy, jeśli okażą się wystarczająco nowe i pożyteczne. Mimo
owej niekompletności powiązań między systemem werbalnym i niewerbalnym,
ogólną zasadą działania umysłu według koncepcji podwójnego kodowania jest
to, że wzbudzanie jakiejś reprezentacji werbalnej aktywizuje reprezentację
2.3. Reprezentacje werbalne
bodźce
werbalne
83
bodźce
niewerbalne
S
Y
S
T
E
M
N
I
E
W
E
R
B
A
L
N
Y
reakcje
werbalne
reakcje
niewerbalne
Ryc. 2.4. Wzajemne relacje między werbalnym i niewerbalnym systemem kodowania (za: Paivio,
1986).
niewerbalną i vice versa. Inaczej mówiąc, wzbudzenie dowolnej reprezentacji
umysłowej powoduje aktywizację reprezentacji referencjalnej, czyli odnoszącej
się do tego, co zostało wzbudzone wcześniej. Zjawiska te noszą nazwę procesów
referencjalnych.
W ramach systemu podwójnego kodowania zachodzą ponadto dwa inne
rodzaje procesów (Paivio, 1986). Jako pierwsze wymienić należy procesy re­
prezentacyjne. Ich zadanie polega na przyporządkowaniu poszczególnych
obiektów, spostrzeganych w różnych modalnościach zmysłowych, do jednego
z pięciu podsystemów niewerbalnych lub do jednego z trzech podsystemów
o fl
Rozdział c. Istota i torma reprezentacji umysłowych
werbalnych. Po drugie, w umyśle zachodzą procesy asocjacyjne. Funkcjonują
one wewnątrz każdego z dwóch systemów: werbalnego i niewerbalnego, odpo­
wiadając za łączenie się poszczególnych reprezentacji w skojarzone ze sobą
grupy. Porządek, w jakim działają procesy asocjacyjne, jest różny w zależności
od systemu. W systemie werbalnym układ reprezentacji jest raczej hierarchicz­
ny, to znaczy zdefiniowany relacją znaczeniowej podrzędności-nadrzędności.
Natomiast w systemie niewerbalnym porządek ten jest liniowy - poszczególne
obrazy łączą się z sobą w dłuższe łańcuchy skojarzeniowe, zgodnie z klasycznymi
regułami opisanymi przez zwolenników asocjacjonizmu.
W zależności od rodzaju stymulacji, istnieje większe lub mniejsze prawdo­
podobieństwo użycia systemu werbalnego lub niewerbalnego w celu zakodo­
wania informacji (Paivio, 1971; zob. tab. 2.2). Obraz może zostać zakodowany
werbalnie, ale jest to znacznie mniej prawdopodobne niż użycie kodu obra­
zowego. Analogicznie - słowa mogą być kodowane obrazowo, ale jest to mało
prawdopodobne, a słowa abstrakcyjne w ogóle się do tego nie nadają (Cornoldi,
Paivio, 1982). Tabela 2.2 ilustruje również postulowany przez Paivio brak
równowagi obu systemów. System werbalny koduje wszystko, jednakże obrazy
z nieco mniejszym prawdopodobieństwem, podczas gdy system niewerbalny
w zasadzie koduje tylko obrazy, a słowa bardzo rzadko i tylko jeśli są konkretne.
Paivio, Yuille i Mandigan (1968) stwierdzili wysoką korelację (0,83) pomiędzy
stopniem konkretności słowa a możliwością jego obrazowej reprezentacji
w umyśle, zaś Richardson (1980) wykazał, że wyobraźnia wspomaga zapa­
miętywanie słów, ale tylko -wtedy, gdy nie są to słowa abstrakcyjne. Z kolei
Johnson, Paivio i Clark (1996) wykryli, że definicje tworzone dla słów kon­
kretnych są bardziej precyzyjne, dłuższe i wspomagane wyobraźnią, podczas gdy
słowa abstrakcyjne są definiowane gorzej, często z użyciem nadmiernie
złożonych struktur językowych.
Tab. 2.2. Prawdopodobieństwo użycia systemu werbalnego lub niewerbalnego przy kodowaniu
informacji (za: Paivio, 1971).
Typ bodźca
System obrazowy
System werbalny
obrazek
+++
++
słowo konkretne
+
+++
słowo abstrakcyjne
-
+++
Chociaż system werbalny ma potencjalnie większe możliwości w zakresie
kodowania informacji, kodowanie obrazowe bardziej sprzyja efektywności za­
pamiętania. Zjawisko to, nazwane efektem przewagi obrazu nad słowem
(picture-word superiority effect), wykryli w serii pięciu eksperymentów Paivio
i Csapo (1969). W każdym eksperymencie osoby badane odpamiętywały obrazki
oraz słowa konkretne i abstrakcyjne. W pierwszym eksperymencie część uczest­
ników poinformowano przed prezentacją bodźców o konieczności późniejszego
odpamiętania materiału, pozostałym takiej informacji nie podano. Podczas pre­
zentacji badani zapisywali w kwestionariuszu nazwy przedstawianych im bodź­
ców. Paivio i Csapo stwierdzili, że - niezależnie od poinformowania badanych
2.3. Reprezentacje werbalne
85
o późniejszym teście pamięci - obrazki zostały odpamiętane na takim samym,
wysokim poziomie, natomiast słowa odpamiętano znacznie gorzej (choć słowa
konkretne nieco lepiej niż abstrakcyjne). Tylko w przypadku odpamiętania
słów zaobserwowano istotne różnice na korzyść badanych, którzy wiedzie­
li o późniejszym teście pamięci w stosunku do osób pozbawionych tej in­
formacji.
W drugim eksperymencie Paivio i Csapo zmienili formę rejestracji pre­
zentowanych bodźców - część badanych zapisywała je w formie werbalnej,
a część szkicowała ich kontur. Ponownie efektywność zapamiętania okazała
się najwyższa w przypadku obrazków, niezależnie od formy ich rejestracji
(ok. 45% poprawnych odpowiedzi). Natomiast jeśli zapamiętywanym bodźcem
było słowo, narysowanie go zwiększało szansę zapamiętania (ponad 50%
bodźców odpamiętanych) w porównaniu z jego zapisaniem (tylko 21% bodź­
ców odpamiętanych). W eksperymencie trzecim ponownie zmieniono proce­
durę: zamiast zapisywania lub szkicowania bodźców trzeba było je sobie
wyobrazić lub przeliterować. Wyniki były identyczne z rezultatami ekspery­
mentu drugiego - uzyskano wysoką efektywność zapamiętywania obrazków
niezależnie od formy ich opracowania. Stwierdzono również dobre wyniki
zapamiętywania słów, które należało sobie wyobrazić, natomiast słowa, których
nazwę należało przeliterować, były przywoływane bardzo słabo. Ostatnie dwa
eksperymenty, zbliżone w metodzie do wcześniejszych, również przyniosły
wyniki potwierdzające prymat kodowania obrazowego nad werbalnym, jeśli
chodzi o efektywność zapamiętywania. Efekt przewagi obrazu nad słowem
został potwierdzony przez innych badaczy (np. Snodgrass, McLure, 1975;
Ritchey, 1980).
Potwierdzono również funkcjonalną niezależność dwóch systemów kodo­
wania informacji. W swoim pierwszym badaniu Paivio (1969) pokazywał
uczestnikom bardzo szybkie sekwencje obrazów lub słów. Zadanie polegało
na odpamiętaniu pokazanego materiału w porządku dowolnym albo w porządku
prezentacji. Paivio ustalił, że badani znacznie lepiej odpamiętywali obrazki niż
słowa, gdy porządek, w jakim mogli to robić, nie był im narzucony (metoda
swobodnego przypominania). Natomiast sztywny porządek odpamiętywania
sprawił, że lepiej pamiętano słowa niż obrazy. Z badania tego płynie wniosek, iż
chcąc zapamiętać jak najwięcej materiału, powinniśmy stosować niewerbalny
system reprezentacji poznawczej, ale jeśli odpamiętanie ma mieć uporządko­
wany charakter, lepiej jest stosować system werbalny. Obserwację Paivio
wykorzystuje wiele mnemotechnik ułatwiających zapamiętywanie, np. technika
wizualizacji (zob. rozdz. 9.1.4).
W kolejnym badaniu (Paivio, Csapo, 1973) podjęto problem, czy powta­
rzanie wcześniej zapamiętanego materiału w innym systemie niż ten, który był
pierwotnie odpowiedzialny za zapamiętywanie, pomaga czy też przeszkadza
w utrwaleniu skutków zapamiętywania. Cztery grupy eksperymentalne najpierw
zapamiętywały, a potem utrwalały materiał przez powtarzanie. Grupa pierwsza
najpierw zapamiętywała słowa, a potem je powtarzała. Grupa druga uczyła się
na pamięć słów, ale później powtarzała odpowiadające im obrazki. Grupa
trzecia najpierw zapamiętywała obrazki, a potem je powtarzała. Natomiast
grupa czwarta uczyła się obrazków, ale później powtarzała odpowiadające im
słowa. Okazało się, że powtarzanie materiału pomogło wszystkim uczestnikom:
86
Rozdział 2. Istota i forma reprezentacji umysłowych
we wszystkich grupach wzrosła liczba prawidłowo odpamiętanych bodźców.
Efekt wzrostu liczby odpamiętanych bodźców okazał się największy u uczestni­
ków eksperymentu z grup: drugiej i czwartej, a więc u tych badanych, którzy
zmuszeni zostali do korzystania z odmiennych systemów kodowania danych
w dwóch różnych etapach procesu pamięciowego.
Istnieją więc przekonujące argumenty na rzecz tezy, że umysł reprezentuje
rzeczywistość co najmniej na dwa sposoby: obrazowy i werbalny. Wymaga to
prawdopodobnie zaangażowania odrębnych systemów reprezentacji, które
działają niezależnie, choć we wzajemnej współpracy. W języku słów i etykiet
werbalnych można zakodować znacznie szersze spectrum bodźców, ale język
obrazów jest znacznie efektywniejszy, jeśli chodzi o skuteczność zapamiętywa­
nia. Wydaje się, że najbardziej skuteczną formą reprezentowania informacji
w umyśle jest kodowanie referencjalne, wykorzystujące oba dostępne języki
kodowania danych zmysłowych: obrazowy i werbalny.
2.3 .4 . Reprezentacje num eryczne
„Żyjemy w świecie wypełnionym liczbami” (McCloskey, Macaruso, 1995,
s. 351). Częstość, z jaką przychodzi nam na co dzień zmagać się z liczbami,
nakazuje postawić pytanie o to, jak trafne są umysłowe odzwierciedlenia infor­
macji numerycznych. Bardziej podstawowe pytanie dotyczy tego, czy liczby
wymagają osobnego formatu reprezentacji umysłowej, czy też mogą być
kodowane w systemie bardziej uniwersalnym, np. obrazowym lub werbalnym.
Istnieją powody, aby sądzić, że liczby mogą być reprezentowane zarówno w for­
mie obrazowej, w postaci wyobrażeń, jak też w formie fonologicznej, w postaci
bezgłośnie artykułowanych głosek (McCloskey, Macaruso, 1995). Oznaczałoby
to, że reprezentacje numeryczne podlegają zasadzie podwójnego kodowania
(Paivio, 1986). Nie można jednak wykluczyć, że istnieją jakieś głębsze formy
odzwierciedlania liczb, zrywające z powierzchniową formą reprezentacji
i uwzględniające semantyczne aspekty informacji numerycznej. Na przykład
liczba 13 może być umysłowo reprezentowana jako obraz składających się na
nią cyfr, jako osiem fonemów tworzących trzy sylaby (trzy-naś-cie) lub jako
oznaczenie tego wszystkiego, co po zmierzeniu daje wynik trzynaście (trzynaś­
cie złotych, trzynaście worków mąki itd.). Reprezentacja obrazowa i fonologiczna jest z natury powierzchniowa, czyli nietrwała, podczas gdy reprezentacja
trzeciego rodzaju odwołuje się do znaczenia liczby trzynaście i jako część
wiedzy semantycznej musi być uznana za trwałą. Pytanie, jaką formę przyjmują
umysłowe reprezentacje liczb, wykracza więc poza dylemat: obraz czy słowo.
Jest to problem istnienia specyficzności reprezentacji numerycznej, ale też pro­
blem relacji między reprezentacjami numerycznymi a innymi formami umysło­
wego odzwierciedlenia świata, a ponadto problem, czy reprezentacje numerycz­
ne mają charakter nietrwały, jak wyobrażenia, czy też trwały, jak elementy
wiedzy.
Moyer wraz ze współpracownikami (Moyer, Landauer, 1967; Moyer,
Dumas, 1978) mierzył czas potrzebny do oceny identyczności lub odmienności
liczb prezentowanych badanym. Osoba badana widziała dwie liczby, a jej za­
danie polegało na stwierdzeniu, czy ich wartości są identyczne (np. 5 i 5), czy też
2.3. Reprezentacje werbalne
87
nie (np. 5 i 8). Okazało się, że znacznie więcej czasu zajmuje porównywanie
liczb o podobnej wielkości, a znaczniej mniej - liczb zdecydowanie różniących
się wartościami. Na przykład czas porównywania liczb 2 i 8 był znacznie krótszy
niż liczb 2 i 4. Zjawisko to nazwano efektem dystansu numerycznego. Podobne
wyniki uzyskali m.in. Dehaene i Akhavein (1995). Efekt dystansu sugeruje, że
przetwarzając liczby, człowiek tworzy przestrzenną reprezentację umysłową,
w której liczby o zbliżonych wartościach są umiejscowione blisko siebie, a liczby
o zdecydowanie różnych wartościach - daleko od siebie. Chcąc porównać dwie
wartości, człowiek musi jak gdyby „spojrzeć” na ową przestrzenną reprezenta­
cję, a w przypadku, gdy dwa obiekty znajdują się blisko siebie, zmuszony jest
„przybliżyć” sobie obraz. Taki „umysłowy zoom” wymaga oczywiście czasu,
stąd efekt dystansu numerycznego. Człowiek zachowuje się więc w kontakcie
z liczbami trochę tak, jak z wyobrażeniem dwóch przedmiotów o różnej
wielkości. Szczegóły wyobrażenia królika są mało „widoczne”, jeśli królik jest
w towarzystwie słonia (Kosslyn, 1983); tak samo różnica 2 i 4 wydaje się mało
wydatna i aby ją stwierdzić, trzeba „przybliżyć” obraz i dokładniej się
„przyjrzeć”. Wynika stąd, że reprezentacje numeryczne są po prostu obrazowe
albo bardzo bliskie obrazowym. To z kolei prowadzi do wniosku, że repre­
zentacje te - podobnie jak obrazy umysłowe - mają nietrwały charakter, czyli są
tworzone ad hoc w celu porównania dwóch wartości, dokonania obliczeń lub
rozwiązania problemu. Jeśli tak, to po zakończeniu czynności poznawczej
nietrwałe reprezentacje numeryczne po prostu zanikają, a kolejna czynność
poznawcza wymagająca przetwarzania liczb musi powołać do życia nowy zbiór
takich reprezentacji.
Kolejne badania pokazały, że wprawdzie sam efekt dystansu numerycznego
należy wiązać z przetwarzaniem w zakresie trwałych reprezentacji numerycz­
nych, jednak jego wielkość zależy od reprezentacji nietrwałych. Campbell
(1994) pokazywał osobom badanym liczby albo w formacie cyfrowym (np. 13),
albo w postaci napisanych słów (np. trzynaście). Wykazał, że werbalna repre­
zentacja liczb zmniejsza efekt dystansu numerycznego, choć go nie likwiduje.
Gdyby słowna forma prezentacji liczb w niczym nie osłabiała efektu dystansu,
można by wnioskować, że liczby są zawsze reprezentowane w umyśle w postaci
wyobrażeń. Bez względu na to, w jakiej modalności dociera do nas informacja
liczbowa, i tak jest przedstawiona w postaci obrazowo-przestrzennej, co spra­
wia, że stwierdzenie różnicy między 2 a 8 trwa krócej niż stwierdzenie różnicy
między 2 a 4. Inaczej mówiąc, człowiek przedstawia sobie liczby w postaci
obrazów, a obrazy - co wiadomo z badań Kosslyna nad mapami umysłowymi są podatne na efekt dystansu przestrzennego. Gdyby natomiast forma pre­
zentacji liczb całkowicie redukowała efekt dystansu, można by sądzić, że liczby
są reprezentowane w umyśle w postaci amodalnych sądów (propositions).
W takim kodzie reprezentacji nie ma najmniejszego znaczenia, czy porównu­
jemy liczbę 2 z liczbą 4, 6, 8, czy też 800. Liczba 2 różni się od wszystkich liczb
większych od siebie, a stwierdzenie tego faktu powinno być łatwe i szybkie
niezależnie od dystansu między porównywanymi wartościami. Wykrycie przez
Campbella, że werbalny format liczb zmniejsza efekt dystansu, lecz całkowicie
go nie znosi, sugeruje, że reprezentacje numeryczne są czymś pośrednim między
obrazami a sądami, a - być może - stanowią odrębny format umysłowej re­
prezentacji świata.
oo
Rozdział
istota i torma reprezentacji umysłowycn
Propozycjonalny charakter reprezentacji numerycznych niczego nie prze­
sądza w kwestii ich trwałości lub nietrwałości. Sąd „dwa jest mniejsze
niż osiem” może być elementem trwałej wiedzy semantycznej, ale równie
dobrze może zostać wyprowadzony ad hoc i zniknąć zaraz po tym, jak
przestanie być potrzebny. D oraźne utw orzenie takiego sądu wymaga
przywołania trwałej wiedzy na temat, co to jest liczba i czym jest relacja
większości/mniejszości, natom iast obie wartości, czyli 2 i 8, mogą powstać
w wyniku kodowania obrazowego lub werbalnego. W zależności od tego,
jaka modalność zmysłowa bierze udział w percepcji liczb, ich reprezentacja
może mieć charakter obrazowy lub słowny. Łączne użycie nietrwałych
reprezentacji konkretnych liczb oraz trwałych elementów ogólnej wiedzy na
temat tego, czym jest liczba i czym są relacje między liczbami, skutkuje
wyprowadzeniem sądu, że dwa jest mniejsze niż osiem. Sąd taki może już być
amodalny, zgodnie z tym, co sugeruje Pylyshyn. W każdym razie spór o format
reprezentacji numerycznych nie jest tym samym, co spór o ich trwałość.
Według McCloskeya i Macaruso (1995), w procesie porównywania liczb
ludzie zawsze odwołują się do głębokich, trwałych reprezentacji umysłowych.
Autorzy argumentują, że poznawcze wykorzystanie liczby wymaga użycia
trwale zakodowanej wiedzy o relacjach pomiędzy wartościami liczbowymi
a pośrednio - o relacjach między wielkościami masy, objętości lub innych
fizycznych cech przedm iotów, których abstrakcyjnymi odpowiednikami
są liczby.
Natomiast Campbell (1994) broni tezy, że liczby tworzą w umyśle re­
prezentacje nietrwałe, w dużym stopniu przypominające wyobrażenia prze­
strzenne. Zdaniem tego autora (Campbell, Clark, 1988; Clark, Campbell, 1991),
reprezentacje numeryczne mają charakter analogowy, związany z modalnością,
w jakiej informacje liczbowe docierają do systemu poznawczego, aby być dalej
przetwarzane. Zatem reprezentacje numeryczne mogą być przetwarzane
w modalności niewerbalnej (wzrokowej, słuchowej) lub werbalnej, ale są
wzajemnie powiązane w złożone struktury, dzięki czemu możliwy jest transfer
umiejętności w zakresie obliczeń numerycznych z jednego rodzaju reprezentacji
na inny (Whetstone, McCloskey, 1994). Na przykład informacje liczbowe
prezentowane wizualnie mogą być wykorzystane do udzielenia słownej
odpowiedzi na pytanie. Ponieważ jednak są tutaj zaangażowane odrębne mo­
dalności, przetwarzanie tego rodzaju musi być podatne na zakłócenia i błędy znacznie większe niż w przypadku, gdy zaangażowana jest tylko jedna mo­
dalność. Jednak Dehaene, Bossini i Giraux (1993) nie znaleźli argumentów
empirycznych świadczących na korzyść poglądów Campbella i Clarka. Nie­
zależnie od formy prezentacji liczb, obliczenia wykonywane przez osoby badane
nie różniły się znacząco, jeśli chodzi o czasowe i poprawnościowe parametry
wykonania.
Istotą sporu pomiędzy McCloskeyem a Campbellem jest to, czy istnieją
głębokie, trwałe i amodalne reprezentacje poznawcze w formie sądów o relacjach
między liczbami, decydujące o przebiegu procesów przetwarzania informacji
numerycznych. Spór ten nie odnosi się jedynie do reprezentacji numerycznych
i ma znacznie głębszy sens teoretyczny. Problem pierwotności lub wtórności
nietrwałych odzwierciedleń umysłowych względem reprezentacji trwałych
będzie dyskutowany w kolejnym podrozdziale.
2.4. Pierwotność czy wtómość nietrwałych reprezentacji umysłowych
89
2.4. Pierwotność czy w tóm ość
nietrwałych reprezentacji umysłowych
2.4.1. Hipoteza języka m yśli
Różnorodność nietrwałych reprezentacji umysłowych ze względu na język
kodowania danych zmysłowych wydaje się dobrze uzasadniona empirycznie
i teoretycznie. Rodzi jednak dodatkowy problem przekładu jednej formy po­
wierzchniowej reprezentacji umysłowej na inną. Zasada referencjalności w kon­
cepcji podwójnego kodowania wydaje się trafna, ale wymaga określenia reguł
odpowiedniości imagenów i logogenów w odniesieniu do tych samych obiektów
rzeczywistych. Próbę rozwiązania tego problemu podjął Anderson (1978;
Anderson, Bower, 1973), formułując hipotezę trzeciego języka kodowania,
zwaną również hipotezą języka myśli (language of thought, LOT, albo
mentalese).
Hipoteza ta głosi, iż umysł ludzki nie gromadzi trwałej wiedzy ani w postaci
obrazów, ani w postaci etykiet werbalnych, ale wyłącznie w postaci zbioru
sądów (twierdzeń) o relacjach między obiektami. Kod twierdzeniowy, zwany też
propozycjonalnym (propositions), ma postać abstrakcyjnych, amodalnych
twierdzeń opisowych, zorganizowanych w sieć umożliwiającą odbiór, rozumie­
nie i przetwarzanie informacji. Sąd należałoby zdefiniować jako taką formę
reprezentacji umysłowej, w której będą wyrażone relacje zachodzące pomiędzy
obiektami (Chlewiński, 1999; zob. rozdz. 3). Na przykład myśl, że podręcznik
leży na biurku, można przedstawić w postaci sądu:
[na (podręcznik, biurko)].
W strukturze tego sądu da się więc wyróżnić relację, że jeden obiekt znaj­
duje się na drugim, a ponadto dwa obiekty związane ową relacją. Sądy mogą
przybierać inną formę, w zależności od rodzaju relacji między obiektami. Oprócz
sądów dotyczących relacji przestrzennych, wyróżnia się sądy o przynależności
kategorialnej, np.:
[jest to (kot, zwierzę)],
sądy o atrybutach, np.:
[ma (kot, sierść)]
oraz sądy o działaniach, np.:
[ukraść (złodziej, auto)].
W powyższych przykładach mamy do czynienia z sądami o prostej struk­
turze. Jednak dzięki abstrakcyjnej formie zapisu, kod propozycjonalny nadaje
się do wyrażenia dowolnej relacji, wiążącej dowolnie dużo obiektów. Łączenie
i przekształcanie sądów jest możliwe dzięki tzw. rachunkowi predykatów, który
jest logicznym systemem przetwarzania zdań abstrakcyjnych. Elementem
rachunku predykatów jest np. negacja. Dlatego myśl, że podręcznik leży pod
biurkiem, a nie na nim, można zapisać w formie:
[~ n a (podręcznik, biurko)],
90
Rozdział 2. Istota i forma reprezentacji umysłowych
co oznacza, że pierwotną relację „na” zanegowano, uzyskując relację „pod”.
Negację można powtórnie zanegować, uzyskując sąd pierwotny; można też
łączyć sądy spójnikami logicznymi, takimi jak koniunkcja, alternatywa itd.
Dzięki rachunkowi predykatów można otrzymać sąd o dowolnym poziomie
złożoności, wyrażający dowolną relację między dowolną liczbą obiektów.
Ze zbioru sądów mogą być w zależności od potrzeb generowane nietrwałe
reprezentacje umysłowe, zarówno słowne, jak i obrazowe. Jednak same sądy nie
mają postaci słownej czy obrazowej, nie zależą też od rodzaju zaangażowanej
modalności zmysłowej - są amodalne. Pogląd ten jest zgodny z bardziej
umiarkowanymi tezami Kosslyna, który przecież uznawał konieczność istnienia
głębokich, trwałych i niespecyficznych ze względu na modalność sensoryczną
reprezentacji umysłowych, stanowiących podstawę konstrukcji analogowych
reprezentacji obrazowych. Różnice w poglądach Kosslyna i Andersona dotyczą
kwestii pierwotności lub wtórności poszczególnych rodzajów reprezentacji.
Podczas gdy dla Kosslyna znacznie ważniejsze są nietrwałe reprezentacje
obrazowe, mające bezpośredni wpływ na bieżące przetwarzanie informacji, dla
Andersona podstawę stanowią reprezentacje trwałe i zarazem głębokie, bo z nich
można utworzyć dowolną reprezentację powierzchniową.
Hipoteza języka myśli zyskała uznanie z kilku powodów. Po pierwsze, za
pomocą sądów można przedstawić każdy rodzaj informacji, a więc także opis
słowny czy też zawartość obrazu, co sprawia, że postulowanie istnienia in­
nych kodów nie jest już potrzebne. Po drugie, sądy przechowują głębokie
znaczenie informacji, pomijając jej powierzchniową, sensoryczną formę,
a zapamiętywanie na podstawie głębokich reprezentacji umysłowych jest
najskuteczniejszą formą trwałego przechowywania informacji (Craik, Lockhart,
1972; Craik, Tulving, 1975). W badaniach stwierdzono np., że znaczenie
tekstu jest pamiętane znacznie lepiej od formy językowej, w jakiej tekst był
prezentowany (Bransford, Barclay, Franks, 1972). Skoro zjawisko addytywności
efektów zapamiętania przy wykorzystaniu kodu obrazowego i werbalnego
(Paivio, Csapo, 1973) miałoby być argumentem na rzecz tezy o istnieniu dwóch
nietrwałych kodów powierzchniowych, to wielokrotnie potwierdzona teza
0 znaczeniu głębokości przetwarzania dla efektywności zapamiętywania musi
działać na rzecz hipotezy języka myśli. Po trzecie, sądy w naturalny sposób
wspierają procesy myślenia i podejmowania decyzji, a najczęściej te procesy
właśnie operują na reprezentacjach umysłowych. Precyzja i logika informacji
zawartych w twierdzeniach sprawia, że reguły wyciągania wniosków przy
operowaniu kodem propozycjonalnym są jednoznaczne, choć nie zawsze proste
1 łatwe do zastosowania.
Fakt, że sądy można przekształcać z wykorzystaniem rachunku predyka­
tów, a także przyjęty sposób notacji sądów, nie znaczy bynajmniej, że według
hipotezy języka myśli - reprezentacje umysłowe mają postać struktur lo­
gicznych. Jak zauważa R. Sternberg (1996), kod propozycjonalny jest konstruktem teoretycznym, przyjętym przez wielu psychologów poznawczych ze
względu na związane z tym korzyści metodologiczne w opisie i wyjaśnianiu
funkcjonowania umysłu. Ci sami psychologowie, którzy postulują istnienie
kodu propozycjonalnego, odżegnują się najczęściej od tezy, jakoby sądy miały
przybierać postać formuł logicznych. Cały sens hipotezy języka myśli sprowadza
się do tego, że sądy przybierają postać swoistą - ani werbalną, ani obrazową -
2.4. Pierwotność czy wtómość nietrwałych reprezentacji umysłowych
91
a język logiki i rachunek predykatów to tylko wygodny sposób notacji tego typu
reprezentacji świata w umyśle.
2.4.2. Teoria pierwotnych reprezentacji
w formie zbioru sądów Pylyshyna
W badaniach prowadzonych w paradygmacie rotacji mentalnych i skaningu
umysłowego instrukcja eksperymentalna z reguły wymusza dokonanie przez
osoby badane specyficznego przekształcenia, typowego dla obrazów; chodzi
o przeglądanie, powiększanie lub rotowanie obiektu. Pojawia się wobec tego
pytanie, czy wyniki tych badań nie są przypadkiem artefaktami, wywołanymi
przez odpowiednio skonstruowane instrukcje eksperymentalne (Intons-Peterson, 1983; Pylyshyn, 1981; Rinck, Denis, 2004).
Pylyshyn zrealizował swoje badania wspólnie z Bannonem (nieopublikowana rozprawa doktorska Bannona, omówiona w: Pylyshyn, 1981) w para­
dygmacie skaningu umysłowego z mapą wyspy jako zapamiętywanym obiektem.
Uczestnikom zadawano pytania o położenie geograficzne (północ, południe,
południowy wschód itd.) konkretnych obiektów na mapie. W pierwszym warun­
ku mogli oni wykorzystywać procesy postrzegania, mapa bowiem znajdowała
się cały czas w zasięgu ich wzroku. Stwierdzono wtedy silną zależność
(r = 0,50) czasu decyzji od odległości zadanego elementu od punktu fiksacji.
W drugim warunku uczestnicy badania musieli sobie wyobrazić mapę, przy
czym instrukcja nakazywała zwrócić uwagę na oba obiekty (punkt fiksacji oraz
zadany element), nie sugerując, w jaki sposób należy to zrobić (np. że należy
przenieść „plamkę” z jednego punktu do drugiego). W takim wariancie pro­
cedury nie stwierdzono związku między czasem decyzji a wzajemną odległością
obiektów na mapie (r = -0,03). Jeśli więc instrukcja udzielona badanemu
wymaga jedynie znalezienia się w odpowiednim miejscu względem punktu fik­
sacji, ale nie precyzuje, w jaki sposób można ten cel osiągnąć, wówczas zwią­
zek między czasem decyzji a odległością punktów na „skanowanej” mapie
umysłowej zanika. Wynika stąd, że w słynnych badaniach nad rotacją, a zwłasz­
cza skaningiem umysłowym, uczestnikom, być może, zasugerowano, aby
wyobrażali sobie ruch obiektu, który musi trwać odpowiednio do przebytego
dystansu. Wniosek, iż wyobraźnia działa analogicznie do percepcji, a zwłaszcza
analogicznie do prawdziwych manipulacji na obiektach, wydaje się więc po­
chopny.
W innym badaniu Rinck i Denis (2004) polecili uczestnikom „przecha­
dzanie się” w wyobraźni po budynku muzeum, składającym się z 10 pokojów,
w których rozmieszczono 24 obrazy znanych mistrzów (ryc. 2.3). Zgodnie z pa­
radygmatem skaningu umysłowego, badani najpierw zapamiętywali plan
pomieszczeń (przez 30 min), a następnie już „w wyobraźni” pokonywali wyzna­
czone im odległości. Instrukcja wymagała np., aby odnaleźć dany obraz, wyjść
z pokoju, przejść przez dwa sąsiednie pokoje i znaleźć się przed innym obrazem.
Badani zgłaszali moment wykonania wymaganej czynności. Rinck i Denis
manipulowali euklidesowym (fizycznym) oraz kategorialnym (liczba pokoi)
dystansem, jaki trzeba było przebyć. Stwierdzili klasyczny dla stanowiska
obrazowego efekt odległości - im większy fizyczny dystans do pokonania, tym
zfCj
tvQzaziai c. ístoia i rorma reprezentacji umysiowycn
dłuższy czas „odszukiwania” wskazanego w instrukcji miejsca. Okazało się
jednak, że efekt odległości dotyczy również dystansu kategoriałnego: czas
odszukiwania był tym większy, im więcej pokoi trzeba było przejść „w wyobraź­
ni”, niezależnie od dystansu fizycznego. O ile pierwszy wynik jest zgodny
z przewidywaniami wyprowadzonymi z koncepcji obrazowych, o tyle wynik
drugi świadczy raczej na korzyść stanowiska propozycjonalnego. Być może
uczestnicy tego badania tworzyli reprezentacje przestrzeni w postaci sądów
odzwierciedlających relacje między pokojami. Każdy pojedynczy sąd dotyczy
relacji między pokojami sąsiednimi (np. „sala nr 2 jest na lewo od sali nr 3”),
a sądy dotyczące innych par pokojów wymagają złożenia odpowiedniej liczby
takich sądów pierwotnych. Nic więc dziwnego, że im większy dystans wyrażony
liczbą pokoi, tym dłuższy czas decyzji.
1
1
1-------- 1
Gauguin
i--------1
Velazquez
van Gogh
Warhol
1
4
Brueghel
i_____ i
Rubens
2
I
I
i
I
Klee
r
i!---- i1
-----------
Bosch
Marc
1___ _i
Monet
1
9
1 !
1
Diirer
c
Q
i
!
Rafael Santi
i| i-------- 1----
Goya
Nolde
Rembrandt
1
1 1
i
----------------
7
Miró
U
3
i""
i
Renoir
10
n
Picasso
Dali
iI---------------1
1
Michat Aniol
6
8
Kandinsky
i
i
da Vinci
Magritte
U
Macke
i ■ i
Ryc. 2.5. Plan muzeum wykorzystany w badaniach nad pokonywaniem dystansu „w wyobraźni” (za:
Rinck, Denis, 2004).
Intons-Peterson (1983) wprowadziła jeszcze inną manipulację instrukcją.
Połowie uczestników badania sugerowała, że zadanie z zakresu skaningu
umysłowego lepiej wykonywać w warunku percepcyjnym. Druga połowa bada­
nych dowiadywała się, że lepsze wyniki można uzyskać w warunku wyobraże­
niowym. Rodzaj zastosowanej instrukcji znalazł wyraźne odzwierciedlenie w wy­
nikach eksperymentu. W żadnej z dwóch grup nie stwierdzono funkcjonalnej
ekwiwalencji percepcji i wyobraźni. Co więcej, badani rzeczywiście szybciej
wykonywali zadanie w warunku eksperymentalnym, który przez badacza został
wskazany jako ten, w którym można uzyskać lepsze wyniki.
Część rezultatów badań Bannona i Pylyshyna, Intons-Peterson oraz Rincka
i Denisa jest więc sprzeczna z teorią powierzchniowych reprezentacji umysło­
wych w formie obrazowej oraz z hipotezą ekwiwalencji percepcji i wyobraźni.
Pylyshyn (1981) w swojej krytyce reprezentacji obrazowych posuwa się jeszcze
2.4. Pierwotność czy wtórność nietrwałych reprezentacji umysłowych
93
dalej, stwierdzając, że odzwierciedlenia wyobrażeniowe są epifenomenami, czyli
realnie nie istniejącymi, z gruntu niesamodzielnymi „zdarzeniami” mentalnymi;
prawdziwie istniejące są tylko reprezentacje wyrażone w kodzie propozycjonalnym. Sądzi, że efekty eksperymentalne uzyskane przez zwolenników
koncepcji obrazowej są artefaktami, wynikającymi z zastosowania sugerującej
instrukcji dla osób badanych. Według Pylyshyna (1973, 1981), reprezentacja
umysłowa jest abstrakcyjną strukturą poznawczą, w której odzwierciedlone są
relacje, jakie zachodzą między obiektami i wydarzeniami w otaczającej nas
rzeczywistości. Reprezentacje obrazowe Kosslyna i sensoryczne obrazy Paivio
są, zdaniem Pylyshyna, zjawiskami wtórnymi wobec właściwych reprezentacji
umysłowych, powstając w wyniku przetwarzania tych ostatnich. Logogeny
Paivio są już bliższe reprezentacjom umysłowym w przekonaniu Pylyshyna,
ale przez swoją konkretność i modalność bardziej pasują do powierzchniowych
reprezentacji umysłowych w formie obrazów sensorycznych niż do amodalnych
i abstrakcyjnych odzwierciedleń otaczającej nas rzeczywistości. Odmienność
poszczególnych koncepcji reprezentacji dobrze ilustruje taki oto przykład.
Kosslyn (1983) twierdzi, że reprezentacja umysłowa szachownicy ma postać
obrazu naprzemiennie ułożonych pól czarnych i białych. Zdaniem Paivio
(1986), reprezentacją umysłową szachownicy może być albo jej sensoryczny
obraz (jak u Kosslyna), albo werbalny opis koloru poszczególnych pól. We­
dług Pylyshyna (1981), reprezentacja szachownicy to nic innego, jak zbiór
sądów (twierdzeń) dotyczących charakteru pól (czarne lub białe) i ich
lokalizacji w obrębie matrycy 64 pól zdefiniowanych przez litery i cyfry (G3,
A8 itd.).
Pylyshyn (1981) uważa więc, że poszczególne obiekty są reprezentowane
w umyśle nie samodzielnie, ale jako część twierdzenia o wzajemnej relacji
dwóch obiektów, przy czym relacje przestrzenne to tylko jedna z wielu
możliwości. Na przykład wyobrażając sobie mapę Europy, „widzimy”, że Ho­
landia znajduje się na zachód od Niemiec, a Niemcy - na zachód od Polski. Jeśli
kosslynowski punkt fiksacji wypada na Ukrainie, która na zachodzie graniczy
z Polską, odpowiedź na pytanie, co jest położone dalej od Ukrainy: Holandia czy
Niemcy, wymaga rozważenia większej liczby twierdzeń niż odpowiedź na
pytanie, czy dalej od Ukrainy jest Polska, czy też Niemcy. W drugim przypadku
wystarczy rozważyć tylko dwa twierdzenia:
[leży na zachód od (Polska, Ukraina)],
oraz
[leży na zachód od (Niemcy, Polska)],
podczas gdy w pierwszym przypadku do dwóch powyższych sądów trzeba dodać
trzeci:
[leży na zachód od (Holandia, Niemcy)].
Jest oczywiste, że im więcej sądów, tym więcej czasu potrzeba na ich
przetworzenie, dlatego czas decyzji jest dłuższy, gdy porównywane elementy
leżą dalej na mapie. Jeśli jednak efekt odległości nie ujawni się w badaniach, co
czasem się zdarza, trzeba wnioskować, iż w takiej sytuacji wszystkie obiekty są
Ol
nU£U£ldl
Ca .
is iu ia
l
l u m ia
icpicz,cniacji uniyoiuwyou
powiązane bezpośrednimi relacjami definiującymi ich wzajemne położenie
w przestrzeni. Jeśli np. ktoś dysponuje gotowym, utrwalonym sądem o treści:
[leży na zachód od (Holandia, Ukraina)],
wówczas odpowiedź na pytanie o położenie dwóch obiektów wymaga prze­
tworzenia tylko jednego sądu, co oznacza, że na podjęcie decyzji trzeba zużyć tę
samą ilość czasu niezależnie od rzeczywistej lub wyobrażonej odległości dwóch
obiektów. Jak widać, kod propozycjonalny jest bardziej uniwersalnym sposobem
zapisu poznawczych reprezentacji świata niż kod werbalny, a zwłaszcza obra­
zowy. Jest też lepiej dopasowany do zaobserwowanych danych empirycznych,
ponieważ dobrze wyjaśnia zarówno to, co jest wyjaśnialne z odwołaniem się do
kodu obrazowego, jak również to, z czym stanowisko obrazowe zupełnie sobie
nie radzi.
Rozważmy np. problem wpływu złożoności reprezentacji umysłowej na
czas potrzebny do wykorzystania tej reprezentacji w jakiejś czynności
poznawczej. Liczba sądów potrzebnych do opisu bardziej złożonych relacji jest
oczywiście znacznie większa niż liczba twierdzeń niezbędnych do ujęcia relacji
prostych. Trudniej nam stwierdzić istnienie jakiegoś szczegółu w bardzo
złożonym obiekcie, bo trzeba w tym celu rozważyć znacznie więcej twierdzeń
niż w przypadku obiektu prostego. Na przykład, badając „w wyobraźni” mapę
Europy, znacznie trudniej nam zdecydować, czy Bytom leży na Górnym Śląsku,
a łatwiej - czy Bielsko znajduje się na Podbeskidziu. Oba miasta są porów­
nywalnej wielkości, ale Bytom jest jednym z wielu dużych miast w aglomeracji
Górnego Śląska, podczas gdy na Podbeskidziu nie ma drugiego tak dużego
miasta jak Bielsko. Efekt ten można wytłumaczyć liczbą niezbędnych do prze­
tworzenia sądów, a nie żadnym „zoomem mentalnym”. Możliwe też, że do
wygenerowania wyobrażenia małych elementów badani wykorzystują mniejszą
liczbę twierdzeń, przez co szczegóły obiektu nie są łatwo dostępne; należy
wówczas przeanalizować znacznie większą liczbę twierdzeń ogólnych bądź też
związanych z możliwymi transformacjami małego elementu, aby dokonać
poprawnej jego identyfikacji lub podjąć trafną wobec niego decyzję. Widzimy
więc, że w celu wyjaśnienia zależności stwierdzonych w badaniach metodami
skaningu umysłowego nie trzeba koniecznie odwoływać się do istnienia
obrazów umysłowych oraz funkcjonalnej ekwiwalencji percepcji i wyobraźni,
tym bardziej że zależności te mogą być po prostu artefaktami, wynikającymi
z przyjętej instrukcji eksperymentalnej (Pylyshyn, 1981; Intons-Peterson, 1983).
Pogląd Pylyshyna dotyczący wtórnego charakteru wszelkich „obrazów
mentalnych” wydaje się jednak zbyt skrajny, podobnie zresztą jak pogląd
Kosslyna dotyczący dominującej roli obrazów w kodowaniu informacji. Trudno
w świetle przedstawionych w tym podrozdziale wyników badań nie zgodzić się
z twierdzeniem, iż obrazy umysłowe nie są jedyną formą reprezentacji danych
sensorycznych. Wyniki te są więc sprzeczne z koncepcją Kosslyna o tyle, o ile
przyjmie się jego tezę, iż reprezentacje umysłowe w formie obrazu są konieczną
formą kodowana danych zmysłowych. Trzeba raczej przyjąć, że obrazy są jedną
z wielu form reprezentacji, i to bynajmniej nie obligatoryjną. Inne formy to
reprezentacje werbalne (Paivio) i reprezentacje w formie zbioru sądów (Py­
lyshyn), które podlegają zupełnie innym prawom użycia i przetwarzania niż
obrazy umysłowe. Nasuwa się wniosek, że trzy rodzaje reprezentacji umysło­
2.4. Pierwotność czy wtórność nietrwałych reprezentacji umysłowych
95
wych: obrazowe, werbalne i propozycjonalne, powstają i zanikają w zależności
od wymagań sytuacji zadaniowej i naszych osobistych preferencji.
2.4.3. Teoria modeli m entalnych Johnson-Lairda
Nietrwałe, powierzchniowe reprezentacje poznawcze, tworzone na potrzeby
bieżącego przetwarzania informacji, mogą przyjmować jeszcze jedną postać.
Oprócz obrazów, słów i sądów umysł ludzki generuje tzw. modele mentalne,
czyli nietrwałe reprezentacje słowno-obrazowe o dość dużym poziomie
złożoności. Powstają one zwykle w toku procesu myślenia lub rozumowania
jako sposób na przedstawienie sobie w umyśle istoty problemu, a zwłaszcza
składających się nań zależności. Wnikliwą analizę tego typu reprezentacji prze­
prowadził w swojej koncepcji modeli mentalnych Philip Johnson-Laird (1983).
Teoria ta wyrosła na gruncie badań nad wnioskowaniem. Zasadnicza teza
autora brzmi, iż wnioskowanie nie jest formalnym procesem syntaktycznym, ale
procesem semantycznym, którego przebieg zależy od wyobrażonych stanów
analizowanej sytuacji. Innymi słowy, przebieg i efekty wnioskowania zależą od
modelu sytuacji, a więc od sposobu reprezentowania problemu w umyśle osoby
zmagającej się z nim.
Wnioskowanie obejmuje trzy główne operacje. W pierwszej kolejności czło­
wiek buduje w umyśle wyobrażenie stanu rzeczy, o jakim jest mowa w prze­
słankach. W ten sposób powstaje mentalny model sytuacji, oparty zarówno na
znaczeniach zawartych w przesłankach, jak i na wiedzy ogólnej. Taki model jest
zawsze uproszczoną reprezentacją problemu, często błędną i wewnętrznie nie­
spójną, gdyż zazwyczaj - z punktu widzenia logiki formalnej - treść przesłanek
można sobie przedstawić w różny sposób. Na przykład przesłankę:
Każdy psycholog jest mędrcem,
można rozumieć na wiele sposobów: że poza psychologami jest cała masa
mędrców niepsychologów, że mędrców niepsychologów jest naprawdę niewielu,
wreszcie - że każdy mędrzec jest psychologiem. Z logicznego punktu widzenia
każde z tych stwierdzeń jest poprawnym uszczegółowieniem treści przesłanki,
ale psychologicznie rzecz ujmując, są to stwierdzenia dość odrębne. Im bardziej
złożona przesłanka, tym więcej modeli mentalnych można na jej podstawie
zbudować. Im więcej zaś możliwych do zbudowania modeli, tym łatwiej o po­
myłkę we wnioskowaniu, ponieważ pomyłka może wynikać z tego, że w swoim
umysłowym przedstawieniu treści przesłanek nie uwzględniliśmy wszystkich
możliwości. W drugim etapie wnioskowania mentalny model przesłanek staje się
punktem wyjścia do wyprowadzenia próbnych wniosków, zgodnych z przyjętym
modelem. Ostatni etap wnioskowania polega na budowaniu alternatywnych
modeli umysłowych, które mogłyby ewentualnie sfalsyfikować wyciągnięte
wnioski i skorygować ostateczną konkluzję.
Modele umysłowe danego obiektu, sytuacji czy zjawiska są tworzone ad
hoc, na potrzeby rozwiązania konkretnego problemu. Może się więc okazać, iż
ta sama osoba, na potrzeby dwóch różnych zadań, utworzy dwa całkowicie od­
mienne modele tego samego obiektu lub zjawiska. Ta zadziwiająca własność
modeli umysłowych ujawnia się szczególnie wyraźnie w badaniach nad naiwny­
yb
Rozdział 2. Istota i forma reprezentacji umysfowycn
mi teoriami zjawisk czy obiektów (zob. rozdz. 11.2.2). Z punktu widzenia sporu
o naturę reprezentacji umysłowych najważniejsze jest twierdzenie Johnson-Lairda (1983), iż nietrwałe modele mentalne powstają zarówno na bazie
spostrzeżeń i wyobrażeń, a więc nietrwałych reprezentacji umysłowych, jak i na
bazie wiedzy, a więc reprezentacji trwałych. W tym ujęciu żadna forma re­
prezentacji nie jest przypadkowym bytem pozbawionym znaczenia - wszystkie
biorą ważny udział w tworzeniu modelu stanowiącego materiał dla bieżących
procesów przetwarzania informacji. Modele mentalne należy zatem uznać za
osobną formę nietrwałej reprezentacji świata w umyśle, wyróżnioną ze względu
na mieszany, obrazowo-pojęciowy charakter, jak też ze względu na stosunkowo
wysoki poziom złożoności. Typowy model umysłowy jest bowiem czymś
znacznie bardziej złożonym niż obraz, etykieta werbalna czy nawet twierdzenie.
2.4 .4 . Stanow isko eklektyczne w sporze
o kod reprezentacji um ysłow ych
Co wynika z przedstawionego w tym rozdziale sporu o naturę i formę repre­
zentacji świata w umyśle? Czy możliwe jest sformułowanie jakiejś konkluzji
popartej wynikami badań empirycznych?
Wydaje się, że zadania.z zakresu rotacji mentalnych, w których wykorzys­
tuje się wyłącznie materiał niewerbalny (rysunki, figury, rzuty figur na
płaszczyznę), wymagają raczej wyobrażeń w postaci obrazów sensorycznych
(Kosslyn, Paivio). Z kolei zadania z zakresu weryfikacji sylogizmów, wykorzys­
tujące materiał werbalny, wymagają raczej reprezentacji w postaci etykiet
słownych (Paivio) lub nawet głębszych reprezentacji umysłowych w postaci
zbioru abstrakcyjnych twierdzeń i sądów o relacjach (Pylyshyn). Natomiast
zadania z zakresu skaningu umysłowego mogą być rozwiązywane zarówno
w obrazowej, jak i werbalnej formie reprezentacji powierzchniowych; mogą
wymagać udziału trwałych reprezentacji w formie sądów o relacjach bądź ich nie
wymagać. Wyniki przedstawionych w tym rozdziale badań nie mogą więc być
interpretowane na korzyść żadnej ze skrajnych teorii reprezentacji umysłowych.
Każde skrajne ujęcie można łatwo sfalsyfikować, przedstawiając wyniki badań
eksperymentalnych, których nie da się w jego ramach zrozumieć.
Każdy człowiek zapewne dysponuje różnymi reprezentacjami umysłowymi
tych samych obiektów. Ten sam przedmiot, osoba lub sytuacja mogą być
przedstawione w postaci obrazu, etykiet werbalnych lub zbioru twierdzeń.
W zależności od rodzaju stymulacji, kontekstu lub fazy rozwiązywania pro­
blemu, człowiek tworzy ad hoc i wykorzystuje obrazową, werbalną lub
propozycjonalną formę reprezentacji; niekiedy też buduje złożony model
mentalny sytuacji lub problemu. Kod obrazowy jest charakterystyczny dla
początkowych faz rozwiązywania zadań, polegających głównie na przyswajaniu
informacji, podczas gdy kod werbalny lub propozycjonalny działa raczej
w późniejszych fazach, gdy należy dokonać logicznych przekształceń lub innych
złożonych operacji umysłowych. Być może o wyborze rodzaju reprezentacji
umysłowej w przetwarzaniu danych decydują osobiste preferencje jednostki.
Gdy rodzaj zadania lub jego instrukcja nie określa jednoznacznie pożądanego
rodzaju reprezentacji umysłowych, wtedy o ich wyborze decydują właśnie
2.5. Podsumowanie
97
indywidualne strategie lub preferencje. Ostatecznie w sporze o istotę i rodzaje
reprezentacji umysłowych należałoby przyjąć stanowisko eklektyczne (Ander­
son, 1995), dopuszczające możliwość istnienia wielu różnych form kodowania
świata w umyśle.
2.5. Podsumowanie
Jak zauważył Anderson (1978, s. 250), „żadne twierdzenie na temat danej
reprezentacji nie jest możliwe, dopóki nie wyszczególni się procesu, jaki ma na
tej reprezentacji przebiegać”. Próbując zatem odpowiedzieć na dwa pytania
Pylyshyna, sformułowane na początku tego rozdziału, nie można w istocie
uniknąć błędnego koła. Z jednej strony trudno wypowiadać się o przebiegu
procesów przetwarzania informacji, nie definiując najpierw natury i formy
reprezentacji umysłowych, na których procesy te operują. Z drugiej strony rów­
nie trudno jest omawiać strukturę i formę reprezentacji umysłowych w oder­
waniu od konkretnych czynności poznawczych, które się na tych reprezen­
tacjach dokonują. Mimo tego zagrożenia, pewne wnioski na temat reprezentacji
świata w umyśle wydają się możliwe. Reprezentacje dzielą się na trwałe
i nietrwałe. Te pierwsze tworzą struktury wiedzy, podczas gdy te drugie powsta­
ją w związku z koniecznością wykonania konkretnej czynności poznawczej (np.
podjęcia decyzji, wypracowania odpowiedzi na pytanie, rozwiązania problemu),
po czym zanikają. Nietrwałe reprezentacje poznawcze, zwane też powierzch­
niowymi, mogą przyjmować postać obrazów umysłowych, etykiet słownych,
sądów o relacjach między obiektami czy też złożonych modeli umysłowych
konkretnej sytuacji lub problemu. Powszechnie obowiązującą zasadą funkcjo­
nowania umysłu jest założenie, że ten sam obiekt może być reprezentowany
w różnym formacie, np. obrazowym i słownym, a o użyciu określonej formy
reprezentacji decydują czynniki sytuacyjne (np. kontekst, polecenie, instrukcja,
rodzaj napływającej stymulacji) lub trwałe preferencje indywidualne.
R ozd ział
Pojęcia i schematy
Konstrukt reprezentacji pojęciowej
99
Istota i funkcje reprezentacji pojęcio­
wych 99
Ogólne właściwości pojęć
100
Pojęcia m atrycow e i naturalne
102
S truktura i funkcjonow anie reprezentacji
pojęciowych 103
Teorie klasyczne
103
Teorie probabilistyczne
Teorie prototypów
Teorie egzem plarzy
112
123
Porównanie koncepcji reprezentacji po
jęciowych 125
Dynamiczna koncepcja umysłu, czyli o re
lacjach między pojęciami 126
Teorie sieci semantycznej
Złożone struktury sieciowe
Teoria schem atów
Teoria ram
126
128
129
132
Teoria planów, scen i tem atów
108
133
Porów nanie koncepcji stru k tu r siecio
wych 134
Podsumowanie
135
Pojęcie to poznawcza reprezentacja zbioru obiektów, np. kategorii natural­
nych (owoce), sztucznych (liczba rzeczywista) lub hipotetycznych (UFO).
Schemat poznawczy to złożona forma reprezentacji umysłowej, obejmująca
zarówno sens typowej sytuacji (obiad w restauracji), jak i znaczenie typowych
form zachowania (jedzenie, płacenie), jakie powinny być wygenerowane
w reakcji na tę typową sytuację.
Według anegdoty pewien prowincjusz odwiedził ogród zoologiczny. Zatrzymał
się przy wybiegu dla żyraf, długo się im przyglądał, po czym stwierdził: „Takiego
zwierzęcia nie ma!”. Anegdota jest zapewne zmyślona, ale dobrze oddaje
psychologiczny sens i funkcję pojęć: jeśli brakuje umysłowej reprezentacji pew­
nego fragmentu rzeczywistości, fragment ten zdaje się nie istnieć. Stan umysłu,
któremu brakuje adekwatnych reprezentacji pojęciowych, oddają takie okreś­
lenia języka potocznego, jak to, że coś się „nie mieści w głowie” albo że na coś
„brak słów”. W tym rozdziale omówimy trwałe reprezentacje poznawcze, jakimi
są pojęcia i schematy. Przedmiotem analizy będą rodzaje pojęć, ich struktura
i nabywanie oraz wpływ na aktywność poznawczą człowieka. Osobny podroz­
dział poświęcimy analizie schematów poznawczych jako struktur utworzonych
z pojęć.
3.1. Konstrukt reprezentacji pojęciowej
3.1.1. Isto ta i funkcje re p reze n ta cji pojęciow ych
Pojęcia (concepts) są sposobem reprezentacji świata w naszym umyśle
(zob. rozdz. 2). Są schematycznymi reprezentacjami zbiorów rzeczywistych
obiektów, stanowiąc dla nich nadrzędną kategorię umysłową, punkt odniesie­
nia, konieczny do ich identyfikacji i rozróżnienia w ramach różnych kategorii.
Problemy z rozpoznawaniem obiektów często wynikają z braku odpowiednich
reprezentacji umysłowych. W myśl powyższej anegdoty, prowincjusz nie
był w stanie sklasyfikować żyrafy jako egzemplarza (desygnatu, przedstawi­
ciela) nadrzędnej kategorii zwanej zwierzętami, gdyż ta właśnie kategoria
umysłowa była w jego przypadku reprezentacją jedynie tych zwierząt, z który­
mi zetknął się on w swoim doświadczeniu i których szyje, w przeciwieństwie
do szyi żyrafy, były proporcjonalne do reszty ich ciał. Zaburzenie tej pro­
porcji u żyrafy, a więc niespełnienie przez nią istotnej właściwości kryterialnej, uniemożliwiło prowincjuszowi potraktowanie nowo napotkanego w ogro­
dzie zoologicznym obiektu jako podobnego do innych obiektów klasy
zwierząt.
Schematyczna struktura reprezentacji pojęciowych wyraża się poprzez
relację koniunkcyjną („a i b ”) lub dysjunkcyjną („a albo b ”) istotnych
właściwości (a, b) obiektów, trwale odzwierciedlanych przez system poznawczy
(Lewicki, 1968; Smith, Shoben, Rips, 1974). Pojęcia można więc definiować
jako zbiory cech powiązanych znaczeniowo lub funkcjonalnie (Obuchowski,
1970). Zbiór obiektów może również zostać odzwierciedlony schematycznie,
100
Rozdział 3. Pojęcia i schematy
w sposób uproszczony, przez pojedynczy egzemplarz danej kategorii, jeśli
charakteryzuje się on właściwościami typowymi bądź dystynktywnymi dla danej
kategorii obiektów (Reed, 1971; Rosch, 1978). Reprezentacje pojęciowe
przyjmują postać głębokich, trwałych odzwierciedleń obiektów rzeczywistych.
W przeciwieństwie do reprezentacji nietrwałych, wyobrażonych (np. w obrazach
umysłowych czy w etykietach werbalnych; zob. rozdz. 2), są niezależne od formy
zmysłowej i właściwości zmysłu, którym obiekty reprezentowane w ramach
pojęcia są spostrzegane. Reprezentacje pojęciowe mają więc charakter
amodalnych sądów o relacjach zachodzących pomiędzy właściwościami
obiektów rzeczywistych.
Pojęcia zapewniają systemowi poznawczemu ekonomię funkcjonowania,
działając w zgodzie z priorytetową dla tego systemu zasadą „skąpca poznaw­
czego” (zob. rozdz. 1). Rola reprezentacji pojęciowych jest tu zbliżona do
podstawowej funkcji uwagi - selektywności (zob. rozdz. 5). Zadaniem uwagi
jest jednak przede wszystkim ograniczenie ilości docierających do nas
informacji i wybór do dalszego przetwarzania tylko tych, które z punktu
widzenia systemu poznawczego są ważne. Dzięki reprezentacji tych informacji
w umyśle przez rozbudowany system pojęć, możliwe jest znaczne ograniczenie
różnorodności danych docierających do umysłu. Jak twierdzą Rosch i współ­
pracownicy (1976, s. 382): „[...] jedną z najbardziej podstawowych funkcji
wszystkich organizmów jest ujmowanie otoczenia w klasyfikacjach, które
pozwalają traktować bodźce nieidentyczne jako równoważne”. W ramach
każdej kategorii poszczególne desygnaty mogą bowiem znacznie się różnić,
nadal będąc zaliczane do przedstawicieli danego pojęcia. Na przykład różnice,
pomiędzy egzemplarzami powszechnie używanej kategorii pojęciowej „samo­
chód” są znaczne, jednak kierujący ruchem drogowym nie mają żadnych
kłopotów z odróżnianiem desygnatów tej właśnie kategorii od innych
uczestników ruchu drogowego. Podobnie nawet tak precyzyjnie zdefiniowane
kategorie pojęciowe, jak „trójkąt” (figura płaska, zamknięta, o sumie kątów
wynoszącej 180° kątowych) posiadają egzemplarze znacznie różniące się od
siebie (trójkąt równoramienny i trójkąt rozwartokątny). W konsekwencji,
w przypadku przynajmniej niektórych reprezentacji pojęciowych, poszczególne
desygnaty wydają się lepszymi bądź gorszymi przedstawicielami nadrzędnej
kategorii. Jednak, pomimo tej różnorodności, zaliczenie ich do wspólnej
kategorii nadrzędnej sprawia, że możliwe jest konsekwentne, niezróżnicowane
zachowanie wobec wszystkich przedstawicieli tej kategorii, niezależnie od ich
różnorodności. Dlatego też policjant może ukarać mandatem za szybką jazdę
zarówno kierowcę małego fiata, jak i prowadzącego porsche, zaś do obliczenia
pola dowolnego trójkąta wystarcza znajomość długości podstawy i wysokości
tej figury, a niekonieczna staje się wiedza dotycząca stopnia rozwartości naj­
większego kąta.
3 .1.2. Ogólne w łaściw ości pojęć
Reprezentacje pojęciowe mogą mieć charakter zarówno indywidualny, jak
i ogólny. Przykładem pojęcia ogólnego jest pojęcie samochodu. Przykładem po­
jęcia mniej ogólnego, a bardziej zindywidualizowanego jest pojęcie samochodu
3.1. Konstrukt reprezentacji pojęciowej
101
przekraczającego przepisy ruchu drogowego, zaś pojęcia zupełnie jednostkowe­
go - pojęcie własnego samochodu. Reprezentacje pojęciowe charakteryzuje
więc różny stopień ogólności, czyli różny stopień redukcji różnorodności
wśród obiektów odzwierciedlanych przez dane pojęcie. Im bardziej ogólne jest
pojęcie, tym bardziej jest ono zbiorem właściwości typowych. Jednocześnie
wraz ze wzrostem ogólności pojęcia rośnie wielkość zbioru jego desygnatów.
Wyprzedzając nieco rozważania dotyczące wzajemnych relacji między pojęcia­
mi, można już teraz stwierdzić, że pojęcia tworzą złożoną strukturę, opartą na
zasadzie hierarchii ogólności - pojęcia podrzędne, np. własny samochód, są
podporządkowane pojęciom nadrzędnym, np. samochód, zgodnie z zasa­
dą inkluzywności właściwości i desygnatów (Collins, Loftus, 1975; Loftus,
Loftus, 1975).
Proces redukowania różnorodności w ramach danej reprezentacji pojęcio­
wej odbywa się poprzez kategoryzację obiektów. Proces kategoryzacji (categorization) polega na łączeniu obiektów w grupy charakteryzujące się ze­
stawem wspólnych właściwości. Taką właściwością dla samochodów jest to,
że poruszają się dzięki własnemu napędowi (w sensie „same jeżdżą”) po dro­
gach publicznych. Warto podkreślić, iż reprezentacja językowa (etykieta wer­
balna „samochód”), będąca konsekwencją uchwycenia pewnych wspólnych
właściwości grupy obiektów domagających się wspólnego określenia, nieko­
niecznie musi mieć coś wspólnego z reprezentacją pojęciową, dla której
jest nazwą. W przypadku pojęcia „samochód” reprezentacja językowa uwzględ­
nia ważną właściwość kategoryzowanych obiektów, ale często zdarza się,
iż etykieta werbalna ma charakter wyłącznie arbitralny i nie wskazuje na
żadne głębsze właściwości grupy określanych przez nią desygnatów. Na przy­
kład angielska etykieta bus dla oznaczenia autobusów związana jest bardziej
z charakterystycznym odgłosem wydawanym przez starsze modele tych
środków transportu niż z jakąkolwiek istotną właściwością przedstawicieli
tej kategorii.
Reprezentacje pojęciowe rozwijają się i doskonalą w ciągu życia człowieka,
gromadzącego doświadczenia indywidualne i stojącego wobec różnorodnych
wymagań sytuacji. Są więc zależne od kontekstu ich nabywania i stosowania
(McCloskey, Glucksberg, 1978; Murphy, Medin, 1985). Mieszkaniec tybetań­
skiej wioski, który nigdy w życiu nie widział samochodu, samodzielnie raczej nie
stworzy odpowiedniej reprezentacji pojęciowej. Z kolei większość mieszkańców
Europy, poruszająca się wygodnie samochodami, nie stworzyła sobie reprezen­
tacji pojęciowej tybetańskiego jaka. Brak bowiem bodźców (odpowiedniego
kontekstu dla procesu uczenia się) nie daje podstawy do wytworzenia
reprezentacji pojęciowej. Reprezentacje pojęciowe mogą też być zróżnicowane
w odmienny sposób ze względu na warunki, w jakich się kształtują. Na przykład
mieszkaniec Grenlandii dysponuje siedmioma reprezentacjami śniegu w za­
leżności od jego zastosowania (igloo, lodówka itp.), podczas gdy dla większości
mieszkańców Europy śnieg ma tylko jedno trwałe odzwierciedlenie w systemie
poznawczym.
Powyższe przykłady wydają się potwierdzać jeszcze średniowieczną
koncepcję reprezentacjonizmu Ockhama (za: Kemp, 1998). Zgodnie z nią, głę­
bokie reprezentacje wprawdzie mogą funkcjonować w oderwaniu od doświad­
czenia obiektów rzeczywistych, jednakże ich doświadczenie jest z pewnością
102
Rozdział 3. Pojęcia i schematy
niezbędne w procesie nabywania tych reprezentacji. Koncepcję tę w psychologii
rozwijali zwłaszcza zwolennicy asocjacjonizmu (np. Titchener), a raczej prze­
ciwni jej byli zwolennicy gestaltyzmu (np. Wertheimer, Kulpę). Ci ostatni
opowiadali się za istnieniem pojęć nieobrazowych, niepochodzących z doświad­
czenia percepcyjnego (Maruszewski, 1983).
3.1 .3 . Pojęcia m atrycowe i naturalne
Pojęcia dzielimy na matrycowe i naturalne. Pojęcia matrycowe (classical
concepts) są jasno określone (zdefiniowane). Stanowią poznawczą reprezenta­
cję skończonej liczby cech wspólnych wszystkim desygnatom, które w jedna­
kowym stopniu przysługują wszystkim egzemplarzom pojęcia. Przykładem
pojęcia matrycowego jest „trójkąt”. Trzema cechami przysługującymi w jed­
nakowym stopniu wszystkim trójkątom są: (1) bycie figurą płaską; (2) bycie
figurą zamkniętą; (3) posiadanie trzech kątów o sumie stopni kątowych
wynoszącej 180. W świetle tej definicji nie ma sensu mówić o bardziej i mniej
typowych trójkątach, bo wszystkie trójkąty spełniają tę definicję w jednakowym
stopniu. Bez wątpienia, dla matematyka trójkąt równoboczny i rozwartokątny są
równie dobrymi desygnatami trójkątów, jak każdy inny przedstawiciel tej
kategorii figur. Pojęcia matrycowe (inaczej sztuczne) dominują w języku
nauki, bywają zresztą określane jako „naukowe” lub „arystotelesowskie” (Trze­
biński, 1986). To właśnie Arystoteles zapoczątkował definiowanie obiektów
poprzez wskazanie najbliższego rodzaju i specyficznej różnicy. Najbliższy rodzaj
to kategoria nadrzędna w stosunku do obiektu definiowanego, czyli najbliższa
pod względem poziomu abstrakcji, ale nazbyt ogólna. Natomiast specyficzna
różnica to cecha, która wyróżnia definiowany obiekt spośród innych przed­
stawicieli tej kategorii. Na przykład określenie człowieka jako „zwierzęcia
rozumnego” zawiera najbliższy rodzaj: „zwierzę” i specyficzną różnicę:
„rozumne”.
Pojęcia naturalne (natural kind concepts) są mniej precyzyjnie określone
i w związku z tym mogą mieć bardziej indywidualny charakter. Wprawdzie
stanowią one także poznawczą reprezentację skończonej liczby cech, jednak
cechy te w różny sposób przysługują poszczególnym desygnatom pojęcia. Stąd
też każde pojęcie naturalne posiada bardziej i mniej typowe desygnaty; podobnie
- cechy definiujące daną reprezentację pojęciową mogą być mniej lub bardziej
typowe. Wróbel jest bardzo typowym ptakiem, a kura nim nie jest, chociażby
z tego powodu, że lata z wielkim trudem (Rosch, 1978). Pojęcia naturalne do­
minują w tworzeniu potocznej reprezentacji świata w umyśle, podlegają czasami
zmianom na skutek kontaktu z innymi desygnatami danego pojęcia. Zmienność
i zależność od doświadczenia i kontekstu sytuacyjnego wyraźnie odróżnia
pojęcia naturalne od pojęć matrycowych.
Warto jednak zauważyć, że ta sama reprezentacja może być pojęciem ma­
trycowym dla pewnej grupy ludzi a naturalnym dla innej. Opisany powyżej
przykład pojęcia „trójkąt” posłużył jako ilustracja dla pojęć sztucznych.
Matrycowym pojęciem trójkąta posługują się prawdopodobnie tylko przedsta­
wiciele nauk ścisłych. Tymczasem zdecydowana większość ludzi uważa, że
pewne trójkąty są bardziej typowe (są lepszymi przedstawicielami kategorii
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
103
„trójkąt”), podczas gdy inne są mniej typowe (są gorszymi jej przedstawi­
cielami). Na przykład trójkąt równoboczny lub prostokątny są często uważane
za lepszych przedstawicieli swojej kategorii, niż trójkąt o kącie rozwartym po­
wyżej 120°. Można o tym wnioskować na podstawie obserwacji procesu kate­
goryzacji - osobom badanym z reguły mniej czasu zajmuje identyfikacja „typo­
wego” trójkąta jako desygnatu swojej klasy niż identyfikacja przedstawiciela
„nietypowego”. „Typowe” trójkąty otrzymują także wyższe oceny w rankin­
gach typowości, pod warunkiem że oceny nie dokonują przedstawiciele nauk
ścisłych.
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
3.2.1. Teorie klasyczne
\
f
j
(
j
I
i
!
I
j
(
|
|
I
Ę
i
j
\
[■
I
Według teorii klasycznych (classical view) pojęcie jest syntetycznym opisem
pewnej klasy desygnatów, a nie zbiorem opisów różnych podzbiorów albo po­
jedynczych egzemplarzy danej klasy (Bruner, Goodnow, Austin, 1956; Lewicki,
1960, 1968; Loftus, Loftus, 1975). Pojęcie jest reprezentacją zbioru obiektów,
uwzględniającą wszystkie istotne właściwości tego zbioru. O właściwościach
mówimy, że są istotne, jeśli się powtarzają. Właściwością taką jest więc ta cecha,
która występuje u wszystkich obiektów należących do zbioru. Istotną właściwością zbioru psów jest to, że wszystkie bez wyjątku wydają głos (i to specyficzny w postaci szczekania), a nie jest nią posiadanie ogona (pewne rasy mają
ogon zredukowany bądź w ogóle go nie mają). Wszystkie cechy istotne są
zarazem konieczne i wystarczające do określenia danego pojęcia. Stąd nazywane są również cechami definicyjnymi. Pojęcia podrzędne w hierarchii
ogólności zawierają wszystkie cechy pojęcia nadrzędnego, a ponadto cechy
istotne dla danego poziomu. Chcąc określić zbiór cech istotnych dla kwadratu,
nie można pominąć żadnych istotnych cech czworoboków, czyli kategorii
nadrzędnej.
Przyswajanie pojęć, zgodnie z koncepcjami klasycznymi, odbywa się na
drodze abstrahowania ich właściwości. Abstrahowanie oznacza wyróżnianie
w grupie obiektów pewnych cech przy pominięciu pozostałych (w oderwaniu od
nich; Fleszner, 1960). Andrzej Lewicki (1960) odrzucił koncepcję jednorodności procesu abstrahowania i wyróżnił dwa typy abstrakcji. Jego zdaniem,
abstrakcja negatywna polega na pomijaniu cech nieistotnych (np. długość sierści
u psa), zaś abstrakcja pozytywna - na wyodrębnianiu tych cech, które są istotne
(np. wydawanie głosu w postaci szczekania). W konsekwencji przyjęcia takiego
rozróżnienia, w procesie nabywania pojęć możliwe są dwa rodzaje błędów. Błąd
pierwszego rodzaju polega na pomijaniu cech istotnych dla definicji zbioru
obiektów. Wieloryb bywa zaliczany do ryb, gdy pominięta zostaje jego istotna
cecha „ssakowatość”. Jest to błąd abstrakcji pozytywnej. Błąd drugiego rodzaju
polega na zaliczeniu do cech istotnych właściwości nie mających znaczenia.
Pszczoła bywa zaliczana do ptaków, gdy za cechę istotną kategorii „ptak” uzna
się zdolność do latania (skądinąd cechę nieistotną). Jest to błąd abstrakcji
negatywnej.
104
Rozdział 3. Pojęcia i schematy
Paradygmat 3.1
Nabywanie pojęć metodą recepcji
Badania prowadzone w paradygmacie recepcji mają na celu poznanie sposobu
nabywania przez człowieka wiedzy o otaczającej go rzeczywistości. Uczestnikowi
eksperymentu pokazuje się sukcesywnie pewną liczbę obiektów, informując go
o tym, czy są one, czy też nie, przedstawicielami sztucznie wymyślonej na potrzeby
badania reprezentacji pojęciowej. Istnieją dwie podstawowe odmiany tego
paradygmatu, które dokładniej opisują Maruszewski (1983) i Kozielecki (1997),
a badania z ich wykorzystaniem prowadził Lewicki (1960, 1968).
W pierwszej odmianie paradygmatu recepcji - po prezentacji każdego z obiek­
tów - badany podejmuje decyzje co do jego przynależności kategorialnej,
a eksperymentator udziela mu każdorazowo informacji zwrotnej o trafności jego
przewidywań. Po przyswojeniu reprezentacji pojęciowej przez badanego następuje
seria testowa, w której kategoryzuje on nowe obiekty zgodnie z kryteriami
przynależności kategorialnej, nabytymi w fazie uczenia się. W serii testowej nie
przewiduje się udzielenia badanemu informacji zwrotnej.
W drugiej odmianie paradygmatu recepcji uczestnikowi eksperymentu
prezentuje się sukcesywnie serię obiektów. Podczas pierwszej ich prezentacji
udziela się mu informacji o przynależności bądź braku przynależności kategorialnej
jednego z obiektów, po czym przystępuje on do kategoryzowania pozostałych
obiektów, a po zakończeniu całej serii uzyskuje informację zwrotną - czy udało się
mu zaklasyfikować poprawnie wszystkie obiekty. W kolejnej serii dysponuje on już
informacją o przynależności kategorialnej dwóch obiektów (w następnej serii
trzech, w kolejnej - czterech itd.). Ponownie dokonuje klasyfikacji pozostałych
bodźców. Powtarza czynność aż do momentu właściwego podziału obiektów na
reprezentantów sztucznie stworzonej kategorii i pozostałe bodźce bądź też do
wyczerpania się obiektów, o których przynależności nic jeszcze nie wiadomo.
W obu odmianach paradygmatu recepcji uczestnik eksperymentu w pierwszej
kolejności nabywa procedur identyfikacyjnych umożliwiających mu poprawną
klasyfikację. W dalszej kolejności przedmiotem uczenia staje się istota pojęcia
(zestaw cech je określających), a prośba eksperymentatora dotyczy sformułowania <■
definicji reprezentacji pojęciowej, na podstawie której odbywa się dotychczasowa
klasyfikacja. Jednak ten drugi, wyższy poziom osiąga już relatywnie niewielki
odsetek badanych. Okazuje się, że łatwiej posługiwać się pojęciem dokonując
poprawnej klasyfikacji, niż sformułować jasną definicję pojęcia.
Paradygmat recepcji należy wyraźnie odróżnić od paradygmatu selekcji
(Maruszewski, 1983). W tym ostatnim badany jest aktorem dokonującym wyboru
w zakresie bodźca, na który reaguje, i sposobu reakcji na niego (np. w zadaniu
polegającym na sortowaniu kart do pudełek; Thompson, 1986). Natomiast w pa­
radygmacie recepcji uczestnik badania jest biernym obserwatorem, któremu po­
zwala się jedynie na formułowanie hipotez dotyczących wspólności w zakresie
spostrzeganych obiektów czy zjawisk.
Lewicki (1960,1968) prowadził badania nad nabywaniem pojęć sztucznych
w paradygmacie recepcji, a ściślej w drugiej z możliwych odmian tego para­
dygmatu (paradygmat 3.1). Reprezentacją nabywaną przez badanych było po­
105
3.2. S tru k tu ra i funkcjonow anie rep rezentacji pojęciowych
jęcie „klipiec”, charakteryzow ane przez trzy cechy istotne: dwa kształty zewnętrzny, dotyczący dużej karty, i wewnętrzny, dotyczący figury wpisanej
w kartę - oraz jedno w ypełnienie odnoszące się do figury w ew nętrznej (ryc. 3.1).
Cecha wypełnienia samej karty (zewnętrznego obiektu) była nieistotna dla
■
A
♦
■
/" \
A
■
■
A
Ryc. 3.1. Karty używane w badaniach Lewickiego (1968) nad nabywaniem pojęć sztucznych.
definicji nabywanego pojęcia. Klipcem mógł być więc np. czarny kw adrat
w trójkącie. Szybkość nabyw ania reprezentacji pojęciowej okazała się zależna
zarówno od liczby cech istotnych, jak i nieistotnych nabywanego pojęcia. Im
większa sum aryczna liczba w szystkich cech różnicujących klasyfikow ane
egzemplarze, tym wolniejszy proces uczenia się pojęć (W etherick, 1968).
Uczestnicy eksperym entu Lewickiego potrzebow ali około 4-5 serii kart (4-5
informacji eksperym entatora o popraw ności podejm ow anych decyzji, aby
dokonać właściwej klasyfikacji bodźców. Liczba koniecznych serii odpow iadała
więc sumarycznej liczbie wszystkich cech obiektów, które należało zaliczyć do
kategorii, a nie tylko liczbie cech istotnych, definiujących nabyw ane pojęcie.
106
Rozdział 3. Pojęcia i schematy
Badani przez Lewickiego zachowywali się tak, jakby w każdej serii testowali
prostą hipotezę dotyczącą pojedynczej cechy nabywanej reprezentacji pojęcio­
wej, decydując - po otrzymaniu informacji zwrotnej od eksperymentatora - czy
dokonać procesu abstrakcji pozytywnej i zaliczyć testowaną cechę do właś­
ciwości istotnych, czy też procesu abstrakcji negatywnej i odrzucić rozważaną
cechę jako nieistotną.
W swojej koncepcji nabywania pojęć Lewicki dokonał więc syntezy dwóch
teorii: teorii abstrakcji i teorii testowania hipotez. Stanowisko takie nie jest
jednak powszechne. Co więcej, historycznie rzecz biorąc, oba stanowiska były
sobie przeciwstawiane. Zwolennicy psychologii asocjacjonistycznej byli prze­
konani o wystarczającej roli abstrahowania w kształtowaniu się reprezentacji
pojęciowych, natomiast gestaltyści wyrażali przekonanie, iż proces ten dokonuje
się głównie poprzez testowanie hipotez (Maruszewski, 1983). Howard (1983)
wyraźnie odróżnia dwa sposoby nabywania pojęć. Pojęcia niejawne (implicit
concepts) są, według niego, nabywane metodą abstrakcji percepcyjnej bądź
wyobrażeniowej właściwości desygnatów z egzemplarzy typowych dla kategorii,
podczas gdy pojęcia jawne (explicit concepts) - metodą testowania hipotez
odnośnie do wcześniej wyabstrahowanych cech dostępnych egzemplarzy. Być
może niejawny sposób nabywania reprezentacji pojęciowych (tylko metodami
abstrakcji) dotyczy w większej mierze pojęć naturalnych, podczas gdy pojęcia
sztuczne są efektywnie kształtowane w procesie testowania hipotez bez
konieczności zbierania doświadczeń percepcyjnych. Częściowym potwierdze­
niem tego hipotetycznego rozróżnienia w zakresie metod uczenia się reprezen­
tacji pojęciowych są wyniki badań Posnera i Keele (1968, 1970) nad naby­
waniem pojęć matrycowych (zob. rozdz. 3.2.3).
Lewicki wykazał również, że pod względem efektywności nabywania pojęć
ludzie dzielą się wyraźnie na trzy grupy. Do pierwszej należą ci, którzy nie są
w stanie w ogóle wyuczyć się pewnych pojęć. Do drugiej zaś ci, którzy wpraw­
dzie są w stanie poprawnie używać reprezentacji pojęciowych, ale nie potrafią
ich zdefiniować. Znają więc procedurę identyfikacyjną obiektów jako należą­
cych do kategorii, nie znając jednak istoty pojęcia. Do trzeciej grupy zaliczył
Lewicki tych, którzy są w stanie zarówno poprawnie używać reprezentacji
pojęciowych, jak i zdefiniować samo pojęcie za pomocą cech istotnych (znają
procedurę identyfikacyjną oraz istotę pojęcia). Niestety, nawet wśród badanych
studentów matematyki i medycyny odsetek członków tej ostatniej grupy był
zadziwiająco niski (20%).
Natomiast ze względu na sposób nabywania reprezentacji pojęciowych
ludzie dzielą się, według Lewickiego, na cztery grupy. Pierwsza - grupa „kon­
sekwentnych” - testuje w sposób nieprzerwany hipotezy dotyczące pojedyn­
czych właściwości nabywanych pojęć. Druga grupa - „półkonsekwentnych” charakteryzuje się częstymi zmianami w zakresie testowanych hipotez jeszcze
przed otrzymaniem informacji zwrotnych od eksperymentatora, a więc przed
momentem, w którym hipoteza może zostać sfalsyfikowana. Trzecia grupa to
osoby reagujące chaotycznie i przypadkowo. Najciekawszą strategią posługują
się członkowie ostatniej grupy - sprawdzają oni hipotezy w sposób odwrócony,
zaliczając egzemplarze pojęcia do niereprezentantów i odwrotnie. Właśnie
istnienie tej ostatniej grupy osób pozwala wierzyć, iż nabywanie pojęć jest
procesem znacznie bardziej złożonym niż warunkowanie poprzez generalizację
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
107
i różnicowanie (Maruszewski, 1983). Mimo że testowanie hipotez wydaje się
najbardziej efektywną metodą nabywania pojęć w paradygmacie recepcji, to
jednak strategię tę preferuje zaledwie jedna trzecia badanych - 38% uczestników
eksperymentów Lewickiego (1968) i Sęk (1970).
Klasyczne teorie reprezentacji pojęciowych były i są często poddawane
krytyce. Szerokie omówienie argumentów krytycznych znaleźć można w wielu
polskich pracach (zob. Chlewiński, 1999; Maruszewski, 2001; Trzebiński,
1986). W tym miejscu zostaną syntetycznie i skrótowo zaprezentowane ważniej­
sze zarzuty wobec tego podejścia.
Stwierdza się, że zasadniczo tylko w naukach ścisłych możliwe jest posłu­
giwanie się pojęciami w rozumieniu klasycznym. Być może więc teorie klasycz­
ne stosują się wyłącznie do pojęć matrycowych. Twierdzenie o powszechności
obowiązywania modelu klasycznego w odniesieniu do wszystkich rodzajów
pojęć, w szczególności pojęć naturalnych, może być zatem nieuzasadnione
(Trzebiński, 1986).
Krytyce poddaje się także istnienie pojęć dysjunktywnych, posiadających
w swej definicji wykluczające się właściwości. Jest ono nieuzasadnione w obliczu
klasycznej definicji reprezentacji pojęciowej, gdyż w przypadku tych właśnie
pojęć nie da się podać zbioru cech istotnych, czyli takich, które są reprezen­
towane przez wszystkich przedstawicieli definiowanej kategorii nadrzędnej.
Część desygnatów pojęcia dysjunktywnego posiada bowiem zupełnie inne cechy
„istotne” niż pozostały zbiór egzemplarzy tego pojęcia (Chlewiński, 1999).
W modelach klasycznych przyjmuje się też założenie, że cechy istotne
pojęcia są równoważne. Conrad (1972) wykazała jednak, że niektóre z istotnych
właściwości reprezentacji pojęciowych są przez badanych wymieniane przy
okazji definiowania pojęć częściej niż inne cechy; są one także przez nich oce­
niane jako zdecydowanie ważniejsze dla struktury pojęcia. Szybkość weryfikacji
zdania zawierającego daną cechę istotną - „pies szczeka” - zależy od tego, na ile
cecha ta - „szczekanie” - jest uważana przez badanych za ważną w definiowaniu
danego pojęcia - „psa”.
Inne założenie modelu klasycznego głosi, że wszystkie reprezentacje
pojęciowe definiowane za pomocą zestawu cech istotnych są równie ważne
i w równym stopniu dostosowane do opisu obiektów świata rzeczywistego.
Tymczasem, jak wskazują Murphy i Medin (1985), pojęcia różnią się swoją
relatywną wagą - raczej trudno założyć, że pojęcie definiowane przez dwie
cechy: posiadanie więcej niż jednej nogi i ciężaru w zakresie od 11 do 240 kg
(przykład zaczerpnięty; tamże) wnosi cokolwiek sensownego do procesu
redukowania różnorodności między obiektami.
Próby ścisłej definicji niektórych pojęć naturalnych są zupełnie nieprecy­
zyjne i powodują kłopoty z zaliczaniem desygnatów do kategorii nadrzędnych.
McCloskey i Glucksberg (1978) wykazali, że dla połowy uczestników ich
eksperymentu telewizor posiadał cechy umożliwiające zaliczanie go do kate­
gorii... mebli. Gdyby definicja pojęcia „mebel” zawierała zbiór cech istotnych,
a kategoryzacja polegała na wykryciu tych cech w kategoryzowanym obiekcie,
wówczas badani nie powinni mieć żadnych problemów z odpowiednim przy­
porządkowaniem desygnatów.
W procesie kategoryzowania zmieniają się również treści pojęć. W kon­
sekwencji zmieniają się także zestawy cech istotnych, definiujących to samo
108
Rozdział 3. Pojęcia i schematy
pojęcie. Tym właśnie, co odróżnia człowieka od zwierząt, jest elastyczność
procesu kategoryzacji (Lenneberg, 1967). W rozwoju dziecka nabywanie pojęć
odbywa się w procesie akomodacji, czyli dostosowania starych struktur poję­
ciowych do nowych danych (Piaget, 1971). Możliwość redefiniowania repre­
zentacji pojęciowych na skutek nowych doświadczeń jest tym, czego również
zdają się nie uwzględniać koncepcje klasyczne.
W wyniku przeglądu argumentów formułowanych przez zwolenników
i przeciwników koncepcji klasycznych należy przyjąć, że koncepcje te definiują
strukturę reprezentacji pojęciowej w formie listy cech definicyjnych, a więc
w formie właściwości przysługujących w równym stopniu wszystkim desygnatom pojęcia. Proces kategoryzacji ma polegać na porównaniu zestawów cech
posiadanych przez zaliczany egzemplarz i cech definicyjnych, charakterystycz­
nych dla kategorii nadrzędnej. Natomiast nabywanie pojęć dokonuje się dzięki
operacjom abstrahowania: pozytywnego (odnajdywanie cech istotnych)
i negatywnego (pomijanie cech nieistotnych). Proces ten jest najbardziej
efektywny, gdy polega na testowaniu hipotez o istotności abstrahowanej cechy
dla definicji pojęcia. Jednak nie zawsze w procesie nabywania pojęć dochodzi do
testowania hipotez - ograniczenia w wykorzystaniu najbardziej skutecznej
strategii są związane zarówno z różnicami indywidualnymi (nie wszyscy
potrafią), jak i z rodzajem sytuacji bodźcowej (nie wszystkie kategorie się
nadają). Ze względu na precyzyjne definicje struktury i funkcjonowania
reprezentacji pojęciowych jedynymi pojęciami, do których z pewnością mogą
odnosić się koncepcje klasyczne, wydają się pojęcia sztuczne (matrycowe).
3 .2.2. Teorie probabilistyczne
Istnienie nadrzędnych kategorii pojęciowych, w przypadku których ludzie mają
problemy z zaliczaniem do nich mniej typowych reprezentantów (McCloskey,
Glucksberg, 1978), sugeruje, że poszczególne desygnaty można zaliczyć do da­
nego pojęcia tylko z pewnym stopniem prawdopodobieństwa. Nawet potoczne
obserwacje pozwalają na stwierdzenie, iż zaliczenie wróbla do kategorii „ptaki”
jest znacznie bardziej prawdopodobne niż zaliczenie do tej kategorii kury. Jest
tak dlatego, że pewnych pojęć, a w szczególności pojęć naturalnych, nie można
sprowadzić do zbioru cech istotnych (Trzebiński, 1986).
Zgodnie z koncepcjami probabilistycznymi (probablistic view), reprezenta­
cja pojęciowa jest sumarycznym opisem wszystkich cech egzemplarzy będących
desygnatami danego pojęcia. Cechy te różnią się w zakresie powszechności
występowania wśród desygnatów kategorii, co oznacza, że każdy egzemplarz
kategorii posiada te właściwości z pewnym tylko prawdopodobieństwem.
Ptaki są opisywane raczej jako obiekty latające, gdyż większość ptaków lata,
a nieloty - np. kiwi - należą do rzadkości. Oznacza to, że umiejętność latania
jest dla ptaków cechą bardzo typową, o wysokim prawdopodobieństwie
występowania. Ptaki są z kolei rzadko opisywane jako udomowione, gdyż
stosunkowo niewiele gatunków ptaków udało się oswoić. Oznacza to, że bycie
udomowionym jest u ptaków cechą o bardzo małym prawdopodobieństwie
ujawniania się. Definicja kategorii nadrzędnej „ptak” zawiera cechy będące
wypadkowymi cech poszczególnych jej desygnatów. Wróbel jest więc „bardziej”
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
109
ptakiem niż kiwi lub kura, gdyż lata i nie jest udomowiony (jest bliżej średniej
właściwości dla ptaków, przynajmniej jeśli chodzi o latanie i warunki życia). Ze
względu na uznawanie cech jako właściwości możliwych, ale niekoniecznych,
pojęcia definiowane w ten sposób nazwano probabilistycznymi (probabilistic
concepts).
Smith, Shoben i Rips (1973, 1974) przeprowadzili badania w paradygmacie
podejmowania decyzji semantycznych (paradygmat 3.2). Polecili oni uczestni­
kom eksperymentu weryfikację prawdziwości prostych zdań, dotyczących tego,
czy dany desygnat jest egzemplarzem nadrzędnej kategorii pojęciowej (np. „Czy
kanarek to ptak?”). Wykazano, że czas podejmowania decyzji, czy dany de­
sygnat jest przedstawicielem kategorii, zależy od jego typowości - im bardziej
typowy egzemplarz kategorii, tym krótszy czas podejmowania decyzji. Różnice
w średnich czasach reakcji były niewielkie w przypadku egzemplarzy typowych
i średnio typowych (zaledwie 19 ms; w przypadku kategorii „owady”
stwierdzono nawet zależność przeciwną: -35 ms), ulegając zdecydowanemu
Paradygmat 3.2
Podejmowanie decyzji semantycznych
W badaniach nad podejmowaniem decyzji semantycznych respondenci proszeni
są o jak najszybsze rozstrzygnięcie kwestii przynależności kategorialnej danego
obiektu. Z reguły badania te prowadzi się w formule „od reprezentacji pojęciowej do
egzemplarzy” (Trzebiński, 1986). Najpierw uczestnikowi eksperymentu na ekranie
monitora prezentuje się etykietę werbalną, będącą nazwą reprezentacji pojęciowej
(no. „ptaki”), a następnie wyświetla się etykiety odpowiadające różnym obiektom:
ptakom („kanarek” , „wróbel” itd.) i nie-ptakom („pszczoła” , „wieloryb” itd.). Za­
daniem osoby badanej jest jak najszybciej nacisnąć przycisk korespondujący
z wybraną przez niego odpowiedzią: pozytywną, gdy egzemplarz jest przedstawi­
cielem pojęcia, lub negatywną, gdy nim nie jest.
Początkowo paradygmat podejmowania decyzji semantycznych służył do
falsyfikowania hipotez w ramach koncepcji struktury i funkcjonowania reprezentacji
pojęciowych (wszystkie teorie z wyjątkiem koncepcji klasycznych). Później wy­
korzystywano go do sprawdzania wzajemnych relacji pomiędzy pojęciami w ramach
struktury sieci semantycznej. Pytano więc o cechy poszczególnych pojęć (np. „Czy
kanarek lata?”), próbując ustalić, na jakim poziomie ogólności są przechowywane
informacje o poszczególnych właściwościach. Sprawdzano także rodzaj relacji
(pozytywne/negatywne) łączących poszczególne reprezentacje, zestawiając
w zdaniu do weryfikowania obiekty ze sobą niepowiązane (np. „Czy budynek to
koń?”).
Badaczy interesował zarówno czas podejmowania decyzji, jak i poprawność
klasyfikowania. Okazało się, że w przypadku nietypowych przedstawicieli danej
kategorii czas podjęcia decyzji rośnie o ok. 60 ms, a liczba błędów zwiększa się
przeciętnie dwukrotnie (Trzebiński, 1986). Wyniki badań w paradygmacie decyzji
semantycznych świadczą na niekorzyść koncepcji klasycznych, ale nie są
rozstrzygające w odniesieniu do pozostałych teorii reprezentacji pojęciowych.
Tymczasem ich zwolennicy wyraźnie interpretują te dane jako potwierdzenie
swoich poglądów.
110
Rozdział 3. Pojęcia i schematy
wydłużeniu w przypadku desygnatów średnio typowych i nietypowych (aż do
43 ms). Co ciekawe, czasy weryfikacji zdań, w których wymieniano bardzo
nietypowych przedstawicieli danej kategorii, były zbliżone, niezależnie od tego,
na czym owa nietypowość polegała. Natomiast w przypadku obiektów nienależących do danej kategorii czas podejmowania decyzji semantycznej był
bardzo krótki.
Według probabilistycznej koncepcji Smitha, Shobena i Ripsa (1973, 1974),
reprezentacja pojęciowa jest definiowana przez dwa rodzaje cech. Najważniej­
sze pozostają nadal cechy definicyjne, w jednoznaczny sposób pozwalające
określić, czy obiekt jest desygnatem pojęcia. Cechy definicyjne konstytuują
rdzeń pojęcia (Trzebiński, 1986) - charakteryzują się nimi wszystkie bez
wyjątku jego egzemplarze. Reprezentacja pojęciowa jako zbiór cech składa się
jednak także i z cech charakterystycznych, wskazujących na typowość danego
obiektu względem nadrzędnego mu pojęcia. Są to reprezentatywne cechy
egzemplarzy pojęcia, a nie samego pojęcia. Im więcej cech charakterystycznych
posiada dany egzemplarz, tym bardziej jest on typowy (Maruszewski, 1983).
Według Smitha i jego współpracowników, decyzja semantyczna dotycząca
przypisywania obiektu do kategorii, tj. proces kategoryzacji, przebiega w dwóch
etapach. W pierwszym etapie następuje porównanie całościowe, obejmujące
wszystkie cechy kategoryzowanego obiektu i cechy pojęcia, do którego obiekt
ten jest zaliczany. Jeżeli egzemplarz jest typowy, a więc posiada większość cech
definicyjnych nadrzędnego pojęcia i dużą liczbę możliwych cech charakterys­
tycznych tego pojęcia, to decyzja pozytywna - zaliczenie do kategorii - jest
podejmowana natychmiast. Typowe desygnaty spełniają bowiem wszystkie albo
większość cech definicyjnych kategorii nadrzędnej, posiadając również
większość cech charakterystycznych, podzielanych z wieloma innymi egzem­
plarzami. Jeżeli obiekt jest nietypowy i nie spełnia większości cech definicyjnych
pojęcia, wtedy decyzja negatywna (niezaliczenie do kategorii) jest równie
szybka, jak decyzja pozytywna w przypadku obiektów typowych.
W drugim etapie procesu kategoryzacji zachodzi porównanie szczegółowe,
dotyczące tylko cech definicyjnych nadrzędnej kategorii pojęciowej. Chodzi tu
0 ustalenie proporcji cech definicyjnych, posiadanych przez klasyfikowany
egzemplarz w stosunku do cach istotnych, których egzemplarzowi brakuje.
Porównanie to prowadzi do szczegółowej analizy cech kategoryzowanego
desygnatu. Tego typu analiza wymaga jednak czasu - czasochłonne jest zarówno
abstrahowanie pojedynczych cech klasyfikowanego egzemplarza, jak i odrębne
porównanie kategoryzowanego obiektu oraz nadrzędnej kategorii ze względu na
poszczególne, wyabstrahowane cechy. Efektem tak drobiazgowej analizy jest
jednak możliwość zaliczenia mniej typowych desygnatów do kategorii nad­
rzędnej. Na przykład w przypadku obiektu „kiwi” przestaje być wtedy istotne to,
że nie lata; nadal spełnia bowiem wiele innych cech definicyjnych ptaków,
takich jak np. znoszenie jaj.
Porównanie egzemplarzy tej samej kategorii naturalnej dotyczy w tym
ujęciu tylko pewnych wyróżnionych właściwości desygnatów, kluczowych dla
zdefiniowania struktury danego pojęcia naturalnego. Strukturę tę Rips, Shoben
1 Smith (1973) nazwali przestrzenią semantyczną reprezentacji pojęciowej.
Wykazali oni, że wszystkie desygnaty kategorii „ssak” można wpisać w orto­
gonalny układ dwóch podstawowych wymiarów: wielkości oraz stopnia
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
111
udomowienia (ryc. 3.2). Stwierdzili również, że reprezentacja nadrzędnej
kategorii „ssak” charakteryzuje się średnimi właściwościami w zakresie
wymiarów definiujących strukturę pojęcia i lokuje się w środku układu. Co
więcej, określenie właściwości egzemplarzy ssaków na wymiarach wielkości
oraz stopnia udomowienia pozwala na przewidywanie zarówno prostych decyzji
osób badanych odnośnie do określenia stopnia podobieństwa porównywanych
przedstawicieli, jak i złożonych wyborów egzemplarzy analogicznych, dopełnia­
jących skomplikowany układ zależności (np. „koń” do „pies” ma się jak „jeleń”
do „królik”; zob. ryc. 3.2).
swima
koza
owca
•
krowa
•
koń
pies
•
X
•
jeleń
SSAK
•
•
królik
mysz
•
niedźwiedź
•
•
kot
lew
Ryc. 3.2. Pizestrzeń semantyczna pojęcia „ssak” określona w badaniach Ripsa, Shobena i Smitha
(1973).
Koncepcje probabilistyczne również poddano surowej krytyce. Ze względu
na to, że szerokie omówienie argumentów krytycznych znaleźć można w wielu
polskich pracach (zob. Chlewiński, 1999; Maruszewski, 2001; Trzebiński,
1986), w tym miejscu omówimy tylko ważniejsze zarzuty wobec tych koncepcji.
Przede wszystkim zakłada się, że każde pojęcie ma ściśle określony rdzeń
pojęciowy zawierający cechy definicyjne. Twierdzenie to tak samo łatwo
odrzucić jak tezę, że pojęcie składa się tylko z cech definicyjnych (zob. rozdz.
3.2.1 - krytyka teorii klasycznych). Większość argumentów krytycznych wobec
teorii klasycznych znajduje więc zastosowanie również wobec teorii probabilis­
tycznych (Murphy, Medin, 1985), a to z powodu wyznawanego przez twórców
tych koncepcji poglądu, że mogą istnieć cechy przysługujące wszystkim desygnatom.
Ponadto zestaw najbardziej prawdopodobnych cech niekoniecznie tworzy
spójną pod względem zawieranych desygnatów nadrzędną kategorię pojęciową
(Murphy, Wiśniewski, 1985). Zróżnicowanie pomiędzy dwiema kategoriami
może bowiem dotyczyć nie tyle cech definicyjnych, ile właśnie cech charakterys­
tycznych, przejawianych przez poszczególne desygnaty. Inaczej mówiąc, dwie
bliskie kategorie pojęciowe mogą mieć identyczny zestaw cech istotnych, a mimo
112
Rozdział 3. Pojęcia i schematy
to są różnymi kategoriami ze względu na różnice w zakresie zbioru cech
charakterystycznych. Tego jednak ani opis struktury reprezentacji pojęciowej,
ani dwuetapowy model kategoryzacji, proponowane przez zwolenników
koncepcji probabilistycznych, nie uwzględniają. O tym, że kategorii pojęciowych
nie da się zdefiniować poprzez zestaw cech o dużym stopniu typowości,
świadczy też brak symetrii w zakresie cech kategorii i cech egzemplarzy. Jeśli
w badaniach prowadzonych w paradygmacie podejmowania decyzji semantycz­
nych zostanie zamieniona kolejność podawania informacji z „pojęcie - egzem­
plarz” (np. „Czy ptakiem jest kanarek?”) na „egzemplarz - pojęcie” (np. „Czy
kanarek to ptak?”), ma to wpływ na czas wykonania zadania. Wynika to z braku
symetryczności w zakresie relacji pomiędzy kategoryzowanym obiektem
a nadrzędną wobec niego reprezentacją pojęciową (Loftus, 1973; Loftus, Loftus,
1975).
Jak można zauważyć, koncepcje probabilistyczne próbowały zaadaptować
teorię reprezentacji jako zbioru cech do analizy pojęć naturalnych, w przypadku
których desygnaty posiadają właściwości kategorii nadrzędnej jedynie z pewnym
prawdopodobieństwem (mogą posiadać, ale nie muszą). Próba ta doprowadziła
do niezbyt klarownych rozróżnień zarówno w zakresie struktury reprezentacji
(cechy definicyjne i charakterystyczne), jak i w odniesieniu do sposobu ka­
tegoryzacji (model dwuetapowy zamiast prostego porównywania listy cech).
Wprawdzie tezy teorii probabilistycznych znalazły swoje częściowe potwier­
dzenie w wynikach badań w paradygmacie podejmowania decyzji semantycz­
nych, jednakże wielu badaczy (zob. Maruszewski, 1983; Trzebiński, 1986 szersze omówienie) zwróciło uwagę na inne możliwe wyjaśnienia uzyskiwanych
efektów, nie odwołujące się do proponowanej przez koncepcje probabilistyczne
skomplikowanej struktury reprezentacji pojęciowych i ich funkcjonowania.
W odniesieniu do problemu nabywania pojęć oba stanowiska: klasyczne
i probabilistyczne, nie różniły się istotnie podkreślając kluczową rolę procesu
abstrahowania cech.
3.2.3. Teorie prototypów
Eleonora Rosch (1978) wyodrębniła dwa wymiary reprezentacji pojęciowych:
poziomy i pionowy. Wymiar pionowy (vertical dimension of categories) dotyczy
stopnia ogólności pojęcia. Według Rosch istnieją trzy jego poziomy. Poziom
nadrzędny (superordinate level) charakteryzuje się tym, że pojęcia są na nim
odzwierciedlane przez niewielką liczbę cech. Z tego też powodu kategorie
ogólne charakteryzują się szeroką inkluzywnością - w takiej kategorii mieści się
wiele różnych egzemplarzy. Poziom podstawowy (basic level) różni się od
nadrzędnego liczbą cech (na tym poziomie większą), charakteryzujących
reprezentacje pojęciowe. Pojęcia poziomu podstawowego są wymieniane
spontanicznie, gdy ludzie dorośli nazywają obiekty (Rosch, 1978). W konsek­
wencji jest to najczęściej używany poziom ogólności reprezentacji pojęciowych
(Mervis, 1983; Johnson, Mervis, 1997). Jego występowanie i powszechność
posługiwania się nim stwierdzono również poza kulturą zachodnią (Berlin,
1978), a także w języku migowym (Newport, Bellugi, 1978). Na poziomie
podstawowym małe dzieci uczą się w pierwszej kolejności nazw wielu przed­
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
113
miotów (Rosch, 1978), choć zwolennicy koncepcji prototypów przyznają, że
proces nabywania reprezentacji pojęciowych u dzieci rozpoczyna się raczej od
poziomu podrzędnego, a ściślej od wielu pojęć jednostkowych (indywidualnych)
o klarownych funkcjach (np. mama, lala; Anglin, 1977). Egzemplarze poziomu
podstawowego są szybciej identyfikowane niż egzemplarze poziomu nadrzęd­
nego i podrzędnego. Ich stosowanie pozwala uniknąć wielu błędów rozumowa­
nia, charakterystycznych dla poziomów wyższego (zbytnia ogólność) i niższego
(zbytnia szczegółowość; Tversky, 1977). Jednak nie zawsze pojęcia z poziomu
podstawowego są najlepiej zapamiętywane. Dotyczy to szczególnie rozpozna­
wania - często efektywniej rozpoznawane są pojęcia specyficzne i będące rzadko
w użyciu, a więc pojęcia poziomu podrzędnego (Kintsch, 1970). Poziom
podrzędny (subordinate level) uwzględnia bowiem pojęcia bardzo szczegółowe
0 dużej liczbie charakteryzujących je cech. W konsekwencji w porównaniu
z poziomem podstawowym zmniejsza się tu łatwość identyfikowania desygnatów pojęć, gdyż wiele różnych egzemplarzy charakteryzuje się bardzo podobnym
zestawem cech. Desygnat zidentyfikowany wyróżnia się jednak specyficznością
1 rzadkością występowania, co wiąże się z jego lepszym późniejszym rozpoz­
naniem.
Wraz z przechodzeniem z poziomu niższego na wyższy w hierarchii ogól­
ności zmniejsza się liczba cech charakteryzujących reprezentacje pojęciowe,
a wzrasta łatwość w rozróżnianiu między sobą desygnatów tych pojęć. Zmniej­
sza się bowiem liczba cech charakterystycznych, które pojęcia te podzielają.
Jednocześnie jednak wzrasta ogólność tak dokonywanej kategoryzacji, która
sprawia, że bardzo różne desygnaty mogą zostać zaliczone do tej samej kategorii.
Rosch wykazała różnice w zakresie reprezentowania pojęć na różnych
poziomach wymiaru pionowego w kilku badaniach (Rosch i in., 1976; Rosch,
Simpson, Miller, 1976; Rosch, 1978). W eksperymencie pierwszym (Rosch i in.,
1976a) polecono osobom badanym wypisanie cech trzech pojęć: „meble” (po­
ziom nadrzędny; furniture), „siedziska” (poziom podstawowy; inaczej: krzesła
i fotele; chair) oraz „wygodne fotele” (poziom podrzędny; easy chair). Na po­
ziomie podstawowym równowaga pomiędzy specyficznością (łatwość rozró­
żnienia desygnatów kategorii) a ekonomią (liczba cech definiujących kategorię
pojęciową) okazała się najlepsza. Ekonomia reprezentowania w umyśle była
bezpowrotnie tracona na poziomie podrzędnym, gdzie liczba cech charakterys­
tycznych dla kategorii była bardzo duża. Specyficzność zaś zanikała na poziomie
nadrzędnym z powodu dużej ogólności kategorii pojęciowych. W innym ekspe­
rymencie (Rosch i in., 1976b) badani wypisywali nazwy pojęć z poszczególnych
poziomów. Okazało się, że byli oni w stanie wskazać istotnie mniej reprezentacji
pojęciowych z poziomu nadrzędnego (najogólniejszego) niż z pozostałych
poziomów. Znacznie mniejsze różnice w zakresie liczby wypisywanych pojęć
stwierdzono pomiędzy poziomami podstawowym i podrzędnym (tab. 3.1).
Wymiar poziomy reprezentacji pojęciowych (horizontal dimension of
categories) dotyczy desygnatów pojęcia znajdującego się na poziomie wyższym.
Nie wszystkie egzemplarze są „dobrymi” desygnatami pojęcia z poziomu
wyższego. Desygnaty różnią się bowiem typowością. Najbardziej typowy, czy
też najbardziej reprezentatywny, egzemplarz Rosch (1973) nazwała prototypem.
Prototyp zajmuje w klasyfikacji desygnatów danej kategorii, prowadzonej ze
względu na cechę typowości, zdecydowanie pierwsze miejsce. W badaniach
114
Rozdział 3. Pojęcia i schematy
Tab. 3.1. Przykłady egzemplarzy pojęć na różnych poziomach ogólności (za: Rosch, 1999).
Poziom nadrzędny
Poziom podstawowy
Poziom podrzędny
mebel
siedziska
taboret kuchenny
fotel
stół
stół kuchenny
stół salonowy
lampa
lampa stojąca
lampka biurkowa
dąb
dąb czerwony
dąb biały
klon
klon srebrzysty
klon cukrowy
brzoza
brzoza nadrzeczna
brzoza żółta
drzewo
Rosch 113 osób (wszyscy uczestnicy eksperymentu!) wykazało się jednomyśl­
nością w zakresie rangowania typowości desygnatów w kategoriach: nauka,
przestępstwo i pojazd. Za prototypowe uznali oni odpowiednio: chemię, mor­
derstwo i samochód. Warte podkreślenia jest także to, że klasyfikowanie
48 desygnatów w ramach 6 kategorii zajmowało badanym z reguły nie więcej
niż 5 min - wynik ten świadczy o naturalnej łatwości posługiwania się typowością obiektów w procesie ich klasyfikacji. W późniejszych pracach Rosch
(1978) określała prototyp jako „najczystszy” desygnat danej kategorii
pojęciowej.
Prototyp reprezentuje w umyśle kategorię nadrzędną - inne egzemplarze tej
samej kategorii nie są już tak dobrymi jej odzwierciedleniami. Wykazała to
również Loftus (1973). Poleciła ona uczestnikom eksperymentu, aby nadawali
prezentowanym desygnatom kategorie nadrzędne. Właściwe reprezentacje
pojęciowe (w sensie oczekiwane przez prowadzącą eksperyment) pojawiały
się u osób badanych tym szybciej, im bardziej typowe egzemplarze oczekiwanej
kategorii nadrzędnej zostały przez nią przedstawione. Uczestnicy eksperymentu
wskazywali więc reprezentację pojęcia „ptak” szybciej, gdy zapoznawali się
z takimi egzemplarzami tej kategorii, jak wróbel czy drozd, a czynili to znacznie
wolniej, gdy prezentowano im rzadkie desygnaty tej kategorii, jak pingwin czy
struś. Biorąc pod uwagę wymiar poziomy reprezentacji pojęciowych, Mervis
i Pani (1980) wykazali również, że nowe pojęcia są przyswajane znacznie
szybciej i bardziej adekwatnie, gdy badanym pokazuje się jedynie typowych
przedstawicieli nabywanej kategorii. Efekt ten ma zresztą głęboki sens
dydaktyczny - nikt nie uczy dzieci tego, czym są ptaki, pokazując im takie
desygnaty tej kategorii, jak pingwiny i kiwi.
Z badań zwolenników koncepcji prototypów (prototype view), dotyczących
uczenia się pojęć, wynika zatem, że reprezentacje pojęciowe są nabywane
w procesie doświadczania egzemplarzy. Z punktu widzenia efektywności tego
procesu najlepiej jest, gdy uczenie rozpoczyna się od prototypu (wymiar po­
ziomy) kategorii pojęciowej z poziomu podstawowego (wymiar pionowy).
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
115
W wypadku małych dzieci jako pierwsze przyswajane są jednak pojęcia z po­
ziomu podrzędnego o klarownej funkcjonalności.
Mimo że oba zaproponowane tu sposoby rozumienia prototypu („czysty”
lub „najlepszy” desygnat) nie są z pewnością precyzyjne, osoby badane nie mają
większych wątpliwości co do ich znaczenia, na co wskazuje krótki czas
wyróżniania prototypowych desygnatów pojęć naturalnych. Z reguły ludzie też
nie różnią się niemal w ogóle w swoich klasyfikacjach. Armstrong, Gleitman
i Gleitman (1983) porównali rangi egzemplarzy tych samych kategorii, których
używała także Rosch (1973). Nie stwierdzono większych różnic w samym
układzie klasyfikacji, choć w wypadku niektórych kategorii (np. „pojazdy”)
różnice w rangach na dalszych pozycjach listy okazały się znaczne (tab. 3.2).
Czasami pojawiają się jednak problemy z klasyfikacją na skali typowości.
Dla Amerykanów niemal równie typowym ptakiem jak drozd okazał się w jed­
nym z eksperymentów orzeł (Rosch, 1973), a w innym - wróbel (Rosch, 1978;
wróbel nie byl brany pod uwagę w badaniach wcześniejszych), zaś wśród
przestępstw bardzo wiele wykroczeń okazało się w przybliżeniu podobnie
Tab. 3.2. Porównanie rang egzemplarzy pojęć naturalnych w badaniach Rosch (1973) oraz
Armstronga i współpracowników (1983). Im niższa wartość, tym większa typowość (prototyp =1).
Pojęcie naturalne
Rosch (1973)
Armstrong i in. (1982)
Różnica
1,3
truskawka
1,3
2,3
2,1
+0,2
śliwka
2,3
2,5
-0,2
brzoskwinia
2,3
2,7
-0,4
figa
4,7
5,2
-0,5
oliwka
6,2
6,4
-0,2
1,4
-0,2
gimnastyka
1,2
1,8
2,6
1,8
2,8
-0.2
wrestling
3,0
3,1
-0,1
łucznictwo
3,9
4,8
-0,9
podnoszenie ciężarów
4,7
5,1
-0,4
zdy
samochód
1,0
1,0
łódka
2,7
3,3
-0,6
skuter
2,5
4,5
-2,0
rower trzykołowy
3,5
4,7
-1,2
koń
5,9
5,2
+0,7
narty
5,7
5,6
+0,1
owoce
jabłko
t
football
hokej
-
-
116
Rozdział 3. Pojęcia i schematy
typowych i niemal tak samo typowych jak prototyp tej kategorii - morderstwo
(Rosch, 1973; napad, kradzież, szantaż i malwersacja uzyskały rangi w prze­
dziale <1,3;1,8>, gdzie 1 oznacza prototyp). Jak się wydaje, prototypy są
wspólne dla badanych pochodzących z tej samej populacji, mogą jednak różnić
się kulturowo. Dla Amerykanów drozd może być tak samo typowym ptakiem,
jak wróbel, podczas gdy dla Polaków już nie (Kurcz, 1997). Ci ostatni wyraźnie
wskazują na wróbla jako ptaka bardziej typowego niż drozd. Prototypy mogą
również różnić się ze względu na inną cechę, np. pleć; prototypem ubrania dla
studentów są spodnie, podczas gdy dla studentek najbardziej typowym
ubraniem okazuje się sukienka - o czym świadczą wyniki demonstracji efektu
typowości z udziałem studentów I roku psychologii.
Na kształtowanie się prototypu jako reprezentanta kategorii pojęciowej ma
więc wpływ doświadczenie indywidualne i dziedzictwo kulturowe. Nabywanie
i stosowanie danego pojęcia odbywa się zawsze w pewnym kontekście: sytuacji
bodźcowej, dotychczasowej wiedzy uczącego się oraz kultury, której jest
przedstawicielem. Murphy i Medin (1985) są zwolennikami takiego właśnie
podejścia. Zrywają oni z poglądem o powszechności i niezmienności trwałych
reprezentacji pojęciowych, głosząc tezę o kontekstualnej zależności pojęć.
Wskazują na wyraźne różnice w nabywaniu, strukturze i funkcjonowaniu
systemu pojęć u „naiwnego” obserwatora i eksperta w jakiejś dziedzinie.
Argumentów empirycznych, potwierdzających kontekstowe teorie reprezentacji
pojęciowych dostarczyli m.in. McCIoskey i Glucksberg (1978) oraz Roth
i Shoben (1983). Wykazali oni, że uczestnicy eksperymentu są zdolni do
zmiany w zakresie prototypów reprezentacji pojęciowych w zależności od
zmiany warunków badania. Nawet jeśli sukienka jest rzeczywiście prototypo­
wym ubraniem, to przestaje nim być w sytuacji plażowania - w takim kontekście
najbardziej typowym desygnatem rozważanej kategorii staje się kostium
kąpielowy. Zmiana na szczycie klasyfikacji - na pozycji najbardziej typowego
przedstawiciela - pociąga za sobą zmiany w hierarchii rang przyznawanych
innym egzemplarzom tej samej kategorii. Jednakże Rosch i współpracownicy
(Rosch, Mervis, 1975; Rosch i in., 1976b) wykazali, że w obrębie tej samej
populacji określanie typowości jest niezależne od częstości doświadczeń
zarówno z klasyfikowanymi obiektami, jak i z reprezentującymi te obiekty
etykietami werbalnymi. Mimo sprzecznych doniesień trudno bronić tezy
o bezwzględnej uniwersalności prototypów reprezentacji pojęciowych, chociaż
z pewnością można stwierdzić, że członkowie tej samej populacji, charaktery­
zujący się wspólnymi doświadczeniami, mogą wykorzystywać identyczne
prototypy w przypadku wielu naturalnych kategorii pojęciowych.
Jednakże inne niż operacyjne definicje prototypu (pozycja w rankingu
typowości) nadal budziły wątpliwości co do precyzji. Dlatego Posner i Keele
(1968, 1970) podjęli próbę określenia tego konstruktu w postaci listy cech.
Stwierdzili oni, że egzemplarz prototypowy charakteryzuje się właściwościami
będącymi średnią arytmetyczną cech desygnatów napotkanych przez jednostkę
w indywidualnym doświadczeniu. W swoim eksperymencie wykorzystali
wzorcowe obrazy figur (m.in. figury geometryczne, takie jak trójkąt, kwadrat
itd., oraz litery, takie jak M, F itd.), składające się wyłącznie z kropek (ryc. 3.3).
Następnie dokonali transformacji tych wzorcowych obrazów, zmieniając
lokalizację poszczególnych kropek w ramach matrycy. Utworzyli w ten sposób
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
117
wiele obrazów o różnym stopniu podobieństwa do układu wyjściowego.
Wyróżniono siedem stopni na skali niepodobieństwa danego obrazu do
układu wyjściowego. Niewielka zmiana położenia jednej z kropek powodowała,
iż nowo utworzony obraz niewiele różnił się od wyjściowego. Znacząca zmia­
na lokalizacji jednocześnie wielu kropek powodowała, że podobieństwo obra­
zu wyjściowego do układu wygenerowanego było relatywnie duże. Dokonując
transformacji na wyjściowych układach kropek, Posner i Keele zadbali o to,
aby figura wzorcowa stanowiła średnią arytmetyczną z lokalizacji poszcze­
gólnych kropek we wszystkich obrazach utworzonych metodą transfor­
macji.
Ryc. 3.3. Figury wzorcowe oraz ich przekształcenia użyte w badaniach Posnera i Keelego (1968,1970)
nad definicją prototypu jako średniej z cech.
Zadaniem osób badanych było najpierw przyswojenie sobie czterech pojęć
sztucznych - każde z nich odnosiło się do jednego z czterech wyjściowych
układów kropek. W tej fazie eksperymentu badanym nie pokazywano jednak
w ogóle obrazów wzorcowych, a więc figur matrycowych sprzed transformacji.
Sortowali oni otrzymane obrazki do czterech różnych kategorii (paradygmat
selekcji; Bruner, Goodnow, Austin, 1957; zob. paradygmat 3.1). Kiedy już
przyswoili sobie procedury identyfikacyjne i bezbłędnie rozróżniali desygnaty
czterech sztucznych pojęć, otrzymywali kolejną porcję kart z zadaniem
zaliczenia ich do jednej z czterech wcześniej wyuczonych kategorii. Były to
inne egzemplarze właśnie przyswojonych pojęć niż znajdujące się w zestawie
kart przeznaczonych do procesu uczenia. W nowej serii kart zaprezentowano
także osobom badanym wyjściowe układy kropek, nie informując jednak o tym,
iż są to wzorce sprzed transformacji.
Posner i Keele wykazali, że chociaż uczestnicy eksperymentu nigdy nie
doświadczyli wzorcowego układu kropek w fazie przyswajania pojęć, bardzo
często uznawali wzorzec pokazywany im dopiero w końcowej fazie klasyfikacji za
bodziec prezentowany już wcześniej, w fazie uczenia. Im bardziej klasyfikowany
obraz nowej serii był podobny do matrycy wyjściowej, tym większe było
prawdopodobieństwo jego poprawnego zaliczenia do odpowiadającej mu kate­
118
Rozdział 3. Pojęcia i schematy
gorii. Tym szybciej była również podejmowana decyzja o jego przynależności
kategorialnej. Posner i Keele udowodnili w ten sposób, że - przynajmniej w przy­
padku pojęć sztucznych - kategoryzujący mogą w procesie przyporządkowywania
desygnatów do kategorii nadrzędnych posługiwać się typowymi reprezentantami
tych kategorii w formie średniej arytmetycznej właściwości egzemplarzy
wcześniej sklasyfikowanych. Wykazali również, że percepcyjne doświadczenie
prototypu nie jest koniecznym warunkiem formowania się tego typu reprezentacji
umysłowej.
Podobne wyniki uzyskali również Franks i Bransford (1971) oraz Reed
(1974). W swoich badaniach Franks i Bransford pokazywali uczestnikom karty
zawierające przedstawienia figur geometrycznych. Transformacji dokonywano
poprzez zmianę lokalizacji figur geometrycznych przy zachowaniu ich liczby
oraz rodzaju albo przez usuwanie lub też zamianę niektórych figur. Stopień
podobieństwa obiektów transformowanych i oryginalnych był mierzony liczbą
operacji przekształcających pierwotny obraz. Franks i Bransford potwierdzili
wszystkie wyniki uzyskane przez Posnera i Keele. Dodatkowo wykazali, że
subiektywna pewność wcześniejszego kontaktu z nowym obrazem zwiększa się
wraz ze zmniejszaniem się stopnia niepodobieństwa pomiędzy tym obrazem
a wzorcowym obrazem karty, będącym podstawą do transformacji. Z kolei
w badaniach Reeda materiał eksperymentalny otrzymano poprzez dokonywanie
transformacji na zdjęciach twarzy - zmianę odległości pomiędzy charakterys­
tycznymi elementami twarzy (usta, nos, brwi) lub wielkości tych elementów.
Reed uzyskał wyniki analogiczne do wyżej omawianych. Bardziej szczegółową
analizę wyników badań nad typowością, rozumianą jako średnia arytmetyczna
właściwości desygnatów, przedstawia Trzebiński (1981, 1986).
Próba zdefiniowania prototypu jako średniej arytmetycznej ma jednak
pewne ograniczenia i wady. Nie wiadomo, po pierwsze, czy wyniki podobne do
wyżej omawianych udałoby się uzyskać w przypadku pojęć naturalnych. Pod­
czas gdy stosunkowo łatwo jest wyobrazić sobie średnią arytmetyczną
z możliwych lokalizacji punktów w układzie współrzędnych na płaszczyźnie,
czy nawet średnią arytmetyczną z odległości pomiędzy poszczególnymi
elementami twarzy, to jednak znacznie trudniej jest zrozumieć, czym mogłaby
być np. średnia arytmetyczna cechy „lotność” w przypadku desygnatów
kategorii „ptaki”. Przecież ptaki albo latają, z reguły znakomicie, albo nie latają
niemal w ogóle, a średnia tej właściwości charakteryzowałaby prototyp na
przeciętnym poziomie. Po drugie, prototyp, zwłaszcza kategorii naturalnej, wy­
daje się (naiwnie może) egzemplarzem rzeczywistego obiektu, z którym jed­
nostka już się spotkała, choćby w najodleglejszej przeszłości. Tymczasem, gdyby
zasadę tworzenia prototypów przez uśrednianie właściwości desygnatów
przenieść z kategorii sztucznych na naturalne, to prototyp byłby raczej nie­
istniejącym obiektem, hybrydą złożoną z cech istniejących w rzeczywistości, ale
nigdy nie występujących razem. Prototyp taki nie miałby w ogóle szansy pojawić
się w indywidualnym doświadczeniu. Takie wyobrażenie prototypu jest
intuicyjnie sprzeczne z zasadą typowości.
Dlatego też Neumann (1974) zaproponował, aby za prototypowego repre­
zentanta danej kategorii pojęciowej uznać najczęściej napotykany egzemplarz
tej kategorii. Zamiast średniej byłaby to swoista wartość „modalna” desygnatów
spotykanych przez jednostkę w indywidualnym doświadczeniu. Niestety,
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
119
również i ta definicja prototypu nie jest pozbawiona wad. Czasami bowiem
doświadczenie dotyczy takiej samej lub podobnej liczby różnych egzemplarzy
danej kategorii. W takim wypadku bardzo trudno jest wyznaczyć modalną;
w pewnych warunkach może to nawet być matematycznie niemożliwe, zwłasz­
cza w sytuacji równoliczności desygnatów. Oznacza to, że w odniesieniu do
kategorii zawierających desygnaty o podobnej częstości występowania prototyp
może nie istnieć w ogóle. Tymczasem wyniki badań Rosch i jej współpracowni­
ków przekonują o powszechności zjawiska prototypowości, i to zarówno w przy­
padku pojęć sztucznych, jak i naturalnych. W bardziej umiarkowanej wersji
swojej koncepcji Neumann (1974; Bower, Neumann, 1973) twierdzi, że proto­
typem mógłby być egzemplarz posiadający najczęstsze cechy desygnatów
reprezentowanych w ramach wspólnej kategorii pojęciowej. Prototyp byłby
więc nie tyle modalną desygnatów, ile modalną z ich właściwości.
Próbując rozstrzygnąć, czy bliższa prawdzie jest koncepcja prototypu jako
średniej arytmetycznej czy modalnej, Francuz (1991) ustalił, że podobieństwo
klasyfikowanego egzemplarza do prototypu modalnego w znacznie większym
stopniu skraca czas jego klasyfikacji jako desygnatu kategorii niż jego
podobieństwo do prototypu średniego. Wynik ten świadczy na korzyść koncepcji
Neumanna, a przeciwko teorii Posnera i Keele, choć nie wyklucza reprezento­
wania w umyśle zbioru desygnatów w postaci obu rodzajów prototypów (modalna, średnia) i korzystania z nich w zależności od wymagań sytuacji. Kon­
cepcja Neumanna pozostaje też nadal w sprzeczności z wynikami badań Rosch
i współpracowników, dotyczącymi niezależności procesu klasyfikowania
desygnatów na skali typowości od częstości ich występowania w indywidualnym
doświadczeniu - na pojęciu częstości występowania opiera się przecież
matematyczne wyznaczanie modalnej. Poglądy Neumanna oraz Posnera
i Keele trudno pogodzić z przekonaniem, iż prototyp jest względnie trwałą
reprezentacją umysłową. Tymczasem zarówno prototyp średni, jak i prototyp
modalny mogą podlegać znacznym wahaniom ze względu na właściwości
kolejnych przyswajanych desygnatów kategorii pojęciowej, której byłyby
reprezentantem.
Definicje prototypu w kategoriach średniej lub modalnej cech oraz mo­
dalnej desygnatów nie spełniły więc oczekiwań. Dlatego Rosch (1975) spró­
bowała jeszcze raz doprecyzować konstrukt prototypu. Stwierdziła, że typowy
egzemplarz zawsze służy za punkt odniesienia dla mniej typowego. Raczej
skłonni jesteśmy mówić, że „elipsa jest prawie kołem”, niż stwierdzać, że „koło
jest prawie elipsą”. Świadczy to na korzyść koncepcji prototypu jako punktu
odniesienia dla mniej typowych desygnatów, a przeciwko teoriom cech, zgodnie
z którymi porównanie obiektów ze względu na ich właściwości powinno być
symetryczne.
Do kolejnych badań (Rosch i Mervis 1975; Rosch i in., 1976b) wybrano
więc po 20 desygnatów z sześciu różnych kategorii naturalnych (pojazdy, broń,
ubrania, warzywa, owoce, meble). Osoby badane w pierwszej kolejności
wypisywały cechy wszystkich wybranych desygnatów niezależnie od ich przy­
należności kategorialnej. Następnie ich zadaniem było uszeregowanie każdego
desygnatu w obrębie każdej kategorii na skali typowości. Co najwyżej jedna
cecha została wymieniona jako właściwość wspólna wszystkim 20 desygnatom
należącym do danej kategorii. Mimo tak dużej rozbieżności, sugerującej
120
Rozdział 3. Pojęcia i schematy
nieistnienie twardych rdzeni pojęciowych, oceny typowości dokonywane przez
badanych pokrywały się, wskazując wyraźnie na istnienie prototypowych
egzemplarzy poszczególnych kategorii. Uczestnicy eksperymentu za najbardziej
typowych uznawali tych przedstawicieli kategorii, którzy podzielali jak
najwięcej cech wspólnych z pozostałymi egzemplarzami tej samej kategorii.
Za najbardziej typowych uznawano również tych przedstawicieli kategorii,
którzy podzielali najmniej cech wspólnych z egzemplarzami innych kategorii.
Powyższe prawidłowości posłużyły Rosch do zdefiniowania wskaźnika podo­
bieństwa rodzinnego (family resemblance)1. Według Rosch prototyp to ten
spośród egzemplarzy, który jest najbardziej podobny do wszystkich innych
desygnatów danej kategorii i najmniej podobny do desygnatów innych kategorii.
Prowadząc badania w paradygmacie zaproponowanym przez Rosch
i współpracowników, Hampton (1979) polecił dodatkowo swoim respondentom
wypisać cechy definicyjne, ich zdaniem decydujące o zaliczeniu jakiegoś desyg­
natu do konkretnej kategorii pojęciowej. Także i w jego eksperymencie okazało
się, że co najwyżej jedna cecha definiuje rdzeń pojęciowy - badani byli zgodni
zarówno co do uznania tej właściwości za cechę definicyjną, decydującą
o zaliczeniu desygnatu do kategorii, jak i co do uznania jej za ważną dla opisu
samego desygnatu. Posiadanie przez egzemplarz jak największej liczby cech,
w odniesieniu do których większość badanych jest zgodna w ocenie ich wagi dla
definicji kategorii nadrzędnej, okazało się najlepszym predyktorem typowości.
Im więcej cech ocenianych przez większość badanych jako typowe dla danej
kategorii, tym bardziej prawdopodobne było to, że desygnat otrzyma wysokie
oceny na skali typowości. Na podstawie uzyskanych wyników Hampton
zaproponował koncepcję pojęcia polimorficznego (polymorphous concept).
Według niego, pojęcia definiowane są przez pewną liczbę cech charakterystycz­
nych. Właściwością tych cech jest to, że nie przysługują one żadnemu
z desygnatów definiowanego pojęcia w stopniu koniecznym i wystarczającym.
Prototypem pojęcia polimorficznego jest natomiast ten desygnat, który posiada
największą liczbę cech charakterystycznych.
Kończąc opis badań, których rezultaty odnoszą się do koncepcji prototypu,
warto zauważyć, że wyniki eksperymentu Hamptona wskazują na brak możli­
wości rozstrzygnięcia sporu o naturę trwałych reprezentacji pojęciowych, jaki
powstał między zwolennikami koncepcji cech i teorii wzorców. Prototyp można
bowiem określić zarówno jako desygnat uzyskujący w klasyfikacjach typowości
zbieżne i najwyższe oceny, jak też jako egzemplarz charakteryzujący się naj­
większą liczbą cech charakterystycznych, podzielanych przez inne egzemplarze
tej samej kategorii.
Teoria prototypów doczekała się gruntownej krytyki. Przede wszystkim
stwierdzić należy, że wyniki badań nad posługiwaniem się prototypami pojęć,
chociaż wiele mówią o tym, w jaki sposób ludzie identyfikują egzemplarze pojęć,
czyli jak funkcjonują ich procedury identyfikacyjne, to jednak nie mówią niemal
nic o tym, jaka jest istota pojęcia, a więc jaka jest jego struktura. Zwolennicy
koncepcji pojęcia jako listy cech znacznie więcej miejsca poświęcali problemom
strukturalnym, co doprowadziło zarówno do wyszczególnienia różnego rodzaju
strukturalnych właściwości reprezentacji pojęciowych (np. cech definicyjnych,
1 Pojęcie podobieństwa rodzinnego wewnątrz kategorii pochodzi od Ludwika Wittgensteina.
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
121
cech charakterystycznych), jak i zdefiniowania przestrzeni semantycznej, „roz­
piętej” na najważniejszych wymiarach danego pojęcia. Badania nad prototypami
skupiały się wokół aspektów funkcjonalnych, czyli wokół korzystania z proto­
typu jako punktu odniesienia w procesach kategoryzacji. Natomiast struktu­
ralny aspekt sporu o naturę reprezentacji niemal nie był przez zwolenników
stanowiska prototypowego poruszany (Murphy, Medin, 1985).
Z badań w paradygmacie podejmowania decyzji semantycznych wynika, że
czas takiej decyzji rośnie wraz ze wzrostem nietypowości obiektu. Jednakże
z faktu tego nie wynika jeszcze, że egzemplarze mniej typowe, będąc mniej
podobne rodzinnie, są znacznie bardziej oddalone w przestrzeni semantycznej
od kategorii nadrzędnej niż prototyp. Wyniki uzyskiwane w tym paradygmacie
są bowiem zgodne z koncepcją prototypów, bo mniejsze podobieństwo rodzinne
nietypowego obiektu wiąże się z większym dystansem pomiędzy nim a jego
odniesieniem w procesie kategoryzacji, czyli prototypem, a także z koncepcją
probabilistyczną, gdyż nietypowy obiekt wymusza konieczność uruchomienia
drugiego, bardziej szczegółowego etapu porównywania cech (Osherson, Smith,
1981).
Koronne dla zwolenników koncepcji prototypów wyniki badań nad
klasyfikowaniem desygnatów także można wyjaśnić zarówno przez odwołanie
się do istnienia prototypów, jak i definiując punkt odniesienia dla dokonywa­
nych porównań poprzez zbiór cech charakterystycznych, które są relatywnie
powszechne wśród desygnatów i decydują o ich typowości (Hampton, 1979).
Koncepcje probabilistyczne i teorie prototypów mówią więc o tej samej struk­
turze i podobnym funkcjonowaniu reprezentacji pojęciowych. Ujmują jednak
proces kategoryzacji z dwóch różnych perspektyw: egzemplarza posiadającego
określone cechy (koncepcje prototypów) lub zbioru typowych cech konstytuu­
jących specyficzny desygnat (koncepcje probabilistyczne).
Z tego, że ktoś nie potrafi podać wspólnych właściwości egzemplarzy
wchodzących w skład jakiegoś pojęcia, nie można wnioskować, że zestaw takich
cech w ogóle nie istnieje (Smith, Medin, 1981). W badaniach Lewickiego (1968)
poprawnie zdefiniować istotę pojęcia potrafiło przecież tylko 20% osób. Często
zdarza się również, że ktoś nie potrafi zwerbalizować jakiegoś fragmentu
wiedzy, ale skutecznie go stosuje (zob. rozdz. 4).
Podkreślić także trzeba, że teorie prototypów nie stosują się do wszystkich
reprezentacji pojęciowych (Hampton, 1981). Bardziej abstrakcyjne kategorie
pojęciowe, jak się wydaje, nie posiadają swoich prototypów. Wprawdzie, jak
wykazała Rosch (1973), istnieją mniej i bardziej prototypowe dyscypliny nauki
czy przestępstwa, ale nie ma mniej i bardziej typowych praw, reguł, wierzeń,
przekonań czy instynktów. Prototypy, według Hamptona, mają ograniczone
zastosowanie, występują tylko tam, gdzie możliwe jest podanie kompletnej listy
desygnatów danej kategorii lub tam, gdzie podejrzewa się, że taka kompletna
lista istnieje. Reprezentacje takie można określić jako pojęcia konkretne
(iconcrete concepts). Późniejsze badania nad możliwymi umysłowymi odzwier­
ciedleniami emocji w systemie poznawczym (ramka 3.1) złagodziły nieco ten
krytyczny wobec teorii prototypów argument.
Z analizy przedstawionych argumentów wynika, że zwolennikom koncepcji
prototypów udało się dostarczyć klarownych odpowiedzi na pytanie o sposób
funkcjonowania reprezentacji pojęciowych. Zgodnie z ustaleniami Rosch, zbiór
122
Rozdział 3. Pojęcia i schematy
Ramka 3.1
Badania nad umysłowymi reprezentacjami emocji
Twierdzenie Hamptona (1981), że tylko pojęcia konkretne mogą posiadać swoje
prototypy, wywołało falę badań nad prototypami pojęć abstrakcyjnych {abstract
concepts). Jako przykład wybrano reprezentację pojęciową emocji (Fehr, 1988;
Russell, 1991; Fehr, Russell, 1991). W badaniach wykazano jednak (wbrew temu,
co sądził Hampton), że reprezentowanie emocji w systemie poznawczym spełnia
założenia koncepcji prototypów Rosch.
Na nadrzędnym poziomie odzwierciedlania funkcjonują w umyśle pojęcia
odpowiadające różnym emocjom (Russell, 1991). Są one niezbyt precyzyjnie
zdefiniowane, gdy chodzi o właściwości definicyjne, i słabo odróżnialne od innych
stanów i procesów afektywnych (Kolańczyk, 2004). Jednak już na poziomie
podstawowym poszczególne rodzaje emocji są znacznie lepiej określone przez listy
cech - definicyjnych i charakterystycznych - odznaczając się różnym stopniem
typowości (Fehr, Russell, 1991). Przykładem może być lęk, który jest emocją
uznawaną za bardzo typową; duma zaś często bywa stanem w ogóle nieklasyfikowanym przez ludzi jako przykład emocji. Badani proszeni o nazywanie emocji,
zawartych w prezentowanych im opisach wydarzeń, najczęściej posługują się
określeniami z poziomu podstawowego (Fehr, Russell, 1984); szczególnie dzieci
nabywają pojęcia dotyczące emocji na tym właśnie poziomie (Bretherton, Beeghly,
1982). Na poziomie podrzędnym reprezentacje poszczególnych rodzajów emocji
mają już strukturę wyłącznie prototypową. Uczestnikom eksperymentu nie sprawia
większych kłopotów klasyfikowanie przykładów bójek w trakcie meczu hokejowego
jako typowych lub mniej typowych zachowań agresywnych, choć ze zdefiniowa­
niem takiego zachowania na podstawie cech definicyjnych mieliby z pewnością
duże problemy (Lysak, Rule, Dobbs, 1989).
Należy więc stwierdzić, iż emocje mogą być reprezentowane w umyśle
zarówno w formie list cech, jak i egzemplarzy prototypowych. Im niższy poziom
ogólności reprezentacji, tym większe prawdopodobieństwo reprezentowania
konkretnej emocji w formie prototypu i tym niższe prawdopodobieństwo
odzwierciedlania jej w formie zbioru cech. Reprezentacja emocji w postaci listy
cech dotyczy w zasadzie tylko najbardziej abstrakcyjnej, nadrzędnej reprezentacji
pojęciowej emocji, niemożliwej do odzwierciedlenia w postaci prototypu.
obiektów tej samej kategorii jest reprezentowany w umyśle przez prototyp, który
działa jako punkt odniesienia dla klasyfikacji pozostałych egzemplarzy kategorii.
Prototyp może też być definiowany jako najbardziej typowy przedstawiciel danej
kategorii, w najwyższym stopniu podobny do innych desygnatów tej kategorii
(Rosch); jako egzemplarz charakteryzujący się średnią arytmetyczną właści­
wości wszystkich pozostałych egzemplarzy kategorii (Posner i Keele); lub też
jako desygnat, który charakteryzowany jest przez właściwości najczęściej
spotykane w ramach kategorii (Neumann). Niezależnie od sposobu określenia,
prototyp jest konkretnym egzemplarzem. Kwestią sporną pozostaje, czy jest on
egzemplarzem rzeczywiście istniejącym, ale problem ten ma znaczenie jedynie
w odniesieniu do pojęć naturalnych. Trzeba przy tym pamiętać, że zgodnie
z koncepcją prototypów proces kategoryzacji polega na określaniu stopnia
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
123
podobieństwa (dystansu semantycznego) pomiędzy kategoryzowanym egzem­
plarzem a prototypem, czego empirycznym odzwierciedleniem są różnice w ran­
kingach typowości. Według zwolenników koncepcji reprezentacji umysłowych
w formie prototypów, pojęcia nabywane są na podstawowym poziomie
hierarchii poprzez doświadczanie egzemplarzy typowych.
3.2.4. Teorie egzemplarzy
Zdaniem Medina i Schaffera (1978), sprawdzanie przynależności kategorialnej
nie zawsze odbywa się poprzez odniesienie klasyfikowanego desygnatu do
prototypu. Czasami w procesie kategoryzacji wykorzystywane mogą być inne,
z jakiegoś powodu ważne, egzemplarze tego samego pojęcia. Według zwo­
lenników teorii egzemplarzy (exemplar view), reprezentacja pojęciowa składa
się z odrębnych opisów egzemplarzy danego pojęcia. Mogą nimi być zarówno
odzwierciedlenia pojedynczych przedstawicieli kategorii (wśród nich egzem­
plarz prototypowy), jak i ich podzbiory wchodzące w zakres danego pojęcia. Na
przykład właściciel jamnika może mieć reprezentację pojęciową psów w postaci
opisów: własnego psa, wilczura - psa sąsiada, jamniczki - suczki sąsiadki oraz
reszty napotkanych psów. Własny pies zapewne będzie w takim przypadku
reprezentował egzemplarz prototypowy kategorii „pies”, z czym nie zgodziłoby
się wielu innych właścicieli tych zwierząt (o czym świadczą dyskusje na spa­
cerze „o wyższości jamników nad wilczurami”). Wilczur sąsiada i jamniczka
sąsiadki będą ważnymi egzemplarzami wyróżnionymi ze względu na emocje
(złość i miłość) wzbudzane u własnego ulubieńca, a reszta desygnatów będzie
stanowić jedynie tło dla ważnych przedstawicieli nadrzędnej kategorii. Zatem
reprezentacja pojęciowa psów będzie u właściciela jamnika przedstawiona
w formie czterech opisów egzemplarzy: trzech indywidualnych (w tym jednego
prototypowego) i jednego zbiorowego. W teorii tu przedstawianej proces
kategoryzacji polega na porównywaniu egzemplarzy. Jeśli napotkany obiekt
jest podobny do opisu jakiegoś ważnego egzemplarza już składającego się na
reprezentację pojęciową, np. jamnika, jamniczki lub wilczura, wówczas zo­
staje uznany za przynależny do kategorii i sam staje się z kolei punktem
odniesienia dla następnych porównywanych, potencjalnych przedstawicieli
kategorii. Podejście egzemplarzowe zdaje się wyjaśniać relatywnie wysoki
poziom wiedzy właścicieli psów na temat swoich ulubieńców i często niemal
całkowity brak wiedzy na temat innych ras (pytania na spacerze: „A jaka to
rasa?”).
Porównywanie opisów wszystkich egzemplarzy tworzących reprezentację
pojęciową z opisem nowego egzemplarza, dopiero aspirującego do kategorii,
byłoby procesem czasochłonnym. Dlatego też zwolennicy koncepcji egzempla­
rzowych skłaniają się ku twierdzeniu, że w trakcie procesu kategoryzacji
oceniamy podobieństwo nowego egzemplarza z pierwszym napotkanym desygnatem pojęcia (Reed, 1971). Stąd też niezwykle ważne mają być pierwsze
doświadczenia z egzemplarzami danej kategorii pojęciowej, gdyż dzięki nim
można uniknąć wielu błędów kategoryzacji. Jeśli tym pierwszym obiektem
będzie typowy egzemplarz, to w trakcie późniejszej kategoryzacji możliwość
popełnienia błędu będzie mniejsza, jeśli mniej typowy - większa. Dziecko, które
124
Rozdział 3. Pojęcia i schematy
jako pierwszy egzemplarz psa napotka chihuahua, który mieści się zazwyczaj
w kieszeni marynarki, będzie zapewne przez jakiś czas miało kłopoty
z klasyfikowaniem nieco większych przedstawicieli rozważanej kategorii.
Glass i Holyoak (1975), prowadząc badania w paradygmacie podejmowania
decyzji semantycznych, wykazali, że proces ten może polegać, w pewnych
szczególnych warunkach, na porównywaniu pojedynczych egzemplarzy. Po­
prosili oni osoby badane o weryfikację prostych zdań fałszywych, zawierających
duży kwantyfikator (np. „wszystkie ptaki to psy”). Okazało się, że zdania te były
bardzo szybko weryfikowane przez badanych jako fałszywe - na tyle szybko, że
trudno było przypuszczać, że osoby badane podejmują swoje decyzje na pod­
stawie porównywania jakichkolwiek list cech albo też na podstawie zestawiania
prototypowych przedstawicieli obu kategorii pojęciowych (psy vs. ptaki). Tak
krótki czas decyzji mógł być spowodowany odnalezieniem przez badanych
w procesie weryfikacji zdania jednego kontrprzykładu, tj. egzemplarza jednej
kategorii nie będącego desygnatem drugiej (np. „wróbel jest ptakiem i nie jest
psem”). Poczynienie takiego ustalenia pozwala z łatwością sfalsyfikować
powyższe zdanie.
Także i teorie egzemplarzy doczekały się gruntownej krytyki. Wiele kry­
tycznych argumentów skierowanych przeciwko teoriom prototypów, odnosi się
również do teorii egzemplarzy. Obie teorie proponują bowiem podobne
rozwiązania w kwestii opisu i wyjaśnienia procesu kategoryzacji. Inaczej jednak
w koncepcjach egzemplarzowych przedstawia się kwestia struktury pojęcia
i procesu jego nabywania.
Zgodnie z poglądem egzemplarzowym, poszczególne desygnaty są często
z różnych względów traktowane jako unikatowe. Można zatem sformułować
pytanie o to, do jakiego stopnia brak podobieństwa pośród kategoryzowanych
egzemplarzy jest tolerowany przez kategorię nadrzędną. Teorie cech (zgodność
w zakresie rdzenia pojęciowego) czy prototypów (wskaźnik podobieństwa ro­
dzinnego) wskazują na pewne miary tej tolerancji; teoria egzemplarzy takiej
miary nie podaje. Konsekwencją braku miary podobieństwa egzemplarzy w ra­
mach pojedynczej kategorii mogą być problemy z kategoryzacją. Stosując
egzemplarzową formę kategoryzacji, właściciel jamnika nie będzie miał zapewne
problemów z zaliczeniem do kategorii „pies” takiego przedstawiciela czworo­
nożnych, który niewiele różni się od idącego przy jego nodze (jamnik) lub też
takiego, który toczy pianę z pyska na widok jego ulubieńca (wilczur). Jednakże
próbując zaklasyfikować inne nieznane desygnaty (chihuahua), prawdopodob­
nie nie uniknie błędu kategoryzacji.
Przede wszystkim bardzo trudno byłoby stosować egzemplarzową procedu­
rę identyfikacji przynależności kategorialnej w naukach ścisłych, gdzie dowody
twierdzeń dotyczą z reguły klas obiektów, a nie pojedynczych desygnatów. Pro­
cedura egzemplarzowej kategoryzacji, jeśli w ogóle ma miejsce w procesach
poznawczych człowieka, dotyczy więc raczej pojęć naturalnych i konkretnych.
Trudnym do rozwiązania problemem jest również ustalenie tego, w jaki
sposób w ramach reprezentacji pojęciowej przechowywane są pojedyncze
egzemplarze, a jak - tworzą się ich podzbiory. W szczególności nie bardzo
wiadomo, w jaki sposób umysł przechowuje wiedzę o podzbiorze (np. psy
myśliwskie) w postaci pojedynczego egzemplarza Nie jest też do końca jasne,
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
125
w jakim celu mają być przechowywane wszystkie opisy doświadczanych
desygnatów, skoro punktem odniesienia w procesie kategoryzacji jest tylko
pierwszy napotkany w doświadczeniu indywidualnym bądź taki, który jest
ważny z przyczyn osobistych.
Nie można tych krytycznych argumentów pominąć, ponieważ wynika
z nich, że koncepcje egzemplarzowe sugerują najmniej ekonomiczną formę
trwałego reprezentowania obiektów rzeczywistych w umyśle. Najważniejszy
desygnat, będący punktem odniesienia, jest wprawdzie nabywany na drodze
spostrzegania i wyodrębniania egzemplarzy, ale jest nim z reguły pierwszy
napotkany przedstawiciel kategorii. W jakim celu jest więc przyswajana cała
reszta egzemplarzy? Być może tylko przechowywanie opisów wszystkich
wyodrębnionych desygnatów danej kategorii umożliwia elastyczne zmiany
w zakresie ważnych egzemplarzy, będących punktem odniesienia w procesie
kategoryzacji. Bez możliwości odniesienia nowo napotkanego obiektu zarówno
do samego prototypu, jak i do zbioru wszystkich dotychczas napotkanych
egzemplarzy, jakiekolwiek zmiany w średnich posiadanych właściwości, modalnych częstości występowania, a w szczególności we wskaźniku podobieństwa
rodzinnego, nie byłyby możliwe. A bez takich zmian system pojęć byłby sztywny
i niewydolny.
3.2.5. Porównanie koncepcji
reprezentacji pojęciowych
Koncepcje reprezentacji pojęciowych różnią się w zakresie odpowiedzi na trzy
kluczowe pytania. Pierwsza kwestia sporna dotyczy struktury reprezentacji
pojęciowych, a więc sposobu trwałego odzwierciedlania w systemie poznaw­
czym rzeczywistych obiektów i zjawisk. Zwolennicy poszczególnych koncepcji
reprezentacji pojęciowych różnią się również co do poglądów na temat sposobu
nabywania reprezentacji pojęciowych, zarówno tych pierwszych, jakie kształto­
wane są we wczesnych latach rozwoju umysłu, jak i późniejszych, przyswaja­
nych w praktyce codziennej przez osoby dorosłe. Ostatni sporny problem to
ustalenie zbioru reguł procesu kategoryzacji, a więc wskazanie metody klasy­
fikacji nowo napotkanych obiektów i prawidłowego włączania ich do już
zdefiniowanych kategorii pojęciowych. Kwestią odrębną wydaje się zakres
stosowalności poszczególnych koncepcji. Z przedstawionych powyżej argumen­
tów wynika, iż żadna z rozważonych koncepcji nie opisuje ani nie wyjaśnia
struktury oraz funkcjonowania wszystkich rodzajów reprezentacji pojęciowych.
Aby zatem opisać i wyjaśnić problem trwałego reprezentowania świata
w systemie pojęć, trzeba zastosować podejście eklektyczne. Zgodnie z nim
teorie cech, w szczególności teorie klasyczne, odnoszą się raczej do pojęć ma­
trycowych i abstrakcyjnych, a teorie wzorców, w szczególności teorie pro­
totypów, odnoszą się do pojęć naturalnych i konkretnych. Podsumowanie
poszczególnych stanowisk w sporze o naturę reprezentacji pojęciowych
przedstawiono w tabeli 3.3.
126
Rozdział 3. Pojęcia i schematy
Tab. 3.3. Podsumowanie stanowisk w sporze o naturę pojęć.
Teorie
reprezentacji
Struktura
reprezentacji
Sposób
nabywania
Sposób
kategoryzacji
Zakres
stosowalności
klasyczne
zestaw cech
definicyjnych
(istotnych)
abstrahowanie
i testowanie
hipotez
porównanie
zestawów cech
definicyjnych
matrycowe,
abstrakcyjne
probabilistyczne
zestaw cech
definicyjnych
i charaktery­
stycznych
abstrahowanie
porównanie
naturalne,
konkretne
zestawów
wszystkich cech,
a następnie
ustalenie proporcji
cech definicyjnych
prototypów
prototyp
(średnia, modalna,
podobieństwo
rodzinne)
doświadczanie
typowych
egzemplarzy
z poziomu
podstawowego
porównanie
z prototypem
(ustalenie
dystansu
semantycznego)
naturalne,
konkretne,
polimorficzne,
niektóre
abstrakcyjne
egzemplarzy
wszystkie
napotkane
egzemplarze
doświadczanie
wszelkich
egzemplarzy
porównanie
z pierwszym
napotkanym
egzemplarzem
naturalne,
konkretne
3.3. Dynamiczna koncepcja umysłu,
czyli o relacjach między pojęciami
3.3.1. Teorie sieci semantycznej
Reprezentacje pojęciowe nie istnieją w systemie poznawczym w oderwaniu od
siebie. Wiążą je ze sobą złożone relacje opisane w modelu sieci semantycznej
(.network model of semantic memory; Collins, Quillian, 1969; Collins, Loftus,
1975; zob. rozdz. 4). Zgodnie z teorią sieci semantycznej, pojęcia są przechowy­
wane na trwale w pamięci w postaci zhierarchizowanej struktury sieciowej,
składającej się z punktów węzłowych i wiążących te punkty relacji. W poszcze­
gólnych punktach węzłowych sieci kodowane są różnorodne reprezentacje
pojęciowe. Podstawowym założeniem modeli sieci semantycznej, mającym
konsekwencje również dla struktury i funkcjonowania pojedynczych kategorii
pojęciowych, jest hipoteza dotycząca właściwości charakteryzujących pojęcia. Są
one przyporządkowane reprezentacjom pojęciowym na możliwie najwyższym
poziomie hierarchii ogólności. Właściwość „wykonywanie pieśni godowej” jest
więc przypisana pojęciu „ptak”, nie zaś osobno każdej z podrzędnych
reprezentacji pojęciowych poszczególnych rodzajów ptaków (np. kanarka,
wróbla). Natomiast cecha „latanie” nie jest odzwierciedlana przez reprezentację
pojęciową „ptak”, gdyż część ptaków to nieloty (np. kiwi), a część - bezloty
(np. pingwin). Proponowane założenie strukturalne spełnia postulat ekonomii
funkcjonowania poznawczego (hipoteza „skąpca poznawczego” - zob. rozdz. 1),
choć trzeba również zwrócić uwagę na to, że ekonomia struktury sieci może
3.3. Dynamiczna koncepcja umysłu
127
czasami być związana z kosztami jej funkcjonowania. Ekonomiczna organizacja
strukturalna sieci semantycznej pozwala na oszczędne wykorzystanie „powierz­
chni magazynowej” pamięci długotrwałej, w której zakodowane są reprezentacje
pojęciowe. Jednakże owo „oszczędne” zagospodarowanie pamięci związane jest
z kosztem wydłużenia czasu wydobywania informacji bardziej ogólnych,
pochodzących z wyższego poziomu w hierarchii, czy też bardziej specyficznych,
przynależnych do niższego poziomu w hierarchii pojęciowej.
Zasadę przyporządkowania właściwości odpowiednim - ze względu na
poziom ogólności - reprezentacjom pojęciowym wykazali w swoich ekspery­
mentach Collins i Quillian (1969,1970). Prowadzili oni badania w paradygmacie
podejmowania decyzji semantycznych, prosząc osoby badane o weryfikowanie
zdań zawierających jakieś pojęcie i przysługującą temu pojęciu właściwość (np.
„Czy ptak lata?”). Collins i Quillian ustalili, że czas weryfikacji prawdziwości
takich zdań jest bardzo krótki w przypadku właściwości odnoszących się ściśle
do wybranego pojęcia (np. „Czy kanarek jest żółty?”) i relatywnie dłuższy
w przypadku właściwości odnoszących się do wielu pojęć nadrzędnych (np.
„Czy kanarek ma skórę?”). W pierwszym przypadku, zgodnie z założeniem
dotyczącym organizacji strukturalnej sieci semantycznej, informacja o właści­
wości („żółtość”) jest dostępna w węźle reprezentacji pojęciowej („kanarek”).
Dlatego proces weryfikacji prawdziwości zdania jest bardzo szybki. Natomiast
w przypadku drugim informacja o „posiadaniu skóry”, umożliwiająca zwe­
ryfikowanie prawdziwości zdania, jest przypisana szerszej kategorii pojęciowej
(„zwierzęta”), znajdującej się na znacznie wyższym poziomie ogólności.
W celu wykonania zadania uczestnik eksperymentu musi więc w tym przy­
padku odwołać się do innej reprezentacji pojęciowej, pochodzącej z wyższego
poziomu hierarchii, niż sugerowana przez obiekt występujący w weryfikowa­
nym zdaniu („ptak”). Konieczność takiego odwołania powoduje właśnie
wydłużenie czasu poszukiwania informacji, a zatem - pojawienie się kosztów
czasowych.
Punkty węzłowe sieci, a więc zakodowane w nich pojęcia, są powiązane
relacjami znaczeniowymi. Relacja semantyczna (semantic relation) dwóch
reprezentacji pojęciowych wyraża się sumą wszystkich połączeń pomiędzy ich
desygnatami i właściwościami. Dwa pojęcia blisko ze sobą związane charakte­
ryzuje wielość wzajemnych połączeń w sieci, odpowiadająca wspólnocie ich
i właściwości. Połączenia, zwane też ścieżkami sieci (network paths), są zróż­
nicowane pod względem wagi - im silniejszy związek pomiędzy dwiema repre­
zentacjami pojęciowymi, tym większej wagi nabiera łącząca je ścieżka,
a w konsekwencji - tym łatwiej te dwa pojęcia wzajemnie się aktywują w toku
przetwarzania (mechanizm rozprzestrzeniającej się aktywacji, ACT; Anderson,
1976; zob. rozdz. 4). Oznacza to, że sieć reprezentacji pojęciowych nie jest
symetryczna ze względu na wagę połączeń między poszczególnymi węzłami typowi przedstawiciele nadrzędnych kategorii, a także typowe właściwości pojęć
są powiązane silniejszymi relacjami semantycznymi. Świadczą o tym najkrótsze
z możliwych czasy podejmowania decyzji semantycznych, dotyczących proto­
typów kategorii nadrzędnych (Smith, Shoben, Rips, 1973, 1974) czy też
typowych właściwości pojęć (Conrad, 1972).
Relacje semantyczne pomiędzy pojęciami mogą być dwojakiego rodzaju. Po
pierwsze, mogą to być relacje zbudowane na połączeniach pozytywnych (np.
128
Rozdział 3. Pojęcia i schematy
„kura jest to ptak”; Collins, Quillian, 1969,1970). Po drugie, mogą to być relacje
zbudowane na podstawie ścieżek zaprzeczających (np. „kot nie jest to pies”;
Collins, Loftus, 1975). Możliwość istnienia relacji negatywnych wykazali Glass
i Holyoak (1975) w opisywanym wcześniej (zob. rozdz. 3.2.4) badaniu nad
podejmowaniem decyzji semantycznych. Stwierdzili bowiem, że im większy
dystans semantyczny między dwiema reprezentacjami pojęciowymi, tym szyb­
ciej jest podejmowana decyzja dotycząca fałszywości zdania pozytywnie łączą­
cego te dwa pojęcia.
Loftus i Loftus (1975) przywołują wiele danych empirycznych na potwier­
dzenie słuszności teorii sieci semantycznej jako strukturalnej i funkcjonalnej
organizacji reprezentacji pojęciowych. Dane te pochodzą z czterech typów
eksperymentów: (1) przywoływania desygnatów kategorii pojęciowych lub
podawania nadrzędnych kategorii dla pojedynczych egzemplarzy (np. Loftus,
1973; zob. rozdz. 3.2.3); (2) sortowania egzemplarzy do kilku kategorii (np.
Posner, Keele, 1968; zob. rozdz. 3.2.3); (3) podejmowania decyzji semantycz­
nych (np. Glass, Holak, 1975; zob. rozdz. 3.2.4); (4) sortowania egzemplarzy ze
względu na ich typowość (np. Rosch, 1973; zob. rozdz. 3.2.3). Szersze
omówienie tych danych znaleźć można w pracach Chlewińskiego (1999), Kurcz
(1987, 1997), Maruszewskiego (1983, 2001) oraz Trzebińskiego (1981, 1986).
Modele sieci semantycznej pozwalają na wyjaśnienie relacji znaczenio­
wych, wiążących poszczególne reprezentacje pojęciowe. W ramach teorii
sieciowych uwzględniono wyniki badań dotyczących struktury i funkcjonowania
indywidualnych pojęć. Węzły sieci definiowane są bowiem przez zestawy
właściwości poszczególnych reprezentacji pojęciowych (koncepcje cech), a asy­
metria w zakresie relacji semantycznych wiąże się z powszechnie stwierdzanym
efektem typowości (koncepcje probabilistyczne, teorie prototypów). Istnienie
negatywnych ścieżek sieciowych jest z kolei konsekwencją stwierdzenia
możliwości klasyfikacji na podstawie porównywania pojedynczych egzemplarzy
(koncepcje egzemplarzowe). Dane empiryczne na temat modeli sieci seman­
tycznej, jak i koncepcji reprezentacji pojęciowych pochodzą zatem z tych
samych eksperymentów.
3.3.2. Złożone struktury sieciow e
Podstawowym problemem modeli sieci semantycznej oraz sieciowej organizacji
reprezentacji pojęciowych jest fakt, iż „rozbijają” one system trwałej wiedzy
o świecie fizycznym lub społecznym na mniejsze porcje informacji - pojedyncze
reprezentacje pojęciowe. Wprawdzie pojęcia są powiązane relacjami zależnymi
od wielkości dystansu semantycznego, ale trudno wyobrazić sobie, aby tylko za
pomocą mechanizmu rozprzestrzeniającej się aktywacji możliwe było szybkie
łączenie tych pojedynczych porcji informacji w złożoną wiedzę o świecie. Bez
takiej trwałej, zintegrowanej wiedzy, elastyczne i adekwatne zachowanie
w zmiennych warunkach bodźcowych nie byłoby możliwe. Postępowanie
właściciela wobec psa (np. udanie się z nim na spacer) nie wynika z reguły
z faktu, iż pies ten wykazuje się jakimiś pojedynczymi właściwościami
(np. szczeka lub macha ogonem). Jest ono natomiast efektem zintegrowanej
wiedzy dotyczącej w swej ogólności zwierząt domowych i ich zwyczajów oraz
3.3. Dynamiczna koncepcja umysłu
129
w szczególności zasad komunikacji pomiędzy człowiekiem a jego udomowio­
nymi zwierzętami.
W celu rozwiązania problemu dostosowania organizacji sieci semantycznej
do systemu zintegrowanej wiedzy zwolennicy modeli sieciowych zasugerowa­
li istnienie w ramach sieci większych, bardziej złożonych struktur poznaw­
czych, umożliwiających np. rozumienie nie tylko pojedynczych pojęć, ale całej
komunikacji międzyludzkiej czy też nie tylko reagowanie na pojedyncze bodź­
ce, ale poprawne zachowanie w złożonych sytuacjach społecznych, takich jak
np. obiad rodzinny w restauracji (Schank, Abelson, 1977). Struktury te wy­
różniają się szczególnie silnymi wewnętrznymi powiązaniami między poszcze­
gólnymi reprezentacjami pojęciowymi (Bartlett, 1932; Komatsu, 1992), co
zgodnie z mechanizmem rozprzestrzeniającej się aktywacji powinno gwaranto­
wać natychmiastową aktywizację wszystkich kategorii pojęciowych konstytu­
ujących tę złożoną, schematyczną strukturę. Wprawdzie zwolennicy koncepcji
sieciowych nie różnią się specjalnie w opisie i próbach wyjaśnienia organizacji
i funkcjonowania owych złożonych struktur sieciowych, jednakże różnorodne
nazwy, które im nadają, wywołują mylne wrażenie dużej ich różnorodności.
Wśród najczęściej stosowanych określeń można wskazać: schematy, skrypty,
tematy, gry, miniteorie, ramy, hipotezy, plany, pakiety czy oczekiwania (Chlewiński, 1999; Kurcz, 1987). Odrębne przedstawianie wszystkich teorii złożo­
nych struktur sieciowych wymagałoby wielu powtórzeń w odniesieniu do klu­
czowych założeń i stwierdzeń. Koncepcje te zostały już zresztą w literaturze
polskiej opisane przez Chlewińskiego (1999). Dlatego poniżej omówimy tylko
ogólne założenia i tezy teorii schematów (Rumelhart, Ortony, 1977; Rumelhart,
1980; Rumelhart, Norman, 1978, 1981), ram (Minsky, 1975) oraz planów, scen
i tematów (Schank, Abelson, 1977; Schank, 1982, 1986).
3.3.3. Teoria schematów
Według Rumelharta (1980; Rumelhart, Ortony, 1977), schematy (schemas) są
dobrze zintegrowanymi fragmentami sieci semantycznej. W tych fragmentach
zakodowany jest zarówno sens typowej sytuacji, do jakiej dany schemat się
odnosi, jak i znaczenie typowej formy zachowania, która powinna zostać
wygenerowana w reakcji na typową sytuację. Schematy różnią się poziomem
ogólności. Reprezentują wiedzę ze wszystkich poziomów: od pojedynczych
reprezentacji pojęciowych do rozbudowanych ideologii. Wśród schematów są
takie, które mają bardzo wąski zakres stosowania, związany ze specyfiką
sytuacji bodźcowej, do której się odnoszą. Przykładem może być schemat
regulacji silnika benzynowego samochodu marki Nissan. Są jednak i takie, które
mają bardzo szeroki zakres stosowalności - tu przykładem może być schemat
zdawania egzaminów. Struktura schematów jest, zdaniem Rumelharta, hierar­
chiczna, podobnie jak struktura sieci reprezentacji pojęciowych. Schematy
o szerokim zakresie stosowalności zawierają więc mniej ogólne struktury tego
typu. Schemat zdawania egzaminu zawiera subschematy nauki do egzaminu czy
rozwiązywania testów egzaminacyjnych. Ponadto złożone struktury sieciowe
o szerokim zakresie stosowania (dużym stopniu ogólności) zawierają część
rdzenną (core), tj. reprezentacje pojęciowe wspólne wszystkim sytuacjom z tego
130
Rozdział 3. Pojęcia i schem aty
zakresu, oraz część elastyczną (tracks), która pozwala na zastosowanie sche­
matu w konkretnej sytuacji bodźcowej, różniącej się w jakiś sposób od sytuacji
typowej (Schank, Abelson, 1977). W ramach schematów możliwe jest także
generowanie brakujących elementów systemu reprezentacji pojęciowych, jeśli
relacje pomiędzy już zidentyfikowanymi elementami schematu takie elementy
podpowiadają.
Opisując funkcjonowanie schematów, Rumelhart (1980) odwołuje się do
trzech analogii. Stwierdza, że schematy są jak gry. Każdy posiada bowiem dwa
podstawowe elementy każdej gry: sekwencje wydarzeń, czyli swoisty scenariusz
gry, oraz wykonawców poszczególnych czynności - aktorów z rozpisanymi dla
nich rolami. Rumelhart dokonuje też porównania schematów do teorii, gdyż jego zdaniem - zawierają one naiwne, potoczne przekonania odnośnie do natury
rzeczywistości. Kompletny zestaw schematów tworzy zaś naszą prywatną, zinte­
growaną wiedzę na temat praw funkcjonowania świata. Autor odnajduje także
podobieństwo schematów do programów komputerowych. Wskazuje na to, we­
dług niego, przede wszystkim wewnętrzna budowa schematów, uwzględniająca
subprocedury oraz programy sprawdzające skuteczność działania (por. systemy
produkcji; Anderson, 1983a). Zauważyć jednak trzeba, że schematy są specy­
ficznymi programami, bowiem podobnie jak sztuczne sieci neuropodobne (PDP;
Rumelhart, McClleland, 1986) mogą ulegać modyfikacjom na drodze uczenia się.
Można wskazać kilka dróg nabywania i modyfikacji schematów (Rumel­
hart, Norman, 1978, 1981). Przede wszystkim już istniejące schematy są roz­
wijane przez rejestrację nowych sytuacji bodźcowych, w których taki schemat
może mieć swoje zastosowanie. Ten typ uczenia się schematów można określić
jako nabywanie wiedzy przez przyrost informacji. Dobrze opisuje go mechanizm
asymilacji nowych informacji do już istniejących struktur poznawczych i zwią­
zanej z tym akomodacji owych struktur (Piaget, 1971). W rezultacie można
zaobserwować powstanie nowych, elastycznych subprocedur dla już istnieją­
cych schematów.
Ponadto schemat może zostać dostrojony. Ten proces polega na stopnio­
wych zmianach w zakresie poszczególnych subprocedur, tak aby dostosować już
istniejący schemat do innej - niż wyzwalająca ten schemat - sytuacji bodźcowej.
Zmiany w zakresie dostrajania nie mogą jednak zmienić zasadniczej struktury
relacji w ramach schematu. W ten sposób nowo powstały schemat jest analogią
schematu wyjściowego.
Modyfikacja schematu może również polegać na całkowitej jego restruktu­
ralizacji. W jej wyniku relacje łączące poszczególne reprezentacje pojęciowe
zostają, jako zupełnie nieadekwatne do sytuacji bodźcowej, rozbite, a nowe
relacje tworzą się w wyniku procesów abstrahowania i myślenia indukcyjnego.
W ten sposób powstaje zupełnie nowy schemat. Wprawdzie wykorzystuje on
stare formy pojedynczych reprezentacji pojęciowych, ale ze względu na zupełnie
nowe relacje semantyczne, wiążące poszczególne elementy starej struktury, jest
zupełnie nową porcją wiedzy. Należy więc stwierdzić, iż powstawanie nowych
schematów i modyfikacja schematów już istniejących dokonują się dzięki
twórczym procesom transformowania, abstrahowania i myślenia indukcyjnego
(Chlewiński, 1999).
Istnieje duża liczba przekonujących danych empirycznych potwierdzają­
cych organizację wiedzy w postaci schematów. Dane te wskazują jednocześnie
3.3. D ynam iczna koncepcja um ysłu
131
na to, w jaki sposób schematy poznawcze wpływają na przebieg procesów
przetwarzania informacji, na istotne ogniwa tego procesu, a więc percepcję
i pamięć, a przez to na całe zachowanie. Bower, Black i Tuner (1979) przed­
stawili osobom badanym opis sytuacji, której tematem było „jedzenie obiadu
w restauracji”. Większość (73%) uczestników eksperymentu wskazała na takie
jej elementy jak: siedzenie przy stole, przeglądanie menu, zamawianie, jedzenie,
płacenie i opuszczanie pomieszczenia, uznając je za najważniejsze wśród 20
zdarzeń, jakie mogą wystąpić podczas pobytu w restauracji. Natomiast 48%
badanych wyróżniło wśród typowych zachowań w powyższym opisie: wcho­
dzenie do pomieszczenia, sprawdzanie rezerwacji, zamawianie drinków,
dyskutowanie menu, rozmowę przy stole, jedzenie przystawki, jedzenie deseru,
zostawianie napiwku. Bower, Black i Tuner w wyniku badań stwierdzili, że
można wyróżnić 15 elementów wspólnych, które formują ludzką wiedzę na
temat jedzenia obiadu w restauracji i tym samym składają się na schemat
postępowania w takiej sytuacji. Rdzeń tego schematu wydaje się jednak znacz­
nie węższy i dotyczy co najwyżej 6 elementów wymienianych przez większość
uczestników eksperymentu.
Z kolei Friedman (1979) pokazywała w swoim eksperymencie 6 obrazków,
na których przedstawiono: miasto, kuchnię, bawialnię, biuro, przedszkole
i farmę. Na każdym obrazku znajdowały się rzeczy przynależne do sytuacji,
których osoby badane mogły się spodziewać (np. komputer w biurze) oraz
nieprzynależne, nieoczekiwane (np. garnek w biurze). Okazało się, że
uczestnicy eksperymentu dwukrotnie dłużej przyglądali się obiektom typowym
niż nietypowym. Co więcej, w niezapowiadanym teście odpamiętywania
obiektów z obrazków badani nie mieli większych kłopotów z prawidłowym
przypomnieniem sobie obiektów nietypowych, natomiast typowe przedmioty
były często pomijane. Podobne wyniki otrzymali także Graesser i współpra­
cownicy (1980). Jednakże Smith i Graesser (1980) ustalili, że lepsza pamięć
odnośnie do nietypowych elementów sytuacji zanika wraz z czasem. Im dłuższa
przerwa między pierwotną prezentacją bodźców a późniejszym przypomina­
niem, tym lepsza pamięć dotycząca typowych elementów zapamiętywanej
sytuacji (np. komputer w biurze, garnek w kuchni) i tym gorsze pamiętanie
obiektów nieoczekiwanych (np. garnek w biurze, komputer w kuchni).
Interesujące badania dotyczące efektywności zapamiętywania przeprowa­
dzili Anderson i Pichert (1978). Polecili oni uczestnikom eksperymentu
odpamiętywanie elementów opisu domu z różnych perspektyw (np. z pozycji
złodzieja, żebraka, kupca, ubezpieczyciela). Różnica w perspektywie związana
była z przyjętym przez badanego schematem poznawczym, służącym mu do
analizy sytuacji. Okazało się, że liczba zapamiętanych elementów domu niezależnie od perspektywy - była zbliżona. Ale, co ciekawe, badani zapamiętali
różne elementy opisu domu, zgodnie z narzuconą im perspektyw ą.
Z perspektywy złodzieja ważne były schody przeciwpożarowe na tyłach domu,
zupełnie nieistotne z pozycji żebraka. Anderson i Pichert podsumowali swoje
eksperymenty stwierdzając, że narzucony schemat poznawczy wpłyną! na
jakość, a nie na ilościowo wymowną wydajność procesów pamięciowych.
Teoria schematów - jak wynika z omówionych powyżej badań - przed­
stawia organizację i funkcjonowanie złożonych sieciowych struktur poznaw­
czych, których zadaniem jest umożliwienie człowiekowi szybkiej i adekwatnej
132
Rozdział 3. Pojęcia i schem aty
reakcji na zmienne warunki bodźcowe na podstawie wcześniej ukształtowanej
wiedzy o świecie. Struktura schematów poznawczych zdaje się przypominać
probabilistyczną wersję struktury reprezentacji pojęciowych - schematy
posiadają swoje rdzenia, tj. niezmienne w ramach schematu części definicyjne,
oraz tory modyfikacji, czyli zmienne, charakterystyczne dla poszczególnych
odmian schematu części elastyczne. Nabywanie schematów poznawczych
możliwe jest dzięki abstrahowaniu wspólnych elementów sytuacji bodźcowych
i zachowań odpowiadających na nie lub dzięki transformacji schematów już
istniejących. Mimo większego stopnia złożoności i innych zadań pełnionych
w ramach systemu poznawczego, organizacja i funkcjonowanie schematów
poznawczych nie odbiegają znacznie w swojej istocie od organizacji i funkcjo­
nowania reprezentacji pojęciowych. Trzeba przy tym podkreślić, że dzięki
schematom nasz system poznawczy może działać zarazem rutynowo i elastycz­
nie. Ma to szczególne znaczenie w przypadku zadań związanych ze światem
społecznym, gdzie wymaga się od nas elastyczności w reagowaniu na powta­
rzające się sceny lub sytuacje.
3 .3.4. Teoria ram
Autorem teorii ram (frames) jest Marvin Minsky (1975). W swoich założeniach
teoretycznych koncepcja ram niewiele różni się od teorii schematów. Minsky
wyróżnia - podobnie jak Rumelhart oraz Schank - dwa poziomy ram. Poziom
wyższy zawiera stałe elementy struktury sieciowej, niezmienne, niezależne od
możliwego zakresu stosowalności ramy. Niższy poziom ramy ma natomiast liczne
„okienka”, które są zapełniane przez części elastyczne zmienne w zakresie
różnych wymiarów (np. czasowych, wielkościowych). W przypadku schematu
postępowania z przestępcami niezmiennym elementem ramy wydaje się koniecz­
ność izolacji w miejscu odosobnienia, natomiast konkretne techniki postępowania
z osadzonymi w więzieniu zależą od zmiennych elastycznych części ramy (np.
okienko czasowe określa długość czasu poświęconego na resocjalizację). Możli­
wości nietypowej transformacji w zakresie ramy wykorzystują niektóre techniki
twórczego myślenia (np. operator WCK; Nęcka i in., 2005).
Dla każdej ramy najbardziej istotne są trzy rodzaje informacji. Przede
wszystkim ważne jest to, w jaki sposób należy ramę stosować. Relacje pomiędzy
reprezentacjami pojęciowymi muszą wyznaczać konkretne programy zachowań.
Rama powinna też mieć określoną sekwencję zdarzeń - scenariusz, z którego
jasno wynika kolejność zdarzeń i podejmowanej w jego ramach akcji. Rama musi
także zawierać informację, co należy uczynić w sytuacji, gdy oczekiwania odnośnie
do sekwencji wydarzeń nie potwierdzają się w rzeczywistości. Tego rodzaju
informacje powinny być punktem wyjścia do ewentualnej modyfikacji ramy.
Warte podkreślenia jest to, że koncepcja ram bardzo wyraźnie kładzie
nacisk na znaczenie tych struktur poznawczych dla regulacji celowych działań
człowieka, zwłaszcza w świecie społecznym. O ile schematy poznawcze są
strukturami wiedzy, które mogą nam służyć zarówno do lepszego zrozumienia
świata w ramach trwałych reprezentacji umysłowych, jak i do generowania na
podstawie tej wiedzy spójnego i adekwatnego zachowania, o tyle w przypadku
ram znacznie ważniejszy jest aspekt wiedzy proceduralnej, bezpośrednio
3.3. D ynam iczna koncepcja um ysłu
133
związany z zachowaniem generowanym na podstawie ramy. Rama wydaje się
także strukturą poznawczą znacznie bardziej zależną od kontekstu sytuacji,
a przez to znacznie bardziej zróżnicowaną. Można metaforycznie powiedzieć, że
każdy z nas nieustannie nakłada na różnorodną i „kapryśną” rzeczywistość
rozmaite ramy, które redukują nadmiar informacji, porządkują obraz świata i
regulują nasze celowe działania w świecie.
3.3.5. Teoria planów, scen i tem atów
Główne zarzuty wobec koncepcji złożonych struktur sieciowych, niezależnie od
ich odmian, dotyczą tego, że schemat ma być w założeniu jednocześnie sztywny
i plastyczny, dostosowany do konkretnej sytuacji (Chlewiński, 1999). Prze­
widywanie przez te teorie pewnego stopnia sztywności schematów wynikało po
części z elementarnych założeń dotyczących organizacji strukturalnej systemu
poznawczego - jego ograniczonej pojemności, a po części z poczynionego
założenia o efektywności funkcjonowania tych struktur - nadmiar niewiele
różniących się schematów mógłby bowiem doprowadzić do problemów z ich
wyborem i stosowalnością. Zgodnie z teoriami złożonych struktur sieciowych,
istotna część rdzeniowa każdego schematu odzwierciedla cechy pewnych stereo­
typowych zachowań, jakie powinny pojawić się w danej sytuacji bodźcowej.
Tymczasem badania dotyczące reprezentacji pojęciowych dostarczyły przeko­
nujących argumentów na rzecz tezy, że rdzenie trwałych odzwierciedleń rzeczy­
wistości są albo bardzo wąskie, albo też w przypadku niektórych reprezentacji takich jak np. pojęcia polimorficzne - w ogóle nie istnieją. Oznaczałoby to, iż
części stałe wielu schematów czy ram powinny być zawężone do bardzo
nielicznych i ogólnych reprezentacji pojęciowych oraz relacji je wiążących, na
tyle ogólnych, że w zasadzie nie wiadomo, czy warto je w ramach systemu
poznawczego wyodrębniać. Zarzut dotyczący konkretności scheinatów był
jeszcze poważniejszy. Skoro złożone struktury sieciowe są nabywane w indywi­
dualnym doświadczeniu przez abstrahowanie, to nie będąc uczestnikiem
konkretnej sytuacji bodźcowej (np. napadu na bank), człowiek nie ma szansy
na wytworzenie schematu takiej sytuacji. Jednak znalazłszy się w takiej sytuacji
po raz pierwszy, potrafi przecież w jakiś sposób zinterpretować dane i zrozumieć
cele oraz czynności innych ludzi uczestniczących w zdarzeniu. Być może
schemat jest zarazem sztywny i elastyczny, ale nie wynika stąd, że musi być
nabywany na drodze indywidualnego kontaktu z odpowiednią sytuacją.
Zrozumienie funkcjonowania takich struktur sieciowych, jak schematy czy
ramy możliwe jest, zdaniem Schanka (1982, 1986; Schank, Abelson, 1977),
dzięki istnieniu w ramach sieci semantycznej trwałych reprezentacji umysło­
wych wielu jeszcze bardziej złożonych struktur poznawczych. Plany {plans) są,
według niego, schematami zawierającymi wiedzę na temat abstrakcyjnych lub
potencjalnych celów działania człowieka. MOP-y (Memory Orgańization
Packets) są zbiorami podobnych fragmentów różnych schematów, np.
możliwych form powitania, rozpoczynających z reguły interakcje społeczne.
W tym sensie MOP-y odnoszą się do pojedynczych rodzajów podobnych do
siebie scen (scenes), które mogą wystąpić w ramach wielu schematów, i z których
poszczególne scenariusze tych struktur poznawczych mogą być budowane.
134
Rozdział 3. Pojęcia i schem aty
Wreszcie TOP-y (Thematic Organisation Points) są zbiorami ogólnych tematów
(thematics) czy też motywów, których złożone scenariusze mogą dotyczyć.
Dzięki planom możliwe jest zrozumienie działania innych ludzi, mimo
niemożności nabycia konkretnych schematów odpowiadających ich zachowa­
niom. Dzięki scenom i tematom możliwe wydaje się natomiast generowanie
elastycznych form zachowania w odpowiedzi na wymagania sytuacji, szczegól­
nie złożonej sytuacji społecznej. Scenariusze takich zachowań mogłyby być
elastycznie konfigurowane z dostępnych scen w ramach uaktywnionego ogól­
nego tematu zachowania.
3 .3.6. Porównanie koncepcji struktur sieciowych
Porównanie to jest niezwykle trudne, gdyż różnice pomiędzy poszczególnymi
koncepcjami w większości sprowadzają się do kwestii nazewnictwa. Jak się
jednak wydaje, koncepcje złożonych struktur sieciowych można przedstawić
w ramach przestrzeni trzech podstawowych wymiarów.
Zauważmy najpierw, iż koncepcje te różnią się pod względem sugerowanej
przez nie funkcji złożonych struktur sieciowych. W koncepcji schematów
Rumelharta podstawowy akcent położony jest na funkcję reprezentacyjną,
z której wynika funkcja generowania zachowania. Wiedza deklaratywna
(„wiem, że”; Ryle, 1949) staje się w tej koncepcji podstawą wiedzy procedural­
nej („wiem, jak”; Ryle, 1949; o rodzajach w iedzy-zob. rozdz. 4). W koncepcjach
skryptów, ram, scen i tematów Minsky’ego i Schanka bardziej znacząca wydaje
się wiedza proceduralna, a różnorodność bądź stereotypowość generowanych
zachowań (wiedza „jak”) staje się przesłanką dla formułowania wniosków
odnośnie do możliwych struktur reprezentacji świata (wiedza „że”).
Ponadto, różne koncepcje struktur sieciowych w różnym stopniu dopusz­
czają elastyczność złożonych struktur sieciowych. Teoria schematów Rumel­
harta i teoria ram Minsky’ego są w tym aspekcie zgodne z poglądami koncepcji
probabilistycznych. Sztywność rdzeni schematowych jest dla tych koncepcji
ekonomiczna strukturalnie i funkcjonalnie. Jak jednak uważa Schank, owa
sztywność nie pozwala wyjaśnić różnorodności zachowań człowieka kierują­
cego się tym samym schematem. Dlatego autor ten sugeruje dynamiczną
koncepcję reprezentacji trwałych, w których złożone struktury sieciowe mogą
się kształtować w procesie rekonfiguracji różnych dostępnych w sieci ele­
mentów: pojedynczych reprezentacji, poszczególnych scen i całościowych te­
matów.
W końcu, poszczególne teorie złożonych struktur sieciowych dotyczą
innych domen ludzkiego zachowania. Tak więc koncepcja Rumelharta bliższa
jest teoriom reprezentacji pojęciowych dotyczących poznawczego reprezento­
wania obiektów rzeczywistych w naszym umyśle, podczas gdy koncepcje ram
Minsky’ego oraz scen i tematów Schanka odwołują się przede wszystkim do
zachowań społecznych i ich stereotypizacji. Ulubionym zresztą przykładem
funkcjonowania złożonych struktur poznawczych było dla Schanka zachowanie
się w restauracji.
3.4. Podsum ow anie
135
3.4. Podsumowanie
O pojęciach - ich strukturze, nabywaniu i organizacji - mówi się zazwyczaj
w kontekście języka (zob. rozdz. 13). Celem niniejszego rozdziału było ukazanie
poznawczej funkcji pojęć, czyli ich roli w poznawaniu otaczającego nas świata,
innych ludzi i samych siebie. Z tego punktu widzenia bytem bardziej pierwot­
nym w stosunku do pojęć są kategorie. Człowiek nieustannie kategoryzuje
obiekty fizyczne, a także symboliczne i wyobrażone. Kategoryzuje również
obiekty społeczne, w szczególności innych ludzi. Kategoryzując, najpierw two­
rzy w umyśle poznawczą reprezentację pewnego zbioru obiektów, który w szcze­
gólnym przypadku może być zbiorem jednostkowym lub pustym, a dopiero
wtórnie - i nie zawsze - przypisuje mu określenie językowe. Zazwyczaj ka­
tegorie często używane i użyteczne w poznaniu potocznym lub naukowym
otrzymują własną „etykietę” w postaci słowa. Kategorie rzadziej używane mogą
być pozbawione takiej etykiety, co nie jest równoznaczne z ich mniejszą
przydatnością w procesach umysłowego odzwierciedlenia rzeczywistości. Wielu
z nas posługuje się np. kategorią „rzeczy dawno nieużywane i nie wiadomo, czy
potrzebne, ale których żal wyrzucić”. Jest to dość ważna kategoria poznawcza,
która jak dotąd nie doczekała się osobnego słowa w języku polskim. Warto
pamiętać, że etykieta werbalna nie tylko upraszcza komunikowanie się, bo
zamiast kilku czy kilkunastu słów wystarczy jedno, ale również jak gdyby
„zamraża” kategorię, ustalając jej zakres znaczeniowy, definiując granice (choć­
by mato precyzyjne lub rozmyte) oraz kodyfikując społeczny sposób jej
używania. Zbiory pozbawione etykiety werbalnej mogą funkcjonować jako
tzw. kategorie ad hoc, tworzone doraźnie - np. w procesach twórczych - ale
pozbawione trwałości. Dopiero kategoria opatrzona etykietą daje nam
prawdziwe pojęcie, czyli formę poznawczej reprezentacji świata, charakteryzu­
jącą się trwałością. Dlatego właśnie reprezentacje pojęciowe oraz struktury
z nich złożone (np. schematy) są przez nas traktowane jako reprezentacje
trwałe, w odróżnieniu od z natury nietrwałych obrazów umysłowych lub sądów.
Z owych trwałych cegiełek tworzą się w dalszej kolejności rozbudowane
struktury wiedzy, o których traktuje kolejny, czwarty rozdział.
R ozdział
Wiedza
Rodzaje wiedzy 138
Nabywanie wiedzy 163
Wiedza deklaratyw na i proceduralna 138
Nabywanie wiedzy semantycznej 163
Wiedza jaw na i niejawna 140
Nabywanie wiedzy proceduralnej 164
Organizacja wiedzy 148
Reprezentacja wiedzy za pomocą cech
148
Organizacja wiedzy semantycznej 151
Organizacja wiedzy proceduralnej: syste­
my reguł 157
Organizacja wiedzy w modelach ACT,
ACT* i ACT-R 159
Nabywanie wiedzy niejawnej 166
Wiedza ekspercka 168
Kryteria i właściwości wiedzy eksperckiej
168
Nabywanie wiedzy eksperckiej 173
Podsumowanie 174
Wiedza to forma trwałej reprezentacji rzeczywistości, mająca postać uporząd­
kowanej i wzajemnie powiązanej struktury informacji, kodowanej w pamięci
długotrwałej.
Ekspert to osoba dysponująca wiedzą obszerną, choć ograniczoną do
wybranej dziedziny, a ponadto bardzo dobrze uporządkowaną, sprocedufąliżowaną i nadającą się do wykorzystania dzięki ogólnym schematom
działania.
Spytano kiedyś Kartezjusza, co jest więcej warte - wiedza czy majątek. Gdy
Kartezjusz odpowiedział, że wiedza, zadano mu kolejne pytanie: „Jeśli tak, to
dlaczego tak często widzi się uczonych pukających do drzwi bogaczy, a nigdy
odwrotnie?” Odpowiedź filozofa brzmiała: „Ponieważ uczeni znają dobrze
wartość pieniędzy, a bogacze nie znają wartości wiedzy”. W tym rozdziale
zajmiemy się tylko jednym z pojęć, które porównywał Kartezjusz - mianowicie
wiedzą. I nie o jej wartości będziemy mówić, bo ona dla czytelnika jest
niekwestionowana, ale o sposobie jej organizacji w umyśle człowieka. Chodzi
0 odpowiedź na trzy podstawowe pytania: „Jaka jest struktura wiedzy?” „W jaki
sposób odnajdujemy informacje w bardzo obszernym magazynie wiedzy?”
„W jaki sposób nabywamy wiedzy?”
Zasoby wiedzy gromadzone są w pamięci trwałej, dlatego w większości
podręczników psychologii poznawczej o jej strukturze i nabywaniu mówi się
w rozdziałach poświęconych pamięci. Przyjmując jednak podział na repre­
zentacje i procesy poznawcze, a ponadto podział reprezentacji na nietrwale
1 trwałe, zdecydowaliśmy się wyróżnić tę specyficzną formę trwałych re­
prezentacji świata w umyśle. Jej specyficzność polega na tym, że wiedza, jako
zapis pamięciowy, jest w szczególny sposób uporządkowana, a ponadto podle­
ga ewaluacji ze strony jednostki. W języku teorii poziomów przetwarzania
(zob. rozdz. 1) można byłoby powiedzieć, że wiedza to informacja przetwo­
rzona na najgłębszym poziomie, z odniesieniem do systemu przekonań i sądów
włącznie.
O sposobie uporządkowania wiedzy, czyli relacjach między elementami,
decyduje jej treść, podczas gdy organizacja pamięci trwałej rozpatrywana jest
zwykle niezależnie od treści, czyli od strony formalnej. W badaniach nad
pamięcią jako materiał bodźcowy stosuje się np. zestawy bezsensownych sylab,
nie mających znaczenia obrazów lub losowo dobranych liczb. W ten sposób
celowo minimalizuje się zarówno możliwość odniesienia tego materiału do
wiedzy semantycznej, jak i prawdopodobieństwo użycia skutecznych sposobów
zapamiętywania (mnemotechnik). Badaczy pamięci interesuje przede wszystkim
formalna strona funkcjonowania pamięci, ujawniająca uniwersalne mechanizmy
zapamiętywania, przechowywania i odpamiętywania informacji. Badaczy wiedzy
interesuje z kolei sposób łączenia zapisów pamięciowych w większe całości,
zależnie od treści wiedzy, kontekstu jej nabywania, wiedzy nabytej wcześniej,
a także sądów i przekonań. Ponieważ wyróżnia się wiele rodzajów wiedzy, a co
za tym idzie - różne mechanizmy jej nabywania, odpowiedź na powyższe pytania
rozpatrzymy z uwzględnieniem tej różnorodności.
138
Rozdział 4. W iedza
4.1. Rodzaje wiedzy
4 .1 .1 . Wiedza deklaratywna i proceduralna
Podział wiedzy na deklaratywną i proceduralną pochodzi od filozofa Gilberta
Ryle’a (1949). Różnicę między nimi Ryle przedstawił obrazowo w postaci
dychotomii: wiedza „że” - wiedza „jak”. Wiedza „że”, najogólniej rzecz ujmu­
jąc, odnosi się do danych (faktów), kodowanych w pamięci trwałej. Danymi
może być wiedza ogólna (np. budowa atomu) albo wiedza epizodyczna (np.
kolizja na skrzyżowaniu) czy autobiograficzna (np. że przed chwilą moja córka
przyszła się przytulić). Wiedza ta jest łatwa do werbalizacji, ma bowiem wyraźny
komponent semantyczny. Natomiast wiedza „jak” odnosi się do kodowanych
w pamięci trwałej procedur realizacji czynności o charakterze umysłowym i ru­
chowym. Jest to specyficzna wiedza, potocznie zwana umiejętnościami. Są to
zarówno umiejętności wykonawcze (np. pływanie), jak i poznawcze (np.
używanie języka). Zazwyczaj jednak wiedza proceduralna obejmuje oba rodzaje
umiejętności, co widać na przykładzie takich czynności, jak gra na skrzypcach
czy projektowanie mostów (rysunek techniczny). Wiedza proceduralna jest
z reguły trudniejsza do werbalizacji niż wiedza deklaratywna, co wynika z różnic
w sposobie ich reprezentowania w pamięci. Podstawą rozróżnienia jest w tym
przypadku zarówno strona formalna, jak i treściowa wiedzy. Różny jest także
charakter procesu nabywania wiedzy deklaratywnej i proceduralnej. Wiedza
deklaratywna nabywana jest dyskretnie, poprzez włączenie jakiejś informacji
w istniejące struktury wiedzy. W sprzyjających warunkach wystarczy pojedyn­
cza ekspozycja informacji, aby została ona zasymilowana. Wiedza proceduralna
przeciwnie - nabywana jest w toku treningu, niekiedy długotrwałego, pole­
gającego na wielokrotnym powtarzaniu czynności.
Powyższe rozróżnienie, z pozoru klarowne, generuje dwie podstawowe
wątpliwości. Po pierwsze, czy w umyśle istnieją niezależne zbiory danych i pro­
cedur, czy też istnieje między nimi jakaś zależność? Owa zależność mogłaby
polegać na ścisłym przyporządkowaniu danych procedurom, czy nawet
dominacji procedur, albo - rzecz jasna - odwrotnie. Po drugie, w jaki sposób
wiedza każdego rodzaju jest przechowywana i wydobywana? Nie ma wątpli­
wości, że nabywanie wiedzy deklaratywnej i proceduralnej odbywa się inaczej,
co stanowi definicyjną podstawę ich wyodrębnienia. Nie oznacza to jednak, że
różne są też sposoby przechowywania, wewnętrzna struktura czy też mecha­
nizmy wydobywania wiedzy określonego rodzaju. Niekiedy trudno rozstrzygnąć,
czy wiedza wywodzi się wyłącznie z pamięci deklaratywnej, czy też - nieobecna
w niej wcześniej - została wywnioskowana z danych zapisanych w pamięci
proceduralnej dzięki aplikacji reguł (np. dedukcji). W każdym razie oba
problemy wymagają analizy, choć z pozoru wydają się banalne.
Weźmy pod uwagę następującą sytuację. Niekiedy dowiadując się o jakimś
fakcie, uznajemy go za oczywisty, wręcz zastanawiamy się, jak to się stało, że
sami na to nie wpadliśmy. Dowiadujemy się np., że Zosia już nie przyjaźni się
z Piotrkiem, lecz z Szymkiem. Wykluczając chwilowo wpływ tzw. złudzenia
wglądu wstecznego (hindsight bias; Kahneman, Tversky, 1972), autentyczny
brak zaskoczenia powyższymi faktami może wynikać z tego, że już wcześniej
dysponowaliśmy niezbędnymi przesłankami dla wyciągnięcia takiego wniosku.
4.1. Rodzaje w iedzy
139
Podobnie jak w rozumowaniu dedukcyjnym, konkluzja wynikająca z przesłanek
nie wnosi nowej informacji, jednak aby ją sformułować, potrzebne jest właściwe
zaaplikowanie pewnej reguły wnioskowania, czyli swoistej procedury. Wy­
prowadzony wniosek jest jednak nowy, zawiera bowiem stwierdzenia nieobecne
wcześniej w wiedzy deklaratywnej. Jej wzbogacenie staje się więc możliwe
dzięki zastosowaniu wiedzy proceduralnej. Dlatego Burnett i Ceci (2005, s. 209)
uznają, że „wiedza może być wykreowana przez jednostkę dzięki wnioskowa­
niu, powiązaniu posiadanych wcześniej informacji i myśleniu o tych informa­
cjach w nowy sposób”. Przykłady tego typu są bardzo powszechne (zob. Baddeley, 1998). Odpowiedź na pytania: „Czy Arystoteles miał pępek?” albo „Jaki
numer telefonu miał Beethoven?”, raczej nie znajduje się explicite w wiedzy
deklaratywnej nawet dobrze wykształconego człowieka. Jednak z powodzeniem
może być udzielona dzięki wnioskowaniu. Często nie da się behawioralnie
stwierdzić, czy konkretny fakt, bez względu na jego prawdziwość lub fałszywość,
pochodzi z posiadanej wiedzy deklaratywnej, czy też jest efektem zastosowania
pewnej procedury wnioskowania. Jest to utrapieniem niektórych egzaminatorów
układających testy sprawdzające wiedzę. Inteligentny student może czegoś nie
wiedzieć, ale wywnioskować odpowiedź na podstawie tego, co wie. Jeśli w teście
znajduje się zbyt dużo takich pytań, mierzy on w większym stopniu poziom
inteligencji niż opanowanie wiedzy.
Doniosłe znaczenie wiedzy powstałej w wyniku wnioskowania czy innych
procesów poznawczej obróbki wiedzy posiadanej przez jednostkę podkreślają
koncepcje metawiedzy (np. Flavell, 1979). Metawiedza, czyli wiedza typu
„wiem, że wiem”, byłaby odrębnym rodzajem wiedzy, zasadniczo różnym od
dotychczas omówionych. Dotyczy ona wiedzy o wiedzy posiadanej przez jed­
nostkę. Metawiedza może ujawnić się wprost, kiedy próbujemy uświadomić
sobie zakres naszej wiedzy i niewiedzy na jakiś temat, aby np. podczas egzaminu
ustnego zdecydować, czy w ogóle próbujemy odpowiedzieć na zadane pytanie.
Słynna sentencja Sokratesa: „Wiem, że nic nie wiem”, jest znakomitym
przykładem metawiedzy. Metawiedza może także ujawniać się bez uświado­
mienia jej sobie, kiedy człowiek np. podejmuje pewne zadania, a inne pomija,
a jeśli je już podejmuje, to za pomocą preferowanych przez siebie stylów
poznawczych, uwzględniających swoje poznawcze i temperamentalne „wypo­
sażenie” (Orzechowski, Bednarek, 2004; Bednarek, Wytykowska, Orzechowski,
2005). Preferencje te wydają się wynikać z jakiegoś rodzaju metawiedzy.
Rozróżnienie wiedzy deklaratywnej i proceduralnej na podstawie me­
chanizmu ich wydobywania wydaje się intuicyjnie zrozumiałe. Wydobycie wie­
dzy „że” ma charakter wolicjonalny i polega na jej werbalizacji, bo dzięki
językowi została ona zakodowana. Z kolei wiedza „jak” uruchamiana jest auto­
matycznie w przypadku zainicjowania dobrze nam znanej czynności. Możliwe
jednak, że wiedza deklaratywna, pochodząca np. z instrukcji obsługi faksu,
zostanie przełożona na wiedzę „jak”, a więc przekształcona w postać procedury.
Możliwe jest też, że wiedza proceduralna zostanie przekształcona w formę
werbalnego opisu strategii działania, np. pozyskiwania zainteresowania płci
przeciwnej1. Odróżnienie znajomości faktów od dysponowania procedurami
1 Jak w filmie „Hitch”, w którym gtówny bohater dysponuje pokaźną listą wyrafinowanych
recept tego typu.
140
Rozdział 4. W iedza
może być więc trudne, jeśli za podstawę przyjmiemy sposób wydobycia
odpowiednich elementów wiedzy.
Trwałość wiedzy jako formy reprezentacji poznawczej wydaje się dość
duża, podobnie jak w przypadku pojęć. Nie chodzi o trwałość śladów pa­
mięciowych, bo ta jest zmienna ze względu na wiele czynników, w tym różnice
indywidualne, lecz o niezmienność właściwości samej reprezentacji. Zwolenni­
cy ujednolicenia poglądów na wiedzę, czyli sprowadzenia jej do jednej formy
reprezentacji (np. Neisser, 1967), powołują się na dwa argumenty. Po pierwsze,
akcentując proceduralny charakter wiedzy, odwołują się do podstawowego za­
łożenia podejścia poznawczego, mówiącego o dynamicznym charakterze przy­
wołań pamięciowych. Skoro w efekcie każdej próby przywołania wiedza ulega
modyfikacjom, trudno mówić o trwałości jej reprezentacji. Po drugie, skoro
właściwie nie można odróżnić danych bezpośrednio obserwowanych od
uzyskanych drogą wnioskowania, prościej jest przyjąć istnienie tylko jednej
kategorii jednostek wiedzy. Omówione w rozdz, 3 teorie ram (Minsky, 1970) czy
skryptów (Schank, Abelsohn, 1977; Schank, 1982, 1986) przyjmują oba te za­
łożenia w - jak się wydaje - nieco przerysowanej formie. Teorie wiedzy oparte
na tych założeniach nie wymagają oddzielenia wiedzy „że” i wiedzy „jak”,
ponieważ w ich ujęciu całą wiedzę można sprowadzić do pewnych procedur
operujących na podobnym sposobie reprezentowania rzeczywistości i podobnej
strukturze wewnętrznej. Jednak większość modeli teoretycznych uznaje za­
sadność podziału wiedzy na deklaratywną i proceduralną, albo koncentrując się
tylko na jednej z nich, albo próbując połączyć je w ramach jednej teorii
(zob. rozdz. 4.2).
Podział Ryle?a na wiedzę „że” i wiedzę „jak” niemal wprost został zaadap­
towany przez Squire’a (1986) do problematyki pamięci. Autor dokonał jednak
pewnego uogólnienia: pozostał przy pojęciu pamięci deklaratywnej w orygi­
nalnym znaczeniu, natomiast wiedzę proceduralną umieścił w szerszej kategorii
pamięci niedeklaratywnej. Ta ostatnia zawiera nie tylko procedury, ale również
wszelkie inne formy pamięci, które nie mają postaci deklaratywnej, np. zmiany
prawdopodobieństwa reakcji uzyskane w efekcie warunkowania czy habituacji
stymulacji.
4 .1 .2 . Wiedza jawna i niejawna
Pojęcie wiedzy niejawnej funkcjonuje od dawna, choć pod różnymi etykietami
terminologicznymi. Jako pierwszy, w opozycji do wiedzy jawnej, użył tego
pojęcia filozof Michael Polanyi (1966). Wiedzę ukrytą lub „milczącą” (tacit
knowledge) rozumiał jako taką, o której nie wiemy, że ją posiadamy. Polanyi
akcentował więc przede wszystkim trudności w werbalizacji wiedzy tego
rodzaju, typowe dla osób dysponujących bogatym osobistym doświadczeniem
w jakiejś dziedzinie. Ponownego „odkrycia” wiedzy niejawnej, tym razem na
gruncie psychologii, dokonali Graf i Schacter (1985), wyróżniając pamięć jawną
(explicit) i pamięć niejawną (implicit), zwaną również ukrytą lub utajoną.
Dlatego też obecnie funkcjonują dwa pojęcia o zbliżonym znaczeniu: wiedza
ukryta (tacit) i wiedza niejawna (implicit). Pierwsze pojęcie używane jest ra­
czej w odniesieniu do wiedzy nabywanej długotrwale na drodze praktyki
4.1. Rodzaje w iedzy
141
i doświadczenia, a drugie - jako efekt mimowolnego uczenia się (implicit
learning). Różnice dotyczą więc raczej kontekstu i tradycji badań w pewnym
paradygmacie, a nie istoty rzeczy. Ze względu na swój charakter i sposób funk­
cjonowania, wiedza niejawna wydaje się tworzyć jedną kategorię, wymagającą
jednego tylko terminu.
Podział Schactera i Grafa wywodzi się z rozróżnienia dwóch grup metod
badania pamięci: bezpośrednich i pośrednich. W pierwszym przypadku osoba
badana ma przywołać z pamięci to, co wie (metoda przypominania), lub roz­
poznać w przedstawionym jej materiale elementy występujące w uprzednio
wyuczonym materiale (metoda rozpoznawania). W przypadku drugim nie jest
w ogóle pytana o to, co wie; ma jedynie wykonać pewną czynność, której nie da
się wykonać poprawnie lub na założonym poziomie sprawności bez wcześniej
nabytej wiedzy. Badanemu pokazuje się np. elementy spełniające nieznane mu
kryteria definicyjne, nie ujawniając samej definicji, a następnie prosi się go
0 klasyfikowanie, czyli samodzielne wskazywanie elementów spełniających de­
finicję lub jej niespelniających (zob. paradygmat 4.1). Przyjęto, że wiedza nie­
jawna nie ujawnia się w pomiarze bezpośrednim, podczas gdy można wychwycić
jej obecność w pomiarze pośrednim (Cleeremans, 1997a; Higham, 1997). Przy­
kładowo, osoba badana dość poprawnie klasyfikuje złożony materiał, którego
się wcześniej uczyła, ale nie potrafi poprawnie zwerbalizować reguł rządzących
jego uporządkowaniem.
Sformułowano precyzyjne kryteria, jakie powinny spełniać wyniki tych
testów, aby wiarygodnie potwierdzić obecność wiedzy niejawnej (Shanks,
St. John, 1994; Merikle, Joordens, 1997). Pierwsze z nich, tzw. kryterium wy­
łączności, nakazuje, aby dana metoda umożliwiała dotarcie tylko do tej wiedzy,
która jest wykorzystywana w wykonaniu danego zadania. Chodzi o to, aby
narzędzie było odporne na wpływ innej, niezwiązanej z zadaniem wiedzy. Na
przykład, kiedy po ekspozycji listy slow pochodzących z pewnej kategorii,
prosimy osoby badane o jej odtworzenie, to łatwiej będą przywoływane pojęcia
typowe dla tej kategorii, nawet jeśli nie były obecne na pierwotnej liście (zob.
rozdz. 9.4.2, paradygmat 9.1). Na wykonanie zadania ma więc pewien wpływ
wiedza, która jest niezwiązana z zawartością listy i kolejnością umieszczonych
na niej pojęć. Z kolei kryterium czułości nakazuje, aby test mierzący zakres
wiedzy jawnej był na tyle wyczerpujący, aby ujawnić pełną informację, której
badani są świadomi. W szczególności chodzi o to, aby w wyniku dotarcia tylko
do części wiedzy jawnej nie uznać tej, do której nie dotarto, za wiedzę niejawną.
Paradygmat 4.1
1 Uczenie się sztucznej gramatyki (Artificial Grammar Learning, AGL)
Ten schemat badania procesów mimowolnego uczenia się pochodzi od Arthura
Rebera (1967, 1968). Typowe zadanie składa się z dwóch faz. W pierwszej fazie
1 osoby badane uczą się egzemplarzy ciągów literowych, zgodnych z systemem
f reguł „sztucznej gramatyki” (zob. ryc. 4.1). Reguły gramatyki określają, jakie ciągi
j będą poprawne (gramatyczne), a jakie błędne (niegramatyczne). Osób badanych
nie informuje się jednak, że ciągi prezentowanych im liter zostały utworzone według
i jakichś zasad. Dowiadują się o tym po zakończeniu fazy uczenia się. Pierwsza faza
142
Rozdział 4. W iedza
składa się zazwyczaj z prezentacji od kiiku do kilkunastu ciągów liter. W fazie
drugiej badanych prosi się o klasyfikowanie prezentowanych im ciągów jako
gramatycznych bądź niegramatycznych. Pokazuje się zarówno ciągi znane z fazy
uczenia się, jak i zupełnie nowe. Ponadto manipuluje się zgodnością ciągów
z regułami gramatyki (część jest gramatyczna, a część nie).
P
A
x
Ryc. 4.1. Sztuczna gramatyka zastosowana przez Rebera (1967) w badaniach nad efektem uczenia
mimowolnego. Strzałki ilustrują dozwolone przejścia między poszczególnymi stanami. Pętle
oznaczają możliwość kilkakrotnego powtórzenia danego stanu. Przykładowe ciągi zgodne
z gramatyką: TPPTXXVS, VXVPXXVS, TPTS. Ciągi niezgodne z gramatyką: TPPTXXPS,
VPVPXXVS, TXTS.
Już w pierwszych badaniach Reber (1967) wykazał, że badani wykonują
zadanie klasyfikacyjne z poprawnością istotnie wyższą niż poziom przypadku
(zazwyczaj w przedziale pomiędzy 60 a 70%; por. Balas, Żyła, 2002). Nie potrafią
jednak zwerbalizować reguł, którymi się kierują, podejmując decyzję o tym, czy ciąg
jest gramatyczny, czy też niegramatyczny. Późniejsze badania z użyciem tego pa­
radygmatu wielokrotnie replikowały powyższe wyniki, również po zmianie rodzaju
i poziomu złożoności sztucznych gramatyk (Brooks, 1978; Dulaney, Carlson,
Dewey, 1984; Pothos, Bailey, 2000).
W badaniach z wykorzystaniem paradygmatu uczenia się sztucznych gra­
matyk stosuje się również bezpośrednie miary jawnego uczenia się (Mathews i in.,
1989). W takim przypadku osoby badane proszone są o odpamiętanie prezento­
wanych im w fazie uczenia się ciągów lub o klasyfikowanie prezentowanych im
ciągów na znane/nieznane. Okazuje się, że badani są w stanie poprawnie odpamiętać część ciągów (choć bardzo małą), co wskazuje na słaby wpływ wiedzy
jawnej na pomiar efektów uczenia się mimowolnego.
Okazało się jednak, że trudno utrzymać założenie o pełnym rozdzieleniu
wpływów wiedzy jawnej w testach bezpośrednich i wiedzy niejawnej w miarach
pośrednich. W testach przypominania albo rozpoznawania niewątpliwie do­
minuje wiedza jawna, ale nie można wykluczyć wpływów wiedzy niejawnej.
I odwrotnie, w testach pośrednich ujawniać się może wiedza jawna, również
jeśli jest nieadekwatna do zawartości pamięci niejawnej. Na przykład w zadaniu
4.1. Rodzaje w iedzy
143
wymagającym klasyfikowania osoba badana może wyabstrahować błędną regułę
i stosować się do niej, co będzie interferować z wpływami ze strony wiedzy
niejawnej. Tak więc prawdopodobnie na poziom wykonania testów bezpo­
średnich i pośrednich wpływa jednocześnie wiedza jawna i niejawna. Rycina 4.2
ilustruje wzajemne wpływy obu rodzajów wiedzy w zadaniu polegającym na
uczeniu się sztucznych gramatyk.
ETAP 1
uczenie się jawne
intencjonalne uczenie się
egzemplarzy
ETAP II
--------- ►
ETAP III
test wiedzy jawnej
nabytej
intencjonalnie
te st w iedzy
ukrytej
znajomość regui
w p tyw w iedzy
ukrytej
(regui)
wpływ wiedzy jawnej
fragmenty,
egzemplarze
uczenie się m im o w o ln e ^ ^
nieintencjonatne uczenie
się regu!
\
Ryc. 4.2. Analiza wpływu procesów jawnych i niejawnych w zadaniu uczenia się sztucznych gramatyk
(za: Wierzchoń, 2004). Etap I - uczenie się ciągów liter zgodnych z pewną regułą gramatyczną. Etap II
- testowanie wiedzy niejawnej (ukrytej) w teście klasyfikacji ciągów, wymagającym różnicowania
ciągów gramatycznych i niegramatycznych. Etap III - test wiedzy jawnej, badający znajomość reguł
klasyfikacji. Przedruk za zgodą autora.
Według Cleeremansa (1997a) wiedza jest niejawna, kiedy wpływa na
przetwarzanie informacji bez uświadomienia jej właściwości. Mimo braku
uświadomienia, wiedza niejawna ma swoją reprezentację w pamięci trwałej,
przez co może być z niej wydobywana i wykorzystywana. Oznacza to, że
niekiedy możemy wykonywać pewne zadania, choć nie mamy jawnego dostępu
do wiedzy, która nam to umożliwia. W skrajnym wypadku nie wiemy nawet, że
danego typu wiedza jest w ogóle potrzebna do wykonania jakiegoś zadania.
Przykładowo, większość ludzi znakomicie wykrywa oszustów, łamiących tzw.
regułę kontraktu społecznego, głoszącą, że odnoszenie korzyści z życia w grupie
zawsze wymaga poniesienia pewnych kosztów (Cosmides, 1989; zob. rozdz.
10.6.3, ramka 10.1). Jednak użytkownicy tej reguły rzadko zdają sobie sprawę
z tego, że stosują wówczas wyrafinowane metody wnioskowania dedukcyjnego.
Przykładem działania wiedzy niejawnej jest też kompetencja językowa. Mówiąc
i pisząc, używamy skomplikowanych reguł syntaktyczych, o których w większoś­
ci nie mamy pojęcia. Potrafimy też odróżnić poprawne wyrażenia językowe od
niepoprawnych, choć podstawa rozróżnienia nie jest nam znana.
Nieco inne rozumienie wiedzy ukrytej - dosłownie „milczącej” - prezentują
Wagner i Sternberg (1985; Sternberg, Wagner, Okagaki, 1993; Sternberg i in.,
144
Rozdział 4. W iedza
2000; Wagner, 1987, 2000). Autorzy, rozwijając koncepcję wiedzy ukrytej,
traktują ją jako składnik inteligencji praktycznej. Wiedza ukryta to taka, która
nie jest bezpośrednio wyrażana, a jej nabywanie odbywa się dzięki indywi­
dualnemu doświadczeniu jednostki. Wiedza ukryta charakteryzuje się trzema
właściwościami: jest nabywana samodzielnie, ma charakter proceduralny i jest
stosowana w praktyce (Sternberg i in., 2000). To rozumienie wiedzy ukrytej
zostało skontrastowane z wiedzą jawną, nabywaną bezpośrednio, najczęściej
w trakcie nauki szkolnej, uniwersyteckiej lub kursów zawodowych. Wiedza
ukryta związana jest ze zdolnościami praktycznymi do uczenia się na podstawie
doświadczenia i stosowania uprzednio nabytej wiedzy w dążeniu do osiągnięcia
celów osobistych. Jako że wiedza proceduralna ma postać złożonych, koniunkcyjnie zdefiniowanych warunków aplikacji reguł dążenia do tychże celów,
autorzy przyjmują, znaną z innych koncepcji, formę reprezentacji wiedzy
ukrytej w postaci reguł typu: „warunek-działanie” (jeśli spełniony jest waru­
nek A, podejmij działania X). Nie są to jednak reguły abstrakcyjne. Wiedza
ukryta, i to jest unikalne w koncepcji Sternberga i współpracowników, jest
konkretna i specyficzna dla kontekstu (context-specific). Dotyczy skutecznych
sposobów działania w specyficznej sytuacji albo w dość wąskiej klasie sytuacji.
Kontekstem dla wiedzy ukrytej może być doświadczenie życiowe jednostki, ale
również środowisko pracy, co szczególnie interesowało tych badaczy. Wiedza
ukryta, szczególnie jeśli jest rozległa i głęboka, jest również plastyczna, dzięki
wielości zawartych w niej procedur ściśle dopasowanych do różnych sytuacji.
Rozległa wiedza ukryta pozwala również na kombinowanie znanych procedur,
co umożliwia bardziej elastyczną adaptację do nowych sytuacji.
Podstawą odróżnienia wiedzy jawnej od niejawnej jest zazwyczaj niepełne
uświadomienie zawartości tej drugiej. Wiedza jawna jest dostępna i świadoma,
podczas gdy niejawna pozostaje niedostępna świadomości, chociaż ma wpływ
na różne procesy przetwarzania informacji. W literaturze brak jednak zgody co
do definicji i typologii świadomości, a także co do tego, jak bardzo wiedza
niejawna jest niedostępna świadomości. Wydaje się, że w niektórych przy­
padkach wiedza niejawna może być łatwo uświadamialna, np. wtedy, gdy ktoś
zapytany o sposoby radzenia sobie z korkami w ruchu ulicznym formułuje
konkretne zalecenia. Zadane pytanie stymuluje procesy werbalizacji, a przez to
prowadzi do uświadomienia sobie wiedzy, która do tej pory była latentna.
W innych przypadkach, np. w odniesieniu do kompetencji językowych, nawet
zadane wprost pytanie o wykorzystaną regułę niewiele daje. Wszyscy wiemy, że
w języku polskim mówi się „jedno piwo”, „dwa piwa”, ale „pięć piw”. Czy to
znaczy, że potrafimy sformułować regułę rządzącą tworzeniem liczby mnogiej
pewnej klasy rzeczowników? Większość z nas tego nie potrafi, przez co wiedzę
na ten temat trzeba uznać za trudno dostępną świadomości. W związku z tymi
problemami, niekiedy zamiast terminu „świadomość” używa się terminów
„dostępność” czy - całkiem już operacyjnie - „możliwość werbalizacji”. Poza
tym wiedza jawna nie zawsze jest w pełni dostępna świadomości, czego do­
wodem są trudności w aktualizacji wiedzy podczas egzaminu. Wydaje się więc,
że kryterium świadomości lub jej braku nie jest najlepszą podstawą definio­
wania wiedzy niejawnej.
Inny problem to relacje między podziałem na wiedzę jawną i niejawną
a wcześniej omówionym podziałem na wiedzę deklaratywną i proceduralną (nie-
4.1. Rodzaje wiedzy
145
deklaratywną). Niektórzy badacze przyjmują, że wiedza jawna jest tym samym co
deklaratywna, a wiedza niejawna - tym samym co niedeklaratywna (np. Squire,
1986). Berry i Dienes (1993) dowodzą jednak, że wiedza niejawna jest „mieszan­
ką” wiedzy deklaratywnej i proceduralnej, a jej cechą wyróżniającą jest spe­
cyficzny transfer, którego dokonujemy - również w sposób niejawny - na nowe
sytuacje. Transfer ten dotyczy abstrakcyjnych reguł czy abstrakcyjnej struktury
zadania (wiedza deklaratywna), ale wymaga zastosowania jakiejś formy
wnioskowania (wiedza proceduralna). Jeśli nawet tak jest, transfer ten odbywa
się tylko w ramach zadań izomorficznych, czyli identycznych pod względem
struktury formalnej, ale wyrażonych w różnej postaci. Davies (1989) twierdzi
wręcz, że wiedza niejawna może być w pewnym sensie izolowana, tj. nie wchodzi
w związki z wiedzą już posiadaną albo nabywaną później. Dzieje się tak głównie
dlatego, że nie można jej użyć w procesie wnioskowania, czyli wyprowadzania
nowej wiedzy z uprzednio nabytej. Zakres użycia wiedzy niejawnej jest więc
ograniczony do konkretnej sytuacji i nie ma mowy o transferze takim, jak np.
w rozumowaniu przez analogię, który wymaga całkiem jawnej refleksji. Z kolei
Grigorenko i Strenberg (2001) uważają, że w przeciwieństwie do specjalistycznej
wiedzy zawodowej, która zawiera wiedzę deklaratywną i proceduralną, wiedza
ukryta ma charakter wyłącznie proceduralny.
Zdaniem Rebera (1989), podstawowym sposobem nabywania wiedzy nie­
jawnej jest mimowolne uczenie się, czyli takie, które nie stanowi odpowiedzi na
polecenie ani nie wynika z samodzielnie powziętej intencji (paradygmaty
4.1 i 4.2). Pozwala ono na nabywanie wiedzy niejawnej, która jest abstrakcyjna
i reprezentatywna dla struktury stymulacji w otoczeniu. Uczenie się mimo­
wolne pozwala więc na budowanie, dzięki procesowi indukcji, głębokiej re­
prezentacji wiedzy, uwzględniającej abstrakcyjne relacje między elementami
środowiska. Proces ten odbywa się bez udziału świadomych strategii uczenia
się i bez zamiaru nabycia wiedzy, a ponadto jest bezwysiłkowy. Przyswojona
w ten sposób wiedza niejawna może być użyta, również bez zdawania sobie
z tego sprawy, w procesie rozwiązywania problemów i podejmowaniu decyzji
w sytuacjach mniej lub bardziej podobnych do sytuacji, w której nastąpiło
uczenie się. Chodzi oczywiście o przypadki, gdy reprezentacja nowej sytuacji
„pasuje” strukturalnie do nabytej wcześniej wiedzy. Podkreślając rolę mimo­
wolnego uczenia się w nabywaniu wiedzy niejawnej, Reber nie zgadza się ze
stanowiskiem natywistycznym (np. Chomsky, 1980; Fodor, 1975, 1983; Gleitman, Wanner, 1982), wedle którego wiedza niejawna jest wrodzona. Natywiści
skłonni byli przyjmować, że skoro nie da się przekonująco wyjaśnić, w jaki
sposób nabywana jest wiedza złożona i abstrakcyjna, a zarazem niejawna, to
trzeba przyjąć, że w jakiś sposób była już wcześniej obecna w umyśle.
| Paradygmat 4.2
Sposoby badania mimowolnego uczenia się
Uczenie się sztucznej gramatyki to najpopularniejszy paradygmat badań nad mi­
mowolnym uczeniem się i nabywaniem wiedzy niejawnej. Oprócz tego wypraco­
wano dwa inne paradygmaty. Pierwszy wymaga wyuczenia się sekwencji zdarzeń,
I a drugi - kontroli systemów dynamicznych.
146
Rozdział 4. W iedza
Uczenie się sekwencji (sequence learning; Nissen, Bullemer, 1987) polega
na reagowaniu na serię bodźców, które pojawiają się na ekranie zgodnie z ukrytą
sekwencją, określającą reguły następstwa bodźców w serii. Na przykład ekran
monitora dzieli się na cztery części, a następnie w jednym z czterech pól pokazuje
się dowolną figurę. Po chwili figura znika, aby za chwilę pojawić się w innym
okienku. Osoba badana ma jak najszybciej dotknąć pola, na którym właśnie
pojawiła się figura. Przeciętne badanie wymaga wykonania od 1000 do 2000
reakcji. Wyniki eksperymentów przeprowadzonych z wykorzystaniem tej procedury
wskazują na systematyczne skracanie czasu reakcji w kolejnych próbach. Nie
można tego wyjaśnić jedynie nabywaniem wprawy motorycznej, ponieważ gdy
ukryta reguła określająca sekwencję pojawiarga się ciągów zostaje nieoczekiwanie
zmieniona, czasy reakcji istotnie się wydłużają. Ponadto wykonanie tego zadania
wydaje się niezależne od poziomu werbalizacji wiedzy o ukrytej regule.
Willingham, Nissen i Bullemer (1989) podzielili osoby wykonujące zadanie
uczenia się sekwencji na dwie grupy. Pierwsza grupa była w stanie opisać nie
więcej niż trzy kolejne elementy sekwencji, a druga potrafiła zwerbalizować
wszystkie zasady, według których skonstruowano sekwencję zdarzeń. Okazało
się, że obydwie grupy nie różniły się szybkością i poprawnością reagowania na
bodźce zgodne z regułą, co wydaje się wskazywać na możliwość wykonywania
zadania niezależnie od stopnia uświadomienia wiedzy o regule.
Kontrola systemów dynamicznych (dynamie system task] Berry, Broadbent,
1984) polega na osiągnięciu i utrzymaniu określonego stanu złożonego systemu
poprzez manipulację zmiennymi. Systemem może być np. cukrownia lub inny
zakład produkcyjny, którego funkcjonowanie symuluje program komputerowy.
Osoba badana ma zarządzać cukrownią, używając dostępnych jej narzędzi, takich
jak poziom zatrudnienia i płac, planowanie produkcji itd. Przypomina to nieco
symulacyjną grę komputerową. System „zachowuje się” według niezmiennego
algorytmu, który jednak nie jest znany osobom badanym. Otrzymują one natomiast
informację zwrotną na temat aktualnego stanu systemu. Nawet jeśli chwilowo nic
nie robią, system - podobnie jak w rzeczywistości - podlega dynamicznym zmia­
nom. Dzięki korzystaniu z informacji zwrotnej, osoby badane uczą się bardziej
efektywnej kontroli systemu, systematycznie poprawiając poziom wykonania
zadania. Nie są jednak w stanie zwerbalizować reguł działania systemu. Co więcej,
podobnie jak w zadaniu wymagającym uczenia się sekwencji, wykonanie zadania
nie koreluje z dostępnością jawnej wiedzy na temat reguł rządzących systemem.
Stanley i współpracownicy (1989) zaproponowali pomysłowy sposób
oszacowania charakteru wiedzy nabywanej w tego typu zadaniach. Po wykona­
niu zadania osoby badane poproszone zostały o wyjaśnienie komuś innemu, w jaki
sposób należy kontrolować system, aby osiągnąć satysfakcjonujące rezulta­
ty. Badacze stwierdzili istotną różnicę w czasie, jaki jest potrzeby do nabycia
wiedzy niejawnej pozwalającej efektywnie kontrolować system, a czasem nie­
zbędnym do uzyskania wiedzy jawnej, podlegającej werbalizacji. Efektywne wy­
konanie zadania znacznie wyprzedza możliwość skutecznego instruowania
innych. Jednak wskazówki utworzone na podstawie prób takiego instruowania
pozwoliły osobom poinstruowanym szybciej osiągnąć optymalny poziom wy­
konania zadania.
4.1. Rodzaje w iedzy
147
W przeciwieństwie do Rebera (1989), inni autorzy uważają, że wiedza
niejawna nie ma charakteru abstrakcyjnego, lecz zawiera konkretne egzempla­
rze lub przypadki (Brooks, Vokey, 1991; Vokey, Brooks, 1992) albo konkretne
fragmenty informacji (Perruchet, Pacteau, 1990), zapamiętane w trakcie mimo­
wolnego uczenia się. Użycie tej wiedzy w nowym kontekście odbywa się dzięki
stwierdzeniu podobieństwa obu sytuacji. Proces ten wymaga również abstrakcji,
ale nie w momencie kodowania informacji, tylko jej wydobywania. Interesujące
wydaje się także stanowisko pośrednie, dopuszczające współistnienie różnych
mechanizmów nabywania wiedzy niejawnej (Berry, Dienes, 1993; Meulemans,
Van der Lindern, 1997). Okazało się, że modele obliczeniowe mimowolnego
uczenia się, zawierające elementy koncepcji abstrakcyjnych i egzemplarzowych,
wykazują najlepsze dopasowanie do danych empirycznych (por. Cleeremans,
1993). Problem ten jest jednak nadal przedmiotem ożywionej debaty.
W wątpliwość poddaje się również brak możliwości świadomego dostępu do
wiedzy niejawnej (Perruchet, Pacteau, 1990; Shanks, St. Jones, 1994; przegląd
w: Berry, 1996/2004). Początkowo taki pogląd głosił sam Reber, szybko się
jednak z niego wycofał. Okazało się bowiem, że człowiek jest w stanie częściowo
werbalizować wiedzę niejawną. Zwolennicy egzemplarzowej reprezentacji wie­
dzy niejawnej twierdzą, że w zasadzie mimowolne uczenie się jest w pełni
świadome. Polega bowiem na przyswajaniu konkretnych egzemplarzy czyli frag­
mentów wiedzy, które mogą być zwerbalizowane, a zatem cały proces uczenia się
musi być uznany za świadomy (Berry, Dienes, 1993). Wydaje się, że przyjęcie
tego poglądu oznaczałoby konieczność wyeliminowania podziału wiedzy na
jawną i niejawną. Autorzy o bardziej umiarkowanych poglądach przyjmują, że są
przekonywające dowody na to, iż wiedza niejawna jest potencjalnie dostępna
jawnemu wydobywaniu, choć nie zawsze do tego dochodzi (por. Underwood,
Bright, 1996). Możliwość jawnego wydobycia wiedzy niejawnej występuje bo­
wiem tylko wtedy, gdy poziom tej wiedzy jest dość wysold. Innymi słowy, już
niezbyt obszerna wiedza niejawna, nabyta np. w ciągu krótkiego eksperymentu
laboratoryjnego, poprawia poziom wykonania zadań poznawczych, ale żeby
doszło do uświadomienia tej wiedzy, potrzebny byłby długotrwały trening.
W badaniach nad mimowolnym uczeniem się uczestnicy nabywają wiedzy,
która pozwala na wykonanie zadań w niewielkim tylko stopniu przekraczają­
cych poziom przypadku. Wiedza niejawna nie jest w takim razie w pełni
adekwatną i kompletną reprezentacją struktury otoczenia. Jeśli więc dzięki
werbalizacji wiedza niejawna przekształca się w wiedzę jawną, musi być co
najmniej tak samo niekompletna i nieadekwatna. Wyjątek stanowi wiedza
nabywana w trakcie długotrwałego uczenia się mimowolnego (np. Mathews i in.,
1989), jak w przypadku języka ojczystego. Jednak i wtedy możliwość jej
werbalizacji - jeśli uczenie się nie zostało poparte jawnym nabywaniem reguł
języka - jest ograniczona. Dlatego też niektórzy badacze nie opowiadają się za
którąkolwiek ze stron sporu o (nie)świadomy charakter wiedzy niejawnej,
twierdząc jedynie, że świadomość nie jest niezbędna do jej nabywania i wyko­
rzystania (Sternberg i in., 2000). Pojawiły się nawet dowody, że próba przejęcia
świadomej kontroli nad wiedzą niejawną prowadzi do pogorszenia poziomu
wykonania zadań, które jej wymagają (Reber, 1976; Reber i in., 1980). Co
więcej, transfer pomiędzy wiedzą niejawną i jawną może również odbywać się
w przeciwnym kierunku. Mianowicie pewne elementy wiedzy jawnej, szczegół-
148
Rozdział 4. W iedza
nie epizodycznej, np. traumatyczne wydarzenia życiowe, mogą ulec „ukryciu”.
Chodzi o zjawisko utraty dostępu do wyselekcjonowanych zapisów pamięcio­
wych. Świadomość dostępu jest zatem tylko przybliżoną i raczej typową niż
generalną właściwością różnicującą wiedzę jawną od wiedzy niejawnej.
Trzeba też zdawać sobie sprawę z tego, że świadomość lub jej brak może
dotyczyć różnych aspektów mimowolnego uczenia się. Możemy być nieświado­
mi ani tego, że w ogóle czegoś się uczymy, ani tego, czego się nauczyliśmy. Tak
przypuszczalnie przebiega, proces nabywania pierwszego języka. Możemy być
świadomi faktu, że się uczymy, ale nieświadomi skutków i efektów uczenia się.
W szczególności nie potrafimy zwerbalizować reguł rządzących opanowywanym
przez nas materiałem. Tak przebiega proces uczenia się sprawności motorycznych, np. jazdy na nartach lub na rowerze. Możemy być również świa­
domi i tego, że się uczymy, i tego, czego się nauczyliśmy - ale dopiero w wyniku
procesu wtórnego, który polega na transformacji wiedzy niejawnej w jawną.
Natomiast wiedza od początku jawna jest nabywana w procesie intencjonal­
nego, zamierzonego uczenia się z zachowaniem od samego początku świa­
domości skutków uczenia się, a zwłaszcza znajomości abstrakcyjnych reguł. Ale
nawet w takim wypadku nie jesteśmy świadomi poznawczego mechanizmu
nabywania wprawy lub poszerzania zakresu wiedzy. Ten mechanizm jest zawsze
ukryty, a jego odkrywanie jest zadaniem psychologów, a nie podmiotu uczącego
się. Zgodnie z proponowaną przez nas definicją, wiedza niejawna to taka, która
nie jest całkowicie dostępna świadomości, choć może być dostępna w niektórych
fragmentach, a ponadto może być wtórnie uświadomiona w wyniku określonych
zabiegów (np. werbalizacji). Tak rozumiana wiedza niejawna zazwyczaj jest
wynikiem procesu mimowolnego uczenia się, choć w niektórych przypadkach
tworzy się w wyniku uczenia się intencjonalnego i zamierzonego.
4.2. Organizacja wiedzy
Problem organizacji wiedzy nierozerwalnie wiąże się z organizacją pamięci.
Z tego względu w późniejszych rozdziałach będziemy nawiązywać do niektórych
koncepcji organizacji wiedzy opisanych poniżej. Omówione teorie dotyczą
różnych rodzajów wiedzy albo różnych jej aspektów. Pierwsza grupa teorii reprezentacji wiedzy za pomocą cech - dotyczy składników wiedzy semantycz­
nej, a więc najmniejszych jej jednostek, najczęściej pojęć. Kolejna grupa dotyczy
relacji semantycznych między elementami, które wyrażają się głównie w postaci
sądów. Trzecia grupa teorii dotyczy wiedzy proceduralnej. Ostatnia jest próbą
pogodzenia wszystkich trzech ujęć, łączy bowiem wiedzę deklaratywną (ściślej:
semantyczną) i proceduralną w jednym modelu.
4 .2 .1 . Reprezentacja w iedzy za pomocą cech
Podstawowym pojęciem omawianej poniżej grupy teorii reprezentacji wiedzy
jest pojęcie qechy (feature), Cecha jest symbolicznym i dyskretnym (tj. nie­
ciągłym, nieanalogoWym) elementem umysłowej reprezentacji wiedzy o wy­
raźnie określonych granicach. Rzeczywistość jest reprezentowana w postaci
4.2. Organizacja w iedzy
149
zestawu cech oraz relacji, które między nimi zachodzą. Zarówno cechy, jak
i relacje muszą działać jednocześnie, aby powstało znaczenie. Przykładowo
znaczenie, jakie przypisujemy ulicznej sygnalizacji świetlnej, wynika z integracji
cech: kształtu sygnalizatora i koloru światła oraz - prawdopodobnie - pewnych
cech kontekstu. Właściwe znaczenie informacji pojawia się dopiero, kiedy te
cechy są w odpowiedniej relacji względem siebie. Inne relacje między cechami
bądź brak którejkolwiek z cech nie tworzą żadnego znaczenia albo tworzą
zupełnie inne. Na przykład nie zatrzymujemy się, kiedy w książce zobaczymy
zdjęcie sygnalizatora z zapalonym światłem czerwonym.
W koncepcji Evy Clark (1979), ograniczonej do pojęć języka, na znaczenie
składa się zestaw cech definiujących słowo. Na przykład pojęcie „człowiek”
mogłoby składać się z reprezentacji cech [+zwierzę, +dwunożny, +inteligentny], gdzie „ + ” oznacza występowanie pewnej cechy. Gdyby dodać jeszcze
właściwość [-włosy], gdzie
oznacza brak cechy, wówczas powstaje repre­
zentacja pojęcia „łysy”. Cechy w tym modelu są niezależne - obecność jednej nie
wymaga obecności innej. Niezależność cech nie wyklucza jednak korelacji
między nimi. Dlatego pewne obiekty będą uznawane za bardziej typowe (częs­
tsze współwystępowanie cech dystynktywnych), a inne za raczej nietypowe.
Clark (1979) założyła, że definiowanie znaczenia stów wymaga uformowa­
nia zbioru cech unikalnych dla konkretnego pojęcia. Autorka zaproponowała
tzw. mechanizm nawarstwiania się cech, który tłumaczyłby to zjawisko. Na­
warstwianie się cech polega na uzupełnianiu cech pierwotnych (primitive)
cechami dodatkowymi - bardziej szczegółowymi. Te ostatnie byłyby nadbudo­
wywane (stąd pojęcie nawarstwiania) na cechach pierwotnych - bardziej
podstawowych w danej klasie obiektów. Clark zaproponowała hipotezę cechy
semantycznej (semantic feature), wyjaśniającą mechanizm nawarstwiania się
cech. Cechy te pochodzą z zestawu cech pierwotnych i są łączone w znaczenia
w taki sposób, aby było ono zgodne z przyjętym użyciem słowa oraz aby dwa
różne słowa nie miały identycznego znaczenia. W pierwszym przypadku chodzi
o utworzenie reprezentacji werbalnej zgodnej z definicją słowa, a w drugim
o rozróżnialność znaczeń słów, jeśli odpowiadają innym obiektom (tzw. zasada
kontrastu według Clark). Przykładowo, jeśli pojęcie „człowiek” zdefiniowane
byłoby jako [+ zwierzę, +dwie nogi], zasada kontrastu blokuje możliwość
umieszczenia w strukturze wiedzy np. szympansa czy strusia pod tą samą
nazwą. Aby tego uniknąć, najczęściej znaczenia słów wymagają uzupełnienia
o dodatkowe cechy.
Inni badacze skoncentrowali się z kolei na wyjaśnieniu przebiegu procesu
porównywania znaczeń słów. Smith i współpracownicy (1974) wyróżnili dwa
rodzaje cech w reprezentacji znaczenia: rdzenne (core) i charakterystyczne.
Cechy rdzenne to takie, które składają się na „tożsamość” obiektu; można
powiedzieć, że są to cechy definicyjne. Natomiast cechy charakterystyczne są
zaledwie typowe dla obiektu. Autorzy zaproponowali model dwufazowego
porównywania cech. Pierwsza, wczesna faza polega na porównaniu zarówno
cech rdzennych, jak i charakterystycznych. Jeśli obiekty są bardzo podobne albo
bardzo niepodobne, to efekt porównania jest szybki i - odpowiednio - pozy­
tywny albo negatywny. Jeśli jednak obiekty nie są ani bardzo podobne, ani
bardzo różne, porównywanie przechodzi do drugiej fazy, w której porównywane
są wyłącznie cechy rdzenne. Jeśli stwierdzone zostanie ich podobieństwo, to
150
Rozdział 4. W iedza
następuje reakcja pozytywna, która jednak wymaga więcej czasu, jest bowiem
efektem udziału obu faz. W przeciwnym razie, czyli jeśli cechy rdzenne okażą się
różne dla porównywanych obiektów, emitowana jest reakcja negatywna,
również stosunkowo powolna.
Amos Tversky (1977) w odmienny sposób wyjaśniał proces porównywania
znaczeń słów. Autor zaproponował mechanizm, który nie wymaga dodatkowego
założenia o różnych typach cech, jak u Smitha i współpracowników. Mechanizm
ten polega na porównaniu zbioru cech definiujących pojęcie zgodnie z poniższą
formalizacją:
s(fl, 6) = Of (A n JB) - a f ( A - B ) - pf (B - A ) ,
gdzie s(a, b) to podobieństwo znaczeń słów a i b; A i B - zestaw cech
reprezentujący a i 6; f(X) - funkcja wagi cechy w zbiorze; O, a i p - stałe wagi
zestawu. Podobieństwo jest tym większe, im więcej para znaczeń posiada cech
wspólnych (A n B) i im mniej dystynktywnych ( A - B \ B - A ) . Tversky stwierdził
pozytywną korelację oceny stopnia podobieństwa par znaczeń z liczbą cech
wspólnych, zakładanych w modelach reprezentacji za pomocą cech, i korelację
negatywną z liczbą cech różnicujących je. Model Tversky’ego dobrze tłumaczy
pewne psychologiczne prawidłowości relacji podobieństwa, np. brak symetryczności i przechodniości. Relacja podobieństwa jest niesymetryczna, bo z faktu, że
a jest podobne do b, nie wynika, że b jest podobne do a. Na przykład, często
dostrzegamy podobieństwo dziecka do rodzica, ale rzadziej - podobieństwo
rodzica do dziecka. W tym przypadku waga cech dystynktywnych dla rodzica
przewyższa wagę cech wspólnych i dystynktywnych dla dziecka. Na tej samej
zasadzie możemy powiedzieć, że Kazachstan jest podobny do Rosji, ale Rosja
nie jest podobna do Kazachstanu. Ponadto relacja podobieństwa jest nieprzechodnia, bo z faktu, że a jest podobne do b, zaś b jest podobne do c, nie wynika,
że a jest podobne do c. Na przykład Jaś jest podobny do Rysia (ze względu na
kształt podbródka), Ryś jest podobny do Stasia (ze względu na kolor oczu), ale
nie ma żadnego podobieństwa między Jasiem a Stasiem. Brak symetrii
i przechodniości sprawia, że relacja podobieństwa wyróżnia się spośród
większości relacji, takich jak wyższy/niższy, głupszy/mądrzejszy itd. Model
Tversky’ego dobrze też wyjaśnia zależność oceny podobieństwa od kontekstu.
Na przykład z trzech krajów: Rosja, Kazachstan i Uzbekistan, podobne wydają
się Kazachstan i Uzbekistan, natomiast wśród krajów: Rosja, Kazachstan,
Japonia, podobne wydają się Rosja i Kazachstan. W zależności od kontekstu
zmieniają się wagi cech wspólnych i dystynktywnych, przez co obiekty wydają
się mniej lub bardziej podobne. Analogiczne efekty uzyskano w odniesieniu do
materiału niewerbalnego (zob. ryc. 4.3).
Modele reprezentacji za pomocą cech mają jednak pewne ograniczenia. Po
pierwsze, przyjmują założenie o niezależności cech i definiowanych przez nie
obiektów. Jedyne relacje między obiektami, przewidywane przez te modele,
wynikają z podobieństwa cech obiektów. Powszechnie jednak wiadomo, że
wiedza ma pewną strukturę, opartą na niekiedy dość złożonych relacjach,
których nie da się sprowadzić do podobieństwa. Po drugie, właściwie do dziś
nie ma takiego modelu, który w sposób wiarygodny precyzowałby listę cech
składających się na reprezentacje werbalne. Wiadomo dość dużo o fizycznych
cechach stymulacji, podlegających integracji w procesie percepcji wzrokowej
4.2. Organizacja wiedzy
[
I
|
12%
8%
151
80%
Ryc. 4.3. Zależność oceny podobieństwa od kontekstu (za: Tversky, 1977). W zestawie pierwszym
twarze b i c są oceniane jako mniej więcej tak samo podobne do twarzy wzorcowej (u góry). W zestawie drugim te same twarze są oceniane inaczej (80% wskazań na twarz c), o czym zadecydował
kontekst - dodanie nowej twarzy q.
(zob. rozdz. 5.2.2), niewiele natomiast wiadomo w odniesieniu do pojęć
języka. Clark podjęła próbę stworzenia listy podstawowych cech pojęć języka,
jednak należy ją uznać za raczej niekompletną (por. Markman, 2002).
4.2.2. Organizacja w iedzy semantycznej
i
i
j
;
I
Termin pamięć semantyczna pochodzi podobno od Quilliana (1966; za: Najder,
1992). W postać dojrzałej koncepcji, uzupełnionej o inne rodzaje pamięci, został
jednak rozwinięty przez Endela Tulvinga (1972). Pojęcie pamięci semantycznej
w rozumieniu Tulvinga oznacza „umysłowy słownik”: zorganizowaną wiedzę
o symbolach werbalnych (głównie języka naturalnego), ich znaczeniu i odniesieniach, o relacjach między nimi oraz o regułach, formułach i algorytmach ma­
nipulacji tymi symbolami, pojęciami i relacjami. Innymi słowy, zawartość
pamięci semantycznej stanowi wiedza o znaczeniach symboli i relacjach między
nimi. Pamięć semantyczna, w przeciwieństwie do pamięci epizodycznej, to zapis
152
Rozdział 4. W iedza
wiedzy ogólnej „wyrwanej z autobiograficznego kontekstu” (por. Najder, 1992).
Poszczególne koncepcje pamięci semantycznej ograniczyły się wyłącznie do
opisu struktury wiedzy wyrażonej w języku naturalnym, pomijając wiedzę, któ­
rej symbolami nie są słowa.
W ramach teorii wiedzy semantycznej przyjmuje się, że kodowaniu pod­
lega treść pojęć języka, czyli ich struktura głęboka, a nie struktura powierz­
chniowa, czyli forma informacji werbalnej. Z kolei dekodowanie informacji
werbalnej polega na ponownym nałożeniu struktury powierzchniowej na ową
treść. Wiedza semantyczna jest zorganizowana na kilku poziomach odpowia­
dających strukturze języka. Wyróżnia się poziom pojęć, sądów oraz ich ukła­
dów. W tym podrozdziale zajmiemy się teoriami dotyczącymi głównie poziomu
sądów, w których wyrażają się relacje między pojęciami. W ich prezentacji na­
cisk położony zostanie na strukturę wiedzy. Procesami pamięciowymi, stano­
wiącymi procesualne podłoże nabywania i korzystania z wiedzy, zajmiemy się
szerzej w rozdz. 9.
Collins i Quillian (1969) zaproponowali koncepcję struktury wiedzy
semantycznej opartej na dwóch jej właściwościach: budowie sieciowej i hierarchiczności. Wiedza zawarta w pamięci semantycznej ma postać sieci, w której
węzłom odpowiadają pojęcia, a połączeniom między nimi - ich wzajemne
relacje. Sieć jest zorganizowana hierarchicznie, co oznacza, że pojęcia bardziej
ogólne znajdują się wyżej w hierarchii, przy czym odległość pojęć w sieci
związana jest ściśle z podobieństwem ich znaczenia (zob. ryc. 4.4). Pojęcia
o wyższym stopniu podobieństwa są reprezentowane przez węzły znajdujące się
blisko w sieci i związane są pewną relacją (chociaż nie zawsze bezpośrednio, jak
np. „zwierzę” i „kanarek”); pojęcia zupełnie różne od siebie będą reprezento­
wane przez odległe i niepowiązane ze sobą węzły.
Pojedyncze relacje między pojęciami mają charakter binarny, czyli łączą
tylko dwa węzły. Zdanie: „łosoś i rekin mają skrzela”, odnoszące się do trzech
węzłów sieci, można rozbić na dwa prostsze zdania: „łosoś ma skrzela” i „rekin
ma skrzela”. W podstawowej wersji model zakłada dwa rodzaje relacji między
pojęciami. Pierwszy to relacja przynależności do klasy, np. łosoś jest rybą. Tego
typu relacje obejmują pojęcia z dwóch różnych poziomów hierarchii sieci se­
mantycznej. Drugi to relacja predykatywna, czyli pełniąca funkcję orzeczenia.
Relacja predykatywna zawiera wiedzę o właściwościach obiektu, np. „łosoś jest
drapieżnikiem” albo „struś chowa głowę w piasek”. Tego typu relacje kodowane
są w sieci na tym samym poziomie ogólności, na którym w hierarchii znajduje
się dany obiekt.
W teorii sieci wiedza reprezentowana jest w sposób najprostszy, a zarazem
najbardziej ekonomiczny. Założenie o ekonomii poznania (zob. rozdz. 1.1.1)
zostało w modelu sieci semantycznej wyrażone w postaci lduczowego twier­
dzenia, że relacje predykatywne kodowane są w sieci na możliwie najwyższym
poziomie ogólności. Przykładowo, skoro każde zwierzę ujęte w przedstawionym
fragmencie sieci semantycżnej oddycha, to właściwość ta może zostać zako­
dowana jako predykat wszystkich zwierząt. Co więcej, niekiedy ekonomiczne
jest wprowadzenie do sieci pewnej niespójności. Na przykład właściwością
ptaków jest to, że potrafią latać (zob. ryc. 4.4), co jak wiemy, nie zawsze jest
prawdą, chociaż zdecydowana większość ptaków umiejętność tę posiada. Jeśli
jednak jakiś ptak nie lata, to wystarczy przypisać mu właśnie taką właściwość.
4.2. O rganizacja w iedzy
153
jest pokryty skórą
aby ztożyć ikrę
Ryc. 4.4. Fragment sieci semantycznej wg Collinsa i Quilliana (1969).
Ponieważ analizę pojęć zawartych w naszej sieci semantycznej zaczynamy od
węzła, który nas interesuje, np. pojęcia „struś”, to od razu natrafiamy na
właściwość „nie lata”. Pojęcie „kanarek” bezpośrednio nie posiada predykatu
odnoszącego się do umiejętności latania, ale ta właściwość może być wydobyta
z sieci dzięki inferencji (skoro kanarek jest ptakiem, a ptaki latają, to kanarek
również posiada tę umiejętność). Badania Collinsa i Quilliana (1969) wydawały
się potwierdzać tego typu organizację wiedzy (zob. rozdz. 8.3.1). Okazało się,
że im większa odległość w sieci pomiędzy danym pojęciem a jakimś jego
predykatem (więcej węzłów na drodze między nimi), tym dłuższy jest czas
dotarcia do tej informacji. Na przykład szybciej wydobywamy informację, że
kanarek śpiewa, niż tę, że ma pióra. Najdłużej trwa wydobycie informacji, że
kanarek oddycha. Predykcje te potwierdzono w wielu eksperymentach.
Zaprezentowany fragment sieci semantycznej umieszczony jest w większej
strukturze sieci semantycznej naszej wiedzy. Jest to możliwe przede wszystkim
dzięki predykatom. Przykładowo, właściwość „potrafi latać” posiadają nie tylko
ptaki, a również samoloty, balony, niektóre zabawki, pyłki roślin, a nawet
ludzie, tyle że w sensie metaforycznym (potocznie mówi się np. „leć do sklepu”).
Podobnie jest z wieloma innymi predykatami.
Badania Collinsa i Quilliana (1969) przyniosły wiele danych potwierdza­
jących model sieci hierarchicznej (zob. rozdz. 8). Szybko zgromadzono jednak
dane sprzeczne z tym modelem. Okazało się, że związek między czasem dostępu
do wiedzy nie jest liniową funkcją postulowanej odległości węzłów w sieci. Rips,
154
Rozdział 4. Wiedza
Shoben i Smith (1973) wykryli, że stwierdzenie, iż „kot jest zwierzęciem”, jest
szybsze niż to, że „kot jest ssakiem”. Z modelu sieci semantycznej wynikały
dokładnie przeciwne predykcje. „Zwierzę” jest pojęciem bardziej ogólnym niż
„ssak”, a więc w hierarchii wiedzy odległość pojęć „kot - ssak” jest mniejsza niż
odległość pojęć „zwierzę - ssak”. Z kolei Conrad (1972) wykryła, że stwier­
dzenie, iż „kanarek jest ptakiem”, jest szybsze niż to, że „struś jest ptakiem”.
Model sieci semantycznej nie przewidywał tego typu różnic, ponieważ hipote­
tyczna odległość pojęć „kanarek” i „struś” od pojęcia „ptak” jest w nim iden­
tyczna. Model Collinsa i Quilliana dopuszczał co prawda różnice indywidualne
dotyczące wiedzy, ale dotyczyły one jedynie jej treści, a nie samej struktury.
Innymi słowy, model dopuszczał różnice zarówno w liczbie węzłów, jak i bo­
gactwie ich predykatów, ale nie dopuszczał innej struktury niż hierarchiczna.
Pod adresem modelu Collinsa i Quilliana (1969) wysunięto więcej zastrzeżeń,
dotyczących nie tylko struktury wiedzy, ale również procesu jej wydobywania
z pamięci. W związku z tym Collins, tym razem wraz z Elisabeth Loftus (1975),
dokonali interesującej rewizji modelu.
Collins i Loftus (1975) utrzymali założenie o sieciowej strukturze wiedzy,
lecz osłabili założenie o jej hierarchicznej organizacji. Za podstawowy czynnik
decydujący o połączeniach między elementami wiedzy uznali siłę związku
skojarzeniowego, który je łączy. Dlatego bardziej typowe obiekty są szybciej
identyfikowane jako należące do określonej kategorii (np. wróbel jako ptak).
Również ze względu na większą siłę skojarzeniową połączenie „kot - zwierzę”
może być mocniejsze niż „kot - ssak”. Jeśli za podstawowy mechanizm
tworzenia struktury wiedzy uznać siłę związków skojarzeniowych, ewentualna
hierarchiczność tej struktury staje się drugorzędna. Może być ona pełna, np.
w grupie osób o dobrym wykształceniu biologicznym (nawiązując do przykładu
sieci z ryc. 4.4), albo niepełna, jeśli wiedza w danym zakresie jest cząstkowa lub
została wyabstrahowana z doświadczenia.
Collins i Loftus dokonali uszczegółowienia sposobu reprezentowania
pojedynczych elementów wiedzy, zapożyczając pewne elementy modelu opar­
tego na cechach (zob. rozdz. 4.2.1). Struktura wiedzy ma postać sieci, w której
węzłom odpowiadają pojęcia, podczas gdy ich etykiety werbalne są reprezento­
wane w postaci odrębnej struktury, zwanej wewnętrznym leksykonem.
Leksykon zorganizowany jest według fonetycznego i semantycznego podo­
bieństwa zawartych w nim nazw pojęć, które są połączone z jednym lub większą
liczbą odpowiadających tym nazwom węzłów w sieci. Z kolei węzły połączone
są z sobą relacjami o charakterze semantycznym. Im więcej połączeń między
węzłami, tym większa siła skojarzeniowa danego związku. Większa liczba po­
łączeń jest możliwa dzięki bogatszej „liście” predykatów. Większa zgodność
tych „list” w obrębie dwóch pojęć sprawia, że więcej jest między nimi połączeń,
a ponadto że sposób ich łączenia może być bardzo różnorodny. Na przykład
pojęcia „stół” i „krzesło” są silnie powiązane, być może dzięki sporej liście
wspólnych predykatów (zob. ryc. 4.5). Ich jednoczesne wzbudzenie jest możliwe
dzięki aktywacji wiedzy związanej z charakterystycznymi miejscami (jadalnia,
kawiarnia, biuro projektowe), okolicznościami (śniadanie, imieniny, sprzątanie)
itd. Collins i Loftus wzbogacili listę relacji, dzięki którym pojęcia i ich predykaty
łączą się z sobą. Główna zmiana polegała na włączeniu, obok relacji przyna­
leżności do kategorii i relacji predykatywnej, relacji „bycia przedstawicielem
4.2. Organizacja wiedzy
155
Ryc. 4.5. Hipotetyczne predykaty pojęć „stół” i „krzesło”. Znaczna ich część może być wspólna dla
obu pojęć (oprać, własne).
kategorii”, np. mebel ma za egzemplarz krzesło, ptak ma za egzemplarz kanarka.
Zauważmy, że jest to połączenie odwrotne względem relacji przynależności do
kategorii, np. krzesło jest to mebel albo kanarek jest to ptak. Zatem - według
Collinsa i Loftus - połączenia pomiędzy węzłami mogą być obustronne, ale nie­
koniecznie symetryczne: ich siła może być różna w zależności od kierunku
relacji. Mówiąc obrazowo, ważniejsze wydaje się, że kanarek należy do kategorii
ptaków, niż że ptak ma jako egzemplarz kanarka.
Struktura wiedzy, oraz oczywiście jej zawartość, nie jest zatem w modelu
Collinsa i Loftus zunifikowana, bowiem pojęcia mogą być połączone w zasadzie
dowolnie. Im pojęcie jest bogatsze semantycznie, z tym większą liczbą węzłów
może być połączone. Przykład sieci semantycznej w tym ujęciu przedstawia
ryc. 4.6.
Proces przywoływania wiedzy odbywa się dzięki mechanizmowi rozprze­
strzeniającej się aktywacji. Przywołanie jednego pojęcia powoduje, że aktywacja
rozchodzi się w sieci jednocześnie w wielu kierunkach. Kierunki rozprzestrze­
niania są wyznaczone przez strukturę połączeń w sieci: aktywacja słabnie wraz
z oddalaniem się od pojęcia wyjściowego, ale też zależy od liczby i siły połączeń
między węzłami. Jeśli dane pojęcie ma bogatą strukturę połączeń, mechanizm
rozprzestrzeniającej się aktywacji może wzbudzić wiele innych węzłów (chyba
że niektóre połączenia będą aktywnie hamowane). Jeśli struktura połączeń jest
uboga, liczba wzbudzonych węzłów będzie niewielka. Wielkość aktywacji
podlega ograniczeniom, co oznacza, że siła wzbudzenia jest odwrotnie pro­
porcjonalna do liczby wzbudzonych węzłów. W uproszczeniu: jeśli mechanizm
rozprzestrzeniającej się aktywacji wzbudzi sześć węzłów, to każdy z nich
otrzyma dwa razy mniej aktywacji, niż gdyby wzbudzone zostały tylko trzy
węzły. Z kolei siła połączeń wpływa na zakres rozchodzenia się pobudzenia.
Jeśli połączenia są słabe, pobudzenie będzie szybko zanikać wraz z oddalaniem
się od pojęcia wyjściowego.
156
Rozdział 4. W iedza
Ryc. 4.6. Fragment sieci semantycznej wg Collinsa i Loftus (1975).
Teoria rozprzestrzeniającej się aktywacji dobrze tłumaczy efekty, które były
kłopotliwe dla teorii sieci semantycznej, w szczególności fakt, że reakcja za­
przeczenia absurdalnemu twierdzeniu typu „ptak jest cegłą” trwa bardzo krótko.
Wyniki badań empirycznych z użyciem tego typu zdań okazały się „zabójcze”
dla teorii sieci hierarchicznej (zob. rozdz. 8.3.1). Początkowo zakładano, że czas
weryfikacji zdań fałszywych powinien być bardzo długi. Falsyfikacja wymaga­
łaby bowiem w tym wypadku poruszania się w hierarchii najprawdopodobniej aż
do poziomu „materii ożywionej”, gdzie odnajdujemy predykat „jest żywy”,
ewidentnie sprzeczny z właściwościami cegły.
Jednak już w momencie pierwszej publikacji teorii rozprzestrzeniającej się
aktywacji pojawiły się głosy krytyczne pod jej adresem (np. Woods, 1975).
Krytyce poddano niedoprecyzowane charakterystyki węzłów i połączeń w sie­
ciach. Woods (1975) podkreśla, że nie ma empirycznego sposobu na oddzielenie
informacji reprezentowanej w postaci węzłów i w postaci relacji. W zasadzie jest
to więc założenie nieweryfikowalne, co oznacza, że nie mamy sposobu na
stwierdzenie, czy rzeczywiście wiedza ma organizację sieciową, nawet w rozu­
mieniu „wirtualnym”. To poważny zarzut. Nie wiadomo także, jakie są cechy
dystynktywne różnego typu relacji między węzłami w sieci. Zakłada się istnienie
co najmniej kilku tego typu relacji, natomiast nie wiadomo, jaki jest swoisty dla
każdej relacji mechanizm rozprzestrzeniania się aktywacji. W szczególności nie
wiadomo, czy aktywacja rozprzestrzenia się tak samo w przypadku, gdy węzły
4.2. Organizacja w iedzy
157
łączą się na zasadzie przynależności kategorialnej (stół-mebel), jak i w przy­
padku, gdy łączy się ona na zasadzie skojarzenia (stół-krzesło). Inny zarzut
dotyczy ograniczenia zakresu wyjaśnień formułowanych odnośnie do mecha­
nizmu rozprzestrzeniającej się aktywacji. Mechanizm ten dobrze wyjaśnia
zjawiska oparte o skojarzenia, związane ze specyficzną treścią i kontekstem
używanej wiedzy. Nie wyjaśnia natomiast udziału innych operacji poznawczych,
takich jak rozumowanie dedukcyjne. Słabo radzi sobie również z wyjaśnieniem
tego, jak korzystamy z wiedzy, np. rozwiązując złożone problemy. Dopiero
połączenie sieciowych teorii organizacji wiedzy deklaratywnej i regułowych
teorii wiedzy proceduralnej pozwoliło na zwiększenie trafności modeli
organizacji wiedzy. Przykładem teorii ujmującej jednocześnie oba rodzaje
wiedzy jest teoria ACT Andersona, opisana w podrozdz. 4.2.4. Zanim
przejdziemy do jej omówienia, przedstawimy ideę systemów regułowych.
4.2.3. Organizacja w iedzy proceduralnej: system y reguł
Wiedza proceduralna jest uporządkowana i przechowywana inaczej niż
deklaratywna. W koncepcjach tego typu zakłada się, że jeśli człowiek opanował
jakąś czynność, jego wiedza jest poznawczo reprezentowana za pomocą zestawu
reguł. Reprezentacja tego typu pozwala na tworzenie procedur działania2.
W związku z tym systemy wiedzy proceduralnej noszą nazwę systemów reguł
lub systemów produkcji (production systems; Newell, Simon, 1972). Ze wzglę­
dów językowych od tej pory będziemy używać wyłącznie pierwszego terminu.
Każda reguła składa się z warunku wyznaczającego zbiór właściwości,
które muszą być spełnione, aby uruchomić daną czynność, i samej czynności,
czyli zbioru produkcji. Niektóre (rzadziej wszystkie) właściwości danej sytuacji
są najpierw zestawiane z warunkami używania różnych reguł. Jeśli przeprowa­
dzone w ten sposób „testy” wykażą satysfakcjonujący poziom odpowiedniości
dla aplikacji jednej z nich, jest ona uruchamiana. Na przykład w trakcie jazdy na
nartach sytuacja na stoku i położenie naszego ciała są zestawiane z warunkami
użycia różnych reguł korekty toru jazdy i ruchów ciała. Po ustaleniu zgodności
warunków zewnętrznych reguł, którymi dysponujemy, uruchomiona zostaje
jedna lub więcej z nich.
Reguły podlegają indeksacji, aby możliwe było ich odróżnienie ze względu
na różne zestawy warunków (Simon, Kapłan, 1989). Może się jednak zdarzyć,
że kilka reguł wykaże satysfakcjonującą zgodność warunków ich uruchomienia
(np. jednocześnie skręt w lewo, zmiana położenia tułowia i ruch kijkami). Jeśli
nie jest możliwa jednoczesna aplikacja wszystkich reguł (np. jednocześnie skręt
w lewo i w prawo), wówczas struktura kontrolna (control structure) dokonuje
wyboru jednej z nich. Obowiązuje wtedy tzw. zasada specyficzności reguł,
2 Zgodnie z rozwiązaniem terminologicznym przyjętym przez Andersona (1982), odróżniamy
procedurę od produkcji. Anderson mówi o procedurze w skali „makro”, czyli np. kierowania
samochodem, a o produkcji w skali „mikro”, czyli wszelkich składowych tej procedury (zapalanie,
ruszanie, zmiana biegów, hamowanie, włączanie kierunkowskazów itd.). Procedury mają strukturę
hierarchiczną, więc np. zmiana biegów składa się z bardziej elementarnych produkcji, z których część
jest zawsze identyczna, jak wciśnięcie sprzęgła, a część jest różna, jak ruch lewarkiem zmiany biegów,
który jest odmienny w zależności od przełożenia aktualnego i docelowego.
158
Rozdział 4. W iedza
według której prymat ma reguła bardziej wyspecjalizowana. Przykładowo,
ogólna reguła mówi, że jeśli posługujemy się dwoma sztućcami, to widelec
należy trzymać w lewej ręce. Wyjątkiem jest np. konsumpcja spaghetti, kiedy
widelec należy trzymać w ręce prawej. Dzięki wspomnianej zasadzie najpierw
sprawdzane są warunki użycia reguły opisującej odstępstwa od reguły bardziej
ogólnej.
Regułę przedstawia się najczęściej w postaci implikacji - „jeżeli (wa­
runki)..., to (działanie)...” Na przykład „jeżeli chcę napisać na komputerze literę
„A”, to muszę wcisnąć kombinację klawiszy „shift” + „a”. Ponieważ po­
czątkowo przyjmowano, że reguła ma postać algorytmu, okazywało się, że nawet
tak prostej czynności odpowiada szereg elementarnych „produkcji”. Dokład­
niejszy algorytm systemu reguł dla tego przykładu zamieszczono poniżej.
Zwróćmy uwagę, że reguły mogą być zagnieżdżone w innych, a te w kolejnych,
aż do poziomu najbardziej elementarnego. Zauważmy również, że nawet
w tak prostej czynności różne reguły połączone są systemem złożonych
zależności.
Przyjmijmy założenie, że jesteśmy w trakcie pisania jakiegoś tekstu (w przeciw­
nym razie wcześniej należałoby wykonać szereg innych procedur, np. sprawdzić,
czy włączony jest komputer i uruchomiony edytor tekstów, które są o wiele
bardziej złożone niż samo pisanie).
Jeżeli chcę napisać na komputerze literę „A”, to:
-> (1) sprawdzam, czy kursor jest na właściwym miejscu ekranu,
jeżeli „tak”, to krok (2);
jeżeli „nie”, to uruchamiam regułę „zmiany lokalizacji kursora”, a potem krok (2);
-> (2) sprawdzam, czy włączony jest „Caps Lock”
jeżeli „tak”, to krok (3);
jeżeli nie, to uruchamiam regułę wciśnięcia klawisza „Shift” (która sama w sobie jest na
tyle złożoną czynnością wykonawczą, że może posiadać osobną reprezentację
regułową), a potem krok (3);
-> (3) uruchamiam procedurę wciśnięcia klawisza „a”, a potem krok (4);
-> (4) sprawdzam, czy na ekranie pojawiła się właściwa litera
jeżeli „tak”, to kończę regułę
jeżeli „nie”, to uruchamiam regułę wciśnięcia klawisza „Backspace” i wracam do
punktu (2).
W nowszych koncepcjach (np. Chamiak, McDermott, 1985) system reguł
odwołuje się do dwóch rodzajów pamięci: proceduralnej (production memory;
bardziej dosłownie: zawierającej „produkcje”) i roboczej (working memory).
Pierwsza zawiera schematyczne reguły w postaci: „jeżeli (warunki)..., to (dzia­
łanie)...”. Druga natomiast zawiera reprezentację aktualnego stanu, np. rozwią­
zywanego problemu, oraz inicjuje określone procedury stanowiące wiedzę
proceduralną. Korzystanie z niej jest powtarzalnym cyklem selekcji reguł z pa­
mięci proceduralnej z wykorzystaniem procedury kontrolnej, sprawdzającej, czy
4.2. Organizacja wiedzy
159
warunki jej użycia odpowiadają zawartości pamięci roboczej. Jeśli zgodność
taka występuje, to reguła jest realizowana.
Przyjmuje się, że w procesie korzystania z wiedzy proceduralnej może mieć
udział specyficzny bufor pamięci. Zawiera on pewien zbiór reguł, które zostały
użyte w trakcie realizacji bieżącego zadania. Najczęściej chodzi o procedury
zastosowane już w trakcie jego wykonania. Założenie to wprowadzono, aby
wyjaśnić, w jaki sposób mało pojemna pamięć robocza, zawierająca tylko
bieżący stan i wykonywaną w danym momencie procedurę, chroni się przed
perseweracją, czyli uporczywym stosowaniem jednej procedury, mimo że nie
przyniosła ona pożądanego skutku. Jest to tzw. zasada niepowtarzalności reguł.
Dzięki pamiętaniu tych epizodów użycia różnych reguł, możliwe jest również
doskonalenie metawiedzy, dotyczącej - w tym wypadku - skuteczności procedur
(a szczególnie jej braku) w określonych warunkach.
4.2.4. Organizacja w iedzy w modelach ACT, ACT* i ACT-R
Teorię ACT3 (adaptive control of thought) zapoczątkował w latach 70. XX w.
John Anderson, który ciągle ją rozwija, tworząc kolejne wersje. Anderson
(1976) podjął próbę opracowania modelu pamięci, który byłby na tyle ogólny,
aby pozwolił na wyjaśnianie złożonych procesów poznawczych, takich jak
myślenie, posługiwanie się językiem lub podejmowanie decyzji. Model ACT
wywodził się z modelu pamięci HAM (human associative memory) Andersona
i Bowera (1973). Jednak Anderson rozwinął tę koncepcję, uwzględniając w niej
nie tylko strukturę pamięci, ale również procesy przetwarzania informacji; miał
ambicję opisania w niej całej architektury umysłu (Anderson, 1995). Model
ACT był kilkakrotnie modyfikowany, a w najnowszej wersji pozwala na two­
rzenie symulacji komputerowych (ACT* - Anderson, 1983a; ACT-R-Anderson,
1991; Anderson, Lebiere, 1998).
W swoim modelu Anderson uwzględnił podział Ryle’a (1949) na wiedzę
„że” i wiedzę „jak”. Podział ten zaaplikował w postaci rozróżnienia pamięci
deklaratywnej i proceduralnej (zob. ryc. 4.7). Podobnie jak w modelach sie­
ciowych, wiedza deklaratywna jest reprezentowana w postaci struktury węzłów
i relacji między nimi. Węzły reprezentują jednostki informacji, a relacje powiązania między jednostkami. Anderson przyjął eklektyczny model repre­
zentacji informacji: wiedza w ACT* może mieć postać sądów, ale również
obrazów, a nawet następstwa czasowego (np. kolejności zdarzeń, podobnie jak
w teorii ram Minsky’ego; zob. rozdz. 3.3.2).
Wiedza deklaratywna reprezentowana jest w postaci jednostek (chunks)
informacji: struktur o charakterze schematów, złożonych z centralnego węzła
(pointer) określającego kategorię, do której należy dana jednostka, i dodatko­
wych węzłów, reprezentujących jej właściwości. Rycina 4.8 obrazuje przykład
kodowania faktu, że „3 + 4 = 7”.
Połączenia między węzłami charakteryzują się określoną siłą związku
skojarzeniowego. Aktywacja węzła może być wywołana bezpośrednio dzięki
bodźcom pochodzącym ze środowiska, albo dzięki przywołaniu informacji z pa3 Wymawiamy: akt.
160
Rozdział 4. W iedza
Ryc. 4.7. Model związków między pamięcią deklaratywną i proceduralną a pamięcią operacyjną
w ujęciu Andersona (1983). Wiedza deklaratywna jest zapamiętywana i wydobywana za
pośrednictwem pamięci operacyjnej (roboczej). Ponowne użycie wiedzy wiąże się z jej przywołaniem
do pamięci operacyjnej. Wiedza proceduralna uruchamiana jest po stwierdzeniu dopasowania
warunków jej wywołania do sytuacji w otoczeniu. Jej stosowanie może odbywać się automatycznie,
tj. bez udziału pamięci operacyjnej.
mięci bądź pośrednio - poprzez mechanizm rozprzestrzeniającego się pobu­
dzenia. Każdemu elementowi wiedzy przypisana jest pewna wartość aktywacji
bazowej. Zależy ona od liczby jego uprzednich przywołań: elementy często
przywoływane są bardziej aktywne; utrwalają się również częściej wykorzys­
tywane połączenia między węzłami. Aktywacja jest limitowana pojemnością
pamięci roboczej i czasem: tylko niewielka część węzłów może być jednocześnie
aktywna, a ponadto ich aktywność szybko zanika wraz z upływem czasu. Akty­
wacja determinuje zakres wiedzy dostępnej bieżącemu przetwarzaniu (Ander­
son, Reder, Lebiere, 1996). Zatem o charakterze bieżącego przetwarzania de­
cyduje z jednej strony struktura wiedzy deklaratywnej, a z drugiej strony spraw­
ność mechanizmu aktywacji. Pierwszy element determinuje treść przetwarzania,
a drugi jego zakres.
Wiedza proceduralna reprezentowana jest w postaci reguł aplikowanych
w celu przetwarzania wiedzy deklaratywnej, a także w postaci informacji za­
wartych w tzw. buforach wyspecjalizowanych modułów: wzrokowego, słucho­
wego i motorycznego (Anderson, Matessa, Douglass, 1995). Anderson opisał
dość dokładnie mechanizm nabywania tej wiedzy. Zajmiemy się nim bliżej
w rozdz. 4.3.2. Istotne jest to, że proces ten przebiega, według Andersona, od
jawnych deklaracji do niejawnych procedur. W implementacji obliczeniowej
ACT-R procedury opatrzone są parametrami określającymi prawdopodobień­
stwo osiągnięcia wyznaczonego celu i czas jej wykonania. System wyposażony
4.2. Organizacja w iedzy
161
dodawanie
Ryc. 4.8. Reprezentacja jednostek informacji w ACT-R (za: Anderson, 1996, s. 356).
jest również w centralny mechanizm kontrolny, który zajmuje się aplikacją
wiedzy proceduralnej do treści zawartych w sieci semantycznej i modułach.
Przeprowadzono wiele badań poświęconych weryfikacji modelu ACT.
Skupmy się na tych, które dotyczyły problemu struktury wiedzy. Empirycznie
potwierdzono podstawowy dla modelu związek częstości użycia wiedzy z jej
późniejszą dostępnością. Częściej przywoływana informacja jest łatwiej
i szybciej dostępna, co zgadza się z hipotezą zróżnicowanej siły połączeń
w sieci semantycznej (por. Anderson, 1976). ACT wyjaśnia również zjawisko
interferencji, kiedy to jedna z konkurencyjnych informacji pozostaje niedo­
stępna. Wyjaśnienie tego zjawiska oparto na tzw. efekcie wachlarza (fan effect):
połączenia odchodzące od każdego z węzłów sieci przypominają wachlarz,
szczególnie jeśli jest ich wiele. W teorii Andersona przewiduje się, że im szerszy
jest ten wachlarz, na tym więcej połączeń rozkłada się aktywacja danego węzła.
Tym samym więcej czasu zajmie wzbudzenie odpowiedniej aktywacji innych
węzłów. Innymi słowy, czas uzyskania progowej aktywacji węzłów sąsiadują­
cych z „X” jest tym dłuższy, im większa jest liczba relacji, w jakie „X” wchodzi.
Może wówczas dochodzić do specyficznej interferencji. W warunku presji czasu
wydobyte zostają tylko najsilniej wzbudzone pojęcia, dzięki silnym asocjacjom
istniejącym w sieci (np. stół - krzesło). Inne natomiast nie uzyskają odpowied­
niego poziomu wzbudzenia. Pozostaną więc niedostępne. Interferencja w tym
przypadku polega więc na zakłócaniu przywołania pojęć bardziej odległych od
„X”, które mogą być bardziej adekwatne do zadania (np. potrzebne do
wykonania testu odległych skojarzeń). Zakłócenie to wywołane jest nadmier­
nym pobudzeniem pojęć silnie związanych z „X”.
Lewis i Anderson (1976) potwierdzili podstawowe predykcje modelu
ACT. W swoich badaniach użyli specyficznych zadań leksykalnych (zob.
tab. 4.1). W pierwszej fazie eksperymentu osobom badanym prezentowano
serię zdań, przy czym większość z nich, związana z jednym obiektem (Napo-
162
Rozdział 4. W iedza
Tab. 4.1. Zadanie leksykalne użyte w badaniach Lewis i Andersona (1976). Opis w tekście.
Wartość podana w nawiasie obok zdań użytych w drugiej fazie eksperymentu oznacza liczbę zdań,
które dotyczyły danej osoby w pierwszej fazie.
Przykłady zdań fałszywych użytych w pierwszej fazie eksperymentu:
George Washington napisał Przygody Tomka Sawy era.
Napoleon Bonapatre pochodził z Indii.
Napoleon Bonaparte był piosenkarzem.
Napoleon Bonaparte był senatorem liberałów.
Napoleon Bonaparte posiadał ranczo.
Przykłady zdań użytych w drugiej fazie eksperymentu:
Zdania prawdziwe
Fidel Castro jest Kubańczykiem. (0)
George Washington przeprawił się przez rzekę Delaware. (1)
Napoleon Bonaparte był cesarzem. (4)
Zdania fałszywe (stare)
George Washington napisał Przygody Tomka Sawyera. (1)
Napoleon Bonapatre pochodził z Indii. (4)
Zdania fałszywe nowe
Fidel Castro był politykiem z Teksasu. (0)
George Washington jest pływakiem. (1)
Napoleon Bonaparte był komikiem. (4)
leon Bonaparte), miała wzbudzać szerszy wachlarz odpowiedniego węzła
sieci. W tej fazie eksperymentu inne obiekty były wzbudzane słabiej (George
Washington) albo wcale (Fidel Castro), przy czym prezentowane zdania były
fałszywe. W fazie drugiej - testowej - prezentowano zdania prawdziwe albo
fałszywe. Zadanie osób badanych polegało na weryfikacji prawdziwości zdań.
Okazało się, że czas weryfikacji zdań związanych z danym obiektem był dłuższy
w przypadku postaci, którym przypisano więcej zdań w fazie pierwszej.
Fałszywe zdania pochodzące z tej fazy wywołały silniejszą interferencję, po­
wodując wydłużenie czasu dostępu do utrwalonej wiedzy semantycznej z zakre­
su historii.
Problemem tym zajęli się również Reder i Ross (1983). Plan ekspery­
mentalny ich badań był podobny jak u Lewisa i Andersona, z tym że w fazie
uczenia się badani otrzymywali zdania o nieznanych im postaciach. Faza
testowa mogła przyjąć dwie formy. Pierwsza polegała na rozpoznaniu, czy
dane zdanie było już wcześniej prezentowane. Uzyskane wówczas wyniki były
zgodne z efektem wachlarza: czas reakcji wzrastał wraz z liczbą zdań o danej
osobie, zaprezentowanych w fazie uczenia się. Zreplikowano więc rezultaty
uzyskane przez Lewisa i Andersona. Druga forma testu polegała na ocenie, jakie
jest - w świetle posiadanej wiedzy pochodzącej z wnioskowania ze zdań
eksponowanych w fazie uczenia się - prawdopodobieństwo trafności innych
zdań o tej osobie. Innymi słowy, dysponując pewną wiedzą o fikcyjnej osobie,
należało stwierdzić, na ile tezy zawarte w zdaniach prezentowanych w teście
wydają się zasadne. W tym warunku uzyskano efekt przeciwny: im więcej
zdań zaprezentowano o danej postaci, tym szybsza była odpowiedź w fazie
testowej.
4.3. N abywanie w iedzy
163
4.3. Nabywanie wiedzy
Podobnie jak opisane wcześniej modele organizacji wiedzy są częścią modeli
struktury pamięci, nabywanie wiedzy należy do szerszej klasy procesów zapa­
miętywania i uczenia się. W pierwszej kolejności dokonajmy zatem rozróżnienia
pojęć kodowania informacji, zapamiętywania i uczenia się oraz pojęcia na­
bywania wiedzy. Kodowanie informacji odbywa się w każdym z hipotetycznych
magazynów pamięciowych: sensorycznym (w formie reprezentacji odpowiada­
jącej specyfice informacji, np. wizualnej, akustycznej), pamięci krótkotrwałej
f i długotrwałej (zob. rozdz. 8.1). W warunkach laboratoryjnych kodowanie in­
formacji bada się zazwyczaj niezależnie od wewnętrznego kontekstu posiadanej
[ wiedzy. Badania nad kodowaniem informacji mają na celu przede wszystkim
I odpowiedź na pytanie o formę reprezentacji kodowanej informacji. Zapamięty| wanie dotyczy z kolei pamięci krótkotrwałej i długotrwałej. W tym wypadku
■ podstawowym celem badań jest z jednej strony próba odpowiedzi na pytanie
[ o organizację materiału w pamięci, a z drugiej strony - o przebieg procesów
\ pamięciowych: zapamiętywania, przechowywania i odpamiętywania informacji.
[ Zarówno w badaniach nad kodowaniem, jak i zapamiętywaniem badacze
\ koncentrują się przede wszystkim na sformułowaniu teorii na tyle ogólnych, aby
I wyjaśniały omawiane zjawiska na poziomie formalnym (forma reprezentacji:
! analogowa czy propozycjonalna należy również do formalnej charakterystyki
[ stymulacji). Analiza nabywania wiedzy ogranicza się do trwałego jej reprezent towania w pamięci długotrwałej, przy czym kluczowa wydaje się jej treść,
| a zwłaszcza organizowanie jej w większe struktury.
i
Przedstawione w rozdz. 4.2 modele organizacji wiedzy przyjmują założenie,
\ że w warstwie formalnej organizacja ta jest niezależna od treści, ale zawartość
[ systemu wiedzy semantycznej, jak i systemu reguł proceduralnych jest unikalna
l dla jednostki. Metodą nabywania wiedzy jest oczywiście proces uczenia się, ale
[ w wąskim jego rozumieniu. Specyfiką tego procesu jest odniesienie nabywanych
j treści do posiadanej już wiedzy, organizowanie jej w większe struktury oraz
: porządkowanie w postaci abstrakcyjnych zasad.
4.3.1. Nabywanie wiedzy semantycznej
i
;
|
\
[
|
[
[
[
j
I
W modelach pamięci semantycznej (Collins, Loftus, 1975; Collins, Quillian,
1969) nabywanie wiedzy polega na tworzeniu nowych węzłów oraz łączeniu
zarówno nowych, jak i istniejących węzłów za pomocą nowych połączeń.
Precyzyjniej rzecz ujmując, nowy węzeł zostaje wbudowany w strukturę sieci
poprzez powiązanie go z innymi węzłami. Aby to mogło nastąpić, niezbędne jest
utworzenie zestawu predykatów. Im jest on większy, tym - przynajmniej potencjalnie - więcej połączeń z innymi węzłami może zostać utworzonych.
Natomiast istniejące już węzły mogą zostać połączone ze sobą nowymi asocjacjami, również bez dostarczenia nowej informacji z zewnątrz. Źródłem nowych
połączeń, przewidywanych w teoriach sieciowych, jest odnalezienie wspólnych
predykatów dla co najmniej dwóch węzłów.
Inaczej wyjaśniany jest proces nabywania wiedzy semantycznej w teorii
[ ACT-R Andersona. Jednostki wiedzy (chunks) tworzone są dzięki regułom
164
Rozdział 4. W iedza
produkcji, aplikowanym do informacji pochodzącej ze środowiska, a dokładnie
jej reprezentacji w pamięci operacyjnej. Jest to bardzo interesujące ujęcie naby­
wania wiedzy, w którym wiedza proceduralna (reguły produkcji) służy budo­
waniu trwałych reprezentacji wiedzy deklaratywnej. Anderson opisał ten proces
bardzo szczegółowo, ale wyłącznie w odniesieniu do informacji wzrokowej
(Anderson, Matessa, Douglass, 1995).
4 .3.2. Nabywanie w iedzy proceduralnej
Proces nabywania wiedzy proceduralnej dokładnie opisał Anderson w swojej
teorii ACT. W tym ujęciu nabywanie wiedzy proceduralnej jest powolnym
procesem przekształcania jawnej wiedzy deklaratywnej w niejawne procedury
działania. Proces ten, nazwany przez autora proceduralizacją, zachodzi w trzech
etapach: deklaratywnym, kompilacyjnym i proceduralnym. W pierwszym etapie
jednostka otrzymuje zestaw instrukcji, które dotyczą określonej umiejętności
oraz sposobu jej nabywania. Za pomocą tzw. ogólnych procedur interpretacyj­
nych stosowanych w odniesieniu do dostarczonej wiedzy deklaratywnej, two­
rzone są procedury działania. Przykładowo, w trakcie nauki pisania dziecko
otrzymuje zestaw informacji deklaratywnych (nazwa litery, jej graficzne
składniki, wyrazy rozpoczynające się od tej litery), opatrzony zazwyczaj
omówieniem i ilustracją sposobu zapisywania konkretnej litery. Etap drugi kompilacyjny - polega na ćwiczeniu reguł dostarczonych i wygenerowanych
dzięki procedurom interpretacji. Proces ten jest wysiłkowy i podlega świadomej
kontroli. Szczegółowym mechanizmem tego procesu jest, po pierwsze, tzw.
kompozycja, polegająca na łączeniu dwóch lub więcej procedur w jedną.
Anderson uważa, że proces ten odbywa się w pamięci roboczej, powodując
początkowo znaczne jej obciążenie. Podczas doskonalenia umiejętności pisania
odrębne procedury rysowania części składowych liter (np. „owalu” i „laseczki”
w „a” pisanym, albo innej „laseczki” i poziomej kreski w „t”) łączone są
w całości - zintegrowane procedury. W trakcie dalszej praktyki te zintegrowane
już procedury stawiania pojedynczych znaków liter łączone są ze sobą w sposób
umożliwiający pisanie wyrazów bądź ich części bez odrywania pióra, co
przyspiesza pisanie i decyduje o unikalnym charakterze pisma jednostki (zob.
ryc. 4.9).
Drugi mechanizm kompilacji to automatyzacja, dzięki której skompono­
wane w większe całości procedury (tzw. makroprodukcje) w coraz mniejszym
stopniu obciążają pamięć roboczą. Jej odciążenie wiąże się z wyeliminowaniem
udziału wiedzy deklaratywnej, przywoływanej do pamięci roboczej w procesie
wykonania danej procedury. Procedura wykonywana jest bezpośrednio z po­
ziomu pamięci trwałej, w której została utrwalona.
Kompilacja prowadzi do trzech efektów: zwiększenia tempa wykonania
danej czynności, wyeliminowania pośrednictwa wiedzy deklaratywnej, a co za
tym idzie również konieczności werbalizacji oraz połączenia wielu kroków
złożonych czynności w jedną, autonomiczną procedurę.
Ostatni etap - proceduralny - jest już automatyczny i niemal bezwysiłkowy:
pisanie, kontynuując powyższy przykład, staje się czynnością autonomiczną.
4.3. N abyw anie w iedzy
t^ tb £ l£ ^
165
jł/6C iX $A ~ > *= 4/U ^
Ryc. 4.9. Pojęcie „wiedza proceduralna” napisane przez siedmiolatka (lewa strona) i każdego
z autorów niniejszego podręcznika (prawa strona). Zwróćmy uwagę na sposób łączenia liter
w pisowni: u osób dorosłych jest on naturalny i zróżnicowany indywidualnie. W przypadku
siedmiolatka zauważyć można niezakończony jeszcze proces kompozycji w odniesieniu do litery „r”
(oprać, własne).
Może być więc wykonywana bez kontroli świadomości, która - uwolniona od
tego ciężaru - może zostać w całości przydzielona generowaniu zapisywanych
treści. Pisanie nadal wymaga jednak kontroli ze strony uwagi wzrokowej, o czym
można się przekonać, próbując napisać coś z zamkniętymi oczyma. Nawet jeśli
się to świetnie uda, niezbędna jest koncentracji na samej czynności pisania.
Kontrola taka niezbędna jest w przypadku wielu innych, wydawałoby się
perfekcyjnie sproceduralizowanych czynności, takich jak chodzenie czy u wprawnych kierowców - prowadzenie samochodu.
Proceduralizacji wiedzy towarzyszą dwa istotne zjawiska. Pierwszym
jest generalizacja, czyli uogólnianie nabywanej wiedzy proceduralnej na
szerszą klasę sytuacji. Dwuletniemu dziecku chodzenie po prostej i równej
nawierzchni w znanym mu otoczeniu może nie sprawiać problemów. Jednak
na nierównym chodniku, a nawet po zmianie rodzaju podłoża (z prostej
i gładkiej domowej podłogi na niemal równie prostą, ale szorstką nawierz­
chnię alejek w parku) chodzenie staje się niebezpieczne. Jednak w trakcie na­
bywania wprawy, umiejętność chodzenia dostosowuje się do szerokiej kla­
sy sytuacji. Drugim zjawiskiem towarzyszącym proceduralizacji jest różni­
cowanie, polegające na odróżnianiu warunków uruchomienia różnych proce­
dur. Chodzi o to, aby w zmieniającej się sytuacji uruchamiać właściwe pro­
cedury, np. różnej „pracy ciała” podczas spaceru, biegania czy przeskakiwania
kałuży.
Anderson przeprowadził szereg badań, w których uzyskał potwierdzenie
swojego modelu nabywania wiedzy. Badania te dotyczyły różnorodnych zjawisk,
takich jak: abstrahowanie ukrytych reguł (Anderson, Kline, Beasley, 1979),
rozwiązywanie problemów geometrycznych (Anderson i in., 1981) i przyswa­
janie języków. Koncepcja ACT radzi sobie dobrze z wieloma zjawiskami,
wyjaśniając nawet typowe błędy pojawiające się w trakcie nabywania albo
używania wiedzy proceduralnej. Anderson podaje wiele przykładów tego typu,
jak stosowanie niewłaściwych reguł gramatycznych w trakcie nabywania
języka (np. w celu wyrażenia czasu przeszłego w języku angielskim stosowanie
przyrostka -ed do każdego czasownika) jako efekt generalizacji przy braku
różnicowania.
166
Rozdział 4. Wiedza
Proceduralizacja może wiązać się z utratą wiedzy deklaratywnej, np.
w przypadku pamiętania często wybieranego numeru telefonu4. Jego deklara­
tywne odtworzenie jest możliwe dopiero w trakcie wykonania czynności wy­
kręcenia albo wystukania numeru. Podobnie niektórym ludziom zdarza się
zapomnieć jakąś zasadę ortograficzną, więc posiłkują się napisaniem słowa,
ufając swojej wiedzy proceduralnej. Mechanizm nabywania wiedzy ujęty
w ramach ACT ma jednak co najmniej jedną poważną wadę. Nie uwzględnia
mianowicie sytuacji uczenia się bez instrukcji werbalnych, jak np. w nauce
chodzenia, które niewątpliwie ma charakter proceduralny. Dziecko ucząc się
chodzić, nie może skorzystać z instrukcji werbalnych, trudno bowiem zdeklaratywizować tę wiedzę proceduralną, a nawet gdyby było to możliwe, to dziecko
i tak nie mogłoby jeszcze zrozumieć wydawanych poleceń.
4 .3.3. Nabywanie w iedzy niejawnej
Z problemem nabywania wiedzy proceduralnej bez pośrednictwa wiedzy de­
klaratywnej lepiej radzą sobie koncepcje nabywania wiedzy niejawnej. W rozdz.
4.1.2 opisane zostały dwie grupy koncepcji, a zarazem dwie tradycje badania
tego rodzaju wiedzy. Teraz przyjrzyjmy się temu, jak w ich ramach wyjaśniany
jest proces nabywania wiedzy.
Reber (1967) uznał, że wiedza niejawna nabywana jest na drodze uczenia
się mimowolnego, rozumianego jako proces poznawczy, w wyniku którego jed­
nostka, niezależnie od świadomych intencji, nabywa wiedzy niejawnej na temat
skomplikowanej struktury środowiska. Spośród definicyjnych cech uczenia się
mimowolnego jedna dotyczy nabywania wiedzy, a mianowicie, że proces ten
odbywa się niezależnie od świadomej kontroli ze strony jednostki (Reber, 1989),
albo bez udziału wiedzy werbalnej o wszystkich nabywanych regułach (Underwood, Bright, 1996).
W poznawczym modelu wiedzy ukrytej, według Sternberga i współpra­
cowników (2000), przewidziano dwie drogi nabywania wiedzy proceduralnej
(zob. ryc. 4.10). Pierwsza podobna jest do mechanizmu proceduralizacji z teorii
ACT Andersona. Polega na transformacji otrzymanej jawnej wiedzy o proce­
durach w „milczącą” wiedzę proceduralną. W kontekście zawodowym chodzi
0 rozmaite treningi, szkolenia czy coaching, w ramach których ćwiczone są
pewne umiejętności. Wiedza ta zyskuje postać proceduralną, ale nabywana jest
w sposób jawny i nie pochodzi z osobistego doświadczenia. Druga droga polega
na niejawnym uczeniu się reguł proceduralnych. Wiedza ta ma postać niejawną
1 nabywana jest na podstawie osobistych doświadczeń. Ma też zdecydowanie
praktyczny charakter. Wiedza ta zwykle nie podlega werbalizacji i deklaratywizacji, choć jest to możliwe. Najczęściej pozostaje ukryta, często z korzyścią dla
szybkości i adekwatności jej użycia. Każda z tych dwóch ścieżek zasila w wiedzę
odpowiednie magazyny pamięciowe. Pierwsza ścieżka, obejmująca otrzymaną
wiedzę deklaratywną, wiąże się z angażowaniem pamięci semantycznej. Druga
4 W latach 80. XX w., kiedy Anderson publikował swój model, nie istniały telefony komórkowe
z pamięcią, które obecnie niemal całkowicie wyeliminowały konieczność zapamiętywania numerów
telefonów. Zapewniamy jednak, że przykład ten był wówczas trafny.
4.3. N abyw anie w iedzy
167
Ryc. 4.10. Schemat działania wiedzy ukrytej wg Sternberga (2000). Ścieżka A odpowiada nabywaniu
wiedzy w wyniku osobistego doświadczenia. Ścieżka B dotyczy nabywania wiedzy w trakcie szkoleń.
W obu przypadkach wiedza jest zapisywana w pamięci deklaratywnej (epizodycznej lub
semantycznej). Ścieżka C odpowiada nabywaniu wiedzy proceduralnej w wyniku łącznego działania
wiedzy otrzymanej i osobistego doświadczenia. Jest to najbardziej skuteczny sposób nabywania
kompetencji zawodowych.
natomiast wiąże się z kodowaniem doświadczenia w pamięci epizodycznej.
Ostatecznie na nasze zachowanie mogą mieć wpływ różne rodzaje wiedzy:
jawna wiedza semantyczna i epizodyczna oraz niejawna wiedza proceduralna.
Badania wykonane w zespołach Sternberga i Wagnera prowadzone były
głównie w kontekście wiedzy zawodowej. Przykładowo Sternberg i współpra­
cownicy (1993) poddali badaniom eksperymentalnym proces nabywania wiedzy
w grupie handlowców, dostarczając im różnych wskazówek wspomagających
nabywanie wiedzy ukrytej. Osoby badane wcielały się w rolę menedżerów HR
(zajmujących się zarządzaniem personelem). Pozostając w tej roli, na podstawie
stenogramów rozmowy kwalifikacyjnej mieli ocenić trzech kandydatów na
stanowisko handlowca. Pierwsza grupa otrzymywała wskazówki wspomagające
selektywne kodowanie informacji. Dokonano tego, wyróżniając istotne informa­
cje w stenogramie i precyzując szczegółowo reguły rekrutacji. Wskazówki prze­
kazane drugiej grupie wspomagały z kolei selektywne łączenie informacji.
Oprócz wyróżnienia istotnych elementów w stenogramie i sprecyzowania reguł
rekrutacji, badani otrzymywali specjalne arkusze oceny, pozwalające na łączenie
ze sobą istotnych informacji. Trzecia grupa otrzymywała wskazówki dotyczące
selektywnego porównywania informacji. Ponownie inform acja istotna
w stenogramie była wyróżniona, jeszcze raz sprecyzowano reguły rekrutacji,
a dodatkowo osoby badane otrzymywały oceny kandydatów dokonane przez
innych handlowców. Ponieważ zadanie oceny kandydatów było wykonywane
pomiędzy pretestem i posttestem wiedzy ukrytej dotyczącej sprzedaży, w bada­
niach dodatkowo udział wzięły dwie grupy kontrolne. Pierwsza wykonywała
dwukrotnie test wiedzy ukrytej bez zadania rekrutacyjnego („czysty” wpływ
powtórzonego pomiaru); druga natomiast wykonywała zadanie rekrutacyjne, ale
bez jakichkolwiek wskazówek. Okazało się, że wykonanie zadania rekrutacyj­
168
Rozdział 4. W iedza
nego, nawet bez wskazówek, wpłynęło pozytywnie na przyrost wiedzy ukrytej:
we wszystkich grupach był on większy niż w pierwszej grupie kontrolnej. Wska­
zówki dotyczące selektywnego kodowania i selektywnego łączenia najsilniej
wpływały na przyrost wiedzy ukrytej. Nie stwierdzono natomiast istotnego wpły­
wu wskazówek dotyczących selektywnego porównywania. Wyniki te są istotne
nie tylko w perspektywie nabywania wiedzy ukrytej, ale również tzw. inteligencji
praktycznej. Wydaje się, że korzystanie z „podpowiedzi” innych osób (czyli ocen
innych menedżerów HR) nie prowadzi do przyrostu wiedzy ukrytej najprawdo­
podobniej dlatego, iż nie wymaga głębokiego przetworzenia dostarczonych
informacji. Pozostałe dwa rodzaje podpowiedzi, czyli jak selekcjonować i łączyć
informacje, nie są gotowymi rozwiązaniami, ale - przy głębokim przetwarzaniu nie dość, że skutecznie pomagają osiągnąć cel (trafny wybór kandydata), to
dodatkowo wspomagają nabywanie wiedzy niejawnej.
4.4. Wiedza ekspercka
4.4.1. Kryteria i w łaściw ości w iedzy eksperckiej
Tym, co wyróżnia wiedzę ekspercką, jest rzecz jasna jej zakres w pewnej dome­
nie: ekspert posiada bardzo obszerną wiedzę, ale jest ona ograniczona do pewnej
dziedziny. Arystoteles, autor dobrze znanego psychologom traktatu O duszy,
zajmował się również medycyną, etyką, polityką, fizyką, matematyką i wieloma
innymi dziedzinami wiedzy. W wielu z tych dziedzin niewątpliwie był eksper­
tem. Dziś, ze względu na gwałtowny przyrost szczegółowej wiedzy, trudno
byłoby być ekspertem w całym obszarze choćby tylko jednej z tych dziedzin.
Współcześni eksperci są wąsko wyspecjalizowani, a mimo to rzadko wnoszą do
dorobku ludzkości cokolwiek, co mogłoby się równać z dokonaniami Arys­
totelesa. Nie tylko zatem zakres wiedzy decyduje o poziomie ekspertywności,
jeśli uznać ekspertów również za innowatorów w swojej domenie. Obszerna
wiedza może być nawet przeszkodą, np. w rozwiązywaniu problemów nie­
typowych lub nowych. Na przykład Einstein twierdził, że brak formalnego
wykształcenia w zakresie fizyki ułatwił mu sformułowanie ogólnej teorii względ­
ności. Co zatem wyróżnia ekspertów? Chi, Glaser i Farr (1988) wyróżnili sie­
dem charakterystyk ekspertywności (expertise):
1. eksperci są najlepsi w swojej dziedzinie;
2. eksperci dostrzegają wzorce czy struktury charakterystyczne dla problemów
specyficznych dla ich dziedziny;
3. eksperci są szybsi niż nowicjusze w zastosowaniu umiejętności (skills) z ich
dziedziny, szybciej rozwiązują problemy, popełniając przy tym mniej błędów;
4. eksperci wykazują ponadprzeciętną sprawność pamięci krótko- i długotrwałej;
5. eksperci postrzegają i reprezentują problem z ich domeny na głębszym poziomie
niż nowicjusze, którzy reprezentują problem na poziomie cech powierzchnio­
wych;
6. eksperci poświęcają więcej czasu niż nowicjusze jakościowej analizie problemu;
7. eksperci cechują się zdolnością refleksji nad własnymi działaniami (self-monitoring).
4.4. W iedza ekspercka
169
Z powyższych charakterystyk wiedzy dotyczą bezpośrednio punkty 2. i 4.
Dostrzeganie wzorców czy struktur w otoczeniu (np. problemie) nie jest moż­
liwe bez głębokiej i obszernej wiedzy w danej dziedzinie. Wymaga jednak
dodatkowego procesu zestawiania owych przechowywanych wzorców z sytuacją
w otoczeniu. Z kolei pamięć jest „miejscem” przechowywania wiedzy, chociaż
znajdują się w niej również informacje, których do wiedzy nie zaliczamy (np.
efekty warunkowania i poprzedzania). Inne charakterystyki wiedzy eksperta
dotyczą przede wszystkim sposobów reprezentowania i rozwiązywania prob­
lemów: poziomu reprezentacji problemu, jego analizy, efektywności poszuki­
wania rozwiązań i monitoringu tego procesu. Współcześnie częściowo pod­
ważono niektóre z przedstawionych charakterystyk wiedzy eksperta (por. Ro­
bertson, 2001), jednak nie na tyle, aby choćby jedną odrzucić. W tym miejscu
zajmiemy się tym, co - poza zakresem - charakteryzuje i wyróżnia wiedzę
eksperta.
Pierwszą właściwością wyróżniającą wiedzę eksperta jest jej organizacja.
Wiedza eksperta jest uporządkowana na wielu poziomach: od poziomu
elementarnych składników wiedzy po jej wyabstrahowane struktury wyższego
rzędu (np. Adelson, 1984). Struktura takiej wiedzy jest hierarchiczna w danej
domenie (np. Chan, 1997), co daje ekspertowi znaczącą przewagę nad nowicju­
szami, szczególnie wówczas, gdy jej ścisłe uporządkowanie jest trudne bądź
arbitralne. Zeitz (1997) twierdzi, że dominującym poziomem reprezentacji wie­
dzy ekspertów jest umiarkowanie abstrakcyjna reprezentacja pojęciowa (moderately abstract conceptual representation). Autor twierdzi, że zbyt abstrakcyjna
reprezentacja wiedzy powodowałaby jej nikłą praktyczną użyteczność, bowiem
ogólne reguły rzadko są możliwe do użycia bez ich dopasowania do konkretnej
sytuacji. Na przykład mało praktyczna byłaby znajomość wzorów matematycz­
nych bez wiedzy o warunkach ich zastosowania. Z kolei wiedza zbyt konkretna
(np. o setkach przypadków rozwiązania jakiegoś problemu dywergencyjnego)
byłaby mało ekonomiczna i słabo podatna na transfer. Wyższy niż konkret­
ny poziom organizacji wiedzy pozwala na znaczną elastyczność działania.
Koedinger i Anderson (1990) wykazali, że eksperci w rozwiązywaniu prob­
lemów w zakresie geometrii nie posługują się konkretnym algorytmem, ale
bardziej abstrakcyjnym planem (heurystyką) działania. Dzięki temu mogą np.
pominąć pewne etapy przewidziane w algorytmie. Uporządkowanie wiedzy na
różnych poziomach abstrakcji pozwala na niezwykle szybki dostęp do niej. Jeśli
zadanie tego wymaga, eksperci operują na poziomie detali, a innym razem - na
poziomie ogólnych zasad i reguł działania. Elastyczny i szybki dostęp do wiedzy
niewątpliwie wspomaga rozwiązywanie zarówno rutynowych, jak i nowych
problemów.
Jest jeszcze jedna zaleta „upakowania” wiedzy na różnych poziomach
ogólności. Przywołanie i przetwarzanie zbyt wielu elementów wiedzy wiązałoby
się niewątpliwie z przeciążeniem mało pojemnej pamięci roboczej. W takiej
sytuacji użycie informacji w bardziej abstrakcyjnej formie (na wyższym pozio­
mie organizacji) pozwala te ograniczenia ominąć. Dlatego eksperci wykonują
szybko i sprawnie zadania, które laikom wydają się niewykonalne, np. w ciągu
kilku sekund zapamiętują układ wielu figur na szachownicy. Badania nad
ekspertami szachowymi należą już do klasyki psychologii. Zapoczątkowali je
Chase i Simon (1973a, 1973b), badając organizację wiedzy w pamięci ekspertów
170
Rozdział 4. W iedza
i laików. Obu grupom prezentowano układ figur na szachownicy. Układ ten był
albo zupełnie losowy, albo pochodził z rzeczywistej rozgrywki. Okazało się, że
w pierwszym warunku poziom odpamiętania zaprezentowanego układu nie
różnił się istotnie w obu grupach. Eksperci i laicy odtwarzali poprawnie nie
więcej niż kilka pozycji układu. Jednak w drugim warunku poziom odpamię­
tania układu na szachownicy znacznie się różnił w obu grupach: eksperci
odtwarzali prawidłowo więcej pozycji figur niż laicy. W badaniach DeGroota
(1965) okazało się, że różnice w tego rodzaju zadaniu występują również
między mistrzami i „zwykłymi” ekspertami szachowymi. Ci pierwsi poprawnie
rekonstruowali układ figur na szachownicy w 91%, podczas gdy „zwykli”
eksperci osiągnęli 41% poprawności.
Wyniki te wskazują na dwie istotne właściwości funkcjonowania poznaw­
czego ekspertów. Po pierwsze, łatwość odtwarzania sensownych układów figur
na szachownicy wskazuje na większą, ale też gotową do elastycznego wy­
korzystania wiedzę ekspertów. Chase i Simon tłumaczyli przewagę ekspertów
w tym warunku pamiętaniem układów pochodzących z wielu partii szachowych.
Wiedza ta pozwalała im na kodowanie prezentowanych układów, bądź ich
części, jako zintegrowanych całości. W przypadku układów losowych wiedza ta
była jednak bezużyteczna. Po drugie, brak różnic między ekspertami i laikami
w tym właśnie warunku wskazuje na brak szczególnych predyspozycji pamięci
roboczej, których można było spodziewać się wśród ekspertów. Ich pamięć
wydaje się funkcjonować podobnie jak u laików, a przewaga w jej wykorzys­
taniu wynika z innej organizacji informacji kodowanej i przechowywanej w WM.
Gobet i Simon (1996a, 1996b, 1996c), korzystając m.in. z powyższej
metody, poddali serii badań mistrzów szachowych. Stwierdzili (Gobet, Simon,
1996a), że mistrzowie mogą odtworzyć do dziewięciu partii z 70-procentową
poprawnością (ok. 160 pozycji figur). Niewątpliwie wyniku tego nie można
wyjaśnić, odwołując się wyłącznie do mechanizmów pamięci roboczej. Autorzy
zasugerowali, że eksperci korzystają w swojej dziedzinie z szablonów zawartych
w pamięci długotrwałej, które pozwalają na kodowanie i przechowywanie in­
formacji. Ericsson i Kintsch (1995) zaproponowali nawet szerszą koncepcję tzw.
długotrwałej pamięci roboczej (long-term working memory) powiązanej z efek­
tywnością pamięci i poziomem ekspertywności (zob. rozdz. 8.2.5). Według
autorów eksperci przechowują napływające informacje związane z ich domeną
raczej w pamięci długotrwałej niż krótkotrwałej. Mechanizm tego zjawiska
opiera się na powiązaniu napływającej informacji z zestawem wskazówek wy­
dobycia, które wspólnie tworzą tzw. strukturę wydobycia (retrieval structure).
Aktywacja wskazówek wydobycia powoduje przynajmniej częściowe odtwo­
rzenie oryginalnych warunków kodowania. W ten sposób obszerny materiał
może zostać wydobyty, jednak jest to możliwe wtedy, gdy osoba posiada wiedzę
ekspercką w zakresie kodowanego materiału i materiał ten jest jej dobrze znany.
Wydaje się zatem, że pamięć ekspertów funkcjonuje najzupełniej przeciętnie
poza ich domeną, mimo to w obrębie ich specjalizacji wykazuje ponadprzeciętną
sprawność (Chi, Glaser, Farr, 1988). Jej źródła nie tkwią jednak w formalnych
mechanizmach funkcjonowania systemów pamięci, lecz w efektywności ich
wykorzystania wynikającej z zakresu i organizacji wiedzy eksperckiej.
Drugim czynnikiem wyróżniającym wiedzę ekspercką jest stopień jej
proceduralizacji. Czynnik ten jest oczywisty u ekspertów takich jak mechanicy
4.4. Wiedza ekspercka
171
samochodowi, którzy muszą wiedzieć, gdzie posłuchać, aby usłyszeć, i gdzie
posmarować, aby auto pojechało. Ich wiedza ma głównie proceduralny cha­
rakter, jednak z jej nabywaniem, jak go rozumie Anderson w ACT, nie ma utraty
dostępu do wiedzy deklaratywnej. Dzięki temu rośnie sprawność wykonania
procedur przy utrzymaniu zdolności ich werbalizacji (niezbędne w rozmowie
z klientem warsztatu, jak również w przekazywaniu wiedzy młodszym kole­
gom). Proceduralizacja charakteryzuje również inne rodzaje wiedzy eksperckiej,
np. filozoficznej. Dowodzenie twierdzeń, retoryka, selektywne i krytyczne
czytanie tekstów innych autorów i pisanie własnych - to czynności umysłowe
w dużej mierze sprowadzające się do posiadania i sprawnej realizacji złożonych
procedur. Pisząc o procedurach, mamy na myśli wiedzę nabytą dwoma spo­
sobami: dzięki proceduralizacji w rozumieniu Andersona i z doświadczenia
w rozumieniu Sternberga. W pierwszym przypadku wiedza ta wywodzi się
z wiedzy deklaratywnej, a jej nabywanie wymaga stopniowego przekształcania
jednej wiedzy w drugą. Droga druga nie wymaga gromadzenia wiedzy de­
klaratywnej, a już na pewno nie jest ona konieczna do nabywania procedur.
Trzecim czynnikiem charakterystycznym dla wiedzy eksperckiej są sche­
maty rozwiązywania problemów specyficznych dla danej dziedziny wiedzy.
Przyjmuje się, że schematy zawierają abstrakcyjną wiedzę pozbawioną kon­
tekstu, w którym została ona pozyskana (por. Roberts, 2001). Dzięki temu
schematy stosunkowo łatwo podlegają transferowi pomiędzy różnymi kontek­
stami. Z kolei Leake (1998) twierdzi, że schematy to gotowe sposoby rozu­
mowania opartego na przypadkach (case-based reasoning). Ich stosowanie
wymaga zgromadzenia wiedzy dotyczącej skutecznych rozwiązań konkretnych
problemów wraz z heurystykami, które do nich prowadzą (por. Anderson,
1982). Wiedza ta jest zestawiana z właściwościami bieżącego problemu, a po
stwierdzeniu ich dopasowania do któregoś z posiadanych schematów, schemat
ten jest aplikowany. Jeszcze węższe rozumienie schematów proponują Cheng
i Holyoak (1995), twierdząc, że eksperci stosują tzw. pragmatyczne schematy
wnioskowania. Są one ograniczone do konkretnych typów problemów, dlatego
też z trudem poddają się generalizacji. Ich zaletą jest szybkość aplikacji
w konkretnej sytuacji, nie wymagają bowiem opracowania strategii działania
na podstawie abstrakcyjnych reguł. Zamiast tego stosowany jest konkretny
przepis, wcześniej wielokrotnie sprawdzony.
Dobrze znany efekt eksperta, polegający na większej sztywności ekspertów
w rozwiązywaniu nierutynowych problemów, wskazywałby jednak na bardziej
konkretny poziom reprezentacji schematów. Gdyby były one abstrakcyjne, eks­
pert musiałby każdorazowo odnieść dany schemat do kontekstu i wypracować
konkretny sposób jego aplikacji. W tej sytuacji eksperci byliby zawsze bardziej
efektywni i elastyczni niż laicy. Ci ostatni, nie posiadając abstrakcyjnych sche­
matów, mogliby ewentualnie korzystać z wiedzy ogólnej (co oznacza niską efek­
tywność) albo z konkretnych przyldadów z danej dziedziny (co wiąże się z niską
elastycznością). Jednak tak nie jest, bowiem eksperci popełniają niekiedy nawet
więcej błędów w swojej domenie niż nowicjusze (Frensch, Sternberg, 1989;
Reason, 1990). Frensch i Sternberg uważają, że źródłem tego efektu jest zjawisko
automatyzacji. Automatyzacja prowadzi do uwolnienia zasobów systemu
poznawczego. Wiedza zostaje „skompilowana” i - jak w modelu ACT Andersona
(1987) - przestaje być dostępna świadomości. Rozpoznanie problemu jako
172
Rozdział 4. W iedza
rutynowego powoduje uruchomienie skompilowanych schematów działania reali­
zowanych przy braku kontroli. Jeśli jednak rozpoznanie to jest błędne, tj. kiedy
problem różni się od rutynowego, działanie eksperta nie będzie do niego dopa­
sowane. To z kolei może prowadzić do błędów albo usztywnienia się w próbach
bezskutecznego stosowania niedopasowanych schematów. Dopiero redefinicja
problemu jako nowego powoduje podjęcie prób wytworzenia nowego schematu.
Z kolei w problemach rutynowych eksperci wykazują większą niż no­
wicjusze elastyczność (np. Feltovitch i in., 1984; zob. ramka 4.1). Polega ona na
zdecydowanie lepszym niż u nowicjuszy dopasowaniu danych sytuacyjnych do
posiadanych schematów poznawczych. Oznacza to zwykle bardziej trafną kate­
goryzację problemów, a co za tym idzie zastosowanie odpowiednich strategii ich
rozwiązywania. Zauważmy, że w przypadku problemów nierutynowych ten sam
mechanizm może wyjaśniać omawiany powyżej efekt eksperta. Nieprawidłowa
kategoryzacja problemu prowadzi do zastosowania niewłaściwej strategii.
Ekspert, dysponując wielkim bogactwem sposobów kategoryzacji, może
wielokrotnie wpadać w pułapkę „rutyny”. Będzie wówczas próbował wciąż
innych, ale zawsze nieskutecznych sposobów działania, zanim dostrzeże - jeśli
w ogóle to się stanie - że problem nie jest jednak rutynowy, zatem wymaga
myślenia twórczego, a nie odtwórczego. Chi, Glaser i Rees (1982) twierdzą, że
elastyczność w rozwiązywaniu problemów, które są rutynowe, wynika z większej
liczby bardziej wyspecjalizowanych schematów poznawczych (czyli wiedzy
proceduralnej), którymi dysponują eksperci.
Ramka 4.1
Elastyczność wiedzy ekspertów
Współczesne badania nad ekspertami koncentrują się nie tylko na szachistach.
Eksperywność bada się w wielu różnych domenach, np. w medycynie (Feltovitch
i in., 1984; Lesgold i in., 1988), fizyce (Chi, Feltovitch, Glaser, 1981), informatyce
(McKeithen i in., 1981).
Feltovitch i współpracownicy (1984) przedstawili lekarzom - ekspertom i no­
wicjuszom - problem diagnostyczny w postaci listy symptomów. Symptomy zostały
tak dobrane, że łatwo mogły prowadzić do błędnej diagnozy. Nowicjusze częściej
niż eksperci stawiali wówczas błędną diagnozę. Ponadto w większym stopniu
opierali się na otrzymanej liście, nie uwzględniając dodatkowego źródła informacji wywiadu z pacjentem. Eksperci, dostrzegając możliwość błędnej diagnozy, opartej
na symptomach, poszukiwali dodatkowych informacji, które pozwoliłyby im kolejno
odrzucać alternatywne hipotezy. Autorzy (zob. też Feltovitch, Spiro, Couson, 1997)
wyjaśniają te rezultaty lepszą organizacją i większa elastycznością wiedzy
ekspertów w porównaniu z wiedzą laików. Elastyczność wynika w tym wypadku
z większego bogactwa i zróżnicowania schematów poznawczych (por. Chi, Glaser,
Rees, 1982) stosowanych w odniesieniu do diagnozy medycznej. Dzięki nim
możliwe jest precyzyjne rozróżnianie chorób na podstawie większej liczby wska­
zówek branych pod uwagę w podejmowaniu decyzji. Eksperci medyczni wykazują
również szczególną wrażliwość na dane, które nie pasują do schematu, co wydaje
się wskazywać raczej na przyjmowanie strategii falsyfikacji niż konfirmacji hipotez
(zob. rozdz. 10.6.2).
4.4. W iedza ekspercka
173
Podobne wnioski płyną z badań Lesgolda (Lesgold i in., 1988), w których udział
I wzięli eksperci w zakresie radiologii. Zaprezentowano im zdjęcia rentgenowskie
pacjenta, któremu przed dziesięciu laty usunięto fragment płuca. W efekcie przesuI nięciu uległy inne organy wewnętrzne. Początkowo eksperci postawili hipotezę „zaj paści płuca”, odnajdując na zdjęciu zarówno informacje zgodne z nią, jak i sprzeczne.
J Następnie przyjęli hipotezę „usunięcia fragmentu płuca”, którą testowali tak jak
| hipotezę pierwszą. Na podstawie szczegółowej analizy protokołów werbalnych auto-) rzy sformułowali model opisujący przebieg procesu formułowania diagnozy w grupie
| badanych przez nich ekspertów. Początkową jego fazą byłoby budowanie umysłowej
t reprezentacji sytuacji. Każdemu z możliwych wariantów diagnozy odpowiada
I specyficzny „pretest”, który musi być pozytywny, aby dalej szczegółowo analizować
daną możliwość. W języku teorii modeli mentalnych (zob. rozdz. 10.7.2) można by
| powiedzieć, że dla każdego wariantu diagnozy budowany jest odrębny model
umysłowy. Ponieważ tylko jeden z nich może być właściwy, w dalszych fazach poi szukuje się informacji zgodnych i niezgodnych z każdym z nich. Różnym wariantom,
które przejdą fazę „pretestu”, opowiadają schematy diagnozy, które wymagają
i sprawdzenia większej bądź mniejszej liczby hipotez. Są one stosowane aż do mo­
mentu, kiedy wszystkie alternatywne warianty, poza jednym, zostaną odrzucone.
Wydaje się zatem, że wiedza ekspertów różni się od wiedzy laików nie tylko
„ilościowo” (np. większy zakres wiedzy, wyższy stopień proceduralizacji), lecz
również „jakościowo” (np. inna organizacja wiedzy, wyspecjalizowanie schema­
tów poznawczych). Jakościowo odmienne są również sposoby korzystania z tej
wiedzy, zapewniające wysoką skuteczność przy zachowaniu elastyczności roz­
wiązywania problemów w dziedzinie specjalizacji (np. przyjmowanie strategii
falsyfikacji, a nie konfirmacji hipotez, zob. rozdz. 10.6.2).
4.4.2. Nabywanie w iedzy eksperckiej
Interesujące wyjaśnienie mechanizmu nabywania wiedzy eksperckiej zapropono­
wał Glaser (1996). Jego model obejmuje trzy stadia nabywania wiedzy eksperc­
kiej: etap wsparcia zewnętrznego (external support), etap przejściowy (trans­
itional) i etap samoregulacji (self-regulatory). W pierwszym etapie nowicjusz
otrzymuje wsparcie od osób posiadających obszerną wiedzę, którymi mogą być
rodzice, nauczyciele czy mistrz. Oni pomagają w uporządkowaniu wiedzy o oto­
czeniu (czy domenie), w ten sposób wspomagając jej nabywanie. Zbudowane
tą metodą „rusztowanie” (scaffolding) jest w etapie przejściowym stopniowo
wypełniane treścią. Początkujący ekspert rozwija umiejętności monitorowania
i regulacji własnych czynności oraz identyfikuje kryteria coraz wyższego poziomu
wykonywania zadań w danej dziedzinie. W ostatnim etapie ekspert zyskuje pełną
kontrolę nad procesem nabywania wiedzy i wykonywaniem różnych zadań
w obrębie danej domeny. Nie wyklucza to jednak dalszego udziału innych osób
albo korzystania z różnych źródeł informacji, jeśli ekspert zidentyfikuje luki lub
uproszczenia w posiadanej wiedzy i umiejętnościach. Jednak istotą ekspertywności jest samoregulacja w zakresie korzystania z wiedzy i umiejętności oraz
dalszego ich doskonalenia.
174
Rozdział 4. W iedza
Inny model nabywania wiedzy eksperckiej zaproponowali Schaumacher
i Czerwiński (1992). Model ten odnosi się do budowania reprezentacji złożonych
systemów, jak systemy komputerowe. Autorzy również ujmują nabywanie
ekspertywności jako proces składający się z trzech faz. Pierwsza - przedteoretyczna (pretheoretical) - angażuje wydobywanie przykładów z pamięci opartych
na powierzchniowym podobieństwie cech danej sytuacji i tych przywołań. Dzięki
skorelowaniu cech powierzchniowych i głębokich, możliwe staje się odkrycie
związków przyczynowych obowiązujących w systemie. Na tym polega druga doświadczeniowa (experiental) - faza nabywania wiedzy eksperckiej. W tej fazie
pojawiają się abstrakcyjne reprezentacje wiedzy, pochodzące z doświadczenia
dotyczącego wielu przykładów. W ostatniej - eksperckiej (expert) - fazie możliwe
jest dokonywanie abstrakcji na jeszcze wyższym poziomie. Chodzi o wiedzę
pochodzącą z różnych systemów. Dopiero na tym poziomie można mówić
o możliwości transferu wiedzy, np. na działanie nowego systemu, bowiem wy­
abstrahowane reguły powinny obowiązywać w każdym z nich.
4.5. Podsumowanie
Nie może być sensownej teorii umysłu ludzkiego bez dobrze opracowanej teorii
wiedzy. Wiedza to sama istota naszego poznawczego wyposażenia. Bez niej nie­
możliwe jest zrozumienie czegokolwiek, a zmaganie się ze skomplikowanymi
problemami byłoby bardzo utrudnione, jeśli w ogóle możliwe. Wiele zadań poz­
nawczych wymaga po prostu konkretnej wiedzy. W badaniach nad uwagą (zob.
rozdz. 5) lub kontrolą poznawczą (zob. rozdz. 6) podkreśla się, że czynności
poznawcze są limitowane zasobami, czyli możliwościami przetwarzania informa­
cji, pojemnością pamięci roboczej i innymi „wąskimi gardłami” systemu poznaw­
czego. To wszystko prawda, ale podkreślając rolę i znaczenie rozmaicie rozu­
mianych i definiowanych zasobów poznawczych, nie powinno się ignorować faktu,
że czynności poznawcze mogą być „limitowane danymi”. Jeśli ktoś nie wie, jakim
słowem określa się brata matki w języku fińskim, może zaangażować dowolnie
dużo zasobów poznawczych, a i tak nie znajdzie odpowiedniego wyrazu. Z tego
punktu widzenia wiedza jest bardzo szczególnym zasobem poznawczym, zdolnym
do zastąpienia tych zasobów, które w danym momencie mogą być wyczerpane.
Psychologiczne badania nad nabywaniem wiedzy i korzystaniem z niej
napotykają istotną trudność, jaką jest jej treść. Psycholog może tworzyć ogólne
koncepcje wiedzy tylko wtedy, gdy zajmuje się stroną formalną, np. organizacją
wiedzy lub jej rodzajami, ale nie jest w stanie stworzyć ogólnej teorii tego, jaka
jest treść badanej przez niego wiedzy. Inaczej mówiąc, psychologiczne kon­
cepcje wiedzy są zdolne do formułowania tez na temat tego, JAK ludzie coś
wiedzą, ale nie bardzo sobie radzą z kwestią, CO ludzie wiedzą. Każdy z nas wie
o świecie co innego, dlatego koncepcje odwołujące się do treści wiedzy nie­
uchronnie zmieniają swój charakter z nomotetycznych na idiograficzne. A to dla
psychologa zorientowanego na prowadzenie badań eksperymentalnych jest
zmianą trudną do zaakceptowania. Przyszłe koncepcje i badania nad wiedzą
będą musiały w jakiś sposób zlikwidować napięcie między formą i treścią tego,
co każdy z nas wie o świecie i samym sobie.
Rozdział
Uwaga i świadomość
Istota i aspekty uwagi
Teorie uwagi
178
Uwaga, percepcja i (nie)świadomość
Analiza wskazówek peryferycznych
186
Teorie selekcji źródła informacji
187
Teorie przeszukiwania pola percepcyj
nego 195
Teorie przedłużonej koncentracji
Teorie podzielności
Teorie przerzutności
209
217
200
Reakcje na informacje odrzucane
Poprzedzanie podprogowe
Podsumowanie
228
225
221
223
224
Uwaga to system odpowiedzialny za selekcję informacji i zapobieganie ne­
gatywnym skutkom przeładowania systemu poznawczego przez nadmiar
danych.
Świadomość to zdawanie sobie przez podmiot sprawy z treści własnych pro­
cesów psychicznych, np. z tego, co jest przedmiotem spostrzegania, myślenia
lub doznań emocjonalnych.
Według Williama Jamesa (1890, s. 403-404), „każdy wie, czym jest uwaga: jest
to posiadanie przez umysł w jasnej i żywej postaci jednego z wielu jednocześnie
ujmowanych przedmiotów lub ciągów myśli”. W tej pięknej, introspekcyjnej
definicji zawierają się trzy prawdy. Po pierwsze, istotą i sensem działania uwagi
jest selekcja, czyli wybór jednego obiektu percepcji, jednego źródła stymulacji
lub jednego tematu myślenia spośród wielu możliwych opcji. Po drugie, selekcja
realizowana przez uwagę dotyczy w równym stopniu spostrzegania, jak też
„wyższych” procesów poznawczych, przede wszystkim myślenia. Dzięki selekcji
na wejściu sensorycznym możemy skupić się na jednym bodźcu lub źródle
stymulacji kosztem innych, a dzięki selekcji w odniesieniu do „wyższych” pięter
przetwarzania informacji możemy kontrolować przebieg procesów intelektual­
nych. Po trzecie, uwaga ściśle wiąże się ze świadomością, czyli ze zdawaniem
sobie sprawy z tego, co spostrzegamy lub o czym myślimy. Dziś wiemy, że
świadomość nie jest tożsama z uwagą, ale zawsze stanowi wynik jej działania.
Na peryferiach uwagi znajdują się czasem bodźce, z których zdajemy sobie
sprawę słabo lub w ogóle, ale jeśli coś jest przedmiotem świadomego doznania,
musiało być wcześniej poddane skutecznej i bardzo surowej selekcji ze strony
uwagi.
5.1. Istota i aspekty uwagi
Istnienie uwagi wynika z ograniczonych możliwości przetwarzania informacji
przez umysł ludzki (Duncan, Humphreys, 1989). Efektywne funkcjonowanie
systemu poznawczego jest możliwe w zasadzie tylko wtedy, gdy w tym samym
czasie analizujemy jedynie niewielkie ilości informacji (Lehrl, Fischer, 1988).
Jeśli skuteczne przetwarzanie informacji jest tak surowo limitowane, konieczne
wydaje się istnienie jakiegoś mechanizmu pozwalającego na wybór informacji
istotnych dla dalszego przetwarzania. Mechanizm taki umożliwia koncentro­
wanie się na pewnych sygnałach czy też zadaniach oraz odrzucanie bodźców
nieistotnych lub zakłócających. Istnienie takiego mechanizmu wydaje się
niezbędne również ze względu na konieczność przystosowania się organizmów
żywych do wymagań środowiska (Broadbent, 1958). Aby zwiększyć swoją
szansę przetrwania w trudnych warunkach środowiska, organizm musi wyłowić
wśród szumu informacyjnego bodźce, które sygnalizują coś ważnego, np.
zagrożenie lub szansę zdobycia pożywienia. Ten hipotetyczny mechanizm,
będący odpowiedzią ewolucji naturalnej na ograniczone możliwości przetwa­
rzania informacji, został nazwany uwagą (James, 1890). Funkcją stanowiącą
o jego istocie jest selektywność. Zgodnie z definicją Johnstona i Dark (1986)
5.1. Isto ta i asp ek ty uw agi
179
termin „selektywność” odnosi się do zróżnicowanego przetwarzania informacji
pochodzących z wielu różnych źródeł.
Selektywność uwagi dokonuje się w różnych warunkach zadania. To zróż­
nicowanie pozwala wyróżnić kilka podstawowych aspektów funkcjonowania
uwagi. Pierwszy z nich (Broadbent, 1957) dotyczy problemu selekcji źródła
informacji: kiedy, gdzie i w jaki sposób odbywa się proces wyboru bodźców
ważnych (sygnały) ze względu na przyjętą zasadę selekcji, przy jednoczesnym
odrzuceniu informacji nieważnych (szum) i zakłócających (dystraktory). Wybór
źródła stymulacji dokonuje się np. wtedy, gdy osoba pogrążona w lekturze
ignoruje toczącą się w tym samym pomieszczeniu rozmowę, a zwłaszcza tzw. tło
dźwiękowe (odgłosy ruchu ulicznego, bzyczenie owadów itp.). Tę formę
selektywności badano początkowo wyłącznie w odniesieniu do uwagi słucho­
wej, prezentując osobie badanej do dwojga uszu dwa niepowiązane komunikaty
(Broadbent, 1957; Cherry, 1953; Deutsch, Deutsch, 1963; Treisman, 1960).
Osoba ta musi skupić się na jednym z tych komunikatów, ignorując drugi.
Można wówczas obserwować, czy badany słyszy cokolwiek w tzw. kanale
ignorowanym (paradygmat 5.1). Później pojawiły się analogiczne badania w od­
niesieniu do uwagi wzrokowej, w których to eksperymentach uczestnikom
wyświetlano jednocześnie dwa różne filmy, np. mecz koszykówki i sceny z życia
rodzinnego (Mack, Rock, 1998; Mack i in., 1992; Rock i in., 1992). Użycie takiej
procedury pozwala sprawdzić, który z dwóch konkurencyjnych filmów osoba
badana rzeczywiście zobaczy, a przede wszystkim - czy dotrze do niej cokolwiek
z filmu z konieczności zignorowanego. Przeprowadzono też badania, w których
niepowiązane komunikaty prezentowano uczestnikom do różnych modalności
zmysłowych, np. wzrokowo i słuchowo (Allport, 1980a; Allport, Antonis, Rey­
nolds, 1972; Bernstein, 1970; McLeod, 1977). Wyniki tych badań zostaną omó­
wione w związku z prezentacją teorii filtra (bramki) i teorii modułów. Selekcję
źródła informacji często uznawano za podstawowe, a nawet wyłączne zadanie
uwagi selektywnej (Allport, 1992). Wydaje się jednak, że i w przypadku po­
zostałych aspektów uwagi jej głównym zadaniem jest selektywność, choć nie
w zakresie wyboru źródła stymulacji, lecz w odniesieniu do innych czynności
poznawczych.
Paradygmat 5.1
Dychotyczna prezentacja bodźców i metoda podążania
: Czy uczestnicząc w gwarnym przyjęciu możemy skoncentrować się na rozmowie
z jednym z naszych przyjaciół? Jeśli możemy, to czy odbywa się to kosztem cał; kowitego „wyłączenia” słów, wypowiadanych przez innych uczestników przyjęcia,
nawet jeśli mówią wystarczająco głośno i nie są od nas bardzo oddaleni? Dlaczego,
gdy ktoś w innej niż prowadzona przez nas rozmowie wymieni nasze imię,
\ natychmiast tracimy wątek konwersacji i automatycznie „przełączamy się” na to, co
I; się dzieje w rozmowie dotąd ignorowanej? Cherry (1953) przeniósł sytuację komuJ nikacyjną z gwarnego przyjęcia wprost do laboratorium w stopniu, w jakim było to
i technicznie wykonalne. Interesujący go problem ograniczeń w selektywności in: formacji nazwał, zgodnie z inspirującymi go obserwacjami, problemem przyjęcia
l towarzyskiego (cocktail party problem). Osoba badana w zaprojektowanych przez
180
Rozdział 5. Uwaga i świadom ość
niego eksperymentach odbierała dwa różne przekazy jednocześnie - po jednym
do każdego ucha - z zadaniem skupienia się na jednym z nich, przy jednoczesnym
całkowitym ignorowaniu drugiego komunikatu. Następnie proszono uczestnika
eksperymentu o zanotowanie treści przekazu, na którym miał się skupić. Pytano
także o treści, które pojawiły się w komunikacie ignorowanym. Cherry wykazał,
iż badani nie mieli większych problemów z wiernym odtworzeniem ważnego
komunikatu, ale nie mogli odpowiedzieć na jakiekolwiek pytania o treść drugiego
; przekazu. Nie byli też w stanie zidentyfikować języka (angielski bądź francuski),
l w którym przekaz ignorowany był formułowany. Zgodnie z przyjętą konwencją
J językową, zjawisko to nazwano efektem przyjęcia towarzyskiego (cocktail
i party phenomenon). W przeciwieństwie do semantycznych, treściowych aspektów
| komunikatu ignorowanego, które nie były w ogóle dopuszczane do dalszego
przetwarzania, pewne fizyczne parametry tego przekazu, jak np. zmiana brzmienia
j (tonu) wymowy, czy też zmiana płci spikera, były przez osoby badane rejestrowane.
Cherry’ego uważa się za twórcę paradygmatu dychotycznej prezentacji
bodźców - techniki eksperymentalnej polegającej na jednoczesnym prezentowa| niu dwóch różnych komunikatów akustycznych osobno do każdego ucha.
1 Broadbent (1954), a później Moray (1959) i Treisman (1960) rozwinęli i zmodyfikowali tę technikę, prosząc badanych nie o zapamiętywanie „oficjalnego” przekazu,
ale o jego wierne powtarzanie. Osoba badana miała podążać za jednym z komunikatów jak cień, stąd nazwa tej techniki - podążanie (shadowing). Ta zmiana
| w procedurze zapewnia lepszą kontrolę zachowania uczestników badania. Można
i dzięki niej jednoznacznie stwierdzić, czy badany rzeczywiście podąża „jak cień” za
wskazanym przekazem, czy też próbuje dzielić swoją uwagę między dwa
; jednoczesne komunikaty. Każde odstępstwo od reguły dosłownego powtarzania
(np. chwilowe zamilknięcie, zająknięcie, wtręty ze strony komunikatu ignorowa­
nego) świadczy o próbie dzielenia uwagi na dwa wykluczające się przekazy.
Paradygmat podążania stosowano także w badaniach uwagi podzielnej (Allport,
Antonis, Reynolds, 1972; Ninjo, Kahneman,, 1974) z instrukcją jednoczesnego
śledzenia dwóch jednakowo ważnych komunikatów.
Drugim ważnym aspektem -uwagi selektywnej jest jej zdolność do prze­
szukiwania pola percepcyjnego. Na przykład na wydruku komputerowym należy
zaznaczyć markerem wszystkie słowa zaczynające się na literę „m” (zasada se­
lekcji), pozostawiając nietknięte inne słowa (szum), zwłaszcza te, które
zaczynają się na podobnie wyglądającą literę „n” (dystraktory). Zdaniem nie­
których badaczy (Cave, Wolfe, 1990; Treisman, 1988, 1993; Treisman, Gelade,
1980), przeszukiwanie pola percepcyjnego dokonuje się zgodnie z mechanizmem
automatycznego kodowania cech i selektywnej integracji właściwości poszuki­
wanego obiektu w postać, będącą sumą czy też złożeniem tych charakterystyk.
Tę formę selektywności badano wyłącznie w odniesieniu do uwagi wizualnej
(paradygmat 5.2), a prowadzone eksperymenty miały na celu przede wszystkim
wskazanie tzw. cech priorytetowych, automatycznie przyciągających uwagę
w polu wzrokowym. Wśród charakterystyk tego typu wyróżniono np. ruch
obiektów w polu wzrokowym (Driver, Baylis, 1989; Driver, McLeod, 1992;
McLeod, Driver, Crisp, 1988; McLeod i in., 1991) czy wyróżniający się kolor
5.1. Isto ta i asp ek ty uw agi
181
(D’Zamura, 1991; Kyllingsbek, Bundesen, 2001; Treisman, Viera, Hayes, 1992).
Łatwiej nam znaleźć wśród nieruchomych obiektów coś, co się rusza, podobnie
jak łatwo zauważyć obiekt czerwony wśród samych białych. Wyniki tych ba­
dań zostaną dokładniej omówione przy okazji prezentacji teorii integracji cech
w obiekt.
Paradygmat 5.2
Badanie przeszukiwania pola wzrokowego
J
[
|
i
I
\
I
f
j
Í
i
;
:
Í
|
i
j
i Dlaczego mimo bałaganu na stole pewne obiekty odnajdujemy łatwo (wręcz narzucają się nam swoim wyglądem), a innych nie potrafimy zauważyć nawet w wyniku
długich poszukiwań (jesteśmy na nie „ślepi uwagowo”)? Treisman i Gelade (1980)
postanowiły zbadać proces przeszukiwania pola wzrokowego. W ich eksperymencie badani poszukiwali obiektów zdefiniowanych przez pojedynczą cechę (np.
kolor: „znajdź zieloną figurę”) lub przez koniunkcję cech (np. kolor i położenie:
„znajdź zieloną figurę zorientowaną poziomo”). Pierwszy typ przeszukiwania pola
percepcyjnego nazwano prostym, zaś drugi - koniunkcyjnym.
Treisman i Gelade wykazały, że przeszukiwanie koniunkcyjne trwa dłużej niż
przeszukiwanie proste, a ponadto jest zależne od liczby elementów przeszukiwanego zestawu. Przeszukiwanie koniunkcyjne ma więc charakter procesu szerego­
wego, podczas gdy przeszukiwanie proste dokonuje się raczej równolegle,
ponieważ czas reakcji w przeszukiwaniu prostym nie zależy od liczby elementów
w polu percepcyjnym. W paradygmacie przeszukiwania pola wzrokowego cechy
definiujące poszukiwane obiekty mają postać właściwości sensorycznych,
Próbując ustalić, które z właściwości obiektów mają charakter cech priorytetowych,
| przetwarzanych jako pierwsze w kolejności, badano poszukiwanie koniunkcyjne
z udziałem m.in. takich cech, jak: ruch (McLeod, Driver, 1993), kolor (D’Zamura,
1991), głębia (Julesz, Bergen, 1983), czy położenie przestrzenne (Treisman, 1988).
Stwierdzono, że podczas gdy ruch jest właściwością priorytetową niezależnie od
jego fizycznej charakterystyki (szybkość, kierunek), to statyczne położenie
przestrzenne (np. horyzontalne, wertykalne) taką właściwością nie jest. Ustalono
również, że kolor i głębia mogą być warunkowo cechami priorytetowymi, jeśli są
wystarczająco wyraziste percepcyjnie (visual salience, inaczej: dystynktywne, np.
rudy kolor włosów).
Manipulowano także liczbą cech w poszukiwanej koniunkcji (Cave, Wolfe,
1990), ich wyrazistością (Yantis, Hillstrom, 1994), a także liczbą cech wspólnych dla
sygnałów i dystraktorów (Duncan, Humphreys, 1989). Okazało się, że poszukiwa­
nie obiektu stanowiącego koniunkcję licznych właściwości niepriorytetowych może
również być równoległe i szybkie, a bardzo wyrazista cecha niepriorytetowa może
w większym stopniu przyciągać uwagę niż cecha priorytetowa (np. dystraktor
o dystynktywnym kolorze powoduje spowolnienie procesu detekcji ruchomego
sygnału). Stwierdzono też, że im bardziej podobne do siebie są bodźce zakłócające
i celowe, tym dłużej trwa proces detekcji poszukiwanego sygnału i tym większe jest
w takim przypadku prawdopodobieństwo szeregowości mechanizmów selekcji
; informacji.
Początkowo w badaniach prowadzonych w tym paradygmacie osobom bada­
nym prezentowano jednocześnie cały dostępny zbiór obiektów do selekcji. Obec-
182
Rozdział 5. Uwaga i świadom ość
nie prowadzi się badania, w których sygnał lub dystraktor pojawia się w polu
percepcyjnym nagle, podczas gdy pozostałe bodźce (tło) są już wcześniej
całkowicie dostępne (Yantis, Jonides, 1988). Tło może być jednak prezentowane
na peryferiach uwagi selektywnej, co oznacza, że mimo obiektywnej dostępności
bodźce te są trudno zauważalne (Theeuwes, Kramer, Atchley, 1999).
Trzecim, ostatnio nieco zapomnianym, aspektem selektywnej uwagi jest
przedłużona koncentracja na określonym typie obiektów (Mackworth, 1948,
1950). Dzięki tej cesze uwagi możliwe jest monitorowanie otoczenia przez
dłuższy czas w poszukiwaniu bodźców określonego typu (paradygmat 5.3). Na
przykład żołnierz na warcie przez kilka godzin „natęża uwagę”, aby wykryć
wszelkie sygnały niebezpieczeństwa, a jednocześnie nie podnieść fałszywego
alarmu w odpowiedzi na zagrożenie pozorne. Czujność uwagi (Davies, Parasuraman, 1982), bo tak też bywa określany ten aspekt uwagi, podlega wielu
ograniczeniom, zazwyczaj związanym z postępującym w czasie wyczerpaniem
czy niskim poziomem aktywacji systemu poznawczego (Davies, Parasuraman
1982). Efekt spadku czujności uwagi w czasie był przedmiotem wielu badań
(Davies, Parasuraman, 1982; Parasuraman, Davies, 1976; Thackray, Jones,
Touchstone, 1973), których wyniki zostaną przedstawione podczas prezen­
tacji teorii detekcji sygnałów i teorii czujności uwagi. Nie ulega jednak
wątpliwości, iż przedłużona w czasie koncentracja uwagi-jest formą selektyw­
ności, dla której ograniczeniem jest tym razem nie nadmierna ilość informacji
do przetworzenia, a nieuchronny spadek energii w wyniku wydłużonego czasu
wykonania zadania.
Paradygmat 5.3
Badanie przedłużonej koncentracji uwagi
Jak długo operator radaru jest w stanie koncentrować się na monitorze? Czy
częstość pojawiania się symboli samolotów na monitorze radaru ma wpływ na
koncentrację uwagi obserwatorów? Mackworth (1948, 1950) badała czasowe
ograniczenia możliwości optymalnej obsługi urządzeń radarowych przez operato­
rów wojskowych. Jedno z opracowanych przez nią zadań laboratoryjnych było
symulacją zadań, jakie operatorzy radarów wykonują w codziennej pracy. Zadanie
to, znane jako test zegara, polega na percepcyjnej kontroli dużej tarczy zegaro­
wej. Wskazówka przemieszcza się rotacyjnie na tle okrągłej tarczy zgodnie
z normalnym kierunkiem ruchu wskazówek zegara, w tempie jednego przemie­
szczenia na sekundę, w sposób nieciągły, tzn. pojawia się, znika, po czym pojawia
się w kolejnym miejscu itd. Sygnałem, który powinien zostać rozpoznany przez
obserwatora, jest pojawiający się od czasu do czasu „podwójny” krok wskazówki,
trwający 2 sekundy. Sygnał jest prezentowany w nieregularnych odstępach
czasowych, niezwykle rzadko, z reguły 12 razy na każde 30 minut. Poziom wy­
konania zadania ocenia się na podstawie analizy liczby prawidłowych rozpoznań
w trakcie ciągłego, dwugodzinnego okresu kontroli tarczy zegara przez osobę
badaną (żadnych przerw ani odpoczynku).
5.1. Isto ta i asp ek ty uwagi
183
Test ten okazał się wzorcowym narzędziem do badania przedłużonej koncen­
tracji uwagi. Na jego podstawie skonstruowano inne narzędzia do badania prze­
dłużonej koncentracji, zwane testami ciągłego wykonania (continuous performan­
ce tests, CPT). Zadania tego typu charakteryzują się: (1) długim czasem trwania
(nawet do 2-3 godzin); (2) niskim prawdopodobieństwem pojawienia się sygnału
(od 0,03 do 0,10); (3) wykorzystaniem stosunkowo płytkiej zasady selekcji
informacji w trakcie analizy bodźców (zasada podobieństwa sensorycznego lub
co najwyżej płytka identyfikacja semantyczna). Osobie badanej można np.
pokazywać serię cyfr z poleceniem zareagowania zawsze na cyfrę 9 (lub
jakąkolwiek inną). Analiza wyników tego typu badań sprowadza się do osza­
cowania liczby poprawnych reakcji i liczby błędów w kolejnych blokach analizy, np.
10-minutowych (Parasuraman, Davies, 1976). W zadaniach tego rodzaju zwykle
obserwuje się prawie bezbłędne wykonanie przez dłuższy czas. Dopiero po upływie
ok. 45 minut badani zaczynają popełniać błędy. W przypadku braku spodziewa­
nego efektu spadku poprawności wykonania w funkcji czasu, analizuje się czas
detekcji poszczególnych bodźców (Jerrison, 1959). Czas ten zaczyna się w pewnym
momencie wydłużać, co nawet przy braku spadku dokładności pozwala wykryć
negatywny wpływ wydłużonego okresu koncentracji na sprawność uwagi.
Podzielność uwagi, a więc możliwość jej koncentracji na dwóch lub więk­
szej liczbie źródeł informacji, jest czwartym ważnym aspektem uwagi (pa­
radygmat 5.4). Człowiek jest zdolny do jednoczesnego wykonywania kilku
czynności, np. czytania gazety i słuchania radia. Potrafi też słuchać, np. wykładu
i jednocześnie notować lub przygotowywać pytanie, które za chwilę postawi
wykładowcy. Zjawisko podzielności uwagi nakazuje postawić pytanie o wyma­
gania, stawiane mechanizmom uwagi selektywnej w związku z koniecznością
dzielenia jej na konkurencyjne zadania, a przez to równoległego kontrolowania
więcej niż jednego procesu przetwarzania danych (Kahneman, 1973). Pod­
stawowym problemem badawczym w zakresie podzielności uwagi jest pytanie
o to, czy uwaga może w pewnych warunkach funkcjonować jako zestaw
niezależnych modułów selekcyjnych (Allport, 1980; Allport, Antonis, Reynolds,
1972; McLeod, 1977). Jeśli by tak było, równoległa kontrola kilku procesów nie
musi spowodować zakłócenia któregokolwiek z nich. Jeśli natomiast podziel­
ność uwagi oznacza dzielenie pewnej ograniczonej puli „mocy obliczeniowej”
na więcej niż jedno zadanie, równoległa kontrola kilku procesów musi
spowodować zakłócenie przynajmniej jednego z nich (Kahneman, 1973, 1975;
Ninjo, Kahneman, 1974). Wyniki badań częściowo rozstrzygających ten
problem zostaną przedstawione przy okazji prezentacji teorii modułów i teorii
zasobów uwagi.
Paradygmat 5.4
Badanie podzielności uwagi i kontroli czynności jednoczesnych
Czy możemy jednocześnie słuchać interesującego wykładu i rozmawiać z koleżan­
ką ze szkolnej ławki? Na ile pogorszy się wykonanie każdej z tych czynności
w porównaniu do warunków, w których będziemy je wykonywać pojedynczo? Ba-
184
Rozdział 5. Uwaga i świadomość
dania w paradygmacie zadań jednoczesnych były początkowo prowadzone
| w zmodyfikowanym paradygmacie podążania (zob. paradygmat 5.1). Jego mo; dyfikacja polegała na tym, że zadaniem uczestników badania było jednoczesne
J podążanie za dwoma przekazami, prezentowanymi badanym do dwóch różnych
J kanałów sensorycznych. Na przykład w badaniu Ninio i Kahnemana (1974) polei cono osobom badanym śledzić nazwy zwierząt pojawiające się w obu równoleg­
li łych przekazach. Mówiąc krótko - modyfikacja paradygmatu podążania polegała na
f zastąpieniu kanału ignorowanego drugim, równoległym kanałem ważnym.
Hunt i Lansman (1982) zaproponowali inną procedurę testowania efektyw­
ności dwóch jednocześnie wykonywanych czynności. Zgodnie z ich schematem,
zwanym „od łatwego do trudnego”, badani wykonują zadanie priorytetowe o wzrasi tającym poziomie trudności. W badaniach Hunta i Lansman były to matryce
■sprogresywne testu inteligencji Ravena. Dodatkowo uczestnicy badania przez cały
czas rozwiązywania zadania priorytetowego wykonują zadanie doładowujące;
w badaniach Hunta i Lansman była to kontrola położenia dźwigni. Wzrost trudności
zadania priorytetowego powoduje konieczność inwestowania coraz to nowych,
dodatkowych zasobów, których ilość może się wyczerpać, zwłaszcza gdy część
z nich musi zostać przeznaczona na wykonywanie zadania doładowującego. Przy
założeniu, że badani wykonują oba zadania z zaangażowaniem tej samej,
ograniczonej puli zasobów, można wyznaczyć w zadaniu priorytetowym taki punkt
trudności, powyżej którego rozwiązywanie tego zadania okaże się niemożliwe.
Miarą podzielności uwagi jest wówczas ów „punkt załamania” na skali trudności
zadania priorytetowego. Im wyżej jest on położony, tym większa jest podzielność.
Jako miarę podzielności uwagi można też traktować różnicę między pozio­
mem wykonania zadania priorytetowego w warunku wymuszonej podzielności
a poziomem wykonania tego samego zadania wtedy, gdy ma ono monopol na
zasoby poznawcze, tzn. jest wykonywane bez konieczności równoległej kontroli
dodatkowego zadania (Nęcka, 1994, 2000). Interesujące, że prowadząc badania
w paradygmacie „od łatwego do trudnego”, Lansman, Poltrock i Hunt (1983)
ustalili, iż poziom wykonania zadania priorytetowego w warunku pojedynczym jest
pozytywnie skorelowany (r = 0,50 do 0,60) z poziomem wykonania tego zadania
przez tych samych badanych w warunku podwójnym. Korelacja ta dotyczy
wprawdzie tylko osób badanych o wyższym poziomie inteligencji, ale analiz dla
badanych o obniżonym poziomie inteligencji nie przedstawiono. Pozytywny - istot­
ny i silny - związek między, traktowanymi jako odrębne, aspektami: selektywności
i podzielności uwagi przemawia na korzyść tezy o jednorodnym charakterze uwagi
(Nęcka, 1995; Szymura, Nęcka, 2004).
Ostatnim z ważniejszych aspektów uwagi jest jej przerzutność (Jersild,
1927). Terminem tym oznacza się zdolność uwagi do przełączania się między
dwoma zadaniami, „obsługiwanymi” przez niezależne procesy przetwarzania
informacji. Życie codzienne, podobnie jak czynności zawodowe, wymaga nie­
ustannego przerzucania uwagi z jednego obiektu na inny. Zajęci jesteśmy np.
pisaniem, ale musimy odebrać telefon, aby za chwilę znów wrócić do przerwanej
czynności. Przerzucanie uwagi oznacza konieczność zahamowania jednego
procesu poznawczego i uruchomienia procesu alternatywnego. Wiąże się to
5.1. Isto ta i asp ek ty uw agi
185
zwykle z kosztami poznawczymi, np. ze zwiększoną ilością czasu, potrzebnego
na wykonanie zadania, albo ze zwiększonym ryzykiem popełnienia błędu. Ba­
dania nad przerzutnością uwagi (paradygmat 5.5) zmierzają głównie do
ustalenia wielkości tych kosztów i sposobów ich redukcji (Allport, Wylie,
2000; Meiran, 2000; Meiran, Chover, Sapir, 2000; Spector, Biedermann, 1976).
Wyniki tych badań zostaną przedstawione podczas prezentacji teorii przerzutności, zwłaszcza teorii rekonfiguracji (Rogers, Monsell, 1995).
| Paradygmat 5.5
Badanie przerzutności uwagi
Nie każda zmiana rodzaju aktywności oznacza pogorszenie sprawności działania.
I Na przykład przedzielenie wysiłku umysłowego ćwiczeniami fizycznymi ułatwia
f ponowne skupienie się na problemie. Również zmiana jednej aktywności umysło­
wej na inną nie musi oznaczać chwilowej utraty sprawności, jeśli podobieństwo
między dwoma rodzajami aktywności jest znikome. Jeśli natomiast mamy
przetwarzać ciągle ten sam zestaw danych, ale według zmieniających się reguł,
pogorszenie wykonania jest niemal pewne. Owo pogorszenie nazywamy poznaw8 czymi kosztami przełączania się między zadaniami.
Badania w paradygm acie przełączania się m iędzy zadaniam i (task
switching) zapoczątkował Jersild (1927). Prezentował on osobom badanym długie
I kolumny dwucyfrowych liczb. Zadanie polegało na wykonywaniu operacji
matematycznych: dodawaniu liczby 6 lub odejmowaniu liczby 3 od każdego
| kolejno prezentowanego elementu kolumny. Jersild porównywał czas potrzebny do
wykonania dwóch wersji zadania. W jednej wersji trzeba było naprzemiennie
I dodawać 6 lub odejmować 3; była to wersja mieszana, wymagająca przerzutności
I uwagi. W drugiej wersji trzeba było wykonywać tylko jeden rodzaj przekształcenia,
czyli albo dodawać 6, albo odejmować 3 - dopóty, dopóki nie skończy się cała
| kolumna liczb; była to zatem wersja jednorodna, wymagająca koncentracji uwagi
na jednym zadaniu. W badaniach prowadzonych według tego paradygmatu stwier1 dza się zwykle występowanie różnic, jeśli chodzi o czas potrzebny do wykonania
każdej wersji zadania. Dłuższy czas, konieczny do ukończenia wersji mieszanej,
i odzwierciedla koszty związane z koniecznością przełączania uwagi między za­
daniami (u Jersilda - dodawanie lub odejmowanie). Odejmując dwie wartości czasu
wykonania zadania otrzymujemy oszacowanie wielkości tego kosztu. Można go też
oszacować, porównując wskaźniki poprawności wykonania w obu wersjach. Jeśli
zadanie nie będzie ogólnie zbyt łatwe (efekt podłogowy), wersja mieszana
i przyniesie więcej błędów niż wersja jednorodna. Odejmując wskaźniki poprawności
wykonania, możemy oszacować koszt przełączania uwagi między zadaniami.
Zdarza się, że badani dokonują wymiany kosztów czasowych na poprawnościowe
; lub odwrotnie. Możemy więc nie zaobserwować różnic w czasie, potrzebnym na
wykonanie obu wersji, ale ujawnią się różnice w zakresie liczby błędów, albo
8 odwrotnie. Możliwe jest też oczywiście zaobserwowanie kosztów przełączania za­
równo w odniesieniu do czasu wykonania, jak też ogólnej liczby błędów.
Dalsze badania prowadzone w tym paradygmacie wykazały, że wielkość
kosztów może zależeć od obecności wskazówek dotyczących tego, które warunki
zadania będą obowiązywać w następnej próbie (Spector, Biedermann, 1976). Na
186
Rozdział 5. Uwaga i świadomość
przykład informacja o tym, że za chwilę trzeba będzje odejmować lub dodawać,
zdecydowanie zwiększa efektywność przełączania uwagi między zadaniami.
Wydaje się, że informacja na temat rodzaju kolejnego zadania uruchamia nasta­
wienie, umożliwiające przygotowanie się do jego wykonania. Koszty przełączania
można też zmniejszyć, wydłużając przerwę między kolejnymi elementami
mieszanej wersji zadania (Allport, Styles, Hiesh, 1994). Im dłuższa przerwa, tym
mniejsze prawdopodobieństwo błędu i wydłużenia czasu reagowania. Badania
sugerują, że obecność wskazówek na temat następnej próby oraz wydłużenie
czasu między próbami działają niezależnie, co oznacza, że wykorzystują różne
mechanizmy poznawcze, odpowiedzialne za przerzutność uwagi.
Dodajmy, że dwa używane w tym kontekście terminy mają odmienne zna­
czenie. Uwaga przerzuca się z jednego obiektu na inny, zaś człowiek przełącza się
z jednego zadania na inne. Przerzutność (shifting) jest więc konstruktem teore­
tycznym, odnoszącym się do hipotetycznego sposobu funkcjonowania mecha­
nizmu uwagi, podczas gdy przełączanie się między zadaniami (task switching) to
termin obserwacyjny, odnoszący się do sposobu zachowania osoby badanej
w określonych warunkach eksperymentalnych lub po prostu człowieka w zmienia­
jących się warunkach otoczenia.
Na zakończenie tego podrozdziału warto podkreślić, że wszystkie wymie­
nione aspekty uwagi, a w konsekwencji wszystkie niżej omówione teorie tego
zjawiska, dotyczą w istocie tego samego zagadnienia. Jest to problem ograni­
czonej zdolności systemu poznawczego do przetwarzania dużej ilości informacji
w tym samym czasie. W związku z tym ograniczeniem system poznawczy
dokonuje pewnych istotnych decyzji, np. znacząco redukuje ilość informacji
dopuszczonych do dalszego przetwarzania (selekcja źródła), albo ucieka się do
prób pogodzenia sprzecznych wymagań (podzielność, przerzutność). System
może też nie podejmować żadnych znaczących decyzji, ale wykazuje obniżenie
sprawności w związku z nadmierną liczbą mało wyróżniających się bodźców
(przeszukiwanie poła percepcyjnego) albo z wydłużonym okresem czujności
(przedłużona koncentracja). Mimo wieloaspektowości uwagi i rozmaitości za­
dań, w których realizacji system ten bierze udział, mamy tu do czynienia
w gruncie rzeczy z tą samą funkcją poznawczą - z selektywnością (Driver, 2001).
Większość przejawów tejże selektywności polega na redukcji nadmiaru bodźców
(selekcja źródła, przeszukiwanie pola, przedłużona koncentracja), ale niektóre
polegają na kontroli nadmiaru możliwych reakcji (podzielność, przerzutność).
Uwaga ujawnia się więc jako mechanizm o niezwylde zróżnicowanym zakresie
funkcji, a mimo to jednolity (Nęcka, 1995; Szymura, Nęcka, 2004).
5.2. Teorie uwagi
Pięć opisanych powyżej aspektów uwagi odpowiada pięciu funkcjom, jakie pełni
ten mechanizm w ogólnej strukturze umysłu. Natomiast zarysowane w tym
rozdziale teorie opisują poznawczy mechanizm odpowiedzialny za pełnienie
tych funkcji. Wiemy już, co uwaga robi, teraz opiszemy, jak to robi.
5.2. Teorie uwagi
187
5.2.1. Teorie selekcji źródła informacji
j
;
i
i?
t
>
J
Historycznie najwcześniejsza jest koncepcja filtra uwagi. Istnieje wiele wersji
tej koncepcji, a ich wspólną cechą jest założenie, że informacja wędrując od
organów zmysłowych do świadomości napotyka na swej drodze mechaniczną
przeszkodę, czyli filtr, zwany również bramką. Filtr ten skutecznie blokuje
znaczną część docierającej do organizmu stymulacji sensorycznej, podczas
gdy innym informacjom umożliwia dostęp do kolejnych etapów przetwarzania. Odbywa się to na zasadzie czasowego zablokowania wszystkich źródeł
informacji z wyjątkiem jednego; uwaga redukuje więc nadmiar informacji
na wejściu sensorycznym poprzez selekcję źródła informacji. Całość stymulacji,
pochodząca ze wszystkich aktywnych źródeł, oczekuje na przejście przez
filtr jak gdyby w poczekalni. Jeśli jednak coś nie zostanie zaakceptowane
przez filtr, ulega szybkiej degradacji. Szybkość zanikania zależy m.in. od modalności zmysłowej (wzrok, słuch itd.), ale zazwyczaj „poczekalnia” jest
czynna nie dłużej niż od kilku do kilkunastu sekund (Sperling, 1960, 1963).
Informacja zatrzymana „w poczekalni” nie może być przetworzona głębiej niż
na poziomie sensorycznym. Być może właśnie dlatego informacja ta szybko
zanika, ponieważ danych nie przetworzonych na głębszym poziomie analizy
nie można dłużej przechowywać w pamięci. Natomiast przejście przez filtr
oznacza, że informacja zostaje dopuszczona do dalszego przetwarzania już na
głębszym poziomie (np. semantycznym), co może doprowadzić do jej ujaw­
nienia się w postaci świadomego doznania. Założenie o istnieniu filtra uwagi
jest wspólne dla wszystkich odmian tej koncepcji, różnice polegają natomiast
na postulowaniu odmiennych zasad funkcjonowania mechanizmu filtrującego
informacje.
Autorem pierwszej koncepcji filtra uwagi jest Donald Broadbent (1957,
1958, 1971, 1982). Zaproponowany przez niego model można wizualnie przed­
stawić w kształcie litery „Y” (ryc. 5.1). „Ramiona” tej litery reprezentują dwa
sensoryczne kanały informacyjne wchodzące do systemu; każdy z nich
doprowadza informację z jednego źródła. „Ramiona” te zbiegają się w „nogę”
- pojedynczy kanał, w którym możliwe jest dalsze, już semantyczne, przetwa­
rzanie informacji. Uwaga działa więc trochę na zasadzie zwrotnicy, przepusz­
czającej komunikaty z lewego lub prawego kanału sensorycznego w zależności
od tego, który z nich spełnia zasadę selekcji. Ta ostatnia ma zawsze charakter
fizykalny: o tym, czy dany sygnał opuści „poczekalnię” w kanale sensorycznym
i przejdzie do etapu przetwarzania semantycznego, decydują fizyczne parametry
sygnału, takie jak: jego intensywność, kolejność w szeregu czy współistnienie
innych bodźców. Ze względu na sposób regulowania pracy mechanizmu
filtrującego informacje, zasadę tę nazwano dla uproszczenia zasadą sensoryczną
lub zasadą „wszystko albo nic”. Komunikat w danym momencie nieprzetwarzany oczekuje w zamkniętym kanale sensorycznym, gdyż w kanale seman­
tycznym nie ma na razie dla niego miejsca. Bardzo szybko ulega więc degradacji
i w efekcie zapomnieniu. Jedyne, co utrzymuje się po nim w pamięci, to fizyczna
charakterystyka sygnałów. Stąd badani w paradygmacie dychotycznej prezenta­
cji bodźców (paradygmat 5.1) są w stanie rozpoznać płeć spikera przekazu
w kanale ignorowanym, ale nie mogą odpowiedzieć na żadne pytanie dotyczące
treści tego przekazu (Cherry, 1953). Płeć spikera można bowiem rozróżnić na
188
Rozdział 5. Uwaga i świadom ość
Teorie wczesnej selekcji informacji:
1
Ryc. 5.1. Model filtra uwagi wg Broadbenta (1957).
podstawie wysokości tonu głosu, czyli fizycznej charakterystyki przekazu; na
tej podstawie nie można jednak powiedzieć niczego o znaczeniu komunikatu.
Gdy nie jest jasne, którego z dwóch przekazów należy słuchać, ale wiadomo, że
któregoś trzeba, rozpoznanie każdego przekazu utrzymuje się na poziomie 50%
(Broadbent, 1952).
Model Broadbenta poddano wielokrotnie ostrej krytyce. Badacze zaakcep­
towali wprawdzie metaforę uwagi jako filtra (bramki, zwrotnicy), niektórzy
skłonni byli nawet zgodzić się z jednokanałowym charakterem dalszego
przetwarzania informacji już po selekcji (zasada „wszystko albo nic”), ale nie
mogli zgodzić się z sensoryczną zasadą funkcjonowania mechanizmu selektyw­
ności. Zasada ta uwzględnia bowiem jedynie fizyczne cechy bodźców, tym­
czasem wydaje się, że wiele decyzji selekcyjnych jest podejmowanych raczej na
podstawie znaczenia sygnałów, niż ich cech fizykalnych. Modyfikując badania
w paradygmacie dychotycznej prezentacji badacze starali się wykazać, iż
mechanizm filtrujący informacje może się kierować także innymi zasadami se­
lekcji. Na przykład Moray (1959) umieścił w przekazie ignorowanym kilka­
krotnie powtarzane imię osoby poddanej testowi. Okazało się, iż po zakoń­
czeniu eksperymentu badani wiedzieli o tym, że w „niesłuchanym” komunikacie
pojawiało się ich imię. Tej wiedzy nie towarzyszyło pogorszenie poziomu
wykonania zadania podstawowego, polegającego na odtworzeniu z pamięci
treści komunikatu ważnego.
Spektakularnych danych na temat roli semantycznych reguł selekcji
materiału dostarczyli Gray i Wadderburn (1960). Zamiast fragmentów prozy,
używanych z reguły we wcześniejszych badaniach jako dychotycznie przekazy­
wane komunikaty, autorzy użyli naprzemiennych ciągów cyfr i sylab. Każdemu
badanemu prezentowano w tym samym czasie jedną cyfrę i jedną sylabę, po
jednym sygnale na każde ucho. Kolejność cyfr i sylab była naprzemienna: po
cyfrze zawsze następowała sylaba i odwrotnie, np. 4 ha 7 do 3 mi. Dodatkowo,
połowę badanych poinformowano o możliwości zgrupowania sygnałów w dwie
różne kategorie, a drugiej połowie nic na ten temat nie mówiono. Gray i Wadder­
burn oczekiwali selekcji sygnałów ze względu na ich kategorialną przynależ­
5.2. Teorie uw agi
189
ność, a nie według sensorycznego kanału prezentacji. Oczekiwano więc, że
osoby badane zeznają, iż słyszały 4 7 3, a potem ha do mi, mimo że te dwa ciągi
znaków pojawiały się naprzemiennie w dwóch różnych kanałach. Wprawdzie
nie wszyscy badani zachowali się w eksperymencie zgodnie z tymi hipotezami,
ale zdecydowanie wyższy poziom wykonania zadania, mierzony liczbą
poprawnych odpowiedzi, zaprezentowali ci spośród uczestników eksperymentu,
którzy raportowali osobno cyfry i osobno sylaby. Okazało się poza tym, że cyfry
często „zbrylano” w liczby, a sylaby w słowa. Grupowanie bodźców zgodnie z ich
znaczeniem, a przeciwko porządkowi, w jakim je prezentowano, było szcze­
gólnie widoczne u tych osób badanych, które poinformowano o przynależności
kategorialnej bodźców. W kolejnym eksperymencie okazało się jednak, że na to,
jaka zasada selekcji jest stosowana przez mechanizm filtrujący (sensoryczna czy
semantyczna), ma wpływ czas pozostawiony na analizę poszczególnych par
bodźców. Broadbent i Gregory (1964) wykazali, że stosowanie semantycznej
zasady selekcji jest możliwe jedynie przy relatywnie długich przerwach
pomiędzy pojawieniem się jednej pary sygnałów a prezentacją następnej.
Natomiast w sytuacji, gdy pary bodźców następowały po sobie bardzo szybko,
wyniki pozostawały zgodne z tymi, jakie uzyskano już wcześniej przy użyciu
jednolitych list bodźców, np. tylko cyfr (Broadbent, 1954), a więc jednoznacznie
wskazywały na wykorzystywanie przez filtr zasady sensorycznej.
Rozstrzygających danych na temat możliwości kierowania się przez filtr
uwagi kryteriami semantycznymi dostarczyły badania Treisman (1960). Autorka
wykazała, że uwaga automatycznie przełącza się z jednego kanału sensorycz­
nego na drugi, jeśli może w ten sposób śledzić treść sensownego komunikatu.
Instrukcja, aby ignorować któryś z kanałów sensorycznych, przestaje obowią­
zywać w momencie, gdy do tego kanału trafia coś, co łączy się sensownie
z informacją do tej pory uważnie śledzoną. Co więcej, filtr uwagi okazał się
zdolny do „sklejania” fragmentów komunikatów pochodzących z różnych
źródeł, tj. ważnego i ignorowanego, jeśli w wyniku takiego zabiegu powstanie
coś, co ma sens (Treisman, 1970). Wyniki tych badań sugerują, że pojęcia
„kanału ważnego” i „kanału ignorowanego” powinny być zdefiniowane na
podstawie semantycznej zawartości komunikatów, a nie ze względu na to, czy
coś „idzie” do ucha prawego, czy też lewego (zob. ramka 5.1).
Ramka 5.1
Czy nasza uwaga spontanicznie podąża za sensem komunikatu?
Polecając osobom badanym podążać za zadanym fragmentem prozy, Anna
Treisman (1960) dokonywała niespodziewanej zamiany kanałów sensorycznych:
ważnego z ignorowanym. Proza przeznaczona do powtarzania, prezentowana
w jednym z kanałów (np. lewym), nagle pojawiała się w drugim kanale (czyli prawym), podczas gdy komunikat ignorowany „przeskakiwał” do kanału pierwszego.
" Komunikat ważny i ignorowany jak gdyby zamieniały się miejscami w sposób dla
osoby badanej zaskakujący i nieprzewidywalny. Treisman zauważyła, że badani
spontanicznie zmieniali kanał pierwszy na drugi i odwrotnie, jakby śledząc dalszy
i ciąg tego komunikatu, za którym nakazano im nadążać. Z reguły jednak spóźniali
się z przełączeniem filtra uwagi między kanałami o jedno lub dwa słowa. W każdym
190
Rozdział 5. Uwaga i świadom ość
razie po tym krótkim zawahaniu bezbłędnie powtarzali fragmenty prozy, które
były semantycznie zgodne z wcześniejszymi fragmentami, mimo że pochodziły ze
źródła, które na podstawie sensorycznej zasady selekcji powinno być z góry
odrzucone.
W kolejnych eksperymentach z wykorzystaniem tej techniki Treisman i współ­
pracownicy (Treisman, Squire, Green, 1974; Treisman, Sykes, Gelade, 1977) pre­
zentowali badanym w obu kanałach sensorycznych przekazy w różnym stopniu
koherentne semantycznie lub brzmieniowo. Na przykład w kanale ważnym po­
jawiały się wybrane słowa, które trzeba było szybko rozpoznawać, podczas gdy
w kanale ignorowanym mogły się pojawiać synonimy tych słów lub wyrazy o po­
dobnym brzmieniu. W wyniku prowadzonych badań stwierdzono efekt synonimu:
jeśli w kanale ważnym pojawiało się słowo-sygnał, czas potrzebny na jego wykrycie
wydłużał się, jeśli w kanale ignorowanym pojawił się w tym samym czasie jego
synonim. Osoby badane jak gdyby przez moment wahały się, na co mają za­
reagować - czy na „oficjalne” słowo-sygnał z kanału ważnego, czy na odrzucone świadomie nierejestrowany synonim tego słowa, pojawiający się w kanale igno­
rowanym. Ten moment zawahania wydłuża czas reakcji, czego nie obserwowano
wtedy, gdy w kanale odrzucanym pojawiały się słowa znaczeniowo niezwiązane lub
bardzo słabo powiązane ze słowami-sygnałami.
W innych badaniach Treisman (1970) udało się wykazać, że ludzie często
dokonują fuzji (zbitek) dwóch słów pochodzących z różnych kanałów sensorycz­
nych, jeśli taka fuzja daje w efekcie wyraz, który coś znaczy (back + lack => black).
Fuzje te - rezultat połączenia wbrew instrukcji eksperymentatora dwóch odrębnych
elementów pochodzących z różnych źródeł sensorycznych - Treisman nazwała
związkami iluzorycznymi. Prawdopodobieństwo powstania takiej zbitki wzrasta
wraz ze zwiększaniem się liczby cech wspólnych obu składnikom przyszłej fuzji,
takich jak podobne brzmienie lub przynależność do tej samej kategorii obiektów
(Treisman, Sykes, Gelade, 1977).
Zarówno efekt synonimu, jak i występowanie związków iluzorycznych mogą
świadczyć na korzyść tezy o jednoczesnej analizie (synonim), a nawet możliwej
integracji semantycznej (związek iluzoryczny) danych pochodzących z różnych
kanałów sensorycznych. Hipotetyczny filtr uwagi byłby zatem zdolny do selekcjono­
wania informacji ze względu na znaczenie podlegających selekcji bodźców. Według
Treisman oznacza to, że w procesie selekcji filtr uwagi uwzględnia semantyczne
aspekty odbieranych sygnałów.
Na podstawie wyników badań sprzecznych z zasadą sensoryczną Treisman
(1960, 1970) zaproponowała nowy, konkurencyjny wobec koncepcji Broadbenta model mechanizmu selekcji. W modelu tym całkowicie odrzuciła ideę, zgod­
nie z którą filtr uwagi dokonuje mechanicznej blokady odrzuconej informacji ze
względu na jej właściwości fizykalne. Nie zgodziła się też z poglądem, że droga
do dalszego przetwarzania jest dla informacji odrzuconych zamknięta jak gdyby
od zewnątrz (stąd alternatywne określenie filtra: bramka). Zdaniem Treisman,
filtr uwagi otwierany jest „od środka”, to znaczy przez te informacje, które już
się przez filtr (bramkę) przedostały. Ma to działać w ten sposób, że informacje
przepuszczone wcześniej przez filtr, a przetwarzane na poziomie semantycz­
nym, wzmacniają wszystkie dane, dopiero próbujące przedostać się przez filtr,
5.2. Teorie uw agi
i
\
r
[
ł
[■
[
|
j
I
j
[
|
j
|
;
j
[
|
|
\
|
\
i
191
a których znaczenie zgadza się z tym, co jest aktualnie przetwarzane. W ten
sposób bodźce semantycznie koherentne z informacjami analizowanymi już
w kanale semantycznym miałyby łatwość w pokonaniu filtra (bramki), ponieważ
są przez uwagę antycypowane. Dzieje się tak niezależnie od tego, którym
kanałem sensorycznym docierają nowe informacje. Mogą docierać kanałem do
tej pory ignorowanym, ale ponieważ są jak gdyby „oczekiwane”, łatwo
przechodzą do dalszych etapów przetwarzania. Dlatego właśnie, zdaniem
Treisman, jeśli to tylko możliwe, badani grupują bodźce zgodnie z ich znaczeniem, a nie według porządku ich prezentacji lub obecności w określonym
kanale (np. ignorowanym). Pozostałe informacje, a więc te, które nie są semantycznie zbieżne z danymi aktualnie przetwarzanymi, byłyby wprawdzie
również dopuszczane do dalszej obróbki, ale w postaci mało aktywnej, osłabionej. Decyzja selekcyjna przejawiająca się we wzmocnieniu lub osłabieniu
informacji byłaby podejmowana na podstawie głębokiej analizy semantycznej
wszystkich docierających do systemu informacji. Stąd zasadę selekcji zaproponowaną przez Treisman nazwano zasadą semantyczną, a stworzony przez nią
teoretyczny model uwagi - modelem osłabiacza (attenuator; Czyżewska, 1991).
Próbując rozstrzygnąć, od czego zależy, czy uwaga funkcjonuje zgodnie
z zasadą sensoryczną czy semantyczną, Broadbent i Gregory (1964) dokonali
rozróżnienia pomiędzy zestawem bodźców i zestawem reakcji. Pierwszy zestaw
jest zbiorem sygnałów wysyłanych przez środowisko, podczas gdy zestaw drugi
obejmuje to wszystko, o czym człowiek może nam powiedzieć, że spostrzega.
Zadaniem autorów, selekcja sygnałów dokonuje się zgodnie z kolejnością do­
cierania poszczególnych bodźców w zestawie i według zasady opartej na fizycz­
nych parametrach sygnałów. Jeśli filtr otrzymuje informacje w tempie umożli­
wiającym ich percepcję, to wygenerowany przez system poznawczy zestaw
reakcji jest identyczny z zestawem bodźców. Jeżeli natomiast tempo prezentacji
jest szybsze, zestaw reakcji maleje w porównaniu do zestawu bodźców, przy
zachowanej zgodności obu zestawów odnośnie do fizycznej kolejności
pojawiania się sygnałów. Jeśli z kolei czas prezentacji bodźców dostatecznie
się wydłuży, materiał zostanie pogrupowany przed jego prezentacją, a ponadto
dostarczy się osobie badanej odpowiednich wskazówek, to filtr może wygene­
rować zestaw reakcji, który nie jest fizycznie zgodny z zestawem bodźców.
Broadbent i Gregory uważają, że w przypadku szybkiej reprodukcji zestawu
bodźców udział biorą tylko sensoryczne procesy selekcji opisane w teorii filtra
Broadbenta. W innym przypadku na procesy sensoryczne nakładają się cen­
tralne mechanizmy przetwarzania informacji. Udział procesów centralnych
wymaga czasu, jest więc niemożliwy w sytuacji szybkiej prezentacji sygnałów,
a możliwy wtedy, gdy badanym pozostawia się czas na dalsze przetworzenie
bodźców. Autorzy proponują więc ostatecznie koncepcję dwóch filtrów uwagi:
sensorycznego i semantycznego.
Deutsch i Deutsch (1963, 1967) zaproponowali jeszcze inne umiejscowienie filtra. Według nich efektywna selekcja informacji może zaistnieć dopiero
wtedy, gdy spostrzegane sygnały zostają poddane świadomej obróbce.
Osłabienie bądź wzmocnienie znaczenia sygnałów mogłoby się więc dokonywać
dopiero po przekroczeniu bariery świadomości. Wcześniej wszystkie bodźce
byłyby przetwarzane z jednakową skutecznością aż do poziomu głębokich reprezentacji umysłowych, jednak bez formułowania jawnej reprezentacji pa­
192
Rozdział 5. U w aga i świadom ość
mięciowej (Duncan, 1980). Zasadę koniecznej świadomości szybko jednak
odrzucono, wykazując iż nie jest ona w istocie konieczna do przetwarzania
znaczenia sygnałów oraz podejmowania skutecznych i złożonych decyzji
selekcyjnych (Corteen, Wood, 1972, 1974; Holender, 1986; Lackner, Garrett,
1972). Problem ten zostanie omówiony szerzej przy okazji prezentacji związków
uwagi i świadomości (zob. rozdz. 5.3). Jeśli jednak ze sformułowania zasady
selekcyjnej zaproponowanej przez Deutsch i Deutscha usunąć „konieczność”,
to jak najbardziej słuszne wydaje się postulowanie istnienia kolejnego, trzeciego
już filtra uwagi, działającego na poziomie świadomych decyzji selekcyjnych.
Dotyczy to w szczególności selekcji w odniesieniu do wyższych, złożonych
procesów poznawczych. Trudno np. zakładać, że dla właściwego wyboru kie­
runku studiów oba wcześniej omówione filtry informacji: sensoryczny i seman­
tyczny, okażą się wystarczające.
Próby rozwiązania problemu umiejscowienia filtra uwagi doprowadziły do
silnej polaryzacji poglądów. Dwa antagonistyczne stanowiska reprezentowali
zwolennicy modeli wczesnej selekcji informacji, przypisujący podstawowe zna­
czenie zasadzie sensorycznej, oraz zwolennicy modeli późnej selekcji, pod­
kreślający doniosłość zasady semantycznej lub nawet zasady koniecznej świa­
domości sygnału. Pojawiały się także rozwiązania mniej radykalne, wskazujące
na obecność dwóch lub nawet trzech filtrów, zdolnych do wczesnej lub późnej
selekcji informacji w zależności od warunków zadania. Broadbent i Gregory
(1964) sugerowali, że czynnikiem decydującym o wyborze przez system po­
znawczy jednego z potencjalnych filtrów może być tempo prezentacji informacji.
Natomiast Lavie (1995, 2000; Lavie, Tsal, 1994) wskazuje raczej na czynnik
ilościowy jako determinujący decyzje systemu odnośnie do umiejscowienia
„wąskiego gardła” selekcji. Posługując się metaanalizą wyników wcześniejszych
badań, a także wykorzystując rezultaty własnych eksperymentów, Lavie stwier­
dził, że model wczesnej selekcji znajduje potwierdzenie w badaniach, w których
zadanie było percepcyjnie wymagające. Zadania tego rodzaju, nazwane za­
daniami o dużym ładunku percepcyjnym, polegają na prezentacji relatywnie
dużej liczby bodźców, wśród których znajdują się zarówno sygnały, jak też
liczne i różnorodne dystraktory. Natomiast modele późnej selekcji informacji
znajdowały swoje potwierdzenie w badaniach z wykorzystaniem zadań o małym
ładunku percepcyjnym, gdzie prezentowano zazwyczaj pojedynczy sygnał
i dystraktor.
Johnston (1978; Johnston, Heinz, 1978) wskazał na jeszcze jedno możliwe
rozwiązanie problemu umiejscowienia mechanizmu selekcjonującego informa­
cje. Powrócił on do koncepcji istnienia tylko jednego filtra, za to zmieniającego
swój charakter w zależności od poziomu przetwarzania informacji (Craik,
Lockhart, 1972). Najważniejszą cechą takiego filtra byłaby jego elastyczność,
przejawiająca się w możliwości szybkiej zmiany poziomu przetwarzania infor­
macji oraz niemal natychmiastowego przystosowania się do aktualnego
poziomu analizy i selekcji danych. W swoich eksperymentach Johnston starał
się wymiernie określić różnicę w działaniu elastycznego filtra na różnych
poziomach przetwarzania. Stwierdził m.in., że czas potrzebny na dokonanie
selekcji różni się znacznie ze względu na poziom przetwarzania: podczas gdy już
100 ms może wystarczyć do właściwej selekcji na poziomie sensorycznym
(zależy to jednak od modalności bodźca; Woodworth, Schlosberg, 1963), zasada
5.2. Teorie uw agi
[
[
\
!
[
i
I
j
|
[
j
S
1
{
[
j
j
I
193
semantyczna wymaga co najmniej 360 ms (Johnston, 1978). Czas ten może się
zresztą znacznie wydłużyć, jeśli zasada selekcji jest dość złożona (Posner,
Mitchell, 1967). Ponadto wraz z wydłużeniem czasu selekcji, związanego
z przejściem na wyższy poziom przetwarzania informacji, zwiększa się pojem­
ność samego filtra, mierzona ilością informacji objętej jednoczesnym przetwa­
rzaniem. Wyniki te znalazły potwierdzenie w kolejnych badaniach (Johnston,
Heinz, 1978). Johnston wraz ze współpracownikami (Johnston, Heinz, 1979;
Johnston, Wilson, 1980; Johnston, Dark, 1982) wykazali również, że efektyw­
ność działania elastycznego filtra na kolejnych poziomach przetwarzania zależy
od skuteczności analizy i selekcji informacji na poziomach niższych. Percepcja
wszelkich bodźców niezwiązanych z celem (szumu i dystraktorów) może być
według nich powstrzymana już na poziomie sensorycznym: stopień sensorycz­
nego przetwarzania tych obiektów okazał się odwrotnie proporcjonalny do
stopnia poprawnej selekcji sygnałów. Innymi słowy: im więcej zakłóceń udaje
nam się zablokować na poziomie sensorycznym, tym poprawniej wychwytujemy
później ważne sygnały na poziomie semantycznym. Możliwości kontrolowanej
selekcji informacji na niższych poziomach przetwarzania są wprawdzie
ograniczone, ale proces ten może zachodzić na wszystkich poziomach, nie
wyłączając poziomu sensorycznego (Dark i in., 1985).
Johnston nie określił wyraźnie, zgodnie z jaką zasadą selekcyjną funkcjo­
nuje postulowany przez niego elastyczny filtr. Wydaje się, że mogłaby tu działać
zasada przetargu między szybkością a poprawnością (Snodgrass, Luce, Galanter,
1967; Meyer i in., 1988; Szymura, Słabosz, 2002). W eksperymentach z presją
czasową badani z reguły nie są w stanie jednocześnie uzyskać dobrych wyników
zarówno w zakresie szybkości, jak i poprawności reakcji. W konsekwencji, albo
są szybcy, ale popełniają wiele błędów, albo też reagują poprawnie, ale kosztem
znacznego spowolnienia przebiegu procesów przetwarzania informacji. Zgodnie
z modelem Johnstona, im płytszy poziom analizy bodźców, tym szybszy proces
selekcji informacji. Jednak na płytkim poziomie przetwarzania sygnału nie udaje
się zanalizować wielu jego cech. W konsekwencji mechanizm filtrujący jest
narażony na błędy w procesie selekcji informacji, gdyż może on pominąć niektóre sygnały lub też uznać za sygnały niektóre bodźce zakłócające. Na głę­
bokich poziomach przetwarzania informacji analiza bodźców jest znacznie
bardziej złożona i uwzględnia więcej cech stymulacji. Wiąże się to z większą
poprawnością procesów selekcyjnych kosztem wydłużenia czasu potrzebnego
na dokonanie wyboru. Zatem na płytkich poziomach selekcji elastyczny filtr
„płaci” poprawnością za szybkość, podczas gdy na poziomach głębokich szybkością za poprawność.
Koncepcja Johnstona (1978; Johnston, Heinz, 1978, 1979) integruje różne
wcześniejsze modele filtra uwagi (zob. ryc. 5.2). W jego modelu filtr funkcjonuje
na poziomie sensorycznym zgodnie z zasadą „wszystko albo nic” (Broadbent),
na poziomie semantycznym zgodnie z zasadą osłabiacza (Treisman), a na
najgłębszym poziomie odniesienia do Ja - zgodnie z zasadą koniecznej świadomości (Deutsch i Deutsch). Ponadto, na każdym poziomie przetwarzania filtr
działa według naczelnej zasady przetargu między szybkością a poprawnością
(Snodgrass). Te cechy koncepcji Johnstona sprawiają, że zasługuje ona na
bardzo wysoką ocenę ze względu na trafny opis mechanizmu selekcji źródła
i dobre wyjaśnienia dostępnych danych empirycznych. Jej ograniczeniem wydaje
Poziomy przetwarzania informacji
(Craik, Lockhart, 1972)
poziom głębszy
(semantyczna
identyfikacja)
poziom płytki
(sensoryczny)
poziom najgłębszy
(treści semantycznie
związane)
i
51
►R
52
**
Filtr Broadbenta
(1958)
Filtr Treismana
(1960)
* Teoria (głębokości) poziomów przetwarzania informacji
(Craik, Lockhart, 1972)
* * Teoria filtra uwagi selektywnej
(Broadbent, Treisman, Deutsch, 1958-1963)
// ► Problem „szyjki od butelki”
Ryc. 5.2. Schematyczna prezentacja koncepcji elastycznego filtra uwagi wg Johnstona (1978).
Filtr Deutsch i Deutscha
(1960)
5.2. Teorie uwagi
195
się przyjęcie założenia, że analiza i selekcja informacji ma miejsce tylko w jed­
nym kanale przetwarzania. Tymczasem, zdaniem wielu badaczy (Allport, 1980;
Wickens, 1984; Pashler, 2000), system poznawczy jest zdolny do jednoczesnej
selekcji informacji w wielu różnych kanałach przetwarzania. Mechanizmy
jednoczesnej selekcji informacji opiszemy przy okazji prezentacji teorii zasobów
i modułów uwagi (zob. rozdz. 5.2.4).
5.2.2. Teorie przeszukiwania pola percepcyjnego
I
!
l
I
;
j
:
i
!
;
Najbardziej znaczącą koncepcją teoretyczną w tym obszarze jest teoria integracji cech zaproponowana przez Treisman (1982, 1988; Treisman, Gelade,
1980). Koncepcja ta podlegała licznym modyfikacjom, jednak jej podstawowe
założenia pozostają niezmienne (Driver, 2001; Pashler, 2000). Według
pierwotnego modelu Treisman, selekcja sygnałów odbywa się w dwóch etapach.
Najpierw wszystkie sygnały i ich cechy docierają do tzw. map lokacyjnych. Są
one czymś na kształt książki adresowej, bowiem kierują zapisem poszczegól­
nych właściwości postrzeganych obiektów, takich jak kolor, kształt itd. Mapy
umożliwiają też wykrycie, czy dany atrybut (np. czerwony kolor albo
kwadratowy kształt) jest obecny w którymkolwiek z obiektów znajdujących
się w polu wzrokowym. Treisman sądzi, że każdy obiekt w polu percepcyjnym
jest kodowany z uwzględnieniem najprostszych właściwości sensorycznych,
takich jak kolor, orientacja przestrzenna, rozmiar, kształt, kierunek ruchu. Jest
to przekonanie zgodne z ogólnie przyjętymi poglądami na temat percepcji (zob.
rozdz. 7.4). Poszczególne sygnały docierają więc do map lokacyjnych, gdzie
są automatycznie kodowane zgodnie ze wszystkimi swoimi charakterystykami
w tzw. mapach cech. Kodowanie w obrębie mapy cechy odbywa się zawsze
wtedy, gdy obiekty w polu wzrokowym różnią się w jakiś sposób pod względem
tejże cechy. Jeśli np. niektóre obiekty są czerwone, a inne nie, mapa cech notuje
ten fakt. Ten rodzaj kodowania cech ma, według Treisman, charakter automa­
tyczny i selektywna uwaga nie ma z nim wiele wspólnego. Zadaniem selektyw­
nej uwagi jest natomiast wybór właściwych map lokacyjnych, co prowadzi do
selekcji właściwych map cech.
Drugi etap selekcji polega na integracji zakodowanych wcześniej cech,
w wyniku czego dochodzi do rozpoznania obiektu. Na przykład integrując cechę
„czerwony kolor” z cechą „kwadratowy kształt” rozpoznajemy obiekt, jakim jest
czerwony kwadrat. Integracja wymaga wcześniejszego zakodowania właści­
wości obiektów w mapach cech, ale podlega wpływom ze strony wymagań
zadania (np. instrukcji eksperymentalnej) lub wskazówek płynących z otoczenia.
Proces selekcji polega więc w istocie na aktywacji poszczególnych cech składowych obiektów - znajdujących się w obrębie map cech, a następnie na ich
integracji w żądany obiekt. Podstawowym kryterium integracji jest tu znaczenie
sygnału, które może, choć nie musi, przejawiać się w jego fizycznych charakte­
rystykach, a podstawowym czynnikiem umożliwiającym integrację jest aktywacja odpowiednich map cech w fazie automatycznego kodowania wszelkich
właściwości bodźców.
Według pierwotnej wersji koncepcji integracji cech w obiekt, proces przeszukiwania pola percepcyjnego dokonuje się szeregowo: cecha po cesze, obiekt
196
Rozdział 5. Uwaga i świadom ość
po obiekcie. Prowadząc badania w paradygmacie przeszukiwania pola wzroko­
wego (paradygmat 5.2), Treisman i Gelade (1980) porównały średni czas
potrzebny badanym na odnalezienie obiektu zdefiniowanego przez pojedynczą
cechę (poszukiwanie proste) lub związek cech (poszukiwanie koniunkcyjne)
wśród licznego lub mniej licznego zbioru bodźców (ryc. 5.3). Czas potrzebny na
•D Ó .O 'O
O t>
O• OT d , 0 * 3
o
a
°
°
o
o
S •(? M ©
•Q -5? G 0 SO
$
© ty <*>■
3 » O
^ S ^ <S)
f
Ryc. 5.3. Bodźce używane w badaniach Treisman (1988) nad przeszukiwaniem pola percepcyjnego.
Cechy różniące bodźce: kształt figury (np. trapez, okrąg) oraz położenie kropli (wewnątrz, zewnątrz)
figury. Przykład bodźca dla poszukiwania prostego: trapez. Przykład dla poszukiwania koniunkcyjnego: trapez z kropką na zewnątrz.
wykonanie zadania okazał się znacznie dłuższy w przypadku poszukiwania koniunkcyjnego niż w warunkach poszukiwania prostego. Co więcej, w przypadku
poszukiwania koniunkcyjnego przyrost czasu był liniową funkcją zwiększającej
się liczebności zbioru bodźców (ryc. 5.4). Na przykład odnalezienie czerwonego
kwadratu trwało dłużej, jeśli był on zawarty w zbiorze piętnastu elementów, niż
wtedy, gdy tych elementów było pięć. Natomiast czas poszukiwania prostego nie
był w żadnej mierze zależny od rozmiaru zestawu bodźców. Treisman (1988)
uznała więc, że proces poszukiwania prostego polega na równoległym prze­
szukiwaniu pola wzrokowego, podczas gdy proces poszukiwania koniunkcyj­
nego wymaga szeregowego przetwarzania danych. Wniosek ten wynika z ogólnie
akceptowanego poglądu, że czas trwania procesu szeregowego zależy od liczby
elementów w zestawie bodźców, natomiast czas procesu równoległego nie
wykazuje takiej zależności (Townsend, 1972; Egeth, Jonides, Wall, 1972).
Zauważmy, że integracja cech w obiekt z natury rzeczy wymaga poszukiwania
koniunkcyjnego, ponieważ polega na złożeniu obiektu z więcej niż jednej cechy.
Dlatego, zdaniem Treisman, integracja cech w obiekt musi mieć charakter
szeregowy. Tezę tę poddano gruntownej krytyce.
W badaniach nad przeszukiwaniem prostym (Bergen, Julesz, 1983; Jonides,
Yantis, 1988; Nakayama, Silverman, 1986) okazało się bowiem, że nie zawsze
5.2. Teorie uw agi
1
6
12
1
6
197
12
liczba bodźców jednocześnie prezentowanych
Ryc. 5.4. Czas detekcji sygnału złożonego (koniunkcja cech) i prostego (pojedyncza cecha)
w zależności od liczby dystraktorów w polu wzrokowym (za: Treisman, 1988).
ten typ selekcji informacji ma charakter procesu równoległego. Bergen i Julesz
polecili badanym poszukiwać sygnałów, jakimi były litery, w prezentowanym im
wizualnie zbiorze bodźców bardzo podobnych do siebie pod względem kształtu.
Okazało się, że im większe jest podobieństwo percepcyjne między sygnałem
a dystraktorem (czyli im trudniej jest wyróżnić sygnał z szumu percepcyjnego),
tym większe jest prawdopodobieństwo wystąpienia szeregowego procesu
przeszukiwania. Zgodnie z tymi wynikami, równoległy lub szeregowy charakter
procesu przeszukiwania pola wzrokowego może w większym stopniu zależeć od
podobieństwa sygnału do dystraktorów niż od liczby integrowanych cech
poszukiwanego bodźca. Hipotezy wpływu podobieństwa sygnału do dystrakto­
rów na szybkość i jakość procesu integracji bronił później Duncan (1989;
Duncan, Humphreys, 1989). Znalazła ona także swoje potwierdzenie w bada­
niach Słabosz i Szymury (2004). Jak się więc wydaje, wpływ na jakość i szybkość
198
Rozdział 5. Uwaga i świadom ość
procesu przeszukiwania pola wzrokowego mają możliwości w zakresie od­
rzucania dystrakcji na sensorycznym poziomie przetwarzania. Możliwości te są
jednak uwarunkowane zarówno jakością prezentowanej stymulacji, jak
i zdolnością systemu do obrony przed zakłóceniami (Cave, Wolfe, 1990; Egeth,
Virzi, Garbart, 1984; Szymura, 1999).
Z kolei w badaniach nad przeszukiwaniem koniunkcyjnym McLeod, Driver
i Crisp (1988) wykazali, że czas potrzebny na poszukiwanie koniunkcyjne celu
charakteryzowanego przez dwie cechy: kształt i ruch, nie musi być rosnącą
funkcją wzrastającej liczebności bodźców. W kolejnym eksperymencie Driver
i Baylis (1989) stwierdzili, że poruszające się wraz z sygnałem bodźce za­
kłócające wywołują większą interferencję niż dystraktory statyczne, nawet
wtedy, gdy te ostatnie umieszczone są znacznie bliżej poszukiwanego sygnału.
Wreszcie McLeod, Driver, Dienes i Crisp (1991) wykazali, że proces poszu­
kiwania koniunkcyjnego w przypadku dwóch cech: ruchu i kształtu obiektów,
jest równoległy niezależnie od możliwego kierunku ruchu obiektów. W ostatnim
z prezentowanych tu badań, Driver i McLeod (1992) stwierdzili natomiast,
iż poszukiwanie obiektów charakteryzowanych przez znacznie zmienioną
orientację przestrzenną (obrót o 45° kątowych) i zdefiniowanych przez ruch
jest znacznie łatwiejsze i szybsze niż wówczas, gdy obiekty te pozostają
w bezruchu. Przeciwny efekt został jednakże zaobserwowany przy stosunkowo
niewielkich odchyleniach bodźców od wspomnianych osi symetrii (obrót o 9°
kątowych).
Prowadząc eksperymenty nad prostym i koniunkcyjnym poszukiwaniem
obiektów zdefiniowanych przez cechy statyczne, Treisman (1988, 1993) nadal
jednak uzyskiwała wyniki świadczące o szeregowym charakterze badanego pro­
cesu. Zgodziła się tylko z sugestią Drivera i McLeoda (1992; McLeod, Driver,
1993), iż ruch może być cechą wyjątkową wśród kodowanych charakterystyk
obiektów, przyspieszającą etap integracji i tym samym cały proces selekcji.
Właściwości takie nazwano mianem cech priorytetowych (McLeod i in., 1991).
Priorytetowy charakter cechy oznacza możliwość wczesnego, szybkiego i auto­
matycznego przetwarzania informacji z nią związanych. Uznano, że przetwa­
rzanie właściwości priorytetowych ma miejsce we wczesnej fazie selekcji,
zwanej przeduwagową (preattentive). W fazie tej dokonuje się segregacja pola
wzrokowego zgodnie z analizowaną cechą, np. na część ruchomą i statyczną.
Taka wstępna analiza pola wzrokowego możliwa jest jedynie wtedy, gdy cecha
priorytetowa rzeczywiście wyróżnia obiekt w polu wzrokowym, to znaczy
przyjmuje wartości dystynktywne (Treisman, Viera, Hayes, 1992). Dlatego
właściwością priorytetową może być ruch obiektu, ale również jego szczególnie
wyrazisty kolor (D’Zamura, 1991; Kyllingsbek, Bundesen 2001; Słabosz, Szy­
mura, 2004). Z kolei ruch obiektu sam w sobie nie musi stać się cechą prio­
rytetową (Driver, McLeod, 1992), zwłaszcza gdy odbywa się poza centrum
uwagi, czyli na peryferiach pola wzrokowego (Mack, Rock, 1998; Mack i in.,
1992; Rock i in., 1992; Szymura, Horbaczewski, 2005).
Modyfikując swą pierwotną koncepcję, Treisman (1993) uznała, że prio­
rytetowe właściwości obiektów (np. ruch, dystynktywny kolor) są kodowane
w odpowiadających im mapach cech znacznie szybciej niż pozostałe cechy.
Mapy właściwości priorytetowych znajdują się w najwyższym stopniu gotowości
i uprzywilejowania. Gdy dochodzi do integracji poszczególnych cech w obiekt,
5.2. Teorie uwagi
199
mapy właściwości priorytetowych aktywizują bądź dezaktywizują pozostałe
mapy cech konieczne do identyfikacji obiektu. Model równoległej i szeregowej
integracji cech (Treisman, 1993; Treisman, Sato, 1990) opisuje działanie dwóch
procesów: „odgórnego”, polegającego na aktywizacji właściwych map cech
zgodnie z narzuconą zasadą selekcji, i „oddolnego”, sprowadzającego się do
automatycznej dezaktywacji pozostałych map cech.
Poprawiony przez Treisman (1998) model przeszukiwania pola wzroko­
wego zyskał akceptację, choć różni badacze nadal znajdują wyjątki od zapropo­
nowanych przez nią reguł przeszukiwania pola wzrokowego. Wolfe, Cave
i Franzel (1989) wykazali np., że selekcja obiektów charakteryzowanych przez
trzy cechy niepriorytetowe może być szybsza i bardziej poprawna od selekcji
celów wybieranych ze względu na dwie takie właściwości. Cave i Wolfe (1990)
wykryli ponadto, że detekcja unikatowych bodźców w polu wzrokowym, de­
finiowanych jako koniunkcja wielu różnych cech, niekoniecznie priorytetowych
czy dystynktywnych, może być również procesem szybkim i równoległym.
Stwierdzili bowiem brak zależności czasu, potrzebnego na takie przeszuki­
wanie, od liczby elementów w zbiorze przeszukiwanych bodźców. W sfor­
mułowanym na podstawie tych badań modelu przewodników uwagi Cave i Wolfe
(1990; Wolfe, Cave, Franzel, 1989; Wolfe i in., 1990) sugerują, że jeśli ilość
informacji o obiekcie, zgromadzona w przeduwagowej fazie kodowania percepcyjnego, jest dostatecznie duża, wówczas proces integracji cech w obiekt nie
jest konieczny. W takim przypadku brak drugiego etapu, ze swej natury oparte­
go na zasadzie przetwarzania szeregowego, sprawia, że caty proces selekcji
składa się z procesów przetwarzania równoległego. Taki specyficzny, bogaty
w cechy obiekt wyróżnia się tak bardzo na tle innych obiektów, jak gdyby
„wyskakując” (pop out) z pola wzrokowego, że automatycznie przyciąga uwa­
gę i może zostać trafnie zidentyfikowany już na podstawie samej fazy kodowania
cech (Irwin, 1981).
Zjawisko przyciągania uwagi przez właściwości bodźców badano także
w inny sposób. Yantis i Jonides (1984; Yantis, 1993; Jonides, Yantis, 1988)
zmodyfikowali paradygmat przeszukiwania pola wzrokowego, opóźniając
pojawienie się sygnału w stosunku do reszty prezentowanego zestawu. Dzięki
temu sygnał pojawiał się zupełnie niespodziewanie dla osoby badanej na tle
występujących już w polu wzrokowym innych elementów prezentowanego
zestawu. Sygnały były w tym badaniu pojedynczymi, specyficznymi dla całości
stymulacji bodźcami; pytano np. o zieloną literę „X”, gdy w zestawie nie było
żadnych innych zielonych liter. Yantis i Jonides wykazali, że czas potrzebny na
identyfikację takiego sygnału jest niezależny od liczby bodźców stanowiących
tło zestawu. Prowadząc badania w tym samym paradygmacie, Theeuwes (1994)
stwierdził jednak, iż nie zawsze nagle pojawienie się bodźca w polu wzrokowym
jest w stanie skutecznie przyciągnąć uwagę. Na przykład identyfikacja nagle
pojawiającego się sygnału może być opóźniona, jeśli w polu wzrokowym tkwi
bardzo intensywny, choć statyczny element. Na podstawie tych wyników
Theeuwes sformułował model uwagi podążającej za najbardziej znaczącą, czy
też dystynktywną, właściwością prezentowanej stymulacji: Według tego modelu
w polu uwagi najpierw wyodrębniamy element charakteryzujący się kombinacją
najbardziej wyrazistych cech. W przypadku jednoczesnej prezentacji całego
zestawu bodźców jest to obiekt charakteryzowany przez najbardziej dystynk-
200
Rozdział 5. Uwaga i świadom ość
tywną właściwość. Jeśli więc kolor jest najbardziej wyróżniającą się właści­
wością w polu wzrokowym, to nawet nagłe pojawienie się nowego bodźca nie
jest w stanie odciągnąć uwagi od przetwarzania bodźca charakteryzującego się
taką właśnie cechą dystynktywną. Jednak zazwyczaj pojawienie się nowego
bodźca w polu wzrokowym jest wystarczające, aby nowy element nabrał cech
dystynktywnych. Dotyczy to nie tylko sygnałów, lecz również dystraktorów: jeśli
mają one charakter dynamiczny (np. nagle pojawiają się w polu wzrokowym),
wywołują znacznie większą interferencję niż statyczne bodźce zakłócające
(Driver, Baylis, 1989).
Dwufazowy, równoległo-szeregowy model przeszukiwania pola wzrokowe­
go, autorstwa Treisman (1993, 1998), jest obecnie uznawany przez większość
badaczy uwagi. W modelu tym wyróżnia się opartą na procesach równoległych
fazę kodowania, z ewentualną segregacją pola wzrokowego przy wykorzystaniu
cech priorytetowych, oraz opartą na procesach szeregowych fazę integracji cech
niepriorytetowych w obiekt, będący celem przeszukiwania. Prowadzone obecnie
badania zmierzają do ustalenia, które właściwości bodźców mają zdolność do
przyciągania uwagi. Bez wątpienia właściwością priorytetową jest ruch obiektu
w polu wzrokowym, szczególnie pewna odmiana ruchu, jaką jest nagłe
pojawienie się bodźca - niezależnie od tego czy jest nim sygnał, czy dystraktor.
Także inne cechy, w szczególności kolor, ale także umiejscowienie obiektu
w głębi lub w tle, mogą uzyskać status cech priorytetowych, jeśli pozostaną
wystarczająco intensywne.
5.2.3. Teorie przedłużonej koncentracji
Trwała, przedłużona w czasie uwaga to synonim czujności (vigilance), rozu­
mianej jako „stan gotowości na wykrycie, rozpoznanie i reakcję na niezwykle
subtelne zmiany w środowisku, zachodzące przypadkowo w dłuższym odcinku
czasu” (Mackworth, 1957, s. 389-390). Wiadomo, że gdy uwaga musi być sku­
piona przez dłuższy czas na jednym lub kilku źródłach informacji, a odbierane
bodźce są wydarzeniami rzadkimi i nieprzewidywalnymi, w pewnym momencie
zaobserwujemy spadek czujności. Przejawia się to obniżoną liczbą poprawnych
rozpoznań sygnału, notowanych w dłuższym okresie wykonania jakiegoś
zadania. Mackworth (1950) wykryła, że liczba prawidłowych detekcji sygnału
znacznie się obniża już po upływie pół godziny; dalszy spadek jest już wol­
niejszy, niezależnie od długości trwania testu (ryc. 5.5). Podobne wyniki uzys­
kano badając procesy monitorowania bodźców wzrokowych w innych ekspery­
mentach, naśladujących realne sytuacje życiowe, takie jak kontrola jakości
produkcji przemysłowej lub nadzór nad operacjami chirurgicznymi.
Badania nad spadkiem czujności uwagi długo koncentrowały się wokół
problemu ustalenia empirycznych wskaźników tego procesu. W eksperymencie
Parasuramana i Daviesa (1976) badanym polecono w czasie 45-minutowej
ekspozycji stymulacji wzrokowej rozróżniać bodźce ze względu na ich jasność.
Sygnałem był bodziec jaśniejszy od reszty bodźców. Liczba prawidłowych
rozpoznań zmniejszała się wraz z czasem trwania zadania. Największą różnicę
obserwowano między pierwszym a drugim 15-minutowym blokiem prób,
przy czym spadek czujności był'mniejszy w przypadku osób, którym sygnały
201
5.2. Teorie uw agi
środ o w isko i ludzka skuteczność
0
5
10
15
20
minuty od rozpoczęcia półgodzinnego interwału
Ryc. 5.5. Procent niezauważonych sygnałów w teście zegara Mackworth w zależności od długości
trwania testu (za: Mackworth, 1950).
^ prezentowano częściej, w porównaniu do osób, które musiały wykrywać sy­
gnały prezentowane rzadziej. Parasuraman i Davies wykazali także, że czas
reakcji na krytyczny sygnał wzrasta o ok. 100 milisekund na przestrzeni
l 45-minutowego okresu badania. Wskaźnikiem spadku czujności jest również
wzrost odchyleń od średniego czasu reakcji, co wykryli Thackray, Jones i Touchl stone (1973).
I
Zachowanie ludzi w warunkach wymagających przedłużonej koncentracji
i uwagi analizuje się zazwyczaj w języku teorii detekcji sygnałów (ramka 5.2).
f Przewiduje ona, że idealny obserwator zauważy każdy sygnał (reakcja typu
trafienie) i zawsze zignoruje szum lub dystraktor (prawidłowe odrzucenie),
f Obserwator może jednak popełnić jeden z dwóch rodzajów błędu, czyli zareagować na szum lub dystraktor (fałszywy alarm, FA) lub zignorować sygnał (błąd
ominięcia, OM). Dobre wykonanie zadania wymagającego selekcji oznacza, że
obserwator dobrze odróżnia sygnały od szumu i dystrakcji; świadczy o tym duża
v liczba trafień (a zatem mała liczba błędów ominięcia) i mała liczba fałszywych
; alarmów. Teoria przewiduje ponadto, że popełniając błędy obserwator może
\ przyjąć różne strategie wykonania zadania. W szczególności może skłaniać się
[ raczej ku fałszywym alarmom niż ominięciom, lub odwrotnie. Pierwsza strategia
| może być korzystna wtedy, gdy konsekwencje wzniecenia fałszywego alarmu są
I mniejsze niż konsekwencje ominięcia ważnego sygnału. Odwrotna strategia
202
Rozdział 5. Uwaga i świadom ość
pojawia się wtedy, gdy konsekwencje ominięcia sygnału nie są dramatyczne,
natom iast konsekwencje wywołania fałszywego alarmu mogą być nader
dotkliwe. Przyjmuje się, że każdy obserwator ustawia sobie odpowiedni próg
wyzwalania reakcji, zwany też progiem reaktywności lub kryterium decyzyjnym:
im niższy, tym większe prawdopodobieństwo zauważenia sygnału, ale też tym
większe ryzyko fałszywego alarmu. Im próg wyzwalania reakcji wyższy, ryzyko
popełnienia błędu typu FA maleje, ale za to rośnie ryzyko błędu typu OM.
W badaniach nad przedłużoną koncentracją wykazano, że wraz z upływem cza­
su maleje liczba prawidłowych detekcji i liczba fałszywych alarmów, a zwiększa
się liczba ominięć, co wynika z podwyższenia progu reaktywności (Parasuraman, Davies, 1976). Ponieważ jednak liczba fałszywych alarmów w zadaniach
na czujność uwagi jest relatywnie niewielka (Baddeley, Colquhuon, 1969;
Parasuraman, Davies, 1976), więc wraz z upływem czasu obserwuje się po
prostu wzrost sumarycznej liczby błędów.
Ramka 5.2
Teoria detekcji sygnałów
Teoria detekcji sygnałów (Signal Detection Theory, SDT) powstała jako model
procesu odróżniania sygnału od szumu (Green, Swets, 1966). Początkowo wyko­
rzystywano ją przede wszystkim w naukach technicznych, np. do analizy transmisji
sygnałów radiowych i zakłóceń spowodowanych elektromagnetycznym „tłem”.
Później TDS znalazła zastosowanie w odniesieniu do żywych systemów wykrywa­
nia sygnałów. W psychologii podstawowe założenia i pojęcia tej teorii wykorzystuje
się w badaniu uwagi, spostrzegania, pamięci i podejmowania decyzji.
Wyobraźmy sobie, że terapeuta ocenia ryzyko podjęcia przez pacjenta próby
samobójczej. Pewne reakcje i wypowiedzi pacjenta sygnalizują zagrożenie, ale
równie dobrze mogą być mylącym „szumem informacyjnym”. Terapeuta może w tej
sytuacji zareagować na dwa sposoby, to znaczy stwierdzić ryzyko samobójstwa lub
je wykluczyć. W obu przypadkach terapeuta może mieć rację lub się pomylić. Jeśli
wykryje istniejące ryzyko samobójstwa, zaliczymy mu trafienie (hit), a jeśli pra­
widłowo ryzyko takie wykluczy, powiemy, że zastosował poprawne odrzucenie
(correct rejection). Gdy terapeuta stwierdzi zagrożenie, którego nie ma, popełni
błąd fałszywego alarmu (false alarm, FA), a gdy nie zauważy istniejącego ryzyka,
popełni błąd ominięcia (miss, OM). Teoria przewiduje więc cztery możliwe skutki
działalności terapeuty, podobnie jak każdego systemu wykrywającego sygnały:
trafienie, poprawne odrzucenie, fałszywy alarm i ominięcie. Obserwator, np. psy­
cholog eksperymentalny, ma pełną wiedzę na temat proporcji każdego z tych
czterech skutków w stosunku do rzeczywistej liczby działających na system sygna­
łów i bodźców innego rodzaju (zakłóceń, szumów).
Terapeuta podejmujący decyzję działa w warunkach niepewności, która wy­
nika z działania szumu. Szum wewnętrzny wynika z zawodności procesów poznaw­
czych terapeuty, z rozmaitych przekłamań, błędów i tendencji w procesie stawiania
diagnozy, z losowych wahań koncentracji uwagi, z pojawiających się niekontrolo­
wanych myśli lub skojarzeń itp. Szum zewnętrzny wynika z braku jednoznaczności
w klinicznym obrazie zachowań poprzedzających samobójstwo i z zawodności
kryteriów, pozwalających podjąć racjonalną decyzję. Prawdziwa depresja może
5.2. Teorie uw agi
203
dawać nietypowe objawy, a z drugiej strony całkiem „niedepresyjne” zachowanie
pacjenta może sugerować zagrożenie. Wszystko to może zmylić mało doświad­
czonego terapeutę.
Sygnały, zakłócenia i szumy docierające do systemu układają się w pewien
wzorzec, który skłania decydenta do reakcji TAK lub NIE. Na razie nie ma jeszcze
żadnej jawnej decyzji, jest tylko stan wewnętrzny systemu; w przypadku terapeuty
są to jego doznania sensoryczne, myśli, przywołane elementy wiedzy. Rycina 5.6a
stan wewnętrzny
Ryc. 5.6a. Rozkład prawdopodobieństwa reakcji NIE i TAK w zależności od wewnętrznego stanu
systemu wykrywającego sygnały.
pokazuje rozkład prawdopodobieństwa reakcji NIE (nie ma ryzyka samobójstwa),
jak też analogiczny rozkład prawdopodobieństwa reakcji TAK (jest zagrożenie).
Reakcja NIE jest najbardziej prawdopodobna przy stanie wewnętrznym N, ale może
się też pojawić przy innych stanach wewnętrznych. Reakcja TAK jest najbardziej
prawdopodobna przy stanie wewnętrznym T, ale może się pojawić kiedy indziej.
Oba rozkłady prawdopodobieństw przyjmują kształt krzywej Gaussa. Jak widać,
rozkłady te częściowo na siebie zachodzą, co oznacza, że w pewnych stanach
wewnętrznych możliwa jest zarówno reakcja TAK, jak i reakcja NIE. Nakładanie się
obu rozkładów sprawia, że system jest podatny na popełnianie błędów. Im bardziej
rozkłady wzajemnie się rozchodzą, tym niższe ryzyko błędu. Zdarza się to wtedy,
gdy sygnał jest bardzo dobrze odróżnialny od szumu, np. ze względu na swą
intensywność, jednoznaczność lub kontrast w stosunku do tła. Jeśli natomiast
sygnał jest trudno odróżnialny od szumu (np. dźwięk „c” od dźwięku „cis” dla
kogoś nieuzdolnionego muzycznie), oba rozkłady w znacznym stopniu na siebie
nachodzą, a ryzyko pomyłki wzrasta. Obiektywna odróżnialność sygnału od szumu
decyduje o tym, że oba rozkłady mają swoje wartości modalne w dużym wza­
204
Rozdział 5. Uwaga i świadomość
jemnym oddaleniu. Może też być tak, że wartości modalne znajdują się blisko
siebie, ale odchylenia standardowe są stosunkowo nieduże. Odpowiada to sytuacji,
w której wprawdzie sygnał jest dość podobny do szumu, ale system dobrze
odróżnia jedno od drugiego, bo jest czuły na subtelne różnice między sygnałem
a szumem. Na przykład zawodowy muzyk łatwo odróżni dźwięk „c” od dźwięku
„cis”, chociaż obiektywnie rzecz biorąc są to wartości bardzo do siebie podobne.
Mamy wtedy dwa rozkłady leptokurtyczne, w niewielkim stopniu nakładające się na
siebie. Zatem obiektywne własności stymulacji przekładają się na wewnętrzne
stany systemu, a te - na poziom pewności decydenta co do tego, czy ma do
czynienia z sygnałem czy szumem. Im wyższy poziom pewności, tym mniejszy
zakres nakładania się rozkładów prawdopodobieństw. Im decydent mniej pewny,
z czym ma do czynienia, tym bardziej rozkłady na siebie nachodzą, co zwiększa
ryzyko pomyłki. Subiektywna pewność decydenta zależy zaś od stopnia obiek­
tywnego podobieństwa sygnałów i szumu (wartości modalne rozkładów położone
są blisko lub daleko od siebie) oraz od sprawności samego decydenta (odchylenia
standardowe rozkładów są duże lub małe).
Zdolność decydenta do odróżniania sygnałów od szumu oddaje wskaźnik,
oznaczony jako d ’ (od: discriminability). Wartość d' równa się różnicy między
średnią rozkładu dla reakcji NIE a średnią rozkładu dla reakcji TAK, wyrażonej
w jednostkach odchylenia standardowego, czyli w skali z. Jak wiadomo, stan­
dardowa skala z przekształca średnią arytmetyczną rozkładu normalnego w O(zero),
a odchylenie standardowe w 1 (jeden). Zatem dystans między dwiema średnimi,
wyrażony w skali z, wynosi tyle, ile odchyleń standardowych mieści się między
jedną średnią a drugą. Gdyby oba rozkłady - dla reakcji NIE i TAK - w ogóle się od
siebie nie różniły, dystans między średnimi byłby zerowy, a wartość d ’ = O, czyli
system nie byłby w stanie odróżnić sygnału od szumu. Dystans równy trzem
odchyleniom standardowym oznaczałby, że decydent idealnie rozróżnia sygnały od
szumu, bo rozkłady prawie w ogóle na siebie nie nachodzą. W praktyce d’ przyj­
muje wartości między O a 3. Aby wyliczyć tę wartość, trzeba znać proporcję trafień
(ile razy powiedziano TAK, gdy sygnał był obecny) oraz proporcję fałszywych alar­
mów (ile razy powiedziano TAK, gdy sygnału nie było). Przypuśćmy, że w kon­
kretnym eksperymencie osoba badana trafiała w 92% przypadków, a w 14%
popełniała błąd fałszywego alarmu (przykład za: Levine, Parkinson, 1994). Oznacza
to np., że na 100 sygnałów 92 razy powiedziała TAK, a na 1000 przypadków
działania szumu bądź dystrakcji osoba ta 140 razy również powiedziała TAK. Gdyby
reakcje były przypadkowe, należałoby oczekiwać 50% trafień i 50% fałszywych
alarmów. W podanym przykładzie proporcja trafień odbiega od przypadku na
poziomie -0,42 (bo 0,50 - 0,92 = -0,42), a proporcja fałszywych alarmów - na
poziomie 0,36 (0,50 - 0,14 = 0,36). Według wzoru:
d’ = zN|E - Zjaki
czyli d ’ to różnica między średnią dla NIE a średnią dla TAK wyrażona w skali z.
Z tabeli rozkładu normalnego odczytujemy, że 36% powyżej średniej (o tyle od­
biega od przypadku proporcja FA) odpowiada wartości z = 1,08. Z kolei 42%
poniżej średniej (o tyle odbiega od przypadku proporcja trafień) odpowiada war­
tości z = -1,41. Podstawiając obie wartości do wzoru otrzymujemy wynik:
5.2. Teorie uwagi
205
d’ = 1,08- (-1,41) = 1,08 + 1,41 = 2,49.
Wynik ten oznacza dość dobrą rozróżnialność sygnału od szumu, co może wynikać
z obiektywnie dużej różnicy między nimi lub z wrażliwości obserwatora.
O zachowaniu systemu wykrywającego sygnały decyduje nie tylko rozkład
prawdopodobieństw, ale również przyjęta strategia decyzyjna. Na przykład tera; peuta może uznać, że w sytuacji zagrożenia życia lepiej na wszelki wypadek
zareagować na bardzo nikłe ryzyko samobójstwa, niż zlekceważyć prawdziwe za­
grożenie. Będzie wówczas skłonny raczej popełnić fałszywy alarm niż błąd
ominięcia. Ale decydent może też przyjąć odwrotną strategię. Na przykład tera­
peuta, aby nie „płoszyć” pacjenta lub niczego mu nie sugerować, może zignorować
sygnały zagrożenia jako zbyt słabe, albo może uznać, że ewentualny fałszywy
alarm byłby emocjonalnie bardzo kosztowny dla pacjenta lub jego rodziny. De; cydent jest w takiej sytuacji skłonny popełnić raczej błąd ominięcia niż fałszywego
‘ alarmu. Strategia decydenta zależy od miejsca, w którym ustanowi on kryterium
: rozróżniania między sygnałem a szumem (ryc. 5.6b). Każdy bodziec słabszy od
szumem. W sytuacji, gdy rozkłady prawdopodobieństw choć trochę się na siebie
nakładają, nie ma możliwości uniknięcia jakichkolwiek błędów. Można jedynie
przyjąć, że tendencja do popełniania fałszywych alarmów jest mniej szkodliwa od
tendencji do popełniania błędów ominięcia, lub odwrotnie. W każdym razie, dopiero
w momencie ustanowienia kryterium możliwa jest jawna reakcja typu TAK lub NIE;
206
Rozdział 5. Uwaga i świadomość
wcześniej można było mówić jedynie o stanach wewnętrznych systemu i zwią­
zanych z tym prawdopodobieństwach wystąpienia reakcji określonego rodzaju.
Kryterium można zatem zdefiniować jako minimalny poziom pewności decydenta,
że sygnał się pojawił i należy na niego zareagować.
Wskaźnik przyjętej przez osobę badaną strategii, czyli [3 (beta), można
wyliczyć z empirycznie stwierdzonej proporcji trafień i fałszywych alarmów. Trzeba
w tym celu odczytać wartość funkcji rozkładu normalnego, odpowiadającą wcześ­
niej wyliczonym wartościom na skali z, osobno dla rozkładu NIE i TAK. Każdej
wartości na osi odciętej, traktowanej jako zmienna niezależna, odpowiada określo­
na wartość rzędnej, reprezentującej zmienną zależną. Gdyby to były wartości
realne, oś pionowa reprezentowałaby empiryczną częstość występowania od­
powiednich wartości na osi poziomej. W przypadku rozkładu teoretycznego, gdzie
na osi poziomej mamy skalę z, oś pionowa informuje nas o prawdopodobieństwie
występowania danych wartości. Na przykład prawdopodobieństwo wystąpienia
wartości z = 0 (czyli wartości średniej arytmetycznej, tożsamej z medianą i modalną)
wynosi 0,3989, prawdopodobieństwo wystąpienia wartości z = 1,08 jest równe
0,2227, a prawdopodobieństwo wystąpienia wartości z = 1,41 wynosi 0,1476. Dane
te można odczytać z tabeli prawdopodobieństw pod krzywą rozkładu normalnego.
Wzór na wskaźnik f3 to proporcja prawdopodobieństwa reakcji NIE do reakcji TAK,
czyli:
_
P (T A K )
P (N IE )
W omawianym przypadku ¡3 = 0,1476 : 0,2227 = 0,6628. Jest to wartość, która
mówi nam, że osoba badana przyjęła strategię reagowania „na wszelki wypadek” woli „popełnić” fałszywy alarm niż ominąć sygnał, choć oczywiście zdarza się jej
również to ostatnie. Wartości f3 mniejsze od 1 świadczą o takiej właśnie tendencji,
podczas gdy wartości większe od 1 - o tendencji przeciwnej, czyli skłonności do
unikania fałszywych alarmów, nawet kosztem ominięcia ważnego sygnału. Oczy­
wiście im bardziej wartość ¡3 odbiega od 1 w którąkolwiek stronę, tym silniejsza jest
jedna lub druga tendencja. Gdy natomiast ¡3 = 1, system nie przejawia żadnej
tendencji, czyli traktuje oba rodzaje błędów jako równie kosztowne.
Wskaźniki d ’ i ¡3 są wzajemnie niezależne. System może cechować się dużą
lub małą zdolnością do dyskryminacji sygnału od szumu (cT), ale nie zależy to
w żaden sposób od przyjętego kryterium, a zatem również od tendencji do pre­
ferowania błędów FA lub OM. I odwrotnie - system może przyjąć jedną z dwóch
strategii, czyli reagować tendencyjnie, a siła tej tendencji może być mała lub duża,
lecz nie zależy to w żaden sposób od jego ogólnej sprawności w rozróżnianiu
sygnałów od szumu. Dlatego c/’ informuje nas o ogólnej sprawności systemu jako
detektora sygnałów, a [3 - o przyjętej przezeń strategii działania.
Idealny obserwator ma niższe kryterium decyzyjne dla sygnałów prawdo­
podobnych niż dla bodźców mniej prawdopodobnych. Wzrost prawdopodobień­
stwa pojawienia się sygnału powoduje więc obniżenie się tego kryterium, a tym
samym przyczynia się do wzrostu prawdopodobieństwa wystąpienia popraw­
nych odpowiedzi, choć zwiększa przy tym ryzyko wystąpienia fałszywych
alarmów (Baddeley, Coląuhuon, 1969; Broadbent, Gregory, 1965; Green, Swets,
5.2. Teorie uwagi
j
207
1966; Murrell, 1975; Parasuraman, Davies, 1976; Williges, 1971, 1973). W eks­
perymencie Baddeleya i Colquhuona (1969) osobom badanym pokazywano
serię kół o określonej średnicy, a ich zadaniem było zauważenie koła większego
L od innych. Prawdopodobieństwo pojawienia się sygnału (większe koło) zostało
określone w przedziale od 0,02 do 0,36 dla pięciu grup eksperymentalnych
j- (czynnik międzygrupowy). Baddeley i Colquhuon stwierdzili, że wraz ze
wzrostem prawdopodobieństwa pojawienia się sygnału rosła zarówno częstość
l prawidłowych odpowiedzi (od 0,34 do 0,52), jak i częstość fałszywych alarmów
(od 0,001 do 0,05). Colquhuon i Baddeley (1964, 1967) pokazali również, że
i oczekiwania odnośnie do prawdopodobieństwa pojawienia się sygnału, narzu­
ta cone badanym podczas sesji treningowej, mają wpływ na spadek czujności
I uwagi w trakcie sesji testowej. Spadek ten był znacznie większy w przypadku
osób, którym pokazywano sygnały częściej podczas treningu niż w czasie
regularnej sesji. Spadek prawdopodobieństwa pojawienia się sygnału w stosun; ku do sesji treningowej uśpił więc czujność osób badanych. Z kolei Craig (1980)
ustalił, że badani informowani o prawdopodobieństwie pojawiania się bodźców
s wykazywali się mniejszym spadkiem czujności uwagi, niż badani pozbawieni tej
informacji. MacFarland i Halcomb (1970) oraz Craig i Colquhuon (1975) sugeI rują wręcz, że główną przyczyną spadku czujności uwagi mogą być nief adekwatne oczekiwania badanych odnośnie do prawdopodobieństwa wystąpie! nia sygnału, wynikające z uprzednich, błędnych doświadczeń.
Powyższe wyniki badań są zgodne z koncepcją czujności uwagi sformułop waną przez Bakera (1963). Istotną rolę pełnią w niej oczekiwania osób
badanych co do wielkości przedziału czasowego, w którym musi pojawić się
i sygnał. Baker sugeruje, że zależność między subiektywnym prawdopodobień\ stwem pojawienia się sygnału a wielkością przedziału czasowego, w którym
; pojawia się ów sygnał, jest krzywoliniowa, w postaci odwróconego „U”. Począt­
kowo wzrost wielkości interwału czasowego na jeden sygnał powoduje zwięk­
szenie oczekiwań co do jego pojawienia się, czyli wzrost subiektywnego prawf dopodobieństwa zaistnienia sygnału. Jednak dalszy wzrost szerokości przeŁ działu czasowego sprawia, że subiektywne prawdopodobieństwo sygnału maleje
(Baker, 1959; Deese, 1955). W każdym jednak przypadku badany oczekuje
pojawienia się sygnału mniej więcej w takim odstępie czasowym, w jakim pop przedni wykryty przez niego sygnał pojawił się po sygnale jego z kolei poprze■ dzającym (Baker, 1963). Dodatkowo Baker (1959) ustalił, że ci badani, którzy
; byli najbliżej prawdy w subiektywnej ocenie prawdopodobieństwa sygnału, notowali także najmniejszy spadek w zakresie czujności uwagi, a Baker i Hara­
s' bedian (1962) wykazali, że badani poinformowani o szerokości interwału cza­
sowego notowali znacznie mniejszy spadek czujności uwagi (13%) w porów­
naniu do badanych pozbawionych tej wskazówki (20%).
Wyniki eksperymentów sugerują także, że przedłużoną koncentrację uwagi
i można poprawić poprzez trening. Binkford i Loeb (1966) odkryli, że liczba
fałszywych alarmów zmniejsza się znacząco w trzech pierwszych sesjach wy­
konania zadania na rozpoznawanie dźwięków w wyniku nabywania wprawy
! przez badanych. Kerkhof, van der Schaaf i Korving (1980) ustalili natomiast, że
; liczba błędów ominięcia obniża się sukcesywnie w ciągu pierwszych pięciu sesji
1 wykonania. W kolejnych sesjach, po okresie nabywania wprawy, zarówno liczba
i fałszywych alarmów, jak i liczba ominięć utrzymywała się na stałym poziomie.
208
Rozdział 5. Uwaga i świadom ość
Z kolei Moray, Fitter, Ostry, Favreau i Nagy (1976) oraz Ostry, Moray i Marks
(1976) wykazali, że trening pozwala zredukować efekt spadku czujności uwagi
także w zadaniach na przedłużone monitorowanie sygnałów w paradygmacie
podążania.
Spadek czujności uwagi może też wynikać ze zmniejszenia się wrażliwości
na prezentowane bodźce, jeśli te pojawiają się w danym interwale czasowym
bardzo rzadko lub bardzo często. Mackworth i Taylor (1963) wykazali, że wraż­
liwość na sygnały dźwiękowe maleje w miarę, jak wydłużeniu ulega przedział
czasu, w którym pojawia się pojedynczy sygnał. Z kolei Jerrison i Pickett (1964)
pokazali, że badani testem zegara (paradygmat 5.3) charakteryzują się wysoką
i stałą liczbą prawidłowych rozpoznań (90%), gdy sygnały pojawiają się z często­
tliwością 5 na min. Kiedy proporcja ta wzrosła do 30 sygnałów na minutę, liczba
rozpoznań zmalała aż trzykrotnie. Podobnie było w przypadku, gdy proporcja
liczby sygnałów do czasu trwania zadania zmalała do 1 sygnału na 2,5 min.
(Mackworth, 1948,1950). Wyniki te wielokrotnie potwierdzono (Loeb, Binford,
1968; Parasuraman, Davies, 1976; Warm, 1977).
Co ciekawe, efekt spadku czujności uwagi może się nie ujawnić w złożonych
zadaniach na monitorowanie sygnałów (Adams, 1963; Frankman, Adams, 1962;
Parasuraman, 1976, 1983), a więc w zadaniach, które nie są aż tak monotonne
i nudne, jak zwykłe testy czujności. Według Daviesa i Parasuramana (1982)
wyjaśnienie efektu spadku koncentracji uwagi może się kryć w analizie poziomu
pobudzenia (aktywacji) osób badanych w trakcie wykonywania zadania na
czujność uwagi. Poziom wykonania każdego zadania zależy bowiem od aktual­
nego stanu energetycznego organizmu (Yerkes-Dodson, 1908; Corcoran, 1965;
Eysenck, 1982; Nęcka, 1994). Prawo Yerkesa-Dodsona opisuje omawianą za­
leżność jako krzywoliniową w postaci odwróconego „U”. Poziom wykonania
zadania jest najlepszy przy średnim poziomie pobudzenia, a daleki od optymal­
nego zarówno przy niskiej, jak i wysokiej aktywacji. Potwierdzenie słuszności
prawa Yerkesa-Dodsona znaleźć można również w odniesieniu do czujności
uwagi (Davies, Tune, 1969).
W trakcie długich, nudnych i monotonnych zadań na czujność uwagi można
początkowo zaobserwować wzrost poziomu aktywacji, do czego przyczynia się
relatywna nowość dostarczanej stymulacji, nowość sytuacji eksperymentalnej,
specyficzna sytuacja poddania się badaniom itp. Pobudzenie osób badanych
osiąga wtedy z reguły poziom optymalny, co sprawia, że zadanie na czujność
uwagi jest wykonywane na bardzo wysokim poziomie, nawet do 100%
prawidłowych detekcji (Baker, Harabedian, 1962). Wkrótce jednak omawiane
zadanie przestaje być ekscytujące, co utrudnia utrzymanie optymalnego pozio­
mu pobudzenia, koniecznego do zapewnienia czujności uwagi. W konsekwencji
obserwuje się obniżenie poziomu wykonania zadania, świadczące o spadku
czujności uwagi. Koncepcję Daviesa potwierdzają także wyniki badań psycho­
fizjologicznych. Spadkowi poziomu wykonania zadań na czujność towarzyszyło
z reguły obniżenie się poziomu aktywacji osób badanych, mierzonej aktywnoś­
cią fal mózgowych EEG (Daniel, 1967; Davies i Krkovic, 1965), czy rytmem
pracy serca (Davies, 1964; Stern, 1964), choć przyznać należy, że kilka ekspe­
rymentów dostarczyło zgoła odmiennych rezultatów.
Dokonując przeglądu i metaanalizy badań nad związkami cech tempera­
mentu z poziomem wykonania zadań na czujność uwagi, Koelega (1990)
5.2. Teorie uw agi
209
stwierdził, że związek ten uzależniony jest od poziomu złożoności zadania,
a więc „zdolności” zadania do zwiększania poziomu pobudzenia, rozumianego
jako niespecyficzna energetyzacja organizmu (Eysenck, 1982). W szczególnie
monotonnych i łatwych zadaniach na czujność uwagi lepiej radzą sobie in­
trowertycy, których charakteryzuje chronicznie podwyższony poziom pobudze­
nia kory mózgowej, podczas gdy w bardziej złożonych i stymulujących zada­
niach na monitorowanie sygnałów lepiej wypadają, charakteryzujący się zde­
cydowanie niższym poziomem aktywacji, ekstrawertycy (Eysenck, 1967). Tak
więc efekt spadku czujności uwagi może zależeć nie tylko od pobudzenia chwi­
lowego wywołanego przez samo zadanie, ale także pobudzenia konstytucjonal­
nego, związanego z biologicznie zdeterminowanymi cechami temperamentu
(Eysenck, 1967; Eysenck, 1982).
Efekt spadku czujności uwagi jest jednym z lepiej poznanych zjawisk z za­
kresu uwagi selektywnej. Jego opis w terminach teorii detekcji sygnałów SDT
Greena i Swetsa (1966) jest kompletny, zaś próby jego wyjaśnienia hipoteza­
mi subiektywnego prawdopodobieństwa Bakera (1963) czy zmieniającej się
aktywacji Daviesa i Parasuramana (1982) wydają się wiarygodne i dobrze
udokumentowane wynikami badań. W przyszłości badania nad tym aspektem
selektywnej uwagi będą się prawdopodobnie koncentrować na różnicach
indywidualnych co do zakresu i tempa spadku czujności (Eysenck, 1982; Koelega, 1990).
5.2.4. Teorie podzielności
Już najwcześniejsze badania nad selektywnością, prowadzone w paradygmacie
dychotycznej prezentacji bodźców (paradygmat 5.1), były w gruncie rzeczy ba­
daniami nad podzielnością uwagi. Od osób badanych wymaga się bowiem
dzielenia uwagi na dwa zadania w najtrudniejszej dla nich sytuacji, gdy wedle
instrukcji jedno z zadań polega na odrzuceniu informacji z jednego z kanałów.
Trudno przecież przypuszczać, by zgodne z instrukcją powstrzymanie się od
przetwarzania informacji ignorowanych, co jest istotą badań w paradygmacie
podążania, nie wymagało jakiegokolwiek wysiłku mentalnego. Pierwsze badania
nad podzielnością uwagi prowadzono więc niemal wyłącznie w tym właśnie
paradygmacie (Broadbent, 1952; Allport, Antonis, Reynolds, 1972; Ninjo, Kahneman, 1974). Donald Broadbent (1952, 1954) początkowo bardziej intereso­
wał się wykonywaniem w tym samym czasie dwóch zadań (mówienie i słuchanie;
jednoczesne słuchanie) niż koncentracją na jednym z nich. Doszedł zresztą do
wniosku, że efektywność mechanizmów selekcji informacji w warunkach ko­
niecznej podzielności uwagi jest bardzo niska, a dalsze badania w paradygmacie
podążania prowadził z użyciem instrukcji odrzucania jednego z dwóch prze­
kazów. Zdaniem Drivera (2001) Broadbent niesłusznie narzucił badaczom
uwagi przekonanie o tym, że skuteczna analiza i selekcja informacji musi być
jednokanałowa, jednak przekonanie to było na tyle silne, że przez długi czas
hamowało podjęcie badań nad przetwarzaniem wielokanałowym.
Pytanie o możliwość równoległej selekcji informacji w zakresie dwóch
różnych czynności poznawczych podjęła Bernstein wraz ze współpracownikami
(Bernstein, 1970; Bernstein, Edelstein, 1971; Bernstein, Clark, Edelstein, 1969).
210
Rozdział 5. Uwaga i świadom ość
Autorkę nurtowało pytanie, czy możemy widzieć i słyszeć w tym samym czasie
bez ponoszenia kosztów wykonywania tych dwóch czynności jednocześnie.
Wszystkie rezultaty jej badań świadczyły o pełnej niezależności obu czynności.
Okazało się ponadto, że jeśli obie modalności przetwarzania informacji, czyli
wzrokowa i słuchowa, dotyczą tego samego zadania, informacja słuchowa
skraca czas reakcji na jednocześnie prezentowany bodziec wzrokowy. Podobne
wyniki uzyskał potem Duncan (1984): jednoczesne podjęcie dwóch różnych
decyzji selekcyjnych w odniesieniu do tego samego obiektu nie wymagało ja­
kichkolwiek kosztów poznawczych. Na podstawie uzyskanych przez siebie
wyników, a także podobnych danych zgromadzonych przez innych badaczy
(Eriksen, Spencer, 1969; Ostry, Moray, Marks, 1976), Duncan (1984, 1985)
sformułował koncepcję uwagi ukierunkowanej na obiekt. Zgodnie z tą teorią
podzielność uwagi w zakresie tego samego zadania, czy też w odniesieniu do
tego samego obiektu, jest możliwa bez ponoszenia dodatkowych kosztów, np.
wydłużenia czasu reakcji lub wzrostu liczby błędów. Wprawdzie wyników
uzyskanych przez Bernstein, Duncana i innych nie był w stanie potwierdzić
Pashler (1992; Fagot, Pashler, 1992), jednak dane empiryczne zgromadzone
przez zwolenników koncepcji uwagi ukierunkowanej na obiekt świadczą
wyraźnie przeciwko jednokanałowym teoriom filtra, co Bernstein szczególnie
silnie akcentowała. Wykonywanie dwóch różnych czynności w tym samym
czasie bez ponoszenia kosztów nie jest bowiem możliwe nawet w świetle teorii
elastycznego filtra uwagi sformułowanej przez Johnstona (1978; Johnston,
Heinz, 1978), chyba, że procesy poznawcze obsługujące te czynności są realizo­
wane na tym samym poziomie przetwarzania informacji, a pojemność pojedyn­
czej bramki jest wystarczająca dla analizy wszystkich informacji potrzebnych dla
wykonania obu czynności, co jest praktycznie niemożliwe.
W pierwszym ze swych eksperymentów Allport, Antonis i Reynolds (1972)
prosili osoby badane o powtarzanie fragmentów prozy w paradygmacie prezen­
tacji dychotycznej, a następnie przedstawiali im listę wyrazów, z których połowa
pokrywała się ze słowami, jakie pojawiły się wcześniej w kanale odrzucanym,
połowa zaś była zupełnie nowa. Liczba poprawnie rozpoznanych wyrazów
oscylowała z reguły wokół poziomu przypadku (50%), co potwierdza wyniki
uzyskane przez Broadbenta (1952). W drugim eksperymencie słowa pojawiające
się uprzednio w kanale odrzucanym prezentowano wizualnie, a w trzecim
zastąpiono je obrazkami. Wskaźnik błędów obniżył się w drugim badaniu do
30%, a w badaniu trzecim - do 10%. Jedna z sześciu osób badanych w ekspe­
rymencie trzecim nie popełniła żadnego błędu rozpoznania, a więc nie poniosła
żadnych kosztów jednoczesnego wykonywania dwóch czynności: powtarzania
prozy i zapamiętywania obrazków. Allport i współpracownicy stwierdzili na tej
podstawie, że w eksperymencie pierwszym badani mieli do czynienia z filtro­
waniem informacji akustycznych i zachowywali się zgodnie z przewidywaniami
jednokanałowego modelu filtra uwagi (Broadbent, 1957, 1958), podczas gdy
w drugim i trzecim badaniu zastąpienie sensorycznego kanału akustycznego
kanałem wizualnym spowodowało receptoryczne rozdzielenie dwóch jedno­
cześnie wykonywanych zadań, przez co osoby badane zaczęły radzić sobie
równie dobrze, jak uczestnicy badań Bernstein i współpracowników (Bernstein,
1970; Bernstein, Edelstein, 1971; Bernstein, Clark, Edelstein, 1969). Do uzys­
kania poziomu niemal 100% poprawności w rozpoznawaniu, oprócz zmiany
5.2. Teorie uw agi
211
kanału sensorycznego, konieczna była także zmiana sposobu kodowania
nietrwałych reprezentacji umysłowych odbieranych bodźców z werbalnych na
niewerbalne (obrazowe; zob. rozdz. 2.2). W ostatnim, czwartym eksperymencie
studenci wyższej szkoły muzycznej powtarzali ze słuchu fragment prozy i grali
z nut na pianinie. Nie zaobserwowano większych różnic w poziomie wykonania
obu zadań między warunkiem wymuszonej podzielności uwagi a warunkiem
zadań pojedynczych. Należy podkreślić, iż Allport, Antonis i Reynolds uważnie
dobrali prezentowany materiał werbalny i niewerbalny: słowa pojawiające się
w przekazie odrzucanym były rzadko używane, by zmniejszyć szanse przy­
padkowego ich odgadnięcia, a obrazki dobrano tak, aby zapamiętanie jednego
szczegółu nie mogło stanowić o poprawnym rozpoznaniu całości. Z kolei ba­
dani studenci muzyki byli wystarczająco sprawni w manipulowaniu klawisza­
mi instrumentu, choć nie byli jeszcze uznanymi profesjonalistami w swojej
dziedzinie.
Na podstawie wyników swoich badań Allport (Allport, Antonis, Reynolds,
1972) sformułował multikanałową koncepcję selektywnej uwagi. Autor przyjął,
że uwaga może funkcjonować jako zestaw wielu niezależnych kanałów,
zawierających własne filtry i zdolnych do niezależnej selekcji informacji. Poje­
dynczy filtr funkcjonuje zgodnie z koncepcją selekcji źródła informacji Broadbenta, Treisman, Deutsch i Deutscha czy Johnstona. Gdy konieczna jest kon­
centracja na jakimś zadaniu czy też obiekcie, bez zarzutu może funkcjonować
tylko jeden filtr uwagi. Im bardziej nieprzewidywalne wymagania ze strony
jednocześnie wykonywanych zadań, i im większe ryzyko popełnienia błędu, tym
bardziej prawdopodobna jest decyzja systemu poznawczego o przetwarzaniu
szeregowym i jednokanałowym. W takich warunkach narzucona konieczność
jednoczesnego wykonywania dwóch zadań zawsze będzie wiązać się z kosztami
poznawczymi. Allport nie zgadza się jednak z twierdzeniami zwolenników kon­
cepcji jednego filtra uwagi, iż jednokanałowa forma analizy i selekcji informacji
jest dla systemu poznawczego obligatoryjna.
Wyników zgodnych z koncepcją Allporta dostarczył także Greenwald
(1972; Greenwald, Shulman, 1973). Potwierdził on możliwość percepcyjnego
filtrowania informacji w kanale odrzuconym przy całkowitym braku kosztów
czasowych. Z kolei Salter (1973) polecił badanym jednoczesną koncentrację na
obu przekazach werbalnych, prezentowanych po jednym do obu kanałów sen­
sorycznych. Mimo że przekaz priorytetowy powtarzano bardzo wiernie, także
i drugi komunikat był przez osoby badane reprodukowany, wprawdzie już tylko
fragmentarycznie, ale za to z zachowaniem jego formy lingwistycznej. Poziom
wykonania zadania uzupełniającego był zależny od indywidualnej szybkości
artykulacji, jednak samo wykonywanie tego zadania wskazywało na obecność
funkcjonującego równolegle drugiego filtra uwagi. Przeglądu wyników podob­
nych badań dostarczył Allport (1980a).
Rezultatów sprzecznych z koncepcją multikanałową dostarczyli z kolei
Treisman i Davies (1973). Autorzy potwierdzili wprawdzie, że gdy zadania jed­
noczesne angażują dwie różne modalności sensoryczne (akustyczną i wizual­
ną), badani nie mają większych problemów z rozpoznawaniem obu kategorii
sygnałów. Jeśli jednak instrukcja wymaga semantycznej integracji informacji
należących do różnych modalności, zadania jednoczesne wykonywane są
znacznie gorzej. Treisman i Davies stwierdzili więc, że w systemie poznawczym
212
Rozdział 5. Uwaga i świadomość
może istnieć wiele kanałów sensorycznych wyposażonych w filtry funkcjonujące
zgodnie z zasadą „wszystko albo nic”, jednak kanał semantyczny, wyposażony
w filtr działający zgodnie z zasadą osłabiacza, może być tylko jeden. Kosztów
jednoczesności, mimo rozdzielenia kanałów sensorycznych w obu zadaniach
wykonywanych w tym samym czasie, nie udało się także wyeliminować
Salthause’owi (1975) i Brebnerowi (1977).
Biorąc pod uwagę wyniki powyższych badań, w nowej wersji swojej kon­
cepcji Allport (1980a) dokonał kilku uściśleń. Uznał, że niezależność kana­
łów selekcyjnych zależy od tego, czy dwa konkurencyjne zadania wymagają
różnych receptorów, reprezentacji umysłowych i efektorów. Uwaga może dzia­
łać jako zbiór niezależnych, selekcjonujących informacje modułów. To, który
moduł zostanie użyty, jest zdefiniowane na wejściu - przez rodzaj receptora, na
wyjściu - przez rodzaj efektora, oraz w kanale przetwarzania - przez rodzaj
reprezentacji umysłowej. Każdy moduł jest wyspecjalizowanym podsystemem,
posiadającym własne zasoby, dzięki czemu możliwe jest równoległe przetwa­
rzanie informacji. Moduły są jednak ograniczone zarówno na wejściu, jak i na
wyjściu. Tylko jeden moduł może przetwarzać informację wzrokową, jeden słuchową, dotykową itd. Podobnie, tylko jeden moduł może wypracować
reakcję motoryczną, jeden - werbalną itd. Ograniczenia procesu selekcji
informacji nie wynikają więc z obecności w systemie poznawczym jednego
tylko filtra, lecz z limitowanej dostępności niezależnych modułów, wyposażo­
nych w odrębne mechanizmy filtrujące. Walka o moduły dokonuje się w ramach
tej samej modalności.
Wyniki badań McLeoda (1977) potwierdziły koncepcję modułową. Osoby
badane wykonywały dwa zadania jednocześnie. W pierwszym eksperymencie
zadania były zróżnicowane ze względu na kanał sensoryczny - wzrokowy lub
słuchowy. W badaniu tym uwzględniono także dwa różne sposoby reagowania
na bodźce. W warunku pierwszym oczekiwano reakcji werbalnych na bodźce
akustyczne i reakcji motorycznych (naciśnięcie klawisza) na bodźce wizualne.
W warunku drugim badani reagowali tylko motorycznie: jedną ręką na bodźce
wizualne, a drugą na akustyczne. Liczba poprawnych reakcji w zadaniu z bodź­
cami wzrokowymi okazała się zależna od sposobu reagowania. Badani
popełniali więcej błędów, gdy w drugim zadaniu należało reagować tylko moto­
rycznie, a mniej - gdy jedna reakcja była motoryczną, a druga werbalna.
W drugim eksperymencie zadanie polegające na werbalnej reakcji na bodźce
akustyczne zastąpiono przez zadanie arytmetyczne o dwóch stopniach trud­
ności. Poziom wykonania zadania z bodźcami wzrokowymi był niezależny od
stopnia trudności problemu arytmetycznego rozwiązywanego „w pamięci”. Tym
samym zasada niezależności modułów selekcyjnych, postulowana przez
Allporta (1980), została potwierdzona.
W przeciwieństwie do Allporta, Kahneman (1970) był zdania, że uwaga
selektywna może skutecznie funkcjonować jedynie pod warunkiem szeregowe­
go, jednokanałowego przetwarzania informacji. Jeśli z konieczności dochodzi do
równoległego przetwarzania w wielu kanałach, muszą pojawić się koszty jed­
noczesnego wykonywania kilku czynności, wynikające z wzajemnego zakłóca­
nia przebiegu współwystępujących procesów analizy i selekcji informacji
(Kahneman, 1973). Wykorzystując obserwacje dotyczące owego zjawiska in­
terferencji (zob. rozdz. 6.1), autor sformułował teorię podzielności uwagi,
5.2. Teorie uw agi
213
ŹRÓDŁA POBUDZENIA
(lęk, strach, gniew, podniecenie seksualne,
napięcie mięśniowe, wpływ substancji
pobudzających: leków, narkotyków itp.)
if-%.
as-
W
i^Si
ODPOWIEDZI
& Ryc. 5.7. Model zasobów uwagi wg Kahnemana (1973).
zwaną teorią zasobów (ryc. 5.7). Każdy system poznawczy dysponuje określoną
ilością energii mentalnej, czy też mocy obliczeniowej, zwanej zasobami poznaw­
czymi. System wykorzystuje te zasoby, przeznaczając je na wykonanie poszcze­
gólnych procesów przetwarzania informacji; zjawisko to nosi nazwę alokacji
zasobów. Każde zadanie poznawcze wymaga pewnego wysiłku, co wiąże się ze
zużyciem pewnej ilości „paliwa mentalnego”, czyli zasobów. W systemie
poznawczym trwa więc nieustanna walka równolegle zachodzących procesów
o zasoby uwagi, a nadrzędny mechanizm selekcjonujący zachowuje się jak cen­
tralny dyspozytor energii (Nęcka, 1994, 1995; Szymura, Nęcka, 2004), roz­
dzielając ją pomiędzy poszczególne procesy. To do niego należy decyzja, czy
214
Rozdział 5. Uw aga i świadom ość
trzeba wszystkie siły skupić na jednym zadaniu, gdy wymagania płynące z jego
strony pokrywają się z możliwościami energetycznymi systemu, czy też zasobów
wystarcza jeszcze na podjęcie zadania konkurencyjnego. Walka o zasoby zawsze
jednak wiąże się z interferencją między procesami poznawczymi i wynikającymi
stąd kosztami jednoczesności przetwarzania. Według Kahnemana ilość zasobów
przeznaczona do podziału w konkretnej sytuacji jest tylko częścią ogólnej puli
zasobów. Część ta może ulec zwiększeniu, jeśli system jest w stanie pobudzenia.
Liczne i różnorodne źródła pobudzenia przekładają się na jawne wskaźniki
wysiłku i zaangażowania (np. reakcja elektrodermalna, szybkie tętno). W takich
sytuacjach organizm mobilizuje zasoby, zbliżając się w swoich „wydatkach
energetycznych” do całkowitej puli zasobów.
Potwierdzenie teorii zasobów znalazł Kahneman w wynikach badań włas­
nych z wykorzystaniem paradygmatu podążania (Ninio, Kahneman, 1974).
Zadaniem osób badanych było reagowanie na pojawiające się w kanale słucho­
wym nazwy zwierząt. W pierwszym warunku eksperymentalnym uczestnikom
prezentowano dwa przekazy jednocześnie, z zadaniem skupienia się tylko na
jednym z nich. W warunku drugim połowie osób badanych utrudniono zadanie polecono im monitorować dwa przekazy jednocześnie. Natomiast drugiej
połowie badanych zadanie ułatwiono - prezentowano im tylko jeden przekaz.
Okazało się, że wskaźniki wykonania zadania (czas reakcji, liczba błędów
ominięcia) zdecydowanie się pogorszyły w przypadku konieczności dzielenia
uwagi między dwa ważne przekazy, w porównaniu do warunków, gdzie wyma­
gano koncentracji tylko na jednym komunikacie. Natomiast poziom wykonania
zadania wymagającego koncentracji uwagi na jednym z dwóch przekazów był
tylko minimalnie gorszy od poziomu wykonania zadania, w którym prezento­
wano tylko jeden komunikat. W przypadku pojedynczego komunikatu niemal
w ogóle nie było błędnych reakcji, podczas gdy - w warunku uwagi skupionej na
jednym z dwóch przekazów - pojawiały się okazjonalne ominięcia.
Na tej podstawie Ninio i Kahneman (1974) wywnioskowali, że w warun­
kach dychotycznej prezentacji muszą być przetwarzane - przynajmniej częś­
ciowo - oba przekazy. Gdyby filtr selekcjonujący informacje z obu kanałów był
tylko jeden, musiałby w takim przypadku ponosić koszty czasowe, związane
z przełączaniem się z jednego przekazu na drugi. Kosztów czasowych jednak nie
obserwowano, co wyraźnie wskazywało na istnienie dwóch mechanizmów
filtrujących. Wystąpiły natomiast koszty związane z obniżoną poprawnością, co
sugeruje wzajemną zależność filtrów, spowodowaną walką o ograniczone za­
soby systemu. Jednak w kolejnych badaniach (Kahneman, 1975) nie udało się
wykryć interferencji między dwoma procesami przetwarzania informacji,
polegającymi na zapamiętaniu dwóch konkurencyjnych, jednocześnie prezento­
wanych list wyrazów. Udało się natomiast wykazać, że koszty czasowe związane
z przetwarzaniem równoległym i z interferencją procesów selekcji informacji
mogą być zredukowane, jeśli osobom badanym wcześniej dostarczy się infor­
macji o położeniu celów i dystraktorów (Kahneman, Treisman, Burkel, 1983).
W efekcie Kahneman (1975) wycofał się z twierdzenia, że interferencja mecha­
nizmów filtrujących informacje jest koniecznym następstwem walki o ograni­
czone zasoby systemu (zob. Kahneman, Treisman, 1984; Kahneman, Treisman,
Burkel, 1983), a Navon (1984, 1985) i Gopher (1992), uzupełniając koncepcję
Kahnemana, stwierdzili, że wystąpienie interferencji jest uzależnione od „ła­
5.2. Teorie uw agi
215
dunku mentalnego” zadań jednoczesnych, a więc od wymagań, jakie stawiają
one systemowi poznawczemu.
Należy jednak podkreślić, iż Kahneman falsyfikował teorię zasobów na
podstawie badań, w których uczestnikom dostarczano różnych informacji
zawsze tym samym kanałem sensorycznym. Były to np. dwa kanały akustyczne
(Ninio, Kahneman, 1974) lub dwa kanały wizualne (Kahneman, Treisman,
Burkel, 1983). W takich warunkach teoria modułów Allporta (1980a) również
przewiduje wystąpienie zjawiska interferencji, choć upatruje jego przyczyn nie
w walce o zasoby, lecz w zaangażowaniu jednego modułu do obsługi różnych
czynności. W istocie więc wyniki uzyskane przez Kahnemana świadczą zarówno
na korzyść teorii zasobów, jak i teorii modułów, zupełnie nie rozstrzygając
między konkurencyjnymi wyjaśnieniami powstawania kosztów: interferencją
strukturalną (Allport) i interferencją zasobową (Kahneman). W wielu badaniach
(Allport, Antonis, Reynolds, 1972; Greenwald, Shulman, 1973; Kahneman,
1975; McLeod, 1977), w których stworzono możliwości redukcji efektu interfe­
rencji strukturalnej, efekt interferencji zasobowej nie ujawniał się. W konse­
kwencji, na podstawie wyników uzyskanych przez Kahnemana i innych badaczy
problematyki alokacji zasobów uwagi, trudno jednoznacznie ustalić, w jakich
warunkach może pojawić się zakłócenie związane z walką o zasoby, i czym
zakłócenie to różni się od interferencji strukturalnej (zob. ramka 5.3).
Ramka 5.3
Czy uwaga jest konstruktem jednorodnym?
Nęcka (1995) oraz Szymura i Nęcka (2004) podjęli próbę rozstrzygnięcia kwestii czy
uwaga jest systemem jednorodnym, czy też zbiorem kilku niezależnych subsystemów odpowiedzialnych za poszczególne funkcje uwagowe. Zgodnie z koncep; cjami parcjalistycznymi, uwaga jest systemem modułów - niezależnych struktur
: uwagowych (Allport, Antonis, Reynolds, 1972; Allport, 1980), określonych przez
wejście sensoryczne, wyjście efektoryczne oraz specyficzną reprezentację umy; słową. Moduły te mogą realizować niezależne od siebie funkcje uwagowe. Z kolei
holiści (Kahneman, 1973; Navon, 1984, Gopher, 1992) sugerują jednorodność
; uwagi, która ich zdaniem miałaby się zajmować dystrybucją jednorodnych zasobów
umysłowych systemu. Zgodnie z koncepcjami parcjalistycznymi zjawisko interfe{ rencji (wzajemnego zakłócenia) dwóch jednoczesnych procesów uwagowych wyi stępuje wtedy, gdy korzystają one z tych samych podzespołów modułów (np. tego
5samego wejścia sensorycznego; tzw. interferencja strukturalna). Natomiast zgodnie
? z koncepcjami holistycznymi interferencja pojawia się zawsze wtedy, gdy
wymagania ze strony jednocześnie wykonywanych procesów przekraczają możliJ wości systemu (tzw. interferencja zasobowa). Stanowisko pośrednie między
| parcjalizmem a holizmem reprezentują m.in. Hirst i Kalmar (1987). Uważają oni,
| że uwaga może funkcjonować jako zestaw do pewnego stopnia niezależnych za| sobów specyficznych (związanych z wykonywaniem konkretnych procesów
i poznawczych). Jeśli wymagania ze strony jednocześnie realizowanych różnych
? procesów nie przekraczają możliwości systemu w zakresie zasobów specyficznych,
j które można przydzielić tym procesom, to uwaga funkcjonuje jako system nie| zależnych podsystemów zasobowych.
216
Rozdział 5. Uwaga i świadomość
Podczas wykonywania zadań jednoczesnych stwierdza się często występo­
wanie kosztów równoległości procesów przetwarzania informacji. Mogą one mieć
charakter kosztów ogólnych, jeśli wykonywanie zadania drugiego, „doładowujące­
go”, pogarsza ogólnie wykonywanie zadania pierwszego lub odwrotnie. Koszty te
mogą mieć również charakter bardziej specyficzny, jeśli jakakolwiek manipulacja
poziomem trudności w zakresie jednego z zadań (zwłaszcza głównego) ma wpływ
na wykonanie zadania drugiego. Brak jakichkolwiek kosztów wskazuje na nie­
zależność subsystemów odpowiedzialnych za wykonanie poszczególnych zadań.
Występowanie kosztów specyficznych (silne zjawisko interferencji) przemawia za
tezą o jednorodności uwagi. Występowanie kosztów ogólnych (słabe zjawisko
interferencji) jest z kolei argumentem na korzyść stanowiska pośredniego w sporze
o naturę uwagi. Inaczej mówiąc, podsystemy uwagi mogą być zupełnie niezależne,
częściowo niezależne lub tworzyć jednorodny, zunifikowany organizm.
W badaniach z użyciem testu selektywnej i podzielnej uwagi DIVA (opis testu
w: Nęcka, 1994a; Szymura, 1999) stwierdzono występowanie kosztów ogólnych
w łatwiejszej odmianie tego testu i kosztów specyficznych w jego trudniejszej wersji.
Gdy zadanie selekcyjne testu DIVA wymagało zastosowania sensorycznego
kryterium odróżniania sygnałów od szumu, a zadanie doładowujące polegało na
kontroli jasności wolno zmieniających swoją luminację kwadratów, Nęcka (1995)
stwierdził jedynie ogólny efekt jednoczesności zadań - badani popełniali więcej
błędów selekcji w sytuacji zadania podwójnego niż wtedy, gdy zadanie selekcyjne
miało monopol na zasoby uwagi. Gdy jednak test DIVA utrudniono poprzez
zastosowanie semantycznego kryterium selekcji informacji oraz zmianę zadania
doładowującego (kontrola opadania szybko poruszającej się linii), Szymura i Nęcka
(2004) wykryli zarówno ogólne, jak i specyficzne koszty jednoczesności zadań
poznawczych. Uczestnicy badań zawsze popełniali więcej błędów w zadaniu se­
lekcyjnym, gdy wykonywali je jednocześnie z zadaniem doładowującym niż wtedy,
gdy wykonywali je pojedynczo. Jednak manipulacje w zakresie zadania selekcyj­
nego (m.in. zwiększanie liczby jednocześnie prezentowanych bodźców, obecność
bodźców zakłócających) miały również wyraźny wpływ na poziom wykonania
zadania doładowującego - im trudniejsze stawało się zadanie selekcyjne, tym
gorzej badani kontrolowali ruch opadającej linii. Na tej podstawie autorzy formułują
wniosek, że uwaga jest mechanizmem jednorodnym, co ujawnia się szczególnie
mocno wtedy, gdy zadania jednoczesne są relatywnie trudne. W warunkach
„opresji” system uwagi jak gdyby zaostrza swą politykę rozdziału zasobów.
Natomiast w sytuacji, gdy zadania są łatwe, poszczególne składniki systemu uwagi
uzyskują częściową, ale i łatwo odwracalną „suwerenność”.
Broniąc koncepcji zasobów uwagi, Navon i Gopher (1979) stwierdzili, iż
obserwowany niekiedy brak spodziewanej interferencji między procesami se­
lekcji informacji wynika stąd, że jednocześnie wykonywane czynności nie
konkurują o jedną pulę zasobów, jak to zakładał Kahneman (1973). Navon
i Gopher uważają, że istnieje wiele niespecyficznych „zasobników” energii
mentalnej. Dwa łatwe zadania, podobne w swoich wymaganiach, mogą prowa­
dzić do interferencji, gdyż dochodzi wtedy do walki o specyficzne zasoby, od­
powiedzialne za realizację podobnych czynności. Z kolei dwa różne, trudne
5.2. Teorie uwagi
217
zadania nie muszą wywoływać interferencji, jeśli nie dojdzie do współzawod­
nictwa między nimi o moc obliczeniową: ich realizacja może wymagać różnych,
specyficznych pul zasobów. Ani dla Navona i Gophera, ani dla podzielających
ich poglądy Wickensa (1984), czy Hirsta i Kalmara (1987), nie jest jednak jasne,
jak dużą liczbą specyficznych pul zasobów dysponuje system poznawczy. Nie
jest także wiadome, jaką pojemnością cechują się rezerwuary zasobów spe­
cyficznych. Pisanie na maszynie wydaje się angażować co najmniej dwa specy­
ficzne pola zasobów: pierwsze odpowiedzialne za rozpoznawanie liter i znaków,
drugie - za generowanie reakcji motorycznych w postaci uderzania w odpowied­
nie klawisze (Gopher, Brickner, Navon, 1982). Być może jednak w czynności tej
bierze również udział specyficzna pula zasobów, odpowiadająca np. za koordy­
nację psychomotoryczną lub inne jeszcze rezerwuary mocy obliczeniowej.
Pytania o ilość zasobów oraz liczbę ich rezerwuarów nadal pozostają bez
odpowiedzi. Podważa to wiarygodność koncepcji zasobów, uniemożliwiając jej
empiryczną weryfikację oraz dopracowanie szczegółów teorii (Navon, 1985).
Należy także podkreślić, iż postulowanie istnienia zasobów specyficznych upo­
dabnia teorię zasobów do teorii modułów uwagi. Mechanizm interferencji
zasobowej można równie dobrze opisać w języku interferencji strukturalnej,
a rezerwuary zasobów specyficznych uznać za niezależne moduły uwagi. Nie
bez znaczenia jest też niejasność co do kluczowego pojęcia „zasobów”, definio­
wanego raczej metaforycznie (energia, paliwo mentalne) niż poprzez ścisłe
terminy obserwacyjne. Teorii zasobów zarzuca się wręcz, że popada w błędne
koło, tłumacząc efekt interferencji walką o zasoby, jednocześnie dowodząc
istnienia zasobów i ich ograniczonego charakteru na podstawie efektu inter­
ferencji. Najważniejsze jednak pytanie, na które nadal nie znamy odpowiedzi,
dotyczy tego, w jakich warunkach selektywna uwaga może funkcjonować wielo­
kanałowo, a w jakich zmuszona jest przetwarzać informacje w jednym kanale
selekcji.
5.2.5. Teorie przerzutności
Zwolennicy koncepcji jednokanałowego systemu selekcji informacji są zdania,
iż system poznawczy może wykonywać zadania jednoczesne tylko w ten sposób,
że nieustannie przełącza się z jednego na drugie. Konsekwencją takiego sposobu
myślenia jest hipoteza przełącznika (Nęcka, 1994). Wykonując zadania jedno­
czesne, hipotetyczny filtr uwagi przez pewien odcinek czasu pozostaje na
usługach jednego z dwóch zadań. W tym czasie informacje dotyczące drugiego
zadania nie podlegają analizie, przez co jest ono po prostu ignorowane. Jeśli
przełączenia pomiędzy zadaniami dokonują się dostatecznie szybko i często,
koszty powstające w wyniku takiego funkcjonowania mechanizmów selekcji
ograniczają się do czasu - reakcje po przełączeniu są nieco dłuższe, co wynika
z konieczności dostosowania mechanizmu filtrującego do zadania sprzed
przełączenia. Konieczna może się okazać np. zmiana poziomu analizy danych,
kryteriów selekcji informacji lub tempa przetwarzania bodźców, co wymaga
czasu. Jeśli jednak przełączenia są zbyt wolne lub rzadkie, zaczynają się ujaw­
niać również koszty w zakresie poprawności; pojawiają się ominięcia sygnałów
i fałszywe alarmy, a więc błędne reakcje będące efektem spóźnienia w odbiorze
218
Rozdział 5. Uwaga i świadom ość
bodźców lub też wynikające ze stosowania nieadekwatnej zasady selekcji.
W myśl koncepcji jednokanałowych, przełączanie jednego i tego samego filtra
uwagi między zadaniami jednoczesnymi zawsze pociąga za sobą koszty, które
niekiedy ograniczają się do wydłużonego czasu reagowania, a kiedy indziej
zwiększają poziom zawodności systemu.
Rogers i Monsell (1995) wyróżnili dwa rodzaje procesów biorących udział
w przełączaniu uwagi: wzbudzane wewnętrznie i zewnętrznie. Pierwsza kate­
goria obejmuje procesy odgórne, uruchamiane przez system selekcjonujący in­
formacje. Ich rola polega na przygotowaniu odpowiednich operacji umysłowych,
niezbędnych do wykonania zadania pojawiającego się jako następne w kolej­
ności. Procesy te zostały nazwane przygotowawczymi, ponieważ działają proaktywnie: ich uruchomienie następuje jeszcze przed pojawieniem się bodźców
sygnalizujących nowe zadanie. Możliwość ich uruchomienia istnieje niezależnie
od zewnętrznej stymulacji, również wtedy, gdy dane potrzebne do wykonania
kolejnego nowego zadania nie są jeszcze dostępne przetwarzaniu (Sohn, Ander­
son, 2001; Sohn, Carlson, 2000). Natomiast procesy wzbudzane zewnętrznie
mają charakter oddolny i działają reaktywnie, ponieważ stanowią odpowiedź
systemu na już zaistniałą, nową sytuację. Rola procesów wzbudzanych zew­
nętrznie polega na dokończeniu dzieła zapoczątkowanego przez procesy
przygotowawcze. Jest oczywiste, że procesy przygotowawcze nie są w stanie
samodzielnie sterować przerzutnością uwagi, ponieważ dopiero pojawienie się
nowego zadania ostatecznie określa, jakie wymagania stawia ono systemowi
poznawczemu. Procesy przygotowawcze mają charakter kontrolny (Norman,
Shallice, 1986), podczas gdy procesy wzbudzane zewnętrznie są raczej auto­
matyczne (Styles, 1997; zob. rozdz. 6.1). Działanie procesów kontrolnych jest
wyraźnie widoczne wówczas, gdy osoba badana wie, jakie będzie kolejne zada­
nie w serii, jaki cel należy w nim zrealizować, a najlepiej - w jaki sposób można
ten cel osiągnąć. Może się wówczas przygotować do wykonania zadania poprzez
zaplanowanie sposobu realizacji celu. Podstawowa rola procesów kontrolnych
w elastycznym reagowaniu na zmianę warunków zadania polega więc na
odpowiednim doborze operacji umysłowych potrzebnych do realizacji zadania,
ustaleniu ich kolejności i następstwa, a także na kontrolowaniu ich przebiegu
(Ruthruff, Remington, Johnston, 2001).
Próbując wyjaśnić, jak jest możliwe przełączanie uwagi między zadaniami,
Rogers i Monsell (1995) wprowadzili pojęcie zestawu zadaniowego (task-set).
Zestawem jest wyspecjalizowany, dobrze zorganizowany i dopasowany do sy­
tuacji układ operacji poznawczych niezbędnych do wykonania zadania.
Działanie zestawu zadaniowego polega na skupieniu uwagi na istotnych ele­
mentach stymulacji, uaktywnieniu właściwego wyjścia motorycznego, urucho­
mieniu stosownych reguł łączenia wejścia sensorycznego z wyjściem motorycznym oraz na ustaleniu kryteriów poprawnej reakcji. Procesy składające się na
zestaw tworzą więc funkcjonalny moduł przechowywany w pamięci. Przełą­
czenie uwagi z jednego zadania na drugie wymaga rekonfiguracji zestawu - dwa
następujące po sobie zadania mogą wymagać udziału tych samych procesów, ale
w innym układzie, albo wręcz nieco innego zestawu procesów. Im więcej czasu
damy osobie badanej na rekonfigurację, tym mniejsze będą czasowe koszty
przerzucania uwagi, dlatego wydłużanie przerwy między próbami nieco
redukuje koszty; zwykle wystarczy na to mniej niż 1000 ms (Rogers, Monsell,
5.2. Teorie uwagi
219
1995). Choć adekwatna zmiana zestawu zadaniowego wydaje się niezbędnym
warunkiem redukcji kosztów, nie jest jasne, w jaki sposób przebiega sam proces
rekonfiguracji (Meiran, Chover, Sapir, 2000). Niektórzy badacze twierdzą,
iż omawiany proces dokonuje się poprzez wydobywanie danych z pamięci,
hamowanie nieistotnych informacji, monitorowanie zadań, utrzymywanie
lub zmienianie celów oraz aktywację reguł zadania (Gopher, Armony, Greensphan, 2000; Goschke, 2000; Meiran, 2000; Rubinstein, Meyer, Evans, 2001).
Nie jest to z pewnością lista kompletna; służy raczej pokazaniu, jakiego typu
procesy przetwarzania informacji mogą mieć znaczenie dla redukcji kosztów
przerzucania uwagi.
W wielu eksperymentach sprawdzano efektywność procesów przygotowaw­
czych w zależności od rodzaju dostarczanej osobom badanym informacji o tym,
jakie zadanie pojawi się jako następne w kolejności (Arbuthnott, Frank, 2000;
Arbuthnott, Woodward, 2002; Sohn, Carlson, 2000). Informacja ta sprowadzała
się do regularnego układu zadań, dzięki czemu badani mogli przewidzieć ich
kolejność (Rogers, Monsell, 1995; Sohn, Anderson, 2001), lub miała postać
wskazówki dostarczanej w czasie przerwy między poszczególnymi zadaniami
(De Jong, 2000; Gopher, Armony, Greensphan, 2000; Meiran, 2000; Meiran,
Chover, Sapir, 2000). Wyniki tych badań wyraźnie wskazują, że jeśli osoby
badane wiedzą, jakie zadanie pojawi się jako następne oraz mają wystarczająco
dużo czasu na przygotowanie się do niego, to koszty przełączania uwagi
znacznie maleją. Przerwę między zadaniami, konieczną do zredukowania
kosztów przerzutności określa się skrótem RSI (response-stimulus interval),
ponieważ obejmuje czas między poprzednią reakcją a bodźcem sygnalizującym
nowe zadanie. Długość tej przerwy zależy od rodzaju zadań, między którymi
uwaga się przełącza. Na przykład w badaniu Sohna i Andersona (2001)
efektywna przerwa trwała 200 ms lub 600 ms, w zależności od tego, czy osobom
badanym prezentowano w czasie przerwy wskazówkę informującą o rodzaju
kolejnego zadania do wykonania (krótsza przerwa wystarczająca), czy też nie
(długa przerwa konieczna). U Meirana (1996) przerwa trwała 200 ms lub
1400 ms. W eksperymencie Śmigasiewicz, Szymury i Słabosz (2004) przerwa
wynosiła 400 ms lub 800 ms w zależności od rodzaju redukowanych błędów
(fałszywe alarmy - 400 ms; ominięcia - 800 ms). Natomiast w badaniu
Ruthruffa, Remingtona i Johnstona (2001) długość przerwy dochodziła nawet
do 2500 ms. Jeżeli za powstawanie kosztów przerzucania uwagi byłyby
odpowiedzialne tylko procesy kontrolne, to koszty te powinny ulec całkowitej
redukcji w wyniku działania wskazówki wyprzedzającej lub wystarczająco
długiego RSI; w rzeczywistości redukcja kosztów nigdy nie jest zupełna
(Goschke, 2000; Meiran, 2000; Ruthruff, Remington, Johnston, 2001). Oznacza
to, że w generowaniu kosztów przełączenia biorą udział również procesy
automatyczne, wzbudzane i ukierunkowywane oddolnie przez stymulację
zewnętrzną.
Przykładem działania procesów automatycznych jest efekt poprzedzania
pozytywnego. Polega on na szybszym przetwarzaniu w kolejnym zadaniu z serii
tej samej stymulacji, która działała w poprzednim zadaniu, lub podobnej (Sohn,
Anderson, 2001; Sohn, Carlson, 2000). Tego typu automatyczne procesy
ułatwiają przetwarzanie informacji w przypadku powtórzenia zadania selekcyj­
nego, ale mogą mieć niekorzystne skutki, gdy konieczne będzie przełączenie
220
Rozdział 5. Uwaga i świadom ość
uwagi na inny rodzaj stymulacji. Procesem automatycznym, odpowiedzialnym
za powstawanie kosztów przełączania uwagi między zadaniami, jest aktywacja
struktur poznawczych, stanowiąca rezultat uprzednio wykonywanego zadania.
Wyniki badań prowadzonych przez Allporta i jego współpracowników (Allport,
Styles, Hiesh, 1994; Allport, Wylie, 2000) wskazują, że na powstawanie tych
kosztów ma wpływ proaktywna interferencja ze strony zadania wcześniejszego
w stosunku do zadania występującego jako następne w kolejności. Aktywacja
reguł koniecznych do wykonania ukończonego właśnie zadania nie zanika
natychmiast po jego zakończeniu. Przy przejściu do nowego zadania, utrzy­
mująca się aktywacja związana z poprzednim zadaniem utrudnia wzbudzenie
nowej aktywacji, koniecznej do rekonfiguracji zestawu zadaniowego. Aby zre­
dukować koszty przerzutności związane z interferencją proaktywną, należy od­
dzielić przełączane zadania odpowiednio długą przerwą. Allport, Styles i Hiesh
(1994) stwierdzili, że im dłuższa przerwa między zadaniami, tym mniejsze
koszty przełączania uwagi między nimi. Według Allporta i współpracowników
świadczy to o tym, że aktywacja uprzednio utworzonego zestawu zadaniowego
samoistnie zanika wraz z upływem czasu.
Zdaniem Allporta (1980, 2000), im bardziej moduły selekcyjne dla różnych
zadań są do siebie podobne, tym większa jest interferencja między nimi. Jest ona
większa również wtedy, gdy połączenia tworzące moduł dla pierwszego zadania
dominują z jakiś powodów (np. w wyniku priorytetu przyznanego przez in­
strukcję eksperymentalną) nad połączeniami modułu obsługującego zadanie
drugie. Wyniki badań Allporta świadczą na korzyść tezy, że koszty przerzutności
są związane z wykonywaniem wcześniejszego zadania w serii, a nie zadania
nadchodzącego jako kolejne. Tylko w pierwszym przypadku poziom trudności
zadania miał wpływ na wielkość kosztów przełączania się między zadaniami, zaś
poziom trudności zadania następczego nie miał znaczenia. Istotny wpływ
aktywacji zestawu odpowiadającego zadaniu wcześniejszemu na wielkość kosz­
tów przerzutności stwierdzono również w badaniach Meirana (2000; Meiran,
Chover, Sapir, 2000). Jednakże wyniki badań Smigasiewicz, Szymury i Słabosz
(2004) nie potwierdziły tezy Allporta. W badaniach tych koszty przełączenia
z zadania A na zadanie B były wyższe w przypadku, gdy poziom trudności
zadania B był wysoki, niż wtedy, gdy zadanie B było stosunkowo łatwe. Na
podstawie powyższych argumentów empirycznych można wnosić, że wielkość
kosztów przerzutności uwagi między zadaniami zależy od poziomu trudności
tych zadań. Wielu badaczy (np. Rubinstein i in., 2001) uważa jednak, że koszty
te wynikają nie tyle z działania elementarnych procesów poznawczych, ile
z funkcjonowania mechanizmów kontrolnych - dlatego też są one, ich zdaniem,
niezależne od poziomu trudności zadań.
Manipulacje zmierzające do redukcji kosztów przerzutności (wskazówka
dla procesów kontrolnych i przerwa dla procesów automatycznych) są sku­
teczne, ale tylko do pewnego stopnia. Ujawniające się mimo wszystko koszty
przerzutności nie podlegające redukcji, nazwano kosztami rezydualnymi. Różni
autorzy nie są zgodni co do tego, z czego wynikają te koszty. Tipper, Weaver,
Cameron, Brehaut i Bastedo (1991) są zdania, że rekonfigurowanie zestawu
zadaniowego może zostać wstrzymane na pewnym etapie i odroczone aż do
momentu, w którym pojawi się stymulacja dotycząca nowego zadania. Innymi
słowy, uruchomienie procesów zewnętrznych może być koniecznym warunkiem
5.3. Uwaga, percepcja i (nie)św iadom ość
t',.-
221
s
I
l
i
I
l!
g
I
|
p
i
|
|
|
|
|
|
I
|
I
I
1
■
B
dokończenia procesów przygotowawczych (Rogers, Monsell, 1995). Źródłem
kosztów rezydualnych może być także mechanizm inhibicji (Mayr, Keele, 2000).
Przejście do kolejnego zadania w serii wymaga bowiem uruchomienia dwóch
procesów: pierwszy polega na wzbudzeniu aktywacji nowego zestawu zadaniowego, drugi natomiast - na zahamowaniu aktywacji zestawu, który wraz
z zakończeniem poprzedniego zadania utracił swą przydatność. Mayr i Keele
(2000) wykazali, że ponowna aktywacja modułu potrzebnego do realizacji
zadania wcześniej „odłączonego” trwa dłużej (układ zadań ABA) niż aktywacja
modułu koniecznego do wykonania zadania całkiem nowego, dotąd nie
wykonywanego (układ zadań ABC). Jest to zjawisko analogiczne do efektu poprzedzania negatywnego (Neill, 1977; Tipper, 1985; zob. rozdz. 6.2): reakcja na
bodziec uprzednio ignorowany jest znacznie utrudniona. Koszty rezydualne
mogą więc powstawać w wyniku konieczności „odhamowania” reakcji wcześniej zahamowanej.
Badania nad przerzutnością uwagi koncentrują się wokół problemu kosztów przełączania się między zadaniami - ich przyczynami i możliwościami
redukcji. Oddzielenie wpływu procesów kontrolnych i automatycznych na redukcję tych kosztów wydaje się niemożliwe, gdyż głównym czynnikiem pozwalającym zwiększyć efektywność przełączenia jest długość przerwy RSI
(Allport, Styles, Hiesh, 1994; Sohn, Anderson, 2001). W wyniku jej działania
możliwy jest zarówno automatyczny zanik aktywacji wywołanej poprzednim
zadaniem, jak i kontrolowany proces przygotowania się do wykonywania
następnego zadania w serii.
| 5.3. Uwaga, percepcja i (nie)świadomość
|
|:
I
I
I
I
I
I
I
I
1
1
1
I;
|
|
i
I
1
I
Zgodnie z tradycją, wprowadzoną przez Jamesa (1890), przez dłuższy czas
uważano, że uwaga jest zdolnością umysłu do świadomej koncentracji na
wybranym podmiocie: myśli bądź rzeczy. Przyjmowano, że jeśli coś się przedostanie przez filtr uwagi, musi być uświadomione, a jeśli nie jest uświadomione, to znaczy, że zanikło na bardzo wczesnych etapach przetwarzania.
Obróbkę informacji na wczesnych etapach nazywano w związku z tym procesami przeduwagowymi (preattentive processes). Obecnie stanowisko psychologów w tej kwestii uległo złagodzeniu. Uważa się, że uwaga skutecznie selekcjonuje informacje nawet wtedy, gdy ich treść nie przedostaje się do świadomości. Zebrano dane empiryczne, świadczące o możliwości nieświadomej obróbki danych na najwyższym, semantycznym piętrze przetwarzania. Na określenie
tych zjawisk nadal używa się historycznego terminu „procesy przeduwagowe”,
choć nikt nie wątpi, że są to zjawiska całkowicie uwagowe.
Badanie związków uwagi, percepcji i świadomości wymaga ustalenia empirycznych kryteriów świadomości. Velmans (1999) uważa, że proces przetwarzania informacji można uznać za świadomy, jeśli są spełnione następujące
warunki: człowiek zdaje sobie sprawę z przebiegu procesu poznawczego i dysponuje wiedzą o rezultatach tego procesu, a świadomość procesu ma wpływ na
jego przebieg. Zaś zdaniem Baara (1997) proces można uznać za nieświadomy,
jeśli nie wyzwala subiektywnego doświadczenia i nie można go w żaden sposób
222
Rozdział 5. Uwaga i świadomość
zrelacjonować czy odtworzyć, nawet w warunkach optymalnych, ale ujawnia­
ją się obiektywne skutki jego działania. Marcel (1983) oraz Cheesman i Merikle (1984) zaproponowali eksperymentalne sposoby sprawdzenia, czy głę­
bokie, semantyczne przetwarzanie informacji może mieć charakter nieświado­
my. Chodzi o wypracowanie operacyjnych definicji tego, czym jest bodziec
podprogowy.
Mianem bodźca podprogowego (subliminalnego) określa się stymulację,
która jest wystarczająco silna, aby pobudzić organy sensoryczne, ale zbyt słaba,
aby można ją było świadomie zauważyć. Bodziec podprogowy działa więc po­
wyżej absolutnego progu percepcji, ale poniżej progu świadomości. Technicznie
rzecz biorąc, podprogowy charakter stymulacji najczęściej uzyskuje się poprzez
drastyczne skrócenie czasu jej trwania (nawet do kilku ms). Problem polega na
tym, czy inne m anipulacje eksperymentalne - poza skróceniem czasu
prezentacji - pozwalają uznać bodziec za podprogowy.
Zdaniem Marcela (1983) przebiegu nieświadomego procesu przetwarzania
informacji nie można zaobserwować bezpośrednio - o jego występowaniu
świadczy natomiast wpływ, jaki proces ten wywiera pośrednio na inne, świa­
dome procesy poznawcze. Bezpośrednie efekty oddziaływania bodźców
w zadaniach poznawczych sprawdza się zazwyczaj poprzez wskaźniki
poprawności oceny fizycznych charakterystyk tych bodźców, np. ich obecności
lub lokalizacji w prezentowanym zestawie. Natomiast efekty pośrednie
można ocenić mierząc wpływ bodźców zdegradowanych, np. zniekształconych,
maskowanych lub prezentowanych w bardzo krótkim czasie, niewystarcza­
jącym do świadomego rozpoznania. Pośredni jest np. efekt synonimu, uchwy­
cony w paradygmacie podążania jako spowolnienie reakcji na sygnały poja­
wiające się w kanale ważnym, gdy w kanale ignorowanym występują ich sy­
nonimy (Treisman, Squire, Green, 1974; Treisman, Sykes, Gelade, 1977).
Badani nie mają świadomości występowania synonimów w kanale ignorowa­
nym, a zwłaszcza nie zdają sobie sprawy z ich wpływu. Zgodnie z definicją
Velmansa, efekt ten można więc uznać za przykład nieświadomego przetwa­
rzania informacji. Zdaniem Marcela, bodziec można uznać za subliminalny
nawet wtedy, gdy trwa odpowiednio długo, pod warunkiem, że pojawia się na
peryferiach pola uwagi - jest np. zamaskowany lub pojawia się na peryferiach
pola widzenia (w tle).
Natomiast Cheesman i Merikle (1984, 1986) argumentują, że świadome
przetwarzanie może teoretycznie objąć każdy bodziec, działający powyżej
absolutnego progu percepcji. Ich zdaniem nie można wykluczyć, że synonimy
pojawiające się w kanale ignorowanym są w istocie przetwarzane świadomie,
choć badani mogą ich później nie pamiętać, przez co badacz błędnie wnioskuje
o braku świadomości ich występowania (Holender, 1986; Velmans, 1991).
Wynika stąd, że wpływ bodźców bardzo krótkich, jeśli się ujawni, musi być
skutkiem nieświadomej analizy i selekcji informacji, to wpływ bodźców zde­
gradowanych w inny sposób (np. pojawiających się w odrzucanym kanale
akustycznym czy na peryferiach pola wzrokowego) - niekoniecznie. Jednakże,
niezależnie od ustalenia operacyjnej definicji bodźca podprogowego, nie brakuje
argumentów empirycznych, świadczących o tym, że jest możliwa nieświadoma
selekcja i analiza informacji.
5.3. Uwaga, percepcja i (nie)świadomość
223
5.3.1. Analiza wskazów ek peryferycznych
[
i
[
\
[
|
[
|
|
I
|
;
5
Mendelsohn wraz ze współpracownikami (Mendelsohn, 1976; Mendelsohn,
Griswold, 1964, 1966) prosili osoby badane o wykonanie kolejno dwóch zadań.
Pierwsze polegało na zapamiętywaniu listy wyrazów, a drugie - na rozwiązy­
waniu anagramów (układanie wyrazów z losowo rozrzuconych liter). Niektóre
słowa, stanowiące rozwiązanie anagramów, były obecne na liście wyrazów do
zapamiętania. Mimo iż badani nie zdawali sobie sprawy z relacji między obu
zadaniami, rozwiązywali znacznie więcej anagramów wtedy, gdy słowa
stanowiące ich rozwiązanie znajdowały się na zapamiętywanej uprzednio liście
bodźców. Nazwano to efektem nieuświadomionej podpowiedzi. Mendelsohn
i Liedholm (1972) wykazali, że jego wielkość zależy od modalności sensorycznej. Znacznie większy efekt zaobserwowano wtedy, gdy lista zapamiętywanych wyrazów prezentowana była w modalności wizualnej, niż wtedy, gdy
przedstawiano ją słuchowo.
Nieco bardziej sceptyczne wnioski wynikają z badań Macka, Rocka oraz ich
współpracowników (Mack i in., 1992; Rock i in., 1992; Mack, Rock, 1998).
Wykonali oni serię eksperymentów w celu zbadania, czy możliwa jest percepcja
bodźców znajdujących się poza centrum uwagi. Zadaniem osób badanych była
ocena, które ramię prezentowanego im na ekranie krzyża było dłuższe. W części
zadań oprócz krzyża pojawiał się inny bodziec (w centrum lub na peryferiach
pola percepcyjnego), o czym badani nie byli uprzedzani. Po zakończonym
eksperymencie pytano osoby badane, czy oprócz krzyża widziały jeszcze jakieś
inne bodźce. W przypadku odpowiedzi pozytywnej proszono o ich wymienienie,
a w przypadku odpowiedzi negatywnej - o wybranie spośród kilku obiektów
tych, które mogły być uprzednio pokazywane. W każdym z cytowanych tu
badań, gdy bodźce dodatkowe prezentowano peryferycznie, 25-35% respon­
dentów udzielało negatywnej odpowiedzi na pytanie eksperymentatorów.
Badani ci nie byli również w stanie rozpoznać sygnału wśród sześciu prezen­
towanych im później figur. Jeśli natomiast sygnał pojawiał się tuż obok krzyża
(w centrum uwagi), praktycznie nie zdarzyło się, aby pozostał niezauważony.
W zauważeniu bodźca peryferycznego pomagały cechy priorytetowe, takie jak
ruch czy kolor, jeśli były dystynktywne (zob. też Horbaczewski, Szymura, 2005;
Szymura, Horbaczewski, 2005). Wykryto też, że aż 90% osób badanych zauwa­
żało pojawienie się na peryferiach pola wzrokowego, poza ogniskiem uwagi,
własnego imienia (por. Moray, 1959). Jeśli jednak na ekranie pojawiało się
jakieś inne imię, zauważało je niewiele ponad 60% uczestników eksperymentu,
a tylko 45% z nich było w stanie poprawnie je zidentyfikować. Gdy nie­
oczekiwanym bodźcem było błędnie napisane własne imię osoby badanej, ta
zwykłe nie była w stanie go zidentyfikować, ani nawet zauważyć. Podobnie było
w przypadku innych wyrazów niosących ze sobą specyficzne znaczenie, zu­
pełnie jednak niezwiązane z zadaniem przetwarzanym w centrum uwagi.
Bodźce pojawiające się na peryferiach uwagi są więc przetwarzane raczej słabo,
i tylko na dość płytkim poziomie, z niewielkim udziałem analizy semantycznej
(Mack, Rock, 1998).
224
Rozdział 5. Uwaga i świadomość
5.3.2. Reakcje na informacje odrzucane
Prowadząc badania w paradygmacie podążania, Lackner i Garrett (1972) prezen­
towali w ważnym kanale komunikaty o niejasnej treści, a w kanale ignorowanym
- wskazówki pomocne w ich interpretacji. Stwierdzono, że badani wykorzysty­
wali wskazówki, choć nie byli w stanie odtworzyć jakichkolwiek informacji po­
chodzących z kanału ignorowanego. Interpretacja niejasnego przekazu była tym
lepsza, im większa była semantyczna zbieżność nieuświadomionej wskazówki
z treścią owego komunikatu. Wyniki te potwierdził następnie Mackay (1973),
a jeszcze silniejszych argumentów za nieświadomym przetwarzaniem semantycz­
nym w kanale odrzucanym dostarczył Holender (1986). Wykorzystując procedurę
Lacknera i Garretta, autor dokonał dodatkowej manipulacji, polegającej na roz­
dzieleniu w czasie wskazówki i dwuznacznego przekazu: informacja pomagająca
w interpretacji przekazu znacznie go wyprzedzała. Holender uzyskał wyniki
zbliżone do rezultatów Lacknera i Garretta oraz Mackaya - nieuświadomiona
wskazówka nadal pomagała w wykonywaniu głównego zadania. Ze względu na
czasową rozbieżność prezentacji bodźców w obu kanałach, w interpretacji
niejasnego komunikatu nie mogła pomagać nietrwała reprezentacja wyobraże­
niowa wskazówki, ale raczej jej trwała i głęboka reprezentacja umysłowa. Przy
założeniu, że brak werbalizacji wskazówki oznacza brak jej uświadomienia,
wyniki uzyskane przez Holendra, można traktować jako bardzo ważny argument
na rzecz tezy o nieświadomym przetwarzaniu znaczenia bodźców.
Dallas i Merikle (1976) wykazali, że prawidłowa reakcja na słowo prezen­
towane w kanale ważnym (np. samochód) może być znacznie przyspieszona,
gdy w kanale ignorowanym pojawi się słowo semantycznie z nim związane (np.
kierownica). Czas reakcji wydłuża się natomiast wtedy, gdy w kanale ignorowa­
nym pojawi się synonim słowa, na które należy zareagować (np. auto), co nosi
nazwę efektu synonimu (zob. ramka 5.1). Nie jest jasne, dlaczego synonim
zmniejsza szybkość reagowania, a słowo bliskie znaczeniowo skraca czas
reakcji. Nie ma jednak wątpliwości, że informacje pozornie ignorowane
przedostają się do kanału przetwarzania semantycznego, mimo iż uczestnicy
badań nie zdają sobie z tego sprawy.
Informacje pojawiające się w kanale ignorowanym mogą również prowadzić
do nieuświadomionych, specyficznych reakcji psychofizjologicznych organizmu.
Corteen i współpracownicy (Corteen i Dunn, 1974; Corteen i Wood, 1972)
uwarunkowali osoby badane na określone słowa, poprzedzając ich prezentację
delikatnym szokiem elektrycznym. Zaobserwowano, że reakcja elektrodermalna
(skórno-galwaniczna) wystąpiła w odpowiedzi na bodziec warunkowy, czyli słowo
sygnalizujące szok elektryczny, niezależnie od tego, czy bodziec ten pojawiał się
w kanale ważnym, czy ignorowanym, z czego oczywiście badani nie zdawali sobie
sprawy. Co więcej, jak wykazali Von Wright, Anderson i Stenman (1975), reakcja
elektrodermalna pojawia się także w odpowiedzi na synonimy słów skojarzonych
z szokiem elektrycznym, prezentowane w kanale ignorowanym. Efekt synonimu
Treisman i Daviesa został więc po raz kolejny potwierdzony, tym razem z wy­
korzystaniem miar psychofizjologicznych. Wobec braku świadomości zarówno
samego efektu, jak i występowania słów-synonimów, wyniki te uznano za dowód
na istnienie procesów nieświadomego przetwarzania znaczenia sygnałów
(Holender, 1986; Yelmans, 1991).
5.3. Uwaga, percepcja i (nie)świadomość
225
5.3.3. Poprzedzanie podprogowe
Poprzedzanie jest techniką eksperymentalną, polegającą na badaniu wpływu
bodźca prezentowanego wcześniej (prymy) na przetwarzanie bodźca docelowe­
go, pojawiającego się później (paradygmat 5.6). Dla dyskusji dotyczącej nie­
świadomego przetwarzania znaczeń, najistotniejsze są badania nad poprze­
dzaniem peryferycznym i subliminalnym; inne formy poprzedzania omówiono
w rozdz. 6.2.
1 Paradygmat 5.6
| Poprzedzanie (prymowanie, priming)
~ą
i Poprzedzanie ma miejsce wtedy, gdy jeden bodziec, zwany prymą (prime), wpływa
| na przetwarzanie następującego po nim bodźca docelowego (target). W starszych
l pracach psychologicznych podobne efekty nazywano nastawieniem. Pryma i boI dziec docelowy muszą być powiązane sensorycznie (np. identyczny lub podobny
f wygląd; Evett, Humphreys, 1981) lub semantycznie (np. identyczne lub bliskie
I znaczenie; Posner, Snyder, 1975). Nie jest więc przykładem prymowania jakief kolwiek oddziaływanie - rzeczywiste lub potencjalne - tego, co było wcześniej, na
; to, co pojawia się później. Gdyby definicję prymowania aż tak rozszerzyć, pod­
li padałoby pod nią w zasadzie całe życie psychiczne człowieka. Chcąc uniknąć
8 kłopotów związanych z przyjęciem zbyt szerokiej definicji zjawiska, terminem „pry8 mowanie” oznaczamy technikę badań eksperymentalnych, czyli paradygmat, pole- :
i gający na poprzedzaniu bodźca docelowego bodźcem w jakiś sposób z nim
powiązanym.
W zależności od rodzaju powiązania rozróżniamy wiele typów poprzedzania.
a Poprzedzanie repetytywne polega na któtkiej ekspozycji tego samego bodźca,
j który za chwilę ma być przez osobę badaną rozpoznany, przeczytany, zaliczony do
| jakiejś kategorii lub w inny sposób przetworzony. Poprzedzanie semantyczne
f polega na tym, że pryma nie jest identyczna z bodźcem docelowym, ale jest z nim
I znaczeniowo powiązana. Pryma może być np. synonimem bodźca docelowego
| (biblioteka ► księgozbiór) lub słowem należącym do tej samej kategorii (długopis
| -> ołówek). W badaniach tego typu stwierdza się zazwyczaj, że bodziec prymujący |
| ułatwia przetwarzanie bodźca docelowego, np. skraca czas potrzebny na jego 8
rozpoznanie, przeczytanie, nazwanie itp. Mamy wtedy do czynienia z poprze­
dzaniem pozytywnym, zwanym też niekiedy torowaniem, ponieważ pryma jak
gdyby toruje drogę bodźcowi docelowemu. Może się jednak zdarzyć, że bodziec
i poprzedzający wydłuża czas reakcji albo w inny sposób utrudnia przetwarzanie
| bodźca docelowego. Nazywamy to efektem poprzedzania negatywnego, który
| zwykle ujawnia się tylko w specyficznym układzie bodźców (zob. rozdz. 6).
1
Jeśli bodziec poprzedzający działa w bardzo krótkim czasie, od kilku do kil- 8
I kudziesięciu ms, osoba badana nie jest w stanie go zauważyć. Jeśli mimo to
| obserwujemy zmiany w przetwarzaniu bodźca docelowego, mamy do czynienia
I z poprzedzaniem podprogowym, inaczej subliminalnym. Trzeba jednak pamiętać,
| że poprzedzanie podprogowe niekoniecznie wymaga bardzo krótkiej ekspozycji 8
I prymy. Niekiedy efekt podprogowości można uzyskać inaczej, np. prezentując bo- 8
| dziec o bardzo małej intensywności. Możemy w tym celu manipulować poziomem
¡
¡
226
Rozdział 5. Uwaga i świadomość
jasności bodźca wzrokowego lub poziomem głośności bodźca słuchowego. Jeśli
bodziec poprzedzający jest wystarczająco intensywny i trwa wystarczająco długo,
a mimo to osoba badana nie zdaje sobie sprawy z jego oddziaływania, mamy do
czynienia z poprzedzaniem peryferycznym. Bodziec wzrokowy może np. znaj­
dować się na peryferiach pola widzenia albo w centrum pola widzenia, ale doskoi nale zamaskowany innymi bodźcami, przez co osoba badana nie jest w stanie go
I zauważyć. Jeśli mimo to obserwujemy obiektywny wpływ takiej prymy na prze> twarzanie bodźca docelowego, możemy mówić o efekcie poprzedzania peryferycz| nego. Peryferyczna może być też pryma słuchowa, występująca tuż przed bodź­
cem docelowym i obiektywnie wystarczająco głośna, ale pojawiająca się w tzw.
kanale ignorowanym (paradygmat 5.1).
Szczególnym przypadkiem jest poprzedzanie afektywne, które polega na
aplikowaniu przed bodźcem docelowym bodźców emocjonalnie nieobojętnych, np.
wizerunków uśmiechniętych lub zasmuconych twarzy, fotografii przyjemnych albo
nieprzyjemnych obiektów lub scen, czy też słów oznaczających uczucia lub koI jarzących się z emocjami. W takim przypadku obserwuje się zwykle, że bodziec
i; docelowy jest inaczej oceniany pod wpływem działania prymy. Na przykład bodziec
i pierwotnie neutralny może nam się wydawać sympatyczny lub niesympatyczny,
5 w zależności od emocjonalnego znaku zastosowanej prymy.
W większości badań nad poprzedzaniem zachowuje się ścisłe powiązanie
czasowe między prymą a bodźcem docelowym. Typowy eksperyment polega na
zaaranżowaniu szeregu prób, z których każda składa się z określonej sekwencji
zdarzeń, np.:
Pryma trwa zwykle bardzo krótko, chyba że celowo rezygnujemy z możliwych
efektów subliminalnych. Po niej następuje maska, czyli np. rząd gwiazdek **** lub
liter XXXX, które zapobiegają utrzymywaniu się śladu bodźca - już po jego
zniknięciu - na siatkówce oka. Po masce pojawia się bodziec docelowy, na który
należy zareagować zgodnie z instrukcją. Po krótkiej przerwie następuje kolejna
próba, skonstruowana według tego samego schematu. Taki schemat badania
nazywamy poprzedzaniem sekwencyjnym.
W niektórych badaniach nad pamięcią stosuje się inny, niesekwencyjny pa­
radygmat prymowania. Osoba badana czyta np. krótki fragment prozy, zawierający
pewną liczbę semantycznie powiązanych słów. Mogą to być słowa należące do tej
samej kategorii lub kojarzące się z czymś wspólnym. Po pewnym czasie, który może
trwać ok. tygodnia, osobie badanej prezentuje się inny fragment prozy, sprawdzając,
czy wcześniej prezentowane bodźce w jakiś sposób wpłynęły na ocenę drugiego
fragmentu, albo na to, w jaki sposób będzie on zapamiętany lub zinterpretowany.
W badaniach tego typu udało się wykazać, że bodźce prymujące, prezentowane na
długo przed właściwym tekstem, są w stanie wpłynąć na sposób przetwarzania
bodźców docelowych, choć osoba badana nie zdaje sobie z tego sprawy.
Obfitość i różnorodność badań z użyciem paradygmatu poprzedzania spra­
wia, że jest to obecnie jedna z bardziej popularnych technik eksperymentowania
w psychologii poznawczej.
5.3. Uwaga, percepcja i (nie)świadomość
227
Neill (1977) prosił osoby badane o podejmowanie decyzji leksykalnych:
uczestnicy oceniali, czy prezentowany im na ekranie ciąg liter jest sensownym,
poprawnie napisanym wyrazem ich ojczystego języka. Niektóre bodźce
poprzedzano prymą powiązaną semantycznie z bodźcem docelowym (np. miód
-> pszczoła), a inne - prymą semantycznie niezwiązaną lub neutralną (np. trak­
tor -+ pszczoła). Było to poprzedzanie peryferyczne, polegające na podawaniu
prymy odpowiednio długotrwałej, ale trudnej do zauważenia ze względu na
sporą odległość względem punktu fiksacji. Okazało się, że decyzja leksykalna
(np. czy „pszczoła” to słowo języka polskiego?) była znacznie szybsza, gdy bo­
dziec docelowy (pszczoła) poprzedzono prymą semantyczną. Neill dostarczył
więc argumentów zwolennikom tezy, że peiyferyczny, prawdopodobnie nie­
uświadomiony bodziec poprzedzający może mieć wpływ na późniejsze prze­
twarzanie bodźca właściwego. Rodzą się jednak wątpliwości, czy w tych
badaniach prymy były rzeczywiście nieuświadomione.
Znacznie mocniejszych argumentów dostarczają więc badania z wyko­
rzystaniem poprzedzania subliminalnego, czyli podprogowego (Fowler i in.,
1981). Prymy prezentowano zbyt krótko, jak na możliwości percepcyjne
osób badanych, a ponadto poddano je natychmiastowemu maskowaniu.
Okazało się, że efekt poprzedzania jest równie silny w przypadku poprzedzania
podprogowego i okołoprogowego. Co więcej, Fishler i Goodman (1978)
wykazali, że prymy podprogowe (bardzo krótkie) mogą czasem działać silniej
niż prymy nadprogowe (odpowiednio długie). W obu badaniach upewniono
się, że uczestnicy przetwarzali bodźce poprzedzające bez udziału świadomości,
ponieważ nie byli w stanie ich później rozpoznać (był to tzw. test świa­
domości) .
Underwood (1977) wskazał jednak na pewne ograniczenia zdolności
systemu poznawczego do nieświadomej analizy znaczenia bodźców. W jego
badaniu poprzedzanie miało charakter nadprogowy, ale połączono je z pro­
cedurą podążania. Bodźce poprzedzające pojawiały się zarówno w kanale
ważnym, jak i w kanale ignorowanym. Autor zreplikował efekt poprzedzania,
i to tak w kanale ważnym (co oczywiste), jak i w kanale ignorowanym (co mniej
oczywiste, a bardzo interesujące). Różna była jednak jakość tego efektu w obu
przypadkach. Podczas gdy poprzedzanie semantyczne w kanale ważnym
przyczyniało się do głębokiej analizy przekazu, ułatwiając zrozumienie dłuższej
wypowiedzi, w kanale ignorowanym działało tylko w odniesieniu do poje­
dynczych słów, czyli obejmowało stosunkowo płytki poziom identyfikacji
znaczenia.
Wyniki opisane w trzech ostatnich podrozdziałach świadczą na korzyść tezy
0 zdolności umysłu ludzkiego do nieświadomego przetwarzania informacji na
poziomie semantycznym; inne argumenty znaleźć można w pracy Szymury
1 Słabosz (2002). Wyniki te zebrano z wykorzystaniem różnych procedur i wie­
lokrotnie replikowano. Jednakże wyniki badań Macka i Rocka (1998) oraz
Underwooda (1977) nakazują pewną ostrożność interpretacyjną, bowiem nie­
świadome przetwarzanie znaczenia może ograniczać się do stosunkowo płyt­
kiego poziomu obróbki informacji.
228
Rozdział 5. Uwaga i świadomość
5.4. Podsumowanie
Treść niniejszego rozdziału pokazuje, jak wiele funkcji pełni mechanizm uwagi
i jak wieloma metodami można go badać. Mimo licznych i różnorodnych zadań,
takich jak selekcja źródła informacji, przeszukiwanie pola percepcyjnego, utrzy­
mywanie gotowości do działania, obsługa zadań jednoczesnych i przerzutność
między zadaniami, uwaga pozostaje mechanizmem jednorodnym, czerpiącym ze
wspólnych zasobów poznawczych. Trzeba tu jednak podkreślić, że w tym
rozdziale mowa była o uwadze rozumianej tradycyjnie: jako mechanizmu odpo­
wiedzialnego za ochronę systemu poznawczego przed negatywnymi skutkami
przeładowania informacyjnego. Oprócz tego uwadze przypisuje się funkcje kon­
trolne, te jednak opiszemy w rozdz. 6. Wydaje się, że problem kontroli poznaw­
czej jest zbyt ważny, aby „upychać” go między rozważaniami poświęconymi
uwadze w wąskim rozumieniu. Ponadto kontrola poznawcza to nie tylko uwaga,
ale również pewne elementy pamięci roboczej, nie mówiąc o problemach
związanych z automatyzacją procesów poznawczych.
Treść tego rozdziału skłania do jeszcze innego wniosku, mianowicie że
uwaga jest ściśle powiązana z energią i jej wydatkowaniem. Zgodnie z nieco
żartobliwą definicją Broadbenta „uwaga to tajemnicza energia, czasem powią­
zana z ludzkim działaniem, a czasem nie”. Poznawcze funkcje uwagi niewąt­
pliwie wymagają nakładu energii, a ich pełnienie w dłuższym okresie prowadzi
do zmęczenia. Bezwysiłkowe, bo automatyczne, są natomiast procesy przeduwagowe, co być może stanowi wystarczający powód, aby je wyróżniać i tak
właśnie nazywać. Pojęcie energii mentalnej jest niezbyt dobrze zdefiniowane
i zoperacjonalizowane, ale jak dotąd nie udało się zbudować sensownej teorii
psychologicznej, która mogła by się bez niego obyć. Dotyczy to w szczególności
teorii opisującej działanie uwagi.
R ozdział
Kontrola poznawcza
Czynności autom atyczne i au to m aty za­
cja 231
Kryteria autom atyczności przetw arza­
nia 231
Schneidera i Shiffrina teoria kontinuum
233
Logana teoria rywalizacji egzemplarzy 239
Konsekwencje automatyzacji czynności
248
Hamowanie jako m echanizm kontrolny
251
Istota i funkcje hamowania
251
Hamowanie dominującej reakcji
Odporność na dystrakcję
253
255
Odporność na interferencję proaktywną
261
Czy hamowanie jest konstruktem jedno­
rodnym? 262
Funkcje zarządcze
266
Istota funkcji zarządczych czyli homuncu­
lus odnaleziony 266
Rodzaje funkcji zarządczych
267
Mechanizm zarządczy w koncepcji uwagi
Posnera 269
Dwustopniowy system kontroli zachowa­
nia w koncepcji Shallice 271
Centralny system wykonawczy pamięci
roboczej w modelu Baddeleya 274
Podsumowanie
276
Kontrola poznawcza to zdolność systemu poznawczego do nadzorowania
i regulowania własnych procesów poznawczych, a także do planowanego
sterowania ich przebiegiem.
Automatyzacja jest procesem, dzięki któremu czynność poznawcza lub
motoryczną stopniowo uwalnia się spod kontroli poznawczej, przez co jest
wykonywana szybko i bez wysiłku, ale schematycznie.
Według Daniela Dennetta „umysł to armia idiotów”, w dodatku pozbawiona
sztabu generalnego i naczelnego dowództwa. Wszystkie funkcje, łącznie
z najbardziej złożonymi, są możliwe dzięki współdziałaniu wielkiej liczby sto­
sunkowo prostych elementów. Czy przy takiej wizji jest w ogóle możliwe zmie­
rzenie się z problemem kontroli poznawczej? Czy problem kontroli umysłu
nadaje się do badania metodami naukowymi?
Zdolność umysłu do samokontroli i samoregulacji jest dla nauki bardzo
trudnym wyzwaniem, ponieważ problem ten „zahacza” o podstawowe kwestie
religijne i filozoficzne, takie jak pytanie o wolność i wolną wolę. Nauka szuka
wyjaśnień deterministycznych, dlatego dość łatwo oddaje pole tam, gdzie do­
strzega granice deterministycznego sposobu opisu świata i mechanistycznego
wyjaśnienia badanych mechanizmów. Poza tym próby uchwycenia fenomenu
kontroli poznawczej nazbyt często odwołują się - zwykle nie wprost - do
hom unculusa: małej istoty tkwiącej w naszym umyśle i sprawującej nad nim
kontrolę (Nęcka, 2004). Ten rodzaj wyjaśniania jest oczywiście pozorny, po­
nieważ trzeba by zapytać, kto steruje naszym homunculusem, a następnie
homunculusem homunculusa itd. Jeśli mimo to podejmuje się próby badania
kontroli poznawczej, to dlatego, że bez tego konstruktu nie sposób wyobrazić
sobie trafnego i względnie kompletnego opisu tego, jak działa ludzki umysł. Rola
procesów kontroli jest szczególnie duża wtedy, gdy nasze czynności poznawcze
wymagają planowania i podejmowania decyzji, gdy konieczna jest korekta
błędów i reagowanie na pojawiające się problemy, gdy musimy wykonać
czynności nie dość dobrze wyuczone, gdy sytuacja jest nowa, niebezpieczna
lub trudna, a także wtedy, gdy wymagane jest przezwyciężenie silnego nawyku
lub odparcie pokusy (Norman, Shallice, 1986). W innych przypadkach możemy
polegać na procesach automatycznych, wykonywanych poza kontrolą albo
z niewielkim jej udziałem.
Zakres i doniosłość sytuacji, w których kontrola poznawcza jest ważna lub
niezbędna, nakazuje poddać procesy kontroli systematycznemu badaniu. Psy­
chologia poznawcza próbuje więc wykryć, jak działa nasz wewnętrzny homunculus: jakie czynności wykonuje, z czego się składa i do jakich skutków pro­
wadzi jego działalność. Podstawowym zabiegiem, jakiego trzeba dokonać na
wstępie, jest podział procesów poznawczych na dwie grupy: te które
bezpośrednio wykonują czynności poznawcze oraz te, które wyspecjalizowały
się w nadzorowaniu i kontrolowaniu. Pierwsze nazwiemy procesami kontrolo­
wanymi, drugie - procesami kontrolnymi. W literaturze funkcjonują również
inne określenia, np. komponenty i metakomponenty procesu poznawczego
(Sternberg, 1977a). Według Adama Chuderskiego (2005) kontrola poznawcza
przyjmuje trzy postaci:
6.1. Czynności automatyczne i automatyzacja
231
• monitorowanie, czyłi sprawdzanie przez procesy kontrolne sposobu przebiegu
i skutków działania procesów kontrolowanych, bez aktywnej ingerencji w ów
przebieg;
• regulacja, czyli reakcja procesów kontrolnych na błędy i zakłócenia w przebiegu
procesów kontrolowanych;
• sterowanie, czyli aktywne i planowane wpływanie przez procesy kontrolne na
przebieg procesów kontrolowanych.
!.
[:
[
[
|
j
j
I
Nie wszystkie aspekty i formy kontroli poznawczej zostały poddane
badaniom. Najczęściej spotyka się prace dotyczące automatyzacji procesów
poznawczych. Automatyzacja, jako uwalnianie się procesu poznawczego spod
kontroli, jest zarazem sposobem na zmniejszenie kosztów przetwarzania
informacji, zwłaszcza kosztów związanych z kontrolą czynności jednoczesnych
lub przerzucaniem się z jednego zadania na inne. Duża część badań poświęcona
jest też hamowaniu poznawczemu, czyli zdolności systemu poznawczego do
„wyłączenia” procesu, który w danej sytuacji jest niepożądany lub kosztowny,
Trzeci obszar badań, ostatnio niezwykle intensywnie rozwijany, dotyczy samych
procesów kontroli: ich taksonomii, sposobów działania i wzajemnych związ­
ków. Procesy te, zwane niekiedy funkcjami zarządczymi, odpowiadają za
najbardziej złożone, świadome i inteligentne czynności umysłu ludzkiego. Te
trzy obszary badań nad kontrolą poznawczą będą przedmiotem rozważań
w niniejszym rozdziale.
6.1. Czynności automatyczne i automatyzacja
6.1.1. Kryteria automatyczności przetwarzania
Automatyzacja polega na nabywaniu wprawy w zakresie wykonywania czyn­
ności na skutek treningu, czyli powtarzania tej czynności w tych samych lub
zmienionych warunkach zadania (Schneider, Shiffrin, 1977a, 1977b; Shiffrin,
Schneider, 1977). Trening jednorodny występuje wtedy, gdy jedna i ta sama
reakcja jest odpowiedzią na zawsze ten sam układ bodźców. Trening nie­
jednorodny polega natomiast na częstych zmianach kategorii bodźców (np. liter
na cyfry i odwrotnie) przy zachowaniu tego samego typu reakcji. W wyniku
długotrwałego i systematycznego treningu dochodzi do pełnej automatyzacji,
czyli wytworzenia czynności automatycznej. Przebieg takiej czynności staje się
relatywnie szybki, bezwysiłkowy i pozbawiony większych kosztów poznaw­
czych, a jej realizacja dokonuje się bez namysłu i kontroli ze strony świadomości
(Czyżewska, 1991; Schneider, Dumais, Shiffrin, 1984).
Automatyzacja czynności pozwala więc na uwolnienie zasobów systemu
poznawczego (Kahneman, 1973; Norman, Bobrow, 1975; zob. rozdz. 5.2.4),
związanych wcześniej z wykonywaniem tej czynności, pozwalając na inne ich
przeznaczenie - np. na jednoczesne wykonanie innej czynności. Istnienie
procesu automatyzacji czynności ma swoje ewolucyjne uzasadnienie (Bargh,
1999; Bargh, Chartrand, 1999). Jak słusznie zauważył Whitehead (1911), postęp
cywilizacyjny dokonuje się przez zwiększanie liczby operacji, które można
wykonywać bez konieczności myślenia o nich. W tym czasie, ldedy właśnie te
232
Rozdział 6. Kontrola poznawcza
operacje są wykonywane, system poznawczy może bowiem zająć się twórczym
rozwiązywaniem problemów oraz podejmowaniem kluczowych decyzji. Whitehead porównuje przebieg procesów poznawczych do pola bitwy. Uporczywie
drążąca to pole piechota „czynności automatycznych” daje miejsce i czas dla
„kontrolowanej” kawalerii myśli. Ta jest wprawdzie nieliczna i wymaga
„świeżych koni” (zasobów), ale wysyła się ją na pole bitwy jedynie w momentach
decydujących o przebiegu batalii.
Procesy automatyczne można też opisać poprzez analogię do automatycz­
nego pilota samolotu (Bargh, Chartrand, 1999; Jaśkowski, Skalska, Verleger,
2003; Logan, 1988). Pozwala on na kontynuowanie lotu na określonym po­
ziomie i z określoną szybkością, podobnie jak czynność automatyczna pozwala
na poprawne i szybkie wykonanie zadania, za które odpowiada. Pilot auto­
matyczny ma jednak pewne wady. Po pierwsze, raz uruchomiony skutecznie
utrudnia zmiany w zakresie parametrów lotu. Ta korekta musi być wprowa­
dzona w sposób kontrolowany. Po drugie, jego zastosowanie ograniczają
warunki lotu - w sytuacjach trudnych i nieprzewidywalnych użycie automatycz­
nego pilota może nawet doprowadzić do katastrofy. Analogicznie, jedną
z najważniejszych charakterystyk czynności automatycznej jest to, że bardzo
trudno ją zmodyfikować. Czynność taka, raz rozpoczęta, musi zostać
ukończona, chyba że - tak samo jak pilot automatyczny - zostanie zatrzymana
przez mechanizm kontrolny wyższego rzędu. Tę cechę procesów automatycz­
nych określa się jako balistyczność (Hasher, Zacks, 1979). Podobnie, wyko­
nywanie czynności automatycznych w warunkach niestandardowych może
doprowadzić do wyniku zupełnie nieadekwatnego do okoliczności. Analogia do
pilota automatycznego pokazuje więc doskonale zalety i wady czynności auto­
matycznych - konsekwencją wysokiego poziomu wykonania są zarówno ogra­
niczone możliwości ingerencji w przebieg takiej czynności, jak i wąski zakres jej
użyteczności.
Procesom automatycznym często przeciwstawiane są procesy świadome
(Bargh, Chartrand, 1999), choć wydaje się to błędne (Nęcka, 2002). Proces
poznawczy jest świadomy, gdy zdajemy sobie sprawę przynajmniej z niektórych
jego aspektów, w szczególności z tego, że właśnie przebiega. Proces taki może
być automatyczny, jeśli wiemy, że on zachodzi, ale nie możemy go zahamować
ani zmodyfikować. Dlatego procesy automatyczne należy przeciwstawiać nie
procesom świadomym, lecz procesom nieautomatycznym. Aby to jednak było
możliwe, potrzebny jest konsens, którego do tej pory nie osiągnięto, co do kry­
teriów czynności automatycznych (Bargh, 1994, 1999). Jak się wydaje, przy­
czyną braku porozumienia jest nie dość staranne rozróżnianie kilku różnych
klas procesów automatycznych, charakteryzujących się nieco innymi właści­
wościami. Dwie z nich: procesy zautomatyzowane i procesy pierwotnie auto­
matyczne wydają się najważniejsze.
Badania nad automatyzacją czynności i nabywaniem wprawy (skill
acqusition) pozwoliły na zdefiniowanie pierwszej kategorii, czyli procesów
zautomatyzowanych. W wyniku nabywania wprawy procesy pierwotnie nieauto­
matyczne wyzwalają się spod świadomej kontroli ze strony systemu poznaw­
czego (Anderson, 1983a; Schneider, Shiffrin, 1977a, 1977b; Shiffrin, Schneider,
1977). Automatyzacja tych czynności nie pozbawia ich jednak intencjonalności
czy celowości, a jedynie pozwala zmniejszyć wysiłek umysłowy konieczny do ich
6.1. Czynności automatyczne i automatyzacja
j
\
I
!
;
l
j
[
j
(
1
I
[
[
j
[
[
f
:
j
j
233
realizacji. Można je więc określić jako procesy wtórnie automatyczne. Ich
przeciwieństwem są procesy pierwotnie automatyczne, czyli takie, które nie tylko
są bezwysiłkowe, ale ponadto ich uruchomienie odbywa się w sposób całkowicie
niezależny od naszej woli i intencji (Posner, Synder, 1975; Treisman, 1988;
Murphy, Zajonc; 1994). Hasher i Zacks (1979) nazywają te dwie kategorie
procesami słabo i silnie automatycznymi. Istnienie procesów silnie automa­
tycznych wykazano w wielu badaniach dotyczących czynności przeduwagowych.
Podstawowymi kryteriami wyróżniającymi wszystkie procesy automatyczne
byłyby więc: bezwysiłkowość (nie konsumują zasobów) i bezrefleksyjność (nie
wymagają świadomej kontroli). Dodatkowo procesy pierwotnie automatyczne
charakteryzowałyby się jeszcze brakiem intencji, czyli zamiaru ich wzbudzenia.
Przykładem procesu pierwotnie automatycznego jest proces segregacji pola
wzrokowego podczas przeszukiwania pola percepcyjnego w fazie przeduwagowej (zob. rozdz. 5.2.2). Jeśli obiekty w polu wzrokowym charakteryzują się
cechami priorytetowymi, to cechy te automatycznie, niezależnie od naszej woli
i intencji, stają się podstawą do podziału pola wzrokowego na część zawierającą
obiekty wyposażone w te cechy i część, która takich bodźców nie zawiera
(Treisman, 1993; Treisman, Sato, 1990). Przykładem procesu wtórnie automatycznego jest przeszukiwanie pola wzrokowego w fazie uwagowej ze względu na
właściwości niepriorytetowe. Na skutek dużej liczby powtórzeń w warunku
treningu jednorodnego (np. 36 serii po 106 powtórzeń każda; Shiffrin, Dumais,
Schneider, 1981) poszukiwanie koniunkcyjne ze względu na cechy kształtu
i koloru staje się równie szybkie, jak poszukiwanie proste tylko ze względu na
cechę kształtu (zob. rozdz. 5.2.2, gdzie omówiono rodzaje przeszukiwania). Tak
więc pierwotnie kontrolowany i szeregowy proces uwagowego przeszukiwania
pola wzrokowego nabiera cech procesu bezuwagowego: wtórnie automatycznego, równoległego i pozbawionego kontroli.
Automatyzm czynności poznawczych jest powszechną ich właściwością,
rozwiniętą w długim procesie ewolucji naszych sprawności poznawczych
(Bargh). Stanowi właściwość adaptacyjną, dzięki której możemy uwolnić część
zasobów poznawczych przeznaczając je na inne, ważniejsze lub pilniejsze czyn­
ności. Niektóre procesy przetwarzania informacji ulegają automatyzacji
w procesie nabywania wprawy (Shiffrin i Schneider), podczas gdy inne są
automatyczne ze swej natury (Posner). Cecha automatyczności przysługuje
zarówno procesom elementarnym, jak np. segregacja pola wzrokowego podczas
jego przeszukiwania (Treisman), jak i procesom złożonym, jak np. spostrzeganie i komunikowanie emocji poprzez wyraz mimiczny (Zajonc). Poniżej zostaną
omówione koncepcje procesów automatycznych, odnoszące się głównie do
elementarnych procesów przetwarzania informacji. Odniesienie zawartych
w tych teoriach poglądów do złożonych procesów afektywnych i społecznych
znaleźć można w literaturze polskiej w pracach Aliny Kolańczyk i współpra­
cowników (2004) i Rafała K. Ohme (2003).
6.1.2. Schneidera i Shiffrina teoria kontinuum
Większość koncepcji procesów automatycznych przeciwstawia je procesom
kontrolowanym (Styles, 1997). W zasadzie jednak tylko wczesne teorie czyn-
234
Rozdział 6. Kontrola poznawcza
ności automatycznych (Atkinson, Shiffrin, 1968; Posner, Snyder, 1975;
Schneider, Shiffrin, 1977a, 1977b; Shiffrin, Schneider, 1977) lokalizowały te
procesy na dwóch biegunach pewnego kontinuum. Teorie te dotyczyły raczej
procesów wtórnie automatycznych, zaś najważniejsze badania związane
z rozwojem tych koncepcji dotyczyły efektów nabywania wprawy i „przesu­
wania się” procesów wzdłuż kontinuum od bieguna kontroli w stronę bieguna
automatyzmu. Co ciekawe, tendencja ta nie była zgodna z oryginalnym poglą­
dem w tym zakresie i pierwszą definicją procesów automatycznych, sformuło­
waną przez Atkinsona i Shiffrina. Badacze ci zaproponowali bowiem podział
procesów poznawczych na dwie klasy. W swojej koncepcji systemu poznaw­
czego przeciwstawili oni czynnościom kontrolowanym procesy będące włas­
nościami strukturalnymi systemu. Te ostatnie mają charakter stabilny, co
oznacza, że są wykonywane zawsze w ten sam sposób, niezależnie od wymagań
stawianych przez warunki zadania. Będąc niezmiennymi, pozbawione są
jakiejkolwiek kontroli ze strony umysłu. Jako własności strukturalne systemu,
procesy te, przynajmniej w części, wydają się pierwotnie automatyczne. Jednak
dalsze rozważania Shiffrina i jego współpracowników koncentrowały się niemal
wyłącznie na procesach wtórnie automatycznych.
W eksperymentach poprzedzających ogłoszenie koncepcji, Shiffrin wraz ze
swoimi współpracownikami (Shiffrin, Gardner, 1972; Shiffrin, McKay, Shaffer,
1976; Shiffrin, Pisoni, Castaneda-Mendez, 1974) starali się empirycznie wy­
kazać istnienie procesów nie wymagających kontroli poznawczej. Wykorzys­
tując paradygmaty podążania (zob. rozdz. 5.2.1) oraz przeszukiwania pola
wzrokowego (zob. rozdz. 5.2.2) udało się im wykazać, że jeśli badani mają
wykonywać zadanie selekcyjne na płytkim, sensorycznym poziomie przetwa­
rzania informacji (Craik, Lockhart, 1972), czynią to szybko i bezwysiłkowo,
analizują równolegle duże porcje stymulacji i nie mają świadomości przebiegu
tego procesu. Przy płytkim kryterium selekcyjnym nie miała znaczenia ani liczba
jednocześnie prezentowanych na ekranie liter (zestawy 1-4 literowe; Shiffrin,
Gardner, 1972), ani też liczba ich możliwych lokalizacji (9 pozycji dla liter lub
49 pozycji dla kropek; Shiffrin, McKay, Shaffer, 1976). Warunkiem skutecznego
śledzenia kilku możliwych bodźców, pojawiających się w kilkudziesięciu
możliwych lokalizacjach, było, po pierwsze, uprzedzenie badanych o możliwym
położeniu bodźców, a po drugie - niewielka liczba samych bodźców.
Podsumowując wyniki wczesnych badań Shiffrina i jego współpracowników,
współautor koncepcji kontinuum procesów - Schneider (1984) - przyznaje, że
replikacja tych wyników z użyciem zestawów liczniejszych niż 4 litery raczej nie
ma szans powodzenia.
Badani w eksperymentach Shiffrina byli też zdolni do reagowania na
informacje pojawiające się w kanale ignorowanym, gdy reakcja na nie była
w prosty sposób skojarzona z prezentowanym bodźcem i nie wymagała jego
dalszego przetworzenia lub zapamiętania (Shiffrin, Pisoni, Castaneda-Mendez,
1974). Wyniki badań pozwoliły Shiffrinowi na stwierdzenie istnienia dwóch klas
procesów poznawczych, różnych pod względem przebiegu: automatycznej
detekcji i kontrolowanego przeszukiwania. Tym samym udało mu się rozróżnić
wpływ procesów automatycznych i kontrolowanych w badaniach nad uwagową
detekcją sygnałów. Podstawowym czynnikiem umożliwiającym dokonanie tego
rozróżnienia była głębokość procesów przetwarzania informacji (Craik,
6.1. Czynności automatyczne i automatyzacja
235
Lockhart, 1972; zob. rozdz. 5.2.1). Procesy automatyczne operowały bowiem na
płytkich poziomach przetwarzania, podczas gdy konieczność elaboracji bodźca
na głębszych poziomach przetwarzania zmuszała umysł do uruchomienia
kontroli poznawczej i wzbudzenia procesów kontrolowanych.
Shiffrin i Schneider (1977; Schneider, Shiffrin, 1977a, 1977b) zapropono­
wali złożony model systemu poznawczego (ryc. 6.1), w ramach którego możliwe
LTM
Ryc. 6.1. Model procesów automatycznych i kontrolowanych wg Shiffrina i Schneidera (1977; za
Schneider, Shiffrin, 1977).
są dwie ścieżki przetwarzania informacji. Pierwsza z nich wymaga kontroli ze
strony uwagi, ujawnia się w przypadku pojawienia się nowych bodźców i braku
adekwatnych strategii postępowania. Nowość i nieprzewidywalna zmienność
warunków zadania zmusza system poznawczy do kontrolowanego przetwa­
rzania informacji, zależnego od ograniczonych możliwości systemu poznawcze­
go (tj. ograniczonych zasobów uwagi i limitowanej pojemności pamięci ro­
boczej). Ten typ przetwarzania wymaga czasu i jest podatny na działanie zasady
przetargu między przechowywaniem informacji a jej przetwarzaniem (McElree,
Dosher, 1993). Druga ścieżka przetwarzania informacji w ramach systemu
poznawczego związana jest z automatyczną detekcją układu bodźców i szybkim,
pozbawionym kontroli uruchomieniem strategii (programów działania), za­
236
Rozdział 6. Kontrola poznawcza
kodowanych w pamięci długotrwałej i dostosowanych do takiego układu
wyzwalającego. Reakcja systemu poznawczego pojawia się wtedy bez udziału
uwagi czy świadomości. Jest ona także niepodatna na modyfikacje za pomocą
instrukcji werbalnych.
Procesy kontrolowane mogą być dwojakiego rodzaju. Po pierwsze, są wśród
nich procesy jawne, dostępne świadomości, takie jak intencjonalne przywoły­
wanie danych z pamięci czy też przeszukiwanie magazynu wiedzy według
zadanego klucza. Wyróżnia je z jednej strony możliwość bieżącej modyfikacji,
a z drugiej - niewielka wydajność i relatywnie najwolniejszy przebieg. Procesy
tego rodzaju uaktywniają się np. wówczas, gdy zostaniemy poproszeni o wymie­
nienie nazw miesięcy według alfabetu. Po drugie, wśród procesów kontrolowa­
nych Shiffrin i Schneider wyróżniają procesy zawoalowane (veiled), niedostępne
świadomości. Przykładem takiego procesu jest porównywanie elementów prze­
chowywanych w pamięci świeżej. Odróżnia je od procesów jawnych relatywnie
szybki przebieg i, w konsekwencji, niewielkie możliwości w zakresie ich mody­
fikacji (ze względu na brak czasu). Procesy zawoalowane podlegają jednak
zmianom na skutek instrukcji werbalnych lub nabywania wprawy (automaty­
zacja przeszukiwania pamięci świeżej; Szymura, Jagielski, w przygotowaniu).
Wszystkie procesy kontrolowane nadzorują przepływ informacji między po­
szczególnymi blokami pamięci (koncepcja umysłu Shiffrina i Schneidera ma
charakter modelu blokowego; zob. rozdz. 1).
Procesy automatyczne są nieświadome i jednorodne z założenia. Mogą być
inicjowane przez umysł, z czego zresztą wynika jedyne wymaganie, jakie sta­
wiają zasobom poznawczym - nawet procesy automatyczne wymagają mini­
malnej ilości zasobów czy też wysiłku mentalnego, chociażby w celu ich
sensorycznej i efektorycznej realizacji (Kahneman, Chajczyk, 1983; Posner,
Synder, 1975; Ryan, 1983). Gdyby procesy te przebiegały zupełnie bez udziału
zasobów, to równolegle w systemie poznawczym mogłaby zachodzić nieskoń­
czona liczba automatycznych procesów przetwarzania informacji. Tymczasem
jednoczesne wykonywanie tylko kilku czynności, nawet dobrze zautomatyzo­
wanych, może nam sprawić problemy. Wynika to z ograniczeń strukturalnych:
liczba wejść sensorycznych i wyjść efektorycznych jest ściśle limitowana. Dla­
tego interferencja strukturalna jest niemożliwa do całkowitego zredukowania,
nawet w przypadku procesów całkowicie automatycznych (Allport, Antonis,
Reynolds, 1972). Automatyzacja pomaga natomiast ograniczyć rozmiar inter­
ferencji zasobowej, gdyż czynności automatyczne, jak się wydaje, nie walczą o tę
samą, ograniczoną pulę energii mentalnej.
Shiffrin i Schneider (1977; Schneider, Shiffrin, 1977a, 1977b) stwierdzili
różnice w zakresie stopnia automatyzacji różnych procesów detekcji uwagowej.
Badanym w ich eksperymentach (ryc. 6.2) prezentowano kolejno na ekranie
monitora karty zawierające zestawy bodźców (od 1 do 4 elementów). Poszu­
kiwanymi sygnałami mogły być litery lub cyfry. O tym, jaki bodziec będzie
sygnałem w kolejnej serii, badani byli informowani tuż przed jej rozpoczęciem.
W warunku spójnym badanym prezentowano na kartach bodźce tej samej ka­
tegorii, z której pochodził sygnał. W warunku niespójnym bodźce pochodziły
z innej kategorii (np. litery) niż sygnał (np. cyfra). Okazało się, że dla uzyskania
wskaźnika poprawności detekcji na poziomie 95% potrzebne było tylko 80 ms
prezentacji kart w warunku niespójnym i aż 400 ms w warunku spójnym. Na
6.1. Czynności automatyczne i automatyzacja
237
podstawie uzyskanych wyników Shiffrin i Schneider stwierdzili, że detekcja cyfry
z tła liter jest procesem automatycznym, nie wymagającym kontrolowanego
różnicowania bodźców i identyfikacji sygnału. W warunku niespójnym sygnał był
bowiem jedynym bodźcem należącym do swojej klasy w całym materiale
bodźcowym. Natomiast detekcja litery z tła utworzonego przez inne litery była
procesem kontrolowanym, wymagającym identyfikacji poszczególnych bodźców
i złożonej decyzji co do tego, czy zidentyfikowany bodziec spełnia kryterium
selekcji. Uzyskane przez Shiffrina i Schneidera wyniki były zatem potwierdze­
niem ich wcześniejszych rezultatów dotyczących istnienia dwóch różnych
1
a
1 - prezentacja zbioru pamięciowego
a - punkt fiksacji wzroku (500 ms)
b, c - zbiór dystraktorów poprzedzający poszukiwany element (pierwsze trzy karty nie zawierające sygnału - b,
dalsze karty, na których może pojawić się sygnał - c)
d - zbiór zawierający element poszukiwany
e, f - zbiór dystraktorów następujących po elemencie poszukiwanym (ostatnie dwie karty nie zawierające
sygnału - f, dalsze karty, na których może pojawić się sygnał - e)
Ryc. 6.2. Schemat badania Shiffrina i Schneidera (1977; Schneider, Shiffrin, 1977) w warunku
spójnym przy liczbie bodźców do zapamiętania wynoszącej 2 (powyżej) i niespójnym przy liczbie
bodźców do zapamiętania wynoszącej 4 (poniżej).
238
Rozdział 6. Kontrola poznawcza
klas procesów poznawczych: automatycznych i kontrolowanych (Shiffrin,
Gardner, 1972; Shiffrin, McKay, Shaffer, 1976; Shiffrin, Pisoni, Castaneda-Mendez, 1974).
Badacze ci stwierdzili także, że nabywanie procesów automatycznych, czyli
proces automatyzacji, wymaga długotrwałego, bardzo specyficznego treningu.
W tym celu osoby badane wielokrotnie powtarzały proces kontrolowanej
detekcji litery pochodzącej z jednego zbioru bodźców na tle liter pochodzących
z całkiem innego zestawu. Badani potrzebowali aż 2100 serii testowych
w warunku spójnej prezentacji znaków, aby osiągnąć poziom wykonania od
początku notowany w warunku niespójnym (czyli 95% poprawnych decyzji przy
czasie prezentacji 80 ms). Zatem w procesie automatyzacji czynności kontro­
lowane osiągnęły po długim treningu poziom wykonania czynności automatycz­
nych. Co więcej, wraz z kolejnymi powtórzeniami, proces kontrolowanego
przeszukiwania coraz bardziej zbliżał się w zakresie empirycznych wskaźników
swojego przebiegu do procesu automatycznej detekcji - stawał się np.
niezależny od liczby bodźców prezentowanych w ramach pojedynczej karty.
W kolejnym badaniu tej samej serii Fisk i Schneider (1981) stwierdzili, iż
automatyzacja może usprawniać wykonanie takich kontrolowanych czynności,
jak czujność czy koncentracja uwagi (zob. rozdz. 5.2.3). Podobne wynild zależ­
ności przedłużonej w czasie koncentracji uwagi od nabywania wprawy uzyskali
jeszcze Kerkhof, van der Schaaf i Korving (1980). Wszystkie te rezultaty wy­
raźnie przemawiały na korzyść jednego z podstawowych stwierdzeń koncepcji
Shiffrina i Schneidera - tezy o kontinuum procesów na wymiarze automatycz­
ne/kontrolowane i zależności położenia procesu na tym kontinuum od stopnia
wtórnie nabytej wprawy w zakresie jego wykonywania.
Dalsze badania procesów automatycznych i kontrolowanych prowadzone
przez Schneidera i jego współpracowników dotyczyły interakcji tychże proce­
sów (Schneider, Fisk, 1982) oraz zależności transferu wprawy pomiędzy proce­
sami od stopnia ich automatyzacji (Schneider, Fisk, 1984). Zgodnie z wynikami
tych badań, interakcja procesów automatycznych i kontrolowanych nie musi
wyzwalać efektów interferencji. Do zaburzenia przebiegu procesów kontrolo­
wanych (procesy automatyczne są niemodyfikowalne!) może prowadzić
automatyczna reakcja na niektóre elementy kontrolowanej sekwencji przetwa­
rzania. Taką automatyczną odpowiedź systemu poznawczego wywołują np.
bodźce, które są zgodne z celem detekcji, ale występują w lokalizacji naka­
zującej - zgodnie z instrukcją - ich zignorowanie (Theeuwes i in., 1999; Godijn,
Theeuwes, 2002; zob. rozdz. 5.2.5). Schneider i Fisk wykazali także, że możliwy
jest transfer wprawy w zakresie zautomatyzowanej czynności przeszukiwania
pola wzrokowego z jednego zestawu bodźców na inny. Dzięki transferowi czas
reakcji dla nowego zestawu bodźców był wyraźnie krótszy, porównywalny
z czasem, jaki wcześniej obserwowano w przypadku starego zestawu w wyniku
procesu nabywania wprawy. Co więcej, przeszukiwanie starych i nowych
zestawów miało - jako zadanie doładowujące - podobny wpływ (w sensie
konieczności inwestowania zasobów uwagi) na wykonanie zadania prioryteto­
wego w paradygmacie zadań jednoczesnych (zob. rozdz. 5.2.4).
Shiffrin, Schneider i ich współpracownicy dostarczyli więc przekonujących
argumentów na rzecz tezy o istnieniu kontinuum procesów kontrolowanych
i wtórnie automatycznych. Udało im się również wykazać istnienie dwóch
6.1. Czynności automatyczne i automatyzacja
239
Tab. 6.1. Porównanie właściwości procesów automatycznych i kontrolowanych wg Schneidera,
Dumasa i Shiffrina (1984).
Właściwość
Procesy automatyczne
Procesy kontrolowane
zasoby systemu
nie wymagane
wymagane
kontrola
niekompletna
kompletna
komponentowość
holistyczne
parcjalne
modyfikacja
trudna
łatwa
szeregowość/ równoległość
równoległe
szeregowe
poziom wykonania
wysoki
niski
świadomość
niska
wysoka
uwaga
nie wymagana, ale możliwa
wymagana
wysiłek
niewielki, jeśli jakikolwiek
duży
rodzajów czynności automatycznych: takich, które są automatyczne pierwotnie
(z natury rzeczy, w sposób wrodzony) i takich, które automatyzacji dopiero
j wymagają (tab. 6.1). Proces nabywania wprawy zdaje się wymagać wiele wy­
siłku i czasu ze strony systemu poznawczego, ale w jego konsekwencji procesy
i' kontrolowane mogą zostać zautomatyzowane aż do postaci typowej dla pro­
cesów pierwotnie automatycznych, co można zaobserwować analizując szybi kość i poprawność ich wykonania.
6.1.3. Logana teoria rywalizacji egzemplarzy
i
i
!
!
t
ś
!
;
[
j;'
(
f
i
i
|
i
|
Zgodnie z teorią kontinuum, jednym z podstawowych kryteriów procesów
automatycznych, wynikającym wprost z przeciwstawienia tych procesów
procesom kontrolowanym, jest ograniczona możliwość sprawowania nad nimi
kontroli (Schneider, Dumais, Shiffrin, 1984; tab. 6.1). Wprawdzie autorzy
koncepcji kontinuum dopuszczali pewne formy nadrzędnej kontroli poznawczej
nad automatyzmami, związane np. z możliwością kontrolowanego uruchomienia procesu wtórnie automatycznego, jednak w zasadzie byli zdania, iż raz
uruchomiony proces automatyczny nie podlega kontroli (balistyczność automatyzmów; Hasher, Zacks, 1979). Przeciwnego zdania byli Logan (1980, 1982;
Logan, Zbrodoff, 1998) oraz Tzelgov wraz ze współpracownikami (Tzelgov, Henik, 1995; Tzelgov, Henik, Leister, 1990), którzy wskazali na możliwości kontroli procesów automatycznych, a przynajmniej modyfikowania ich w trakcie
przebiegu.
Gordon Logan (1982) wykazał np., że osoby biegle piszące na maszynie
(proces wtórnie automatyczny) są w stanie szybko przerwać pisanie na skutek
pojawienia się błędu lub też w odpowiedzi na specjalny sygnał, który zgodnie
z instrukcją zmuszał ich do zatrzymania wykonywania czynności („sygnał
stopu”; paradygmat 6.1). Osoby badane wykonywały zaledwie jedno bądź dwa
zbędne uderzenia w klawisze po tym, jak przekazano im sygnał, że powinny
240
Rozdział 6. Kontrola poznawcza
przerwać bieg automatycznej czynności. Ladefoged, Silvestrien i Papcun (1973)
oraz Levelt (1983) ustalili, że zatrzymanie na dany znak tak dobrze zauto­
matyzowanej czynności, jak mówienie, również jest możliwe. Najkrótsze
zaobserwowane opóźnienie wyniosło tym razem jedną sylabę. Na podstawie
tych wyników Logan (1982, 1988) stwierdził, iż możliwe jest kontrolowanie
czynności automatycznych, a przynajmniej procesów wtórnie automatycznych,
do momentu uruchomienia specyficznej reakcji motorycznej lub werbalnej
w odpowiedzi na prezentowany bodziec.
Paradygmat 6.1
Sygnał stopu
Paradygmat sygnał stopu (stop-signal; Logan, 1982) wykorzystuje się w bada­
niach nad hamowaniem dobrze wyuczonych, silnie zautomatyzowanych czyn­
ności, głównie motorycznych. Osoby badane wykonują taką czynność w warunkach
presji czasu. W różnych, nieprzewidywalnych momentach uczestnikom ekspery­
mentu podaje się umówiony sygnał, który nakazuje im przerwać wykonywaną do
tej pory czynność. Początkowe badania dotyczyły pisania na maszynie (Logan,
1982) i mówienia (Levelt, 1983). Zachowanie osób badanych można w tych
warunkach interpretować jako efekt „wyścigu” (teoria rywalizacji egzemplarzy;
Logan, 1988, 2002) między dwoma procesami. Pierwszy jest wzbudzany przez
instrukcję i bodźce określające rodzaj zadania, a jego efekt to aktywacja odpo­
wiednich struktur poznawczych i wykonanie oczekiwanej czynności poznawczej.
Drugi proces jest wzbudzany przez sygnał zatrzymania (stop), powodując po­
wstrzymanie się od dalszego wykonywania czynności, czyli zahamowanie
dominującej reakcji (Logan, Cowan, 1984). W zgodzie z teorią rywalizacji egzem­
plarzy, badani są w stanie tym szybciej zahamować wykonywaną czynność, im
krótszy jest interwał pomiędzy pojawieniem się bodźca wzbudzającego wykony­
waną czynność a pojawieniem się sygnału stopu. Powstrzymanie wykonywanej
czynności jest jednak możliwe nawet przy relatywnie długich interwałach (De Jong
i in., 1990).
Interesujące modyfikacje w zakresie omawianego paradygmatu przedstawił
De Jong (De Jong, Coles, Logan, 1995). Zamiast mówienia czy pisania na ma­
szynie, badani wykonywali prostą czynność motoryczną, polegającą na ściskaniu
umieszczonego w ich dłoni dynamometru. Sygnałem do zatrzymania był specjalnie
dobrany dźwięk. De Jong porównał trzy rodzaje hamowania dominującej reakcji:
przez zwykłe powstrzymanie się od jej wykonywania (stop ogólny; stop-all), przez
powstrzymanie się od jej wykonania i wzbudzenie w jej zastępstwie reakcji alter­
natywnej (stop-zmiana; stop-change; zamiast ściskania dynamometru badani
musieli nacisnąć nogą specjalny pedał) oraz przez powstrzymanie się od jej wy­
konania, ale tylko w zakresie jednego z dwóch efektorów (stop selektywny;
selective-stop\ badani musieli powstrzymać się od reagowania jedną z rąk,
zazwyczaj dominującą). Badania Logana (1985) wykazały, że hamowanie dominu­
jącej reakcji jest znacznie trudniejsze w warunku drugim (stop-zmiana) niż pierw­
szym (stop ogólny), natomiast w eksperymencie De Jonga, Colesa i Logana (1995)
stwierdzono, że najtrudniejsze jest hamowanie reakcji w zakresie tylko jednego
z dwóch możliwych efektorów (stop selektywny).
6.1. Czynności automatyczne i automatyzacja
j
j
241
Paradygmat sygnał stopu może być używany w badaniach nad różnicami
indywidualnymi w zakresie skuteczności procesów kontroli i hamowania. Im sku­
teczniejsi jesteśmy w kontrolowaniu własnych procesów poznawczych, oczywiście %
tylko w aspekcie hamowania, tym krócej kontynuujemy dobrze wyuczoną czyn- I
ność, mimo odebrania sygnału stopu. Tak zdefiniowany wskaźnik skuteczności /
kontroli pogarsza się wraz ze starzeniem się, a także w niektórych stanach choro­
bowych. Obserwujemy wówczas wydłużenie czasu, w którym czynność jest nadal
wykonywana, mimo sygnału stopu. W skrajnych przypadkach obserwuje się nawet
ignorowanie sygnałów stopu. Realistycznym odpowiednikiem takiego zachowania
jest niemożność przerwania raz uruchomionej wypowiedzi, mimo odbieranych
z otoczenia sygnałów, że mówimy niepotrzebnie lub nie na temat.
;■
Efekt Stroopa (1935; paradygmat 6.2) długo uważano za silny argument za
balistycznością procesów automatycznych. Na powszechność takich interpreta; cji zwracają uwagę np. Tzelgov, Henik i Leister (1990). Logan (1980; Logan,
i Zbrodoff, 1998) stwierdził jednak, że jeśli badanym prezentuje się listę wymie­
szanych bodźców spójnych (np. wyraz „czerwony” napisany czerwonym
atramentem) i bodźców konfliktowych (np. wyraz „czerwony” napisany zielo­
nym atramentem), to wielkość efektu Stroopa zależy od proporcji tych bodźców.
Gdy lista zawierała tylko 20% bodźców konfliktowych (czyli 80% bodźców
spójnych), efekt Stroopa był istotnie większy niż wtedy, gdy na liście było aż
80% bodźców konfliktowych (czyli tylko 20% bodźców spójnych). Wynika stąd,
że łatwiej nam zahamować narzucającą się, automatyczną reakcję, gdy jest ku
temu stosunkowo wiele okazji. Ale najistotniejsze jest to, że siła automatyzmu
| zależy od proporcji bodźców odpowiedniego rodzaju, a zatem - że procesy
automatyczne nie są całkowicie balistyczne. Jednym z warunków redukcji efek­
tu Stroopa jest też użycie niewielkiej liczby kolorów w konstrukcji bodźców gdy liczba kolorów wzrasta, wpływu proporcji bodźców spójnych do konflikto­
wych na wielkość efektu Stroopa z reguły się nie stwierdza (Logan, Zbrodoff,
Williamson, 1984).
Paradygmat 6.2
Efekt Stroopa
Efekt interferencji Stroopa (1935) jest jednym z najsłynniejszych zjawisk w psy­
chologii eksperymentalnej. Na przełomie lat 1980/1990 przywoływano go w blisko
80 pracach rocznie. Tendencja ta ma ciągle charakter wzrostowy. Dla porównania równie słynny efekt świeżości, odkryty przez Petersona i Peterson (1959), przywoływano tylko w 30 publikacjach rocznie i liczba ta była dość stała (MacLeod,
1992). Zadanie Stroopa wykorzystywano jako metodę badawczą w przypadku
ponad 20 prac rocznie. Popularność tego efektu wynika z dwóch przyczyn.
Po pierwsze, jest on zawsze istotny statystycznie, silny i powtarzalny. Po drugie,
pomimo 70 lat badań nad tym zjawiskiem, nadal pozostaje on fenomenem nie do
końca wyjaśnionym co do swego podłoża i mechanizmu (MacLeod, 1991).
242
Rozdział 6. Kontrola poznawcza
Istotą efektu Stroopa jest utrudnienie w przetwarzaniu bodźców niespójnych
(np. słowo „czerwony” napisane zielonym atramentem) w porównaniu z bodźcami
spójnymi (np. słowo „czerwony” napisane czerwonym atramentem; zob. ryc. 6.3).
Osoby badane czytają słowa spójne lub niespójne, albo nazywają kolor atramentu
użyty do napisania słów spójnych lub niespójnych. Czytanie słów zwykle wymaga
mniej czasu niż nazywanie kolorów, ponieważ jest czynnością silnie zautomatyzo­
waną. Jeśli chodzi o nazywanie kolorów, czynność ta jest zwykle znacznie dłuższa
w przypadku słów niespójnych, w porównaniu ze spójnymi. Nazwano to efektem
interferencji, a jego miarą jest różnica między średnim czasem, potrzebnym na
nazwanie koloru słowa niespójnego, a średnim czasem potrzebnym na nazwanie
koloru słowa spójnego. Jeśli w badaniu bierze udział bardzo heterogeniczna próba,
w której skład wchodzą osoby o różnym podstawowym tempie reagowania, lepszą
miarą efektu interferencji jest proporcja średnich czasów reakcji, a nie ich różnica.
□□□
czerw ony
czerwony
okno
pająk
czerwony
czerwony
>:^n:^V.-.W^L.niipV,Tr^.'WiJ„nń
Ryc. 6.3. Bodźce używane w badaniach nad efektem interferencji Stroopa (1935) oraz rozkłady
czasów reakcji w warunkach neutralnym i konfliktowym. Drugi z bodźców każdej pary jest
bodźcem konfliktowym, podczas gdy pierwszy jest bodźcem spójnym. Interferencja może dotyczyć
kierunku, znaczenia, aspektu emocjonalnego lub układu przestrzennego bodźców.
Interpretacja efektu interferencji Stroopa wymaga starannej analizy procesów,
biorących udział w jego powstawaniu. Osoba badana musi zahamować nawykową,
dobrze wyuczoną czynność (przeczytanie słowa), aby zamiast niej wykonać inną
czynność, w ogóle nie wyuczoną i dość „egzotyczną” (nazwanie koloru atramentu,
6.1. Czynności automatyczne i automatyzacja
243
' jakim napisane jest to słowo). Długotrwały proces nabywania wprawy w czytaniu
polega m.in. na tym, aby nauczyć się ignorować to, w jaki sposób dane słowo jest
napisane (np. literami dużymi czy małymi, pisanymi czy drukowanymi, czcionką
Courier czy Times Roman), a skupić się na jego znaczeniu. W eksperymencie
psychologicznym nagle trzeba zachować się zupełnie inaczej, co dla wieiu osób
stanowi nie lada problem, a dla wszystkich jest źródłem efektu interferencji. Dlatego
: im słabszy ów efekt, tym silniejsza i skuteczniejsza kontrola poznawcza. Osoba
zdolna do uruchomienia silnych, wydajnych procesów kontrolnych szybciej
| zahamuje niepotrzebną reakcję, dając wolną drogę reakcji wymaganej instrukcją
eksperymentu. W rezultacie czas potrzebny na zareagowanie w warunku nie1 spójnym będzie u takiej osoby relatywnie krótki, choć oczywiście znacząco dłuższy
niż w warunku spójnym. Jednak relatywne skrócenie czasu reakcji w warunku
niespójnym przełoży się na obniżenie wartości wskaźnika interferencji. Natomiast
osoba nie dysponująca silnymi, wydajnymi procesami kontroli, będzie miała duże
trudności z zahamowaniem niepotrzebnej reakcji. Nawet jeśli w końcu to uczyni,
będzie potrzebowała więcej czasu, co przełoży się na relatywnie długi czas reakcji
w warunku niespójnym i w konsekwencji - na podwyższenie wskaźnika inter­
ferencji. Badania nad różnicami indywidualnymi zwykle pokazują, że w warunku
spójnym wszyscy reagują mniej więcej z taką samą szybkością, choć oczywiście i tu
ujawniają się cechy indywidualne. Jednak dopiero w warunku niespójnym wystę­
puje prawdziwe wielkie zróżnicowanie. Dlatego relatywne wydłużenie lub skrócenie
czasu reakcji w warunku niespójnym decyduje o wielkości efektu interferencji,
a wielkość ta świadczy o silnej (mała wartość efektu) lub słabej (duża wartość
efektu) kontroli poznawczej. Taką samą logikę interpretacji stosujemy wobec
wszystkich zadań, zawierających aspekt interferencji. Natomiast w przypadku po­
przedzania negatywnego interpretacja jest odmienna (zob. paradygmat 6.3).
Współczesne wersje zadania Stroopa nieco się różnią od oryginału. W pierw­
szym badaniu John Ridley Stroop (1935) porównywał szybkość czytania słów
oznaczających kolory, napisanych czarnym atramentem (warunek kontrolny) albo
atramentem niezgodnym z ich znaczeniem (bodziec niespójny). Badani potrzebo­
wali średnio 23 ms więcej na przeczytanie wyrazu niespójnego niż wyrazu kon­
trolnego. Efekt interferencji, wynikający z niespójnych aspektów bodźca, okazał się
nieistotny statystycznie. W badaniu drugim Stroop polecił badanym nazywać kolor
atramentu, jakim napisany był wyraz oznaczający kolor, zamiast czytać słowo.
Oprócz tego uczestnicy eksperymentu nazywali kolory prostokątów, w tej samej
liczbie i układzie kolorów, jaki został utworzony na liście bodźców niespójnych.
Badani potrzebowali średnio 470 ms więcej na nazywanie koloru atramentu bodźca
niespójnego w porównaniu do kolorowego paska (efekt Stroopa). W badaniu trze­
cim Stroop poddał osoby badane procesowi automatyzacji czynności nazywania ;
kolorów. Udało mu się zaobserwować, że osiem dni praktyki zmniejsza efekt inter­
ferencji średnio o 336 ms, co jednak nie zredukowało statystycznej istotności tego
efektu. Co więcej, badani, którzy nabyli wprawę w nazywaniu kolorów, wykazali
również istotny efekt interferencji w przypadku czynności czytania bodźców
niespójnych - wyrazy te czytali średnio 308 ms na bodziec dłużej niż w warunku,
w którym były one napisane czarnym, zwykłym atramentem (tzw. odwrócony efekt
Stroopa). Ten ostatni efekt zanikał jednak już w drugim postteście (wielkość efektu
interferencji średnio 52 ms na bodziec, różnica nieistotna statystycznie). Dokładnej
244
Rozdział 6. Kontrola poznawcza
replikacji badań Stroopa (1935) dokonał MacLeod (1986). Uzyskał on analogiczne
efekty, a różnice w zakresie wielkości efektu interferencji w porównaniu do ekspe­
rymentów Stroopa nie przekraczały 80 ms na pojedynczy bodziec niespójny.
Zadanie Stroopa poddawano licznym modyfikacjom (przegląd w: MacLeod,
1991). Najbardziej znane z nich to:
(1) Stroop emocjonalny (zob. np. Williams, Mathews, MacLeod, 1996) zadaniem osób badanych jest nazwanie koloru, jakim napisano słowa kojarzące się
z lękiem (np. pająk, wąż), albo rzeczami lub sytuacjami o negatywnym zabarwieniu
emocjonalnym (np. gwałt, choroba).
(2) Stroop rozproszony (zob. np. Kahneman, Chajczyk, 1983) - zadaniem
osób badanych jest nazwanie koloru obiektu (np. plamy, ramka) występującego
w towarzystwie wyrazu oznaczającego zupełnie inny kolor.
(3) Stroop figuralny (zob. np. Navon, 1977) - osoby badane widzą figurę
zbudowaną z innych figur (np. dużą literę H zbudowaną z liter K o mniejszym
rozmiarze: zob. ryc. 6.4). Zadanie polega na nazwaniu figury stanowiącej tworzywo,
a zignorowaniu figury głównej.
RRRRRRRRRRR
RRRRRRRRRRR
RRRRRRRRRRR
RRRRRRRRRRR
RRRRRRRRRRR
RRRRRRRRRRR
RRRRRRRRRRR
RRRRRRRRRRR
RRRRRRRRRRR
KKK
KKK
KKK
KKK
KKK
KKK
KKK
KKK
KKKKKKKKKKK
KKK
KKK
KKK
KKK
KKK
KKK
KKK
KKK
*************
*************
***
***
***
***
***
***
***
zzz
zzz
zzz
zzzz
zzz
zzzzz
zzz
zzz zz
zzz
zz zzz
zzz
zz zzz
zzz
zzzzz
zzzz
zzz
zzz
zzz
Ryc. 6.4. Bodźce spójne i niespójne używane w badaniach Navona (1977).
(4)
Stroop kierunkowy (zob. np. Shilling, Chetwynd, Rabbitt, 2002) - zada­
niem osób badanych jest reakcja za pomocą odpowiedniego klawisza kursora
klawiatury na strzałkę pokazującą kierunek przeciwny niż klawisz. Osoba badana
widzi np. strzałkę skierowaną ku górze, a ma zareagować klawiszem reprezentu­
jącym ruch kursora w dół.
We wszystkich badaniach z wykorzystaniem zadania Stroopa, niezależnie od
modyfikacji, uzyskuje się efekt interferencji. Jednak efekty te wykazują z reguły
swoją specyficzność, ponieważ nie udało się stwierdzić występującej między nimi
korelacji (Shilling, Chetwynd, Rabbitt, 2002).
6.1. Czynności automatyczne i automatyzacja
245
I
Ponadto Tzelgov i Henik (1995; Tzelgov, Henik, Leister, 1990) wykazali, że
! wielkość efektu Stroopa zależy od ogólnej kompetencji językowej. W przypadku
I języka ojczystego krzywa obrazująca tę zależność ma postać odwróconego „U”.
I Relatywnie niewielki efekt interferencji stwierdza się w przypadku osób o niskiej
I i wysokiej biegłości w posługiwaniu się językiem, podczas gdy największy
efekt Stroopa - u osób o przeciętnej kompetencji. Tzelgov i Henik wykazali
również, że redukcja efektu Stroopa w przypadku list zawierających niewielki
procent bodźców spójnych możliwa jest tylko w języku ojczystym (drugi wa­
runek redukcji efektu Stroopa; Tzelgov, Henik, Leister, 1990). Dlatego też za; równo Logan, jak i Tzelgov oraz Henik sugerują, aby automatyczność i kontrolę
: traktować jak dwa aspekty dobrze wyuczonego zachowania, wskazując ich
■ różną funkcję w ramach systemu poznawczego, ale nie przeciwstawiając ich, tak
i jak czynili to Shiffrin i Schneider, na podstawie długości procesu nabywania
; wprawy.
Zaproponowana przez Logana (1988,1992,2002) teoria rywalizacji egzemj- plarzy (instances), zwana również teorią przypadków, uwzględnia możliwość
kontroli procesów automatycznych. Według autora, procesy te charakteryzują
się określonym zestawem właściwości. Po pierwsze, są one autonomiczne, gdyż
mogą być uruchamiane oraz wykonywane nieintencjonalnie. Detekcja bodźca
I powoduje natychmiastowe przywołanie z pamięci wszystkich związanych z nim
; informacji, zarówno deklaratywnych (dotyczących znaczenia bodźca), jak
f i proceduralnych (dotyczących procedur postępowania z bodźcem). Decyzji
i o przywołaniu z pamięci nie towarzyszy nasza intencja ani wola. Po drugie,
{ procesy automatyczne mogą podlegać kontroli, gdyż można je wykorzystywać
f intencjonalnie. Autonomiczny proces przywoływania z pamięci długotrwałej
| można modyfikować np. poprzez stosowanie odpowiednich wskazówek przyt woławczych, uprzednio skojarzonych z odpowiednimi śladami pamięciowymi
i w procesie uczenia. Autonomiczność funkcjonowania procesów automatyczp nych polega więc na nieintencjonalnym uruchomieniu dostępu do trwałych
f reprezentacji umysłowych. Efekty tego dostępu można jednak intencjonalnie
j. kontrolować aż do momentu uruchomienia konkretnych reakcji motorycznych
| czy werbalnych, których powstrzymanie jest już niemożliwe. Po trzecie, ze
I względu na natychmiastowość dostępu do pamięci długotrwałej, w przypadku
| procesów automatycznych występują duże ograniczenia w zakresie pamiętania
| tego, co było przetwarzane i w jaki sposób przetwarzanie informacji się doj konywało. Właściwościami procesów automatycznych są więc, po czwarte, brak
r introspekcyjnej świadomości ich przebiegu oraz, po piąte, bezwysiłkowość.
Najważniejszym konstruktem koncepcji Logana jest pojęcie „egzemplarz”.
I Stanowi on jednostkową, trwałą reprezentację umysłową pojedynczego bodź| ca (S) i wymaganego sposobu reakcji (R). Egzemplarz jest kodowany, przechor wywany oraz przywoływany w postaci trwałej wiedzy, odrębnie od pozostałych
| egzemplarzy tej samej sytuacji bodźcowej S-R i innych możliwych sytuacji,
t Każdy egzemplarz składa się z umysłowego odzwierciedlenia czterech ele| mentów: celu aktywności, bodźca związanego z realizacją tego celu, interpretaI cji nadawanej bodźcowi w kontekście celu, oraz odpowiedzi udzielanej w sto| sunku do bodźca. Logan (2002) wyraźnie odwołuje się więc w swojej koncepcji
| procesów automatycznych do egzemplarzowej teorii trwałych reprezentacji
I umysłowych (zob. rozdz. 3), obowiązującej, jego zdaniem, zarówno w zakresie
1
Ii&
246
Rozdział 6. Kontrola poznawcza
pamięci semantycznej (znaczenie S i R), jak i pamięci epizodycznej (przypadki
stosowania R wobec S). Sprzeciwia się natomiast prototypowej koncepcji re­
prezentacji świata w umyśle, jako że prototypy niekoniecznie odzwierciedlają
konkretne obiekty czy zjawiska świata rzeczywistego, mogąc być sztucznymi
konstruktami, zbudowanymi na podstawie uśrednionych czy najczęstszych
właściwości szerszej klasy sytuacji bodźcowych. W przeciwieństwie do proto­
typu, egzemplarz zawsze jest odzwierciedleniem konkretnego elementu rze­
czywistości.
Egzemplarze, jako trwałe reprezentacje umysłowe, podlegają procesowi
nabywania - są one gromadzone w ramach trwałej wiedzy zgodnie z czterema
podstawowymi prawami. Po pierwsze, pojawienie się odrębnego bodźca powo­
duje zapis odrębnego egzemplarza w pamięci. Po drugie, odmienne pojawienie
się tego samego bodźca powoduje również ukształtowanie się odrębnej
reprezentacji egzemplarzowej. Po trzecie, gromadzenie egzemplarzy jest tożsa­
me z procesem nabywania wprawy w zakresie wykonywania czynności odpo­
wiadających tworzonym dla nich reprezentacjom egzemplarzowym. Nabyta
wprawa ma wpływ zarówno na wybór konkretnej reakcji na pojawiający się
bodziec, jak i na szybkość tej reakcji. Po czwarte, zależność szybkości reakcji od
wprawy opisuje opadająca krzywa wykładnicza (Logan, 1988). Pokazuje ona, że
początkowo efekty gromadzenia egzemplarzy i dowodów ich skuteczności wy­
wołują gwałtowne skrócenie czasów reakcji (ryc. 6.4). Jednak dalsze ćwiczenie
w coraz mniejszym stopniu przyczynia się do poprawy wykonania, mierzonej
zwykle skracającym się czasem reagowania. W końcu, dalsze gromadzenie
dowodów potwierdzających efektywność wyuczonej procedury reagowania na
bodźce nie przyczynia się już do poprawy wykonania, co oznacza, że krzywa
osiągnęła poziom asymptoty. W ramach egzemplarzy gromadzona jest wiedza
dotycząca sposobów reagowania (response-set) , a nie kategorii bodźców
(stimulus-set). Świadczy o tym stwierdzony przez Logana (1990) brak transferu
wprawy w warunkach całkowitej zmiany sposobów reagowania na uprzednio
prezentowane bodźce. W wyniku takiej zmiany wszystkie nabyte „egzemplarze
reakcji” przestają być adekwatnymi odpowiedziami na aktualnie prezentowane
bodźce.
W momencie pojawienia się bodźca system poznawczy ma do wyboru dwa
sposoby przetwarzania informacji: zastosowanie ogólnego algorytmu reakcji dla
bodźców podobnego typu lub odwołanie się do skutecznego, znanego z prze­
szłości sposobu poradzenia sobie z bodźcem. Jest to wybór między automatycz­
nym przywołaniem procedury reakcji z pamięci a kontrolowanym przetwarza­
niem danych przez system uwagi. Jeśli przetarg wygra pamięć, proces przebiega
automatycznie, a w obrębie wiedzy trwałej pojawi się zapis o efektywności
zastosowania danego egzemplarza. Jeśli zaś pamięć nie dysponuje jeszcze od­
powiednim do sytuacji bodźcowej egzemplarzem (dzieje się tak w sytuacjach
nowych), to przetarg wygrywa uwaga, a po wykonaniu czynności - w ramach
trwałej wiedzy - pojawia się pierwszy egzemplarz, będący efektem kontrolowa­
nego przetwarzania informacji i zastosowania ogólnych algorytmów radzenia
sobie w przypadku szerokiej klasy zjawisk, do której należy prezentowany
bodziec. W konsekwencji Logan (1988) stwierdził, że problemy z wykonaniem
nowych zadań nie wynikają z braku zasobów (rzekomo zbyt duże wymagania),
ale raczej z braku wiedzy (braku egzemplarzy).
6.1. Czynności automatyczne i automatyzacja
247
Ryc. 6.5. Poprawa poziomu wykonania zadania (coraz krótszy czas reakcji) jako wykładnicza funkcja
długości czasu nabywania wprawy (za: Logan. 1988). Każda funkcja zaczyna się w tym samym punkcie,
reprezentującym początkowy poziom wykonania, i asymptotycznie zbliża się do poziomu idealnego.
Każdej krzywej, reprezentującej pojedynczy przypadek, odpowiada określona wartość wykładnika.
I
I
|
i
|
|
I
Automatyczna reakcja ze strony pamięci jest zdeterminowana przez pierw­
szy przywołany egzemplarz. Detekcja bodźca, oprócz rywalizacji pomiędzy
kontrolowanymi procesami uwagowymi a automatycznymi procesami pamię­
ciowymi, prowokuje więc „wyścig” o pierwszeństwo między dostępnymi w pamięci egzemplarzami. Nagrodą jest uruchomienie sposobu postępowania z bodź­
cem zgodnie z zakodowaną w egzemplarzu procedurą. O zwycięstwie w wyścigu
decyduje liczba dowodów dotychczasowej, udanej stosowalności egzemplarza
w odpowiedzi na bodziec. Każde udane współwystąpienie bodźca i specyficznej
reakcji zwiększa wagę egzemplarza reprezentującego to konkretne zachowanie.
Nabywanie wprawy polega więc na zwiększaniu wagi dominującego egzempla­
rza, tak by jego zwycięstwo w rywalizacji przypadków nie podlegało wątpliwoś­
ci. Model wyścigu egzemplarzy dobrze wyjaśnia zarówno szybkość procesów
wtórnie automatycznych (tym większą, im większa jest wprawa w zakresie
wykonywanych czynności), jak też podatność na błędy w przypadku bodźców
konfliktowych (np. w zadaniu Stroopa). Bodźce takie uruchamiają tyle rywali­
zujących ze sobą ścieżek, ile konfliktowych aspektów stymulacji zawierają. Ze
względu na brak jednego dominującego egzemplarza w reakcji na bodziec mogą
pojawić się błędy. Reakcja może być wtedy korygowana przez instrukcję dla
osoby badanej lub jej intencjonalną decyzję, ale nie bez ponoszenia kosztów
czasowych, wynikających z uruchomienia uwagowych mechanizmów kontrol­
nych (zob. rozdz. 6.2).
Logan potwierdził słuszność swojej koncepcji w kilku badaniach z wykorzystaniem różnych prostych zadań, w których badani nabywali wprawę. Były
to np. zadania na podejmowanie decyzji leksykalnych (Logan, 1988), testy
arytmetyczno-alfabetyczne, wymagające sprawdzania poprawności równań
matematycznych, w których występowały litery i cyfry, np. A + 2 = C? (Logan,
1992; Logan, Klapp, 1991), jak również zadanie Stroopa (Logan, 1980; Logan,
248
Rozdział 6. Kontrola poznawcza
Zbrodoff, 1998). Autor zawsze prosił osoby badane o wykonanie kilkunastu
serii zadań tego samego typu, gdyż podobnie jak Shiffrin i Schneider wierzył, że
tylko trening jednorodny umożliwia szybkie i skuteczne nabywanie wprawy.
Mierzył czas reakcji jako funkcję automatyzacji. Wszystkie badania Logana
potwierdziły, iż opadająca krzywa wykładnicza dobrze opisuje proces automa­
tyzacji czynności w poszczególnych zadaniach. Na przykład w teście arytmetyczno-alfabetycznym (Logan, 1992) badani początkowo rzeczywiście stosowali
algorytm dodawania. Czas weryfikacji równania wyrażonego ogólną formułą
„litera + cyfra = litera” zależał od odległości w alfabecie dwóch liter wystę­
pujących w równaniu - im większa odległość, tym dłuższy czas reakcji (przyrost
400-500 ms na pozycję alfabetu). Wraz z kolejnymi pozycjami testu, gdy badani
uczyli się, które przypadki równań są fałszywe, a które prawdziwe, czas reakcji
ulegał znacznemu skróceniu. Przyrost wprawy, duży z początku wykonywania
testu i niewielki na zakończenie procesu automatyzacji, dobrze opisywała opa­
dająca krzywa wykładnicza. Pod koniec procesu nabywania wprawy nie stwier­
dzono już różnic w weryfikowaniu równań, niezależnie od manipulowanej
odległości pomiędzy literami równania. Badani weryfikowali poszczególne po­
zycje testowe automatycznie, odwołując się do zgromadzonych w pamięci dłu­
gotrwałej egzemplarzy poprawnych równań. Z koncepcji rywalizacji egzempla­
rzy, a szczególnie z definicji samego konstruktu egzemplarza wynika, iż czyn­
ności automatyczne pojawiają się tylko w odpowiedzi na specyficzne bodźce
wyzwalające. Wobec tego transfer wprawy w zakresie wykonywanej czynności
z jednej grupy bodźców na inną nie powinien w ogóle zaistnieć (Logan, 1990).
Stwierdzić można zatem, że zgodnie z teorią rywalizacji egzemplarzy więk­
sza wprawa w wykonywaniu czynności poznawczej może wiązać się zarówno
z wtórną automatyzacją tej czynności, jak i z możliwością sprawowania nad nią
większej kontroli. Automatyczność i kontrolowalność nie są dwoma przeciw­
nymi biegunami kontinuum procesów, ale dwoma aspektami tego samego
zjawiska nabywania wprawy. Teoria rywalizacji egzemplarzy podkreśla, iż
automatyzmy mogą wiązać się raczej z funkcjonowaniem pamięci (dostępność
egzemplarzy), a nie funkcjonowaniem uwagi (dostępność zasobów). Uwaga
wiąże się z wtórną automatyzacją o tyle, o ile ułatwia proces nabywania egzem­
plarzy i zmiany ich relatywnych wag (Logan, Etherton, 1994; Logan, Taylor,
Etherton, 1996).
6.1.4. Konsekwencje automatyzacji czynności
Automatyzacja czynności ma wiele pozytywnych konsekwencji. Część z nich
przedstawiono już powyżej. Dzięki automatyzacji uwalniane są zasoby systemu,
które można przeznaczyć na wykonywanie innych zadań. Nabywanie wprawy
prowadzi też do istotnego przyspieszenia i zwiększenia poprawności reagowa­
nia. Efekty te opisuje opadająca krzywa wykładnicza. W konsekwencji auto­
matyzacja czynności powinna prowadzić również do redukcji efektu przetargu
między szybkością a poprawnością, co należy uznać za kolejny pozytywny
skutek nabywania wprawy.
Efekt przetargu między szybkością a poprawnością występuje w zadaniach
z presją czasu (Snodgrass, Luce, Galanter, 1967). W takich warunkach badani
6.1. Czynności automatyczne i automatyzacja
249
z reguły nie są w stanie uzyskać dobrych wskaźników wykonania zarówno
w zakresie szybkości, jak i z poprawności reakcji (Meyer i in., 1988). Przetarg
między szybkością a poprawnością jest podstawową zasadą funkcjonowania
elastycznego filtra uwagi (Johnstona, 1978; Johnston, Heinz, 1978; zob.
rozdz. 5). Im płytszy poziom analizy bodźców, tym szybszy i mniej poprawny
proces selekcji informacji. Na głębokich poziomach przetwarzania informacji
analizy selekcyjne są znacznie bardziej złożone, wymagają więcej czasu, ale w konsekwencji - są też bardziej poprawne. Z kolei zgodnie z modelem prze­
wodników uwagi (Wolfe, 1994; zob. rozdz. 5), proces przeszukiwania pola
wzrokowego, polegający na integracji cech w poszukiwany obiekt, jest uru­
chamiany wtedy, gdy suma pobudzenia w zakresie kodowanych cech stymulacji
przekroczy pewien minimalny próg. Im znaczniejsze przekroczenie progu, tym
szybszy proces przeszukiwania pola wzrokowego. Proste, sensoryczne cechy
priorytetowe (np. ruch) charakteryzują się dużym ładunkiem aktywacyjnym
i wymuszają przetwarzanie na relatywnie wczesnych etapach obróbki bodźca.
Jednak proces selekcji na podstawie tych cech bodźców przebiega szybko
i intuicyjnie - analizie podlegają jedynie priorytetowe właściwości stymulacji, co
prowadzi do zwiększonej liczby błędów. Gdy proces selekcji obejmuje kilka
złożonych cech, wymagających głębszej i dłuższej analizy, ale mniej stymulu­
jących, wówczas przebiega wolniej, ale i bardziej poprawnie. Wtedy bowiem
w procesie integracji cech w obiekt uwzględnia się wiele różnych charakterystyk
stymulacji w celu przekroczenia sumarycznego progu aktywacji i uruchomienia
procesu przeszukiwania.
Koszty poznawcze związane z przyspieszeniem przebiegu procesów
poznawczych pod presją czasu znajdują empiryczne odzwierciedlenie w zakresie
sumarycznej liczby błędów (Dickman, Meyer, 1988; Larson, Saccuzzo, 1986;
Szymura, Nęcka, 1998), a także w zakresie błędów ominięcia (Lobaugh, Cole,
Rovet, 1998; Zenger, Fahle, 1997). Kosztów polegających na wzroście liczby
fałszywych alarmów raczej się nie stwierdza, nawet jeśli analizy dotyczą osób
szczególnie impulsywnych (Dickman, Meyer, 1988; Larson, Saccuzzo, 1986;
Szymura, Nęcka, 1998). W warunkach szybkiego przetwarzania informacji
większość aspektów stymulacji nie jest uwzględniana przy podejmowaniu
decyzji selekcyjnej. W rezultacie osoby badane często wybierają strategię zga­
dywania, podejmując decyzję selekcyjną mimo niepełnych przesłanek. Jak
wykazali Chun i Wolfe (1996), takie zgadywanie w ponad 80% przypadków
kończy się decyzją negatywną (brak detekcji, możliwy błąd ominięcia), zaś tylko
w niecałych 20% - decyzją pozytywną (detekcja, możliwy fałszywy alarm).
Efekt przetargu stwierdzili w swoich badaniach nad uwagą selektywną
Szymura i Słabosz (2002). Osoby badane „płaciły” za zwiększoną szybkość
procesów selekcji informacji wzrostem liczby błędów ominięcia. Wielkość tego
efektu ulegała jednak sukcesywnemu zmniejszeniu w każdej kolejnej próbie
tego samego testu (trening jednorodny), choć najbardziej istotne różnice stwier­
dzono na początku nabywania wprawy - między pierwszym a drugim wyko­
naniem testu. Wyniki okazały się więc zgodne z prawem opadającej krzywej
wykładniczej. Co ciekawe, w omawianym badaniu prawo to ujawniło się nie
tylko poprzez poprawę w zakresie pojedynczych empirycznych wskaźników
wykonania (spadek liczby błędów), ale również poprzez jakościową zmianę
sposobu wykonywania czynności selekcji informacji (redukcja efektu przetar­
250
Rozdział 6. Kontrola poznawcza
gu). Inaczej mówiąc, automatyzacja czynności poznawczej powoduje ogólną
poprawę wskaźników wykonania, a ponadto redukuje koszty związane
z koniecznością „płacenia” szybkością za poprawność lub poprawnością za
szybkość.
Automatyzacja może jednak prowadzić również do konsekwencji negatyw­
nych. Chodzi szczególnie o trudność w zakresie deproceduralizacji wtórnie
automatycznego procesu. Większość modeli nabywania wprawy zakłada trzy
stadia automatyzacji: poznawcze, asocjacyjne i autonomiczne (Ackerman, 1988;
Anderson, 1983). W stadium poznawczym automatyzacja polega na zrozumie­
niu i przyswojeniu instrukcji, ogólnym zaznajomieniu się z celem czynności oraz
wstępnym sformułowaniu procedury wykonania. W stadium asocjacyjnym, na
skutek treningu jednorodnego, następuje proceduralizacja sposobu wykonania
czynności (Anderson, 1983). Jest to właściwe stadium nabywania wprawy,
dzięki któremu skraca się czas reakcji i zmniejsza liczba błędów. W trzecim
stadium, czynność automatyzowana uzyskuje status procesu autonomicznego
(Logan, 1988) - raz wyzwolona w jej ramach reakcja przebiega bezwysiłkowo,
a zadanie obsługiwane przez tę czynność wykonywane jest tak szybko
i poprawnie, jak tylko pozwalają na to możliwości psychomotoryczne
organizmu. W stadium autonomicznym możliwe jest wyzwolenie długiej sek­
wencji zautomatyzowanych czynności za pomocą jednego bodźca lub pojedyn­
czej intencji.
Jednak w niektórych okolicznościach niezbędna jest deproceduralizacja
czynności. Konieczność taka zachodzi w warunkach minimalnej choćby zmiany
wymagań zadania, co wymusza wprowadzenie zmian w obrębie już zau­
tomatyzowanej czynności. Mogą się wtedy pojawiać błędy wynikające z „bez­
refleksyjnego” wykonywania automatycznej procedury (zob. metafora auto­
matycznego pilota; rozdz. 6.1.1). Przykładem kosztów wynikających z procesu
automatyzacji jest zjawisko transferu negatywnego, polegające na tym, iż dobrze
wyuczona czynność utrudnia wykonywanie czynności podobnej, ale nie
tożsamej z uprzednio wyuczoną. W badaniu Woltza, Bella, Kyllonena i Gardnera (1996) uczestnicy najpierw nabywali wprawę w wykonywaniu zadania
polegającego na stosowaniu prostych reguł redukcyjnych w celu zastąpienia
liczby trzycyfrowej liczbą jednocyfrową. Osoby, które nabyły umiejętność stoso­
wania tych reguł w stosunku do jednego zestawu liczb, cechowały się znacznie
wydłużonym czasem opracowywania nowych zestawów, jeśli reguły postępo­
wania zostały minimalnie zmienione. Badani z grupy kontrolnej, którzy nie
nabywali wcześniej żadnych reguł, okazali się znacznie szybsi w procesie
przetwarzania nowych zestawów liczb. Przy wykorzystaniu nieco trudniejszych
reguł redukcyjnych, Woltz, Gardner i Bell (2000) stwierdzili negatywny transfer
umiejętności również w zakresie poprawności wykonywania nowej czynności.
Pamiętać jednak należy, iż efekty transferu są bardzo zależne od podobieństwa
zestawów bodźców i odpowiadających im wymaganych reakcji. Dlatego Logan
(1990) nie uzyskał w zadaniu na transfer żadnego istotnego efektu, a Tzelgov
(1999) uzyskał nawet efekt transferu pozytywnego.
W badaniach nad uwagą selektywną Szymura i Słabosz (2002) stwierdzili
występowanie transferu negatywnego w przypadku konieczności dostosowania
tego samego typu reakcji do bodźca wyzwalającego uprzednio inny rodzaj
reakcji. W wyniku transferu negatywnego, czynność selekcji powracała pod
6.2. Hamowanie jako mechanizm kontrolny
;
I
j
j
[
j
j
[
j
Ę
i[
\
251
względem parametrów efektywności do poziomu wykonania typowego dla
asocjacyjnego stadium nabywania wprawy (Anderson, 1983). Zwiększył się
także efekt przetargu pomiędzy szybkością a poprawnością, istotnie uprzednio
zredukowany na skutek automatyzacji. Ponadto, na zmianie warunków wy­
konywania zadania szczególnie tracili ci badani, którzy wykazali się bardziej
skuteczną automatyzacją czynności selekcji w początkowych etapach nabywa­
nia wprawy, charakteryzujących się bardzo szybkim przyrostem efektów.
Podsumowując, automatyzacja może być skutecznym narzędziem kontroli
poznawczej. Wydaje się, że przeciwstawianie automatyzacji procesom kontroli nie znajduje potwierdzenia w wynikach badań, które sugerują raczej, iż
automatyzacja i kontrola są dwoma aspektami procesu nabywania wprawy,
procesu, który umożliwia redukcję kosztów poznawczych, związanych z wykonywaniem wielu trudnych zadań jednocześnie lub bezpośrednio po sobie,
Pozytywne efekty związane z automatyzacją przeważają nad negatywnymi.
Należy jednak pamiętać, iż automatyzacja może czasami uniemożliwiać transfer
pozytywny, a nawet powodować transfer negatywny, jeśli trzeba wykonać tę
samą czynność w nieco zmienionych warunkach lub nieco zmodyfikowaną
czynność w tych samych warunkach.
6.2. Hamowanie jako mechanizm kontrolny
6.2.1. Istota i funkcje hamowania
Automatyzacja czynności jest jednym ze sposobów redukcji interferencji zaso­
bowej (zob. rozdz. 6.1.2). Zjawisko to polega na zakłóceniach przebiegu czyn­
ności nieautomatycznej przez inne czynności: automatyczne, gdy angażują te
same receptory lub efektory, albo nieautomatyczne, jeśli rywalizują o ograni­
czoną pulę zasobów. Czynności automatyczne w znacznie mniejszym stopniu
podlegają zakłóceniom, jednakże mogą stać się źródłem interferencji dla czyn­
ności nieautomatycznej. Na przykład wtórnie automatyczna czynność czytania
może zakłócać niezautomatyzowaną czynność nazywania koloru atramentu, co
stanowi istotę efektu Stroopa (1935; zob. paradygmat 6.2). Wprawdzie auto­
matyzacja jest w stanie nieco osłabić efekt interferencji (Tzelgov, Henik, 1995),
ale nigdy nie redukuje go w pełni. System poznawczy musi zatem dysponować
bardziej skutecznym narzędziem, zapobiegającym powstawaniu zakłóceń
w przebiegu czynności poznawczych lub zmniejszającym skutki pojawienia się
takich zakłóceń.
Hamowanie jest mechanizmem kontrolnym, wspomagającym proces selek­
cji informacji. Jego funkcja polega, z jednej strony, na utrudnieniu dostępu do
informacji nieistotnych (irrelewantnych) względem aktualnie przetwarzanych
danych (Dempster, Brainerd, 1995; Tipper, 1995), a z drugiej strony - na
powstrzymywaniu niepożądanej w danym momencie aktywności neuronalnej,
mentalnej lub behawioralnej (Neill, Valdes, 1992). Podstawowym zadaniem
hamowania jest więc blokowanie jakichkolwiek pobudek, zarówno zewnętrz­
nych (bodźce nieważne, dystraktory), jak i wewnętrznych (bodźce „symbolicz­
ne”, impulsy, czynniki afektywne lub motywacyjne), które mogłyby wyzwolić
252
Rozdział 6. Kontrola poznawcza
reakcje konkurencyjne względem aktualnie wykonywanych czynności i przez to
wywołać zjawisko interferencji zasobowej (Nigg, 2000). Terminy „hamowanie”
i „kontrola interferencji” były zresztą bardzo długo używane zamiennie (Fried­
man, Miyalce, 2004). Obecnie kontrola interferencji jest traktowana jako jeden
z możliwych rodzajów hamowania (Nigg, 2000).
Hamowanie jest bowiem raczej konstruktem niejednorodnym. Wskazują na
to badania korelacyjne wielkości efektu interferencji w przypadku różnych
wersji zadania Stroopa. Shilling, Chetwynd i Rabbitt (2002) poprosili badanych
0 wykonanie czterech wersji tego zadania: werbalnej, figuralnej, numerycznej
1 kierunkowej. Wskaźniki efektu interferencji, odzwierciedlające zgodnie z zało­
żeniem siłę procesu hamowania, korelowały ze sobą w zakresie od 0,22 do 0,13. Szymura i Patraszewska (w przygotowaniu) przeprowadzili badania,
w których również wykorzystano kilka wersji zadania Stroopa. W eksperymen­
cie pierwszym zastosowano wersję werbalną zwykłą, werbalną emocjonalną
oraz werbalną rozproszoną (w tej wersji aspekty konfliktowe bodźca werbalnego
są rozdzielone przestrzennie), natomiast w eksperymencie drugim - wersję
kierunkową i werbalną zwykłą. Tylko w pierwszym badaniu uzyskano wysoką
korelację wielkości efektu interferencji (0,54); dotyczyła ona zresztą tylko
zwykłej i emocjonalnej wersji zadania Stroopa. Zależność ta była prawdopo­
dobnie efektem wspólnego, werbalnego charakteru obu użytych odmian
zadania, gdyż w odniesieniu do pozostałych wersji zastosowanego testu ujaw­
niono zaledwie bardzo słabe, choć pozytywne, związki siły mechanizmu hamo­
wania (0,22-0,26). Badania z wykorzystaniem różnych testów hamowania przy­
noszą z reguły jeszcze słabsze wyniki w zakresie korelacji siły tego mechanizmu
w poszczególnych zadaniach (Kramer i in., 1994; Friedman, Miyake, 2004).
Brak korelacji jest tutaj wynikiem trudnym do wyjaśnienia (Miyake,
Emmerson, Friedman, 2000). Może wynikać z różnych przyczyn, niekoniecznie
związanych z samą naturą procesu hamowania. Friedman i Miyake (2004)
wymieniają trzy możliwe przyczyny. Po pierwsze, nie jest całkiem jasne, czy
wykonanie niektórych zadań testowych rzeczywiście wymaga wzbudzenia
kontrolnych mechanizmów hamowania; jest to argument o niskiej trafności
teoretycznej testów hamowania. Po drugie, wyniki niektórych testów zależą od
wprawy osoby badanej w używaniu mechanizmów kontrolnych określonego
rodzaju, przez co nie zawsze nadają się do ponownego zastosowania; to argu­
ment niskiej stabilności pomiarów. Po trzecie, nie stworzono jeszcze zadania,
które by dostarczało czystej miary siły hamowania - blokowanie irrelewantnych
informacji za każdym razem dotyczy innego zakresu zjawisk przeszkadzających
w przetwarzaniu informacji; jest to argument nadmiernej zależności wyników
testów hamowania od treści zadania. Jeśli jednak założyć, że brak korelacji nie
wynika z niedoskonałości narzędzi pomiarowych, to nasuwa się wniosek
o istnieniu całej rodziny mechanizmów hamowania poznawczego, której
członkowie nie zawsze są blisko spokrewnieni (Friedman, Miyake, 2004; Nigg,
2000). Przeciwko powyższej tezie świadczą jednak wyniki badań neurofizjolo­
gicznych (Posner, Raichle, 1994; Rabbit, Lowe, Shilling, 2001), które pozwalają
na lokalizację mechanizmu hamowania, niezależnie od jego rodzaju, w obrębie
płatów czołowych mózgu.
6.2. Hamowanie jętko mechanizm kontrolny
253
6.2.2. Hamowanie dominującej reakcji
Badania tej odmiany hamowania często prowadzono z wykorzystaniem zadania
Stroopa (1935; Friedman, Miyake, 2004; Logan, Zbrodoff, 1998; MacLeod,
1991; Shilling, Chetwynd, Rabbitt, 2002; Tzelgov, Henik, 1995). Ich wyniki
zostały już wcześniej w większości omówione. W tym miejscu, w kontekście
hamowania dominującej reakcji, szerszego omówienia wymagają natomiast
wyniki uzyskane w paradygmacie badawczym sygnału stopu (stop-signal; pa­
radygmat 6.1). Eksperymenty prowadzone w tym paradygmacie dotyczą głównie
zatrzymywania reakcji motorycznych.
De Jong, Coles i Logan (1995) przeprowadzili badania nad efektywnością
hamowania reakcji motorycznej w różnych warunkach zadania. W ich wyniku
okazało się, że hamowanie ze wzbudzeniem alternatywnej reakcji motorycznej
jest trudniejsze niż proste powstrzymanie dominującej reakcji - badani uzyski­
wali dłuższe o 46 ms czasy reakcji na sygnał zatrzymania w warunku stop-zmiany niż w warunku stop-ogólny (zob. paradygmat 6.1). Zdaniem De Jonga
i współpracowników, w warunku stop-ogólny powstrzymywaniem dominującej
reakcji zajmują się jedynie szybkie i peryferyczne (w zakresie systemu kontroli
motorycznej) mechanizmy hamowania. Ich zadanie polega na niedopuszczeniu
do ekspresji reakcji poprzez odcięcie niezbędnej dla wykonania ruchu energii.
Wydłużenie czasu działania mechanizmów hamowania w sytuacji zmiany
sposobu reakcji motorycznej (np. z ręcznej na nożną) jest natomiast związane
z funkcjonowaniem centralnych mechanizmów hamowania, gdyż odcięcie
energii koniecznej dla wykonania ruchu nie jest w tym warunku efektywnym
sposobem sprawowania kontroli (ruch innym efektorem musi zostać przecież
wykonany). W warunku stop-zmiany dłuższe czasy reakcji związane są więc
z kosztami przerzutności w zakresie sposobu reakcji, jakie ponosi centralny
system hamowania przy udanej próbie kontroli sytuacji.
Najtrudniejszym zadaniem dla badanych okazało się jednak hamowanie
selektywne, dotyczące powstrzymywania tylko jednej z dwóch możliwych do
wzbudzenia reakcji motorycznych (reakcji jednej z dwóch rąk). Na selektywne
powstrzymanie się od reakcji (warunek stop-selektywny; zob. paradygmat 6.1)
badani potrzebowali o 99 ms więcej niż na reakcję w warunku stop-ogólny.
Wykonanie instrukcji zatrzymania w warunku stop-selektywny zabierało jednak
również więcej czasu (o 53 ms) niż w warunku stop-zmiana. Co więcej, selek­
tywne powstrzymanie się od reakcji dominującą ręką było o 44 ms szybsze niż
wykonanie tego samego zadania z użyciem ręki niedominującej. Zdaniem
De Jonga i współpracowników wyniki te odzwierciedlają kosztowną współpracę
peryferycznych i centralnych mechanizmów hamowania dominującej w danym
momencie reakcji. W warunku stop-selektywny należy bowiem zablokować
energię potrzebną do wykonania ruchu (peryferyczne hamowanie reakcji), ale
nie każdego ruchu, a jedynie takiego, który zostanie centralnie wskazany do
zablokowania (centralne hamowanie reakcji). Centralny system hamowania
reakcji odpowiadałby więc za selekcję w zakresie tego, co (rodzaj efektora)
i w jaki sposób (zmiana efektora, selektywny wybór efektora spośród możli­
wych) jest hamowane. Zadaniem peryferycznego systemu hamowania dominu­
jącej reakcji byłoby blokowanie energii koniecznej do wykonania reakcji.
System centralny hamowania reakcji można więc określić jako selektywny,
254
Rozdział 6. K ontrola poznaw cza
podczas gdy peryferyczny - jako nieselektywny (De Jong, Coles, Logan, 1995;
Horstmann, 2003).
W badaniu drugim De Jong i współpracownicy zastosowali tylko warunek
stop-selektywny. W połowie prób dokonali jednak degradacji bodźca wzbu­
dzającego hamowanie czynności motorycznej poprzez jego maskowanie.
Manipulacja rozróźnialnością bodźca okazała się efektywna - wydłużyła ona
(o 64 ms) zarówno czas reakcji na bodziec w zakresie wykonywanej czynności,
gdy nie była ona powstrzymywana, jak i czas reakcji na sygnał do zatrzymania
(o 50 ms). W badaniu tym stwierdzono jednak istotną interakcję obecności
sygnału do zatrzymania i trudności w identyfikacji bodźca wzbudzającego za­
trzymaną czynność. Przetwarzanie sygnału do zatrzymania interferowało z wy­
konywaniem zatrzymywanej czynności nawet wtedy, gdy sygnał do zatrzymania
nie był prezentowany, i zwłaszcza wtedy, gdy rozróżnialność bodźców wzbu­
dzających była niska. Oznacza to, że czynność zatrzymywana i operacja zatrzy­
mywania zakłócają się wzajemnie. Należy jednak pamiętać, że z reguły inter­
ferencja tego rodzaju nie jest zbyt duża. Logan i Burkell (1986) porównali
wielkość możliwej interferencji pomiędzy dwoma czynnościami w paradygmacie
zadań jednoczesnych i w paradygmacie stop-sygnał. Wykazali oni, że inter­
ferencja w paradygmacie hamowania reakcji jest znacznie mniejsza i dotyczy
jedynie selekcji właściwej reakcji (zob. też Logan, 1982, 1988).
Badania nad wielkością efektu interferencji w paradygmacie sygnału stopu
podjął również Horstmann (2003). Interesował go problem współzależności
interwalu czasu potrzebnego na wykonanie zatrzymywanej czynności i interwalu
koniecznego do jej zastopowania. Wykonywaną czynnością motoryczną było
pisanie na maszynie. Czynność tę wybrano ze względu na to, że będąc wtórnie
zautomatyzowaną podlega ona stosunkowo łatwej kontroli (Logan, 1982) i może
być równocześnie realizowana z wieloma innymi czynnościami poznawczymi,
nie wywołując przy tym nazbyt dużego efektu interferencji (Pashler, 1994).
Na ekranie monitora pojawiały się tylko dwie litery, które sygnalizowały albo
możliwość wykonywania czynności, czyli naciśnięcia klawisza (T; tap), albo
konieczność zatrzymania czynności, czyli powstrzymania się od uderzania
w klawisz (H; halt). Testowano zachowanie badanych, poddając ich różnym
próbom: startu - gdy litera T pokazywała się po jednej lub po kilku literach H;
ciągłego wykonania - bez litery H; ciągłego powstrzymywania się od wykonania
- bez litery T; oraz hamowania - gdy litera H pokazywała się po jednej lub
po kilku literach T. Manipulowano odstępem (SOA) pojawienia się liter na
ekranie. W wyniku testu Horstmann wykazał, że reakcja na drugi sygnał
z każdej pary jest tym szybsza, im dłuższy jest interwal SOA (200 ms). Jednakże
reakcja na sygnał „stop H ” po sygnale do wykonywania czynności T, czyli
zatrzymanie wykonywania czynności, okazała się tym bardziej efektywna (o 13%
więcej zatrzymań), ale jednocześnie dłużej (89 ms) trwająca, im krótsze było
SOA (100 ms).
Wynik ten pozostaje jedynie w częściowej zgodzie z teorią rywalizujących
egzemplarzy Logana (1988, 2002), który stwierdził, że hamowanie reakcji może
być skuteczne, jeśli pojawi się ono zanim reakcja w zakresie zatrzymywanej
czynności zostanie uruchomiona, a więc przy krótkim odstępie między bodźcem
wzbudzającym czynności a sygnałem stopu. Jednakże dokonana przez Horstmanna manipulacja eksperymentalna w zakresie odstępu czasu między poja­
6.2. H am ow anie jako m echanizm kontrolny
255
wieniem się sygnałów do kontynuowania i zatrzymania czynności ujawniła, że
szybkość przebiegu procesu hamowania jest zależna od momentu jego rozpo­
częcia. Oznacza to wystąpienie współzależności interwału czasu potrzebnego na
wykonanie zatrzymywanej czynności i interwału koniecznego do jej zasto­
powania. Czynność hamowania reakcji nie różni się więc od innych, aktywnych
czynności w swej zależności od psychologicznego okresu refrakcji (PRP;
psychological refractory period; Pashler, 1994). Efekt PRP polega na tym, że
jeśli bodziec S2 pojawi się przed wykonaniem reakcji na bodziec S1; reakcja na
bodziec S2 będzie nienaturalnie wydłużona. Druga reakcja jak gdyby czeka, aż
system „dojdzie do siebie” po wykonaniu pierwszej. Horstmann w kolejnych
eksperymentach wykazał również szereg bardziej złożonych związków procesu
hamowania reakcji i kolejności dokonywanej zmiany w czasie ciągłego wyko­
nywania czynności. Kolejne wykonania i zatrzymania okazały się w jeszcze
większym stopniu zależne od SOA i porządku poprzedzających je czynności.
Przeprowadzone badania nasuwają wniosek, że hamowanie dominującej
reakcji jest raczej procesem wysiłkowym i intencjonalnym, o czym świadczą
zależności tego rodzaju hamowania od manipulacji zarówno w zakresie rozróżnialności sygnałów do wykonania (De Jong), jak i odstępu czasu pomiędzy
sygnałami do rozpoczęcia i zatrzymania czynności (Horstmann). Jako proces
wysiłkowy i intencjonalny, hamowanie dominującej reakcji wykazuje interfe­
rencję z czynnością aktualnie wykonywaną. Interferencja ta jest jednak słabsza
niż wzajemne zakłócanie się dwóch czynności jednoczesnych (Logan).
6.2.3. Odporność na dystrakcję
Badania w paradygmacie podążania (zob. rozdz. 5.2.1) wykazały, że informacje
nieistotne są często przetwarzane aż do poziomu identyfikacji ich znaczenia lub
nawet do poziomu selekcji reakcji (zob. rozdz. 5.3). Dystrakcja nie jest więc
w całości odrzucana przez system poznawczy, mimo że stopień odporności na
zakłócenia na sensorycznym poziomie przetwarzania informacji jest ważnym
czynnikiem determinującym efektywność głębokiego przetwarzania wyselek­
cjonowanych treści (Johnston, Dark, 1982) i, w konsekwencji, ich zapamięty­
wania (Eriksen, Eriksen, Hoffman, 1986). Francolini i Egeth (1980) twierdzą, że
w pewnych warunkach proces odrzucania dystrakcji może być całkowicie
skuteczny. Przywołują oni argumenty empiryczne udanych prób redukcji efektu
Stroopa (Kahneman, Chajczyk, 1983) oraz efektu flankerów (Eriksen, Eriksen,
1974) w wyniku przestrzennej separacji konfliktowych aspektów bodźca.
Bodźce zakłócające przetwarzane poza ogniskiem uwagi (często bez udzia­
łu świadomości i intencji; Johnston, Dark, 1986) są w stanie wzbudzić reakcję
konkurencyjną względem wykonywanej czynności (Eriksen, Eriksen, 1974;
Eriksen, Schultz, 1979; Eriksen, Eriksen, Hoffman, 1986). W Teście flankerów
(Eriksen, Eriksen, 1974; Broadbent, Broadbent, Jones, 1989; Smith, 1991) ba­
dani reagują na literę pojawiającą się w centrum ekranu. Litera ta jest otoczona
przez dwa bodźce zakłócające (flankery), którymi są inne litery pojawiające się
po obu stronach sygnału w jednym rzędzie. Podstawowa wersja testu uwzględ­
nia dwie manipulacje eksperymentalne. Po pierwsze, flankery mogą być tożsame
z sygnałem lub też mogą być zupełnie innymi literami. Po drugie, zadania tes-
256
Rozdział 6. Kontrola poznaw cza
550
500
co
E
450
400
0,06"
0,5"
1"
odległość kątowa sygnału od dystraktora
Reakcje na litery: H i K - lewy kursor, S i C - prawy kursor
Warunek 1 - dystraktor taki sam jak sygnał, np.: H H H H H H H
Warunek 2 - dystraktor zgodny pod względem klucza reakcji, np.: K K K H K K K
Warunek 3 - dystraktor niezgodny pod względem klucza reakcji, np.: S S S H S S S
Warunek 4 - dystraktor podobny, np.: N W Z H N W Z
Warunek 5 - dystraktor niepodobny, np.: Q J Q H Q J Q
Ryc. 6.6. Efekt flankerów stwierdzony w eksperymencie Eriksena i Eriksen (1974).
towe różnią się w zakresie przestrzennej lokalizacji bodźców zakłócających
(bliżej lub dalej względem sygnału). Eriksen i Eriksen stwierdzili (ryc. 6.6), że
czas reakcji na sygnał znacznie wydłuża się, gdy pojawiają się flankery, w po­
równaniu do sytuacji, gdy ich nie ma lub są tożsame z sygnałem. Co więcej, czas
ten wydłuża się tym bardziej, im bardziej są do siebie podobne sygnały i dys-
6.2. H am ow anie jako m echanizm kontrolny
l
257
------------------------------------------------------------------------------------------------------------------------------------------------
I traktory (zob. też zależność procesu selekcji od podobieństwa sygnału i dystrakI tora; Duncan, Humphreys, 1989) oraz im mniejsza wzajemna odległość
bodźców i dystraktorów (zob. też metafora reflektora; LaBerge, 1995). Efekt
flankerów można jednak zredukować dokonując oddzielenia (przestrzenna se­
paracja) liter w rzędzie. Broadbent, Broadbent i Jones (1989) doszli do wniosku,
I że wielkość wpływu zakłóceń na proces selekcji w Teście flankerów, a tym saI mym odporność na dystrakcję, oddaje wskaźnik ERIK, skalkulowany jako
I różnica policzona dla warunków separacji i współwystępowania dystraktorów
i oraz sygnału pomiędzy różnicami w czasach detekcji sygnału dla flankerów
I niespójnych i spójnych z sygnałem. Broadbent, Broadbent i Jones (1989) oraz
Smith (1991) niezależnie potwierdzili efekt flankerów oraz prawa, którym
i podlega.
I
Zdaniem Eriksena i Eriksen efekt flankerów wynika z konieczności zaha[ mowania potencjalnej reakcji na bodziec zakłócający. Hamowanie to jest koszI towne, bowiem powoduje wydłużenie czasu reakcji w warunkach współwysl tępujących, dystrakcyjnych flankerów. W zgodzie z tą interpretacją pozostają
í wyniki badań Eriksena, Colesa, Morrisa i O’Hary (1985). W eksperymencie tym
l wykazano, że prezentowanie w polu wzrokowym bodźca zakłócającego, mogące[ go stać się alternatywnym sygnałem, prowadzi do wystąpienia reakcji mięśniowej
j (EMG), pomimo iż badani zdają sobie sprawę z tego, że bodziec ten mają
! ignorować. Należy zwrócić uwagę, że zgodnie z interpretacją Eriksena i jego
i współpracowników wykonanie Testu flankerów bardziej związane jest z hamo; waniem konkurencyjnej reakcji (na dystraktor), niż z odpornością na dystrakcję
l traktowaną jako powstrzymywanie się od przetwarzania bodźców zakłócających.
; Odmienne stanowisko zaprezentowali Friedman i Miyake (2004).
Z kolei Karen, O'Hara i Skelton (1977) wykorzystali w swoim badaniu
zadanie Posnera i Mitchella (1967). Polecili osobom badanym podjęcie decyzji,
I czy para prezentowanych im liter spełnia narzucone przez instrukcję kryterium
selekcyjne. Uczestnicy eksperymentu mieli do dyspozycji trzy kryteria: identyi czności fizycznej identyczności (np. „AA”), identyczności nominalnej (np.
r „Aa”) oraz opartej o regułę (np. „Ae”). Osoby badane wykonywały zadanie
; w obecności dystraktorów, którymi były inne litery. Opierając się na uzyskanych
; wynikach Karen i współpracownicy wykazali, że przetwarzanie bodźców
[ zakłócających może być powstrzymane bardzo wcześnie, na poziomie ich
I rozpoznania, lub też bardzo późno, na poziomie przetwarzania ich znaczenia.
\ W pierwszym przypadku, dystraktory powodowały interferencję tylko w zada­
ją niach, w których zastosowano kryterium fizycznej identyczności, natomiast były
skutecznie odrzucane w warunkach selekcji wymagających uwzględnienia
\ znaczenia bodźców. Jednak, gdy dystraktory były przetwarzane ze względu na
[ ich znaczenie, interferencję z ich strony stwierdzono w zakresie wszystkich
i zadań, niezależnie od kryterium selekcji.
|
Wykorzystując dynamiczną wersję zadania Posnera i Mitchella (test selek\ tywnej i podzielnej uwagi DIVA; zob. Nęcka, 1994a), Szymura (1999) pokazał,
\ że sposób przeszukiwania pola percepcyjnego jest zależny od odporności na
j. dystrakcję. Niezależnie od rodzaju kryterium selekcji (fizyczne vs. nominalne),
J jeśli tylko badani radzili sobie z odrzucaniem bodźców zakłócających (brak
L różnic w efektywności procesu selekcji ze względu na obecność dystrakcji),
; proces przeszukiwania pola wzrokowego był szybki, równoległy i niezależny od
258
Rozdział 6. K ontrola poznaw cza
liczby elementów w polu. Gdy jednak hamowanie dystrakcji było mniej efek­
tywne (wzrost czasu reakcji w warunkach z dystrakcją w porównaniu do jej
braku), proces przeszukiwania pola okazywał się wolny, szeregowy i zależny od
liczby prezentowanych bodźców. Prowadzący wcześniej swoje badania Eriksen,
Eriksen i Hoffman (1986) wykazali, że zakłócanie poprzez prezentację
dystraktorów etapu kodowania bodźców w celu ich przechowania w pamięci
świeżej nie zmienia szeregowego charakteru procesu przeszukiwania pamięci
(Sternberg, 1966), a jedynie wydłuża czas potrzebny na przeszukanie każdego
zestawu bodźców w celu udzielenia odpowiedzi na pytanie dotyczące obecności
sygnału w zapamiętywanym zestawie.
Efekt tłumienia dystrakcji (distractor-supression effect) badał z kolei Neill
(1977, 1982). W eksperymentach zastosował zadanie Stroopa (zob. paradygmat
6.2), układając w specyficzny sposób porządek bodźców na liście niespójnej.
N + l bodziec tej listy był napisany kolorem atramentu, który był tożsamy ze
znaczeniem N-tego bodźca tej listy. Na przykład, jeśli na N-tej pozycji znajdował
się wyraz „czerwony” napisany na zielono, to kolejny, N + l wyraz był pisany
czerwonym atramentem. Neill wykrył, że reakcja na uprzednio tłumiony aspekt
bodźca konfliktowego jest wolniejsza niż wówczas, gdy aspekt ten nie był
uprzednio odrzucany. Podobne wyniki uzyskali Allport, Tipper i Chmiel (1985)
oraz Tipper i Cranston (1985), wykorzystując zadanie na przeszukiwanie pola
percepcyjnego, a także Allport, Tipper i Chmiel (1985) oraz Tipper (1985)
w zadaniu na odróżnianie różnokolorowych kształtów figur. W różnych
wersjach tych testów bodźce ignorowane w poprzednich próbach stawały się
sygnałami w próbach kolejnych, wywołując spowolnienie mechanizmów selekcji
informacji.
Prowadząc dalsze badania nad efektem tłumienia dystrakcji Neill i Westberry (1987) odkryli, że efekt ten jest zależny od strategii rozwiązania przetargu
między szybkością a poprawnością (zob. rozdz. 6.1.3). Gdy badani, wykonując
zadanie Stroopa, poświęcali poprawność na rzecz szybkości, nie stwierdzono
efektu tłumienia dystrakcji, gdy zaś poświęcali szybkość na rzecz poprawności efekt ten wystąpił z jeszcze większą siłą. Manipulując odstępem między
poszczególnymi pozycjami testu, Neill i Westberry wykazali także, że tłumienie
dystrakcji jest krótkotrwałe - proces ten jest aktywny przez najwyżej 1000 ms.
Paradygmat badawczy, wykorzystany przez Neilla, został nazwany poprze­
dzaniem negatywnym (paradygmat 6.3). N-ty bodziec nazwano prymą, a N + l próbą testową. Własną wersję zadania w tym paradygmacie stworzył także
Tipper (1985; Tipper, Driver, 1988; Driver, Tipper, 1989). W jego ekspery­
mentach zarówno pryma, jak i bodziec testowy tworzyły złożone układy symboli
(liter i cyfr). Tipperowi udało się wykazać, że w takich warunkach efekt poprze­
dzania negatywnego może trwać nieco dłużej (1500 ms; w badaniach Kossow­
skiej, 2005 - nawet 2000 ms). May, Kane i Hasher (1995), powołując się na
wyniki badań Tippera, Weavera, Camerona, Brehaut i Bastedo (1991), twierdzą,
że efekt ten w specyficznych warunkach może trwać nawet do 6000 ms
(w cytowanych badaniach Tippera i współpracowników poprzedzanie negatyw­
ne dotyczyło nazywania narysowanych obiektów).
Przedstawione tu wyniki badań dowodzą, że odporność na dystrakcję jest
ważnym mechanizmem kontrolnym, choć pokazują również, że możliwości
w zakresie tłumienia zakłóceń ze strony systemu poznawczego są mocno ogra-
6.2. H am ow anie jako m echanizm kontrolny
i
S
I
i
r
i
[
259
niczone (Johnston i Dark). Dystraktory są często przetwarzane aż do momentu
selekcji i wzbudzenia konkurencyjnej reakcji, wywołując w ten sposób interferencję procesów (Eriksen i Eriksen). Kontrola tej interferencji prowadzi z jednej strony do pozytywnych konsekwencji przetwarzania, jak np. przyspieszenie
przeszukiwania pamięci świeżej (Eriksen, Eriksen i Hoffman) czy też zmiana
charakteru przeszukiwania pola percepcyjnego z szeregowego na równoległy
(Szymura). Z drugiej jednak strony, wywołuje ona zjawisko tłumienia dystrakcji
(Neill), które jest szczególnie niekorzystne wtedy, gdy dystraktory stają się
w kolejnych zadaniach sygnałami, na które trzeba zwrócić uwagę (poprzedzanie
negatywne; Neill, Tipper).
: Paradygmat 6.3
) Poprzedzanie negatywne
; | Poprzedzanie negatywne polega na prezentowaniu bodźca poprzedzającego (pry! my), który utrudnia przetwarzanie bodźca właściwego. Zwykle obserwuje się wy| j dłużenie czasu potrzebnego na przetworzenie bodźca właściwego, poprzedzonego
i
I odpowiednio dobraną prymą, w porównaniu do bodźca niczym nie poprzedzonego
| lub poprzedzonego prymą neutralną.
|
Tipper (1985; Tipper, Dreiver, 1988; Dreiver, Tipper, 1989) był zdania, że dla
| efektywnej selekcji informacji konieczne jest skuteczne hamowanie dwóch typów
! f dystraktorów: bodźców specyficznie zakłócających, wywołujących interferencję,
; | i bodźców ogólnie zakłócających, nie powodujących interferencji. Paradygmat po1 przedzania negatywnego miał być tym, który pozwoli na zbadanie procesu tłu\ mienia dystrakcji specyficznej (Neill, 1977). Zadaniem osób badanych było zli- | czanie czerwonych bodźców, rozrzuconych wśród różnych liter i cyfr prezentowa| nych w tym samym czasie przez bardzo krótki okres (200 ms) (Tipper, Dreiver,
f 1988; Dreiver, Tipper, 1989). Wyróżniono dwa rodzaje przedstawień, które nazwano
I testowym {probe) i poprzedzającym (prime). Przedstawienia testowe zawierały tylko
i czarne i czerwone litery, natomiast przedstawienia poprzedzające zawierały żarów| no czarne litery lub cyfry, jak i czerwone litery. Ze względu na bodziec poprzeI dzający (prymę) wyróżniono dwa typy zadań: (1) zadanie interferencyjne, w którym
; ij w kolorze czarnym w ramach prymy prezentowano cyfrę inną niż oczekiwany wynik
| zliczania (liczba czerwonych bodźców) oraz (2) zadanie neutralne, w którym
■ 1 w kolorze czarnym prezentowano litery pozostające bez żadnego związku z ocze\ I kiwanym wynikiem zliczania. Ze względu na możliwe sposoby połączenia przed5 I stawienia poprzedzającego i testowego wyróżniono trzy warunki eksperymentalne:
: (1) neutralno-kontrolny, w którym przedstawienia testowego i poprzedzania neutrali l nego nie łączyła żadna relacja; (2) interferencyjno-odmienny, w którym po prymie
l interferencyjnej prezentowano przedstawienie testowe, zawierające inną liczbę
j czerwonych liter niż ignorowana w prymie czarna cyfra oraz (3) interferencyjnoi -jednakowy, w którym po prymie interferencyjnej prezentowano przedstawienie,
i zawierające liczbę liter zgodną z ignorowaną w prymie czarną cyfrą.
Trzeci warunek nazywano warunkiem poprzedzania negatywnego. Uprzednio
; ignorowany bodziec (czarna cyfra) podpowiada oczekiwaną reakcję (liczbę
i czerwonych cyfr). Ponieważ w przedstawieniu poprzedzającym był on odrzucany,
( obserwuje się wydłużenie czasu reakcji w przedstawieniu testowym. Tipper i Driver
|
f
i
;
(
f
\
260
Rozdział 6. Kontrola poznaw cza
wykazali zarówno efekt poprzedzania negatywnego (warunek 3), jak i efekt po­
przedzania bodźcem zakłócającym, wywołującym interferencję (warunek 2). Ich
zdaniem świadczy to o tym, iż w procesie selekcji wszystkie bodźce zakłócające,
niezależnie od tego, czy wywołują interferencję czy też nie, są hamowane i w miarę
możliwości odrzucane.
Paradygmat poprzedzania negatywnego obejmuje liczne i różnorodne zadania
poznawcze. Główne manipulacje dotyczą następujących warunków eksperymen­
talnych.
(1) Odległość (w czasie) prymy i celu
Neill i Westburry (1987) wykazali, że efekt poprzedzania negatywnego nie
ujawnia się przy bardzo krótkich (do 50 ms) interwałach czasowych między po­
jawieniem się prymy i bodźca docelowego. Zauważyli także, że wielkość tego
efektu obniża się zdecydowanie, gdy odstęp czasu między prezentacją prymy
i bodźca docelowego jest większy niż 500 ms. Z kolei Tipper i współpracownicy
(1991) potwierdzili możliwość utrzymywania się efektu poprzedzania negatywnego
przez dłuższy okres (nawet 6600 ms). Co więcej, w przypadku dłuższych interwa­
łów czasowych wielkość efektu inhibicji ponownie rosła, będąc dwukrotnie większa
przy odstępie 6600 ms niż przy interwale 3100 ms (22 ms. versus 10 ms). Brak
efektu poprzedzania negatywnego w fazie przeduwagowej selekcji informacji i jego
konsekwentne występowanie przez całą fazę uwagową świadczy na korzyść tezy, iż
hamowanie jest mechanizmem kontrolnym, występującym tylko wtedy, gdy kon­
trola uwagowa może być efektywnie sprawowana.
(2) Rodzaj bodźców, rodzaj zadań, rodzaj reakcji
W badaniach nad efektem poprzedzania negatywnego rodzaj bodźców
(np. litery versus obrazki), rodzaj zadania (np. nazywanie kolorów versus identy­
fikacja kształtów) oraz rodzaj reakcji (np. werbalna versus motoryczna) wydają się
nie mieć większego znaczenia dla istotności uzyskiwanego efektu (May, Kane,
Hasher, 1995). Wprawdzie wielkość efektu interferencji zależy zarówno od rodzaju
reakcji Qest np. o 10 ms większa przy rekcji werbalnej niż motorycznej; Tipper,
MacQueen, Brehaut, 1988), jak i od rodzaju bodźca (o 26 ms większa dla cyfr
niż liter; Driver, Tipper, 1989), jednak manipulacje te nie mają wpływu na wielkość
efektu negatywnego poprzedzania (Tipper i in., 1988; Tipper, 1989). Zdaniem
May i jej współpracowników (1995) oznacza to, że mechanizm hamowania, ujaw­
niający się w zjawisku poprzedzania negatywnego, ma charakter centralny i jest
związany z blokowaniem semantycznych, głębokich reprezentacji dystraktorów,
niezależnie od ich powierzchniowego odzwierciedlenia w systemie poznawczym
(zob. rozdz. 2).
(3) Kontekst zewnętrzny poprzedzania negatywnego
Omawiany efekt występuje tylko w kontekście konieczności dokonywania
procesu selekcji w obrębie pary bodźców. Lowe (1979) wykazał skuteczną redukcję
hamowania w warunku reakcji na pojedynczy bodziec, gdy dystraktor nie był
obecny w prezentacji testowej. Udało mu się także wykazać, iż na wielkość efektu
poprzedzania negatywnego mają wpływ oczekiwania osób badanych odnośnie do
trudności zadania do wykonania. Jeśli próba testowa wykorzystuje mechanizmy
selekcji, to przeświadczenie respondentów o jej trudności rośnie i - tym samym wzrasta wielkość efektu hamowania, co można wyjaśniać większym zaangażowa­
niem mechanizmów kontrolnych w przetwarzanie informacji. Z kolei Neill I Westberry
6.2. H am ow anie jako m echanizm kontrolny
I
j
|
261
(1987) pokazali, że w celu zwiększenia efektu poprzedzania negatywnego
wystarczy wzbudzić oczekiwania osób badanych odnośnie do wysokiego poziomu
wymagań, niezależne od rzeczywistej trudności zadania. Efekt ten może więc
pojawić się również w prostym zadaniu na nazwanie koloru atramentu, wykonywanym bez konieczności selekcji, jeśli tylko badani nabędą przeświadczenie
o dużej trudności takiego testu. Zdaniem May i jej współpracowników (1995)
: oznacza to, że mechanizm poprzedzania negatywnego jest adaptacyjny i elastyczny
- możliwe jest bowiem dostosowanie jego funkcjonowania (aż do możliwości
całkowitej redukcji) do zmiennych warunków trudności zadania.
i
i
i
i
®
;
f
i£
j;
i;
| 6.2.4. Odporność na interferencję proaktywną
E'
j:
i Pamiętanie czegoś może powodować zapominanie innych informacji. Odpamię» tywanie informacji z konkretnej kategorii, np. numeru telefonu do przyjaciela,
może spowodować brak możliwości przypomnienia innej informacji z tej samej
kategorii, np. numeru telefonu członka rodziny, choć nie ma wpływu na odpamiętywanie informacji z innych kategorii. Zagadnieniem odporności na inter­
ferencję pamięciową zajęli się Anderson, Bjork i Bjork (1994). Zaobserwowany
przez siebie efekt nazwali zapominaniem z powodu przywoływania (retrieval-induced forgetting). W badaniach nad tym efektem uczestnicy eksperymentu
z reguły zapamiętują listę par egzemplarzy, należących w każdej parze do tej
samej kategorii. Następnie ćwiczą się (powtarzając egzemplarze) w odpamiętywaniu tylko niektórych egzemplarzy z wybranych kategorii. Wreszcie ich
zadaniem jest przywołanie wszystkich wyuczonych w pierwszym etapie egzem­
plarzy, przy czym w trakcie przywoływania dysponują oni nazwą kategorii jako
wskazówką pamięciową.
W wyniku zastosowania takiej właśnie procedury z reguły stwierdza się, że:
(1) odpamiętywane wyrazy należą głównie do ćwiczonych kategorii (co
oczywiste) oraz (2) przywołanie niepowtarzanych egzemplarzy z ćwiczonych
kategorii jest znacznie słabsze niż egzemplarzy z niećwiczonych kategorii (co
intrygujące). Przeprowadzając tego typu eksperymenty Perfect, Moulin, Conway
i Perry (2002) pokazali dodatkowo, że proces rozpoznawania niepowtarzanych
egzemplarzy z ćwiczonych kategorii jest znacznie wolniejszy niż proces roz­
poznawania pozostałych rodzajów reprezentacji pamięciowych tworzonych
w trakcie badania. W innych badaniach (Anderson, Spellman, 1995) okazało
się, że efekt zapominania z powodu przywoływania jest niezależny od rodzaju
wskazówki pamięciowej. Anderson i Spellman umieścili na listach par słów
egzemplarze należące do różnych kategorii, a następnie próbowali wydobyć od
badanych informacje niepowtarzane, stosując różne wskazówki pamięciowe.
Efekt był zawsze ten sam - liczba niepowtarzanych przedstawicieli ćwiczonych
kategorii była istotnie niższa niż liczba innych reprezentacji pamięciowych.
Wyniki badań nad zapominaniem z powodu przywoływania uzupełnili Veiling
i van Knippenberg (2004), dowodząc, że czas rozpoznawania niepowtarzanych
egzemplarzy ćwiczonych kategorii jest wolny i niezależny od użytej wskazówki.
Wszystkie te wyniki sugerują, że efekt zapominania z powodu przywoływania
262
Rozdział 6. Kontrola poznawcza
jest niezależny od rodzaju przywoływania (odpamiętywanie versus rozpozna­
wanie) oraz rodzaju wskazówki w odpamiętywaniu.
Analizując wyniki badań nad zapominaniem z powodu przywoływania
Perfect, Moulin, Conway i Perry (2002) zdefiniowali proces hamowania pamię­
ciowego, jako redukcję w zakresie poziomu aktywacji reprezentacji pamięciowej.
W trakcie ćwiczenia poprzez powtarzanie poszczególnych egzemplarzy danej
kategorii dochodzi bowiem do równoległego procesu relatywnego wzmacniania
poziomu aktywacji ćwiczonych egzemplarzy i redukcji poziomu aktywacji
egzemplarzy niećwiczonych. W konsekwencji odpamiętywane są przede wszyst­
kim egzemplarze ćwiczone. W przypadku niećwiczonych kategorii, nie tworzy się
relatywna nierównowaga w poziomie aktywacji reprezentacji pamięciowych wszystkie uzyskują podobne wzmocnienie w procesie uczenia się, wszystkie
mogą być też odpamiętane ze stosunkowo zbliżonym prawdopodobieństwem.
Jak słusznie zauważają Veiling i van Knippenberg (2004), próba definicji
hamowania pamięciowego, dokonana przez Perry’ego i współpracowników, bar­
dziej jednak przypomina proces biernego zapominania nieaktywnych reprezenta­
cji pamięciowych niż proces czynnego hamowania reprezentacji mniej aktyw­
nych. Chcąc wykazać, iż zapominanie przez przywoływanie ma jednak cechy
aktywnego procesu hamującego, Veiling i van Knippenberg w eksperymencie
drugim zmienili zadanie wykorzystywane w celu uzyskania tego efektu. Zamiast
testu pamięci jawnej użyli zadania na pamięć ukrytą w paradygmacie podejmo­
wania decyzji leksykalnych (LDT; zob. rozdz. 5.3). Zadaniem osób badanych było
podjęcie decyzji, czy słowo w ich ojczystym języku, prezentowane na ekranie, jest
napisane poprawnie czy też błędnie. Okazało się, że średni czas decyzji w przy­
padku egzemplarzy kategorii niećwiczonych był taki sam jak dla powtarzanych
egzemplarzy kategorii ćwiczonych (542 ms), natomiast średni czas decyzji w przy­
padku niepowtarzanych egzemplarzy kategorii ćwiczonych był istotnie dłuższy
(o 32 ms). Veiling i van Knippenberg w dyskusji wyników swojego badania
wyraźnie podkreślają, że - ze względu na wykorzystany test LDT - uzyskanych
przez nich rezultatów nie można interpretować w kategoriach biernego za­
pominania, ale należy je rozumieć jako przykład aktywnego blokowania dostępu
do niektórych egzemplarzy. Sugerują także, iż zjawisko zapominania przez przy­
woływanie powinno zmienić nazwę na efekt hamowania przez przywoływanie.
6.2 .5 . Czy ham owanie jest konstruktem jednorodnym?
Nigg (2000) zaproponował szczegółową klasyfikację rodzajów hamowania,
uwzględniającą sześć podstawowych mechanizmów tego typu. Wśród wyróż­
nionych typów znalazły się: (1) kontrola interferencji, czyli niedopuszczanie
do interferencji konfliktowych aspektów bodźców lub reakcji albo osłabianie
skutków takiej interferencji; (2) hamowanie percepcyjne, czyli tłumienie od­
ruchu sakkadowego; (3) hamowanie poznawcze, czyli tłumienie irrelewantnych reprezentacji umysłowych; (4) hamowanie behawioralne, czyli tłumienie
zbędnych reakcji; (5) hamowanie powrotu, czyli niedopuszczanie do powrotu
uwagi do miejsca lokalizacji poprzedniego bodźca, oraz (6) hamowanie uwagowe odruchu orientacyjnego, polegające na niedopuszczeniu do przekierowania uwagi do miejsca lokalizacji nowego bodźca. W swojej taksonomii Nigg
6.2. Hamowanie jako mechanizm kontrolny
!
j
|
I
;
I
i
;
;
|
!
263
uwzględnił trzy wymiary: (1) automatyczność procesu (wysiłkowy lub bezwysiłkowy), (2) poziom przetwarzania informacji (hamowanie poznawcze lub
behawioralne) oraz (3) aktywność procesu (aktywne hamowanie lub bierna od­
porność na zakłócenie). W ten sposób kontrola interferencji i hamowanie percepcyjne zostały zaliczone do biernych i wysiłkowych procesów poznawczych
(na płytkim poziomie przetwarzania), hamowanie poznawcze - do aktywnych
i wysiłkowych procesów poznawczych (na głębokim poziomie przetwarzania),
hamowanie behawioralne - do aktywnych i wysiłkowych procesów behawioral­
nych, a hamowanie powrotu i hamowanie odruchu orientacyjnego - do aktyw­
nych i bezwysiłkowych procesów poznawczych (na płytkim poziomie przetwa­
rzania). Dokładne omówienie klasyfikacji Nigga wraz z przykładami wskaźni­
ków pomiarowych oraz korelatów neuronalnych poszczególnych rodzajów
hamowania znaleźć można w książce Małgorzaty Kossowskiej (2005).
Częściowo odmienną taksonomię rodzajów hamowania zaproponowali
Friedman i Miyake (2004). Według tych autorów warto wyróżniać tylko trzy
rodzaje hamowania. Pierwszym jest hamowanie dominującej reakcji {prepotent
response inhibition). Testem pozwalającym mierzyć skuteczność tego rodzaju
hamowania jest - zdaniem Friedmana i Miyake - zadanie Stroopa (1935).
W teście tym badani muszą powstrzymać narzucającą się czynność czytania
słowa, aby móc nazwać kolor atramentu, którym słowo to jest napisane. Ten
rodzaj hamowania łączy w sobie cechy hamowania behawioralnego i percepcyjnego - jest ono aktywne, wysiłkowe, intencjonalne i może przebiegać na
różnych poziomach selekcji.
Drugi rodzaj hamowania to odporność na dystrakcję (resistance to
distractor interference). Dzięki temu procesowi kontrolnemu możliwe jest odrzucenie informacji irrelewantnych, czyli nieistotnych z punktu widzenia
aktualnie przetwarzanych danych. Ten typ hamowania bliski jest więc w kla­
syfikacji Nigga kontroli interferencji (jeśli wykluczy się z niej interferencję
reakcji, uwzględnioną już w hamowaniu dominującej reakcji) i hamowaniu
uwagowemu, zarówno odruchu orientacyjnego, jak i powrotu. Friedman i Miya­
ke nie uwzględniają jednak w ogóle hamowania w uwadze, sprowadzając
odporność na dystrakcję jedynie do kontroli interferencji. Zadaniem, które ich
zdaniem pozwala zmierzyć skuteczność odporności na dystrakcję jest Test flankerów (Eriksen, Eriksen, 1974). W teście tym badani muszą dokonać identyfi­
kacji litery w warunku, gdy jest ona otoczona („oflankowana”) innymi literami.
W warunku kontrolnym tego zadania litery wymagające rozpoznania prezentuje
się bez dystraktorów lub w otoczeniu liter identycznych (zob. rozdz. 6.2.3).
Trzeci rodzaj hamowania to odporność na interferencję proaktywną
(resistance to proactive interference). Odpowiada on hamowaniu poznawczemu
- jest procesem aktywnym i wysiłkowym, prowadzonym przy wykorzystaniu
głębokich, trwałych reprezentacji umysłowych. Zadaniem pozwalającym zmierzyć
siłę tego typu hamowania jest, według Friedmana i Miyakego, jeden z wariantów
zadania Petersonów (Peterson, Peterson, 1959). Polega ono na odpamiętywaniu
egzemplarzy pojedynczej kategorii, które wcześniej są sukcesywnie prezentowa­
ne. Procedura tego rodzaju wymusza intruzje w przywoływanym materiale. Jeśli
na przykład lista zawiera tylko nazwy zwierząt, w odpamiętywanym materiale
znajduje się dużo nazw zwierząt nie włączonych do pierwotnej listy. Im większa
siła hamowania, tym mniej takich intruzji.
264
Rozdział 6. Kontrola poznaw cza
i
100 ms
i
t
I
maska
maska
600 ms
100 ms
500 ms
100 ms
t
b
6.2. Hamowanie jako mechanizm kontrolny
-
f
j.
{
S
i
j
!
sif
|
|
265
Badania Friedmana i Miyakego (2004) ujawniły, że odporność na interfe­
rencję proaktywną jest jakościowo odmienną formą hamowania. Ten typ ha­
mowania nie korelował w ogóle z odpornością na dystrakcję (-0,03), wykazując
jedynie słaby, pozytywny związek z hamowaniem dominującej reakcji (0,18).
Z kolei odporność na dystrakcję okazała się silnie powiązana z hamowaniem
dominującej reakcji (0,68), podważając hipotezę o odrębności tych dwóch ro­
dzajów hamowania. Dodatkowo, zadanie Stroopa okazało się najlepszym zada­
niem mierzącym siłę hamowania dominującej reakcji (korelacja wyniku testu
Stroopa i czynnika hamowania dominującej reakcji wyniosła 0,55), a Tęst flankerów najlepszym sposobem pomiaru siły odporności na dystrakcję (korelacja
wyniku Testu flankerów i czynnika hamowania dystrakcji wyniosła 0,42).
Jedynie zadanie Petersonów okazało się relatywnie słabym testem odporności na
interferencję proaktywną (korelacja wyniku testu Petersonów i czynnika hamo­
wania pamięciowego wyniosła 0,29). Znacznie lepsze w tym względzie okazało
się zadanie odpamiętywania ze wskazówką (Tolan, Tehan, 1999; korelacja wy­
niku Testu Tolanów i czynnika hamowania pamięciowego wyniosła 0,47),
w którym badani zapamiętywali najpierw dwie listy wyrazów, a następnie odpamiętywali tylko drugą z nich, broniąc się przed interferencją płynącą z zapa­
miętywania pierwszej listy. Przezwyciężali tym samym tzw. efekt pierwszeństwa
(zob. rozdz. 9), co należy zinterpretować jako przejaw skutecznej kontroli
poznawczej.
Friedman i Miyake (2004) sprawdzili także, czy wyróżnione rodzaje hamowania wpływają na wykonanie dwóch zadań, wymagających znaczącej
kontroli poznawczej: zadania na poprzedzanie negatywne (paradygmat 6.3)
i testu przerzutności uwagi (paradygmat 5.5). W pierwszym przypadku bada­
ny miał zareagować na jeden z dwóch bodźców, który w poprzedniej parze
znaków powinien być ignorowany (ryc. 6.7). W drugim przypadku wymagano
od osób badanych elastycznej zmiany w zakresie przetwarzania informacji
alfabetycznych albo numerycznych, w zależności od wskazówki. Wykonanie
zadania na poprzedzanie negatywne w niewielkim stopniu zależało od kombinowanego czynnika odporności na dystrakcję i hamowania dominującej
reakcji (0,19), natomiast wyniki testu na przerzutność, jak się okazało zależą
niemal wyłącznie od tego czynnika (0,91). Odporność na interferencję pro­
aktywną nie była istotnie związana z wykonaniem żadnego z dwóch powyż­
szych zadań.
Można więc sformułować wniosek, że, niestety, próba strukturalnej dywer­
syfikacji rodzajów hamowania nie powiodła się. Friedman i Miyake zaproponowali redukcję sześciu rodzajów hamowania, znanych z taksonomii Nigga, do
trzech tylko typów, pominąwszy zupełnie hamowanie w zakresie uwagi. Dwa
Reakcja następuje na każdą kartę zawierającą bodźce (wyrazy lub kształty).
Bodziec docelowy w parze jest narysowany zawsze na czarno, a bodziec ignorowany na biało,
a - pryma z dystraktorem
b - pryma bez dystraktora
c - bodziec docelowy w układzie negatywnego poprzedzania
d - bodziec docelowy w układzie kontrolnym
Ryc. 6.7. Przykłady zadań do badania poprzedzania negatywnego z wykorzystaniem bodźców
werbalnych i niewerbalnych (za: Friedman, Miyake, 2004).
266
Rozdział 6. Kontrola poznawcza
proponowane przez nich typy hamowania: odporność na dystrakcję i hamowanie
dominującej reakcji, okazały się silnie powiązane wzajemnie, a z kolei odpor­
ność na interferencję proaktywną nie wykazywała żadnych związków z pozo­
stałymi formami hamowania. Łatwo zrozumieć związek pierwszych dwóch
typów hamowania, gdy zastanowić się nad procesami biorącymi udział
w wykonywaniu zadania Stroopa i Testu flankerów. W przypadku obu zadań
trzeba zarówno stłumić dominującą reakcję (przeczytanie słowa w zadaniu
Stroopa lub nazwanie bodźca otaczającego literę w Teście flankerów), jak
i obronić się przed dystrakcją (znaczenie słowa w zadaniu Stroopa i znaczenie
dominujących ze względu na swą liczbę bodźców otaczających nazywaną literę
w Teście flankerów). Zresztą Test flankerów bywa traktowany jako substytut
zadania Stroopa (MacLeod, 1991). Zadania uznane przez Friedmana i Miyakego
za kluczowe dla wyróżnionych typów hamowania mogą więc, jak się wydaje, być
diagnostyczne również dla innych rodzajów tego zjawiska.
W efekcie swych analiz Friedman i Miyake uzyskali więc tylko dwa
czynniki hamowania, z których pierwszy można byłoby określić mianem uwagowego, a drugi pamięciowego. Tym dwóm rodzajom hamowania zdają się
odpowiadać dwa typy interferencji: zasobowa interferencja uwagowa i proaktywna interferencja pamięciowa. Chcąc więc uporządkować strukturalnie
przestrzeń różnych rodzajów hamowania, Friedman i Miyake sprowadzili je do
dwóch, wcześniej dobrze już znanych mechanizmów (interferencja a zasoby Kahneman, 1973; interferencja a odpamiętywanie - Keppel i Underwood,
1962), znacznie upraszczając problem. Na podstawie dostępnych wyników
badań i analiz teoretycznych trudno więc jednoznacznie rozstrzygnąć kwestię
jednorodności mechanizmu hamowania. Na uwagę zasługują natomiast wyniki
dotyczące przerzutności uwagi i poprzedzania negatywnego. Friedmanowi i Miyakemu udało się wykazać, że odporność na dystrakcję i hamowanie domi­
nującej reakcji odpowiadają niemal całkowicie za redukcję kosztów prze­
rzutności, a ponadto, że procesy te nie mają nic wspólnego z odpornością na
poprzedzanie negatywne.
6.3. Funkcje zarządcze
6.3 .1 . Istota funkcji zarządczych czyli h o m u n cu lu s odnaleziony
Psychologowie poznawczy od lat opisują różne, często bardzo złożone procesy
przetwarzania informacji. Wiele już wiadomo np. na temat strategii podejmo­
wania decyzji, sposobów rozwiązywania problemów czy funkcjonowania
reprezentacji umysłowych. Poszczególne rozdziały tego podręcznika wiedzę tę
przedstawiają i ilustrują bogatym materiałem empirycznym. Nadal jednak
nierozwiązany pozostaje problem homunculusa (Nęcka, 2004) - odnalezienia,
opisania i wyjaśnienia mechanizmów działania Tego, który buduje reprezenta­
cje, steruje myśleniem i podejmuje ważne dla całości systemu poznawczego
decyzje, a więc Tego, który mówiąc wprost kontroluje działanie systemu po­
znawczego. Próby rozwiązania problemu homunculusa sprowadzają się w psy­
chologii do podejścia funkcjonalnego, w którym określa się sposób działania
6.3. Funkcje zarządcze
f
jj
I
I
f
S
I
;
:
f
=
l
l
i
i
l
i
;
I
1;
5
l
f
i
267
mechanizmów kontrolnych, wskazując przy tym na ich różnorodne ograniczenia. Posługując się takim podejściem, omówiono w tym rozdziale mechanizmy
automatyzacji (zob. rozdz. 6.1) i hamowania (zob. rozdz. 6.2), a w rozdziale
poprzednim - podzielności (zob. rozdz. 5.2.4) i przerzutności uwagi (zob. rozdz.
5.2.5). Homunculus odnaleziony przez psychologów poznawczych (jakkolwiek
tylko funkcjonalnie) ma różne nazwy. Zazwyczaj jednak określa się go mianem
funkcji zarządczych (executive function).
Od bardzo dawna (Gall, 1798; Liu, 1704; za: Zhu, 1989) wyrażano przekonanie, że w przednich płatach czołowych mózgu zlokalizowane są mechanizmy
kontrolne procesów przetwarzania informacji. Ze względu na to, że mechaniżmy te wydają się odpowiadać za ukierunkowanie zachowania, zostały one
nazwane zarządczymi. Są one niespecyficzne w tym sensie, że nie jest ich
bezpośrednim zadaniem realizowanie jakiejkolwiek konkretnej formy przetwarzania informacji (np. myślenia indukcyjnego spostrzegania czy zapamiętywa­
nia). Ich upośledzenie (np. wskutek uszkodzeń strukturalnych mózgu lub lezji
przednich płatów czołowych) zakłóca jednak wykonywanie wszelkich operacji
poznawczych, przebiegających w dowolnych obszarach umysłu (Baddeley i in.,
1997). Deficyty te noszą wspólną nazwę syndromu czołowego (frontal syn­
drome; Baddeley i in., 1997) i mają swoje konsekwencje w postaci dezorganiza­
cji wszystkich form zachowania.
Badanie funkcji zarządczych jest jednak bardzo trudne. Kwestia ta w nieco
węższym zakresie - tylko w odniesieniu do badań nad funkcjonowaniem me­
chanizmu hamowania - została omówiona już wcześniej (Friedman, Miyake,
2004; zob. rozdz. 6.2.1). Główny problem w badaniu funkcji zarządczych Baddeley i jego współpracownicy (1997) widzą w zależności wyników testów tych
funkcji od zdolności w zakresie procesów przetwarzania informacji, których
wykonanie w danym teście nadzoruje system kontrolny. Nie da się badać nad­
zoru w oderwaniu od tego, co jest nadzorowane. Dodatkowo, jedną z ważnych,
immanentnych cech funkcji zarządczych wydaje się nieustanne dążenie do coraz
większej wprawy w nadzorowaniu czynności - ponawianie badań z użyciem
tego samego testu funkcji zarządczych z udziałem tych samych badanych
prowadzi do znacznego uzależnienia wyników od efektu nabywania wprawy
(Reitan, Wolfson, 1994), czy wręcz od wtórnej automatyzacji wykonania (Duncan, 1995). Co więcej, nie istnieje takie narzędzie, które pozwalałoby na
zmierzenie jednocześnie wszystkich dysfunkcji w zakresie kontroli - w efekcie
poszczególne testy funkcji zarządczych są używane łącznie, wykazując w różnych badaniach mniejszą lub większą wspólną wariancję w zakresie mierzonych
procesów nadzoru (Baddeley i in., 1997). Prowadzi to do wyróżniania coraz to
nowych funkcji zarządczych i nieustannego tworzenia strukturalnych teorii
owych funkcji na podstawie uzyskanych współczynników korelacji.
: 6.3.2. Rodzaje funkcji zarządczych
|
f
f
|
Badaniem struktury funkcji zarządczych zajął się Miyake wraz ze współpracownikami (2000). Zastosowali oni w swoim badaniu na dużej próbie osób
zdrowych (bez dysfunkcji czołowych) wiele różnych zadań, uważanych za testy
funkcji zarządczych. Testy te odnoszą się do różnych procesów przetwarzania
268
Rozdział 6. Kontrola poznawcza
informacji, zarówno elementarnych (np. selektywna uwaga w warunku przerzutności - Wisconsin Card Sorting Test), jak i złożonych (np. rozwiązywanie
problemów - Wieża z Hanoi). W wyniku analiz korelacyjnych i czynnikowych
(podobnych jak dla funkcji hamowania; Friedman, Miyake, 2004), autorom
udało się wykazać istnienie trzech odrębnych funkcji zarządczych. Wprawdzie
poziom wykonania testów diagnostycznych dla tych funkcji był pozytywnie
skorelowany ze sobą, ale relatywnie niewielki procent wspólnej wariancji suge­
rował raczej odrębność wyróżnionych funkcji. Konfirmacyjna analiza czynni­
kowa nie potwierdziła także istnienia czynnika wyższego rzędu - generalnego
czynnika funkcji zarządczych.
Miyake, Friedman, Emerson, Witzki i Howerter (2000) wymieniają więc
wśród funkcji zarządczych następujące ich rodzaje: (1) przerzutność (pomiędzy
zadaniami, procesami, czynnościami); (2) hamowanie (niepożądanej reakcji,
bodźców zakłócających, narzucających się reprezentacji umysłowych) oraz
(3) odświeżanie informacji w zakresie pamięci roboczej. Kluczowymi dla po­
szczególnych rodzajów funkcji zarządczych okazały się następujące zadania:
(1) Wisconsin Card Sorting Test dla przerzutności; (2) Wieża z Hanoi dla ha­
mowania (tu: dominującej reakcji) oraz (3) Test Sternberga dla odświeżania
informacji w zakresie pamięci roboczej. Fakt stwierdzonych korelacji między
wyróżnionymi rodzajami funkcji zarządczych Miyake i współpracownicy wyjaś­
nili heterogenicznym charakterem użytych testów. Na przykład wykorzystane
przez nich zadanie na generowanie interwałów losowych (Vandierendonck,
de Voight, Van der Gotten, 1998) wymagało wykorzystania zarówno hamowa­
nia dominującej (tu: rytmicznej) reakcji, jak i odświeżania zawartości pamięci
roboczej (Vandierendonck, 2000). Zadanie to silnie angażuje funkcje zarządcze
pamięci roboczej, przez co jego realizacja jednocześnie z innymi zadaniami,
wymagającymi kontroli, prowadzi do nieuniknionej interferencji.
W badaniu stwierdzono zresztą także korelacje poziomów wykonania po­
szczególnych testów funkcji zarządczych. Autorzy analiz zasugerowali, że kore­
lacje te mogą wynikać z faktu wykorzystywania przez badanych dwóch ogólnych
zdolności, które pomagają w rozwiązaniu każdego testu. Po pierwsze, wszystkie
wykorzystane testy wymagają utrzymywania w pamięci roboczej uprzednio
otrzymanych informacji o celu oraz treści wykonywanego zadania. Wymagają
zatem zarówno zasobów kontroli uwagowej (aktywne podtrzymanie celu
podanego w instrukcji), jak i pojemności pamięci prospektywnej (przechowanie
celu przyszłej czynności; Marsh, Hicks, 1998). Po drugie, każde z zastosowanych
zadań wymaga generalnych zasobów systemu, które można przeznaczyć na
niespecyficzne hamowanie treści w danym momencie irrelewantnych. Istnienie
generalnej zdolności do hamowania postulowali np. Dempster i Corkill (1999),
jednak Friedman i Miyake (2004) nie byli w stanie wykazać jej istnienia (zob.
rozdz. 6.2.2). Niestety, nie można stworzyć zadań nie wymagających udziału
pamięci celu, ani wykonywać ich w warunkach nie wymagających w ogóle
hamowania informacji nieistotnych. Odrębną kwestią pozostaje, czy odwołanie
się do tak ogólnych zdolności czy też właściwości sytemu poznawczego dobrze
wyjaśnia stwierdzone korelacje poziomu wykonania poszczególnych zadań
wykorzystanych przez Miyakego i współpracowników.
W badaniach tych (Miyake i in., 2000) wykryto także jeden test, którego
rozwiązywanie nie było związane z żadnym z wyróżnionych rodzajów funkcji
6.3. Funkcje zarządcze
!
|
j
j
[■
j
;
i
;
I
i
:
■
i
!
269
zarządczych. Co ciekawe, było to jedno z najbardziej złożonych zadań, jakie
badani musieli wykonać, a więc taki test, w którego wykonywanie powinno być
uwikłanych wiele różnych mechanizmów kontrolnych. Zadaniem tym był test
selektywnej uwagi w warunku koniecznej jej podzielności. Badani musieli
wykonywać jednocześnie dwa zadania: generowania słów i rozróżniania
kształtów geometrycznych. Wprawdzie zadania te pozbawione były interferencji
strukturalnej, ale trudność w ich wykonaniu polegała na konieczności odpo­
wiedniego zarządzania zasobami uwagi (interferencja zasobowa) i pojemnością
pamięci krótkotrwałej. Dlatego też Collette i Van der Linden (2002) postulują
dołączenie do taksonomii funkcji zarządczych, zaproponowanej przez Miyake
i współpracowników, kolejnego, czwartego ich rodzaju - koordynacji wykonywania czynności jednoczesnych.
Collette i Van der Linden (2002) dokonali także przeglądu badań nad
neuronalnymi korelatami funkcji zarządczych. Zaprzeczyli tezie, iż funkcje
zarządcze należy lokalizować tylko w przednich płatach czołowych. Wykonanie
szeregu zadań na wszystkie cztery rodzaje funkcji zarządczych wymagało akty­
wacji zarówno przednich płatów czołowych, jak i płatów tylnych, a w szcze­
gólności ciemieniowych obszarów kory mózgowej nawet wtedy, gdy wpływ
obciążenia pamięci treścią zadania został z analiz wykluczony. W innych ba­
daniach, nad pacjentami z chorobą Alzheimera, Collette, Van der Linden i Delrue (2002) wykazali, że dysfunkcje zarządcze mogą być związane nie tyle
z zaburzeniem funkcjonowania płatów czołowych, ile z uszkodzeniem połączeń
pomiędzy przednimi a tylnymi rejonami mózgu. Z kolei Owen (2000; Duncan,
Owen, 2000) stwierdził, że mechanizm hamowania dominującej reakcji należy
lokalizować tylko w części przednich płatów czołowych, zawierających obsza­
ry: środkową część grzbietowo-boczną, środkową część brzuszno-boczną oraz
grzbietową część przedniej części zakrętu obręczy.
Z analizy powyższych argumentów empirycznych wynika, że, z jednej stro­
ny, w obrębie płatów czołowych może występować specjalizacja dotycząca lo­
kalizacji poszczególnych funkcji zarządczych, a z drugiej zaś, że rejonów mózgu
odpowiedzialnych za sprawowanie funkcji zarządczych należałoby poszukiwać
również poza przednimi płatami czołowymi. Oznacza to, że poszukiwanie
w mózgu lokalizacji homunculusa odpowiadającego za kontrolę są dalekie od
zakończenia. Próba teoretycznego opracowania koncepcji funkcji zarządczych
zaowocowała wieloma modelami kontroli poznawczej. Najbardziej znanymi
wśród nich są koncepcje: markerów somatycznych (Damasio, Tranel, Damasio,
1991); mechanizmów uwagowych (Posner, 1980, 1994/1999; Norman, Shallice,
1986; Shallice, 1988) oraz mechanizmów pamięciowych (Baddeley, 1986, 1996,
2002). Poniżej przedstawione zostaną teorie uwagowe Posnera i Shallice’a oraz
teoria pamięciowa Baddeleya, która de facto, jak się okaże, również jest teorią
kontroli uwagowej. Natomiast omówienie koncepcji markerów somatycznych
znaleźć można w pracy Aliny Kolańczyk (2004).
; 6.3.3. Mechanizm zarządczy w koncepcji uwagi Posnera
; Zgodnie z koncepcją Posnera (1980, 1994/1999) istnieją trzy podstawowe mei chanizmy uwagowe. Pierwszy z nich to mechanizm aktywacyjny. Zadaniem
i uwagi jest m.in. podtrzymanie umysłu w stanie pobudzenia niezbędnego do
270
Rozdział 6. Kontrola poznawcza
wykonania danej czynności poznawczej. Zależność różnych aspektów funkcjo­
nowania uwagi od mechanizmu pobudzeniowego jest często uwzględniana,
zwłaszcza w koncepcjach uwagi podzielnej (Kahneman, 1973; Nęcka, 1994;
zob. rozdz. 5.2.4) oraz w teoriach przedłużonej w czasie koncentracji uwagi
(Davies, Tune, 1969; Davies, Parasuraman, 1982; zob. rozdz. 5.2.3). Zgodnie
z tymi koncepcjami poziom pobudzenia jest wprost proporcjonalny do ilości
zasobów, jakie można przeznaczyć na jednoczesne wykonanie różnych czyn­
ności poznawczych, oraz do ilości czasu, w którym można koncentrować uwagę
na rzadko pojawiających się sygnałach.
Drugi z wyróżnionych przez Posnera mechanizmów funkcjonowania uwagi
to mechanizm orientacyjny. Mechanizm ten odpowiada za przenoszenie uwagi
w polu percepcyjnym z obiektu na obiekt. Jego funkcjonowanie opisują wyniki
badań w paradygmacie przeszukiwania pola wzrokowego (Treisman, 1988;
Yantis, Jonides, 1984; zob. rozdz. 5.2.2). Mechanizm orientacyjny włącza się,
gdy w polu wzrokowym nastąpi jakakolwiek zmiana stymulacji, np. wtedy, gdy
pojawi się w nim nowy bodziec (Yantis, Jonides, 1984) lub bodziec już w polu
występujący zostanie wprawiony w ruch (Tarnowski, Terelak, 1996). Bodziec
taki przyciąga uwagę, niezależnie od tego czy jest sygnałem, czy też dystraktorem (Theeuwes, 1994). Włączenie mechanizmu orientacyjnego w odpowiedzi
na zmianę w polu percepcyjnym ma charakter automatyczny, a sprawowanie
nad nim kontroli jest możliwe, ale znacznie utrudnione, nawet wtedy, gdy
badani znają możliwą lokalizację sygnałów i bodźców zakłócających (Godijn,
Theeuwes, 2002).
Ostatnim z wyróżnionych przez Posnera i jednocześnie najważniejszym
z punktu widzenia tych rozważań mechanizmem uwagi jest mechanizm zarząd­
czy. Odpowiada on za kontrolę wykonania czynności celowych (np. za detekcję
określonego typu sygnałów). Mechanizm zarządczy bierze górę nad mechaniz­
mem orientacyjnym w przypadku funkcjonowania uwagi człowieka dorosłego.
Na przykład wskazuje podróżnemu poszukiwanie informacji o czasie odjazdu
pociągów na żółtym rozkładzie jazdy - rozkład odjazdów, a nie na białym rozkład przyjazdów. Tak więc mechanizm orientacyjny odpowiada z grubsza
uwadze mimowolnej, a zarządczy - uwadze dowolnej. Przewagę mechanizmu
zarządczego nad orientacyjnym wykazał w swoich badaniach Theeuwes wraz ze
współpracownikami (1999; Godijn, Theeuwes, 2002; choć wyniki tych badań
Theeuwes skłonny był interpretować przeciwnie; por. Theeuwes, 2001; Szy­
mura, 2004). W ich eksperymentach okazało się, że w przypadku tylko jednej
trzeciej ogółu zadań detekcyjnych badani ulegali mechanizmom orientacyjnym,
programując błędny ruch sakkadowy gałek ocznych w stronę lokalizacji poja­
wiającego się właśnie w ich polu widzenia dystraktora, mimo że zdawali sobie
sprawę z tego, iż w tej lokalizacji pojawienie się sygnału nie jest możliwe. Po
100 ms fiksacji na bodźcu zakłócającym, mechanizm zarządczy uwagi dokony­
wał korekty, programując ruch sakkadowy gałek ocznych w kierunku lokalizacji
następnego sygnału pojawiającego się w polu wzrokowym. Jednak w przypadku
aż dwóch trzecich ogółu zadań detekcyjnych mechanizm zarządczy sprawował
skuteczną kontrolę nad mechanizmem orientacyjnym, uniemożliwiając przekierowanie percepcji i uwagi na bodziec zakłócający.
W innym eksperymencie Theeuwes i Burger (1998) wykazali, że mechanizm
zarządczy może skutecznie ograniczyć interferencję płynącą z bodźców zakłóca-
6.3. Funkcje zarządcze
271
jących, jeśli system poznawczy z wyprzedzeniem zna np. kolor, odróżniający oba
l rodzaje bodźców: sygnał i dystraktor. Z kolei wiadomo, że fałszywe wskazówki
dla mechanizmu zarządczego znacznie pogarszają efektywność uwagi selektywnej
- mechanizm zarządczy steruje wtedy mechanizmem orientacyjnym w stronę,
f w której sygnał się nie pojawia, a szybkość detekcji znacznie się obniża (Posner,
i Nissen, Ogden, 1978; Theeuwes, Kramer, Atchley, 1999).
Z powyższych danych wynika, że zarządczy mechanizm uwagi odpowiada
za takie funkcje kontrolne, jak hamowanie uwagowego odruchu orientacyjnego
\ oraz kontrolę interferencji pochodzenia zewnętrznego (odporność na dystrakcję). Niepowodzenie w funkcjonowaniu tego mechanizmu odpowiada natomiast
za hamowanie powrotu (inibition oj return), czyli niedopuszczanie do powrotu
uwagi do wskazanego miejsca pojawienia się sygnału. Hamowanie powrotu
| zostało stwierdzone po raz pierwszy przez Posnera i Cohena (1984). Zauważyli
oni, że relewantna wskazówka odnośnie do lokalizacji sygnału przyspiesza jego
detekcję do 150 ms po jej prezentacji. Jednak w 300 ms po prezentacji relewantnej wskazówki następuje znaczne pogorszenie szybkości detekcji sygnału
w pozycji przez nią wskazanej. Tak więc po wczesnym ułatwieniu (facylitacja)
następuje późne utrudnienie (hamowanie) reakcji na sygnał. Hamowanie po­
wrotu jest niezależne od modalności sygnału, ale zależne od intensywności
sygnału, co klasyfikuje ten proces jako uwagowy (Reuter-Lorenz, Jha, Rosenquist, 1996). Jedno z wyjaśnień efektu hamowania powrotu, zgodne z teorią
Posnera, sugeruje, że czas 200 ms od prezentacji wskazówki (w odchyleniu od
150 ms do 300 ms) jest interwałem, w którym mechanizm orientacyjny na­
kierowany przez mechanizm zarządczy na lokalizację potencjalnego sygnału
(zgodnie ze wskazówką) oczekuje na pojawienie się spodziewanego bodźca.
Brak oczekiwanego bodźca, interpretowany przez system prawdopodobnie jako
nieskuteczność funkcjonowania mechanizmu zarządczego powoduje przejęcie
kontroli nad uwagą przez mechanizm orientacyjny i poszukiwanie bodźca
w innej lokalizacji (Kolańczyk, 2004).
Kontrola uwagowa jest, zgodnie z modelem Posnera, sprawowana odgórnie
(top-down) i ma charakter wewnętrzny (endogenous) - to właśnie mechanizm
zarządczy efektywnie determinuje, co i w jaki sposób będzie dalej przetwarzane.
Mechanizm ten ma ogólną przewagę nad mechanizmem orientacyjnym. Per­
cepcja podąża więc z reguły za uwagą, a nie uwaga za percepcją (zob. dyskusja
dotycząca modeli kontroli poznawczej pomiędzy Theeuwsem i Bundesenem Szymura, 2004). Wyjątkiem są sytuacje, w których mechanizm zarządczy nie
jest jeszcze dostatecznie ukształtowany (labilna uwaga małych dzieci), albo
pojawia się niepewność odnośnie do pojawienia się sygnału (hamowanie po­
wrotu) bądź stosowanej zasady selekcji. Wtedy bowiem mechanizm orientacyjny
bierze górę nad zarządczym, a przetwarzanie informacji sterowane jest oddolnie
(.bottom-up) i ma charakter zewnętrzny (exogenous), przez co uwaga podąża za
percepcją, będąc automatycznie nakierowaną na spostrzegany obiekt (Duncan,
1985; Chun, Wolfe, 2001).
6.3.4. Dwustopniowy system kontroli zachowania w koncepcji Shallice'a
Zgodnie z koncepcją Tima Shallice’a (1988; Norman, Shallice, 1986) zachowa­
nie jest kierowane w większości przez automatyzmy (rutyny), zarówno
272
Rozdział 6. Kontrola poznawcza
pierwotne (odruchy), jak i wtórne (nawyki). Czasami zdarza się jednak, że
poszczególne czynności automatyczne pozostają ze sobą w konflikcie. Na przy­
kład czynność kierowania samochodem w drodze do domu w miejscu stałego
zamieszkania pozostaje w konflikcie z reakcją na czerwone światło (sygnał-stop) w miejscu przejścia dla pieszych. W przypadku konfliktu czynności
automatycznych o tym, która czynność jest realizowana jako pierwsza
w kolejności, decyduje system kontroli czynności automatycznych, działający
również w sposób automatyczny. Jego zadaniem jest hamowanie tych
wszystkich rutyn, które w mniejszym stopniu - niż wyselekcjonowana czynność
automatyczna - są dostosowane do sytuacji bodźcowej. Warto zwrócić uwagę, iż
w koncepcji systemu kontroli czynności automatycznych Shallice proponuje
nieco inne - niż Logan (1988, 2002) w swojej teorii rywalizacji egzemplarzy kryterium rozstrzygania o tym, który proces wygrywa wyścig o pierwszeństwo
w wykonaniu. To dostosowanie czynności do sytuacji bodźcowej, a nie liczba
dowodów skutecznego stosowania tej czynności, decyduje - zdaniem Shallice’a
- o jej uruchomieniu. W powyższym przykładzie czynność prowadzenia
samochodu zostanie automatycznie powstrzymana - jest ona bowiem zupełnie
niedostosowana do warunków jazdy (czerwone światło dla kierunku jazdy).
Ogólnym zadaniem mechanizmu automatycznego, selektywnego hamowania
działań rutynowych jest ustalenie rozkładu jazdy czynności automatycznych
(contention scheduling). Zgodnie z takim rozkładem czynność kierowania
samochodem zostaje uruchomiona jako druga w kolejności, w momencie gdy
zmienią się warunki sytuacji (zapali się zielone światło dla kierunku jazdy).
System kontroli czynności automatycznych jest jednak nieskuteczny w sy­
tuacjach nowych, w których stosowanie rutyny kończy się z reguły niepowo­
dzeniem. W takich bowiem warunkach trzeba zahamować dominującą reakcję,
monitorować i korygować błędy wynikające z prób dostosowania posiadanych
schematów do nowych układów bodźców je wyzwalających, a także podejmo­
wać złożone decyzje i tworzyć nowe plany działań. Kontrolą przetwarzania
informacji w takich warunkach zajmuje się nadzorczy system uwagi (Supervi­
sory Attentional Subsystem, SAS; Shallice, 1988; Norman, Shallice, 1986; inna
polska nazwa tego systemu to dominujący system zadaniowy - zob. Kolańczyk,
2004). System ten zaangażowany jest zawsze wtedy, kiedy pomiędzy dwoma
celowymi czynnościami nieautomatycznymi występuje konflikt interesów,
powodowany przez niespójność bodźców, ich reprezentacji w umyśle, czy też
generowanych w odpowiedzi na nie reakcji. Podobnie, jak w przypadku systemu
kontroli czynności automatycznych, zadaniem SAS jest układanie „rozkładu
jazdy” czynności kontrolowanych oraz ich bieżący monitoring (scheduling and
control).
Zadanie to SAS realizuje poprzez tworzenie ad hoc nietrwałej reprezentacji
umysłowej dla sytuacji problemowej, zawierającej plan działania w odniesie­
niu do bodźców wyzwalających. Reprezentacja jest tworzona przez system kon­
troli, czyli selektywne zestawianie ze sobą danych umysłowych (pamięć długo­
trwała) i danych zmysłowych (bodźce z otoczenia). Działanie SAS można więc
z jednej strony (uwagowej) opisać jako proces rekonfiguracji zestawów zada­
niowych (Rogers, Monsell, 1995; zob. rozdz. 5.2.5; Shallice, 1988, była zwo­
lenniczką koncepcji modularności umysłu; zob. rozdz. 1), a z drugiej (pamię­
ciowej) -ja k o proces modyfikacji i nabywania schematów pamięciowych (przez
6.3. Funkcje zarządcze
!
[
i
j
i
j
;
;
;
;
i
j
I
;
;
;
i
ś
:
j
273
przyrost informacji, dostrajanie i restrukturalizację; Rumelhart, Norman, 1978,
1981). Błędy kontroli ze strony SAS pojawiają się wtedy, gdy schematy pamię­
ciowe zostają zastosowane automatycznie, bez koniecznej korekty, uwzględnia­
jącej nowość sytuacji bodźcowej. Na przykład, gdy zadaniem jest podrzucenie
w drodze do domu kogoś mieszkającego na sąsiednim osiedlu, SAS dostosowuje
plan jazdy do zadania. Jeśli jednak kierowca zaangażuje się w rozmowę z pasa­
żerem, jego system kontroli czynności może przełączyć monitoring czynności
prowadzenia samochodu z poziomu kontrolowanego na automatyczny, anga­
żując się na wyższym poziomie nadzoru w kontrolę rozmowy. W takiej sytuacji
prawdopodobnie kierowca będzie musiał podwozić pasażera znacznie dalszą
drogą, przebiegającą najpierw przez jego osiedle (co zapewne stwierdzi z zażenowaniem). System kontroli czynności nieautomatycznych posługuje się więc
mechanizmami selektywnej inhibicji i selektywnej aktywacji w konstruowaniu
nowych planów działania.
Z założeń modelu kontroli zachowania, według Shallice’a, wynikają trzy
istotne konsekwencje. Po pierwsze (wskazuje na to również powyższy przykład), działanie systemu kontroli czynności nieautomatycznych może zostać
upośledzone w sytuacji wykonywania zadań jednoczesnych o porównywalnym
priorytecie. Słuszność tego przypuszczenia wykazali Shallice i współpracownicy
(1994; Shallice, Burgess, 1996; zob. jednak Baddeley i in., 1984). Osoby badane
w ich eksperymentach miały problemy z przywoływaniem informacji z pamięci
epizodycznej podczas wykonywania jednoczesnego zadania wymagającego
koncentracji uwagi. W pamięci epizodycznej przechowywane są ślady skuteczności działania schematów w poszczególnych sytuacjach bodźcowych. Utrudnienie przywoływania tych informacji może powodować problemy w tworzeniu
adekwatnego planu działania w nowej sytuacji. Po drugie, system kontroli
czynności nieautomatycznych może funkcjonować skutecznie jedynie przy
efektywnym hamowaniu interferencji ze strony danych zawartych w pamięci
(Gilbert, Shallice, 2002). W warunkach nowości nie istnieje bowiem gotowa do
zastosowania, automatyczna czynność, a przywoływanie z pamięci dotyczy
różnych schematów lub ich elementów, które muszą być następnie selektywnie
hamowane lub aktywizowane. Po trzecie, ponieważ umysł zmuszony jest per­
manentnie funkcjonować w sytuacji zadań jednoczesnych, jednym z najważniejszych mechanizmów kontrolnych SAS powinien być mechanizm przerzutności
pomiędzy elementami aktualnie przetwarzanych schematów działań (Shallice,
1988). Efektywne przełączenia, np. pomiędzy czynnościami prowadzenia samochodu i rozmowy z pasażerem zapobiegają błędom SAS.
Nadzorczy system uwagi lokalizowano - podobnie jak pozostałe funkcje,
mechanizmy czy systemy zarządcze - w obrębie przednich płatów czołowych
(Shallice, 1988; Norman, Shallice, 1986). W badaniach pacjentów z uszkodzo­
nymi tymi właśnie strukturami mózgowymi stwierdzono występowanie błędów
perseweratywności (Shallice, 1982). Badani ci nie byli w stanie dostosować
planu swojego działania do zmieniających się warunków stymulacji. Kontynuowali wykonanie starego planu (rutyny), nawet wtedy, gdy nie było to im pomocne w danej sytuacji lub nie było to od nich wymagane (Shallice i in., 1989).
Z kolei Owen i współpracownicy (1993) wykazali istotne zaburzenia w zakresie
funkcjonowania przerzutności uwagi u badanych z deficytami neuronalnymi
przednich płatów czołowych. Powyższe dane potwierdzają zarówno lokalizację
274
Rozdział 6. Kontrola poznawcza
SAS, jak i podstawowe znaczenie dla funkcjonowania tego systemu, jakie ma
mechanizm przerzutności uwagi, pozwalający na radzenie sobie w sytuacji
zadań jednoczesnych.
Dwustopniowy model kontroli poznawczej Shallice’a, obejmujący system
kontroli czynności automatycznych i system kontroli czynności nieautomatycz­
nych, jest wprawdzie modelem kontroli uwagowej, ale w znacznie większym
stopniu niż model Posnera odnosi się on do trwałych reprezentacji pamięcio­
wych. W modelu tym dużą rolę odgrywają mechanizmy hamowania interferencji
pamięciowej, zaś wśród mechanizmów uwagowych znacznie większe znaczenie
mają procesy uwagowe wyższego rzędu, związane z zarządzaniem zasobami
(kontrola czynności jednoczesnych) czy rekonfiguracją zestawów zadaniowych
(kontrola przerzutności uwagi) niż procesy uwagowe niższego rzędu, związane
z kontrolą percepcyjną (mechanizm zarządczy sprawujący kontrolę nad
mechanizmem orientacyjnym). Modele uwagowej kontroli Posnera i Shallice’a
są więc komplementarne - wskazują bowiem na inne mechanizmy kontroli
poznawczej, które są realizowane w ramach różnych aspektów uwagi
(selektywność vs. przerzutność i podzielność) i są wzbudzane w zależności od
poziomu złożoności sytuacji (prosta detekcja vs. złożone zachowanie).
6 .3 .5 . Centralny system wykonawczy pamięci roboczej
w modelu Baddeleya
Baddeley (1986) zapożyczył model SAS od Shallice’a i wykorzystał go w two­
rzeniu własnej koncepcji centralnego systemu wykonawczego (central executi­
ve; Baddeley, 2002; Olivie, 2004). System ten jest jednym z elementów pamięci
roboczej (working memory, WM; Baddley, 1986, 2002; Baddeley, Hitch, 1974).
Koncepcja pamięci roboczej omówiona została w innym miejscu (zob. rozdz.
8.2.3). Poniżej scharakteryzowana zostanie jedynie rola, jaką pełni w systemie
poznawczym centralny system wykonawczy.
Wprawdzie Baddeley (1986,1996) wyraźnie sugerował, że centralny system
wykonawczy sprawuje swe funkcje kontrolne w sposób bardzo zróżnicowany, to
jednak badania mechanizmów jego funkcjonowania skupiły się jedynie na
problemie kontroli wykonania zadań jednoczesnych (Baddeley i in., 1997).
Baddeley i Lewis (1981) wykazali np. możliwość jednoczesności przetwarzania
dwóch różnych informacji werbalnych. Badani w paradygmacie podążania byli
zdolni do powtarzania zasłyszanej prozy oraz decydowania o rymach pokazy­
wanych im jednocześnie wyrazów. Baddeley (1990) poprosił również badanych
o jednoczesne wykonywanie zadania Sternberga (1966) na przeszukiwanie
pamięci krótkotrwałej i weryfikowanie prawdziwości zdań w paradygmacie
podejmowania decyzji semantycznych (Smith, Shoben, Rips, 1974). Okazało
się, że badani radzili sobie z jednoczesnym wykonywaniem obu zadań, a jedyne
koszty, które ponosili, były kosztami czasowymi (wydłużenie czasu weryfikacji
zdań o 33%) w warunku maksymalnego (8 elementów) obciążenia pamięci
roboczej.
Natomiast badania prowadzone nad pacjentami z chorobą Alzheimera
pokazały, że jednoczesne wykonywanie dwóch zadań (śledzenie obiektów w po­
lu wzrokowym oraz przechowywanie cyfr w pamięci krótktotrwałej) jest znacz-
6.3. Funkcje zarządcze
275
i
\
i
I
I
i
|
l
i
(
|
[
[
nie upośledzone w przypadku tych pacjentów w porównaniu do zdrowych osób
badanych z grupy kontrolnej, mimo że w wykonaniu pojedynczym tych zadań
nie stwierdzono żadnych różnic pomiędzy wyróżnionymi grupami (Baddeley
i in., 1991; Logie i in., 2000). Badani pacjenci z chorobą Alzheimera szybciej
także ulegali zmęczeniu, gdy zmuszeni byli kontrolować te dwa zadania jednocześnie (Della Sala i in., 1995). Baddeley i współpracownicy (1997) zbadali
ponadto dwie grupy pacjentów z lezjami przednich płatów czołowych. Grupy te
różniły się ze względu na występowanie syndromu czołowego. Wszyscy badani
wykonywali test zadań podwójnych, na który składały się: test WCST (Wisconsin Card Sorting Test - test selektywności w warunku przerzutności uwagi)
oraz zadanie na płynność słowną. Nie stwierdzono żadnych istotnych różnic
w zakresie wykonania pojedynczych zadań przy porównaniu obu badanych
grup. Jednak pacjenci z syndromem czołowym wykazali się znacznie gorszą
koordynacją wykonania obu tych zadań jednocześnie - ich wyniki w warunku
zadań podwójnych były znacznie gorsze, niż rezultaty uzyskane przez badanych
z grupy nie wykazującej syndromu czołowego.
Centralny system wykonawczy, zdaniem Baddeleya (1993, 2002), jest więc
odpowiedzialny za kontrolę zadań jednoczesnych. Jego głównym zadaniem jest
zarządzanie zasobami uwagowymi systemu poznawczego i przeznaczanie ich do
wykonywania czynności jednoczesnych. Kontrola czynności jednoczesnych, jak
pokazały wcześniejsze badania Baddeleya i współpracowników, jest możliwa,
a redukcja kosztów poznawczych w wyniku efektywnej kontroli - wydajna.
Istnieją jednak takie zadania, które wydają się pobierać całą dostępną moc
centralnego systemu wykonawczego i ich kontrolowanie jednocześnie z innymi
zadaniami okazuje się niemożliwe. Przykładem takiego zadania jest test gene­
rowania liczb losowych. Baddeley, Emslie, Kolodny i Duncan (1998) wykazali,
że jednoczesne generowanie liczb losowych i wykonywanie równoległych zadań,
zarówno werbalnych, jak i wizualnych prowadzi do nieredukowalnych kosztów
w zakresie wykonywania tych ostatnich.
Baddeley (1996, 2002) nie widzi zresztą większych funkcjonalnych różnic
między systemem dystrybucji zasobów (Kahneman, 1973) a centralnym syste­
mem wykonawczym swojej koncepcji pamięci roboczej. Dodatkowym argumen­
tem za tym, iż centralny system wykonawczy ma charakter uwagowego systemu
kontrolnego, były wyniki badań Baddeleya i współpracowników (1984).
Wykazali oni, że wprawdzie zadanie doładowujące w paradygmacie zadań
podwójnych upośledza zapamiętywanie (co jest przecież funkcją uwagi; zob.
hipoteza uwagowa; Logan, Etherton, 1994; Logan, Taylor, Etherton, 1996),
jednak nie wpływa ono w żadnym stopniu na przywołanie informacji z pa­
mięci. Dlatego nadzorczy system uwagi SAS i centralny system wykonawczy
pamięci roboczej są przypuszczalnie różnymi konstruktami. Podczas gdy
ten pierwszy funkcjonuje na podstawie informacji przywołanych z pamięci dłu­
gotrwałej i selektywnego hamowania wybranych trwałych reprezentacji
umysłowych, to mechanizm działania tego drugiego dotyczy kontroli jedynie
w aspekcie hamowania interferencji uwagowej, związanej z rywalizacją o zasoby
systemu.
Centralny system wykonawczy lokalizowany jest w przednich płatach
czołowych, choć jego umiejscowienie należałoby jeszcze doprecyzować, bo nie
wszystkie uszkodzenia tej struktury mózgu są związane z deficytami w zakresie
276
Rozdział 6. Kontrola poznawcza
funkcjonowania tego systemu, a jedynie te, które wiąże się z syndromem czoło­
wym. Nie do końca jest także jasne, czy centralny system wykonawczy pamięci
roboczej jest jednolity strukturalnie i funkcjonalnie. Postulowane przez Badde­
leya (1996) badania z użyciem dużej liczby zadań w najprzeróżniejszych ich
jednoczesnych kombinacjach, wraz z zastosowaniem analiz korelacyjnych
i czynnikowych (podobnie jak w przypadku mechanizmu hamowania - zob.
Friedman, Miyake, 2004) nie zostały do tej pory konsekwentnie podjęte. Zda­
niem Baddeleya (2002, s. 89) centralny system wykonawczy jest jednak
kandydatem na poszukiwanego przez psychologię poznawczą homunculusa,
kontrolującego zachowanie.
6.4 . Podsum ow anie
Czy teza Daniela Dennetta, że „umysł to armia idiotów”, znajduje potwierdzenie
w treści niniejszego rozdziału? Sens tej przewrotnej i prowokacyjnej tezy
sprowadza się do tego, że nauka musi odrzucić wszelkie próby wyjaśnienia zja­
wiska kontroli poznawczej, które w ten czy inny sposób odwołują się do
homunculusa. Jeśli tego nie zrobi, będzie musiała szukać odpowiedzi na pyta­
nie, kto kontroluje homunculusa itd. Jak się wydaje, psychologia jest jeszcze
dość daleko od tego celu. Liczne koncepcje kontroli poznawczej w ten czy inny
sposób „przemycają” homunculusa do architektury umysłu, nadając mu inne
nazwy, np. centralny system zarządczy, nadzorczy system uwagi lub funkcje
zarządcze. Opisane w tym rozdziale koncepcje i badania niosą ważną treść i duży
ładunek rzetelnej wiedzy, a jednak ciągle tkwią w pułapce zastawionej przez
ukrytego homunculusa. Prawdziwy przełom w badaniach nad kontrolą i sa­
mokontrolą dokona się prawdopodobnie dopiero wtedy, gdy psychologia
empiryczna zmierzy się z problemem podmiotu. Wydaje się, że jest to jednym
z ważniejszych wyzwań stojących przed naszą dyscypliną.
Rozdział
Percepcja
Podstawowe właściwości percepcji 278
Recepcja sensoryczna i percepcja umy­
słowa 278
Naiwne koncepcje spostrzegania 280
Spostrzeganie a rozpoznawanie wzorców
281
Spostrzeganie jako proces oddolny 283
Odbiór i kodowanie wrażeń zmysłowych
283
Magazyny informacji sensorycznej 285
Spostrzeganie głębi 288
Identyfikacja obiektu 292
Spostrzeganie jako proces odgórny 295
Stałość spostrzegania 295
Nastawienie 296
Złudzenia i błędy percepcji 297
Wpływ kontekstu na spostrzeganie 298
Teorie percepcji 299
Teoria asocjacjonistyczna 299
Teoria postaciowa 301
Teoria wzorców 303
Teoria cech 305
Teoria obliczeniowa 307
Teoria ekologiczna 309
Proces spostrzegania w praktyce 312
Spostrzeganie twarzy 312
Czytanie słów 314
Podsumowanie 317
Percepcja (spostrzeganie) to proces aktywnej interpretacji danych zmysłowych
z wykorzystaniem wskazówek kontekstuałnych, nastawienia i wcześniej nabytej
wiedzy. W wyniku percepcji dochodzi do rozpoznania obiektu, np. przedmiotu.
Recepcja sensoryczna polega na odzwierciedleniu bodźców w receptorach,
czyli narządach zmysłów. Stanowi konieczny warunek i pierwszy etap procesu
spostrzegania.
Jak zauważył Blaise Pascal: „Jest lepiej patrzeć na coś z punktu widzenia całości,
niż na całość z punktu widzenia jednej rzeczy”. Do tej intuicji XVII-wiecznego
francuskiego filozofa współczesny psycholog poznawczy mógłby dodać, że
najczęściej tak właśnie się dzieje. Patrząc na coś, widzimy raczej cały obiekt, niż
składające się nań części. Widzimy przedmiot, a nie tworzące go kształty, kolory,
kontury i inne atrybuty. Możemy oczywiście nazwać kolor obiektu, ale najpierw
rozpoznajemy, co to za obiekt, a dopiero wtórnie możemy skupić uwagę na jego
cechach lub składnikach. W przypadku innych zmysłów, czyli słuchu, dotyku,
węchu i smaku, zasada prymatu całości nad częścią jest trudniejsza do udo­
wodnienia, ale istnieją poważne argumenty za nią przemawiające. Na przykład
słuch dostarcza nam informacji o tym, jaki obiekt słyszymy, a smak - co jemy.
Do organizmu docierają pojedyncze sygnały pozbawione znaczenia, np. fale
świetlne lub akustyczne o określonych parametrach amplitudy i częstotliwości.
System poznawczy dokonuje olbrzymiego wysiłku, aby te sygnały zinter­
pretować, co prowadzi go do identyfikacji obiektu, stanowiącego źródło stymu­
lacji. Psychologia poznawcza bada i opisuje czynność identyfikacji obiektów
w procesie spostrzegania, a także rozpoznaje czynniki mające wpływ na
przebieg tego procesu.
Percepcja to zresztą nie pojedynczy proces, a zbiór procesów poznawczych.
Ich zadanie polega na zapewnieniu nam kontaktu z rzeczywistością, czyli
z wydarzeniami mającymi miejsce poza organizmem, a ściślej rzecz biorąc poza układem nerwowym, bo do zadań percepcji należy też dostarczanie danych
o stanie narządów wewnętrznych (np. ból brzucha) i aktualnym stanie poło­
żenia kończyn (propriocepcja, tj. czucie własne). W wyniku tych procesów
pojawiają się w umyśle spostrzeżenia (percepty), czyli nietrwałe umysłowe
reprezentacje obiektów. Spostrzeżenia mają postać obrazową, są nietrwałe,
choć od samego początku procesy spostrzegania podlegają wpływom ze strony
reprezentacji trwałych (pojęcia, schematy) oraz ze strony struktur wiedzy.
7.1. Podstawowe właściwości percepcji
7.1 .1 . Recepcja sensoryczna i percepcja um ysłowa
Stanowisko konstruktywistyczne w psychologii poznawczej zakłada aktywność
umysłu w poznawaniu rzeczywistości. Proces spostrzegania nie jest z tego
punktu widzenia biernym odzwierciedlaniem w umyśle rzeczywistych obiek­
tów, ale aktywnym konstruowaniem reprezentacji tych obiektów. Levine
i Shefner (1981, s. 1) sugerują, że „[...] percepcja odnosi się do sposobu,
7.1. Podstaw ow e w łaściw ości percepcji
279
w jaki człowiek interpretuje informacje zgromadzone przez zmysły”. Mówiąc
innymi słowy: człowiek odczuwa obecność stymulacji, a spostrzega, czym ona
jest. Podczas gdy gromadzenie informacji przez zmysły, czyli recepcja sen­
soryczna, zwana również sencepcją1, jest procesem raczej pasywnym, to ich
dalsze odzwierciedlanie w systemie poznawczym, czyli percepcja umysłowa, nie
może obyć się bez aktywności umysłu. Oba składniki procesu spostrzegania
są niezbędne dla efektywnej percepcji. Bez recepcji sensorycznej nie ma
bowiem informacji, która może być później interpretowana, natomiast bez
interpretacji zgromadzone dane nic nie znaczą - nie może być wtedy mowy
0 identyfikacji spostrzeganych obiektów. Dlatego też Bruner (1957; Bruner,
Goodman, 1947) określił spostrzeganie jako proces konfrontacji danych
zmysłowych z danymi umysłowymi, do której dochodzi wtedy, gdy narząd
zmysłu (np. smaku) rozpoczyna gromadzenie informacji (kwaśność, słodkość
itd.), które w procesie interpretacji służą włączeniu poznawanych obiektów do
kategorii nadrzędnej (np. jabłko z gatunku „Lobo”). Podstawowym problemem
teorii spostrzegania jest próba opisu procesu przemiany relatywnie prostych
danych zmysłowych w złożone reprezentacje umysłowe. Sekuler i Blake (1994)
określają ten proces jako przekład informacji zmysłowych na język kodu, który
może być zrozumiały dla złożonych struktur nerwowych sytemu poznawczego.
Podobnie Roth (1986) opisuje percepcję jako proces transformacji informacji
pochodzących ze środowiska w indywidualne doświadczenie obiektów, wy­
darzeń czy zjawisk, wskazując na narządy zmysłów jako stacje przekaźnikowe
tej przemiany.
Fizyczną formę energii, zdolną do zapoczątkowania procesu spostrzegania,
przyjęło się w psychologii nazywać bodźcem. Bodziec w procesie recepcji
sensorycznej zmienia swój charakter. Początkowo jest to bodziec dystalny,
zewnętrzny, znajdujący się poza systemem poznawczym i odległy względem jego
receptorów. Wskutek bezpośredniego kontaktu z narządem zmysłu bodziec
dystalny staje się bodźcem proksymalnym, wewnętrznym i bliskim. W przypadku
zmysłu wzroku bodźcem proksymalnym jest odwrócony i pomniejszony na
siatkówce obraz bodźca dystalnego. Natomiast w przypadku zmysłu słuęhu
dystalne dźwięki wywołują proksymalne drgania błony bębenkowej ucha. Także
zmysły dzielą się na bliskie i dalekie (Sekuler, Blake, 1994). Do tych pierwszych,
zwanych również receptorami kontaktowymi, zaliczamy zmysł smaku, dotyku
1 węchu, podczas gdy zmysły dalekie, zwane też telereceptorami, są reprezen­
towane przez wzrok i słuch.
Odebranie (rejestracja; recepcja) bodźca proksymalnego prowadzi do
powstania wrażeń. Są one najprostszymi procesami psychicznymi, w wyniku
których dochodzi do odzwierciedlenia w spostrzegającym umyśle pojedynczych
właściwości rejestrowanych obiektów (Hebb, 1969). Według Hebba wrażenia
należy traktować jako wynik aktywności receptorów zmysłowych i dróg czu­
ciowych, przekazujących tę aktywność z narządów zmysłowych do kory czucio­
wej w mózgu. Odbiór bodźców wzrokowych zwykle prowadzi do odczucia
takich wrażeń, jak np. kolor, wielkość czy kształt. Recepcja bodźców słucho­
wych wywołuje wrażenia związane ze skalą dźwięku (wysoki, niski), barwą
1 Termin ukuty przez prof. Andrzeja Klawitera.
280
Rozdział 7. Percepcja
(czysty, mieszany) czy siłą (cichy, głośny). Spostrzeżenie jest natomiast ca­
łościowym odzwierciedleniem obiektów, składających się na ten obiekt bodźców
dystalnych i wywoływanych przez nie wrażeń. Jednym z głównych problemów
psychologii percepcji jest określenie wzajemnych relacji pomiędzy wrażeniami
a spostrzeżeniami.
Nawet najprostsze spostrzeganie jest procesem biologicznym, a zatem
wymaga złożonych interakcji najprzeróżniejszych systemów komórek nerwo­
wych. Opisując proces percepcji od strony neurofizjologicznej, próbujemy
wskazać układy nerwowe odpowiedzialne za detekcję poszczególnych właści­
wości bodźców; zróżnicowanie w ich zakresie zostanie przedstawione w rozdz.
7.4.5 przy okazji omówienia teorii obliczeniowej Marra (1982). Równie ważne
w percepcji jest to, że wymaga ono doznań zmysłowych w optymalnej dawce.
Deprywacja sensoryczna, czyli znaczne obniżenie poziomu stymulacji senso­
rycznej, które występuje przy eliminacji bodźców wzrokowych, słuchowych
i dotykowych, prowadzi z reguły do wystąpienia halucynacji i urojeń (Siegel,
1984). Nie odpowiadające rzeczywistości wrażenia (halucynacje) i myśli
(urojenia) stają się dla systemu poznawczego niezbędną rekompensatą za braki
w zakresie wejściowych danych sensorycznych. Szkodliwy jest również nadmiar
stymulacji, jednakże w tym przypadku system poznawczy dysponuje mecha­
nizmem pozwalającym radzić sobie z przeciążeniem informacyjnym. Jest nim
selektywna uwaga (Broadbent, 1958). Istotne dla spostrzegania jest także to, że
percepcja to proces wymagający działania ze strony podmiotu. Niekiedy jest to
działanie w sensie fizycznym, np. wtedy, gdy obserwując bodźce w polu wzro­
kowym zmieniamy własne położenie w stosunku do obiektu. Możliwość analizy
bodźców z różnej perspektywy i dystansu pozwala wyeliminować wiele złudzeń
optycznych, zatem spostrzeganie musi być przynajmniej częściowo czynnością
motoryczną, co podkreśla w swej ekologicznej teorii Gibson (1966; zob. rozdz.
7.4.6). Aktywność podmiotu spostrzegającego może się jednak ograniczać do
czynności umysłowych. W każdym razie tylko dzięki aktywności podmiotu
możliwa jest właściwa interpretacja stymulacji. Widać to szczególnie wyraźnie
na przykładzie bodźców zdegradowanych, czyli niepełnych, niekompletnych lub
pojawiających się w nieoptymalnych warunkach czasowych lub przestrzennych.
Bodźce zdegradowane nie pozwalają na pełną recepcję sensoryczną, przez co
w ich przypadku udział „wyższych” procesów wnioskowania i interpretacji
znacząco wzrasta.
7.1 .2 . Naiwne koncepcje spostrzegania
Naiwne koncepcje percepcji, zwane też potocznymi, ignorują problem przekładu
danych zmysłowych na dane umysłowe. Zgodnie z tymi koncepcjami rejestrator
zmysłowy pełni funkcje przekaźnika informacji na drodze do kory mózgowej.
Przekazywana informacja ma charakter zmysłowy - jest więc np. obrazem lub
dźwiękiem i w taki sposób, przy wykorzystaniu właściwej modalności sen­
sorycznej, jest trwale kodowana. Potoczne koncepcje spostrzegania przyjmowa­
ły zatem dodatkowe założenie dotyczące natury trwałych reprezentacji umysło­
wych - według rozważanego stanowiska odzwierciedlenia te mają zawsze formę
odzmysłową.
7.1. Podstawowe właściwości percepcji
281
U źródeł tak uproszczonego myślenia o procesie spostrzegania leżało
przekonanie o słuszności metafory aparatu fotograficznego. Zwolennicy naiw­
nych koncepcji wskazywali na wiele strukturalnych i funkcjonalnych podo­
bieństw narządu wzroku do aparatu fotograficznego. I tak, strukturalnym odpo­
wiednikiem źrenicy wydaje się przesłona, soczewki - obiektyw, a siatkówki błona fotograficzna (film). Efekt rejestracji obrazu na siatkówce przypomina
również wynik czynności robienia zdjęcia - w obu przypadkach otrzymujemy
obraz odwrócony i pomniejszony. Wskazując na podobieństwa, często jednak
zapominano, że oba sposoby rejestracji obrazu wyraźnie się różnią. Istotną
strukturalną różnicą w budowie oka i aparatu fotograficznego wydaje się to, że
błona fotograficzna jest płaska, a siatkówka wypukła. Zupełnie inaczej prze­
biega też w procesie spostrzegania i robienia zdjęcia detekcja koloru - komórki
nerwowe odpowiedzialne za ten proces są rozmieszczone w oku w jednej
warstwie, podczas gdy na błonie filmowej warstwy wrażliwe na poszczególne
kolory są umieszczone jedna nad drugą. W oku nie ma także żadnej struktury
analogicznej do migawki w aparacie fotograficznym. Co więcej, zanik obrazu na
siatkówce jest związany ze stopniem złożoności obrazu i tempem pojawiania się
kolejnych obrazów, a nie z ilością światła emitowanego lub odbijanego przez
obiekt.
Pominąwszy jednak różnice strukturalne i funkcjonalne pomiędzy na­
rządem wzroku i aparatem fotograficznym, rozstrzygającym argumentem na
niekorzyść naiwnych teorii spostrzegania wydaje się fakt, iż trwałe reprezento­
wanie w umyśle informacji w postaci odzmysłowej byłoby bardzo nieekono­
miczne. Ten sam bodziec wzrokowy (np. twarz dziecka), podlegający przecież
nieustannym zmianom (np. w wyniku rozwoju), musiałby być zapisywany
w formie coraz to innego obrazu wraz z każdym pojedynczym spostrzeżeniem
„obiektu”. Trudno wyobrazić sobie system przechowywania danych, który byłby
zdolny poradzić sobie z takim przeładowaniem informacyjnym. Z powyższych
powodów naiwne koncepcje spostrzegania zostały w zasadzie uznane za
fałszywe, zaś współczesne teorie percepcji odwołują się w opisie i wyjaśnianiu
tego procesu do koncepcji trwałych reprezentacji umysłowych (zob. rozdz. 3).
Jedynym modelem procesu spostrzegania, który wyłamuje się z tego nurtu
myślenia o percepcji, jest ekologiczna teoria Gibsona (1966). W swych
założeniach zaprzecza ona istnieniu trwałych reprezentacji umysłowych, przez
co odrzuca konieczność procesu translacji danych zmysłowych.
7.1.3. Spostrzeganie a rozpoznawanie wzorców
Badania w zakresie rozpoznawania wzorców {pattern recognition) dotyczą
tego, w jaki sposób ludzie identyfikują rzeczywiste obiekty w swoim środo­
wisku (Reed, 1988). Jak bardzo ważna jest to umiejętność, widać na przykła­
dzie czynności czytania pisma ręcznego (zob. rozdz. 7.5.2). Forma ręcznego
pisania jest do tego stopnia indywidualną właściwością każdego człowieka, że
może stać się jego wizytówką, która pomoże w rozpoznaniu danej osoby jako
sprawcy jakiegoś wydarzenia. Międzyosobnicza zmienność w zakresie takiego
wzorca (np. litery „a”) jest więc ogromna, a zmienność wewnątrzosobnicza
również dość duża, bo pisząc stawiamy litery za każdym razem nieco inaczej.
282
Rozdział 7. Percepcja
Mimo to system percepcyjny człowieka potrafi właściwie rozpoznać konkretny
symbol (np. „koślawe a” dziecka uczącego się dopiero pisać pierwsze litery)
jako przedstawiciela danego wzorca (np. litery „a” jako takiej), niezależnie
od cech charakterystycznych, przynależnych tylko konkretnej egzemplifikacji
wzorca.
W odpowiedzi na pytanie, w jaki sposób możliwy jest proces identyfikacji
obiektów, sformułowano dwie teorie percepcji: koncepcję modeli (zob.
rozdz. 7.4.3) oraz koncepcję cech (zob. rozdz. 7.4.4). Obie koncepcje w odmien­
ny sposób opisują proces kategoryzacji, czyli zaliczenia spostrzeganego obiektu
do nadrzędnej kategorii umysłowej (por. rozdz. 3). Zgodnie z koncepcją
modeli spostrzegany egzemplarz jest porównywany do modelu wzorca, który
reprezentuje nadrzędną kategorię. Modelem może być specyficzny egzemplarz,
czyli pierwszy napotkany przedstawiciel danego wzorca (np. własna matka
może być modelową mamą) lub prototyp, czyli najczęstszy z dotychczas
napotkanych egzemplarzy wzorca (np. wróbel może być modelowym ptakiem).
Z kolei koncepcje cech sugerują, że decyzja o rozpoznaniu wzorca jest wyni­
kiem porównania cech kategoryzowanego obiektu i cech wzorcowych. Argu­
menty na rzecz obu koncepcji, bynajmniej nie rozstrzygające, stają się
zrozumiałe, gdy rozważy się dokładniej przebieg procesu rozpoznawania twarzy
(zob. rozdz. 7.5.1).
Jednakże, niezależnie od słuszności jednej z dwóch koncepcji, zwraca uwa­
gę sposób wyjaśniania przez nie procesu spostrzegania jako procesu kategory­
zacji. Taką możliwość jako pierwszy zasugerował Bruner (1957), a empirycznie
potwierdzili ją Posner i Mitchell (1967) w eksperymencie dotyczącym porów­
nywania liter. Badanym prezentowano pary liter, w stosunku do których
trzeba było podjąć decyzję, czy są one identyczne czy różne, kierując się narzu­
conymi regułami. Wprowadzono trzy warunki eksperymentalne. W pierwszym
litery uznawano za takie same, gdy były identyczne fizycznie (np. „AA”),
w drugim - gdy były tożsame nominalnie (np. „Aa”), natomiast w trzecim gdy były identyczne zgodnie z abstrakcyjną regułą (np. „AE”). Warunek
pierwszy wymagał tylko identyfikacji fizycznej - porównania z wzorcem (bez
konieczności rozpoznania znaczenia), warunek drugi - identyfikacji fizycznej
oraz ustalenia nominału bodźca (rozpoznania znaczenia litery), natomiast
warunek trzeci - identyfikacji fizycznej, ustalenia nominału oraz sprawdzenia,
czy spełniona jest dodatkowa reguła kategoryzacyjna. Manipulacja ekspery­
mentalna dotyczyła zatem liczby potencjalnych kategoryzacji, jakich trzeba
byto dokonać w celu udzielenia poprawnej odpowiedzi na pytanie o tożsa­
mość prezentowanych bodźców. Posner i Mitchell ustalili, że czas reakcji
w warunku pierwszym wynosi od 400 do 500 ms, w warunku drugim jest
o średnio 80 ms dłuższy, a w warunku najtrudniejszym - aż o 160 ms dłuższy.
Wyniki tego badania mogą sugerować, iż proces rozpoznawania bodźców jako
reprezentujących określone wzorce polega na kategoryzacji, która trwa tym
dłużej, im więcej kategorii system poznawczy musi sprawdzić w procesie
spostrzegania. Dodatkowo można na podstawie tych badań wnosić, iż czas
prostej kategoryzacji percepcyjnej trwa ok. 80 ms. Problem ten wymaga jednak
dalszych badań.
7.2. Spostrzeganie jako proces oddolny
283
7.2. Spostrzeganie jako proces oddolny
Spostrzeganie jest procesem oddolnym (bottom-up). Przebiega w kierunku od
rejestracji wrażeń do identyfikacji obiektów. Na poszczególnych etapach tego
procesu biorą udział różnorodne struktury poznawcze. Mechanizm orientacyjny
uwagi selektywnej umożliwia uchwycenie przez receptory faktu wystąpienia
bodźca w polu percepcyjnym. Za odbiór i kodowanie wrażeń zmysłowych
odpowiedzialne są detektory cech (zob. rozdz. 5), a za krótkotrwałe przecho­
wywanie efektów recepcji bodźców - magazyny informacji sensorycznej (pamięć
ultrakrótko trwała, zob. rozdz. 8). Identyfikacja spostrzeganych bodźców (np.
piorun podczas burzy) odbywa się dzięki wiedzy zgromadzonej w zakresie
pamięci trwałej (np. dotyczącej zjawisk atmosferycznych). Poszczególne
subsystemy wchodzące w skład architektury umysłu włączają się w proces
postrzegania kolejno, wraz ze wzrostem jego złożoności. Jednak właśnie
wystąpienie bodźca dystalnego (np. piorunu podczas burzy) uruchamia cały
mechanizm percepcji.
7.2.1. Odbiór i kodowanie wrażeń zmysłowych
Pierwszy krok na drodze do powstania złożonego spostrzeżenia jest raczej
oczywisty. Zadaniem receptorów jest pomiar natężenia danego bodźca dystal­
nego. W przypadku zmysłu wzroku fotoreceptory oka mają za zadanie
zmierzenie intensywności światła emanującego od spostrzeganego obiektu lub
przezeń odbitego (Sekuler, Blake, 1994). W ten sposób obiekt ten jest repre­
zentowany po raz pierwszy na peryferiach systemu poznawczego w formie mapy
punktów świetlnych, różniących się swoją intensywnością. Oko wyposażone
jest w dwa rodzaje fotoreceptorów; są to pręciki, odpowiadające za rejestrację
słabych w swoim natężeniu bodźców świetlnych (widzenie nocne, czarno-białe),
oraz czopki, funkcjonujące jedynie przy dobrym oświetleniu, odpowiadające za
widzenie barw i ostrość wzroku (widzenie dzienne, pełna paleta barw). Infor­
macje zebrane przez fotoreceptory oka są przekazywane dalej do komórek dwu­
biegunowych, a następnie zwojowych, których zadaniem jest wstępne opraco­
wanie informacji sensorycznej.
Komórki zwojowe są ściśle wyspecjalizowane. Barlow (1953) oraz Lettvin,
Maturana, McCulloch i Pitts (1959) ustalili, że odrębne grupy tych komórek
reagują na odmienne cechy wyzwalające, takie jak np. linie pionowe lub pozio­
me (krawędzie), ruch obiektu czy jego lokalizacja przestrzenna. Grupy komórek
zwojowych odpowiedzialne za detekcję poszczególnych właściwości stymulacji
nazwano detektorami cech. Im bardziej złożony system poznawczy, tym więcej
w nim prostych detektorów cech, służących detekcji elementarnych właściwości
bodźców.
Wyniki badań Lettvina, Maturany, McCulloch i Pittsa (1959) przeanalizo­
wał Maruszewski (1996). Badacze ci wskazują na istnienie tylko czterech de­
tektorów cech u żaby, odpowiedzialnych za odbiór tylko dwóch właściwości
stymulacji: wielkości i ruchu obiektu. Specyficzne kombinacje zarejestrowanych
cech mają swoje konsekwencje w zachowaniu się żaby: „małe” i „szybkie”
284
Rozdział 7. Percepcja
obiekty wywołują u niej reakcje pokarmowe (np. widok poruszającego się żuka;
Barlow, 1953), natomiast „duże” i „powolne” (np. bociany) - reakcje ucieczki.
Liczba detektorów cech wizualnych u człowieka jest oczywiście znacznie więk­
sza; znajdują się one również poza siatkówką, na czuciowej drodze wstępującej
do kory mózgowej (Marr, 1982).
Detektory cech różnią się swoją złożonością strukturalną i funkcjonalną.
Ich badaniem zajęli się m.in. Hubel i Wiesel (1959), którzy do swoich badań
wybrali koty. Ustalili oni, że na drodze wzrokowej u kotów występuje aż sześć
różnych rodzajów detektorów cech, z czego cztery ostatnie znajdują się już
w korze wzrokowej. Z kolei Marr (1982), analizując strukturę i funkcjonowanie
drogi wzrokowej u człowieka, wyróżnił jedynie trzy rodzaje różnych detektorów
cech, stwierdzając że tylko u jednego rodzaju występują połączenia z komórkami
kory mózgowej. Mimo sporów dotyczących liczby różnych detektorów cech, nie
ma wątpliwości odnośnie do ich strukturalnego i funkcjonalnego zróżnicowa­
nia. Im dalej od narządu zmysłu i im bliżej kory mózgowej, tym bardziej
są detektory cech strukturalnie złożone i tym bardziej złożone właściwości
stymulacji są przez nie dekodowane. Ostatecznie pobudzenie napływa do kory
wzrokowej, umiejscowionej w płatach potylicznych. Szczegółową analizę deko­
dowanych cech w ramach poszczególnych detektorów zawiera teoria oblicze­
niowa Marra (1982; zob. rozdz. 7.4.5).
Z kolei odbiór i kodowanie wrażeń słuchowych odbywa się w komórkach
włoskowych narządu Cortiego, zlokalizowanego w uchu wewnętrznym. Zada­
niem tych receptorów jest pomiar intensywności dźwięku docierającego do ucha
zewnętrznego. Dźwięk ten jest wzmacniany przez narząd słuchu i przenoszony
w formie rytmicznych drgań przez błonę bębenkową ucha. Jedna z kosteczek
słuchowych (strzemiączko), wprawiona w ten sposób w drganie, przenosi rytm
fali dźwiękowej poprzez wywieranie hydraulicznego ciśnienia na płyn znajdu­
jący się w ślimaku ucha wewnętrznego. To właśnie ciśnienie tego płynu
wywołuje ugięcie komórek włoskowych, ich pobudzenie i w efekcie generowanie
impulsu nerwowego przesyłanego do kory słuchowej. Poszczególne komórki
receptoryczne zmysłu słuchu różnią się w zakresie częstotliwości dźwięku, na
jaki reagują (Sekuler, Blake, 1994), co przekłada się na wielkość wytworzonego
przez falę dźwiękową ciśnienia płynu w ślimaku ucha, koniecznego do ugięcia
komórek włosowatych.
Przekroczenie progu pobudzenia komórki włoskowej jest konieczne do
rejestracji dźwięku, jednakże każdy receptor słuchowy działa tylko w pewnym
zakresie częstotliwości. Jeśli intensywność dźwięku jest zbyt duża dla danej
komórki włoskowej, osiąga ona stan nasycenia (saturation effect; Sekuler,
Blake, 1994), który uniemożliwia wzbudzenie impulsu nerwowego. W takim
przypadku reagują receptory słuchowe wyspecjalizowane w odbiorze dźwięku
o wyższej częstotliwości, które z kolei nie są wzbudzane przez dźwięki o niższej
częstotliwości, ponieważ takowe nie wywołują przekroczenia ich poziomu
wzbudzenia. Impulsy nerwowe generowane przez komórki włoskowe informują
system poznawczy o czasowej i częstotliwościowej charakterystyce słyszanych
dźwięków.
Interpretacja tak zakodowanych bodźców akustycznych odbywa się w korze
słuchowej, znajdującej się w płatach skroniowych. Detektory cech tam zloka­
lizowane nie są już jednak zainteresowane wielkością natężenia czy częstotli-
7.2. Spostrzeganie jako proces oddolny
I
!
j
i
|
i
|
Ś
|
j
;
!'
'
285
wością pojedynczego dźwięku. Są one wyspecjalizowane w reagowaniu na
złożone zestawy dźwięków, definiowane przez specyficzne zmiany w zakresie
fizycznej charakterystyki dźwięków składowych (Moore, 1987). Dzięki temu
każde znane człowiekowi słowo posiada prawdopodobnie w korze słuchowej
swój detektor, czyli uldad komórek interpretacyjnych wzbudzanych przez
brzmienie słowa. Wskazują na to wyniki badań nad małpami, prowadzone
przez Wollberga i Newmana (1972). Okazało się, że odrębne grupy neuronów
kory słuchowej są odpowiedzialne za dekodowanie różnych rodzajów małpich
komunikatów, takich jak rechotanie (cackle), piszczenie (shrieks) czy trelowanie (trills). Biorąc pod uwagę, że w relatywnie ubogim języku małp rodzaj
komunikatu decyduje o sensie przekazu, można się spodziewać, że w przypadku
człowieka wyspecjalizowanie detektorów bodźców akustycznych w korze
słuchowej może dotyczyć pojedynczych morfemów, tj. elementarnych jednostek
znaczeniowych (zob. rozdz. 13). Reagowanie przez komórki kory słuchowej na
zmiany w zakresie wysokości tonu ma jeszcze jedną istotną funkcję - dzięki
temu możliwa jest analiza intonacji, bez której rozumienie znaczenia dłuższych
komunikatów werbalnych byłoby bardzo trudne, jeśli nie niemożliwe. Pewne
komórki nerwowe kory słuchowej reagują na zmianę tonu dźwięku na
wyższy (jak podczas wypowiadania pytającego słowa „Tak?”, gdy nic nie ro­
zumiemy), a inne na niższy (jak podczas ziewania, gdy jesteśmy znudzeni;
Sekuler, Blake, 1994).
Należy zatem stwierdzić, że odbiór i kodowanie wrażeń zmysłowych odby­
wa się za pomocą specyficznych układów komórek nerwowych, zwanych
detektorami cech. Wstępujące drogi czuciowe są wyposażone w takie właśnie
zestawy neuronów, różniące się zarówno strukturalnie, czyli poziomem złożoności i wielością połączeń nerwowych, jak i funkcjonalnie, czyli dostosowa­
niem do percepcji konkretnych właściwości podlegającej detekcji. Recepcja
sensoryczna polega na kodowaniu fizycznych charakterystyk bodźca dystalnego,
związanych z intensywnością jego oddziaływania na narząd zmysłu. Percepcja
umysłowa polega natomiast na identyfikowaniu bodźca poprzez integrację
informacji, dotyczących wszystkich jego właściwości. Proces ten zostanie
opisany dokładniej w rozdz. 7.2.4.
7.2.2. Magazyny informacji sensorycznej
Hipoteza istnienia magazynów informacji sensorycznej dotyczy przechowywa­
nia w ramach systemu poznawczego przez krótki czas, po bezpośrednim
wystąpieniu bodźca sensorycznego, efektów jego działania. Dotyczy więc prze­
chowywania bodźców proksymalnych, zanim ulegną one procesowi dekodo­
wania przez bardziej złożone dekodery cech występujących w drodze
czuciowej. Do tej pory potwierdzono istnienie dwóch magazynów informacji
sensorycznej: magazynu ikonicznego dla zmysłu wzroku i magazynu echoicznego dla zmysłu słuchu. Wprawdzie Baddeley (1976) postuluje istnienie aż
pięciu magazynów sensorycznych - tylu, ile różnych zmysłów występuje
u człowieka - jednak hipoteza ta nie doczekała się do tej pory weryfikacji.
Ponieważ magazyny informacji sensorycznej są tożsame z subsystemami
pamięci ultrakrótkiej, dokładnie omówionymi w rozdz. 8, w tym miejscu będą
286
Rozdział 7. Percepcja
przedstawione jedynie te ich właściwości, które wydają się najważniejsze dla
analizy procesu spostrzegania.
Sperling (1960, 1963) prezentował badanym za pomocą tachistoskopu
przez 50 ms tabelę zawierającą 12 bodźców (liter lub cyfr), ułożonych w 4 ko­
lumny po 3 rzędy pól. Zadaniem osób biorących udział w eksperymencie było
przypomnienie sobie tuż po prezentacji jak największej liczby elementów
z prezentowanej tabeli. Uczestnicy badania byli w stanie przypomnieć sobie
prawidłowo 4-5 znaków (ok. 35% znaków w ogóle, czyli 1-2 z każdego rzędu).
W kolejnym eksperymencie Sperling wprowadził dodatkową manipulację wska­
zówką - niemal natychmiast po prezentacji tachistoskopowej prezentował oso­
bom badanym dźwięk o wysokiej, średniej lub niskiej tonacji, określający rząd
tabeli, z którego należało sobie przypomnieć uprzednio prezentowane bodźce.
Poziom poprawności przypominania wzrósł u badanych dwukrotnie - tym
razem byli oni w stanie przypomnieć sobie poprawnie ok. 70% (2-3) znaków ze
wskazanego rzędu. W następnym badaniu Sperling manipulował czasem
prezentacji wskazówki w przedziale od 0 do 1000 ms od momentu zakończenia
prezentacji tachistoskopowej. Poprawność przypominania okazała się malejącą
funkcją czasu opóźnienia wskazówki, przy czym wpływ wskazówki okazał się
całkowicie zredukowany w przypadku przerwy trwającej 500 ms lub dłużej.
Dodatkowo, w kolejnych badaniach z użyciem tej samej procedury ekspe­
rymentalnej stwierdzono, że jeśli pole ekspozycji zostanie tuż po zniknięciu
bodźców rozjaśnione, to przechowywanie informacji w magazynie ikonicznym
będzie utrudnione. Odwrotny wynik zaobserwowano, gdy pole ekspozycji
zostało zaciemnione. W takich warunkach percepcyjnych wskazówka pomagała
również po upływie 500 ms (nawet do 1000 ms). Z kolei, gdy bezpośrednio po
prezentacji bodźców przedstawiony został w polu widzenia złożony układ
innych sygnałów (np. konkurencyjna tabela innych bodźców), to możliwość
prawidłowego przypomnienia sobie uprzednio prezentowanych bodźców
oscylowała wokół poziomu przypadku. Kiedy natomiast zestaw bodźców składał
się w połowie zarówno z liter, jak i z cyfr, wskazówka, dotycząca rodzaju bodź­
ców (liter lub cyfr), które należy sobie przypomnieć, nie miała żadnego zna­
czenia dla poprawności wykonania zadania.
Uzyskane przez Sperlinga wyniki doprowadziły do sformułowania pod­
stawowej charakterystyki magazynu ikonicznego. Czas przechowywania infor­
macji w tym magazynie okazał się relatywnie krótki. W sprzyjających warunkach
percepcyjnych, gdy do magazynu ikonicznego nie wchodzą żadne inne bodźce
wzrokowe, czas ten może się wydłużyć nawet do 1000 ms, ale z reguły jest
znacznie krótszy, przeciętnie oscyluje wokół 500 ms. Ze względu na to, że oko
ludzkie dokonuje w ciągu sekundy czterech fiksacji na materiale bodźcowym
(Rayner, 1997), a więc czterokrotnie ma okazję do rejestracji nowego układu
bodźców, w naturalnych warunkach spostrzegania obiektów w polu wzroko­
wym czas przechowywania efektów rejestracji bodźców w magazynie ikonicz­
nym nie powinien przekraczać 250 ms. W istocie jednak czas ten jest znacznie
krótszy i wynosi tylko około 100 ms, gdyż pobieranie informacji z pola wzro­
kowego nie może się dokonywać przez cały czas fiksacji oka w danym punkcie
pola wzrokowego (zob. rozdz. 7.5.2). Po upływie 100 ms informacje albo są
przetwarzane dalej przez bardziej złożone detektory cech, albo ulegają wyparciu
przez nowe dane.
7.2. Spostrzeganie jako proces oddolny
'
;
j
|
|
S
;
i
'
;
|
\
j
|
[
i
287
Z analizy wyników badań przeprowadzonych przez Sperlinga wynika
również, że pojemność magazynu ikonicznego jest zmienna w czasie. Począt­
kowo rejestrowany jest niemal pełny materiał bodźcowy znajdujący się w zasięgu
narządu wzroku. Sensoryczny kod zapisu informacji w tym magazynie
uniemożliwia jednak jakiekolwiek opracowanie przechowywanych informacji,
co zwiększyłoby szansę ich przetrwania. Ograniczenie pojemności kanału
przetwarzania danych ze względu na ich bardziej złożone właściwości sprawia,
iż do dalszej obróbki trafia tylko 1/3 z zarejestrowanej początkowo stymulacji.
Nie ma natomiast wątpliwości, iż sposób kodowania informacji w ramach
magazynu ikonicznego jest ściśle sensoryczny, związany z fizyczną charakterys­
tyką sygnału, jaka może być zdekodowana przez najprostsze detektory cech,
znajdujące się jeszcze w komórkach zwojowych. Wskazówki, dotyczące
fizycznej charakterystyki sygnału (lokalizacji czy też wielkości bodźców), są
jedynymi, które mogą pomóc w lepszym odtworzeniu informacji zgromadzonych
w tym magazynie.
Badania nad funkcjonowaniem magazynu echoicznego, tj. badania w zakre­
sie gromadzenia i krótkotrwałego przechowywania bodźców słuchowych,
realizowane przez Crowdera i współpracowników (Crowder, Morton, 1969;
Darwin, Turvey, Crowder, 1972), prowadzono w podobnym paradygmacie jak
eksperymenty nad funkcjonowaniem magazynu ikonicznego. Prezentowano
w nich symultanicznie serie dźwięków z różnych lokalizacji przestrzennych,
a następnie proszono osoby uczestniczące w badaniach o przypomnienie sobie
dźwięków pochodzących z wybranego źródła, sygnalizowanego przez wskazówkę wizualną. Okazało się, że badani są w stanie przypomnieć sobie zaledwie
jeden, ostatni dźwięk z wybranego źródła, niezależnie od jego lokalizacji.
Z kolei Glucksberg i Cowan (1970), prowadząc badania w paradygmacie
podążania (zob. rozdz. 5.2.1), zaobserwowali, że gdy w komunikacie ignoro­
wanym pojawiały się słowa oznaczające cyfry, to osoby badane nie były w stanie
odpowiedzieć na pytanie: „jaka to cyfra?”, jeżeli przerywano im reprodukcję
komunikatu ważnego w czasie dłuższym niż 4 s od momentu prezentacji cyfry.
Jeśli jednak zatrzymanie czynności powtarzania ważnego komunikatu następo­
wało w czasie do 4 s od pojawienia się cyfry w kanale ignorowanym, uczestnicy
eksperymentu prawidłowo przypominali sobie bodziec uprzednio zgodnie
z instrukcją przez nich ignorowany. Wyniki te świadczą na korzyść tezy, że
chociaż pojemność magazynu echoicznego jest znacznie mniejsza niż pojemność magazynu ikonicznego, to jednak magazyn echoiczny ma tę właściwość, że
dłużej przechowuje informację.
Powyższe spostrzeżenia na temat pojemności i czasu przechowywania
informacji w magazynie ikonicznym i echoicznym korespondują z tym, co
wiadomo na temat przetwarzania nietrwałych reprezentacji umysłowych (zob.
rozdz. 2). System obrazowy jest holistyczny i umożliwia równoległe przetwarzanie większej ilości danych w tym samym czasie. System werbalny jest
parcjalny i wymaga szeregowego przetwarzania kolejnych bodźców słuchowych,
Nie ma natomiast różnic między dwoma magazynami informacji sensorycznej
w zakresie sposobu kodowania wrażeń zmysłowych. Kodowanie to ma
charakter ściśle sensoryczny i jest związane z detekcją jedynie fizycznej
charakterystyki prezentowanych bodźców.
288
Rozdział 7. Percepcja
7.2.3. Spostrzeganie głębi
Obraz obiektu zarejestrowany na siatkówce jest dwuwymiarowy, podczas
gdy jego spostrzeżenie jest trójwymiarowe. Staje się to możliwe dzięki per­
cepcji głębi, a więc możliwości spostrzegania absolutnego dystansu (absolute
distance), jaki dzieli obserwatora od obiektu oraz względnego dystansu (relative
distance), dzielącego poszczególne obiekty w polu wzrokowym od siebie
(Sekuler, Blake, 1994). Spostrzeganie głębi (depth perception) jest niezwykle
istotnym elementem poznawczego wyposażenia człowieka, nie tylko dlatego,
że pozwala mu orientować się i skutecznie działać w trójwymiarowej prze­
strzeni, ale również z tego powodu, że bez niej nie byłoby możliwe wyodręb­
nienie przedmiotu z tła. Zdolność do percepcji głębi zapewnia nam to, że
rzeczywistość składa się dla nas z poznawczo odrębnych, samoistnych przed­
miotów i innych obiektów fizycznych, a nie ze zwykłej mozaiki wrażeń wzro­
kowych. Z kolei bez zdolności do percepcji przedmiotów prawdopodobnie nie
byłoby myślenia pojęciowego, czyli jednego z najważniejszych procesów po­
znawczych człowieka (Lorenz, 1977). Samoistnie przedmioty mogą być bowiem
grupowane według różnych kryteriów i cech, co daje podstawę do kategoryzo­
wania, a następnie do przypisania kategoriom nazw. Tak więc spostrzeganie
głębi warunkuje percepcję przedmiotów, a percepcja przedmiotów jest warun­
kiem kategoryzowania i myślenia pojęciowego. Biorąc pod uwagę znaczenie tej
zdolności poznawczej, nie powinno nas dziwić, że w procesie ewolucji
wykształciły się liczne i różnorodne mechanizmy fizjologiczne i psychologiczne,
dzięki którym - mimo dwuwymiarowej siatkówki oka - widzimy świat w trzech
wymiarach, łącznie z głębią.
Szacowanie przez system poznawczy odległości w polu wzrokowym jest
możliwe dzięki wykorzystywaniu dwóch rodzajów wskazówek. Przede wszyst­
kim wykorzystuje się wskazówki okulomotoryczne, wynikające ze zmiany poło­
żenia obserwatora względem obiektu lub różnych obiektów względem siebie.
Śledząc zmiany lokalizacji obiektu w polu wzrokowym podczas kolejnych
fiksacji oka, narząd wzroku dokonuje akomodacji soczewki, pełniącej w oku
funkcję obiektywu. Bliżej zlokalizowane przedmioty wymagają większej akcji
mięśni, regulujących kształt soczewki i odpowiadających za jej ogniskową,
podczas gdy obiekty dalekiego planu wymagają mniejszego wysiłku przystoso­
wawczego. Można to łatwo sprawdzić zbliżając do nosa z dalszej odległości
palec - wysiłek mięśni soczewki, próbujących utrzymać ostrość obrazu pomimo
niewielkiego dystansu absolutnego stanie się wtedy łatwo odczuwalny.
Informacja o tym, ile wysiłku zużywają mięśnie, regulujące kształt soczewki,
jest użyteczną i prostą wskazówką dla systemu nerwowego odnośnie do abso­
lutnego dystansu obiektu w polu wzrokowym, jednak użyteczność tej wska­
zówki jest ograniczona przez wielkość dystansu. Wskazówka ta działa najlepiej
w przypadku obiektów zlokalizowanych w promieniu do kilku metrów od
obserwatora, podczas gdy przy większych odległościach staje się nieprecyzyjna
(Sekuler, Blake, 1994). Wtedy system poznawczy korzysta z innej wskazówki
okulomotorycznej - jest nią siła sygnału przesyłanego nerwowymi drogami
zstępującymi z centrum kontroli motorycznej w mózgu do mięśni, regulujących
kształt soczewki. Jest to sygnał wymuszający przystosowanie się do ostrego
widzenia obiektów oddalonych.
7.2. Spostrzeganie jak o proces oddolny
289
Ponadto, w percepcji głębi działają również wskazówki wizualne, które są
dostępne niezależnie od ruchu obiektu w polu wzrokowym lub ruchu samego
obserwatora. Znane są dwa rodzaje takich wskazówek: (1) monokularne,
wymagające użycia tylko jednego oka, oraz (2) binokularne, korzystające z in­
formacji zgromadzonych przez parę oczu. Korzystanie z tych drugich jest
częstsze i. łatwiejsze, ale istnienia tych pierwszych nie da się podważyć,
ponieważ percepcja głębi jest przecież możliwa z użyciem tylko jednego oka
(Eysenck, Keane, 1990).
Wśród wskazówek jednoocznych można wyróżnić siedem podstawowych
informacji, którymi kieruje się system poznawczy w ocenie głębi pola
percepcyjnego. Pierwszą z nich jest wskazówka określana jako perspektywa
liniowa. W oddalającej się perspektywie równoległe pobocza drogi biegnącej
prostopadle do obserwatora coraz bardziej zbliżają się do siebie, zbiegając
się w końcu w jedną linię. Równoległe krawędzie pozostają więc w coraz
mniejszej odległości od siebie wraz ze wzrostem absolutnego dystansu. Ocena
odległości może wynikać również z oszacowania wielkości cienia, rzucanego
przez obiekt (druga wskazówka), jednak kierowanie się tym kryterium ma
sens jedynie wówczas, gdy wszystkie obiekty w polu wzrokowym są jednolicie
oświetlone. Zazwyczaj tak właśnie jest na otwartych przestrzeniach, stąd
w procesie percepcji system poznawczy przyjmuje założenie owej jednolitości.
W takich warunkach oświetlona jest zawsze góra obiektu, jeśli receptory
wzrokowe znajdują się w normalnej pozycji percepcyjnej, charakterystycznej
dlawyprostowanej postawy ciała (Horward, Bergstróm, Masao, 1990). Inaczej
bywa, gdy iluminacja obiektów pochodzi z różnych źródeł i cienie rzucane
przez obiekty w polu wzrokowym nakładają się na siebie. Wówczas wzrok,
kierując się wskazówką wielkości cienia, ulega najprzeróżniejszym złudzeniom
optycznym - np. trójwymiarowości przy dwuwymiarowych obrazach (Ramachandran, 1988).
Bardzo użyteczne informacje wynikają z oceny kontrastu (wskazówka
trzecia). Światło odbite od spostrzeganych obiektów musi się przebić do fotoreceptorów przez zanieczyszczoną z reguły atmosferę. W konsekwencji obiek­
ty dalsze wydają się mniej kontrastowe, a bliższe - bardziej wyraźne i odróż­
niające się od siebie. Czwarta wskazówka obejmuje szczegóły powierzchni, czyli
charakterystyczne zmiany faktury przedmiotu. Szczegóły są lepiej widoczne
z bliższej odległości niż dalszej. Łatwo to sprawdzić przyglądając się np.
krawężnikowi drogi: stojąc na początku drogi, w bliskiej odległości od punktu
obserwacji, jesteśmy w stanie rozpoznać rodzaj krawężnika, jednak z dalszego
dystansu widzimy już tylko liniowe ograniczenie drogi. Ocena dystansu odbywa
się również za pomocą porównania względnej pozycji obiektów w polu
wzrokowym (wskazówka piąta), zgodnie z założeniem, że obiekty bliższe prze­
słaniają części obiektów dalszych. Trzeba tu jednak zwrócić uwagę na pewne
niebezpieczeństwo kierowania się tą wskazówką, można bowiem ulec tzw.
złudzeniu Kanizsy (1976). Gaetano Kanizsa przeprowadził eksperyment,
w którym pokazywał osobom badanym 3 czarne koła ułożone w 3 rogach białej
planszy. Każde koło zostało pozbawione pewnej części - tej, która była
najbliższa środka planszy. W rezultacie powstało percepcyjne złudzenie białego
trójkąta na pierwszym planie, który swoimi wierzchołkami jak gdyby przysłania
3 czarne koła na drugim planie (ryc. 7.1).
290
Rozdział 7. Percepcja
*
^
V
^
Ryc. 7.1. Złudzenie Kanizsy.
W ocenie dystansu może nam też pomóc wskazówka szósta - znajomość
wielkości obiektu. Wiedząc, jaka jest prawdziwa wielkość obiektu, możemy
skorygować ocenę jego odległości. Na przykład samochód pozornie równy pod
względem wielkości pudełku od zapałek ocenimy po prostu jako samochód
odległy, bo wiemy, jakie są mniej więcej jego prawdziwe rozmiary. Zagadnie­
niem tym zajmował się Itellson (1951), który prezentował uczestnikom swojego
badania znany im przedmiot zawsze z tej samej odległości. Manipulował
natomiast wielkością prezentowanego obiektu, pokazując go osobom badanym
w jego naturalnej wielkości, albo w dwukrotnym powiększeniu lub pomniejsze­
niu. Okazało się, że uczestnicy eksperymentu poprawnie oceniali odległość
w odniesieniu do obiektów naturalnej wielkości. Mając do czynienia z obiektami
dwukrotnie zmniejszonymi, badani przeszacowywali dystans, a gdy obiekt zo­
stał dwukrotnie zwiększony, wykazywali tendencję do niedoszacowania
odległości. Co więcej, w przypadku obiektów zmniejszonych odległość była
przeceniona mniej więcej dwukrotnie, a jeśli chodzi o obiekty zwiększone nie­
doszacowanie wyniosło tylko ok. 10%.
Sześć wyżej omówionych wskazówek ma charakter statyczny (Sekuler,
Blake, 1994; Eysenck, Keane, 1995). Wśród jednoocznych wskazówek wyróżnia
się także siódmą, dodatkową wskazówkę, związaną z ruchem obiektów w polu
wzrokowym. Jeśli dwa obiekty, bliższy i dalszy, wskazane obserwatorowi, po­
ruszają się w polu wzrokowym z tą samą prędkością, to obiekt dalszy pokonuje
pozornie krótszą drogę. Na podstawie oceny paralaksy ruchowej, tj. przebytego
dystansu, system poznawczy może wnioskować, który obiekt znajduje się bliżej,
a który dalej. Podobnie rzecz się ma w przypadku, gdy porusza się obserwator,
a obiekty w polu wzrokowym są statyczne.
Jeśli chodzi o wskazówki dwuoczne, wyróżnia się dwie, z których jedna,
konwergencja dwuoczna, działa podobnie jak wskazówka okulomotoryczna, bo
wykorzystuje informację o napięciu mięśni sterujących ruchem gałek ocznych.
Skupienie wzroku na obiekcie bliskim wymaga bardziej rozwartego kąta
widzenia, podczas gdy przedmioty odległe wymagają kąta bardziej ostrego
(ryc. 7.2). Mięśnie sterujące gałką oczną muszą wykonać odpowiednią pracę,
która jest znacznie bardziej intensywna w przypadku obiektów bliskich. Na­
pięcie mięśni sterujących ruchem gałek ocznych i odpowiedzialnych za ich
konwergencję jest informacją, na podstawie której mózg oblicza odległość
obiektu. Druga wskazówka wiąże się z faktem, że każde z dwojga oczu odbiera
7.2. Spostrzeganie jako proces oddolny
291
Ryc. 7.2. Fizjologiczny mechanizm widzenia stereooptycznego. Jeśli obiekt jest odległy, gałki oczne
muszą się na nim skupić pod mniejszym, bardziej ostrym kątem a, podczas gdy w przypadku obiektu
odległego gałki skupiają się pod bardziej rozwartym kątem p (góra ryc.). Ponadto każda gałka oczna
„widzi” obiekt nieco inaczej, ale w przypadku obiektu odległego ta różnica jest mniejsza (dół ryc.).
Mózg ocenia odległość obiektu biorąc pod uwagę zarówno kąt konwergencji gałek ocznych, jak też
rozbieżność informacji docierającej do każdej z gałek.
i
|
|
[
[
[
[
ś
nieco inną informację o spostrzeganym obiekcie. Ze względu na swoją lokalizację (umieszczenie obok siebie w odległości przeciętnie 65 mm), każde z oczu
obserwuje pole wzrokowe z nieco innej pozycji, a więc pod innym kątem.
W konsekwencji ten sam obiekt jest widziany inaczej przez prawe i lewe oko,
chociaż w procesie identyfikacji obiektu system poznawczy różnicę tę zaniedbuje. Wykorzystuje ją natomiast w procesie percepcji głębi - wielkość tej różnicy
przekłada się bowiem na ocenę względnego dystansu pomiędzy obiektami w polu
wzrokowym. Im bliżej siebie znajdują się spostrzegane obiekty, tym większe jest
292
Rozdział 7. Percepcja
zróżnicowanie w zakresie obrazu pomiędzy lewym a prawym okiem; im dalej są
położone, tym różnice te są mniejsze. Zdolność do oszacowania względnego
dystansu obiektów znajdujących się obok siebie w polu wzrokowym, nazwano
widzeniem stereooptycznym (stereopsis; Sekuler, Blake, 1994).
7.2.4. Identyfikacja obiektu
Proces identyfikacji obiektu składa się z kilku faz. Humphreys i Bruce (1989)
sugerują, że odbywa się on w sposób szeregowy, a kolejne fazy nie mogą się
rozpocząć bez ukończenia wcześniejszych stadiów. Proponowany przez
Humphreysa i Bruce model spostrzegania jest więc skonstruowany zgodnie
z założeniami klasycznych modeli blokowych (zob. rozdz. 1). Pierwsza faza
identyfikacji obiektu to faza recepcji danych zmysłowych. Te wczesne procesy
spostrzegania prowadzą do reprezentacji obiektu w systemie poznawczym w for­
mie zależnej od punktu obserwacji. Utworzenie takiego odzwierciedlenia sty­
mulacji kończy fazę drugą omawianego procesu. W fazie trzeciej następuje
klasyfikacja percepcyjna obiektu - jego struktura (dane zmysłowe) jest porów­
nywana ze zgromadzonymi w ramach systemu wiedzy strukturami znanych
obiektów (dane umysłowe). Klasyfikacja percepcyjna poprzedza więc klasyfika­
cję semantyczną, w trakcie której przywołane zostają dane dotyczące funkcji
pełnionych przez obiekt oraz dane innych obiektów blisko z nim związanych.
Wreszcie w ostatniej fazie następuje klasyfikacja leksykalna, w trakcie której
obiektowi przypisywana jest skojarzona z nim etykieta werbalna.
Odrębność faz klasyfikacji percepcyjnej i semantycznej potwierdzili
Humphreys i Riddoch (1987). Badany przez nich pacjent HJA wykazywał
deficyty w rozpoznawaniu struktury percepcyjnej obiektów: czynność ta
zajmowała mu nawet do 30 s w przypadku prostych obiektów; nie mógł od­
różnić rysunków obiektów rzeczywistych od nierzeczywistych, ale złożonych
z rzeczywistych części. Nie miał jednak żadnych problemów z klasyfikacją
semantyczną przedmiotu już poprawnie zidentyfikowanego. Z kolei pacjent JB
stosunkowo poprawnie klasyfikował percepcyjnie i leksykalnie pokazywane mu
obiekty. Miał jednak problemy z zapamiętywaniem i przypominaniem sobie
funkcji, jakie pełnią obiekty już przez niego nazwane.
Silveri i Gainotti (1988) wykazali jednak, że faza klasyfikacji leksykalnej
zależy od przebiegu poprzednich faz procesu identyfikacji obiektów. Nie można
więc mówić o całkowitej niezależności wskazywanych przez Humphreysa
i Bruce faz identyfikacji obiektu. Przypisanie etykiety werbalnej na podstawie
definicji percepcyjnej (struktura i wygląd obiektu) okazało się w ich badaniu
znacznie mniej efektywne niż nadanie nazwy obiektowi, którego definicja se­
mantyczna (funkcje i znaczenie obiektu) jest znana. Inni badacze, Howard
i Orchard-Lisle (1984), pokazali ponadto, że w przypadku pacjentki JCU,
mającej kłopoty z klasyfikacją leksykalną, dodatkowa wskazówka w postaci
pierwszego fonemu poprawnej nazwy pomagała w nadaniu etykiety werbalnej,
a wskazówka w postaci fonemu obiektu semantycznie związanego z aktualnie
nazywanym - wręcz przeszkadzała. Wyniki te wskazują, z jednej strony, na
relatywną odrębność poszczególnych faz identyfikacji obiektu (upośledzenie
7.2. Spostrzeganie jako proces oddolny
:
I
:
;
*
:
1
;
I
293
jednej raczej nie przekłada się na deficyty w innej), a z drugiej - na ich sztywne
następstwo czasowe konieczne dla efektywności procesu identyfikacji.
Badacze procesu spostrzegania, analizując proces identyfikacji obiektu,
skupili się raczej na fazie identyfikacji percepcyjnej. Na przykład Marr i współ­
pracownicy (Marr, 1982; Marr, Nishihara, 1978) skoncentrowali się na badaniu
procesu tworzenia reprezentacji obrazowej obiektów w umyśle przez detekcję
określonych cech strukturalnych tych obiektów. Klasyfikacji semantycznej na
najwyższym poziomie rozpoznawania obiektów badacze ci poświęcili relatywnie
niewiele miejsca (zob. opis teorii obliczeniowej w rozdz. 7.4.5). Podobnie Irving
Biederman (1987) w swojej teorii identyfikacji obiektów poprzez detekcję ich
geometrycznych komponentów strukturalnych, zwanych geonami (geons; tj.
geometrical ions), bardziej zwraca uwagę na proces konstrukcji reprezentacji
percepcyjnej niż semantycznej, czy też leksykalnej. Zgodnie z jego koncepcją,
36 różnych kształtów geometrycznych, takich jak np. bloki, walce, sfery, łuki czy
ostrosłupy, zupełnie wystarczy do opisania zróżnicowania w zakresie wszyst­
kich obiektów rzeczywistych (ryc. 7.3). Podobnie zresztą tylko 44 fonemy,
istniejące w języku angielskim, wystarczają do stworzenia reprezentacji lek­
sykalnej wszystkich znanych słów w tym języku (Eysenck, Keane, 1990).
Według Biedermana system poznawczy dysponuje subsystemami, umożliwiają­
cymi rozpoznanie tych kształtów dzięki zbieraniu informacji dotyczących
rejestrowanych w polu wzrokowym linii, krawędzi i kątów, przy czym analizie
podlegają cechy równoległości i symetrii. W ten sposób detekcja kubka wymaga
rozpoznania dwóch komponent strukturalnych: cylindra (na ciecz) i łuku (ucho
do trzymania). Rozpoznane komponenty są następnie zestawiane z trwałymi
reprezentacjami umysłowymi w celu identyfikacji postrzeganego obiektu.
Klasyfikacja percepcyjna jest rozstrzygana na rzecz takiej reprezentacji, do
której komponenty strukturalne są najlepiej dopasowane.
Biederman i współpracownicy (Biederman, Ju, Clapper, 1985; Biederman,
Beiring, Blickle, 1985) potwierdzili słuszność koncepcji rozpoznawania
obiektów dzięki detekcji komponentów strukturalnych. W pierwszym badaniu
udało im się wykazać, że niekompletność komponentów nie jest przeszkodą
w identyfikacji obiektu, bowiem nadal - w celu rozpożnania prezentowanego
przedmiotu - system poznawczy dobiera taką reprezentację, która najlepiej
pasuje do obrazu percepcyjnego. W ten sposób pozbawienie 9-komponentowego
obiektu nawet czterech elementów strukturalnych nie wyklucza jeszcze
poprawnej identyfikacji. W następnym eksperymencie Biederman i współpracownicy pokazywali osobom badanym trzy rodzaje obiektów wizualnych:
kompletne, niekompletne, tj. pozbawione jakiegoś komponentu (np. stół
pozbawiony jednej nogi), oraz zniekształcone, tj. utworzone z komponentów
kompletnych, ale zdegradowanych (np. stół z blatem i wszystkimi nogami
narysowany przerywaną kreską). Obiekty były prezentowane krótko (100 ms),
albo długo (200 ms). Oczywiście najlepiej identyfikowane były obiekty
kompletne. W przypadku krótkiej prezentacji badani poprawniej identyfikowali
obiekty pozbawione jakiegoś komponentu niż obiekty kompletne, ale znie­
kształcone przez niewyraźną formę prezentacji. W przypadku dłuższej prezenta­
cji wzorzec wyników ulegał odwróceniu - uczestnicy badania lepiej identyfikowali obiekty zdegradowane, choć kompletne pod względem tworzących je
geonów. Interpretując uzyskane wyniki, Biederman ustalił, że krótka prezenta-
294
Rozdział 7. Percepcja
cP
(p
o
0
+ +
+ +
+
+ +
+ +
+
+
—
+
+ +
+
—
+ +
—
-+
+
+
+
Ryc. 7.3. Geony i obiekty z nich utworzone Na górnej części ryc. widzimy sześć geonów, różniących
się pod względem czterech kryteriów: krzywizny krawędzi, symetrii, stałości kształtu na całej długości
oraz krzywizny głównej osi. Na przykład pierwszy geon („cegła”) charakteryzuje się brakiem
krzywizny krawędzi, symetrią, stałym kształtem na całej długości oraz brakiem krzywizny
(za: Biederman, 1987). Na dolnej części ryc. pokazano cztery przykładowe obiekty utworzone
z geonów.
7.3. Spostrzeganie jako proces odgórny
295
cja mało wyrazistych percepcyjnie bodźców uniemożliwia detekcję komponen­
tów strukturalnych - dlatego w tym warunku percepcyjnym lepiej dla
rozpoznawanego obiektu jest, aby przynajmniej kilka komponentów było wy­
raźnych, a braki w zakresie pozostałych zostają pominięte w procesie
dostosowania reprezentacji wizualnej do umysłowej. Długa prezentacja pozwala
z kolei na odgórne uzupełnienie brakujących części wszystkich elementów
strukturalnych rozpoznawanych obiektów i wówczas identyfikacja staje się
możliwa dzięki korekcie geometrycznych komponentów strukturalnych.
j 7.3. Spostrzeganie jako proces odgórny
i Nie lekceważąc roli procesów oddolnych, trzeba stwierdzić, że spostrzeganie
j jest również procesem odgórnym (top-down). Identyfikacja obiektów w polu
I percepcyjnym jest możliwa dzięki temu, że reprezentację percepcyjną kon­
frontuje się z danymi umysłowymi. To one gwarantują z jednej strony stałość
spostrzegania (twarz mimo zmian rozwojowych pozostaje twarzą przynależną
tej samej osobie), choć z drugiej strony są przyczyną powstawania różnorod­
nych błędów i złudzeń percepcyjnych. Dowody na odgórny charakter percepcji
znajdziemy w czterech grupach badań: nad (1) stałością spostrzegania; (2)
[• wpływem nastawienia na spostrzeganie; (3) złudzeniami i błędami w spostrze­
ganiu, a także nad (4) wpływem kontekstu na spostrzeganie. Wiele badań tego
rodzaju wywodzi się z teorii postaci (Gestalt, zob. rozdz. 7.4.2). Inne zapocząt­
kowano w nurcie badawczym nazwanym „nowym spojrzeniem” na spostrzega­
nie (New Look), zapoczątkowanym pod koniec lat 40. XX w. przez Jerome’a
Brunera (Bruner, Goodman, 1947; Bruner, Postman, 1947). Badania prowa­
dzone w tym nurcie akcentowały wpływ oczekiwań i nastawienia na proces
spostrzegania, a ponadto widziały percepcję w szerszym kontekście badań nad
osobowością, motywacją i czynnikami społecznymi.
7.3.1. Stałość spostrzegania
Stałość percepcyjna ma miejsce wtedy, gdy spostrzeżenie jakiegoś obiektu nie
zmienia się, mimo zmiany warunków, np. oświetlenia lub odległości, co prowadzi
do zmian w zakresie bodźca dystalnego, a w konsekwencji do zmian w zakresie
bodźców proksymalnych i rejestrowanych wrażeń. Doświadczenie zgromadzone
w formie trwałych reprezentacji umysłowych pozwala systemowi poznawczemu
na konstatację, że ten sam obiekt nie może zmieniać swojej fizycznej charak­
terystyki wraz ze zmianą perspektywy, warunków oświetlenia lub kontekstu.
Wykrywanie stałości percepcyjnych pozwala na „korygowanie” obrazu na
siatkówce (Gibson, 1966). W efekcie spostrzegamy coś, czego nie widzą nasze
zmysły, a co podpowiada nam nasza wiedza o świecie rzeczywistym.
Wyróżnia się kilka podstawowych stałości percepcyjnych. Stałość wielkości
polega na tym, że ten sam obiekt reprezentuje zawsze tę samą wielkość
niezależnie od absolutnego dystansu pomiędzy obserwatorem a spostrzeganym
obiektem. Jego obraz na siatkówce jest tym bardziej pomniejszony, im dalej
296
Rozdział 7. Percepcja
znajdują się względem siebie obserwator i obiekt, jednak wrażenie to pozostaje
bez wpływu na doświadczaną w spostrzeżeniu właściwość wielkości obserwo­
wanego obiektu. Zjawisko stałości wielkości umożliwia więc korektę wrażenia
wynikającego z oszacowania dystansu absolutnego. Uczestnicy eksperymentu
Itellsona (1951; zob. rozdz. 7.2.3), nieświadomi manipulacji wielkością obiek­
tów, błędnie oceniali stały dystans pomiędzy prezentowanym im znanym
bodźcem a ich punktem obserwacji. Bodziec ten w przekonaniu osób badanych
miał stałą wielkość, skoro więc odczuwali oni wrażenie jego zmieniającej się
wielkości, to zmianie musiała ulec ocena odległości obserwatora od obiektu.
Takich też oszacowań dokonywali uczestnicy eksperymentu Itellsona.
Z kolei stałość kształtu pozwala na korektę wrażeń związanych z dystansem
względnym. Jak się powszechnie sądzi, obserwowanie figur geometrycznych pod
różnym kątem prowadzi często do początkowo błędnego wnioskowania o ich
kształcie: okna zamiast prostokątnych wydają się trapezowate, a ściany budyn­
ków zdają się być najwyższe w punkcie obserwacji. Zmiana punktu obserwacji
i wykorzystanie przez umysł zasady stałości kształtu pozwala na korektę tych
błędnych wrażeń w spostrzeżeniu. Podobnie, stałość jasności i barwy wynika
z odzwierciedlonych w ramach trwałych reprezentacji umysłowych właściwości
wizualnych konkretnych obiektów. Wychodząc w zimie nocą na spacer,
cieszymy się, że na ziemi leży biały śnieg, który być może rozjaśni nam ciem­
ności, mimo że z braku słońca nie odbija on niemal żadnego światła. Śnieg jest
w takich warunkach percepcji co najwyżej szary, ale i tak widzimy go jako biały,
bo wiemy, że taki jest ze swej natury. Na tej samej zasadzie krew widzimy raczej
w kolorze czerwonym, nawet na czarno-białym filmie, a trawę - w zielonym,
nawet na impresjonistycznym obrazie, gdzie naprawdę jest fioletowa.
7.3.2. N astaw ienie
Nastawienie percepcyjne {perceptual set) to wstępne przygotowanie umysłu do
odbioru w procesie spostrzegania określonej informacji. Jeśli np. człowiek jest
przygotowany, że zobaczy kwadrat, może być przekonany, że tak właśnie się
stało, mimo że naprawdę pokazano mu prostokąt lub trapez. Prostą ilustracją
zjawiska nastawienia percepcyjnego jest spostrzeganie rysunków, dwuznacz­
nych, których interpretacja percepcyjna zależy od tego, co pokazywano nam
wcześniej lub czego się spodziewamy. Na przykład kształt
o
może być odczytany jako jedna z liter alfabetu greckiego, jako zlepek dwóch
małych liter „d” i „p”, a nawet jako kontur ptaka w locie.
Siła nastawienia percepcyjnego może być tak duża, że spostrzeżenie będzie
zupełnie nieadekwatne do rzeczywistości. W przypadkach mniej skrajnych na­
stawienie wydłuża czas spostrzegania obiektów nieoczekiwanych, czyli nie­
zgodnych z treścią nastawienia, a skraca czas percepcji obiektów oczekiwanych.
Nastawienie percepcyjne odpowiada też za niektóre błędy kategoryzacji. Przy­
puśćmy, że pokażemy komuś rysunek, który może być zintepretowany na dwa
sposoby: jako wizerunek łysego mężczyzny w okularach lub sylwetka szczura
7.3. Spostrzeganie jako proces odgórny
297
(Bugelski, Alampay, 1961). Jeśli wcześniej pokażemy serię rysunków należących
do jednej z tych kategorii (np. obrazki różnych zwierząt), sprawimy, że rysunek
dwuznaczny będzie zintepretowany jako przedstawiający szczura. Wystarczą
cztery wcześniej pokazane rysunki zwierząt, aby 100% osób badanych
zobaczyło szczura, podczas gdy w grupie kontrolnej, nie poddanej działaniu
nastawienia, 81% osób spontanicznie interpretuje dwuznaczny rysunek jako
portret mężczyzny (ryc. 7.4).
Ryc. 7.4. Wpływ nastawienia na spostrzeganie dwuznacznego rysunku. Ostatni rysunek, identyczny
w obu rzędach, jest przez większość osób interpretowany jako portret mężczyzny w okularach. Jeśli
jednak wcześniej pokażemy cztery rysunki zwierząt, większość ludzi zobaczy w ostatnim rysunku
sylwetkę szczura (za: Bugelski, Alampay, 1961).
Wpływ nastawienia wywołanego manipulacją eksperymentalną jest krótko­
trwały. Aby je wyeliminować, zwykle wystarczy jawne odwołanie poprzedniej
instrukcji lub zmiana charakteru bodźców poprzedzających. Bywają jednak ro­
dzaje nastawienia, wynikające z trwałych i głęboko utrwalonych struktur wiedzy
albo ze stereotypów i uprzedzeń. Osoba uprzedzona w stosunku do pewnej
grupy etnicznej będzie dostrzegać w wyglądzie i zachowaniu jej członków cechy,
których zwykle nie zauważa, jeśli są to cechy zgodne ze stereotypem.
7.3.3. Złudzenia i błędy percepcji
Trzecia grupa faktów, świadczących o odgórnym charakterze spostrzegania, to
złudzenia i błędy w odbiorze informacji z otoczenia. Lista złudzeń percepcyjnych jest niezwykle długa, a podłoże działania różnych kategorii złudzenia jest
nieco inne (Gregory, 1997). Niemniej niektóre z nich potwierdzają zasadę, że
wiedza i wcześniejsze przygotowanie umysłu zniekształca sposób widzenia
obiektów, czyli sposób interpretowania danych zmysłowych.
Spektakularnym przykładem złudzeń percepcyjnych są tzw. figury nie­
możliwe (ryc. 7.5). Widząc tzw. trójkąt Penrose’a, nie umiemy zinterpretować
poszczególnych linii, cieni i konturów, tak aby uzyskać spójną interpretację
tego, co właściwie jest nam pokazywane. Nie umiejąc dokonać interpretacji,
dochodzimy do wniosku, że taki przedmiot jest niemożliwy, to znaczy nie
istnieje inaczej, jak tylko w wyobraźni artysty. Figury niemożliwe, w których
lubował się holenderski artysta Maurits Comelis Escher, są interesującym
298
Rozdział 7. Percepcja
a
a
\
a
Ryc. 7.5. Figury „niemożliwe”. Pierwsza to trójkąt Penrose’a, a trzecia to „niemożliwy” sześcian
Neckera.
przykładem działania konwencji przedstawiania trójwymiarowych przedmiotów
na dwuwymiarowej kartce papieru. Chcąc narysować trzeci wymiar, artysta
musi posłużyć się umownymi wskazówkami tego, co jest bliżej, a co dalej. Obie
strony - twórca i odbiorca - znają tę konwencję jako coś zastanego, czyli jako
część kultury, w której wzrastali. Wobec tego mogą nie zdawać sobie sprawy, że
mają do czynienia z konwencją, która w innej kulturze, być może, nie
obowiązywałaby (Deregowski, 1972). Niekiedy artysta dopuszcza się celowego
nadużycia owej konwencji i w ten sposób powstają figury niemożliwe. Efekt
paradoksu i zaskoczenia wynika stąd, że są to obiekty niemożliwe do wyprodu­
kowania, ale możliwe do narysowania.
7.3 .4 . W pływ kontekstu na spostrzeganie
Ten sam układ bodźców może być różnie interpretowany w zależności od
bodźców towarzyszących. Oznacza to, iż samo wrażenie zmysłowe może także
prowadzić do zupełnie różnych spostrzeżeń. Siłę wpływu kontekstu można
ocenić na przykładzie prostego układu 6 czarnych kół, położonych koncen­
trycznie wokół koła białego (ryc. 7.6). W zależności od tego, czy koło białe jest
otoczone czarnymi kołami o małej czy dużej średnicy, może być widziane jako
większe lub mniejsze. Mamy tu do czynienia ze złudzeniem percepcyjnym,
którego mechanizm polega na działaniu kontekstu sytuacyjnego, wywołanego
szczególnym układem bodźców.
W klasycznym eksperymencie Stevena Palmera (1975) osobom badanym
pokazywano złożoną scenę, np. widok typowej kuchni, a następnie pojedyncze
obiekty, takie jak bochenek chleba, skrzynka na listy i dziecięcy bębenek do gry.
7.4. Teorie percepcji
299
:o: so
-j
*
Ryc. 7.6. Wpływ kontekstu na spostrzeganie. Środkowe białe koło jest w obu wypadkach identyczne,
jednak lewe wydaje się większe od prawego.
Zadanie polegało na nazwaniu tego obiektu, co wymagało jego rozpoznania
percepcyjnego i zaliczenia do właściwej kategorii. Dodatkowo manipulowano
stopniem wzajemnego podobieństwa obiektów wymagających rozpoznania; np.
bochenek chleba nieco przypominał wyglądem skrzynkę na listy. Okazało się, że
gdy obiekt był dopasowany do kontekstu, wprowadzonego przez wcześniej
pokazywaną scenę (np. chleb i widok kuchni), rozpoznawano go łatwo i często,
bo w ponad 80% przypadków. Gdy zaś obiekt był neutralny ze względu na
kontekst, rozpoznawano go znacznie gorzej (ponad 60% rozpoznań), ale naj­
gorzej (ok. 40% prawidłowych odpowiedzi) rozpoznawano obiekty niezgodne
z kontekstem, ale wizualnie podobne do obiektów zgodnych z kontekstem (np.
skrzynka na listy w kontekście kuchni). Podobnie jak w przypadku prostych
figur geometrycznych (por. ryc. 7.6), to samo wrażenie zmysłowe może pro­
wadzić do różnych perceptów, które w dodatku są konstruowane z mniejszym
lub większym wysiłkiem.
7.4. Teorie percepcji
Teorie spostrzegania dotyczą różnych aspektów tego procesu. Starsze koncep­
cje, jak teoria asocjacjonistyczna czy postaciowa, odpowiadają na pytanie
o wzajemne zależności pomiędzy wrażeniami i spostrzeżeniami, koncentrując
swoje rozważania na problemie prymatu całości lub części w procesie percepcji.
Koncepcje te noszą nazwę teorii strukturalnych. Teorie modeli i teorie cech
poszukują odpowiedzi na pytanie, w jaki sposób rozpoznajemy obiekt w polu
percepcyjnym, zaś sam proces recepcji sensorycznej raczej ich nie zajmuje. Są
one nazywane teoriami identyfikacji obiektów. Najpełniej proces spostrzegania
opisują koncepcja obliczeniowa i koncepcja ekologiczna, wskazując w nieco
odmienny sposób na dwukierunkowy (oddolny i odgórny) charakter procesu
spostrzegania.
7.4.1. Teoria asocjacjonistyczna
[Główną tezą koncepcji asocjacjonistycznej jest twierdzenie, że spostrzeżenie to
prosta suma wrażeń i powstaje jako ich połączenie. Na przykład percepcja
koncertu rockowego „na żywo” jest wynikiem sumowania szeregu wrażeń po­
chodzących z różnych zmysłów. Są wśród nich wrażenia: (1) słuchowe, zwią­
300
Rozdział 7. Percepcja
zane z odbieranymi dźwiękami muzyki i reakcją tłumu; (2) wzrokowe, wyni­
kające m.in. z oprawy scenicznej występu; (3) węchowe, przybierające na sile
wraz z czasem trwaniem występu (oraz ilością „wylanego potu”); czy też
(4) dotykowe, zależne od miejsca, z którego występ się ogląda (pod sceną
zazwyczaj jest tłoczniej). Pozbawienie koncertu rockowego na żywo pewnych
wrażeń, takich jak wrażenia dotykowe, węchowe czy zapewne także niektóre
wrażenia słuchowe (np. chóralny śpiew publiczności) prowadzi do zmiany
spostrzeżenia - żaden szanujący się bywalec tego typu imprez nie uzna wyda­
rzenia pobawionego powyższych wrażeń za koncert rockowy na żywo. Z drugiej
strony, w przypadku koncertu rockowego oglądanego w telewizji ważne są
jedynie wrażenie wzrokowe i niektóre słuchowe, a słuchanego w radio - jedynie
wrażenia słuchowe. Odmienne zestawy wrażeń definiują więc, przez swoją su­
mę, odmienne spostrzeżenia.
Wrażenia łączą się ze sobą w spostrzeżenia na zasadzie praw kojarzenia.
Pierwsze prawo dotyczy styczności wrażeń w czasie. W procesie percepcji
łączymy ze sobą w spostrzeżenie te wrażenia, które współwystępują w tym
samym czasie, bądź też te, które wiąże następstwo czasowe. W ten sposób
wrażenia smakowe, związane np. z piciem szampana, z jednej strony kojarzą się
z wrażeniami dobrej zabawy, z drugiej jednak strony - z wrażeniem bólu głowy
następnego dnia. Drugie prawo mówi o styczności wrażeń w przestrzeni. W tym
przypadku łączymy ze sobą w spostrzeżenie te wrażenia, które współwystępują
w jednym miejscu przestrzeni. W ten sposób doznanie gorąca raczej nie zostanie
skojarzone z wrażeniem bieli śniegu, a doznanie zimna z wrażeniem barwy
pustynnego piasku. Trzecie prawo głosi zasadę kojarzenia wrażeń przez
podobieństwo. Spostrzeżenie powstaje z połączenia wrażeń, które uznajemy
za podobne z jakiś powodów, np. pod względem barwy czy kształtu. Wreszcie
ostatnie prawo głosi, że wrażenia mogą tworzyć spostrzeżenie przez wzajemny
kontrast. Człowiek mały wzrostem bywa często uznawany za wielkiego duchem,
nawet wtedy, gdy jego duch nie jest wcale silniejszy niż innych ludzi.
Współwystępowanie wrażeń jest niezbędnym, ale niewystarczającym wa­
runkiem powstania spostrzeżenia. Dopiero wielokrotne łączne występowanie
poszczególnych wrażeń sprzyja powstaniu skojarzenia w postaci spostrzeżenia.
W przeciwnym wypadku ktoś, kto widziałby śnieg tylko kilka razy podczas
kwietniowych wypadów na narty na Kasprowy Wierch, mógłby dokonać
spostrzeżenia, iż biel śniegu jest powiązana z wrażeniem ciepła, a nie zimna.
Najbardziej problematycznym twierdzeniem koncepcji asocjacjonistycznej jest
jednak teza jednoznacznie identyfikująca sumę wrażeń z konkretnym spostrze­
żeniem. Znanym przykładem przemawiającym przeciwko tej tezie jest
spostrzeżenie kostki Neckera (ryc. 7.7). Wrażenia powstające przy oglądaniu
tego sześcianu za każdym razem są takie same, jednak spostrzeżenia mogą być
zupełnie inne, w zależności od tego, na której ścianie - przedniej czy tylnej jako pierwszej zogniskuje się wzrok.
Koncepcja asocjacjonistyczna głosi więc prymat części nad całością oraz
wrażeń nad spostrzeżeniam i, które od wrażeń właśnie są całkowicie
i jednoznacznie zależne. Niezwykle prosty mechanizm powstawania spostrzeże­
nia jako prostej sumy wrażeń, sugerowany przez tę koncepcję, jest całkowicie
oddolny i nie uwzględnia w ogóle roli reprezentacji umysłowych w procesie
percepcji. A przecież fakt braku spostrzeżenia „ciepłego śniegu” na Kasprowym
7.4. Teorie percepcji
301
Ryc. 7.7. Sześciany Neckera. W zależności od tego, które z krawędzi uznamy za bliższe obserwato­
rowi, możemy wyobrazić sobie zupełnie różne interpretacje tego samego układu wrażeń wzrokowych.
Wierchu w kwietniu na równi wynika z rzadkości współwystępowania wrażenia
ciepła i bieli śniegu, jak i z faktu korzystania z trwałych reprezentacji umysło­
wych, czyli wiedzy na temat warunków klimatycznych panujących w polskich
górach na wiosnę.
7.4.2. Teoria postaciowa
Zwolennicy postaciowej koncepcji spostrzegania (Max Wertheimer, Kurt
Koffka, Wolfgang Kohler) jako podstawową przyjęli tezę prymatu całości nad
częścią. Ich zdaniem (np. Wertheimer, 1923) pierwotne są spostrzeżenia, wra­
żenia zaś wtórne, gdyż wynikają z analizy tego, co zostało pierwotnie spostrze­
żone. Całość jest czymś więcej niż sumą części, dlatego sumowaniem wrażeń nie
da się, według psychologów postaci, wyjaśnić procesu percepcji. Prostymi argu­
mentami na rzecz tej tezy są: (1) zjawisko płynnego ruchu pozornego elementów
statycznych (szybko wyświetlane po sobie statyczne obrazy wywołują złudzenie
ruchu, np. w filmie rysunkowym) oraz (2) spostrzeganie konstelacji gwiazd
wcześniej niż elementów składających się na te konstelacje. Drugi z powyższych
argumentów potwierdził empirycznie Navon (1977). Prezentował on osobom
badanym bodźce w postaci liter, które skonstruował z innych liter (por. ryc. 6.4),
polecając wyodrębnić albo literę stanowiącą budulec (spostrzeganie części),
albo literę zbudowaną z innych liter (spostrzeganie całości). W wyniku prze­
prowadzonego eksperymentu wykazał on, że spostrzeganie postaci jest z reguły
szybsze niż spostrzeganie części stanowiących tę postać.
Jeden z najwybitniejszych psychologów postaci, Max Wertheimer (1923),
podał pięć podstawowych zasad, zgodnie z którymi system poznawczy
w procesie spostrzegania wyodrębnia całości (figury) z tła różnorodnych wra­
żeń. Zasady te działają automatycznie, odpowiadając za spontaniczną orga­
nizację elementów w polu spostrzeżeniowym. Autor ten stwierdził, że figurę
tworzą elementy znajdujące się blisko siebie. Bliskość przestrzenna poszcze­
gólnych elementów konstelacji gwiazd decyduje więc o tym, że spostrzegamy
je jako całość, czyli gwiazdozbiór. Zauważył również, że figurę tworzą ele­
302
Rozdział 7. Percepcja
menty jednakowe lub podobne. Gdyby nie podobieństwo, czyli jednakowy
wygląd kartek, ryzę papieru widzielibyśmy jako 500 pojedynczych arkuszy.
Zgodnie z kolejną zasadą Wertheimera, figurę definiuje kontynuacja, inaczej
wspólny ruch obiektów w tym samym kierunku, nawet wyobrażony. Spostrze­
gamy więc korek samochodowy jako całość, a nie jako zbiór pojedynczych
samochodów w różny sposób blokujących nam przejazd. Figurą staje się
również obiekt niedokończony, który w jakiś sposób można „domknąć”; rządzi
tym kolejna reguła, zwana zasadą pregnancji. Z dwóch układów geometrycz­
nych percepcyjnie łatwiej wyodrębnić ten, który tworzy linię zamkniętą
(jest fizycznie domknięty). Jeśli natomiast jakiemuś obiektowi brakuje poje­
dynczej części (np. trójkątowi brak jest jednego wierzchołka), to w procesie
spostrzegania fakt ten jest pomijany: widzimy trójkąt, a dopiero późniejsza
analiza pozwala znaleźć jego niedoskonałości jako figury geometrycznej
(ryc. 7.8). Obserwacje te ujęto w ogólną zasadę dobrej figury. Właśnie ze
względu na tę zasadę tak trudno jest dobrze wykonywać zawód korektora
tekstów: nawet doświadczony redaktor często nie zauważa literówek, mentalnie
uzupełniając błędnie napisane słowo do dobrej figury, jaką jest wyraz napisany
poprawnie.
a) Zasada bliskości: mimo tej samej liczby gwiazdek, po lewej stronie widzimy dwie linie, po prawej sześć
mniejszych odcinków.
^>
]<>;<^ >;«
%
*
^ łji # »¡«# # #
¡5«# >J{
% %#*
»¡i &
b) Zasada podobieństwa: widzimy raczej sześć kolumn niż cztery rzędy.
*
<-
% <■
❖ ^
* < * < * <
* < * < * <
c) Zasada kontynuacji (wspólnej drogi, wspólnego losu): widzimy dwie przecinające się linie, a nie kilkanaście
rozrzuconych w nieładzie krótkich odcinków.
\
i
/
__ ^
"
d) Zasada pregnancji: widzimy trójkąt, mimo że poniższa figura nie jest „domknięta”.
Ryc. 7.8. Zasady percepcji postaci, czyli reguły spontanicznego grupowania się elementów w polu
spostrzeżeniowym, opisane przez psychologów postaci.
7.4. Teorie percepcji
303
I
[
Koncepcja postaciowa sugeruje zatem wyraźną wtómość wrażeń wobec
spostrzeżeń. Parafrazując tytuł publikacji Navona (1977), ludzie z reguły najierw zauważają las, a następnie zdolni są wyodrębnić poszczególne drzewa
tworzące ten las. Niemniej nie brakuje też i takich, którzy wpierw dostrzegają
elementy budujące większą całość, by potem z nich złożyć spostrzeżeniową
postać. Wieloletnie eksperymenty autorów tego podręcznika z udziałem stu­
dentów i studentek I roku psychologii z wykorzystaniem procedury Navona
wyraźnie wskazują, że o ile kobiety szybciej radzą sobie w warunku percepcji
detali, o tyle mężczyźni znacznie szybciej wykonują zadanie, gdy wymaga się od
nich postrzegania całości. Wyniki te sugerują istnienie znacznych różnic
indywidualnych w zakresie ulegania zasadzie prymatu percepcyjnego (części
nad całością lub całości nad częścią), a w konsekwencji pozwalają na konkluzję,
iż obie wyżej opisane strukturalne koncepcje spostrzegania: asocjacjonistyczna
oraz postaciowa, mogą prawidłowo opisywać proces percepcji w zależności od
warunków percepcji oraz indywidualnych cech systemu poznawczego. Ta
ostatnia teza jest zresztą zgodna z piątą zasadą percepcji postaci głoszącą, iż
o tym, czym jest figura, decyduje nastawienie i doświadczenie percepcyjne. Jeśli
podmiot cechuje się analityczno-detalicznym stylem percepcyjnym, wykształco­
nym wskutek wcześniejszych doświadczeń percepcyjnych, to raczej trudno od
niego wymagać, aby proces spostrzegania rozpoczynał od detekcji całościowo
ujmowanego, nadrzędnego obiektu w polu percepcyjnym.
J
7.4.3. Teoria wzorców
;
;
j
| Koncepcja ta zakłada, że proces identyfikacji obiektu przebiega na zasadzie
porównania obrazu percepcyjnego z jego umysłowym wzorcem (template).
O wzorcach porównawczych zakłada się, że są holistycznymi, nie podlegającymi
rozbiciu na elementy składowe, jednostkami (Reed, 1988). Proces porównania
zmierza do pomiaru wielkości korespondencji (zgodności) pomiędzy zarejes­
trowanym obrazem bodźca a jego odpowiednikiem przechowywanym w magaI zynie pamięci trwałej (Anderson, 1995). Obiekt zostaje rozpoznany jako ten
: wzorzec, który w największym stopniu pasuje do obrazu zarejestrowanego
bodźca (best match) . Miarą umożliwiającą rozpoznanie jest stopień pokrywania
; się (przystawania) obrazu percepcyjnego i wzorca (Reed, 1988).
Stosowanie w procesie identyfikacji obiektów takiej miary, jak stopień
i pokrywania się porównywanych obiektów, jest jednak bardziej problematyczne
j niż użyteczne. Po pierwsze, porównanie może zachodzić tylko w przypadku, gdy
; obiekt porównywany do wzorca znajduje się w naturalnej (takiej jak zwykle)
i pozycji percepcyjnej. Zgodnie z prawem rotacji mentalnych (zob. rozdz. 2.2)
identyfikacja obiektu transformowanego o pewien kąt rotacji wymaga jego
przekształcenia do pozycji naturalnej. Im większy jest kąt rotacji, tym dłużej
trwa poprawna identyfikacja obiektu. Po drugie, zróżnicowanie w zakresie
obrazów percepcyjnych tego samego obiektu (widzianego np. z różnych punk­
tów obserwacji) jest tak duże, że żaden konkretny wzorzec nie jest w stanie
; objąć takiego zróżnicowania. Konkretność i holizm wzorca porównawczego
wyklucza możliwość elastycznego dostosowania się nawet wtedy, gdy różnice
; w przystawaniu obrazu percepcyjnego i jego wzorca są niewielkie. Znakomicie
304
Rozdział 7. Percepcja
ilustruje ten problem przykład automatu bankowego. Realizuje on transakcję
tylko w przypadku 100% zgodności obrazu karty bankomatowej konkretnego
właściciela i wzorca tej karty, który przechowuje w swojej pamięci. Nawet
minimalne uszkodzenie karty, polegające np. na zmniejszeniu wypukłości jednej
z cyfr jej numeru powoduje, iż nie jest ona rozpoznawana przez bankomat,
a transakcja nie może być zrealizowana. Zgodnie z tą teorią niewielka różnica,
odstępstwo od wzorca, zaniedbywana na poziomie rejestracji sensorycznej,
uniemożliwia identyfikację bodźca. Po trzecie wreszcie, omawiana koncepcja
nie wskazuje na sposób, w jaki różnią się od siebie poszczególne wzorce. Jedyne,
co można stwierdzić w ramach teorii modeli, to fakt braku przystawania
poszczególnych wzorców do siebie, ale stopień tej nieprzystawalności jest tak
samo niewymierny, jak niewymierne są możliwe odstępstwa od pokrywania się
obrazu percepcyjnego i jego wzorca.
Mimo powyższych problemów, teoria wzorca okazuje się użyteczną kon­
cepcją rozpoznawania obiektów w pewnych szczególnych warunkach percepcyjnych. Phillips (1974) prezentował osobom badanym tabele, w których część
cel (rubryk) była całkowicie wypełniona, a część pozostawała pusta (pola wy­
pełnione i puste umieszczano w tabeli losowo). Następnie, po upływie pewnego
czasu, uczestnikom eksperymentu prezentowano ponownie tabelę (tę samą lub
inną) z pytaniem, czy jest ona identyczna, czy różna od uprzednio pokazywanej.
Druga tabela mogła być prezentowana albo dokładnie w lokalizacji pierwszej,
albo w lokalizacji przesuniętej horyzontalnie o jedną celę (rząd) tabeli. Pre­
zentacja bodźca porównawczego była opóźniona - w tym miejscu zostaną
uwzględnione w opisie wyników opóźnienia jedynie w zakresie od 20 do 600 ms.
W wyniku badań Phillips wykazał, że jeśli bodźce były prezentowane w tej samej
lokalizacji przestrzennej, to poprawność wykonania zadania przez badanych
malała jako funkcja czasu opóźnienia prezentacji bodźca porównawczego. Przy
opóźnieniu większym niż 300 ms ta sama lokalizacja przestrzenna dwóch tabel
nie pomagała istotnie w procesie porównywania. Natomiast w przypadku różnej
lokalizacji bodźca zapamiętywanego i porównywanego, czas opóźnienia nie miał
żadnego znaczenia dla bardzo niskiej poprawności wykonania zadania przez
badanych.
Powyższe wyniki Reed (1988) wyjaśnia zasadami funkcjonowania maga­
zynu ikonicznego (zob. rozdz. 7.2.2). W magazynie tym informacja wizualna jest
kodowana sensorycznie w postaci całościowego obrazu. Zapis ten ulega bardzo
szybkiej degradacji, z jednej strony, wskutek nietrwałości kodu percepcyjnego,
a z drugie strony, z następstwa kolejnych obrazów percepcyjnych. Zgodnie zaś
z wynikami badań Sperlinga (1960), jeśli narząd wzroku zostanie zmuszony do
kolejnej, szybkiej fiksacji na kolejnym bodźcu, informacje dotyczące po­
przedniej fiksacji ulegają całkowitemu wyparciu. Tak działo się w przypadku,
gdy prezentacja jednej tabeli bodźców następowała bardzo szybko po przed­
stawieniu innej. Inaczej dzieje się jednak, jeśli w punkcie fiksacji zostanie
zaprezentowany po raz drugi ten sam bodziec. Wtedy poprawność porównania
dwóch obrazów (bodźca do zapamiętania i bodźca porównawczego) jest uza­
leżniona od trwałości magazynu ikonicznego, a ta - jak wiadomo - zmniejsza się
wraz z czasem przechowywania informacji. Dlatego poprawność wykonania
w warunku tej samej lokalizacji jest tym lepsza, im krótszy czas opóźnienia
prezentacji bodźca porównawczego.
7.4. Teorie percepcji
305
Można zatem stwierdzić, że koncepcja identyfikacji obiektów przez porów­
nywanie całościowych obrazów percepcyjnych i umysłowych jest możliwa do
zaakceptowania w zasadzie tylko na poziomie recepcji sensorycznej. Rzeczy­
wiście, informacja przechowywana w magazynach sensorycznych, zdaje się mieć
holistystyczny charakter, a wobec braku możliwości wyodrębnienia poszczegól­
nych właściwości tego typu reprezentacji na poziomie sensorycznym porówny­
wanie ich ze sobą może dotyczyć tylko całości. Jak się jednak wydaje, na dal­
szych etapach procesu spostrzegania dochodzi do wyodrębnienia poszczegól­
nych cech obiektów. Ich porównanie dokonuje się raczej dzięki analizie wy­
odrębnionych właściwości, a nie sprawdzania przystawania poszczególnych
odzwierciedleń względem siebie. Takie też rozwiązanie proponuje koncepcja
cech.
7.4.4. Teoria cech
[
\
;
;
i
|
;
|
|
[
;
i
I
i
L
j
\
\
i
f
;
:
i
j
[
Zasadniczym problemem teorii modeli jest wyżej wskazana niewielka trwałość
danych przechowywanych w magazynach informacji sensorycznej. Tylko w przypadku, gdy proces identyfikacji obiektu trwa bardzo krótko, system poznawczy
może polegać* wyłącznie na zakodowanych w wyniku rejestracji zmysłowej
obrazach sensorycznych. Proces ten wymaga jednak coraz więcej czasu, w miarę
jak wzrasta liczba potencjalnych kategorii umysłowych, do których można zaliczyć przetwarzane dane zmysłowe (Posner, Mitchell, 1967; zob. rozdz. 7.2.2).
Jednocześnie, dalsze przetwarzanie tych danych polega na wyróżnianiu ich
dystynktywnych właściwości przez zespoły komórek zwane detektorami cech
(zob. rozdz. 7.2.1). Stąd można wnosić, że w procesie identyfikacji obiektów,
przebiegającym w dłuższej perspektywie czasowej, rozpoznanie opiera się nie na
analizie całościowego obrazu sensorycznego obiektu, ale jest dokonywane na
podstawie analizy szczególnie dystynktywnych właściwości tych obiektów
i porównania tychże właściwości z cechami reprezentacji umysłowych obiektów
tej samej kategorii umysłowej.
Gibson (1969) stwierdziła, że nabywanie wzorcowych reprezentacji umy­
słowych odbywa się w procesie spostrzegania dystynktywnych cech (;features),
pozwalających odróżnić jeden wzorzec od drugiego. Zaproponowała ona cztery
zasady, zgodnie z którymi wyróżniane są w procesie spostrzegania takie właśnie
cechy kryterialne. Gibson zauważyła (zasada pierwsza), że cecha kryterialna
musi przyjmować różne wartości dla różnych wzorców. Taką właściwością dla
liter wydaje się np. ich wysokość, pozwalająca odróżnić choćby litery: „d”, „s”
i „p”. Konkretna wartość cechy kryterialnej przypisana konkretnemu modelowi
powinna, według Gibson (zasada druga), pozostać niezmienna niezależnie od
punktu i właściwości obserwacji (jasność, wielkość i perspektywa). W ten
sposób litera „d” pozostaje zawsze wyższa niż litera „s”, niezależnie od rodzaju
użytej czcionki (pod warunkiem, że tej samej dla obu liter). Gibson stwierdziła
również (zasada trzecia), że wszystkie cechy kryterialne powinny razem (mechanizm integracji cech w obiekt - zob. rozdz. 5.2.2) układać się w unikatowy
wzorzec - żadne dwa różne wzorce nie mogą się charakteryzować kombinacją
tych samych cech kryterialnych. Litery „d” i „b” mają mnóstwo cech wspólnych,
takich jak np. wysokość, „brzuszki” itd. jednak ich różna orientacja prze­
306
Rozdział 7. Percepcja
strzenna w zestawieniu z tymi wspólnymi właściwościami gwarantuje ich
rozróżnialność. Jako ostatnią, czwartą zasadę wyodrębniającą cechy kryterialne
Gibson przyjęła, że liczba cech kryterialnych powinna być relatywnie mała.
W przeciwnym razie proces identyfikacji obiektu przebiegałby bardzo długo,
a przecież mamy wrażenie, że przebiega bardzo szybko (np. czytanie liter czy też
rozpoznawanie twarzy).
Zgodnie z teorią modeli prawidłowa decyzja o tym, że dwa obiekty nie są
egzemplarzami tego samego wzorca, nie powinna zależeć od stopnia podo­
bieństwa obu porównywanych bodźców. Wystarczy drobne nieprzystawanie
porównywanych obrazów sensorycznych, by podjąć szybką decyzję. Natomiast
zgodnie z teorią cech, szybkość podejmowania decyzji o różności obiektów
zależy od proporcji liczby cech wspólnych i kryterialnych. W eksperymencie
Gibson, Shapiro i Jonas (1968) osoby badane porównywały litery. Decyzja
0 różności liter „G” i „W” zapadała bardzo szybko, a czas jej podjęcia wyniósł
średnio 458 ms. Uczestnicy tego badania potrzebowali średnio aż 113 ms więcej
(czyli 571 ms), aby prawidłowo ocenić różność liter „P” i „R”. Czas decyzji
okazał się rosnącą funkcją podobieństwa obu porównywanych obiektów pod
względem cech kryterialnych. Wynik ten wyraźnie wskazuje na niekorzyść teorii
modeli i na słuszność koncepcji cech w odniesieniu do bodźców prezentowa­
nych aż do momentu ich identyfikacji. Townsend (1971) również prezentował
badanym litery do porównania, jednak swoją prezentację przeprowadzał bardzo
szybko z wykorzystaniem tachistoskopu, aby być pewnym, że prezentowane
bodźce trafiają do magazynu ikonicznego. Okazało się, że badani popełniali
relatywnie dużą liczbę błędów. Co więcej, liczbę i rodzaj błędów (litery uzna­
wane za podobne mimo swej różności) przy krótkiej prezentacji udawało się
lepiej przewidzieć na podstawie koncepcji modeli (korelacja: błędy oczekiwane
- błędy stwierdzone wyniosła aż 0,70), niż na podstawie koncepcji cech (ana­
logiczna korelacja tylko 0,50).
Powyższe wyniki wskazują na komplementarność obu koncepcji: modeli
1 cech, w wyjaśnianiu procesu identyfikacji obiektów. Przy krótkiej prezentacji
i braku czasu na wyodrębnianie cech kryterialnych, system poznawczy kieruje
się w procesie spostrzegania zarejestrowanym, całościowym obrazem sensorycz­
nym i odpowiadającymi mu obrazowymi modelami umysłowymi. Proces iden­
tyfikacji obiektów ma bowiem charakter próby dopasowania właśnie zareje­
strowanych danych zmysłowych do trwałych obrazów umysłowych. Porównanie
to ma charakter całościowy i często - na skutek pomijania małych różnic (ela­
styczność modeli) - prowadzi do błędów identyfikacji. Przy długiej prezentacji
system poznawczy ma wystarczająco dużo czasu na wyodrębnienie cech kry­
terialnych i porównywanie obiektów poprzez szczegółową ich analizę pod kątem
tychże właściwości. Tego typu identyfikacja jest procesem trwającym dłużej, ale
prowadzi do bardziej poprawnych rozróżnień. Podkreślić warto, iż roz­
poznawanie obiektów jest złożonym procesem umysłowym, do którego stosuje
się podstawowa zasada funkcjonowania umysłu, wykorzystywana również przy
detekcji prostych sygnałów, tj. zasada przetargu między szybkością a popraw­
nością (zob. rozdz. 5.2.1). Szybka, ale mało poprawna identyfikacja na podsta­
wie zestawiania modeli sensorycznych i umysłowych, oraz wolna, ale dokładna
identyfikacja na podstawie analiz zestawów cech kryterialnych, są dwoma
alternatywnymi sposobami rozpoznawania złożonych bodźców peręepcyjnych.
7.4. Teorie percepcji
307
7.4.5. Teoria obliczeniowa
i
;
i
■
I
I
i
i
I
i
j
i
:
j
I
:
j
;
j
j
:
|
Zdaniem Davida Marra (1982), proces spostrzegania polega na generowaniu
pewnej serii reprezentacji spostrzeganego środowiska. Reprezentacje te zawiera­
ją opis właściwości obiektów obecnych w polu percepcyjnym. Wśród wielu
różnych form odzwierciedleń percepcyjnych Marr wyróżnił jednak tylko trzy,
oznaczając je: 2D, 2V2D oraz 3D, gdzie D oznacza wymiar, a cyfra go poprze­
dzająca - liczbę wymiarów uwzględnianych w reprezentacji umysłowej. Pier­
wotne reprezentacje (primal sketch; 2D) przynoszą opis pola wzrokowego jako
dwuwymiarowego obrazu, a odzwierciedlenie to pozbawione jest percepcji głębi.
Taka reprezentacja jest możliwa dzięki strukturalnie najprostszym detektorom
cech, zlokalizowanym w komórkach zwojowych siatkówki. Wychwytują one dzięki analizie natężenia światła odbijanego czy też emanowanego przez
postrzegane obiekty - jedynie takie właściwości stymulacji, jak krawędzie, kontury, linie i powierzchnie barwne obiektów. Możliwość wyróżnienia krawędzi
figury (jej kształtu) zawdzięczamy temu, że oddziela ona dwa obszary o różnej
luminacji światła. Efekt ten został nazwany zjawiskiem przechodzenia przez
krawędź (zero-crossing; Marr, Hildreth, 1980). Natomiast powierzchnie zostają
wyodrębnione przez otaczające je krawędzie oraz przez intensywność światła
przez nie odbijanego, związanego z ich naturalną barwą.
Marr (1976) podzielił jeszcze pierwotne reprezentacje na surowe (raw)
i pełne (fuli). Pierwsze stanowią jedynie mapę punktów świetlnych (pixels; tj.
picture elements), różniących się intensywnością, podczas gdy drugie - czyniąc
użytek z informacji zawartych w danych surowych - odzwierciedlają kształty
obiektów w polu wzrokowym. Ze względu na to, że natężenie światła w po­
szczególnych punktach świetlnych zmienia się nieustannie, surowe reprezentacje pierwotne są tworzone nieustannie, a pełna reprezentacja pierwotna jest
efektem przefiltrowania wielu odzwierciedleń surowych. Nałożony na mapy
punktów świetlnych filtr pozwala wyeliminować chwilowe fluktuacje w inten­
sywności światła (związane np, ze zmianą kąta widzenia czy opadającym na
obiekty cieniem), utrudniające spostrzeganie właściwych kształtów obiektów.
Jako kolejna w procesie spostrzegania tworzy się reprezentacja 2x/2-wymiarowa (21/ 2D). Odzwierciedlenie to uwzględnia opis obiektów w kategoriach
głębi (perspektywy przedmiotu) oraz obrazu powierzchni (strona widoczna).
Podobnie jak w przypadku reprezentacji pierwotnych, także i to odzwierciedle­
nie jest zależne od punktu obserwacji. Jest ono jednak konstruowane już nie
tylko z informacji pochodzących od receptorów wzrokowych, ale również
z uwzględnieniem wskazówek wizualnych, będących efektem trwałej wiedzy
dotyczącej świata zewnętrznego oraz fizjologicznych mechanizmów funkcjonowania narządu wzroku. Dzięki wskazówkom jednoocznym i dwuocznym
możliwa jest percepcja absolutnego i względnego dystansu między obiektami.
Zróżnicowanie w zakresie dystansu pozwala* na wychwycenie charakterystyki
powierzchni spostrzeganych obiektów.
Argumentów na rzecz odrębności w procesie spostrzegania reprezentacji
2D oraz 2 V2D dostarczyły analizy możliwości percepcyjnych pacjenta S
(Benson, Greenberg, 1969). Badany ten, z jednej strony, potrafił rozpoznawać
małe zróżnicowania w zakresie jasności obiektów czy też wychwytywać ruch
przedmiotów w polu wzrokowym. Z drugiej jednak strony, nie był w stanie
308
Rozdział 7. Percepcja
porównywać ani kopiować kształtu figur geometrycznych. Zdaniem Eysencka
i Keane’a (1995) świadczy to na korzyść tezy, iż S był w stanie korzystać z re­
prezentacji pierwotnych (z pewnością z ich formy surowej, z dużym prawdo­
podobieństwem z formy pełnej), jednak zaburzeniu uległ u niego proces
przekształcania reprezentacji pierwotnych w reprezentacje 2 V2-wymiarowe.
Przetwarzanie informacji dotyczących kształtu - jak wynika z tego przypadku jest konieczne dla stworzenia reprezentacji głębi i powierzchni przedmiotu.
Jednocześnie badacze zauważyli, że S potrafił korzystać z trwałych umysłowych
reprezentacji obiektów znajdujących się w polu wzrokowym, jeśli uruchomienie
pełnego odzwierciedlenia prezentowanych mu przedmiotów nie odbywało się za
pośrednictwem zmysłu wzroku. Wskazówki słuchowe lub dotykowe umożli­
wiały pacjentowi S dokonanie semantycznej i leksykalnej klasyfikacji spostrze­
ganych bodźców. Jeśli jednak musiał ograniczyć się jedynie do percepcji
wzrokowej, identyfikacja obiektu przekraczała jego możliwości. Jak się więc
wydaje, reprezentacja 2 */2D jest koniecznym etapem pośrednim w tworzeniu
ostatecznej reprezentacji trójwymiarowej (3D), jeśli spostrzeżenie tworzy się
wyłącznie na podstawie informacji wizualnych. Dzięki różnorodności narządów
zmysłów możliwe jest skonstruowanie pełnej, trójwymiarowej reprezentacji
percepcyjnej obiektu bez korzystania ze zmysłu wzroku. To zapewne dlatego
niewidomi od urodzenia, poznający kształty figur jedynie zmysłem dotyku,
ulegają efektowi rotacji mentalnych (Marmor, Zaback, 1976; zob. rozdz. 2.2),
który - jak się wydaje - jest nieodłącznie związany z przetwarzaniem re­
prezentacji obrazowych.
Odzwierciedlenia 3D są, zdaniem Marra (1982), ostatecznym produktem
procesu percepcji. Reprezentacje tego typu uwzględniają pełny trójwymiarowy
obraz obiektów w polu wzrokowym (łącznie ze stroną niewidoczną dla oka),
niezależny od lokalizacji punktu obserwacji, a co za tym idzie - niezależny
również od kąta obserwacji. Układy komórek nerwowych, odpowiedzialne za
ich konstrukcję, znajdują się już w korze wzrokowej. Mają one bogate
połączenia z tymi obszarami mózgu, które odpowiadają za trwałe przechowy­
wanie wiedzy o świecie. Marr i Nishihara (1978) zaproponowali trzy kryteria
wyróżniające reprezentacje 3D. Zgodnie z pierwszym kryterium, odzwierciedle­
nia te muszą być łatwo dostępne i łatwo konstruowalne (tak łatwo, jak dostępna
jest trwała wiedza na temat obiektów, które reprezentują). Według drugiego
kryterium, muszą one być niezależne od możliwego kształtu obiektu widzianego
z różnych perspektyw (np. reprezentacja wizualna twarzy musi być niezależna
od tego, czy jest widziana z lewego, czy też z prawego profilu). Trzecie kryterium
stanowi, że reprezentacje 3D muszą być elastyczne, aby zdolne były dopuszczać
niewielkie rozbieżności w widoku obiektu z różnych perspektyw.
Badania nad niezależnością reprezentacji 2 1/ 2D i 3D przeprowadzili
Warrington i Taylor (1978). Uczestniczący w nich pacjent potrafił identyfikować
obiekt na pokazywanych mu zdjęciach na podstawie analizy jego kształtu. Jeśli
jednak pokazywano mu zdjęcie znanego przedmiotu w niezwykłej rotacji (np.
żelazka w rzucie od strony uchwytu), nie był w stanie prawidłowo rozpoznać
obiektu. Jak sugerują Eysenck i Keane (1990), u tego pacjenta funkcjonowanie
reprezentacji 2 1/ 2D nie było zaburzone, jednakże pełna trójwymiarowa
reprezentacja wizualna spostrzeganego środowiska pozostawała poza jego za­
sięgiem.
7.4. Teorie percepcji
i
Ę
l
j
I
i
E
309
Nad odzwierciedleniami 3D pracowali również Marr i Nishihira (1978).
Stwierdzili oni, że subsystemy niezbędne do konstrukcji odzwierciedleń 3D
mają postać walców, obracających się wokół trzech podstawowych osi układu
współrzędnych w przestrzeni. W zależności od wymaganej precyzji spostrzega­
nia, postać człowieka może być reprezentowana wizualnie albo przez odcisk
figury w ramach pojedynczego walca, albo przez sześć uformowanych walców,
odpowiadających dwóm nogom, dwóm rękom, głowie i korpusowi, albo też
przez bardzo wiele walców różnych wielkości, przy czym każdy odzwierciedlał­
by szczegóły anatomiczne poszczególnych kończyn, czy wręcz narządów.
Podział obiektu na poszczególne części przedstawione za pomocą różnej
wielkości walców byłby w tym przypadku możliwy dzięki detekcji wklęsłości
(concavities). Informacja o zróżnicowaniach w zakresie powierzchni figury
(wklęsłościach i wypukłościach) jest już bowiem dostępna na poziomie re­
prezentacji 2V2D. Tam prawdopodobnie zapada więc decyzja o liczbie elemen­
tów obiektu odzwierciedlanych w formie walców 3D. Kontynuując badania nad
formą reprezentacji 3D, Hoffman i Richards (1984) wykazali, że twarze wy­
raźnie zarysowane (dzięki wklęsłościom pomiędzy wypukłymi elementami, jak
np. nos, brwi, podbródek) są łatwiej rozpoznawane niż twarze, w których przypadku charakterystyczne elementy są „wtopione” w powierzchnię („buzia jak
księżyc w pełni”). Propozycję Marra i Nishihiry rozwinął Biederman (1987),
sugerując jednak, że reprezentacje 3D są konstruowane z różnych przestrzennych form podstawowych. Wyróżnił on 36 takich możliwych form geometrycz­
nych - geonów (zob. rozdz. 7.2.4).
Teoria obliczeniowa Marra (1982), tak nazwana ze względu na ambicje
autora, aby wykorzystać ją do modelowania komputerowego, znajduje swoje
potwierdzenie w różnorodnych danych. Z jednej strony potwierdzają ją dane
psychofizyczne, dotyczące funkcjonowania narządu wzroku oraz sposobu
rejestracji natężenia iluminacji obiektów w polu percepcyjnym, z drugiej zaś,
teoria ta znajduje mocne potwierdzenie w badaniach psychofizjologicznych,
dotyczących zróżnicowań strukturalnych i funkcjonalnych wśród detektorów
cech na wstępującej drodze czuciowej. Zgodne są też z nią wyniki badań
psychologicznych z udziałem pacjentów klinicznych, którzy - cierpiąc na
różnorodne deficyty w zakresie układu nerwowego - borykają się z trudnościa­
mi w zakresie konstrukcji poszczególnych wizualnych reprezentacji obiektów
w polu percepcyjnym. Teoria obliczeniowa jest koncepcją zakładającą, iż
spostrzeganie to proces dwukierunkowy. Wychodząc od danych zmysłowych
nie może być w pełni realizowane bez danych pamięciowych. Pewnym ogra­
niczeniem koncepcji Marra jest natomiast jej odniesienie tylko do percepcji
wzrokowej.
7.4.6. Teoria ekologiczna
Według Jamesa Gibsona (1979), otaczającą nas rzeczywistość poznajemy bez­
pośrednio, bez konieczności posługiwania się danymi pamięciowymi dotyczą­
cymi spostrzeganych obiektów. Głosi on więc ideę bezpośredniego poznania,
sprzeczną w zasadzie z podstawowymi założeniami psychologii poznawczej,
zgodnie z którymi umysł aktywnie konstruuje wewnętrzną reprezentację
310
Rozdział 7. Percepcja
poznawanej rzeczywistości (Bruner, 1957). Jego koncepcja jest więc przykładem
oddolnego podejścia do procesów spostrzegania. W odniesieniu do recepcji
sensorycznej Gibson (1950) zgadza się w zasadzie z innymi badaczami procesu
spostrzegania, według których informacje docierają do receptorów w szyku
optycznym (optic array), uporządkowanym ze względu na intensywność światła
odbijanego od poszczególnych obiektów, a fotoreceptory rejestrują natężenie
światła, przyczyniając się do powstania obrazu spostrzeganych obiektów na
siatkówce. Tu jednak podobieństwa koncepcji ekologicznej i obliczeniowej się
kończą.
Gibson (1966) twierdzi bowiem, że poszczególne właściwości obiektów
w polu wzrokowym są wykrywane bezpośrednio - nie jest zatem, jego zdaniem,
potrzebny cały ciąg reprezentacji w celu detekcji cech lub funkcji przedmiotów,
a przetwarzanie informacji zgromadzonej w receptorach ma minimalny zakres.
Złożoną właściwością bezpośrednio daną w percepcji jest np., według Gibsona,
absolutny dystans obserwatora względem spostrzeganego obiektu. Cecha ta jest
dostępna na podstawie analizy gradientu struktury powierzchni (texture
gradient). Obiekty widziane z daleka mają tę strukturę mniej skomplikowaną,
a intensywność światła odbijanego przez taką powierzchnię jest mniej zróż­
nicowana dla fotoreceptorów oka. Różnica pomiędzy koncepcją obliczeniową
a ekologiczną jest zatem widoczna już na poziomie reprezentacji percepcyjnych kształtów. Marr uważa, że detekcja głębi i struktury powierzchni wyma­
ga skomplikowanych przekształceń mapy punktów świetlnych na poziomie
reprezentacji 21/ 2D, natomiast Gibson twierdzi, że właściwości te są dane bez­
pośrednio w postrzeganiu w postaci różnic w intensywności rejestrowanego
światła.
W przypadku obiektów odległych różnice te są jednak minimalne. Dlatego,
zdaniem Gibsona (1979), percepcja ma charakter motoryczny. Poruszanie się
obserwatora w polu wzrokowym pozwala na precyzyjne uchwycenie właści­
wości absolutnego i względnego dystansu wobec obiektów. Obiekty położone
dalej lub też lokalizowane poza kierunkiem ruchu przybliżają się/oddalają się
znacznie wolniej niż obiekty położone bliżej. Zjawisko paralaksy ruchowej
umożliwia więc prostą detekcję głębi i dystansu. Gibson (1950) wykazał to,
analizując zachowanie pilotów samolotów bojowych podchodzących do
lądowania. Ruch obiektów jest zresztą, jego zdaniem (i nie tylko; zob. rozdz.
5.2.2), właściwością priorytetową obiektów w polu wzrokowym. Cecha ta jest
rejestrowana przez specjalny rodzaj receptorów w ramach zmysłu wzroku, tj.
prioreceptory.
Motoryczny charakter percepcji pozwala także na wykrycie dwóch
rodzajów właściwości pola percepcyjnego wyższego rzędu: (1) niezmienników
(invariants) inaczej - stałości), tj. właściwości pola, które nie zmieniają się wraz
ze zmianą punktu obserwacji oraz (2) zmienników (transpositions), czyli cech,
które tym zmianom podlegają. Z punktu widzenia przebiegu procesu percepcji
ważne są zwłaszcza niezmienniki. Gibson (1979) zdefiniował niezmiennik jako
pewną liczbę własności pola percepcyjnego, która zmienia się regularnie
i zgodnie z pewnymi prawami wraz ze zmianą punktu obserwacji. Podstawą
do wykrycia niezmienników jest zatem zmieniająca się perspektywa. Inaczej
jeszcze można niezmienniki określić jako „rzutowane” (niezależne od dystansu
absolutnego) właściwości obiektów. Ta sama lokomotywa widziana z bliska
7.4. Teorie percepcji
311
i z daleka będzie miała te same właściwości w rzucie, obojętne czy tran­
sformowana do rzutu jest lokomotywa widziana z daleka czy z bliska. Wynika to
z faktu iz wzajemne proporcje między obiektami (np. lokomotywa i otoczeniem)
są stałe i niezależne od odległości punktu obserwacji. Złudzenia percepcyjne,
według Gibsona, są wynikiem unieruchomienia obserwatora w jednym punkcie
obserwacyjnym i przez to odebrania mu możliwości przyjrzenia się obiektowi
z różnych perspektyw, tak aby możliwe było wykrycie stałości w analizowanej
sytuacji percepcyjnej. Na przykład tzw. złudzenie Amesa polega na widzeniu
trapeizodalnego w istocie pokoju jako prostokątnego. Złudzenie natychmiast
znika, gdy obserwatorowi pozwoli się wejść do wnętrza i poruszać po tak
zbudowanym pokoju (Gehringer, Engel, 1986).
Percepcja wynika więc, zdaniem Gibsona, z wyuczonej umiejętności. Róż­
nych niezmienników, korygujących błędny obraz na siatkówce, system poznawczy
uczy się przez całe życie. Gordon (1989) słusznie zauważył, iż - według autora
ekologicznej koncepcji spostrzegania - nauka ta polega na nabywaniu wprawy
przez mechanizmy selektywnej uwagi odnośnie do tego, na co należy nakierowywać percepcję. Dlatego ten sam zestaw bodźców może być inaczej spostrzegany
w różnych okresach życia człowieka, w zależności od jego wprawy w spostrze­
ganiu. Ci, którzy nigdy nie mieli okazji obserwować pod różnymi kątami widzenia
kolumn greckich, prawie zawsze ulegają złudzeniom optycznym, wykrywając po­
zorną boczną wypukłość. Złudzeniu temu można zapobiec, wprawiając obserwa­
tora w ruch zbliżający/oddalający od obserwowanego obiektu (tu: kolumny). Ci,
którzy dzięki ruchowi własnemu już raz wykryli niezmiennik dotyczący greckiej
proporcji w architekturze kolumn, są w stanie skorygować wrażenia sensoryczne
odbierane przez receptory, dzięki informacji zwrotnej pochodzącej z mózgu.
Ale w jaki sposób teoria ekologiczna radzi sobie z problemem klasyfikacji
semantycznej w procesie identyfikacji obiektów? Gibson (1979) twierdzi, że nie
tylko cechy percepcyjne (takie jak np. absolutny dystans) są dane w bez­
pośrednim spostrzeganiu obiektów. Także cechy związane ze znaczeniem,
a przede wszystkim funkcje spostrzeganych obiektów, są bezpośrednio spo­
strzegane. Percepcyjnie, według Gibsona, dane są więc również afordancje, czyli
„akty lub zachowania, których wykonanie umożliwiają nam pewne obiekty,
miejsca lub zdarzenia” (Michaels, Carello, 1985, s. 42). W spostrzeżeniu drabiny
zawarta jest możliwość wspinania się po niej, a w percepcji krzesła możliwość
siedzenia na nim. Afordancje są również dane w postrzeganiu bardziej
złożonych obiektów. Zdaniem Gibsona (1979, s. 139), spostrzeżenie skrzynki
pocztowej zawiera w sobie również afordancję możliwości wysłania listu do
innego członka tej samej społeczności (ciekawe, że tylko do takiego, który
odpisuje na listy; to letter-writting human in a community with postał system).
Zasadniczym problemem teorii Gibsona jest fakt, iż spostrzeganie
niezmienników i wykorzystywanie informacji zwrotnej, pochodzącej z mózgu,
w celu korygowania danych wzrokowych, pochodzących z obrazu na siatkówce,
wydaje się procesem poznawczym, wymagającym przetworzenia dość dużych
porcji informacji w jednym momencie czasu. Tymczasem, jak pokazała to
Gregory (1970), mózg jest w stanie akceptować informacje z pola wzrokowego
w bardzo wolnym tempie - ok. 12 bitów na 100 ms. Kwestią trudną do
wyjaśnienia jest również fakt, iż, z jednej strony, Gibson traktuje postrzeganie
jako proces oddolny, a z drugiej strony, jako proces korygowany odgórnie przez
312
Rozdział 7. Percepcja
trwale wyuczone niezmienniki. W zasadzie można chyba uznać, że ekologiczna
koncepcja spostrzegania jest również koncepcją dwukierunkową percepcji, zaś
różnica między teorią obliczeniową a stanowiskiem reprezentowanym przez
Gibsona polega na odmiennym przekonaniu odnośnie do tego, co odgórnie ma
wpływ na kształtowanie się spostrzeżenia (trwałe reprezentacje czy stałości
percepcyjne). Ważnym wkładem Gibsona do teorii spostrzegania jest natomiast
stwierdzenie, że bodziec wzrokowy zawiera w sobie więcej informacji niż się
wydaje, zwłaszcza przy statycznej jego obserwacji. Wprawienie obserwato­
ra w ruch pozwala łatwo wykryć wiele właściwości pola wzrokowego i obiektów
w nim prezentowanych, właściwości, których wykrywanie jest przez inne kon­
cepcje percepcji traktowane jako złożony proces realizowany na górnych
piętrach przetwarzania.
7.5. Proces spostrzegania w praktyce
7.5.1. Spostrzeganie twarzy
Twarz jest bodźcem specyficznym w procesie percepcji i identyfikacji obiektów
(DeRenzi, 1986; Ohme, 2003). Wskazują na to badania pacjentów chorych na
prozopagnozję. Nie są oni zdolni do rozpoznawania twarzy innych ludzi, a nawet
czasami swojej własnej - widzianej w lustrze. Jednocześnie nie mają jednak
żadnych trudności w rozpoznawaniu innych obiektów, a także kłopotów z iden­
tyfikacją osób na podstawie wskazówek innych niż wizualne (głos, dotyk lub
imię osoby). Wyniki, dotyczące deficytów przejawianych przez pacjentów cho­
rych na prozopagnozję, interpretowano na korzyść tezy o wymaganej przez
proces percepcyjny większej precyzji w zakresie rozpoznawania twarzy niż roz­
różniania innych obiektów. DeRenzi (1986) wykazał jednak, że pacjenci cier­
piący na prozopagnozję potrafią znakomicie rozróżniać obiekty różniące się
niewielką liczbą cech kryterialnych (np. monety włoskie i inne), nadal nie radząc
sobie z procesem identyfikacji zróżnicowanych pod względem wyglądu twarzy.
Jak się więc wydaje, proces spostrzegania twarzy nie jest po prostu skom­
plikowanym procesem rozpoznawania obiektów, skomplikowanym ze względu
na złożoność identyfikowanego obiektu, ale jest jakościowo swoistym innym niż
rozpoznawanie pozostałych obiektów, procesem percepcyjnym. Argumentów na
korzyść takiego stanowiska dostarczyli Sergent, Ohta i MacDonald (1992).
Wykazali oni, że aktywność mózgu w przypadku rozpoznawania twarzy jest
znacznie większa niż w przypadku rozpoznawania innych obiektów. Co więcej,
w przypadku rozpoznawania twarzy i innych obiektów badacze ci zauważyli
jakościowe różnice w aktywności prawej półkuli mózgowej. Półkula ta wydaje
się szczególnie ważna dla procesu identyfikacji twarzy, jako że jej uszkodzenia
charakteryzują właśnie pacjentów z prozopagnozją.
Dlatego też Farah (1992) argumentuje na rzecz istnienia dwóch niezależ­
nych subsystemów rozpoznawania obiektów. Pierwszy z nich miałby charakter
analityczny i rozpoznawałby obiekty przez ich dekompozycję do postaci listy
cech kryterialnych. Drugi miałby charakter holistyczny - identyfikacja obiektów
odbywałaby się w nim przez zestawienie obrazów sensorycznych z umysłowymi.
7.5. Proces spostrzegania w praktyce
313
System analityczny, jego zdaniem, odpowiadałby za rozróżnianie zwykłych
obiektów w polu wzrokowym, zaś system holistyczny - obiektów specjalnych,
właśnie takich jak np. twarze. Dodajmy, że pierwszy z wymienionych systemów
funkcjonowałby zgodnie z założeniem teorii cech, zaś drugi - zgodnie z zało­
żeniem koncepcji modeli. Poglądy na temat rozpoznawania twarzy dobrze
ilustrują spór pomiędzy koncepcjami modeli i cech dotyczący mechanizmu
rozpoznawania obiektów.
W koncepcjach modeli przyjmuje się, że twarz jest reprezentowana w formie
obrazu o określonej rozdzielczości (Ellis, 1975). W procesie rozpoznania twarzy
obraz sensoryczny jest zatem zestawiany z obrazem umysłowym, a decyzja
0 identyfikacji jest podejmowana na podstawie oszacowania przystawania obu
obrazów do siebie. Koncepcje modeli mają jednak problemy z odpowiedzią na
trzy zasadnicze pytania: (1) „W jaki sposób możliwe jest rozpoznawanie twarzy
z dużej odległości, gdy uzyskanie wymaganej przez obraz umysłowy rozdziel­
czości jest niemożliwe?”; (2) „W jaki sposób możliwe jest spostrzeganie tej
samej twarzy pod różnym kątem obserwacji?” oraz (3) „ W jaki sposób możliwe
jest spostrzeganie tej samej twarzy w perspektywie czasowej (z wiekiem zmienia
się przecież wygląd twarzy)?”
Aby uratować koncepcję modeli jako wyjaśniającą proces identyfikacji
twarzy, Ellis (1975) proponuje zabieg normalizacji, ale nie do końca wiadomo,
na czym zabieg ten - stosowany przez spostrzegający umysł - miałby polegać.
Przez normalizację Ellis rozumie wszelkie możliwe transformacje na obrazach,
takie jak rotacje mentalne czy też powiększanie/pomniejszanie obrazu. Istnienie
takich operacji na reprezentacjach obrazowych potwierdzono w zakresie funk­
cjonowania wyobraźni (Kosslyn, 1975; zob. rozdz. 2) - być może więc wyo­
braźnia pośredniczy w procesie identyfikacji twarzy, umożliwiając przekształce­
nie obrazu na siatkówce do pozycji naturalnej, w której mogłoby się odbywać
zestawienie obrazu sensorycznego i umysłowego. Przyjęcie istnienia zabiegu
normalizacji pozwala odrzucić dwie pierwsze z trzech wyżej zarysowanych
wątpliwości. Koncepcja modeli nadal jednak nie radzi sobie z problemem czasu.
Identyfikacja twarzy w perspektywie czasu jest czynnością najbardziej obarczo­
ną możliwością błędu w przypadku percepcji tego typu bodźców. Nie rozpozna­
nie po latach twarzy przyjaciela może więc wynikać z braku adekwatnego
modelu w umyśle, a jej rozpoznanie może być rezultatem elastyczności posia­
danych modeli umysłowych.
Zwolennicy koncepcji cech uważają z kolei, iż informacja konieczna do
rozpoznania twarzy jest przechowywana w umyśle w formie listy cech. Ellis,
Shepherd i Davies (1979) wykazali, iż poszczególne cechy pełnią znaczącą rolę
w procesie rozpoznawania twarzy. Stwierdzili oni, że kiedy ludzie opisują czy­
jąś twarz, działają w określonym porządku. Najpierw opisywane są włosy i oczy,
w drugiej kolejności nos, usta i brwi, a na samym końcu policzki i czoło. Roberts
1Bruce (1988) potwierdzili te doniesienia wykazując, że dla rozpoznania twarzy
najważniejsze są rejony oczu, a najmniej istotne - rejony nosa. Jeśli jednak
opisywana jest twarz znana, to w pierwszej kolejności uwzględniane są cechy
wewnętrzne (oczy, nos, usta), a dopiero w drugiej - zewnętrzne (włosy, kształt
głowy). W przypadku osób nieznajomych porządek opisu ulega odwróceniu najpierw analizowane są cechy zewnętrzne, a dopiero jako drugie w kolejności
cechy wewnętrzne. Podobnie rzecz się ma z rozpoznaniem - bliskie nam osoby
314
Rozdział 7. Percepcja
identyfikujemy po cechach wewnętrznych, a nieznajome - po zewnętrz­
nych. W badaniach Malone, Morris, Kay i Levine (1982) wykazali, że proces
identyfikacji twarzy osób znanych i nieznanych różni się jakościowo. Badani
przez nich pacjenci charakteryzowali się albo deficytami w zakresie rozpozna­
wania twarzy znanych, albo mieli kłopoty z rozróżnianiem twarzy nieznanych.
Jak się wydaje, zaburzeniom w obu przypadkach uległ mechanizm analizy
innych cech, służących do identyfikacji.
Jednakże w rozpoznawaniu twarzy istotne są nie tylko cechy, ale także re­
lacje, jakie pomiędzy nimi zachodzą. Young, Hellawell i Hay (1987) prezentowali
osobom badanym obrazy składające się z połówek zdjęć twarzy znanych osób.
Uczestnikom eksperymentu znaczną trudność sprawiło rozpoznanie tak wymie­
szanych fotografii, szczególnie wtedy, gdy dolna połówka - będąca fragmentem
portretu innego aktora - była dobrze dopasowana do górnej części zdjęcia. Va­
lentine (1988) zaobserwował natomiast znaczne problemy w rozpoznawaniu
twarzy na zdjęciach odwróconych do góry nogami, a Bruce i Valentine (1985)
odkryli nie mniejsze kłopoty w rozpoznawaniu twarzy nawet znanych badanym
osób, gdy charakterystyczne elementy tych twarzy „zamieniły się” na zdjęciu
swoim naturalnym położeniem („twarze przemieszane”, np. oczy na wysokości
ust, a usta zamiast brwi). Wreszcie Tanaka i Sengco (1997) zauważyli, że ma­
nipulacja w zakresie relacji między poszczególnymi elementami twarzy (np. zbli­
żenie do siebie oczu), nawet przy pozostawieniu tych elementów na swoim
miejscu, powoduje także kłopoty w identyfikacji twarzy, do tej pory rozpozna­
wanej bez większych problemów.
Jeśli jednak system poznawczy w procesie identyfikacji twarzy analizuje nie
tylko cechy kryterialne, ale również relacje, jakie między nimi zachodzą, to uwzględniając liczbę charakterystycznych elementów twarzy - informacji do
przeanalizowania może okazać się zbyt dużo jak na proces, który przebiega
bardzo szybko. Poza kłopotami z wyjaśnieniem szybkości procesu rozpoznawa­
nia twarzy, koncepcje cech nie radzą sobie także z problemem percepcji twarzy
w perspektywie czasu. Lista cech wyodrębniona na podstawie obrazu senso­
rycznego, widzianego po latach, może bowiem znacznie różnić się zarówno
liczbą, jak i intensywnością w porównaniu z listą wzorcową, reprezentującą
twarz w naszym umyśle (Sergent, 1984). Na przykład niektóre rysy twarzy mogą
ulec zatarciu (np. wskutek tycia), natomiast inne mogą się wykształcić
z upływem czasu (np. zmarszczki z powodu starzenia się).
Z dwóch koncepcji identyfikacji twarzy znacznie lepiej uzasadniona wydaje
się teoria cech. Wskazują na nią zwłaszcza badania dotyczące specyfiki procesu
rozróżniania twarzy znajomych i obcych. Proces ten, jak wskazują badania, jest
bowiem także jakościowo, a nie tylko ilościowo, odmienny w różnych warunkach
percepcji, gdyż różni pacjenci przejawiają pojedyncze deficyty w zakresie roz­
poznawania tylko pewnych kategorii twarzy. Należy jednak podkreślić, że obie
koncepcje nie potrafią odpowiedzieć na pytanie o to, w jaki sposób możliwe jest
rozpoznanie twarzy nie widzianej od lat, której wygląd uległ znacznej zmianie.
7 .5 .2 . Czytanie słó w
Czytanie jest złożonym procesem umysłowym, wymagającym zrozumienia. Jako
takie, stanowi przedmiot badań nad przetwarzaniem języka i rozumieniem
7.5. Proces spostrzegania w praktyce
315
tekstu (por. rozdz. 13). W tym podrozdziale ograniczymy się do wybranego
aspektu czytania, jakim jest spostrzeganie i rozpoznawanie słów.
Oko zmienia punkt fiksacji (fixation point) mniej więcej cztery razy w ciągu
sekundy (Rayner, 1997). Około 200-225 ms trwa każda kolejna fiksacja oka na
materiale bodźcowym, podczas gdy 25-30 ms trwa ruch sakkadowy gałek
ocznych w miejsce następnej fiksacji. Jednak już po zafiksowaniu wzroku na
materiale bodźcowym fotoreceptory odbierają informacje wizualne bynajmniej
nie w sposób nieprzerwany. Połowa czasu fiksacji to okres refrakcji (odpoczyn­
ku) - oko jest na tyle „zmęczone” wysiłkiem motorycznym związanym z wyko­
naniem ruchu sakkadowego, że rejestrowanie danych zmysłowych nie jest w tym
czasie możliwe. Zjawisko to nosi nazwę tłumienia sakkadowego (McConkie,
1983). Okres refrakcji trwa z reguły połowę czasu każdej fiksacji. Informacje
wizualne są kodowane przez oko jedynie przez ok. 100 ms podczas każdej
fiksacji, co oznacza, że większość czasu pracy narządu wzroku jest przezna­
czona na funkcjonowanie motoryczne, a jedynie 400 ms każdej sekundy jest
czasem pobierania informacji o świecie zewnętrznym. Skoro tak, to umiejętność
prawidłowej fiksacji wzroku (w odpowiednim miejscu przestrzeni) wydaje się
kluczowym elementem procesu spostrzegania i rozpoznawania obiektów. Wagę
tej umiejętności szczególnie podkreślają dane empiryczne dotyczące przebiegu
czynności czytania.
Badając tę czynność Rayner, Weil i Pollatsek (1980) wykryli zjawisko
asymetrii wokół punktu fiksacji. Stwierdzili oni, że obszar na lewo od punktu
fiksacji jest trzykrotnie mniejszy od obszaru na prawo od tego punktu. Pollatsek,
Bolozky, Weil i Rayner (1981) uzyskali podobny efekt. W ich badaniu asymetria
wokół punktu fiksacji okazała się jednak odwrotna niż w poprzednim badaniu:
obszar objęty wzrokiem był trzykrotnie szerszy na lewo od punktu fiksacji niż na
prawo. Różnicę w wynikach udało się Raynerowi i Pollatskowi wyjaśnić na
podstawie klasyfikacji osób badanych względem rodzaju pierwszego języka
używanego podczas czytania. W pierwszym przypadku językiem tym był angiel­
ski, który wymaga czytania w kierunku od lewej do prawej strony kartki.
Natomiast w drugim eksperymencie badano umiejętność czytania w języku
hebrajskim, w którym porządek przetwarzania materiału werbalnego jest
odwrotny (od prawej do lewej). Wyniki, które uzyskali Rayner i Pollatsek, ozna­
czają, że zjawisko asymetrii wokół punktu fiksacji jest powszechne, a obszar
obejmowania wzrokiem jest większy zawsze w kierunku, w którym czyta osoba
przejawiająca taką asymetrię. Zgodnie z efektem asymetrii wokół punktu
fiksacji można przypuszczać, że w przypadku osób czytających w języku ja­
pońskim (choć takie badania akurat nie były prowadzone), szerszy obszar wokół
punktu fiksacji powinien znajdować się poniżej tego punktu.
W powyżej omawianych badaniach uczestnicy eksperymentów zawsze
czytali zdecydowanie lepiej w swoim ojczystym języku niż w jakimkolwiek
innym. Badania dotyczyły też wyłącznie czytania w języku ojczystym. Z kolei
Inhoff (1989) wykazał, że u osób posługujących się dwoma językami, odmien­
nymi pod względem kierunku czytania, asymetria wokół punktu fiksacji zmienia
się wraz z intensywnością praktyki czytania w danym języku. Po zmianie języka
czytania (np. z angielskiego na hebrajski) musi jednak upłynąć pewna ilość
czasu, zanim prawostronna asymetria zmieni się w lewostronną. Podobna asy­
metria wokół punktu fiksacji ma miejsce wtedy, gdy w obszarze fiksacji znajduje
316
Rozdział 7. Percepcja
się tylko jedno słowo. Wówczas prawidłowy punkt fiksacji wypada w okolicy
gdzie kończy się ów wyraz, co zauważył z kolei Rayner (1979). 0 ’Reagan
i Jacobs (1992) uzupełnili te spostrzeżenia o tezę, że przesunięcie punktu
fiksacji względem prawidłowego położenia o jedną literę w wyrazie spowalnia
proces czytania o 20 ms. Przy dłuższych wyrazach opóźnienia te mogą wynosić
już nawet do 100 ms, co w przypadku czytania całych zdań może przekładać się
na kilkusekundowe spowolnienie.
Z kolei Rayner i Morris (1992) podjęli próbę funkcjonalnego wyjaśnienia
istnienia efektu asymetrii wokół punktu fiksacji. Stwierdzili oni, że asymetria ta
ułatwia poprzedzanie percepcyjne, niezbędne w procesie szybkiego i sprawnego
czytania. Z punktu widzenia pojedynczej fiksacji asymetria wokół punktu
fiksacji nie ma bowiem żadnego znaczenia. Podobna liczba tak samo daleko
położonych obiektów z lewej i prawej strony punktu fiksacji jest równie szybko
rozpoznawana. Jednak rozpoznanie obiektów położonych daleko od punktu
fiksacji w kierunku czytania jest znacznie szybsze w przypadku kolejnej fiksacji,
która obejmuje je już w swoim centrum. Jest tak dlatego, że w poprzedniej
fiksacji obiekty te były objęte wstępną analizą percepcyjną i w kolejnej fiksacji
ten wstępny etap analizy może zostać pominięty. Istnienie poprzedzania
percepcyjnego (perceptual priming) w procesie czytania wykazali empirycznie
Evett i Humphreys (1981). Poprzedzali oni podprogowo bodźcami werbalnymi
słowa, które należało przeczytać i rozpoznać. Bodźce poprzedzające nie były
semantycznie powiązane ze słowami poprzedzanymi (czasami bodźce poprze­
dzające były nawet bezsensownymi zbitkami liter) - jedyne, co je łączyło, to
stopień podobieństwa w zakresie liter składających się na oba bodźce werbalne.
W warunku pełnego poprzedzania wyraz torujący był tożsamy z torowanym,
w warunku braku poprzedzania ani jedna litera bodźca poprzedzającego nie
pokrywała się z literami składającymi się na wyraz poprzedzany. Evett
i Humphreys wykazali, że im więcej wspólnych liter posiadały oba prezentowane
bodźce, tym szybsza była reakcja na słowo torowane.
Uzyskany wynik badacze ci wyjaśnili odnosząc się do koncepcji abstrakcyj­
nych subsystemów, odpowiedzialnych za detekcję pojedynczych liter w procesie
czytania. Ich aktywizacja w trakcie poprzedzania umożliwia, według nich,
szybszą identyfikację słowa poprzedzanego. Jak się wydaje, podobne zjawisko
zachodzi w procesie czytania. Wprawdzie litery odległe od punktu fiksacji
w kierunku czytania nie są identyfikowane w trakcie fiksacji je obejmującej,
jednak na skutek recepcji tych liter dochodzi do pobudzenia subsystemów
odpowiedzialnych za ich przetwarzanie. Gdy oko zmieni swój punkt fiksacji
i litery te staną się obecne w centrum fiksacji, ich rozpoznanie będzie ułatwione
(zjawisko facylitacji), właśnie dzięki uprzedniej ich aktywacji, która miała
miejsce w już zaistniałej fiksacji.
Zjawiska asymetrii wokół punktu fiksacji i poprzedzania percepcyjnego
w trakcie czytania wyraźnie świadczą na korzyść tezy, iż czytanie jest czyn­
nością wykorzystującą oddolne mechanizmy spostrzegania (od percepcji liter do
czytania wyrazów i zdań). Pojawiły się jednak również argumenty wskazujące
na to, że czynność czytania wymaga także odgórnych mechanizmów spostrze­
gania. Ważne w tym względzie są badania Reichera (1969), który wykazał
istnienie efektu przewagi słowa nad literami (word superiority effect). W jego
eksperymencie osoby badane weryfikowały występowanie konkretnej litery na
7.6. Podsumowanie
317
określonej pozycji w prezentowanym im wyrazie (np. czy czwartą literą w wy­
razie „PRACA” jest litera „C”). W warunku pierwszym Reicher prezentował
badanym słowa, w warunku drugim - werbalizowalne zbitki liter, które nic nie
znaczyły, natomiast w warunku trzecim - niewerbalizowalne, losowe zbitki liter.
Gdyby proces czytania był tylko procesem oddolnym, to rodzaj etykiety
werbalnej, w odniesieniu do której należałoby podjąć decyzję dotyczącą jednej
z jej liter składowych, nie miałby żadnego znaczenia. Okazało się jednak, że
najkrótszy czas reakcji uzyskali badani w warunku sensownych słów - tak jakby
znajomość sensu całego słowa pomagała w identyfikacji jego składowych liter.
Odgórny charakter procesu czytania wykazał także Frisby (1979). W jego
eksperymencie osoby badane w trakcie czytania nie dostrzegały braku poje­
dynczych liter, a nawet całych słów, uzupełniając tak zdegradowany komunikat
do jego całości, zgodnie z zasadami koncepcji postaciowych spostrzegania. Na
przykład, badani nie byli w stanie stwierdzić braku litery „p” w wyrazie „spring”
(prezentowano wyraz „sring”), gdy komunikat dotyczył repertuaru teatru
w sezonie wiosennym.
Można zatem stwierdzić, iż czytanie angażuje zarówno oddolne, jak i od­
górne mechanizmy spostrzegania. Zjawiska asymetrii wokół punktu fiksacji
i poprzedzania percepcyjnego wyraźnie wskazują na zależność efektywności
czytania od rejestracji sensorycznej. Wiele ćwiczeń z zakresu nauki szybkiego
czytania polega na przyspieszeniu procesu zmiany punktu fiksacji czy też roz­
szerzeniu obszaru fiksacji w kierunku czytania, tak aby objąć efektem poprze­
dzania większą liczbę liter i tym samym większą partię tekstu. Efektywność
czytania zależy jednak również od procesów odgórnych. Im większą liczbą
etykiet werbalnych dysponuje system poznawczy osoby czytającej, tym łatwiej
jest mu przewidzieć znaczenie komunikatu. Pewne ćwiczenia z zakresu
szybkiego czytania uczą pomijania nieistotnych fragmentów komunikatu,
a więc takich, których czytający może się domyślić albo na podstawie wiedzy
ogólnej, albo na podstawie konstrukcji całego komunikatu.
7.6. Podsumowanie
Treść tego rozdziału powinna skłonić nas do wniosku, że świat nie jest taki,
jakim się wydaje. Otaczająca na rzeczywistość, np. przedmioty, zdarzenia lub
inni ludzie, są źródłem bodźców, ponieważ emanują fizyczną energią w postaci
fal optycznych (wzrok), fal akustycznych (słuch), cząsteczek chemicznych
(smak, węch) lub ucisku mechanicznego (dotyk, ból). Energia ta wyzwala
zmiany w wyspecjalizowanych receptorach i daje początek procesowi spostrze­
gania. Istota tego procesu sprowadza się do daleko idących przekształceń
pierwotnej energii zmysłowej niosącej informację. Owo przetwarzanie informa­
cji skutkuje powstaniem perceptu, czyli spostrzeżenia. Nie znaczy to, że proces
przetwarzania informacji w tym momencie się kończy, ponieważ percepcja
stanowi podłoże i konieczny warunek innych procesów poznawczych, takich jak
pamięć, myślenie, przetwarzanie języka itd. Nie znaczy to również, że nasze
spostrzeżenia są zasadniczo błędne i nieadekwatne. One są tylko niedokładne
i wybiórcze.
318
Rozdział 7. Percepcja
Spostrzeżeniu zazwyczaj towarzyszy subiektywne doznanie, choć istnieją
przypadki percepcji bez udziału świadomości. W każdym razie nie wolno nam
utożsamiać percepcji ze światem subiektywnych doznań zmysłowych. Owe
doznania w pewien sposób reprezentują zewnętrzną rzeczywistość, ale są koń­
cowym efektem długiego i skomplikowanego procesu przetwarzania informacji.
Z tego punktu widzenia percepcja wcale nie jest prostym procesem poznaw­
czym. Jeśli zaliczyliśmy ją do tej kategorii, to dlatego, że złożoność funkcji
psychicznych jest zawsze relatywna, a inne procesy - omawiane w rozdz. 10-13
- są w porównaniu ze spostrzeganiem jeszcze bardziej złożone.
R o zd zia ł
Pamięć
Natura pamięci
320
Rodzaje i funkcje pamięci
320
Blokowe (magazynowe) modele pamię­
ci 326
Model długotrw ałej pam ięci roboczej
Ericssona i Kintscha 358
Pamięć prospektywna
360
Systemy pamięci trwałej
363
Procesualne modele pamięci
333
Pamięć sem antyczna
Systemy pamięci przemijającej
340
Pamięć epizodyczna
Pamięć sensoryczna
340
Pamięć krótkotrwała
343
Pamięć robocza: w ielokom ponentow y
model Baddeleya 349
Pamięć robocza: model aktywacyjny Cowana 355
363
366
Pamięć autobiograficzna
Podsumowanie
371
369
Pamięć jest zdolnością do przechowywania informacji i późniejszego jej wy­
korzystania. Z innego punktu widzenia pamięć to zespól procesów poznaw­
czych, zaangażowanych w nabywanie, przechowywanie i późniejsze odtwa­
rzanie informacji.
Pamięć przemijająca przechowuje informacje w sposób nietrwały, czyli
w stosunkowo krótkim czasie, co nie jest jej wadą, lecz wynika z pełnionych
przez nią funkcji. Pamięć trwała przechowuje informacje bez wyraźnych
ograniczeń czasowych.
„Głowa bez pamięci to twierdza bez garnizonu”, powiedział Napoleon Bona­
parte, pokazując w ten sposób, jak bezbronny byłby nasz umysł bez zasobów
pamięci. Wszystkie procesy poznawcze, od najprostszych, jak odbiór wrażeń, do
najbardziej złożonych, jak rozwiązywanie problemów, zależą od pamięci, ale też
na nią wpływają. Bez pamięci nie byłoby możliwe poznanie, dlatego wiele
modeli umysłu to w gruncie rzeczy modele pamięci (zob. rozdz. 1). W wąskim
ujęciu pamięć to system zapisu, przechowywania i odtwarzania informacji w celu
jej przyszłego użycia. Dzięki tak rozumianej pamięci możemy np. przygotować
się do egzaminu lub rozmowy kwalifikacyjnej. W szerokim rozumieniu pamięć
jest systemem przechowywania informacji bez względu na cel, zamiar czy
intencję. Jest odpowiedzialna za przechowywanie wszelkich informacji, nie­
zależnie od formatu lub źródła pochodzenia. Przechowuje informacje w czasie
ultrakrótkim (mniej niż jedna sekunda) lub przez cale życie człowieka. Prze­
chowuje wiedzę o ogólnie znanych faktach, o indywidualnych doświadczeniach
i o procedurach. Zapisuje wszelkie ślady przeszłych doświadczeń, nawet te,
z których człowiek nie zdaje sobie sprawy.
Mając na warsztacie zjawisko o tak podstawowej funkcji, psycholog po­
znawczy musi odpowiedzieć sobie na następujące pytania: „Czy pamięć jest
systemem jednolitym?” „Jakie funkcje pełnią procesy i struktury pamięci w re­
gulacji życia psychicznego człowieka?” „Czy pamięć jest ograniczona w swej
pojemności, a jeśli tak, to czy dotyczy to wszystkich jej rodzajów?” Na te pyta­
nia będziemy szukać odpowiedzi z niniejszym rozdziale.
8.1. Natura pamięci
8.1.1. Rodzaje i funkcje pamięci
Schacter i Tulving (1982) uważają, że pamięć człowieka nie jest systemem mo­
nolitycznym. Pod tym pojęciem kryje się wiele odrębnych, ale wewnętrznie
zintegrowanych systemów. Ich wspólną cechą jest funkcja, jaką pełni pamięć
jako całość. Stwarza mianowicie możliwość wykorzystania przechowywanej
w niej informacji. Funkcja ta może być realizowana tym skutecznej, im bardziej
efektywna jest filogenetyczna zdolność naszego umysłu do zapamiętywania,
przechowywania i odpamiętywania informacji.
Norman (1970) doszukał się ponad dwudziestu rodzajów pamięci (dziś
z pewnością byłoby ich jeszcze więcej). Przyjmując za podstawę rozróżnienia
kryterium językowe, osobno potraktował każde pojęcie, zawierające w nazwie
8.1. Natura pamięci
’
i
;
i
|
I
j
t
321
rzeczownik „pamięć” oraz jakiś przymiotnik (por. Shettleworth, 1993). Takie
postępowanie było o tyle racjonalne, że nie ma zgody wśród autorów co do
sposobu kategoryzacji, a co za tym idzie liczby systemów pamięci. Z drugiej
jednak strony, wprowadzenie jakiegoś terminu i posługiwanie się nim nie jest
równoznaczne z istnieniem odpowiadającego mu systemu pamięciowego.
Przykładowo, pamięć werbalna jest swego rodzaju abstraktem zbudowanym ze
względu na formalne kryterium przechowywanego materiału. Materiał werbalny
może być jednak przechowywany w pamięci krótko- albo długotrwałej. Po­
dobnym abstraktem jest termin „pamięć sensoryczna”, bowiem istnieją pod­
stawy, aby twierdzić, iż z każdym ze zmysłów związany jest odrębny system
ultrakrótlcotrwałego przechowywania informacji. Poza tym wiele określeń pa­
mięci to synonimy, np. pamięć krótkotrwała i robocza. Odpowiadają im różne
koncepcje teoretyczne, lecz ich podstawowe funkcje są podobne.
Aby uporządkować „przestrzeń problemu” Endel Tulving (1984) zapropo­
nował pięć kryteriów, które muszą być spełnione, aby mówić o odrębności
systemów pamięci. Zdaniem autora systemy są odrębne, jeśli:
• mają różne funkcje behawioralne i kognitywne oraz są wyspecjalizowane
w przetwarzaniu różnych rodzajów informacji,
• funkcjonują wedle różnych reguł,
• mają różne podłoże neuronalne,
• pojawiają się w różnym czasie w rozwoju onto- i filogenetycznym,
• różnią się formatem reprezentowania informacji.
Innymi słowy, system pamięciowy miałby być definiowany ze względu na
mechanizmy mózgowe, sposób reprezentacji nabywanej, przechowywanej i od­
twarzanej informacji oraz reguły jej przetwarzania. Powyższe kryteria wydają się
tak restrykcyjne (por. Sherry, Schacter, 1987; Nadel, 1992; Schacter, Tulving,
1994), że wiele współczesnych wielokomponentowych modeli pamięci ich nie
spełnia. Poniżej krótko scharakteryzujemy systemy pamięci wyodrębnione ze
względu na różne kryteria. Szczegółowy opis tych systemów, wraz z propozycjami teoretycznymi i wynikami badań, przedstawimy w dalszych częściach
rozdziału.
Klasyczny podział pamięci, wywodzący się z blokowego (magazynowego)
modelu Atkinsona i Shiffrina (1968, zob. rozdz. 8.1.2), oparty został na kry­
terium czasu przechowywania informacji1. Ze względu na to kryterium wy­
różniono trzy systemy: magazyn sensoryczny (sensory storage), krótkotrwały
(short term storage, STS) i długotrwały (long term storage, LTS). Każdy z nich
ma inne funkcje w procesie przetwarzania informacji: od fazy percepcji bodźców
pochodzących ze środowiska, poprzez krótkotrwałe przechowanie i udostępnie­
nie ich wyższym procesom poznawczym, aż po ich utrwalenie w LTS. Magazyn
sensoryczny jest specyficzny dla powiązanego z nim zmysłu, np. wzroku, słuchu,
węchu. Podstawową funkcją każdego z nich jest przetrzymanie bodźca przez
krótki okres (np. maksymalnie kilkaset ms w przypadku pamięci ikonicznej,
1 Schacter i Tulving (1994) uważają, że model Atkinsona i Shiffrina jest rozwinięciem modelu
Waugh i Normana (1965), którzy jako pierwsi rozróżnili pamięć pierwotną (primary), czyli krótko­
trwałą, i wtórną (secondary), czyli długotrwałą. Jednak model Atkinsona i Shiffrina, jako bardziej
rozbudowany i szczegółowy, pełniej oddaje istotę klasyfikacji pamięci ze względu na kryterium czasu
przechowywania.
322
Rozdział 8. Pamięć
związanej ze zmysłem wzroku) w kodzie analogowym w stosunku do modalności zmysłowej, którą ów bodziec dociera do systemu poznawczego. Do
magazynu sensorycznego trafia cała informacja o sytuacji bodźcowej, zwykle
bardzo złożonej. Jego pojemność, szczególnie w przypadku pamięci ikonicznej,
musi być ogromna, a w każdym razie większa niż STS. Nie ma jednak zgody nie
tylko co do tego, jaka jest pojemność każdego z magazynów, ale również w jakich
jednostkach powinno się ją wyrazić.
Ponieważ funkcjonowanie pamięci sensorycznej jest całkowicie automa­
tyczne, jej zawartość nie podlega kontroli wolicjonalnej (chyba, że za kontrolę
uznamy np. zamknięcie oczu, blokujące percepcję bodźców pochodzących z oto­
czenia). Nie oznacza to jednak, że nie można fenomenologicznie doświadczyć
jej istnienia. Każdy wie, że kiedy nocą zgasimy światło, to jeszcze przez krótką
chwilę „widzimy” obraz pomieszczenia, w którym przebywamy.
Magazyn pamięci krótkotrwałej charakteryzuje się zupełnie innymi właści­
wościami, mimo że przechowuje informacje, które dotarły do niego m.in.
z magazynów sensorycznych. Na jego zawartość może składać się nie tylko
wyselekcjonowana stymulacja bodźcowa, ale również informacja przywołana
z LTS, albo efekty bieżącego przetwarzania informacji (np. wynik zsumowania
dwóch wartości liczbowych). Początkowo zakładano, że STS posługuje się
wyłącznie kodem werbalnym, czy wręcz fonologicznym, a mechanizm pod­
trzymywania informacji w niej zawartych wykorzystuje czynność bezgłośnego
powtarzania (maintenance rehearsal). Współcześnie funkcjonuje kilka konku­
rujących modeli tego mechanizmu, jednak każdy z nich dopuszcza możliwość
obecności w STS różnych kodów reprezentacji informacji, w tym niewerbal­
nego, np. dotyczącego relacji przestrzennych między obiektami. Problem w tym,
że magazyn pamięci krótkotrwałej jest mało pojemny i łatwo ulega przeciążeniu.
Wiadomo ponadto, że pojemność ta jest wyraźnie zróżnicowana indywidualne.
W życiu codziennym każdy z nas nauczył się optymalnie wykorzystywać
dostępną mu pojemność STS, a mimo to próba krótkotrwałego przechowania
numeru telefonu poznanej właśnie koleżanki albo rejestracji pojazdu uciekają­
cego z miejsca wypadku może być zadaniem powodującym jego przeciążenie.
Czas przechowywania informacji w STS szacowany jest w przedziale od kilku
do kilkudziesięciu sekund. W optymalnych warunkach - kiedy mało pojemny
STS nie ulega przeciążeniu - jest to czas wystarczający do wykonania często
bardzo złożonych operacji poznawczych, np. wyciągania wniosków z przesłanek
w zadaniach dedukcyjnych (por. rozdz. 10.7.2, ramka 10.2). Często jednak jest
on niewystarczający, co w połączeniu z ograniczoną pojemnością STS stanowi
źródło różnorodnych błędów poznawczych. Podstawową funkcją STS jest zatem
przechowanie informacji w czasie niezbędnym do jej przetworzenia zgodnie
z celem, jaki w danym momencie realizujemy. Celem tym może być dobiegnięcie
do telefonu, aby wystukać numer telefonu, który nie jest przechowywany
w pamięci długotrwałej, rozwiązanie zadania z testu inteligencji Ravena, czy
utrwalenie w LTS nazwisk klasyków badań nad pamięcią.
Magazyn pamięci długotrwałej charakteryzuje się najdłuższym czasem
przechowywania informacji, mierzonym niekiedy w perspektywie lat. O sporach
dotyczących sposobu kodowania informacji w pamięci pisaliśmy przy okazji
problemu reprezentacji trwałych, np. pojęć czy wiedzy (zob. rozdz. 3 i 4).
Ze wszystkich trzech systemów pamięci obecnych w koncepcji Atkinsona i Shif-
8.1. Natura pamięci
323
frina, pamięć długotrwała wykazuje największe zróżnicowanie zarówno co do
rodzajów, jak i funkcji. Szczegółowo zajmiemy się nimi później. Jednak wspólną
funkcją wszystkich rodzajów pamięci trwałej jest umożliwienie skutecznej
adaptacji jednostki do środowiska, szczególnie w dłuższej perspektywie czasowej.
Dzięki różnym rodzajom wiedzy, przechowywanej w systemach LTS, możliwe
jest zróżnicowanie i elastyczność sposobów owej adaptacji. Wiedza semantyczna,
umiejętności proceduralne i gromadzenie doświadczeń osobistych w różny spo­
sób służą temu przystosowaniu, doskonale uzupełniając się wzajemnie.
Rozróżnienie między systemami pamięci, dokonane na podstawie modelu
Atkinsona i Shiffrina, nie ogranicza się wyłącznie do kryterium czasu przecho­
wywania. Wspomniano już o innych różnicach dotyczących pojemności i formy
reprezentacji informacji. Różnice między różnymi systemami dotyczą ponadto
sposobów kodowania, przechowywania, wydobywania i zapominania informa­
cji, a także możliwości sprawowania kontroli nad funkcjonowaniem poszcze­
gólnych magazynów. Zgromadzono również pewną liczbę dowodów neurobiologicznych przemawiających za ich rozłącznością. Do tych kwestii powrócimy
w rozdz. 8.1.2.
Bardziej szczegółowych rozróżnień rodzajów pamięci długotrwałej doko­
nano w oparciu o różnice w sposobach zapamiętywania, przechowywania i odpamiętywania informacji. Istotą podziału pamięci trwałej w tym ujęciu były
pierwotnie różnice w zakresie tych trzech podstawowych faz procesu pamię­
ciowego, w zależności od rodzaju przetwarzanej informacji. Twierdzi się, że
każda z faz ma charakter procesualny, co wydaje się oczywiste w przypadku
zapamiętywania i odpamiętywania, o czym wspominaliśmy. Ale również prze­
chowywanie ma charakter procesualny, co oznacza, że w tej pozornie statycznej
fazie zawartość pamięci może być modyfikowana. Po pierwsze, o procesualnym
charakterze tej fazy świadczy zjawisko zapominania. Różne mechanizmy
poznawcze i neuronalne powodują „zacieranie się” śladów pamięciowych lub
utratę dostępu do nich. Po drugie, używanie informacji, nawet bez modyfikacji
jej treści czy relacji względem posiadanej wiedzy, powoduje lepsze utrwalenie
materiału (Ebbinghaus, 1885/1913). Częściej jednak użycie informacji wiąże się
z jej rekodowaniem (Tulving, 1976a), czyli modyfikacją zapisu pamięciowego
w związku z nowo napływającą informacją, albo procesami inferencji z wcześniej
nabytą wiedzą. Proces rekodowania może wpływać zarówno na treść zapisu
pamięciowego, jak i na związki, w które wchodzi on z innymi zapisami. Wpływ
ten może być jednak wybiórczy. Przykładowo, informacja, że woda mineralna
„Żywiec Zdrój” nie jest produkowana w Żywcu, a w Cięcinie, może wpłynąć
jedynie na treść zapisu. Jeśli nie posiadamy wystarczającej wiedzy o różnicach,
np. w składzie, walorach zdrowotnych czy choćby czystości wód mineralnych
pochodzących z tych dwóch źródeł, nie zmienią się relacje pojęcia wody mine­
ralnej „Żywiec Zdrój” do innych obszarów naszej wiedzy, systemu przekonań
czy nawyków. Z kolei, jeśli dowiemy się, że siostra Zosi - Ola - wróciła
z zagranicy i ponownie zamieszkały razem, prawdopodobnie zmianie ulegnie
jedynie relacja, która aktualnie je łączy. Nie zmienią się natomiast właściwości
charakteryzujące nasze pojęcia Oli i Zosi.
Za najogólniejszą klasyfikację rodzajów pamięci ze względu kryteria prze­
biegu trzech faz pamięciowych uznać można podział wprowadzony przez
Squire’a (1986; 1994; Squire, Zola-Morgan, 1991). Ma on charakter głównie
324
Rozdział 8. Pamięć
porządkujący: autor, odwołując się do znanych wcześniej podziałów, dokonał
ich klasyfikacji, uwzględniając relacje, które zachodzą między różnymi rodza­
jami pamięci (zob. ryc. 8.1). Podstawowy podział rodzajów pamięci odwołuje się
koncepcji wiedzy według Ryle’a (1949), zaadaptowanej do badań nad pamięcią
przez Andersona (1976). Squire czyni więc rozróżnienie na wiedzę deklara­
tywną i proceduralną. Autor zauważył jednak, że w kontraście do wiedzy
deklaratywnej, umiejscowić można nie tylko proceduralne nawyki i umiejęt­
ności, tradycyjnie ujmowane pod pojęciem wiedzy proceduralnej. Również inne
formy nabywania albo modyfikacji zapisów w pamięci, tj. efekty poprzedzania,
warunkowania klasycznego czy nieasocjacyjnego uczenia się (np. habituacji),
mają pewną wspólną właściwość, która charakteryzuje również wiedzę
proceduralną. Wszystkie one mają mianowicie postać niedeklaratywną, co
oznacza trudność w zakresie werbalizacji treści wiedzy. Squire i Zola-Morgan
(1991) dokonali również zabiegu redukcji różnorodności rodzajów pamięci,
wskazując na podobieństwo pamięci deklaratywnej do jawnej, a pamięci niedeklaratywnej do ukrytej.
pamięć
deklaratywna (jawna)
niedeklaratywna (niejawna)
umiejętności
i nawyki
poprzedzanie2 warunkowanie2
nieasocjacyjne
klasyczne
uczenie się
(habituacja, sensytyzacja)
Ryc. 8.1. Klasyfikacja rodzajów pamięci wg Squire’a i Zola-Morgan (1991). Za: Schacter, Tulving,
1994, s. 204.
Squire zdawał sobie sprawę z tego, że kategoria „pamięć niedeklaratywna”
jest niejednorodna (Squire, Zola-Morgan, 1991). Właściwie poza trudnością w za­
kresie werbalizacji zawartości różnych rodzajów pamięci niedeklaratywnej, reszta
ich właściwości jest bardzo zróżnicowana. Co więcej, trudność ta nie oznacza, że
werbalizacja jest zupełnie niemożliwa, o czym pisaliśmy w rozdz. 4. Możliwy jest
też transfer między wiedzą deklaratywną i proceduralną, bez utraty możliwości
werbalizacji reguł opisujących procedury (zob. proceduralizacja wg Andersona,
1981a; rozdz. 4.3.2). Podważono również założenie o niemożności werbalizacji
wiedzy nabywanej np. w uczeniu się mimowolnym, należącym, według Squire’a,
do zakresu kategorii zjawisk z zakresu pamięci niedeklaratywnej.
Dalej Squire rozróżnia dwa typy wiedzy deklaratywnej, odnoszące się do
faktów i wydarzeń. Odpowiadają one pamięci semantycznej i epizodycznej,
według podziału wprowadzonego przez Tulvinga (1972). Pamięć semantyczna
2 Klasyfikację Squire’a podajemy za oryginałem, chociaż, według nas, poprzedanie i warun­
kowanie to nie rodzaje pamięci, lecz procedury, w wyniku których może powstać zapis pamięciowy.
8.1. Natura pamięci
325
obejmuje specyficzną, stosunkowo łatwą do werbalizacji wiedzę ogólną, oder­
waną od kontekstu (zob. rozdz. 4.2.2 i 8.3.1). Jest rodzajem „umysłowego
tezaurusa, zorganizowanej wiedzy, jaką jednostka posiada o słowach i innych
symbolach werbalnych, ich znaczeniach i referencjach, relacjach miedzy nimi
oraz o regułach, formułach i algorytmach manipulacji tymi symbolami, pojęciami
i relacjami” (Tulving, 1972, s. 386). Z kolei pamięć epizodyczna dotyczy „in­
formacji o czasowo umiejscowionych epizodach i wydarzeniach oraz czasowo-przestrzennych relacjach między nimi” (Tulving, 1972, s. 385). Możliwość ich
werbalizacji zależy od sprawności posługiwania się językiem i od poziomu szcze­
gółowości zapisu. Niektórzy badacze przyjmują, że dzieci gromadzą wiedzę epi­
zodyczną już w okresie poprzedzającym nabycie umiejętności posługiwania się
językiem. Student, który wysłucha niezrozumiałego dla siebie wykładu, również
zgromadzi wiedzę epizodyczną, jednak możliwość jej zwerbalizowania, podobnie
jak przekazanej na wykładzie wiedzy semantycznej, będzie ograniczona.
Zapisy w pamięci epizodycznej uwzględniają całe bogactwo kontekstu
informacji, czyli jej umiejscowienie w czasie i przestrzeni oraz związki przy­
czynowo-skutkowe między różnymi wydarzeniami. Wiedza epizodyczna, podob­
nie jak wiedza semantyczna, może być łączona w większe struktury, jak np.
historia jakiejś afery z życia politycznego. Różne informacje, pozyskiwane nawet
w długiej perspektywie czasu, mogą zostać połączone w spójną całość. Upo­
rządkowaniem tej całości rządzą odkrywane związki przyczynowo-skutkowe,
a kodowanie informacji obywa się z uwzględnieniem osi czasu. Elementem tego
zapisu może stać się kontekst pozyskania informacji, np. jej źródło, oceniane
jako mniej lub bardziej wiarygodne. Specyficzną odmianą pamięci epizodycznej
są zapisy wydarzeń, w których sami braliśmy udział. Tego typu wydarzenia
kodowane są w tzw. pamięci autobiograficznej. Dla uczestników wspomnianej
afery, wydarzenia z nią związane przynajmniej w części będą miały postać
autobiograficzną, podczas gdy dla dowiadujących się o niej z mediów obywateli
- wyłącznie epizodyczną. Wiedza zawarta zarówno w pamięci epizodycznej, jak
i autobiograficznej jest zapisem tego typu konkretnych wydarzeń. Natomiast
pamięć semantyczna obejmuje wiedzę, dla której kontekst pozyskania jest
nieistotny, dlatego zapis pamięciowy zazwyczaj go nie zawiera.
Złożoność ludzkiego umysłu powoduje, że zapisy w pamięci semantycznej
i epizodycznej mogą się przenikać. Przykładowo, jako dziecko mogliśmy się
dowiedzieć, że hejnał mariacki byłby słyszalny na krakowskich błoniach, gdyby
nie Kopiec Kościuszki, uniemożliwiający swobodne rozchodzenie się dźwięku
z Rynku. Wiedza ta mogła zostać włączona w struktury wiedzy semantycznej,
podobnie jak to, że 2 + 2 = 4. Jednak kiedy dowiedzieliśmy się, że Kopiec
Kościuszki nie stoi na drodze rozchodzenia się dźwięków hejnału z Wieży
Mariackiej, wiedza ta została zmodyfikowana (np. na błoniach nie słychać
hejnału, gdyż jest zbyt daleko od Rynku), a historia, raczej jako anegdota, jak
zostaliśmy podstępnie oszukani, mogła trafić do pamięci epizodycznej. Niektóre
mnemotechniki, wymyślone w celu ułatwienia zapamiętywania wiedzy seman­
tycznej, odwołują się do metody kodowania informacji w pamięci epizodycznej
albo do utrwalonych w niej zapisów (zob. rozdz. 9.1.4). Tak zwana metoda
miejsc polega na nałożeniu nabywanej wiedzy na dobrze utrwalony zapis
autobiograficzny, związany z lokalizacją przestrzenną charakterystycznych
obiektów.
326
Rozdział 8. Pamięć
Podstawą rozróżnień dokonanych przez Squire’a - obok treści podlegają­
cych kodowaniu - jest sposób zapamiętywania, przechowywania i odpamiętywania zapisów pamięciowych. Kodowanie informacji w pamięci deklaratywnej
odbywa się poprzez włączanie nowej informacji w struktury wiedzy, co do­
konuje się na drodze uczenia się jawnego. W przypadku pamięci semantycznej
przechowywane są symboliczne reprezentacje wiedzy ogólnej. Proces zapamię­
tywania musi zatem uwzględniać sposób tworzenia tego typu reprezentacji oraz
kształtowania związków semantycznych z posiadaną już wiedzą. W pamięci
epizodycznej przechowywane wydarzenia kodowane są bezpośrednio, w takiej
postaci, w jakiej zostały spostrzeżone, z całym bogactwem kontekstu, np. za­
pachów towarzyszących wczorajszej kolacji. Sposób reprezentowania informa­
cji również zawiera relacje między nimi, ale mają one przede wszystkim
charakter uporządkowania przyczynowo-skutkowego. Wydobycie wiedzy dekla­
ratywnej ma charakter wolicjonalny i polega na jej werbalizacji, bo przecież
dzięki językowi została zakodowana. Mechanizmy wydobycia różnią się w przy­
padku pamięci semantycznej i epizodycznej, jednak wspólną ich właściwością jest
wykorzystanie relacji między elementami zakodowanej informacji.
Z kolei wszelkie formy pamięci niedeklaratywnej są nabywane na drodze
wielokrotnego powtarzania czynności (w wypadku procedur) albo uczenia się
mimowolnego. Ich reprezentacja, w postaci programów czy systemów reguł, jest
zapisem sekwencji działań, wyzwalanych w pewnym kontekście. Świadomość
nie jest niezbędna do wydobycia tej wiedzy, bowiem jest ona uruchamiana
automatycznie, w związku z zainicjowaniem dobrze nam znanej czynności.
8 .1 .2 . Blokowe (magazynowe) m odele pamięci
Pojęcie „blokowe” w odniesieniu do pamięci, czy - ogólnie - przetwarzania
informacji, oznacza pewną metaforę rozumienia struktury i funkcji systemu po­
znawczego człowieka. Jeśli chodzi o strukturę, oznacza ono wyraźną jej modutowość: system poznawczy składa się z pewnej liczby modułów o wyspecjalizo­
wanych funkcjach. Przetwarzanie informacji polega na przesyłaniu efektów
pracy jednego modułu do kolejnego w ściśle określonej sekwencji. Z tego
względu przetwarzanie informacji, w tej metaforze, ma charakter sekwencyjny:
przetworzenie informacji w danym module możliwe jest po otrzymaniu
kompletu danych z modułu poprzedzającego. Przetwarzanie odbywa się więc
„krok po kroku”, od wczesnych do późnych faz przetwarzania informacji (por.
Neisser, 1967). Metafora blokowa wywodzi się z działania systemów kom­
puterowych, które początkowo składały się z odrębnych modułów, przetwa­
rzających informację sekwencyjnie, według określonych algorytmów.
W modelach blokowych pamięć rozumiana jest jako magazyn, a właściwie
system wielu magazynów. Odrębne właściwości pamięci wyjaśnia się istnieniem
osobnych magazynów, wyspecjalizowanych w przechowywaniu określonej
informacji. Od początku magazyny rozumiane były jako hipotetyczne konstrukty teoretyczne, a nie realnie istniejące struktury fizjologiczne. Jednak me­
tafora magazynu jako pojemnika o względnie stałych parametrach (np. pojem­
ności), biernie przechowującego zawarte w nim informacje, znalazła swoje
odbicie w teoriach pamięci.
8.1. Natura pamięci
327
Atkinson i Shiffrin (1968, 1971) zaproponowali model, w którego skład
wchodziły trzy magazyny pamięciowe: sensoryczny, krótkotrwały i długotrwały
(zob. rozdz. 1.3.1, ryc. 1.3). Magazyny, ze względu na odmienne funkcje,
umiejscowione zostały w różnych fazach procesu przetwarzania informacji.
Dane pochodzące ze środowiska, po zarejestrowaniu przez zmysły, przez
bardzo krótki czas utrzymywane są w jednym z systemów pamięci sensorycznej
(bądź wielu, jeśli informacja jest kombinacją wielu modalności). Dzięki
procesom uwagowym część tych danych przenoszona jest do STS, gdzie procesy
kontrolne decydują o sposobie ich wykorzystania. Informacja ta może być użyta
w procesie sterowania zachowaniem, albo - dzięki powtarzaniu - zostać włą­
czona do jednego z systemów pamięci długotrwałej. Transfer informacji z STS
do LTS jest relatywnie wolny. O jego ograniczeniach decyduje zarówno cha­
rakter samego zapisu w LTS, polegający na uwzględnieniu jego relacji do innych
zapisów, jak i ograniczony czas przebywania informacji w STS. Może się więc
zdarzyć, że informacja zanika z STS, zanim zostanie zakodowana w LTS.
Pamięć krótkotrwała jest również miejscem, do którego przywoływane są
informacje z LTS. Przywołanie wymaga aktywacji odpowiednich zapisów z ma­
gazynu pamięci trwałej, dokonujących się dzięki użyciu strategii wydobycia
(jednej z funkcji kontrolnych STS). Innymi słowy, pamięć krótkotrwała nie
tylko stanowi „pole”, w którym chwilowo przechowywane są informacje przy­
wołane z LTS, ale dzięki procesom kontrolnym aplikuje znane jednostce
strategie. O sprawności korzystania z zasobów LTS decyduje efektywność
organizacji kodowania materiału oraz jego wydobywania.
W późniejszych modyfikacjach modelu Shiffrin ze współpracownikami
(Shiffrin, Atkinson, 1969; Shiffrin, Geisler, 1973) starali się wyeliminować po­
ważny mankament pierwszej wersji modelu. Chodziło o zarzut dotyczący możliwośęi włączenia do magazynu STS treści bez pośrednictwa LTS. Ponieważ
zakładano, że treści te mają co najmniej postać akustyczną, jeśli nie werbalną,
muszą więc podlegać wcześniejszej obróbce z udziałem reprezentacji poznaw­
czych. Aby informacja sensoryczna mogła zostać zwerbalizowana, konieczne
jest jej wcześniejsze rozpoznanie, co - jak wiadomo - nie może odbyć się bez
udziału trwałych wzorców reprezentacji. Dlatego też autorzy zamienili w swoim
modelu kolejność dwóch bloków: STS i LTS. Według nowej wersji wyselek­
cjonowana informacja sensoryczna kodowana jest bezpośrednio w pamięci
długotrwałej, co również budzi pewne wątpliwości.
Innym interesującym modelem blokowym pamięci jest koncepcja Lehrla
i Fischera (1988). Autorzy prowadzili badania mające na celu dokładne
oszacowanie ograniczeń przetworzeniowych systemu poznawczego człowieka.
Przyjęli, że procesy przetwarzania informacji powinny podlegać pomiarowi
głównie w jednostkach czasu (sekundy) i ilości informacji (bity). Według Lehrla
i Fischera (1988), system percepcyjny człowieka przetwarza w przybliżeniu 109-1011 bitów informacji na sekundę, uwzględniając stymulacje pochodzące ze
środowiska zewnętrznego i z samego organizmu (zob. ryc. 8.2). Z tego,
uwzględniając wszystkie kanały sensoryczne, obróbce percepcyjnej podlega
ok. 107 bitów w ciągu sekundy. Informacja rejestrowana za pomocą różnych
analizatorów podlega integracji, a następnie selekcji. Procesy te zachodzą
na materiale sensorycznym zawartym w strukturze zwanej „przechowalnią”
(accommodator), która połączona jest z pamięcią długotrwałą (long term
328
Rozdział 8. Pamięć
przechowalnia
15 bit/s
(accomodator)
percepcja
^
107
l
.
L
I
I \
zmysły
STM
~ 80 bit
konsolidacja
0,01 - 1 bit/s
inne kanały
sensoryczne
I l
\
106 4x105 5 x 103 103
W
10
~107 bit/s
13 bit/s
L
109-1011bit/s
ZACHOWANI E
Ryc. 8.2. Model przetwarzania informacji z uwzględnieniem struktur poznawczych, kierunków
przepływu informacji oraz przepustowości systemu, (za: Lehrl, Fischer, 1988, s. 885).
memory, LTM). Następnie informacja przesyłana jest do pamięci krótkotrwałej
(short term memory, STM), którą scharakteryzowano za pomocą czterech
parametrów: (1) szybkość strumienia informacji na wejściu do STM (Cu), który
wynosi 15 ± 3,1 bit/s; (2) czas przechowywania informacji w STM (TR),
tj. 5,4 ± 0,8 s; (3) całkowitą pojemność STM (K k = CK x TR), czyli ok. 80
bitów oraz (4) tempo konsolidacji, czyli transferu informacji z STM do LTM
('Cv), wynoszące 0,01-1 bit/s. STM, podobnie jak w modelu Atkinsona i Shiffrina, ma również funkcję kontrolną, sterując zachowaniem człowieka.
W swoich badaniach autorzy posłużyli się zadaniem polegającym na po­
miarze czasu czytania trzech rodzajów znaków: liter, liczb i symboli chemicz­
nych. Podjęcie decyzji leksykalnej dotyczącej każdej litery wymaga przetwo­
rzenia ok. 5 bitów informacji (dla 27 liter alfabetu niemieckiego, które wyko­
rzystano w badaniach, log227 = 4,75). Zatem do przeczytania ciągu złożonego
z 20 Uter wymagane jest przetworzenie ok. 100 bitów (= 20 x 5 bitów). Jeśli czas
czytania ciągu wyniósł np. 5 s, to przeciętna szybkość przetwarzania jest równa
20 bit/s (= 100 bitów/5 s), czyli 1 bit w ciągu 50 ms.
Pojemność STM szacowana jest przez Lehrla i Fischera na podstawie
dwóch parametrów: szybkości strumienia na wejściu i przeciętnego czasu
przechowywania informacji w STM. Magazyn o pojemności rzędu 80 bitów
pozwala, według obliczeń dokonanych przez autorów, na przechowanie średnio
przez 5,4 s, ok. 11 dwucyfrowych liczb (11 x 7 bitów = 77 bitów), albo ciągu
złożonego z losowo dobranych 16 liter (16x5 bitów = 80 bitów). Wartość ta jest
więc w przybliżeniu dwukrotnie większa niż pojemność STM szacowana przez
Millera (1956), tj. 7 ± 2 jednostki. Wyliczenia Lehrla i Fischera wydają się nie
uwzględniać mechanizmu zanikania informacji w pamięci krótkotrwałej:
dostępność informacji spada szybko wraz z upływem czasu. Waugh i Norman
(1965), uwzględniając zjawisko interferencji informacji w STM występujące
w swobodnym odtwarzaniu listy elementów, oszacowali jej pojemność na 2-3
8.1. Natura pamięci
329
elementy. Współczesne badania nad pamięcią roboczą również wydają się
wskazywać, że wartość „magicznej liczby” Millera została przeszacowana
(Cowan, 1995; zob. rozdz. 8.2.4). Lehrl i Fischer przyjęli również wątpliwe
założenie, że strumień danych na wejściu do STM ma zawsze taką samą szyb­
kość. W przypadku większości realistycznych zadań poznawczych, obok trans­
feru danych z rejestrów sensorycznych, STM zajmuje się wydobywaniem
i przechowywaniem informacji z LTM, a także ich przetwarzaniem. Utrzymanie
parametru Ck na maksymalnym poziomie w dłuższej perspektywie czasu wydaje
się zatem niemożliwe.
Pomimo formułowanych pod ich adresem zastrzeżeń, Lehrl i Fischer
wyprowadzili ze swoich badań dwa godne uwagi wnioski. Pierwszy dotyczy
parametru CK, który okazał się niezależny od typu materiału (litery, liczby)
i wokalizacji (czytanie głośne i ciche). We wszystkich zastosowanych przez
autorów seriach zadań, w których manipulowano tymi zmiennymi, czas reakcji
nie różnił się istotnie. Wydaje się, że jest to dowód na formalny charakter pa­
rametru Ck - Drugi wniosek dotyczy niezależności parametrów CK i TR. Autorzy
podają argumenty na rzecz owej niezależności, które są o tyle ciekawe, iż uważa
się, że pomiędzy nimi zachodzi dość ścisły związek (np. Eysenck, 1986; Jensen,
1970b). Argumenty przytoczone przez Lehrla i Fischera dotyczą niezależności
zmian w zakresie obu parametrów w przypadku różnych zaburzeń o charakterze
klinicznym. Jednak w innych badaniach Lehrla (1988; za: Lehrl, Fischer, 1988),
przeprowadzonych wśród osób zdrowych, parametry te skorelowane były
pozytywnie na poziomie 0,65.
Istotą metafory magazynowej w zastosowaniu do pamięci jest traktowanie
jej systemów jako odrębnych. Idea odrębności, przecie wszystkim systemów
pamięci krótko- i długotrwałej, wywodzi się jeszcze z XIX-wiecznych prac
Williama Jamesa. Zwolennicy tej idei wskazują na szereg danych przemawia­
jących za tym podziałem. Dane eksperymentalne tego typu odwołują się do tzw.
krzywych pozycyjnych, będących ilustracją prawdopodobieństwa prawidłowego
odtworzenia bodźców z listy (np. słów) w zależności od ich pozycji na tej liście.
Liczba bodźców na liście musi być na tyle duża, aby przekraczała pojemność
pamięci krótkotrwałej. W klasycznych badaniach dotyczących zapamiętywania
Glanzer i Cunitz (1966) prezentowali osobom badanym listę 15 słów z po­
leceniem ich zapamiętania. Prezentacja odbywała się sekwencyjnie. Następnie,
po upływie 0, 10, albo 30 s, osoby badane proszone były o odpamiętanie tylu
słów, ile tylko potrafią. Kolejność odtwarzania była dowolna, w szczególności
nie musiała być zgodna z kolejnością prezentacji. Jest to jedna z klasycznych
procedur stosowanych w badaniach nad pamięcią, tj. metoda swobodnego od­
twarzania (free recall). W warunkach, w których zastosowano odroczenie
(10 albo 30 s) pomiędzy ekspozycją listy a rozpoczęciem jej odtwarzania, osoby
badane w czasie przerwy wykonywały zadanie odliczania wstecz. Ponieważ jest
to zadanie silnie angażujące pamięć krótkotrwałą, utrudnione staje się wówczas
powtarzanie w pamięci listy słów. Wyniki uzyskane przez Glanzera i Cunitz
zaprezentowano na ryc. 8.3. Wskazują one na wystąpienie tzw. efektu pierw­
szeństwa i efektu świeżości. Pierwszy dotyczy wyższego prawdopodobieństwa
odtworzenia bodźców z początku listy, a drugi - z jej końca. Ponieważ lista jest
na tyle długa, że jej zawartość nie może zostać w całości zakodowana w pamięci
krótkotrwałej, efekt pierwszeństwa wyjaśnia się transferem informacji do LTM.
330
Rozdział 8. Pamięć
1
5
10
15
pozycja elementu na liście
Ryc. 8.3. Efekt pozycji - prawdopodobieństwo odtworzenia pierwszych i ostatnich kilku elementów
listy elementów (np. słów) jest wyższe niż elementów środkowych. (Glazer, Cunitz, 1966, za: Eysenck,
Keane, 2000, s. 154).
Efekt ten jest dość odporny na upływ czasu i interferencję wywołaną w pamięci
krótkotrwałej (nie znika w warunkach odroczenia czasowego z zadaniem
odliczania wstecz). Z kolei efekt świeżości wiązany jest z udziałem STM w od­
twarzaniu materiału, nawet gdy lista jest bardzo długa. Jeśli odtwarzanie roz­
poczyna się natychmiast po prezentacji listy, ostatnie jej elementy znajdują się
jeszcze w pamięci krótkotrwałej. Efekt ten jest jednak silnie podatny na upływ
czasu (odroczenie) i na interferencję (odliczanie wstecz). W warunku odro­
czenia odtwarzania już o 10 s efekt ten zanika, albo zdecydowanie słabnie (por.
Bjork, Whitten, 1974). Okazuje się więc, że w warunkach odroczenia odtwarza­
nia wybiórczo redukowany jest efekt świeżości przy zachowaniu efektu pierw­
szeństwa. Wybiórczość tę uznano za dowód odrębności magazynów pamięcio­
wych, z którymi wiążą się obydwa efekty.
Inne dane eksperymentalne sugerują odrębność STM i LTM ze względu na
postulowane mechanizmy zapominania. Twierdzi się, że w obu wypadkach działa
mechanizm interferencji. Wyniki badań wskazują, iż w pamięci krótkotrwałej
czynnikiem ją wywołującym jest podobieństwo akustyczne bodźców, podczas gdy
w pamięci długotrwałej - ich podobieństwo semantyczne. Ponadto postuluje się
istnienie specyficznego dla LTM mechanizmu zapominania, polegającego na utra­
cie dostępu do informacji (cue-dependent forgetting). Mimo że informacja nie zo­
stała usunięta z LTM tracimy do niej dostęp, najczęściej chwilowo. Spektakular­
nym dowodem udziału tego mechanizmu w zapominaniu jest tzw. efekt końca
języka (tip of tongue effect), kiedy doskonale zdajemy sobie sprawę z tego, że coś
wiemy, ale nie jesteśmy w stanie sobie tego przypomnieć.
Druga grupa dowodów odrębności magazynów STM i LTM pochodzi
z badań fizjologicznych i odnosi się do zjawiska tzw. podwójnej dysocjacji
(double dissociation) u pacjentów z uszkodzeniami mózgu. Przyjmuje się, że
jeśli dwa zadania angażują różne mechanizmy poznawcze czy mózgowe, to
w zależności od rodzaju uszkodzenia pacjenci będą wykonywać jedno z tych
zadań gorzej niż osoby zdrowe, podczas gdy poziom wykonania drugiego po­
8.1. Natura pamięci
331
zostanie niezmieniony. Krzywe pozycyjne, według zwolenników metafory ma­
gazynowej, odzwierciedlają zaangażowanie odrębnych podsystemów pamięcio­
wych. Wybiórcze zniesienie efektu pierwszeństwa z równoczesnym zachowa­
niem efektu świeżości przy specyficznych uszkodzeniach mózgu, uznać należy
za dowód odrębności mechanizmów kryjących się za tymi efektami. Rezultaty
tego typu pochodzą z badań przeprowadzonych na pacjentach z amnezją wsteczną
lub następczą, spowodowaną uszkodzeniami przyśrodkowych płatów skronio­
wych, wzgórza lub okolic przedczołowych, zaistniałymi w wyniku wypadku albo
interwencji chirurgicznej. Wyniki tych badań omówione zostaną w rozdz. 8.3.2.
W tym miejscu zaznaczmy tylko, że opisano przypadki pacjentów, u których stwier­
dzono wybiórcze zaburzenia w zakresie efektu pierwszeństwa albo świeżości.
Idea magazynowych modeli pamięci z jednej strony wydaje się intuicyjnie
trafna. Większość znanych nam systemów przechowywania informacji ma
strukturę magazynową, np. różnego rodzaju bazy danych, zarówno analogowe,
(np. katalogi biblioteczne), jak i elektroniczne (np. baza danych o podatnikach).
Samo pojęcie przechowywania sugeruje istnienie jakiegoś schowka czy
pojemnika. Z drugiej strony, podstawowym „grzechem” tego podejścia jest
błąd nadmiernego uproszczenia. Po pierwsze, jako nadmiernie uproszczony,
a nawet zupełnie nietrafny, uznano statyczny charakter modeli blokowych,
podczas gdy ogólne założenia paradygmatu poznawczego akcentują dynamikę
procesów poznawczych. Trudności w oszacowaniu podstawowych własności
magazynów pamięciowych, tj. pojemności i czasu przechowywania (poza LTM,
która wydaje się nie posiadać ograniczeń w tym zakresie), wynikają zapewne
z owej statyczności ujęcia, typowego dla metafory magazynowej. Reynolds
i Flagg (1983) po analizie rezultatów wielu badań ustalili, że pojemność STM
szacuje się w granicach od 3 do 20 jednostek. Również czas przechowywania
informacji w pamięci krótkotrwałej mieści się w przedziale od 5 s (Lehrl, Fisher,
1988) do 1 min (Sternberg, 1996b). Różnice wynikają w sposób jednoznaczny
z zastosowanych procedur eksperymentalnych, ale oznacza to, że różnorodne
procesy poznawcze wpływają zarówno na czas przechowywania, jak i pojemność
STM. Dzięki efektywnemu kodowaniu z wykorzystaniem mnemotechnik
i mechanizmowi wewnętrznych powtórek można zwiększyć zakres obu
parametrów pamięci. Właściwości pamięci sensorycznej wydają się bardziej
stałe, ale również w jej przypadku pojemność i czas przechowywania zapisu
różnią się w zależności od angażującego ją zadania poznawczego.
Po drugie, kontrowersyjny wydaje się pogląd, że przetwarzanie informacji
z udziałem systemów pamięciowych odbywa się zgodnie z ustaloną w modelach
blokowych ścieżką. Właściwie żadna z omówionych propozycji teoretycznych
nie rozwiązuje tego problemu w sposób zadowalający. Tymczasem proces mi­
mowolnego uczenia się w paradygmacie sztucznych gramatyk wydaje się
pomijać pamięć krótkotrwałą, ale już werbalizacja reguł gramatyki (przynaj­
mniej częściowo możliwa) wiąże się transferem informacji z LTM do STM. Co
więcej, aby wyjaśnić to zjawisko, niezbędne jest opisanie mechanizmu kodo­
wania informacji (abstrakcyjnego albo - co wydaje się już prostsze - egzem­
plarzowego) bez udziału STM. Również zautomatyzowane czynności procedu­
ralne realizowane są bez udziału pamięci krótkotrwałej. Wydaje się, że metafora
magazynowa w ogóle nie pasuje do ludzkiego umysłu, którego struktura - jak
uważa Czesław Nosal (1990) - podlega dynamicznym zmianom.
332
Rozdział 8. Pamięć
Po trzecie, podważono ideę zróżnicowania kodów reprezentacji danych
w poszczególnych magazynach. Najmniej wątpliwości budzi rodzaj kodu w pa­
mięci sensorycznej. Jednak już np. model pamięci roboczej Baddeleya (1986;
Baddeley, Hitch, 1974) wyróżnia odrębne kody podsystemów przechowywania
informacji werbalnej i wzrokowo-przestrzennej, a także informacji zintegrowa­
nej z różnych modalności (Baddeley, 2001, 2002). Z kolei teoria Paivio (1971,
1986) zakłada, że kodowanie informacji w pamięci trwałej może odbywać się
zarówno werbalnie, jak i niewerbalnie (np. obrazowo), a nie tylko semantycznie.
Długotrwale pamiętanie dźwięków melodii, smaków czy zapachów, jak również
procedur, sugeruje, że LTM wykorzystuje pełną pulę kodów reprezentowania
informacji. Nie wydaje się, aby koncepcja uniwersalnego, abstrakcyjnego kodu
propozycjonalnego była do utrzymania w odniesieniu do kodowania, np.
dźwięków muzyki, a przecież każdy człowiek umiejętność tę posiada.
Po czwarte, zauważono, że dowody odrębności STM i LTM, oparte na
krzywych pozycyjnych, można wyjaśnić bez przyjmowania założeń o głębokich
różnicach strukturalnych. Zniesienie efektu świeżości można wyjaśnić zjawis­
kiem interferencji pomiędzy przechowywaną informacją werbalną (listą słów),
a werbalnym zadaniem odliczania wstecz. Kiedy bowiem zastosowano inne
zadanie „przeszkadzające” w powtarzaniu listy stów, które polegało na wy­
łapywaniu z zestawu dźwięków tonu o określonej wysokości, efekt świeżości
utrzymywał się nawet do 40 s (Reitman, 1971, 1974). Również dane kliniczne,
dotyczące efektu podwójnej dysocjacji, można wyjaśnić odwołując się do
zaburzenia przebiegu procesów przetw arzania informacji, związanych
z różnymi mechanizmami pamięciowymi. Może to być zaburzenie konsolidacji
śladu pamięciowego, dokonującej się z udziałem hipokampa (zob. rozdz. 9.1.3).
Inne ujęcie wymaga zmiany spojrzenia na funkcje struktur mózgowych
w procesie pamięciowym. Być może struktury mózgowe, niewątpliwie odrębnie
aktywowane w zadaniach klasycznie uznawanych za miary STM i LTM, nie
wskazują na odrębną lokalizację systemów, ale na odrębność związanych z nimi
procesów poznawczych, np. konsolidacji śladu pamięciowego, albo przywoły­
wania określonych zapisów pamięciowych. Zaburzenia w zakresie tych
mechanizmów, nawet jeśli mają dobrze poznaną etiologię, związaną z uszko­
dzeniem określonych partii mózgu, mogą być dowodem odrębności mechaniz­
mów pamięciowych, a nie systemów pamięci.
W końcu po piąte, modele blokowe ujmują procesy pamięciowe w izolacji
od innych procesów poznawczych. Według Craika i Lockharta (1972), różnice
pomiędzy ilością danych trwale przechowywanych w pamięci, a ilością in­
formacji aktualnie świadomie przetwarzanych wynikają nie z lokowania ich
w odrębnych magazynach, lecz z działania procesów uwagowych odpowiedzial­
nych za aktywowanie informacji. Trudno byłoby wyjaśnić proces kodowania
informacji w LTM w oderwaniu od selekcji danych, która też jest procesem
uwagowym. Również wydobywanie informacji z LTM, polegające na przeszu­
kaniu jej olbrzymich zasobów, nie byłoby tak szybkie bez udziału uwagi
selektywnej. Połączenie różnych procesów poznawczych w jednym modelu jest
zabiegiem skomplikowanym i generuje różne trudności. Na przykład pojawił się
problem, czy mechanizm uwagowy angażowany w przeszukiwanie pola
wzrokowego jest tym samym, który wspomaga przeszukiwanie pamięci. Innymi
słowy, ważne wydaje się ustalenie, czy uwaga jest mechanizmem jednorodnym
8.1. Natura pamięci
333
(por. Nęcka, 1995; Szymura, Nęcka, 2004). Jednak pomijanie czynników istot­
nych dla danego zjawiska, chociaż w tradycji badawczej analizowanych
odrębnie, byłoby nieuprawnionym uproszczeniem.
8.1.3. Procesualne modele pamięci
Modele procesualne są alternatywnymi koncepcjami wyjaśniającymi wyniki
badań nad pamięcią. W szczególności oznacza to, że nie kwestionując tych
wyników, można wyjaśnić funkcjonowanie pamięci bez odwoływania się do
metafory magazynowej. Co więcej, kontrowersje związane z próbami oszaco­
wania pojemności i czasu przechowywania informacji w różnych systemach są
łatwiejsze do wyjaśnienia w ujęciu procesualnym niż strukturalnym. Nauka
przedkłada proste rozwiązania nad bardziej złożone, jeśli te pierwsze wyjaśniają
zgromadzone dane co najmniej tak samo dobrze, jak te drugie. W przypadku
procesualnych modeli pamięci, a szczególnie teorii poziomów przetwarzania
Craika i Lockharta (1972), wydaje się, że wyjaśnienia przez nie proponowane
uznać można nawet za lepsze, niż wyjaśnienia proponowane w ujęciu maga­
zynowym. Przykładowo, wspomniane kontrowersje dotyczące właściwości
magazynów, które są nie do uniknięcia w tradycyjnym, blokowym ujęciu
pamięci, w większości z łatwością i niejako przy okazji, są wyjaśniane jako efekt
głębokości przetwarzania informacji.
Teoria poziomów przetwarzania nie była pierwszą próbą procesualnego
wyjaśnienia funkcjonowania pamięci. Jednak w kontraście np. do procesualnego
modelu pamięci długotrwałej Rumelharta, Lindseya i Normana (1972), nie była
ograniczona tylko do jednego systemu pamięci. Jej ambicją, podobnie jak
opisanych powyżej modeli blokowych, było wyjaśnienie szerokiej klasy zjawisk,
niekiedy kosztem niewystarczającego poziomu szczegółowości postulowanych
mechanizmów pamięciowych. Niemniej teoria poziomów przetwarzania była
absolutnie przełomową, alternatywną próbą zrozumienia mechanizmów pamię­
ciowych.
Craik i Lockhart (1972) przyjęli, że trwałość śladów pamięciowych wiąże
się z głębokością przetworzenia stymulacji. Ponieważ głębokość przetwarzania
jest efektem wielu procesów, nie tylko kodowania informacji, ale również póź­
niejszej obróbki, jest to zmienna ciągła. Skoro trwałość informacji jest skutkiem
głębokości przetworzenia, niepotrzebne, a co najmniej uproszczone jest ogra­
niczanie się do skończonej liczby poziomów przetworzenia (w metaforze maga­
zynowej - liczby systemów pamięci). W teorii poziomów przetwarzania traktuje
się pamięć jako system jednorodny, chociaż pogłębienie przetwarzania może
angażować różne mechanizmy poznawcze. Przykładowo inne będą mechanizmy
płytkiej sensorycznej obróbki stymulacji, a inne głębokiego kodowania infor­
macji w relacji do posiadanej wiedzy.
Zapisy pamięciowe w teorii Craika i Lockharta stanowią swego rodzaju
produkt uboczny percepcyjnej analizy stymulacji. Pojęcie analizy percepcyjnej
rozumiane jest przez autorów jako proces złożony, angażujący - przy głębszym
przetworzeniu - również wieloaspektową interpretację stymulacji. Ślady
pamięciowe nie stanowią bezpośredniego odwzorowania bodźca, lecz są za­
pisem operacji poznawczych, składających się na proces jego percepcji. Stąd
334
Rozdział 8. Pamięć
proces odpamiętywania jest próbą odtworzenia sytuacji percepcyjnej. Ponieważ
teoria poziomów przetwarzania zakłada, że pogłębienie przetwarzania wiąże się
z wykonaniem wcześniejszych, płytszych operacji poznawczych, dlatego odtwa­
rzanie stymulacji przebiega tym sprawniej, im głębiej została ona przetworzona.
Przywołania pamięciowe są tym samym uzależnione od przebiegu procesów
interpretacji bodźca oraz od możliwości późniejszego odtworzenia operacji,
które uczestniczyły w procesie interpretacyjnym. Rozwiązanie takie pozwala na
wyjaśnienie różnic intra- i interindywidualnych w przywołaniach pamięciowych,
czyli różnic ujawniających się zarówno między osobami uczestniczącymi w ja­
kimś zdarzeniu, jak również między kolejnymi przywołaniami tej samej osoby.
Jak zauważa Najder (1997), w przeciwieństwie do wyjaśnień pochodzących
z modeli magazynowych, teoria poziomów przetwarzania zakłada, że nawet
gdyby usunąć wszystkie niesprawności systemu poznawczego, przywołania pa­
mięciowe - przynajmniej inter-, a być może i intraindywidualnie - byłyby nadal
różne. Wynika to z przebiegu procesu interpretacji stymulacji, który może prze­
biegać zupełnie inaczej u różnych ludzi, nawet jeśli działają na nich te same
bodźce. Różne mogą być też możliwości odtworzenia operacji poznawczych,
które składały się na proces percepcji i interpretacji.
Craik i Lockhart przyjęli dla uproszczenia podział poziomów przetwarzana
na: płytsze, związane z analizą fizycznych właściwości stymulacji, i głębsze,
związane z analizą znaczenia stymulacji. Każdy z nich może zawierać wiele
podpoziomów, jednak autorzy nie chcieli przesądzać o ich liczbie i unikalnych
właściwościach każdego z nich. W badaniach empirycznych potwierdzono hi­
potezę, wiążącą głębokość przetwarzania bodźca z prawdopodobieństwem roz­
poznania (Craik, TuMng, 1975; zob. paradygmat 8.1) albo swobodnego
przypominania (Rogers, Kupler, Kirke, 1977).
Paradygm at 8.1
Badanie pamięci w kategoriach poziomów przetwarzania
W klasycznym badaniu Craika i Tulvinga (1975) przeprowadzono łącznie dziesięć
eksperymentów. W każdym z nich uczestniczyło ponad 20 osób badanych, którym
prezentowano kilkadziesiąt (40 do 60) krótkich rzeczowników o konkretnym zna­
czeniu. Słowa te były prezentowane tachistoskopowo w czasie 200 ms. Przed każI dym słowem osobie badanej czytano lub prezentowano na piśmie pytanie dotyczą- i
| ce najbliższego słowa. Na pytanie to trzeba było odpowiedzieć już po zapoznaniu ?
* się z bodźcem, naciskając odpowiedni przycisk (klucz reakcyjny TAK lub NIE) albo
x emitując reakcję werbalną. W każdym przypadku mierzono czas reakcji.
Istotą procedury Craika i Tulvinga było manipulowanie charakterem pytań, tak
; aby - zgodnie z przyjętym stanowiskiem teoretycznym - określone pytanie ?
stymulowało odpowiedni poziom przetwarzania informacji. Na poziomie płytkim,
nazwanym przez autorów poziomem strukturalnym, pytano o to, czy słowo
napisane jest wielkimi literami. W przypadku, gdy za chwilę pojawiło się np. słowo
„STÓŁ”, należało odpowiedzieć TAK, a gdy słowo napisano jako „stół”, właściwa
odpowiedź brzmiała NIE. Na nieco głębszym poziomie „fonemicznym” pytano, czy
słowo rymuje się z innym słowem. Na przykład pytanie brzmiało: „Czy słowo rymuje
8.1. Natura pamięci
335
się ze słowem DYNIA?” Jeśli po tym pytaniu badany zobaczył słowo „skrzynia”,
powinien zareagować TAK, a jeśli widział słowo „targ”, powinien nacisnąć przycisk
NIE. Na najgłębszym poziomie, wymagającym analizy semantycznej, pytano albo
o przynależność kategorialną słowa, albo o to, czy słowo pasuje do konkretnego
zdania. Na przykład na pytanie: „Czy to jest gatunek ryby?”, należało odpowiedzieć
TAK w przypadku słowa „REKIN”, a NIE w przypadku słowa „niebo”. Z kolei na
pytanie: „Czy to słowo pasuje do zdania: ‘Spotkał ___ na ulicy’?”, należało
odpowiedzieć TAK w przypadku słowa „PRZYJACIEL”, a NIE w przypadku słowa
„chmura”.
Drugą, niezwykle istotną, częścią procedury był niespodziewany test pamięci.
Osoby badane proszono o odpamiętanie prezentowanej wcześniej listy słów, albo
w warunkach swobodnego przypominania („Przypomnij sobie w dowolnej kolej­
ności słowa, które widziałeś w zadaniu na spostrzeganie”), albo w warunkach roz­
poznawania. Jeśli stosowano test rozpoznawania, badanym prezentowano listę
słów oryginalnych wraz z dwu- lub trzykrotnym nadmiarem. Na przykład, jeśli
oryginalna lista liczyła 40 słów, w teście rozpoznania znajdowało się 80 lub 120
słów, w tym lista oryginalna w całości. Sprawdzano procent poprawnie odpamiętanych słów w zależności od warunku eksperymentalnego.
Okazało się, że manipulacja poziomami przetwarzania wpłynęła zarówno na
czas reakcji, jak i na poprawność odpamiętania. Na przykład w pierwszym
eksperymencie z serii dziesięciu, średni czas reakcji w warunku strukturalnym wy­
niósł 614 ms, w warunku fonemicznym - 689 ms, w warunku wymagającym decyzji
kategorialnej - 711 ms, a w warunku wymagających analizy treści zdania - 746 ms.
Dane te dotyczą sytuacji, gdy poprawna odpowiedź brzmiała TAK. W przypadku
1 odpowiedzi negatywnych wartości czasu reakcji było nieco inne, choć nie różniły
się znacząco od czasu reakcji pozytywnych. Jeśli chodzi o poprawność w teście
odpamiętania, była ona najniższa w warunku strukturalnym (18%), znacząco
wyższa - w warunku fonemicznym (78%), a najwyższa - w warunkach semantycz­
nych (91%, jeśli chodzi o decyzje kategorialne, a 96% w przypadku analizy treści
zdania). Dane te dotyczą poprawności reakcji typu TAK; w przypadku reakcji typu
I NIE zaobserwowano nieco słabszy przyrost poprawności w miarę przechodzenia
\ na głębszy poziom przetwarzania, chociaż i tutaj przyrost ten był znaczący (od 14%
w warunku strukturalnym do 85% w warunku wymagającym analizy treści zdania),
f Można więc powiedzieć, że im głębszy poziom przetwarzania, tym dłuższy czas
| reagowania, ale lepszy wskaźnik niezamierzonego zapamiętywania materiału.
Dłuższy czas reakcji świadczy zapewne o większej złożoności procesu pozna­
wczego, zaangażowanego w przetwarzanie materiału na poziomie głębokim. Nato­
miast wyższy odsetek poprawnych reakcji w teście pamięci świadczy niewątpliwie
| o większej i jakościowo lepszej pracy umysłu wtedy, gdy postawi mu się zadanie
I dogłębnej analizy materiału. Jak piszą sami autorzy: „przechowanie materiału
w pamięci stanowczo zależy od jakości wykonanych operacji kodowania” (Craik,
Tulving, 1975, s. 291).
Paradygmat Craika i Tulvinga był wielokrotnie wykorzystywany w badaniach
z zakresu pamięci, ale też w badaniach nad mimowolnym uczeniem się.
i Zadecydowała o tym istotna część przyjętej przez nich procedury, zgodnie z którą
| osoba badana kontaktuje się z materiałem bodźcowym bez zamiaru zapamiętania
336
Rozdział 8. Pamięć
go, lecz w odpowiedzi na polecenie eksperymentatora, aby ten materiał w jakiś
sposób przetworzyć. Potem znienacka następuje próba pamięci, której wyniki
świadczą o efektywności mimowolnego, niezamierzonego zapamiętywania. Po­
sługując się tą logiką stworzono procedury do badania skuteczności niezamierzo­
nego, mimowolnego uczenia się (np. Nęcka, 1994a; Nęcka, Machera, Miklas,
I 1992). Interesującą modyfikację tej procedury zaproponowała Dorota Bienicewicz>Krasek (2003). Punktem wyjścia była dla autorki chęć rezygnacji z bodźców
l słownych, które niewątpliwie prowokują pojawienie się operacji poznawczych
typowych dla materiału werbalnego. Mimo że pojęcie poziomów przetwarzania
odnosi się do poznania w ogóle, w badaniach eksperymentalnych wykorzystywano
tylko te zabiegi, które nadawały się do słów. Na przykład na poziomie płytkim
pytano, czy słowo jest napisane wielkimi literami, a na poziomie głębokim, czy
pasuje logicznie do zdania. W proponowanej modyfikacji pokazywano osobom
badanym obrazki. Chcąc sprowokować płytki poziom przetwarzania, pytano o to,
jakiego koloru (z czterech do wyboru) jest na obrazku najwięcej. Natomiast głębszy
poziom przetwarzania wzbudzano pytaniem, czy dwa przedmioty pokazane na
osobnych obrazkach należą do tej samej kategorii, albo czy mogłyby się pojawić
w tym samym kontekście („Gdyby przedmiot w kółku pojawił się na obrazku obok,
; czy miałoby to sens?”). W ten sposób przełamano tradycję, zgodnie z którą głęboki
poziom przetwarzania określano jako poziom semantyczny. Wyniki badań
i Bienicewicz-Krasek pokazały, że tak spreparowany materiał daje analogiczne
zależności, jak materiał werbalny, bowiem procent poprawnie rozpoznanych bodź­
ców w teście pamięci był znacząco wyższy wtedy, gdy bodźce te opracowywano na
poziomie głębokim.
Rogers, Kupler i Kirke (1977) zastosowali podobną procedurę jak Craik
i Tulving, ale wprowadzili dodatkowo jeszcze jeden typ pytania, odnoszący się
do Ja osoby badanej. Badani mieli mianowicie odpowiedzieć na pytanie, czy
prezentowane im słowo opisuje ich samych. Wyniki testu swobodnego
odtwarzania słów stosowanych jako materiał do tego pytania były znacząco
wyższe, niż rezultaty odnoszące się do semantycznego poziomu przetwarzania,
uważanego zwykle za najgłębszy. Co istotne, wyniki te dotyczyły zarówno słów,
które badani oceniali jako bardziej trafnie opisujące ich osobę, jak też słów
mniej trafnych, przy czym te pierwsze pamiętane były zdecydowanie najlepiej.
Autorzy nazwali swój rezultat efektem autoreferencji. Wydaje się, że odpowiedź
na pytanie tego typu wymaga bardzo głębokiej analizy słowa w odniesieniu do
kluczowej dla jednostki wiedzy na temat Ja. Bellezza (1984) dowodzi, że wiedza
tego typu jest rozbudowana i łatwo dostępna, dlatego efekt autoreferencji jest
wyjątkowo silny. Nie ma jednak powodu, aby uznawać go za jakościowo różny
od innych mechanizmów głębokiego poziomu przetwarzania.
Z kolei badania Hyde’a i Jenkinsa (1969), w których użyto uproszczonej
wersji paradygmatu stosowanego przez Craika i Tulvinga, wykazały, że nawet
jeśli osoby badane zostaną poinformowane o teście sprawdzającym poziom za­
pamiętania słów, nie ma to większego znaczenia dla uzyskanych rezultatów.
Badacze zastosowali plan międzygrupowy, w którym manipulowali głębokością
przetworzenia i informacją o teście sprawdzającym poziom zapamiętania słów.
8.1. Natura pamięci
337
Płytki poziom przetworzenia związany był z zadaniem polegającym na
policzeniu liter w każdym z prezentowanych słów, a głęboki - z oceną, w jakim
stopniu przyjemne jest dane słowo. W grupach, w których test swobodnego
odtwarzania słów użytych w eksperymencie byt niespodzianką, uzyskano 68%
poprawnych odtworzeń w grupie głębokiego poziomu przetwarzania i 39% w grupie poziomu płytkiego. Jeśli osoby badane poinformowano o czekającym je
teście odtwarzania, uzyskano odpowiednio 69% poprawnych odtworzeń w gru­
pie głębokiego i 43% - w grupie płytkiego poziomu przetwarzania. Byt to spek­
takularny dowód na bardzo silny wpływ głębokości przetwarzania na poziom
odtworzenia i bardzo słaby wpływ informacji uprzedzającej o tym, że słowa
należy zapamiętać.
W teorii poziomów przetwarzania przyjęto szereg innych, kontrowersyjnych
niekiedy założeń, z których istotne wydaje się twierdzenie dotyczące „obiegu”
informacji w obrębie poziomów przetwarzania i pomiędzy nimi. U Craika
i Lockharta są to dwa mechanizmy: powtarzania podtrzymującego (maintenance
rehearsal) i powtarzana pogłębiającego (elaborative rehearsal). Mechanizm po­
wtarzania podtrzymującego polega na powtarzaniu operacji, które zostały
uprzednio wykonane na danym materiale. Mechanizm ten nie prowadzi do
pogłębienia przetwarzania. Jego funkcją jest aktywne podtrzymywanie informacji
na danym poziomie. Z kolei mechanizm powtarzania pogłębiającego polega na
zastosowaniu nowych - najczęściej semantycznych - operacji w stosunku do
materiału pamięciowego, prowadzących do jego głębszego przetworzenia. Nie
stworzono wyczerpującego katalogu operacji, które prowadzą do pogłębienia
przetwarzania. Według Morrisa, Brandsforda i Franksa (1977), można podzielić
je na dwie grupy: dotyczące elaboracji materiału albo elaboracji relacji. Pierwszy
rodzaj elaboracji polega na kodowaniu z uwzględnieniem poszczególnych cech
bodźca, a drugi - na kodowaniu bodźca w odniesieniu do właściwości innych
zapisów pamięciowych. W obu przypadkach kodowanie może obejmować różne
poziomy przetwarzania, np. cechy fonemiczne i semantyczne słowa „książka”
(elaboracja materiału) czy relacje fonemiczne słów „książka” oraz „wstążka”,
albo relacje semantyczne z pojęciami, takimi jak: „druk”, „wiedza”, „wiersz” itd.
(elaboracja relacji). Szczególnym rodzajem elaboracji relacji jest strategiczne
organizowanie informacji, polegające na poszukiwaniu w nabywanym materiale
określonego porządku. Klein i Kihlstorm (1986) wykryli, że jeśli informacja
łatwiej poddaje się porządkowaniu, czyli ułatwia głębokie przetworzenie, to jej
późniejsze odtworzenie jest bardziej efektywne.
Oba mechanizmy obiegu informacji są unikalne dla koncepcji poziomów
przetwarzania. Co prawda powtarzanie podtrzymujące pojawia się również
w koncepcjach magazynowych, ale obie koncepcje prowadzą do różnych pre­
dykcji co do jego efektów. Powtarzanie podtrzymujące w ujęciu magazynowym
prowadzi do utrwalenia śladu pamięciowego, podczas gdy w teorii poziomów
przetwarzania nie ma na to wpływu. Craik i Watkins (1973) zaprojektowali
badanie, którego celem była weryfikacja tych predykcji. W zadaniu prezento­
wano listę wyrazów, z poleceniem zapamiętania ostatniego słowa, rozpoczyna­
jącego się na określoną literę (słowo docelowe). Na liście znajdowało się wiele
tego typu słów, co wymagało ciągłej aktualizacji pamięci: nowe słowo docelowe
zastępowało poprzednie. Pomiędzy nimi na liście znajdowały się słowa roz­
poczynające się na inne litery. Ich liczba podlegała manipulacji eksperymental­
338
Rozdział 8. Pamięć
nej w zakresie 0-12. Słowa te mogły być ignorowane przez osoby badane po
stwierdzeniu, że zaczynają się na niewłaściwą literę. Istotą tej manipulacji było
założenie, że w trakcie prezentacji listy wyrazów ignorowanych osoby badane
mają okazję do powtarzania ostatniego słowa docelowego. Ponieważ zadanie
nie wymaga od osób badanych pogłębionego przetwarzania słowa, powtarzanie
podtrzymujące wystarcza do jego wykonania. Przyjęto, że więcej wyrazów
ignorowanych pomiędzy kolejnymi ekspozycjami słów docelowych pozwala na
większą liczbę tego rodzaju powtórek. Jednak w myśl założeń teorii poziomów
przetwarzania, nie powinno to mieć wpływu na poziom ich odtworzenia. Na
zakończenie badania zastosowano procedurę swobodnego odtwarzania słów
docelowych z całej listy, o czym nie poinformowano wcześniej osób badanych.
W badaniach wykazano, że poziom odtw,orzenia nie wiąże się z liczbą
przypuszczalnych powtórzeń słowa docelowego, co było zgodne z teorią
poziomów przetwarzania.
Coraz częściej pojawiają się badania odnoszące się do mózgowego podłoża
teorii poziomów przetwarzania (zob. ramka 8.1). Stosowane w nich odmiany
klasycznego paradygmatu eksperymentalnego Craika i Tulvinga (1975; zob.
paradygmat 8.1) połączono z różnymi technikami neuroobrazowania, przez co
uzyskano wgląd w aktywację struktur mózgowych w warunkach płytkiego
i głębokiego przetwarzania.
Zwolennicy teorii poziomów przetwarzania zaproponowali nie tylko nowe
spojrzenie na pamięć. Poddali również reinterpretacji koronny argument na
rzecz strukturalnej odrębności magazynów STM i LTM, tj. wyniki badań nad
krzywymi pozycyjnymi. Dokonał tego Bernbach (1975). Jego zdaniem, począt­
kowa część listy zostaje lepiej zapamiętana dzięki pogłębionej analizie, co wy­
jaśnia efekt pierwszeństwa. Ponieważ nie udaje się to w stosunku do wszystkich
elementów długiej listy, np. ze względu na zbyt szybkie tempo jej prezentacji,
późniejszy materiał kodowany jest już płycej. Efekt świeżości jest również
skutkiem płytkiego przetwarzania, o czym świadczy jego duża podatność na
dystrakcję wywoływaną zadaniem wykonywanym zaraz po ekspozycji listy.
Dzięki pewnym zabiegom, np. wymuszeniu powtarzania każdego elementu listy
tyle samo razy, udaje się znieść oba te efekty. Jeśli założyć, że powtarzanie może
się wiązać z określoną strategią elaboracji (Morris, Brandsford, Franks, 1977),
powtarzanie jest sposobem pogłębienia przetwarzania każdego elementu listy.
Teoria poziomów przetwarzania była intensywnie krytykowana, co dopro­
wadziło do gruntownej jej modyfikacji (Lockhart, Craik, 1990). Modyfikacje
polegały w większości na osłabieniu pierwotnych twierdzeń teorii z 1972 r., bez
przyjmowania nowych, oryginalnych rozwiązań. Osłabiono główne twierdzenie
o związku głębokości przetwarzania z trwałością śladów pamięciowych. Autorzy
uwzględnili dane wskazujące na wyższą - niż przewidywana przez ich koncepcję
- trwałość śladów pamięciowych informacji przetworzonej na płytkim poziomie
sensorycznym. Później wykazano, że uzasadnione wydaje się jeszcze większe
ograniczenie zakresu tego twierdzenia. Challis i Brodbeck (1992) wykazali, że
efekt głębokości przetwarzania nie stosuje się do testów pamięci ukrytej, a jedynie
do tradycyjnych miar pamięci jawnej, czyli rozpoznawania i przypominania.
Wydaje się więc, że założenie o żwiązku głębokości przetwarzania z poziomem
odpamiętania należałoby rozumieć jako efekt statystyczny (nie mający mocy
wyjaśniającej, lecz wyłącznie opisową) i ograniczyć do pamięci jawnej.
8.1. Natura pamięci
339
Ramka 8.1
Neuroobrazowanie poziomów przetwarzania
Kapur, Craik, Tulving i współpracownicy (1994) poddali weryfikacji twierdzenie
0 głębokości przetwarzania z użyciem tomografii pozytonowej (PET). Podobnie jak
w klasycznych badaniach, osobom badanym prezentowano najpierw listę słów
(rzeczowników), manipulując poziomem ich przetworzenia. W warunku płytkiego
przetworzenia zadanie polegało na detekcji litery „a” w prezentowanym słowie,
a w warunku przetwarzania głębokiego - na kategoryzacji rzeczowników, jako
odnoszących się do obiektów ożywionych bądź nieożywionych. W badaniach
zreplikowano efekt wpływu głębokości przetwarzania na poziom odtworzenia
w teście rozpoznania. Za pomocą techniki PET zidentyfikowano różne obszary,
aktywowane w trakcie fazy prezentacji słów w warunkach płytkiego i głębokiego
przetwarzania. Różnica dotyczyła aktywności lewej dolnej kory przedczołowej
półkuli (left inferior prefrontal cortex), angażowanej w warunku przetwarzania
głębokiego.
Otten i Rugg (2001) używając techniki funkcjonalnego rezonansu magnetycz­
nego (fMRI) przeprowadzili eksperyment, w którym osoby badane miały zdecydo­
wać, czy prezentowane im słowo oznacza obiekt ożywiony, czy nie (poziom głębszy,
ze względu na konieczność analizy znaczenia), albo czy słowo posiada parzystą czy
nieparzystą liczbę liter (poziom płytki). Podobnie jak u Kapura i współpracowników,
jedynie warunek głębokiego przetwarzania angażował korę przedczołową lewej
półkuli oraz jej obszar przyśrodkowy (left and medial prefrontal cortex). Z kolei
w warunku płytkiego przetwarzania angażowane były obustronnie obszary bruzdy
śródciemieniowej (bilateral intraparietal sulcus) i zakrętu wrzecionowatego (bilateral
fusiform gyrus) oraz obszar przedczołowy prawej półkuli (right prefrontal cortex)
1górny zakręt potyliczny lewej półkuli (left superior occipital gyrus).
Obszary przedczołowe lewej półkuli, których wzmożona aktywność ujawniła
się w warunkach przetwarzania głębokiego w obydwu badaniach, związana jest
z przetwarzaniem znaczenia stymulacji oraz zaangażowaniem reprezentacji wer­
balnych. Z kolei obszary mózgu aktywne w warunku płytkiego przetwarzania wiążą
się z wyższorzędowymi operacjami percepcyjnymi. Przewaga aktywności struktur
prawej półkuli wskazuje na angażowanie operacji wzrokowo-przestrzennych.
Wyniki te zdają się potwierdzać trafność manipulacji stosowanej w paradygmacie
poziomów przetwarzania.
j
{
;
i
Osłabieniu uległo również założenie mówiące o ustalonej sekwencji obiegu
informacji z poziomów płytszych do głębokich. Craik i Lockhart zakładali po­
czątkowo, że obróbka stymulacji na głębszych poziomach nie może odbyć się
bez uprzedniego przetworzenia na poziomach płytszych. W wielu obszarach
psychologii poznawczej można odnaleźć dane wskazujące na współistnienie
jednocześnie oddolnych i odgórnych procesów przetwarzania informacji. Pierw­
sze dokonuje się od płytkich do głębokich poziomów przetwarzania, a drugie odwrotnie. Dlatego Lockhart i Craik (1990) stwierdzili, że przetwarzanie in­
formacji jest swego rodzaju kompromisem między procesami oddolnymi i odgór­
nymi, które na dodatek mogą zachodzić częściowo lub w pełni równolegle na
różnych poziomach przetwarzania.
340
Rozdział 8. Pamięć
Koncepcja Craika i Lockharta była niewątpliwie przełomowa w spojrzeniu
na funkcjonowanie pamięci. Z powodzeniem była w stanie odmiennie wyjaśnić
wiele danych eksperymentalnych, uzyskanych i interpretowanych w ujęciu ma­
gazynowym. Po jej opublikowaniu zgromadzono wiele danych przemawiających
na rzecz jej trafności. Nie powinno nas jednak dziwić, że nawet po modyfikacjach
teoria ta nadal posiada ograniczoną moc wyjaśniającą. Złożoność ludzkiego
umysłu wymaga teorii eleganckich i prostych, ale przede wszystkim trafnych, tj.
ujmujących całą złożoność wielu systemów i mechanizmów pamięciowych. Być
może dlatego obecnie mniejszy nacisk kładzie się na uniwersalność teorii, tj.
szeroki zakres jej zastosowania do różnorodnych zjawisk pamięciowych. Bieżące
badania koncentrują się raczej na wąskiej klasie tych zjawisk, przy maksymal­
nym pogłębieniu analizy ich mechanizmów.
W ocenie teorii poziomów przetwarzania uwzględnić należy możliwość
ścisłego powiązania między różnymi procesami poznawczymi człowieka, zwykle
traktowanymi odrębnie od pamięci. Chodzi głównie o procesy percepcyjne, które
- według Craika i Lockharta - są podłożem zjawisk pamięciowych. Istotne
wydają się również szerokie możliwości połączenia teorii poziomów przetwa­
rzania z pamięcią semantyczną, czego nie dawały modele magazynowe. Nawet
jeśli uznać zasadność krytyki teorii poziomów przetwarzania, Craik i Lockhart
wyznaczyli nią nowe sposoby opisu i badania pamięci.
8.2. Systemy pamięci przemijającej
Nawiązując do kryterium czasu przechowywania informacji, systemy pamięci
podzielono na dwie kategorie. W pierwszej mieszczą się systemy pamięci prze­
mijającej, obejmujące rejestry sensoryczne i pamięć krótkotrwałą (roboczą).
Informacje przechowywane w tych systemach, z racji ich funkcji i mechaniz­
mów działania, są nietrwałe. Co więcej, ich przemijający charakter jest w tym
przypadku zaletą, bowiem zapisy pamięciowe mogą zostać łatwo usunięte,
ustępując miejsca nowo napływającej informacji. Dynamika, zarówno elemen­
tarnych, jak i złożonych procesów poznawczych, wymaga ciągłej aktualizacji
przetwarzanych danych, czemu sprzyja łatwość „pozbywania” się niepotrzeb­
nych już informacji. Co istotne, procesy elementarne, np. percepcji, korzystają
przede wszystkim z rejestrów sensorycznych, podczas gdy procesy złożone, np.
rozumowanie - raczej z pamięci krótkotrwałej (roboczej). W drugiej kategorii
mieszczą się systemy pamięci trwałej, do których wrócimy w rozdz. 8.3.
8 .2 .1 . Pamięć sensoryczna
Teoretycznie przyjmuje się, że każdy z narządów zmysłu został wyposażony
w odpowiadający mu rejestr sensoryczny. Ze względów technicznych badaniom
empirycznym poddawano głównie dwa rejestry: pamięć ikoniczną (iconic memory), związaną ze zmysłem wzroku i pamięć echoiczną (echoic memory),
związaną z słuchem (Neisser, 1967).
8.2. Systemy pamięci przemijającej
341
Paradygmat 8.2
Procedura odtwarzania częściowego według Sperlinga
Sperling (1960) eksponował osobom badanym matrycę złożoną z liter, których
liczba przekraczała pojemność pamięci krótkotrwałej. W warunkach standardowej
prezentacji tachistoskopowej osoby badane były w stanie odtworzyć poprawnie
4-5 liter, niezależnie od wielkości owej matrycy. Ponieważ odtwarzanie w takim
zadaniu angażuje pamięć krótkotrwałą, był to kolejny dowód na jej znaczne ogra­
niczenie, przy czym mogło ono dotyczyć albo pojemności STM, albo czasu zani­
kania zawartej w niej informacji. Sperlinga nie interesowała jednak pojemność STM,
lecz pamięci ikonicznej. Zaproponował więc modyfikację opisanego zadania, w któ­
rej osoba nie odtwarzała całości zaprezentowanego materiału, lecz losowo wska­
zaną jego część. W krótkim interwale czasu prezentowano jej matrycę liter, która podobnie jak w oryginalnym zadaniu - ze względu na swoją wielkość przekraczała
pojemność STM (zob. ryc. 8.4). Prezentacja standardowo trwała 50 ms, po czym
następowała przerwa, w której wyświetlano pustą planszę (białą albo czarną).
Długość tej przerwy podlegała manipulacji eksperymentalnej. Następnie pojawiała
się wskazówka akustyczna (ton o określonej, łatwej do różnicowania wysokości),
albo wizualna (strzałka), która informowała osobę badaną o tym, który z rzędów
niewidocznej już matrycy należy odtworzyć. Ponieważ wskazówki pojawiały się
w porządku losowym, osoba badana nigdy nie wiedziała, który z rzędów będzie
musiała odtworzyć. Zakładano, że jeśli istnieje magazyn pamięci ikonicznej, osoba
badana powinna mieć ultrakrótkotrwały dostęp do całej informacji zawartej w matrycy, również po jej zniknięciu z ekranu tachistoskopu. Jeśli więc w tym czasie
wskazana zostanie pewna niewielka część materiału (nie przekraczająca pojem­
ności STM) będzie możliwe jej odtworzenie, bez względu na to, gdzie będzie
umiejscowiona.
Badania Sperlinga wykazały, że jeśli przerwa pomiędzy ekspozycją matrycy
liter a wskazówką była dłuższa niż 500 ms, poprawność odtwarzania była podobna
jak w oryginalnym zadaniu. Jeśli jednak czas tej przerwy mieścił się w przedziale
100-500 ms, badani byli w stanie odtworzyć dowolny ze wskazanych im rzędów
z niemal stuprocentową poprawnością. Oznacza to, że do momentu uzyskania
wskazówki przechowywali obraz całej matrycy, ale tylko jeśli przerwa była bardzo
krótka. Nie było istotnych różnic w uzyskanych wynikach, gdy zwiększono wielkość
matrycy do 12 liter (3 rzędy po 4 bodźce).
plansza z bodźcami
pusta plansza
ton wysoki - górny wiersz
ton średni - środkowy wiersz
ton niski - dolny wiersz
b t k
m d j
h w d
50-100 ms
bodziec wskaźnikowy
100-500 ms
Ryc. 8.4. Procedura zastosowana w zdaniu Sperlinga (1960).
?
i
5
j
!
342
Rozdział 8. Pamięć
Odkrycia pamięci ikonicznej dokonał Sperling (1960), stosując tzw. pro­
cedurę odtwarzania częściowego (partial-report procedure; zob. paradygmat
8.2). Okazało się, że w pamięci ikonicznej mieści się znacznie więcej informacji
niż w pamięci krótkotrwałej, lecz czas przechowywana jest bardzo ograniczony.
Badania Sperlinga dowodziły, że przechowaniu podlegają fizyczne właściwości
bodźców wzrokowych. Dzięki różnym odmianom procedury odtwarzania
częściowego okazało się, że osoby badane mają dostęp nie tylko do lokalizacji
bodźców. Zapis w pamięci ikonicznej pozwalał na odtworzenie materiału ze
względu na wielkość liter (wielkich lub małych), a nawet ich kolor. Wydaje się
zatem, że pamięć ikoniczna wiernie koduje wszelkie właściwości fizyczne
stymulacji, dzięki czemu dalsza obróbka danych może odbywać się ze względu
na dowolne kryteria.
Procedura odtwarzania częściowego doczekała się wielu modyfikacji. Jedną
z nich poświęcono oszacowaniu pojemności pamięci ikonicznej. Averbach
i Coriell (1961) eksponowali osobom badanym losowy ciąg 16 liter umieszczo­
nych w dwóch rzędach. Przed albo po ekspozycji liter prezentowano planszę
zawierającą znak, wskazujący osobie badanej literę, którą powinna była odtwo­
rzyć. Zatem z jednej strony zwiększono liczbę prezentowanych liter, a zmniej­
szono do jednej liczbę liter wymagających odtworzenia. Okazało się, że badani
byli w stanie poprawnie odtworzyć ok. 75% bodźców, czyli średnio 12 z 16 liter.
W innym eksperymencie Averbach i Coriell (1961) odkryli dużą podatność
pamięci ikonicznej na interferencję wywołaną nowo napływającą informacją.
Kiedy w miejscu prezentacji bodźca w odstępie minimum 100 ms pojawia się
kolejny bodziec, ten pierwszy ulega całkowitemu zatarciu. Zjawisko to nosi
nazwę maskowania wstecznego (backward masking). Jeśli jednak odstęp mię­
dzy bodźcami jest krótszy niż 100 ms, dochodzi do nakładania się ich na sie­
bie. Erikson i Collins (1967) badali to zjawisko, prezentując osobom badanym
w krótkich odstępach czasu dwa układy kropek, które po nałożeniu na siebie
tworzyły litery V, C albo H. Jeżeli dwa układy kropek pokazywano w odstępie
mniejszym niż 100 ms, osoby badane rozpoznawały litery, nie zdając sobie
sprawy z tego, że zostały one utworzone z dwóch odrębnych obrazów. Jeśli
jednak odstęp ten był dłuższy niż 100 ms, następowało zjawisko maskowania
wstecznego, powodujące niemożność rozpoznania liter.
Badania nad pamięcią echoiczną prowadzono w paradygmacie słuchania
dychotycznego. Treisman (1964a) prezentowała osobom badanym w różnych
kanałach dwie informacje, które mogły być identyczne albo różne. Jak zwykle
jeden z kanałów zdefiniowany był jako ważny, a drugi - jako ignorowany. Jeśli
odstęp czasowy między informacją w kanale ignorowanym i ważnym był nie
dłuższy niż 2 s, osoby badane były w stanie ocenić podobieństwo obu przeka­
zów. Oznacza to, że informacja, którą należało ignorować pozostawała dostępna
przetwarzaniu jeszcze przez 2 s, co można uznać za wskaźnik czasu utrzymy­
wania informacji w pamięci echoicznej. Z kolei Darvin, Turvey i Crowder
(1972) zastosowali procedurę będącą połączeniem zmodyfikowanych paradyg­
matów Sperlinga i Treisman. Osobom badanym w słuchawkach stereofonicz­
nych prezentowano po 3 bodźce akustyczne w trzech różnych lokalizacjach
przestrzennych: z lewej strony (kanał lewy), z prawej strony (kanał prawy)
i z góry (stereofonicznie). Natomiast wizualnie pojawiała się wskazówka okreś­
lająca lokalizację, z której należało odtworzyć zaprezentowany materiał. Oka­
8.2. Systemy pamięci przemijającej
343
zało się, że czas przechowywania informacji sensorycznej w pamięci echoicznej
wynosił do 4 s. W innych badaniach wykazano, że czas przechowywania in­
formacji w rejestrach sensorycznych można w sprzyjających warunkach znacz­
nie przedłużyć. Jeśli zminimalizuje się poziom dystrakcji, to informacja w pa­
mięci ikonicznej utrzymuje się do 2 s, a w pamięci echoicznej - nawet do 10 s
(Cowan, 1984).
Ultrakrótkiemu przechowaniu informacji w rejestrach sensorycznych pod­
legają, jak się wydaje, fizyczne właściwości stymulacji. Dzięki nim możliwa jest
poznawcza obróbka bodźca, nawet jeśli nie jest on już dostępny percepcyjnie.
W przypadku pamięci ikonicznej ten krótki czas daje możliwość przeprowa­
dzenia analizy cech stymulacji, ich późniejszą integrację i w końcu rozpoznanie
bodźca. Pamięć echoiczna wydaje się mieć kluczowe znaczenie dla rozpozna­
wania mowy, bowiem przechowane w niej fonemy mogą się z sobą łączyć, dając
możliwość analizy znaczenia, jeśli utworzą znane nam słowo.
8.2.2. Pamięć krótkotrwała
W ujęciu magazynowym podstawowe właściwości charakteryzujące odrębne
systemy pamięciowe to pojemność i czas przechowywania kodowanych w nich
informacji. Jedne z pierwszych badań, kluczowych dla precyzyjnego oszacowa­
nia tych właściwości, wykonano w latach 50. XX w. Pierwsze dane wskazywały,
że czas przechowywania nawet niewielkich porcji informacji w STM wynosi od
kilku do kilkunastu sekund, w zależności od przyjętego kryterium poziomu
odpamiętania (zob. paradygmat 8.3). Badania Petersonów (Peterson, Peterson,
1959) wykazały, że w poprawne odtwarzanie materiału z pamięci krótkotrwałej
spada poniżej 50% po ok. 7 s. O tak słabych rezultatach decyduje szczególny
rodzaj materiału i procedury tych badań. Możliwość zastosowania różnych
mnemotechnik, a przede wszystkim swobodnego wykorzystania mechanizmu
bezgłośnego powtarzania, pozwala na znaczące przedłużenie czasu przechowy­
wania informacji w STM.
Paradygmat 8.3
1 Procedura badania pamięci krótkotrwałej Browna-Petersonów
SW procedurze eksperymentalnej Browna (1958) I Petersonów (Peterson, Peterson,
| 1959) eksponowano zestawy trzech bezsensownych spółgłosek, np. XLR, oraz
trzycyfrową liczbę, np. 123. Zadanie osoby badanej polegało na zapamiętaniu
zestawu liter, a następnie głośnym odliczaniu trójkami wstecz, poczynając od za­
prezentowanej liczby (120, 117, 114 itd.). Po upływie pewnego czasu należało
przerwać odliczanie i odpamiętać zestaw spółgłosek. Manipulacji eksperymentalnej
podlegał interwał czasu pomiędzy ekspozycją zestawu spółgłosek (i liczby), a poleceniem jego odtworzenia. Wynosił on 3, 6, 9, 12, 15 albo 18 s. Celowo zastosowano bezsensowne zestawy spółgłosek, nie mające swojego odpowiednika
w języku, aby wyłączyć tzw. strategię grupowania (chunking strategy), polegającą
na łączeniu materiału w większe całości (zob. opis w tekście). Dlatego wyeliminowano zestawienia w rodzaju MSW albo CCC, które łatwo poddają się grupo-
*
:]
■'
i
f
f
®
344
Rozdział 8. Pamięć
I waniu. Z kolei odliczanie trójkami wstecz miało na celu zminimalizowanie udziału
J mechanizmu bezgłośnego powtarzania.
Uzyskane rezultaty dotyczące poprawności odtworzenia zestawów spółgłosek
I zilustrowano na ryc. 8.5. Okazało się, że poziom odpamiętania sylab bardzo szybko
| spada w funkcji czasu, i nawet w wypadku najkrótszego interwału nie osiągnął 100%.
czas przechowywania
Ryc. 8.5. Wyniki uzyskane W eksperymencie Peterson i Petersona (1959).
Podobne rezultaty uzyskał Murdock (1961), stosując procedurę Petersonów,
ale po zastąpieniu zestawów spółgłosek słowami. Okazało się, że poziom
odtworzenia zestawu 3 słów spadał równie szybko, jak w przypadku bezsensow­
nych sylab. Przy okazji jest to wynik wskazujący, że jednostki pamięciowe
magazynu STM (w których wyraża się „magiczna liczba” Millera, czyli 7 ± 2 )
mogą mieć różną „pojemność” wyrażoną w bitach informacji. Jest to kolejny
dowód, że przedstawione powyżej analizy Lehrla i Fischera traktować należy
z dużą ostrożnością. W innym warunku eksperymentu Murdocka, kiedy to badani
mieli w każdej próbie do zapamiętania tylko jedno słowo, poziom odtworzenia był
wysoki (nie spadał poniżej 80%), nawet w przypadku najdłuższego interwału 18 s.
Procedura Petersonów, w założeniu mająca na celu eliminację mechaniz­
mów decydujących o różnicach indywidualnych w funkcjonowaniu pamięci,
wprowadza jednak innego typu zakłócenie. Oba zadania wykonywane przez
osobę badaną - przechowywanie spółgłosek i odliczanie trójkami wstecz angażują ten sam rodzaj reprezentacji werbalnych. Baddeley (1986) wykazał, że
w takim przypadku dochodzi do interferencji, która byłaby znacznie słabsza,
gdyby jedno z zadań angażowało inny typ reprezentacji.
Zapominanie w pamięci krótkotrwałej może więc mieć różnorodne
podłoże. Po pierwsze, informacja zanika z upływem czasu. Zanik ten następuje
8.2. Systemy pamięci przemijającej
345
samoistnie i wydaje się być funkcją spadku aktywacji krótkotrwale wzbudzo­
nej informacji. Po drugie, w STM dość łatwo dochodzi do interferencji między
zawartymi w niej informacjami, tym silniejszej, im bardziej są one do siebie
podobne. I po trzecie, ponieważ funkcje kontrolne pamięci krótkotrwałej wią­
zane są z uwagą, dochodzić może do tzw. przekierowania uwagi (diversion of
attention), tj. zaniechania powtarzania jakiegoś materiału na rzecz innego
zadania angażującego STM (Reitman, 1974).
Sposobem na „powiększenie” pojemności pamięci jest grupowanie {chunk­
ing). Oczywiście nie chodzi o powiększenie wielkości magazynu STM (jeśli
w ogóle mamy do czynienia z magazynem), lecz o zmianę organizacji zapamię­
tywanego materiału w taki sposób, aby lepiej „upakować” go w pamięci. Polega
to na próbie połączenia materiału, którego każda część stanowi pojedynczą
„bryłę” {chunk). Przykładowo: ciąg cyfr 123987 łatwo pogrupować, łącząc ra­
zem 123 i 987. Jeszcze łatwiej pogrupować nawet dłuższe ciągi, np. 123456789
albo 101010101010101010. Strategia grupowania polega niekiedy na nadaniu
„bryłom” odrębnego znaczenia. Wówczas jednostką pamięci jest „idea” odno­
sząca się do zgrupowanego materiału. Jednak, jak zauważyli Bower i Springston
(1970), tego rodzaju grupowanie jest ściśle związane z posiadaną wiedzą.
Przykładowo, sekwencja liter: U JU WU GSW PS zapewne byłaby trudna nawet
do chwilowego przechowania. Jednak jeśli pogrupujemy litery inaczej: UJ UW
UG SWPS, utworzą one znane wielu osobom skróty.
Dzięki strategii grupowania nie można jednak w nieskończoność zwiększać
pojemności pamięci krótkotrwałej. Simon (1974) wykazał, że w STM można
zapamiętać mniej dużych „brył” (np. fraz złożonych z ośmiu słów), a więcej ma­
łych (np. jednosylabowych słów). Wynika to z akustycznego mechanizmu bez­
głośnej artykulacji jako sposobu podtrzymania zawartości STM. Jeśli jednostka
pamięci składa się z większej liczby sylab, to jej powtarzanie zajmować będzie
więcej czasu, co decyduje o zmniejszonej efektywności tego mechanizmu. Podob­
ne rezultaty uzyskali Ellis i Hennly (1980), stosując zadanie wymagające doko­
nywania obliczeń w pamięci przez dzieci posługujące się językiem angielskim albo
walijskim. Podstawową różnicą dotyczącą liczebników w tych dwóch językach jest
ich długość: liczebniki angielskie są krótsze niż walijskie. Okazało się, że dzieci
z pierwszej grupy wykonywały zadania arytmetyczne istotnie lepiej niż dzieci
z grupy drugiej i nie wynikało to z niższego poziomu ich zdolności intelektualnych.
Przyjmuje się, że obliczenia w pamięci nie sprowadzają się wyłącznie do prze­
twarzania informacji, lecz wymagają również przechowywania liczb, na których
dokonuje się obliczeń, a także wyników cząstkowych (por. Hitch, 1978). Jeśli
mechanizm tego przechowywania polega na bezgłośnej artykulacji, to w ogra­
niczonej pojemnością pamięci krótkotrwałej „zmieści” się ich tym mniej, im więcej
sylab mają powtarzane słowa. Dzieci walijskie potrafią zmieścić w pamięci mniej
liczebników, stąd efektywność obliczeń dokonywanych w pamięci okazała się w ich
grupie niższa, niż w grupie dzieci angielskich.
Powyższe wyniki można interpretować również w odniesieniu do specyfiki
kodowania informacji w STM. Nie wydaje się, aby był to abstrakcyjny kod
semantyczny, gdyż znaczenie liczebników jest identyczne w języku angielskim
i walijskim. Informacja w pamięci krótkotrwałej kodowana jest fonologicznie
(albo akustycznie, np. w przypadku melodii), a w każdym razie na tym kodzie
pracuje mechanizm wewnętrznych powtórek. Dowodów na fonologiczny cha­
346
Rozdział 8. Pamięć
rakter wewnętrznych powtórek dostarczył również Conrad (1963, 1971; Con­
rad, Hull, 1964). Badacz ten stwierdził większą liczbę pomyłek w odpamiętaniu
liter o podobnym brzmieniu, np. „B” i „P”, niż liter, których brzmienie znacząco
się różni, np. „B” i „Z”. Efekt ten wystąpił w warunkach zarówno słuchowej, jak
i wzrokowej prezentacji bodźców. Baddeley (1966) potwierdził ten efekt rów­
nież w odniesieniu do słów. Słowa o podobnym brzmieniu (np. man, mad, map)
okazały się trudniejsze do wydobycia - szczególnie jeśli wymagano odpowied­
niej kolejności przywołania - niż słowa o wyraźnie różnym brzmieniu (np. pen,
few, cow). Baddeley nazwał go efektem podobieństwa fonologicznego (phonological similarity effect).
Osobnym problemem w badaniach nad pamięcią krótkotrwałą jest mecha­
nizm przeszukiwania jej zawartości. Problem ten może wydawać się ważniejszy
w odniesieniu do bardzo obszernej LTM, niż bardzo ograniczonej pojemnością
STM, jednak analizy te okazały się istotne dla głębszego zrozumienia
właściwości pamięci krótkotrwałej. Podstawowy paradygmat badawczy stoso­
wany w analizie mechanizmu przeszukiwania STM jest bardzo podobny do
stosowanego w badaniach nad uwagą (zob. paradygmat 8.4). Rezultaty badań
w obu obszarach, częściowo zbieżne, interpretowane były przez niektórych ba­
daczy na korzyść tezy o wspólnej lokalizacji procesów uwagowych i pamięcio­
wych (np. Guilford, Juola, 1976). Współczesne koncepcje pamięci roboczej,
będące procesualnym ujęciem tradycyjnie rozumianej pamięci krótkotrwałej,
akcentują związek pamięci i uwagi, lecz te ostatnie uważają za odrębne od
procesów uwagi percepcyjnej.
Paradygmat 8.4
; Przeszukiwanie pamięci krótkotrwałej
Zadanie wymagające przeszukiwania (search task) stosowane jest zarówno w ba­
daniach nad uwagą, jak i nad pamięcią. Polega ono na prezentacji zbioru bodźców
(search set), w którym poszukiwany jest bodziec docelowy (target, probe). Ma­
teriałem bodźcowym najczęściej stosowanym w tego typu zadaniach są litery i cyfry,
ale również obrazy, słowa, czy dźwięki. Zadaniem osoby badanej jest udzielenie
odpowiedzi twierdzącej, jeśli sygnał (zgodny z bodźcem docelowym) był obecny
w zaprezentowanym zestawie (próby pozytywne), albo przeczącej, kiedy był w nim
“ nieobecny (próby negatywne). Podstawową zmienną podlegającą manipulacji
w tego rodzaju zadaniach jest rozmiar przeszukiwanego zbioru (set size).
W zadaniach polegających na przeszukiwaniu pamięci (memory search task)
zadaniem osób badanych jest zapamiętanie prezentowanego zestawu bodźców.
Prezentacja najczęściej odbywa się sekwencyjne, ale niekiedy również symulta­
nicznie. W warunku prezentacji sekwencyjnej zestaw bodźców prezentowany jest
element po elemencie. Prezentacja symultaniczna polega na jednoczesnym zapre­
zentowaniu całego zestawu, np. w postaci matrycy. Bodziec docelowy eksponof wany jest po zaprezentowaniu całego zbioru elementów. Manipulacji eksperymen\ talnej podlega w tym przypadku - poza rozmiarem zbioru elementów - również :
:i'; szereg innych czynników. Najważniejsze z nich to: czas ekspozycji przypadający na
pojedynczy element, proporcja reakcji pozytywnych do negatywnych oraz rodzaj
prezentowanego materiału. Przykładowo, manipulacja czasem ekspozycji wpływa
8.2. System y pam ięci przem ijającej
347
na sposób kodowania bodźców: im jest on dłuższy, tym więcej właściwości można
zakodować. Jeśli czas jest zbyt krótki, kodowanie materiału będzie nieefektywne,
podobnie jak późniejsze rozpoznanie, czy bodziec docelowy jest zgodny z którymś
elementów zapamiętanego zestawu. Jeśli czas ten jest zbyt długi, możliwe staje się
zastosowanie mnemotechnik, np. grupowania. W obu przypadkach na poziom
wykonania zadania wpływać będą niekontrolowane czynniki uboczne.
W zadaniu polegającym na przeszukiwaniu analizie podlegają głównie wskaźni­
ki związane z czasem reakcji, tj. miary tendencji centralnej, czyli średnia i mediana RT
(Van Zandt, Townsend, 1993), a także miary rozrzutu - odchylenie standardowe RT
(Townsend, 2001). Zdecydowanie rzadziej analizuje się poprawność reakcji, gdyż
w klasycznych badaniach liczba błędów była niska, a ich rozkład - wyraźnie skośny.
Badania nad mechanizmami przeszukiwania pamięci krótkotrwałej zapo­
czątkował Saul Sternberg (1966, 1969b). W użytej przez niego wersji zadania
polegającego na przeszukiwaniu STM, sekwencyjnie prezentowano losowo do­
brane cyfry, zgrupowane w zestawy o rozmiarze od 1 do 6 elementów. Czas
prezentacji przypadający na każdy element wynosił 1,2 s. Po przedstawieniu
całego zestawu pokazywano bodziec docelowy. Zadaniem osoby badanej było
stwierdzenie, czy bodziec ten znajdował się w prezentowanym wcześniej zbiorze.
Sternberga interesowała odpowiedź na dwa pytania: „Czy przeszukiwanie
pamięci jest procesem sekwencyjnym, przebiegającym element po elemencie,
czy też równoległym, obejmującym jednocześnie wszystkie elementy?” i „Czy
przeszukiwanie w próbach pozytywnych jest kompletne (zawsze dotyczy całego
zbioru), czy też jest wygaszane w momencie odnalezienia bodźca docelowego
w STM?” Konkluzje z pierwszych badań Sternberga (1966, 1969) były takie, że
przeszukiwanie pamięci krótkotrwałej jest procesem sekwencyjnym i wyczer­
pującym. Przeszukiwanie sekwencyjne (serial search) oznacza, że w danym
momencie przetwarzany może być jeden i tylko jeden bodziec, wobec czego
przeszukanie całego zbioru wymaga porównania po kolei każdego elementu
zawartego w STM z bodźcem docelowym. O sekwencyjności przeszukiwania
Sternberg wnioskował na podstawie liniowego przyrostu czasu reakcji w zależ­
ności od wielkości zbioru elementów (zob. ryc. 8.6). Okazało się, że czas reakcji
rośnie liniowo wraz ze zwiększaniem się rozmiaru przeszukiwanego zbioru
elementów, przeciętnie o 37,9 + /- 3,8 ms na każdy symbol. Jeśli przeszukiwanie
byłoby równoległe (parallel search) to, zdaniem Sternberga, nie powinien
ujawnić się taki wzorzec zależności. Funkcja czasu reakcji (RT) od wielkości
zbioru elementów powinna być płaska, bowiem równoległy dostęp do 2, 4 czy 6
elementów byłby zawsze tak samo szybki.
Z kolei przeszukiwanie wyczerpujące (exhaustive search) oznacza, że do­
tyczy ono wszystkich zapamiętanych elementów, zarówno w próbach negatyw­
nych, jak i pozytywnych. O ile w przypadku prób negatywnych jest to teore­
tycznie uzasadnione (żeby „wiedzieć”, że w zestawie nie było bodźca docelo­
wego trzeba porównać go z całą zawartością zestawu), o tyle byłoby to zaska­
kujące w próbach pozytywnych. W tym przypadku, przeszukiwanie może zostać
wygaszone (self-terminated search) po stwierdzeniu zgodności bodźca docelo­
wego z którymś z elementów zestawu, czyli powinno - średnio w dużej liczbie
348
Rozdział 8. Pamięć
liczba symboli, s
Ryc. 8.6. Czas reakcji (T) a liczba symboli przechowywanych w pamięci (s) w pierwszym
eksperymencie. Średni czas reakcji w warunku pozytywnym (czarne punkty) i negatywnym (białe
punkty). Predykcje modelu przeszukiwania sekwencyjnego (linia ciągła) wykazują lepsze dopasowa­
nie do danych niż predykcje modelu przeszukiwania równoległego (linia przerywana). Za: Sternberg,
1966, s. 653.
wielkość zestawu pozytywnego, s
Ryc. 8.7. Czas reakcji (T) a wielkość zestawu pozytywnego (s) w drugim eksperymencie. Średni czas
reakcji w warunku pozytywnym (czarne punkty) i negatywnym (białe punkty). Predykcje modelu
przeszukiwania sekwencyjnego (linia ciągła) wykazują lepsze dopasowanie do danych niż predykcje
modelu przeszukiwania równoległego (linia przerywana). Za: Sternberg, 1966, s. 653.
prób - odpowiadać przeszukaniu połowy zestawu. Czas reakcji w próbach po­
zytywnych powinien być zatem znacząco krótszy niż w negatywnych. Sternberg
nie uzyskał istotnej różnicy w RT między reakcjami pozytywnymi a negatyw­
nymi, co uznał za dowód na wyczerpujący i automatyczny charakter przeszu­
kiwania w obu warunkach (zob. ryc. 8.7). Jedną z cech procesów automatycz­
nych jest to, że po ich zainicjowaniu nie można ich modyfikować ani przerwać.
Ponieważ przeszukiwanie w próbach pozytywnych teoretycznie powinno zostać
wygaszone po stwierdzeniu zgodności jednego z elementów przechowywanych
8.2. Systemy pamięci przemijającej
349
w STM z bodźcem docelowym, a jednak było kontynuowane do momentu
sprawdzenia całego zbioru, Sternberg uznał, że przebiega ono automatycznie.
W późniejszych badaniach wykazano istotność różnicy w czasie reakcji
pomiędzy próbami negatywnymi a pozytywnymi, zgodną z modelem wyczerpu­
jącego przeszukiwania w pierwszym przypadku i samowygaszającego się w dru­
gim (np, Egeth, Jonides, Wall, 1972; przegląd badań w: Van Zandt, Townsend,
1993). Podważono również założenie, że przetwarzanie równoległe zawsze
generuje płaską funkcję czasu reakcji w zależności od wielkości zbioru elemen­
tów. Jeśli założyć, że proces przetwarzania informacji jest limitowany pojem­
nością systemu (capacity limited), to wzrastające obciążenie poznawcze pro­
wadzi do podziału ograniczonych zasobów na coraz większą liczbę elementów.
W związku z tym większy rozmiar zbioru oznacza mniej zasobów przypadają­
cych na pojedynczy element. W przypadku STM oznacza to mniejsze „doin­
westowanie” procesu przeszukiwania, co prowadzi do wzrostu czasu reakcji,
nawet gdyby było ono równoległe.
Model sekwencyjnego i wyczerpującego przeszukiwania podważono jesz­
cze w inny sposób. Mianowicie nie przewiduje on tzw. efektu pozycji, czyli
związku czasu reakcji z pozycją sygnału w zestawie (por. Van Zandt, Townsend,
1993). Okazało się, że wykryto istotny efekt skracania się czasu reakcji na
elementy znajdujące się na ostatnich pozycjach (Townsend, 1974; Townsend,
Roos 1973). Jeśli przeszukiwanie byłoby wyczerpujące, to nie miałoby znacze­
nia, na której pozycji jest bodziec docelowy, bowiem do udzielenia odpowiedzi
trzeba i tak przeszukać cały zbiór, więc ogólny czas reakcji byłby sumą czasów
poszczególnych porównań. Suma ta byłaby identyczna niezależnie od tego, czy
sygnał znajdował się na pierwszej, ostatniej, czy którejś ze środkowych pozycji
w zbiorze.
8.2.3. Pamięć robocza: w ielokom ponentowy model Baddeleya
Idea pamięci roboczej (working memory, WM) pochodzi od Alana Baddeleya
i Grahama Hitcha (1974). Autorzy zerwali z ujęciem pamięci krótkotrwałej jako
systemu wyspecjalizowanego wyłącznie w przechowywaniu informacji. W ujęciu
Baddeleya i Hitcha pamięć robocza jest systemem odpowiedzialnym zarówno za
przechowywanie, jak i przetwarzanie informacji. Odgrywa ona zasadniczą rolę
w złożonej aktywności poznawczej człowieka, bowiem z jej udziałem miałoby
odbywać się wszelkie kontrolowane przetwarzanie informacji. Pomimo znacznej
różnorodności modeli pamięci roboczej, większość z nich akcentuje funkcję
kontrolną, sprawowaną przez uwagowy mechanizm planowania i nadzoru.
Oberauer, Süß, Wilhelm i Wittmann (2003), dokonując przeglądu różnych teorii
pamięci roboczej, wyróżnili cztery podstawowe funkcje tego systemu. Są to:
przechowywanie (storage), przetwarzanie (processing), nadzorowanie (supervi­
sion) oraz koordynacja (coordination). Pierwsza z nich związana jest z klasycz­
nie ujmowaną funkcją pamięci krótkotrwałej, chociaż modele pamięci roboczej
odchodzą od czysto magazynowego rozumienia jej realizacji. Pozostałe trzy
funkcje WM przypisywane są uwagowemu mechanizmowi kontrolnemu. W ni­
niejszym rozdziale opisano najważniejsze koncepcje pamięci roboczej, począw­
szy od przełomowej teorii Baddeleya i Hitcha.
350
Rozdział 8. Pamięć
Pamięć robocza w ujęciu Baddeleya i Hitcha (1974; zob. też Baddeley,
1986) jest wielokomponentowym systemem odpowiedzialnym za przechowy­
wanie informacji i kontrolę jej przetwarzania. Ze względu na zaakcentowanie
aspektu przetworzeniowego, WM odgrywa istotną rolę w złożonej aktywności
poznawczej człowieka, np. rozumowaniu czy przetwarzaniu języka. Początkowo
teoria Baddeleya i Hitcha obejmowała trzy podsystemy: centralny system wy­
konawczy (central executive) i dwa podlegle mu bufory pamięciowe (slave
systems) - pętlę fonologiczną (phonological loop) i szkicownik wzrokowo-przestrzenny (visuo-spatial sketch-pad). Podstawową funkcją buforów jest krótko­
trwałe przechowywanie informacji - odpowiednio - w kodzie akustycznym (ze
szczególnym uwzględnieniem kodu werbalnego) i w kodzie wizualnym. W ko­
lejnej wersji teorii (Baddeley, 2000, 2001) uzupełniono ją o bufor epizodyczny
(episodic buffer), którego funkcją ma być przechowywanie złożonej informacji,
pochodzącej z kilku modalności. I właśnie tę wersję modelu Baddeleya zilustro­
wano na ryc. 8.8.
szkicownik
wzrokowo - przestrzenny
pętla fonologiczną
pętla artykulacyjna
t i
bufor epizodyczny
magazyn fonologiczny
Ryc. 8.8. Wielokomponentowy model pamięci roboczej wg Baddeleya (2000, s. 421).
Centralny system wykonawczy ze względu na wielość przypisywanych mu
funkcji jest systemem niejednorodnym. Jest czymś w rodzaju poznawczego
homunculusa, co przyznaje sam twórca koncepcji WM (Baddeley, Logie, 1999).
W długiej ewolucji modelu Baddeleya zmieniały się jego poglądy w tej kwestii.
Z przeglądu jego prac wynika, iż można wyróżnić trzy funkcje centralnego
systemu wykonawczego.
Pierwszą funkcją jest bieżące przetwarzanie informacji. Z tego powodu WM
odgrywa istotną rolę w wykonywaniu złożonych zadań poznawczych, np. w ro­
zumowaniu (por. rozdz. 10.7.2). Funkcja ta sprowadza się do realizacji kon-
8.2. Systemy pamięci przemijającej
351
kretnych operacji poznawczych, wchodzących w skład strategii wykonania
określonego zadania. Operacje te są realizowane z udziałem podsystemów pa­
mięciowych, podlegających centralnemu systemowi wykonawczemu. W tych
podsystemach przechowywane są kluczowe dane, niezbędne do realizacji prze­
twarzania, w tym wskazówki dotyczące strategii. Te ostatnie określają zestaw
operacji przetwarzania informacji, aplikowanych w celu wykonania konkret­
nego zadania poznawczego.
Efektywne przetwarzanie informacji wymaga koordynacji buforów pamięci
roboczej, co stanowi kolejną funkcję centralnego systemu wykonawczego.
Funkcja ta ujawnia się szczególnie w czasie wykonywania zadań jednoczesnych
(zob. paradygmat 8.5), wymagających rozdzielania zasobów centralnego
systemu wykonawczego między jednocześnie wykonywane zadania poznawcze.
Baddeley zakłada, że system ten cechuje się limitowaną pojemnością, rozumianą
w kategoriach ograniczonych zasobów uwagowych (Baddeley, Della Sala, 1998;
Baddeley, Logie, 1999). Ograniczenie to przejawia się przede wszystkim w spad­
ku szybkości przetwarzania informacji wraz ze wzrostem wymagań, jakie na­
kłada na WM zadanie realizowane w danym momencie.
Paradygmat 8.5
Paradygmat zadań jednoczesnych w badaniach nad pamięcią roboczą
Paradygmat zadań jednoczesnych, stosowany również w badaniach nad uwagą
podzielną, wymaga kontroli dwóch zadań (A i B), wykonywanych w tym samym
czasie. W wersji zastosowanej przez Baddeleya i Hitcha (1974) zadanie A polegało
na wykonywaniu złożonego zadania poznawczego, np. przeprowadzaniu wniosko­
wania logicznego, czytaniu tekstu ze zrozumieniem albo uczeniu się. Z kolei zadanie B
polegało na zapamiętywaniu zestawu elementów (liczb) o zmiennej długości.
W analizie wyników porównuje się poziom wykonania zadania A w warunkach,
gdy towarzy mu zadanie B z warunkiem kontrolnym. W najprostszej wersji para­
dygmatu zadań jednoczesnych warunkiem kontrolnym jest test wykonania zadania A, kiedy nie towarzyszy mu żadne inne zadanie. Niekiedy manipulacji ekspery­
mentalnej podlega waga zadań jednoczesnych. Najczęściej jedno z nich należy
traktować priorytetowo, a drugie jako dystraktor.
Baddeley i Hitch (1974) założyli, że rosnące obciążenie pamięci roboczej
przechowywaniem większych zbiorów liczb prowadzić będzie do spadku wyko­
nania złożonego zadania poznawczego. Badania potwierdziły te przypuszczenia.
Wyjaśniono je, podobnie jak w badaniach nad uwagą podzielną, spadkiem ilości
wolnych zasobów, w tym wypadku zasobów WM, które mogą zostać przydzielone
wykonaniu zadania A. Spadek ten jest proporcjonalny do wymagań, jakie stawia
zadanie pamięciowe B. Co ciekawe, nawet przy bardzo dużym obciążeniu pamięci
(zbliżającym się do wartości „magicznej liczby” Millera), poziom wykonania obu
zadań był wyższy od poziomu przypadku.
Zadanie pamięciowe może przyjmować różnie formy, w zależności od tego,
jaki mechanizm WM ma zostać zaangażowany (Baddeley, 1986). Zadanie pamię­
ciowe wykonywane na materiale werbalnym (np. odliczanie trójkami wstecz) wiąże
się z udziałem pętli fonologicznej. Zadanie niewerbalne (np. śledzenie poruszają­
cego się obiektu), angażować będzie raczej szkicownik wzrokowo-przestrzeny.
352
Rozdział 8. Pamięć
Specyficznym zadaniem, które powoduje obciążenie centralnego systemu wyko­
nawczego, bez udziału podsystemów pamięciowych, jest tzw. generowanie inter­
wałów losowych (Vandierendonck, De Vooght, Van der Goten, 1998). Wymaga ono
od osoby badanej nierytmicznego stukania, np. w klawisz komputera. Trudność
tego zadania polega na konieczności przełamania automatycznej tendencji do
wystukiwania regularnego rytmu. Generowanie losowości wymaga więc stałej kon­
troli ze strony centralnego systemu wykonawczego.
Trzecia funkcja centralnego systemu wykonawczego to nadzór (kontrola)
nad bieżącym przetwarzaniem informacji. Baddeley (1993), analizując tę funkcję
nawiązał do koncepcji uwagi wykonawczej Normana i Shallice (1986), której
składową jest tzw. nadzorczy system uwagi (supervisory attentional system).
Pełni on rolę kontrolną, polegającą na planowaniu i nadzorowaniu wykonania
złożonych zadań poznawczych. Jego działanie ujawnia się przede wszystkim
w sytuacjach nowych, szczególnie wtedy, kiedy zostaną uznane za trudne lub
zagrażające. Nadzór nad bieżącym przetwarzaniem obejmuje również aktualiza­
cję zawartości buforów pamięciowych. Polega ona na selektywnym „pozbywaniu”
się informacji, która z racji wykonywanego zadania nie jest już potrzebna. Jest to
szczególnie ważne w kontekście znacznego ograniczenia ich pojemności.
W zasadzie można byłoby wyróżnić jeszcze jedną funkcję centralnego
systemu wykonawczego, chociaż nie jest ona nowa w koncepcji Baddeleya.
Chodzi o jego udział w kodowaniu i przywoływaniu informacji z LTM oraz rzecz jasna - w podlegających mu podsystemach krótkotrwałego przechowywa­
nia informacji (Baddeley, Logie, 1999). Interesujące dowody, że korzystanie
z zasobów pamięci długotrwałej odbywa się z udziałem centralnego systemu
wykonawczego, pochodzą z badań Susan Gathercole (1999), w których okazało
się, iż krótkotrwałe przechowywanie bezsensownych zlepków liter jest tym
bardziej efektywne, im bardziej są one podobne do słów języka naturalnego.
Wskazuje to na istotny udział wiedzy językowej pochodzącej z LTM w kodo­
waniu informacji w pamięci roboczej.
Pętla fonologiczna jest jednym z trzech buforów pamięciowych podlegają­
cych centralnemu systemowi wykonawczemu. Odpowiada za krótkotrwałe
przechowanie informacji fonologicznych. Baddeley (1986) wyróżnił dwa me­
chanizmy przechowywania: pasywny (retention) i aktywny (rehearsal), wyróż­
niając w pętli fonologicznej dwie odrębne, odpowiadające tym mechanizmom
struktury. Pasywne przechowywanie informacji możliwe jest dzięki magazynowi
fonologicznemu. Jeśli przechowywana w nim informacja nie byłaby aktywnie
odświeżana, zanika w ciągu kilku sekund (średnio po upływie 2 s; Cohen, Kiss,
LeVoii, 1993). Zanik śladu pamięciowego jest podstawowym, ale nie jedynym
mechanizmem zapominania informacji zawartej w magazynie fonologicznym.
Również interferencja, wynikająca z podobieństwa do innej informacji, utrudnia
jej efektywne wydobycie.
Od pierwszego sformułowania teorii pamięci roboczej Baddeley utrzymuje,
że magazyn fonologiczny przechowuje informacje w kodzie fonologicznym, a nie
semantycznym, nawet jeśli są to słowa obdarzone pewnym znaczeniem
(Baddeley, Logie, 1999). Badania Conrada (1963, 1971; Conrad, Hull, 1964)
i Baddeleya (1966) nad efektem podobieństwa fonologicznego, stanowią empi­
8.2. Systemy pamięci przemijającej
353
ryczny dowód dominacji kodu fonologicznego w przechowaniu materiału
werbalnego (zob. rozdz. 8.2.2). Baddeley (1966) stwierdził istotnie większy
wpływ podobieństwa brzmienia słów na liczbę błędów w zadaniu pamięciowym
niż ich podobieństwa semantycznego. Nie oznacza to, że materiał werbalny
przechowywany w pamięci roboczej nie ma charakteru semantycznego, ale że
mechanizm jego odświeżania, odwołuje się do bezgłośnych powtórek wyko­
rzystujących brzmienie słowa, a nie jego znaczenie. Wskazują na to np. badania
McErlee (1996), który zastosował zadanie polegające na przeszukiwaniu pa­
mięci (zob. paradygmat 8.4). W jego badaniach uczestnicy mieli za zadanie oprócz tradycyjnego sprawdzania zgodności bodźca docelowego z zapamiętanym
zestawem elementów - udzielić odpowiedzi na pytanie, czy bodziec docelowy
rymuje się z którymś z elementów zestawu albo czy jest synonimem któregoś
z nich. Okazało się, że informacja ta była dostępna zarówno z klucza fonolo­
gicznego, jak i semantycznego.
Aktywnym odświeżaniem zawartości magazynu fonologicznego zajmuje się
mechanizm pętli artykulacyjnej. Baddeley podtrzymuje, że podstawą jej
funkcjonowania jest bezgłośne powtarzanie, podobne do artykulacji mowy
(Baddeley, 1998). Ellis i Hennly (1980) uzyskali dane będące spektakularnym
dowodem trafności tego mechanizmu (zob. rozdz. 8.2.2). Przypomnijmy, że
słowa o dokładnie tym samym znaczeniu w różnych językach (liczebniki), wy­
korzystywane były przez pamięć roboczą tym gorzej, im były dłuższe. Również
Baddeley, Thomson i Buchanan (1975) uzyskali podobne rezultaty wyjaśniając
większą trudność odtwarzania dłuższych wyrazów wzrostem czasu ich powta­
rzania w pętli artykulacyjnej. Inne dowody fonologicznego charakteru działania
pętli artykulacyjnej pochodzą z badań, w których wykorzystuje się procedurę
tłumienia artykulacyjnego (articulatory suppresion). Polega ona na powtarzaniu
narzuconego słowa w trakcie wykonywania zadania pamięciowego. W ba­
daniach Baddeleya, Thomsona i Buchanana (1975) tłumienie artykulacyjne,
polegające na powtarzaniu rodzajnika the, powodowało zmniejszenie liczby
zapamiętanych słów. Podobne rezultaty uzyskano w przypadku wizualnej pre­
zentacji słów, co wskazuje na istotną rolę pętli fonologicznej w rekodowaniu
materiału wizualnego na kod werbalny.
Szkicownik wzrokowo-przestrzenny jest swego rodzaju analogiem pętli fo­
nologicznej, z tym, że jego podstawową funkcją jest przechowywanie materiału
wzrokowego i przestrzennego. Baddeley długo nie zajmował się detalicznie
strukturą tego podsystemu. Dopiero Logie (1995), eksploatując analogię po­
między podsystemem fonologicznym i wzrokowo-przestrzennym, zaproponował
rozróżnienie dwóch mechanizmów funkcjonowania szkicownika. Mechanizm
pasywnego przechowywania informacji wzrokowej i przestrzennej realizowany
byłby w strukturze podręcznego magazynu wzrokowego (visual cache). Wew­
nętrzny „skryba” (inner scribe) miałby rolę aktywną, korzystając z procesów
modelowania przedruchowego (planowanie sekwencji ruchów) i tworzenia
wyobrażeń. W wykonaniu tych procesów wewnętrzny system piszący korzysta
z magazynu wzrokowego, czyli ich wzajemne związki są podobne do skła­
dowych pętli fonologicznej. W badaniach empirycznych uzyskano interesujące
wyniki, podobne do efektu tłumienia artykulacyjnego w pętli fonologicznej.
Mianowicie Logie (1986) wykazał, że wykonywanie zadania wzrokowego, przy
jednoczesnej prezentacji sekwencji obrazów niezwiązanych z tym zadaniem,
wpływa negatywnie na przechowywanie informacji wizualnej. W późniejszych
354
Rozdział 8. Pamięć
eksperymentach przeprowadzonych ze współpracownikami (Logie, Zucco,
Baddeley, 1990; Logie, Marchetti, 1991) dowiódł, że wykonywanie czynności
ruchowych jednocześnie z zadaniem wzrokowo-przestrzennym upośledza
przechowywanie informacji o relacjach przestrzennych.
Cowan (1999) twierdzi, że kodowanie werbalne może być z powodzeniem
zastosowane do materiału niewerbalnego. Jest to oczywiste, kiedy zapamiętu­
jemy dobrze znane obrazki, np. dom, drzewo. Co więcej, każdy materiał niewer­
balny możemy w pewien sposób nazwać. Znacznie trudniejsza do werbalizacji
jest lokalizacja przestrzenna bodźców, jeśli nie jest trywialna (np. prawo, lewo,
góra, dół). Ideę badania pamięci przestrzennej wykorzystano w klasycznym
zadaniu „klocki Corsiego” (Corsi blocks, Milner, 1971). W pierwotnej wersji
zadania Corsiego, osoba badana ma przed sobą specjalną planszę z 9 roz­
lokowanymi na niej otworami. W tych otworach sekwencyjnie (w tempie co 1 s)
pojawiają się sześcienne klocki. Zadanie polega na zapamiętaniu pozycji
prezentowanych klocków i sekwencji ich wyświetlania. Liczba prezentowanych
klocków jest zwiększana do momentu, w którym osoba badana zaczyna po­
pełniać błędy. Vandierendonck, Kemps, Fastame i Szmalec (2004) użyli zadania
Corsiego jednocześnie z innym zadaniem angażującym jeden z podsystemów
WM: pętlę fonologiczną, szkicownik wzrokowo-przestrzenny albo centralny
system wykonawczy. Badacze założyli, że pogorszenie poziomu wykonania za­
dania Corsiego w warunku zadań jednoczesnych będzie świadczyć o zaangażo­
waniu określonego systemu WM w jego wykonanie. Okazało się, że klasyczna
wersja zadania Corsiego wiąże się z obciążeniem szkicownika wzrokowo-przestrzennego i centralnego systemu wykonawczego. Nie jest natomiast związana
z obciążeniem pętli fonologicznej.
W opisywanej już wersji modelu Baddeleya (2000, 2001) postuluje się
istnienie bufora epizodycznego. Główną jego funkcją byłoby czasowe przecho­
wywanie zintegrowanych epizodów (integrated episodes), tj. informacji repre­
zentowanej jednocześnie za pomocą różnych kodów, np. werbalnego i wizual­
nego. Podobnie jak inne podsystemy magazynowe, bufor epizodyczny jest ogra­
niczony pojemnościowo i podlega kontroli ze strony centralnego systemu wy­
konawczego, który odpowiada również za integrowanie informacji z różnych
źródeł w spójne epizody (Baddeley, 2000). Za istnieniem bufora epizodyczne­
go, zdaniem autora, przemawia szereg badań eksperymentalnych dotyczących
kodowania i przechowywania złożonej informacji (np. Luck, Vogel, 1997) oraz
badania neurobiologiczne (Prabhakaran i in., 2000). Podobnie jak pozostałe
podsystemy, bufor epizodyczny uczestniczy w nabywaniu i wydobywaniu in­
formacji z pamięci długotrwałej. W tym przypadku jest to pamięć epizodyczna
(zob. rozdz. 8.3.3). Skądinąd wiadomo, że wiedza epizodyczna kodowana jest
w sposób kompleksowy. Epizody kodowane są wraz z ich możliwie najpeł­
niejszym kontekstem, stąd nie da się tego procesu sprowadzić do pojedyncze­
go kodu. Kolacja przy świecach jest złożonym epizodem, w którym istotną
rolę odgrywają składające się nań zdarzenia, np. elementy rozmowy, zapachy,
smaki, emocje. Wszystko ma swoją wewnętrzną logikę następstw czasowych
i związków przyczynowo-skutkowych. Wprowadzenie bufora epizodycznego
do modelu pamięci roboczej nie stanowi może wyjaśnienia eleganckiego, ale
jest interesującą propozycją połączenia funkcji pamięci roboczej z wiedzą
epizodyczną.
8.2. Systemy pamięci przemijającej
355
8.2.4. Pamięć robocza: model aktywacyjny Cowana
Alternatywą dla wielomodalnościowego modelu Baddeleya są koncepcje
jednorodne, które wyjaśniają funkcjonowanie pamięci roboczej bez odwoływa­
nia się do odrębnych podsystemów krótkotrwałego przechowywania informacji.
W ich ramach postuluje się również brak ostrego rozgraniczenia między
pamięcią trwałą a roboczą. Oba założenia opierają się na próbach alternatyw­
nego wyjaśnienia danych eksperymentalnych, o które opiera się model pamięci
roboczej Baddeleya. Twierdzi się mianowicie, że pamięć robocza to uaktywnio­
na, dzięki mechanizmom uwagi, część pamięci długotrwałej. Tym co stanowi
ograniczenie pamięci roboczej, ujmowane tradycyjnie w kategoriach jej
pojemności, jest nie tyle statyczna właściwość magazynu (bufora), lecz dyna­
mika procesu aktywacji informacji. Mechanizm uwagowy odpowiedzialny za ten
proces pozwala na jednoczesną aktywację niewielkiej liczby elementów. Dzięki
aktywacji stają się one dostępne świadomemu przetwarzaniu. Kiedy uwaga jest
przenoszona na nowe obiekty, powoduje ich pobudzenie, co jednak wiąże się ze
zmniejszeniem albo utratą dostępu do informacji, które były aktywne jeszcze
przed chwilą. Uważa się też, że dane eksperymentalne wskazujące na odrębność
podsystemów można wyjaśnić odwołując się do zjawiska interferencji, wystę­
pującego w obrębie uaktywnionej informacji. Jeżeli dwa zadania angażują
podobne kody reprezentacji (np. tylko fonologiczne albo tylko wzrokowe) inter­
ferencja jest silniejsza, niż wówczas, kiedy angażowane są różne kody. Dane te
nie stanowią zatem dowodów na odrębność buforów pamięciowych, a jedynie
sugerują, że zanik informacji w WM jest skutkiem interferencji (Glass i in.,
1985).
Jednym z pierwszych autorów ujmujących pamięć roboczą w kategoriach
uaktywnionej części pamięci trwałej był Nelson Cowan (1993, 1995). Pamięć
robocza, według Cowana, jest rozumiana procesualnie, a więc jako proces
poznawczy, który odpowiada za utrzymywanie dostępności informacji w celu
realizacji bieżących zadań poznawczych. Z punktu widzenia zawartości infor­
macyjnej, WM jest aktywną w danym momencie częścią informacji przechowy­
wanej w LTM. Teorie aktywacyjne nie wymagają przyjmowania założeń
dotyczących liczby podsystemów pamięciowych WM. Cowan twierdzi, że nie
jest wykluczone istnienie większej ich liczby, bowiem konkretny bodziec szczególnie, jeśli jest złożony - może aktywować różne rodzaje pamięci i być
kodowany na wiele różnych sposobów (Cowan, 2001). Oznacza to aktywację
różnych systemów pamięci trwałej, ale niekoniecznie każdemu z nich musi
odpowiadać odrębny podsystem WM, przeznaczony dla specyficznych rodzajów
kodów przetwarzania. W tym sensie Cowan (1999) rozumie pamięć roboczą
jako system jednorodny.
Aktywacja śladu pamięciowego może przyjąć jeden z trzech poziomów (zob.
ryc. 8.9). Najbardziej aktywna informacja znajduje się w ognisku uwagi (focus of
attention). Jego pojemność jest niewielka: Cowan szacuje ją na ok. 4 jednostki
pamięci. Aktywacja informacji w ognisku oznacza jej udostępnienie świadomości.
W krótkim czasie aktywacja informacji spada na tyle, że bez jej ponownego
wzbudzenia nie jest już dostępna świadomości, ale może mieć wpływ na procesy
bieżącego przetwarzania informacji. Ten pośredni stan aktywacji Cowan
utożsamia z pamięcią krótkotrwałą. Informacja niewzbudzona, znajdująca się
356
Rozdział 8. Pamięć
w LTM, potencjalnie podlega uaktywnieniu, ale dopóki tak się nie stanie, nie
może być przetwarzana z udziałem centralnego systemu wykonawczego.
Ponieważ poziom aktywacji śladów pamięciowych spada wraz z upływem
czasu, obserwujemy stopniowe zanikanie zawartości WM. W modelu Cowana
dynamika aktywacji śladów jest zdeterminowana czasem, podczas gdy ognisko
uwagi ma ograniczoną pojemność. Za wolicjonalne kierowanie uwagi jest
odpowiedzialny centralny system wykonawczy. Uwaga może zostać ukierunko­
wana w dwojaki sposób: na zewnątrz, tj. kiedy aktywacji podlega reprezentacja
bodźca pochodząca z pola percepcyjnego, albo do wewnątrz - na dane utrwa­
lone w LTM. Piotrowski (2004) wykazał, że w obu przypadkach angażowane są
zasoby uwagi pochodzące z jednej i tej samej puli. Innymi słowy, niezależnie od
źródła informacji (pole percepcyjne czy pamięć długotrwała), jej aktywacja
angażuje wspólny mechanizm uwagowy.
Model Cowana uwzględnia trzy przypadki, w których informacja sensorycz­
na zostaje aktywowana w pamięci roboczej (zob. ryc. 8.9). Jednak zanim to się
stanie, informacja jest kodowana w pamięci długotrwałej. Po pierwsze, aktywacja
jest możliwa dzięki wolicjonalnemu skierowaniu uwagi na jakiś bodziec. Wówczas
aktywacja osiąga zwykle taki poziom, że bodziec trafia do ogniska uwagi (bo­
dziec „a”). Jeśli bodźce są znane i nie wiążą się z zadaniem (bodziec „b” i „c”) podlegają habituacji. Mogą jednak osiągnąć poziom aktywacji istotnie różniący je
od zapisów zupełnie nieaktywnych. Jeśli bodźce są nowe, nie podlegają habituacji,
co wydaje się mieć walor przystosowawczy, a poziom ich aktywacji jest wystar­
czająco wysoki, aby objąć je ogniskiem uwagi, nawet bez konieczności jej wolicjonalnego przekierowania (bodziec „d”). Przykładowo, jeśli spojrzeć z tej perspek­
tywy na odruch orientacyjny, to powoduje on automatyczne przyciągnięcie uwagi
i uświadomienie sobie źródła stymulacji.
Cowan uwzględnił również dwie drogi sterowania zachowaniem. Pierwsza
wymaga zaangażowania centralnego systemu wykonawczego i odpowiada reak­
cjom kontrolowanym. Z kolei reakcje automatyczne nie angażują centralnego
systemu wykonawczego. Jednak w obu wypadkach wzbudzane reprezentacje
należą - zdaniem Cowana - do obszaru pamięci krótkotrwałej zawierającego
reprezentacje o średnim poziomie aktywacji.
Analizując różne dane, Cowan (1995, 2001), oszacował pojemność ogniska
uwagi na
elementy o bardzo dużej dostępności. Korzystając z zadania
polegającego na przeszukiwaniu WM, Cowan (1995) wykazał, że czas reakcji na
sygnały znajdujące się na kilku ostatnich pozycjach zestawu jest wyraźnie krót­
szy niż czas reakcji na sygnały pojawiające się wcześniej. Również poprawność
przeszukiwania jest wyższa, niż w wypadku elementów eksponowanych na
wcześniejszych pozycjach w zestawie (zob. ryc. 8.10 i 8.11).
Okazało się również, że w obrębie zestawu o rozmiarze do czterech elemen­
tów nie występuje zjawisko interferencji proaktywnej (Halford, Maybery, Bain,
1988). Wcześniej nabyte bodźce nie wpływają na możliwość przyswajania kolej­
nych. Efekt ten okazał się niezależny od podobieństwa fonologicznego bodź­
ców (Tehan, Humphreys, 1995). McErlee (1998) interpretuje te dane na korzyść
tezy o wysokiej dostępności informacji znajdujących się w ognisku uwagi.
Dostępność informacji w ognisku uwagi jest na tyle wysoka, że nie potrzeba żad­
nych procesów jej wydobycia. Stan ten jest jednak bardzo krótkotrwały. Wpro­
wadzenie dodatkowego zadania między ekspozycją ciągu elementów a bodźcem
8.2. Systemy pamięci przemijającej
357
0
C
c
o
E
N
0
'c.
0
O ©
'N
"O
nO
©
nowy @
bodziec
Ryc. 8.9. Aktywacyjny model pamięci roboczej wg Cowana (1998).
Ryc. 8.10. Obserwowany i symulowany czas poprawnych reakcji (ms) w zadaniu polegającym na
przeszukaniu WM. Wyniki dotyczą kolejnych pozycji i różnych liczebności zbioru bodźców do
zapamiętania (4, 7 i 10). OBS obserwowane wyniki empiryczne, SYM - wyniki symulacji w modelu
ACT-R. Za: Chuderski, Orzechowski, 2005.
docelowym, niemal całkowicie eliminuje efekt pełnej dostępności. McErlee
(1998) twierdzi jednak, że uprzywilejowanie bodźców w ognisku uwagi dotyczy
tylko jednego, ostatnio eksponowanego albo najbardziej pobudzonego elementu.
Zdaniem Oberauera i Kliegla (2001), na owo ograniczenie wpływają dwa czyn­
niki. Po pierwsze, reprezentacje podobnych obiektów kodowanych w pamięci
roboczej, posiadających wspólne cechy, częściowo się przenikają. Po drugie, wy­
stępuje zjawisko rywalizacji między reprezentacjami tych obiektów, w momencie
podejmowania decyzji o zgodności (albo jej braku) między bodźcem docelo­
wym a zawartością WM. Te dwa czynniki wiążą się z różnymi fazami procesu
pamięciowego: pierwsze z kodowaniem, a drugie z wydobywaniem informacji
z WM.
358
Rozdział 8. Pamięć
Ryc. 8.11. Obserwowany i symulowany odsetek poprawnych reakcji w zadaniu polegającym na
przeszukaniu WM. Wyniki dotyczą kolejnych pozycji i różnych liczebności zbioru bodźców do
zapamiętania (4, 7 i 10). OBS obserwowane wyniki empiryczne, SYM - wyniki symulacji w modelu
ACT-R Za: Chuderski, Orzechowski, 2005.
Ramka 8.2
Metody pomiaru pojemności pamięci roboczej
W metodach pomiaru pojemności pamięci roboczej nawiązuje się do kategorii
zadań, stosowanych do pomiaru pojemności pamięci krótkotrwałej (span task).
Klasyczne zadania tego typu polegały na zapamiętywaniu zestawów liczb (digit
span) lub wyrazów (word span). Następnie sprawdzano poziom odpamiętania
materiału w kolejności zgodnej z sekwencją prezentacji, szacując jaki jest pułap
możliwości obciążenia pamięci osoby badanej.
Pomiar pojemności pamięci roboczej wymagał jednoczesnego uchwycenia
efektywności przechowywania i przetwarzania informacji. Opracowano wiele wersji
zadań, które wymagały jednocześnie dokonywania operacji poznawczych na
prezentowanym materiale i zapamiętywania wyników tych operacji. Na szczególną
uwagę zasługują dwie wersje tego typu zadań. Pierwsza wersja polega na głośnym
czytaniu prezentowanych zdań i zapamiętywaniu słowa, znajdującego się na końcu
z każdego z nich (reading span task; Daneman, Carpenter, 1980). Głośne czytanie
angażuje centralny system wykonawczy, a zapamiętywanie słów - pętlę fonologiczną. Druga wersja zadania wymaga rozwiązania prezentowanych kolejno zadań
arytmetycznych oraz zapamiętania towarzyszących im słów (operation-word span
task; Turner, Engle, 1989). Czas i poprawność wykonania zadań arytmetycznych
jest wskaźnikiem sprawności centralnego systemu wykonawczego, a liczba zapa­
miętanych słów - pętli fonologicznej.
8 .2 .5 . Model długotrwałej pamięci roboczej Ericssona i Kintscha
Ericsson i Kintsch (1995) zaproponowali rozszerzony model pamięci roboczej,
powiązanej z przechowywaniem informacji w pamięci długotrwałej. Koniecz­
ność tworzenia tego typu modeli wynika, zdaniem autorów, z deficytów kia-
8.2. Systemy pamięci przemijającej
359
sycznych teorii pamięci roboczej, które nie są w stanie trafnie opisać złożonych
procesów poznawczych obecnych zarówno w sytuacjach codziennych (np. ro­
zumienie tekstu), jak i w korzystaniu z wiedzy eksperckiej. Zdolność rozu­
mienia tekstu wymaga kodowania i wydobywania z LTM informacji będących
produktami złożonych operacji przetwarzania informacji, a jednocześnie anga­
żuje tradycyjnie rozumianą STM.
Według autorów, pamięć robocza ma za zadanie utrzymywanie efektyw­
nego i selektywnego dostępu do informacji, która jest niezbędna do wykonania
danego zadania (Ericsson, Delaney, 1999; Ericsson, Kintsch, 1995). Funkcja ta
może być realizowana skutecznie dzięki dwóm mechanizmom poznawczym:
krótkotrwałej pamięci roboczej (short-term working memory, ST-WM) i dłu­
gotrwałej pamięci roboczej (long-term working memory, LT-WM). Zadaniem
ST-WM jest - jak w klasycznych koncepcjach WM - magazynowanie danych
i półproduktów, niezbędnych do bieżącego wykonania złożonych procesów
poznawczych, takich jak rozumowanie, rozumienie tekstu czy uczenie się.
Zadaniem LT-WM jest utrzymanie czasowego dostępu do informacji z pamięci
trwałej. LT-WM pozwala na ominięcie bardzo małej pojemności ST-WM po­
przez magazynowanie w niej efektów bieżącego przetwarzania. Powstałe w ten
sposób ślady pamięciowe są trwalsze niż w ST-WM, co nie oznacza, że zostają
zapisane w trwałych strukturach wiedzy. Zwykle nie jest to zresztą potrzebne,
bowiem LT-WM przechowuje efekty przetwarzania, które nie są jeszcze osta­
tecznym wynikiem czynności poznawczej, np. końcowym wnioskiem w rozu­
mowaniu. Podczas korzystania z LT-WM krótkotrwała pamięć robocza zostaje
obciążona wskazówkami pozwalającymi na wydobycie właściwych informacji
z pamięci długotrwałej.
Autorzy powołują się m.in. na efekty analiz wpływu treningu na funkcjo­
nowanie pamięci roboczej. Ericsson (1985, 1988) podaje wiele spektakularnych
przypadków osób, które uzyskiwały po takim treningu zadziwiające efekty. Na
przykład zanotowano przypadki badanych, którzy po długim treningu byli w stanie
odtworzyć poprawnie zestaw o rozmiarze do 80 cyfr. Przeciętnie badani po 50
godzinach treningu byli w stanie poprawnie odtworzyć ok. 20 cyfr. O zaangażo­
waniu pamięci długotrwałej w uzyskanie tak dobrych wyników świadczy, zda­
niem Ericssona i Kintscha (1995), brak wpływu interferencji wywołanej w STM
przed odtwarzaniem zapamiętanego zestawu. Pomimo wykonywania zadania
dystrakcyjnego, wymagającego zaangażowania pojemności STM, badani popraw­
nie odtwarzali zapamiętany zestaw, z uwzględnieniem kolejności zawartych w nim
cyfr. Efekt ten był jednak ograniczony wyłącznie do danego typu materiału; po
jego zmianie poziom wykonania zadań pamięciowych wskazywał na pojemność
STM wynoszącą ok. 7 elementów. Trening nie spowodował więc trwałego
zwiększenia pojemności STM i nie da się w pełni wyjaśnić strategią grupowania
elementów w pamięci roboczej. Nawet
Download