Rozdział I

advertisement
Rozdział I
EWOLUCJA ARGUMENTU SEARLE'A
Historia nauki pełni funkcję pomocniczą względem filozofii, może
nawet stanowić swego rodzaju przestrzeń testowania mechanizmów
rozwoju danej dziedziny poznania1. Dzieje eksperymentu myślowego
Johna Searle'a stanowią natomiast interesujący przyczynek do badań
nad sztuczną inteligencją i do filozofii sztucznej inteligencji; ukazują
one też stopniową zmianę nastawienia do argumentu - od wręcz
wrogiego do coraz bardziej przychylnego, doceniającego jego wagę.
Chiński Pokój ma szerokie zastosowanie w badaniach nad sztuczną
inteligencją - od prostych programów komputerowych po skomplikowane sieci neuropodobne, w filozofii zaś - w teorii umysłu oraz w
kwestii wzajemnego odniesienia semantyki i syntaktyki.
Pierwszy rozdział ma za zadanie przedstawienie historii argumentu
i wprowadzenie w zagadnienia filozoficzne z nim związane. Pytanie
dotyczące myślenia maszyn było wielokrotnie stawiane w ciągu
ostatnich kilku dziesięcioleci, zmieniało się jego zabarwienie
filozoficzne - na początku więc sprecyzujemy obecną postać
problemu. Sięgniemy następnie do programu Schanka i filozoficznych
poglądów na temat rozumienia przez programy komputerowe a także
do koncepcji związanych z modelowaniem ludzkiego umysłu Chiński Pokój był sprzeciwem wobec tzw. mocnego programu
sztucznej inteligencji. Przeanalizujemy też ewoluowanie postaci
EWOLUCJA ARGUMENTU SEARLE'A
samego eksperymentu myślowego - od wersji pierwotnej z 1980 do
najnowszej z 1990 roku. Ostatnia cześć niniejszego rozdziału
dotyczyć będzie dwóch wariantów argumentu Searle'a; są one
interesującym materiałem w dyskusji nad rolą tzw. przetwarzania
równoległego oraz nad stosunkiem syntaktyki do semantyki.
1. Ewolucja czasowa pytania o myślenie komputerów
Pytanie Alana M. Turinga "Czy maszyny mogą myśleć" przybierało w ciągu dziesięcioleci coraz to nową postać w analizach badaczy
sztucznej inteligencji oraz filozofów. Kolejnymi wersjami powyższej
kwestii postawionej w 1950 roku były zagadnienia: "Czy maszyna
może uzyskać zdolność myślenia przy pomocy programu uruchomionego na niej?" oraz "Czy program komputerowy może mieć przypisaną zdolność myślenia?" Zauważmy, że w kolejnych pytaniach punkt
ciężkości został przeniesiony z fizycznych własności maszyn
istniejących bądź mogących zaistnieć na obliczeniowe, abstrakcyjne
możliwości formalnych programów komputerowych. Kolejną postacią
wyżej wymienionych zagadanien jest porównanie "Umysł ludzki jest
dla mózgu tym, czym program dla komputera". Nasuwają się też inne
kwestie - "Czy umysł ludzki jest programem komputerowym?" oraz
"Czy można powiedzieć, że program komputerowy rozumie?" i
wreszcie "Czy komputer może mieć umysł?"
Zwolennicy tzw. mocnego programu sztucznej inteligencji uznają
możliwość przypisania programowi komputerowemu zdolności
myślenia. Zgodnie z tym stanowiskiem komputer to nie tylko
narzędzie w studiowaniu umysłu; poprawnie zaprogramowany
komputer o prawidłowych informacjach wejściowych i wyjściowych
jest umysłem - rozumie i ma stany umysłowe2. Programy natomiast
nie są zwykłymi narzędziami umożliwiającymi testowanie psychologicznych wyjaśnień - one są same przez się wyjaśnieniem (explanation) sposobu działania umysłu.
Tego typu opinie spowodowały sprzeciw m.in. Johna Searle'a.
Słynny eksperyment myślowy zwany przez niego "Chińskim
21
Pokojem" wykazuje błędność twierdzenia o posiadaniu przez
komputer stanów umysłowych i możliwości wyjaśnienia funkcji
ludzkiego umysłu przy pomocy programów komputerowych. Searle
opublikował w 1980 roku artykuł zawierający ów argument na łamach
amerykańskiego pisma "The Behavioral and Brain Sciences ", którego
zwyczajem jest umieszczanie głównego artykułu wraz z replikami
innych naukowców oraz odpowiedzią autora na nie.
1.1 Program Schanka
Jako przykład programu realizującego założenia mocnego
programu sztucznej inteligencji Searle przytacza pracę Rogera
Schanka i jego kolegów z Yale3, ale zastrzega się jednocześnie, że
argument Chińskiego Pokoju odnosi się do jakiejkolwiek symulacji
ludzkiego umysłu dokonywanej przez dowolną maszynę Turinga przy
pomocy formalnego programu komputerowego. Celem programu
Schanka jest naśladowanie rozumienia opowiadań; program odpowiada na pytania dotyczące informacji nie zawartych wprost w
określonym zdarzeniu - w tym wypadku dotyczą one zamawiania
hamburgera w restauracji. Komputer dysponuje pewnym zakresem
wiadomości na temat restauracji oraz opisem sytuacji: klient po
otrzymaniu przypalonego hamburgera nie zapłacił za niego, nie dał
napiwku i zdenerwowany wybiegł z restauracji. Jeśli postawimy
komputerowi pytanie, czy klient zjadł hamburgera otrzymamy
odpowiedź negatywną. Jeśli do komputera zostanie wprowadzony
inny opis sytuacji, kiedy to hamburger był smacznie przyrządzony i
klient zapłacił oraz dał napiwek kelnerce - na pytanie dotyczące
zjedzenia hamburgera komputer odpowie pozytywnie. Takich samych
odpowiedzi należałoby się spodziewać od człowieka. Czy to oznacza,
że program Schanka ma wbudowaną zdolność myślenia? Czy w ogóle
można przypisać tę zdolność do jakiegokolwiek programu komputerowego? Jakie treści filozoficzne związane są z symulowaniem
ludzkiego myślenia?
W przypadkach podobnych do opisanych powyżej zwolennicy
mocnego programu sztucznej inteligencji są zdania, że komputer
22
23
EWOLUCJA ARGUMENTU SEARLE'A
EWOLUCJA ARGUMENTU SEARLE'A
rozumie opowiadanie oraz że działanie komputera wyposażonego w
odpowiedni program wyjaśnia zasady działania ludzkiego umysłu.
Artykuł Searle'a z 1980 roku wykazuje bezzasadność tych twierdzeń.
O niemożności zrozumienia czegokolwiek przez zaprogramowany
komputer decyduje według autora Minds, Brains, and Programs
intencjonatność, którą rozumie on jako własność stanów umysłowych,
przez którą są one ukierunkowane ku lub wokół tego co dzieje się w
świecie7. Intencjonalność jest produktem przyczynowych własności
mózgu i elementem odróżniającym ludzkie myślenie od działania
programu komputerowego. Searle zakłada, że jest to fakt empiryczny
biorąc pod uwagę relacje przyczynowe między mózgiem a procesami
umysłowymi. W odniesieniu natomiast do relacji komputer - program
komputerowy intencjonalność nie występuje8.
1.2 Searle'a rozumienie rozumienia
Zanim przejdziemy do opisu argumentu warto przyjrzeć się
samemu pojęciu rozumienia - co to znaczy że "a rozumie b"? Searle
rezygnuje w tym wypadku ze złożonych analiz językowych i na
konkretnym przykładzie wyjaśnia jego literalne pojmowanie rozumienia: "Rozumiem opowiadania po angielsku, w mniejszym stopniu
mogę zrozumieć po francusku, w jeszcze mniejszym po niemiecku a
w ogóle [nie rozumiem] po chińsku. Mój samochód, mój kalkulator
nie rozumieją niczego - to nie jest ich zakres działania. Często przez
analogię lub metaforycznie przypisujemy "rozumienie" i inne
kognitywne predykaty samochodom, kalkulatorom i innym artefaktom, ale nic nie zostaje udowodnione poprzez podobne atrybuty"4.
Takie pojmowanie rozumienia wystarcza Searle'owi do analiz
związanych z argumentem Chińskiego Pokoju. Analogiczne czy
metaforyczne przypisywanie rozumienia artefaktom ma miejsce w
stosunku do różnych maszyn. Mówimy np. o "odczuwaniu" przez
termostat zmian temperatury, "umiejętnościach" kalkulatora odnośnie
do potęgowania czy też "wiedzy" odtwarzacza płyt kompaktowych co
do kolejności utworów w przypadku uruchomienia funkcji shuffle.
Wykonane przez człowieka narzędzia są związane z celem jego
działania, dlatego naturalne jest przypisywanie im atrybutów przysługujących ludzkim czynnościom. Musimy jednak pamiętać, że dzieje
się tak jedynie na zasadzie analogii, metafory. Mimo tego zastrzeżenia, wielu uczonych zajmujących się badaniami nad sztuczną
inteligencją przypisuje tego samego rodzaju poznanie komputerom i
5
ludziom . Searle natomiast wykazuje, że "w sensie dosłownym
zaprogramowany komputer rozumie tyle, co samochód lub maszyna
licząca a mianowicie dokładnie nic. Rozumienie komputera nie jest
ani częściowe ani niekompletne (jak moje rozumienie niemieckiego)
6
- jest żadne" .
2. Chiński Pokój - opis i historia argumentu
Głównym celem artykułu "Minds, Brains, and Programs" jest
wykazanie niewystarczalności programu komputerowego do wytworzenia intencjonalności oraz analiza konsekwencji tego twierdzenia.
By go uzasadnić, Searle przyjął w swym dowodzie metodę zastąpienia
konkretnego programu komputerowego przez człowieka i postawi!
sobie pytanie: co by się stało, gdyby umysł człowieka zaczął
pracować na podobnej zasadzie jak program Schanka tj. odpowiadałby
na pytania? Co można byłoby wtedy powiedzieć o intencjonatności?
2.1 Pierwotna wersja argumentu (1980, 1982)
Wyobraźmy sobie człowieka zamkniętego w pokoju, który nie zna
w ogóle chińskiego, ani w mowie ani w piśmie, i nie potrafi go
odróżnić od japońskiego czy od symboli podobnych do obu języków.
Człowiek ów ma do dyspozycji mnóstwo chińskich znaków nazwijmy go zestawem nr 1; następnie zostają mu przekazane teksty
chińskie (zestaw nr 2) wraz z zasadami po angielsku - określmy je
roboczo jako plik A9. Instrukcje te pozwalają na wzajemne powiązanie ze sobą zestawu nr \ i nr 2 - jedynie na podstawie kształtu
znaków. Następnie człowiekowi jest dostarczony zbiór tekstów
chińskich nr 3 również z angielskimi instrukcjami (plik B); informują
24
EWOLUCJA ARGUMENTU SEARLE P A
EWOLUCJA ARGUMENTU SEARLE A
one, w jaki sposób skorelować zestaw nr 3 z zestawami nr 1 i 2, by
umożliwić utworzenie pliku znaków chińskich nr 4.
Zamknięty w pokoju człowiek nie wie, że ludzie z zewnątrz
przypisali danym zestawom określone nazwy: tekst (a script),
opowiadanie (a story), pytania oraz odpowiedzi na pytania; zasady w
języku angielskim określone są jako program. Zakładamy, że
instrukcje są bardzo jasne, innymi słowy - program jest napisany tak
doskonale, że rodzony Chińczyk nie miałby wątpliwości, iż odpowiedzi daje ktoś, kto od urodzenia mówi po chińsku.
Przeprowadźmy obecnie ów eksperyment myślowy z tym samym
człowiekiem ale w odniesieniu do ojczystego języka, jakim jest dla
niego angielski; pytania i odpowiedzi również są dawane w tym
języku. Dla kogoś z zewnątrz, kto od urodzenia mówi po angielsku,
odpowiedzi dawane przez człowieka zamkniętego w pokoju będą
doskonałe. Zachodzi jednak istotna różnica między dawaniem
odpowiedzi po chińsku i po angielsku; w wypadku tego ostatniego
języka miało miejsce pełne rozumienie podczas gdy odpowiedzi w
chińskim były "produkowane" bez zrozumienia, na zasadzie dobierania jednych niezinterpretowanych znaków do drugich według ściśle
określonych instrukcji (programu). W tym wypadku człowiek w
pokoju zachowywał się jak komputer - wykonywał jedynie operacje
na chińskich symbolach zastępując konkretny program.
Tak wyglądała pierwotna wersja argumentu; sprowokował on aż
27 odpowiedzi uczonych z kręgu sztucznej inteligencji, filozofów oraz
psychologów10. Searle w replice na wyżej wymienione artykuły
wyjaśnił zagadnienia wzbudzające polemikę, sprecyzował wiele pojęć,
omówił szereg problemów ale nie wprowadził żadnych zmian do
Chińskiego Pokoju w 1980 roku jak i w 1982H, kiedy to siedem
kolejnych komentarzy do słynnego artykułu zostało opublikowanych
w tym samym czasopiśmie The Behavioral and Brain Sciences.
oddziaływania techniki komputerowej; odbyło się ono w nowojorskiej
Akademii Nauk (5-8 IV 1983).
W panelowej dyskusji12 na temat roli sztucznej inteligencji w
wyjaśnianiu ludzkiego myślenia Searle wykazuje fałszy wość mocnego
programu AI odwołując się do swego argumentu myślowego, który
tym razem określa mianem przypowieści o Chińskim Pokoju. Autor
Minds, Brains, and Programs podkreśla niemożność przejścia od
semantyki do syntaktyki - z czysto formalnych operacji na symbolach
nie wynika treść umysłowa, na podstawie komputacyjnych procesów
człowiek zastępujący program nigdy nie nauczyłby się chińskiego.
Zwraca też uwagę, by w dyskusji na temat mocnego programu
sztucznej inteligencji podchodzić do zagadnienia z punktu widzenia
pierwszej a nie trzeciej osoby, zarówno bowiem świadomość jak i
procesy myślowe zachodzące w człowieku dotyczą pierwszej osoby.
W odniesieniu do samego eksperymentu myślowego Searle
wprowadza pewne zmiany - w miejsce dwóch zbiorów chińskich
symboli (nr 1 i 2) wprowadza jeden (bazę danych); zamiast o dwóch
częściach zasad mówi o wszelkich książkach zawierających zasady
dobierania jednych symboli chińskich do drugich. W ten sposób
Searle uprościł strukturę logiczną Chińskiego Pokoju rezygnując
częściowo z upodabniania algorytmu do Schankowskiego. Stopniowo
Searle będzie dążył do nadania argumentowi postaci dowolnego
formalnego programu. W wersji z 1983 roku, jak i zresztą później, nie
ma żadnych zmian odnośnie do danych na wejściu i wyjściu - nadal
są nimi pytania (obecnie zestaw nr 2), oraz odpowiedzi na pytania
(zestaw nr 3).
2.2 Przypowieść o Chińskim Pokoju (1983)
Searle powraca do swojego eksperymentu myślowego podczas
sympozjum dotyczącego naukowego, intelektualnego i społecznego
P
25
2.3 Umysł - mózg - świadomość (1984, 1986)
W 1984 roku rozgłośnia BBC powierzyła Searle'owi Wykłady
13
Reitha; sześć półgodzinnych audycji dotyczyło krytyki materialistycznego punktu widzenia w odniesieniu do umysłu. W drugim
wykładzie zatytułowanym "Can Computers Think?" Searle cytuje
Chiński Pokój w wersji z 1983 roku - z pewnymi zmianami. O ile
nadal jest mowa o trzech zbiorach symboli, o tyle zasady odnoszące
26
EWOLUCJA ARGUMENTU SEARLE'A
się do manipulowania znakami zawarte są w jednej książce. Warto też
podkreślić rozwój filozoficznego komentarza do eksperymentu
myślowego - w Wykładach Reitha po raz pierwszy zostały sformułowane cztery logiczne tezy (thesis) dotyczące relacji między umysfem,
mózgiem a komputerem. Na podstawie tych przesłanek Searle
formułuje w tym samym drugim wykładzie14 również 4 wnioski.
W 1986 roku, od 9 do 12 stycznia, odbywał się w Bombaju
Światowy Kongres na temat syntezy nauki i religii, na który zaproszeni byli m.in. Joseph Weizenbaum z MIT oraz John Searle; ich
prelekcje dotyczyły zagadnienia "Umysł, mózg, świadomość". W
kontekście mocnego programu sztucznej inteligencji oraz testu
Turinga Searle przytacza swój argument w wykładzie pod znamiennym tytułem: Turing the Chinese Room15. Zawiera on te same
elementy co w roku 1984; jedynie w odniesieniu do książki z
zasadami dobierania symboli zaznacza, że jest ona w jeżyku, który
dobrze zna biorący udział w teście, ale modyfikacja ta nie ma
większego znaczenia. Pewna zmiana ma natomiast miejsce co do
nazwy tez z 1984 roku - nazwane są one tutaj twierdzeniami
(propositions), a treść pozostaje zasadniczo ta sama. Zapewne ze
względu na temat Kongresu Searle dodał jeszcze jedno twierdzenie
{Umysł jest przyczyną zachowania), którego już nie powtarza w opisie
w 1990 roku. Dodany też został piąty wniosek {Mózg jest przyczyną
zachowania) z powodu wprowadzenia piątego twierdzenia; treść
pozostałych wniosków została zachowana.
2.4 Wersja z 1990 roku
Chiński Pokój został obszernie opisany przez Searie'a raz jeszcze
w artykule opublikowanym w styczniu 1990 roku na Jamach
"Scientific American"™; późniejsze prace17 mające odniesienie do
argumentu nawiązują do wersji z 1990 roku. Trzy pliki symboli
chińskich są nazwane odpowiednio: pierwszy - bazą danych, drugi
(zestaw znaków dostarczany na wejściu) - pytaniami, trzeci (zestaw
na wyjściu) - odpowiedziami. Programem komputerowym nazwana
jest książka z zasadami dobierania symboli na podstawie kształtu, bez
EWOLUCJA ARGUMENTU SEARLE'A
27
znajomości ich znaczenia; autorzy książki określeni są jako programiści, a człowiek zamknięty w pokoju jest wyobrażeniem mikroprocesora w komputerze. Cztery twierdzenia przyjmują tu nazwę aksjomatów a ich treść, podobnie jak i czterech wniosków, nie zmienia się.
3. Nowe warianty argumentu Searle'a
Chiński Pokój stal się bodźcem do powstania innych eksperymentów myślowych będących wariantami eksperymentu myślowego
Searle'a - Koreańskiego Pokoju oraz Chińskiej Sali Gimnastycznej.
W 1988 roku William Rapaport, wykładowca informatyki na
Uniwersytecie Stanu Nowy Jork w Buffalo, opublikował artykuł18
dotyczący podstaw komputacyjnego rozumienia języka naturalnego.
Praca ta zawiera m.in. tzw. Koreański Pokój zasugerowany profesorowi Rapaportowi przez jego studenta Alberta Hanyoung Yuhana;
argument ten był wymierzony przeciw głównej idei Chińskiego
Pokoju dotyczącej rozumienia.
Dwa lata później sam Searle opracował inną wersję swojego
argumentu; powodem stały się nadzieje wiązane z równoległym
przetwarzaniem wzorowanym na budowie układu nerwowego. Paut
M. Churchland i Patricia Smith Churchland, profesorzy filozofii na
Uniwersytecie Kalifornijskim w San Diego, twierdzili, że istnieją
realne szansę zbudowania myślącej maszyny. By tak się stało,
sztuczne systemy muszą naśladować system biologiczny mózgu.
Dyskusja na łamach "Scientific American" między Churchlandami a
Searlem zaowocowała w postaci m.in. "Chińskiej Sali Gimnastycznej"
- wariantu eksperymentu myślowego dla programów współbieżnych.
3.1 Koreański Pokój
Pomysł studenta Alberta H. Yuhana został podjęty i opracowany
przez jego wykładowcę Williama Rapaporta. Otóż wyobraźmy sobie
światowej sławy autorytet w dziedzinie twórczości Szekspira koreańskiego profesora literatury angielskiej na uniwersytecie w
29
EWOLUCJA ARGUMENTU SEARLE'A
EWOLUCJA ARGUMENTU SEARLE'A
Seulu; ów wykładowca czytał znakomite, ale tylko koreańskie
tłumaczenia dzieł dramaturga i nie zna w ogóle angielskiego; jest
natomiast ekspertem w swojej dziedzinie. Na temat sztuk scenicznych
wspomnianego autora napisał po koreańsku szereg artykułów; zostały
one przetłumaczone na angielski, opublikowane w wielu liczących się
anglojęzycznych czasopismach naukowych i spotkały się ze znakomitym przyjęciem.
Pytanie, zadane przez Rapaporta, brzmi: Czy koreański profesor
rozumie Szekspira? Zauważmy, że inaczej niż w Chińskim Pokoju
problem nie dotyczy tego, czy naukowiec rozumie angielski, bo on go
nie rozumie. Ani czy mechanicznie ("bezmyślnie") postępował według
algorytmu tłumaczenia, który inni przygotowali dla niego. "{...) On
rozumie Szekspira - intelektualna wspólnota uczonych poświadczyła
to - i on rzeczywiście coś niecoś <something> pojmuje"19. Według
Rapaporta w odniesieniu do człowieka z eksperymentu myślowego
można powiedzieć, że jednak coś niecoś rozumie, choć nie jest
Chińczykiem. Albo inaczej - system sztucznej inteligencji rozumiejący-język-naturalny może coś niecoś rozumieć20.
wspomnianych systemów wariant argumentu nazywając go Chińską
Salą Gimnastyczną; występują tu analogiczne elementy, co w
argumencie w oryginalnym brzmieniu z 1990 roku. Całość eksperymentu odbywa się w wielkiej sali gimnastycznej zamiast w pokoju.
Cały zespół ludzi, a nie jeden człowiek, ma do dyspozycji zbiór
chińskich symboli (zestaw nr 1) oraz instrukcje po angielsku z
zasadami manipulowania symbolami (książki). Do sali wprowadzane
są pliki chińskich znaków (pytania-zestaw nr 2), które opracowuje
wielki zespół ludzi, przez co cały system wymaga pewnego dostrojenia, zgrania. Osoby w sali przekazują sobie nawzajem symbole aż do
ostatecznego opracowania zestawu nr 3 (odpowiedzi).
Cała hala ludzi jest więc zorganizowana jak sieć neuropodobna
działająca przy zastosowaniu programów równoległych. Argument
został podany z zastosowaniem terminów Chińskiego Pokoju.
Ponieważ chodzi o eksperyment myślowy należy naturalnie pominąć
dwa elementy związane z Chińską Salą Gimnastyczną: problem
wielkości sali mogącej pomieścić wszystkich ludzi stanowiących
model mózgu oraz czas, jaki byłby potrzebny do przepracowania
zestawu nr 2 w nr 3. Z komputacyjnego punktu widzenia istnieje
równoważność szeregowego i równoległego systemu - człowiek w
Chińskim Pokoju czy ludzie w Chińskiej Sali Gimnastycznej wskutek
manipulowania symbolami nic nie zrozumieją. Wielkie rozmiary sali
czy większy stopień złożoności systemu nie doprowadzą do interpretacji semantycznej, nie stworzą umysłu. Chińska Sala Gimnastyczna
zaprzecza mocnemu programowi sztucznej inteligencji również w
odniesieniu do systemów konekcyjnych i sieci neuropodobnych;
semantyka nie wynika również z równoległych obliczeń, ani z
systemów wzorowanych na ludzkim mózgu.
28
3.2 Chińska Sala Gimnastyczna
Według Searle'a Chiński Pokój odnosi się do każdej wersji
mocnego programu sztucznej inteligencji - zarówno do systemów
szeregowych jak i równoległych. Nie można naturalnie lekceważyć
najnowszych osiągnięć w dziedzinie systemów konekcyjnych, ale nie
można też przeceniać znaczenia wyżej wymienionych badań. Niemniej
jednak prowokują one istotne pytania dotyczące sposobu działania
złożonych, równoległych systemów podobnych do struktur w mózgu.
Każde zadanie, jakie ma być wykonane na komputerze równoległym może być wykonane na tradycyjnym komputerze szeregowym.
Współbieżne systemy nie pozwalają więc na pominięcie eksperymentu
myślowego.
Searle chciał jednak dowieść, że Churchlandowie nie mają racji
pokładając wielkie nadzieje w systemach konekcyjnych oraz w
modelach sieci neuropodobnych; przedstawił więc odnoszący się do
PRZYPISY
1. Por. M. Heller, Filozofia nauki. Wprowadzenie, PAT, Kraków 1992, 12.
2. J. R. Searle, Minds, Brains, and Prógratns, 417.
Rozdział IV
MODELE UMYSŁU
A ARGUMENT CHIŃSKIEGO POKOJU
1. Mózg a umysł
W poprzednich trzech rozdziałach zarysowany został problem
komputerowego modelowania mózgu. Warto usystematyzować
wcześniejsze dane, by jeszcze lepiej zdać sobie sprawę-ze stopnia
skomplikowania zagadnienia powstawania stanów umysłowych.
Analizy te będą pomocne rozważaniom filozoficznym co do wzajemnych odniesień umysłu i mózgu oraz programów formalnych i
komputerów a także mocnego i złagodzonego programu sztucznej
inteligencji.
1.1 Struktura i działanie mózgu
Mózg człowieka jest najbardziej złożonym tworem we Wszechświecie. Waży zaledwie 1100 do 1400 gramów, tworzy go trylion
komórek; 100 miliardów spośród nich to neurony połączone w sieci1.
Dwie półkule mózgowe połączone są spoidłami - wielkim i
aksonalnym. Ich podstawami są móżdżek koordynujący ruchy oraz
rdzeń przedłużony, który kontroluje funkcje autonomiczne łącznie z
oddychaniem, krążeniem i trawieniem. W środku mózgu znajdują się
70
71
MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU
MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU
struktury odpowiedzialne m. in. za pamięć długotrwałą i emocje tworzą one system limbiczny.
Prawa i lewa półkula są pokryte mocno pofałdowaną korą o
grubości 2 milimetrów. Dzieli się się ona na szereg warstw a jej
łączna powierzchnia wynosi ok. 1,5 m2. Według kryteriów morfologicznych i funkcjonalnych można wydzielić w korze poszczególne
pola: odbiorcze sensoryczne - kontrolujące aktywność motoryczną
oraz pola o niewyraźnie określonych granicach, w których zachodzą
procesy asocjacyjne. Na jeden milimetr kwadratowy kory przypada
mniej więcej 100 tysięcy neuronów.
Komórki te są bardzo zróżnicowane między sobą pod względem
kształtu, budowy molekularnej, wejść i projekcji; nie jest jednak tak,
że każdy neuron jest jedyny w swym rodzaju. Można wśród nich
stwierdzić pewne schematy - neurony o podobnych funkcjach są
zgrupowane w kolumny lub tzw. blaszki (slabs). Neurony odbierają
sygnały przez rozgałęzione wypustki - dendryty a przesyłają
informacje za pośrednictwem innych wypustek zwanych aksonami.
Informacje przesyłane są wzdłuż aksonu jako impulsy elektryczne
- tzw, potencjały czynnościowe o napięciu 100 mV. Impulsy te trwają
I milisekundę i powstają dzięki dodatnio naładowanym jonom sodu.
W synapsach, niezwykle precyzyjnych połączeniach między zakończeniami aksonalnymi a dendrytem, potencjały te są przekształcane w
sygnały chemiczne -neurotransmitery. Odkąd w 1921 roku zidentyfikowano pierwszy przekaźnik nerwowy lista substancji odpowiedzialnych za tę funkcję wydłużała się i obecnie znamy ich blisko pięćdziesiąt. Cząsteczki przenikają przez szczelinę synaptyczną i kanałami
jonowymi błony dendrytu postsynaptycznego są wiązane w neuronie;
prowadzi to do powstania potencjału czynnościowego.
Częstotliwość impulsów wynosi do 200 na sekundę, szybkość nie
jest zbyt duża - ok. 100 m/s. czyli milion razy mniejsza niż prędkość
sygnału elektrycznego w drucie miedzianym. Wynika to ze stosunkowo dużej oporności neuronów wzdłuż osi; by pokonać odległość kilku
centymetrów, potencjał czynnościowy musi być często odnawiany w
czasie tej drogi. Każdy neuron nieustannie integruje ok. 1000 wejść
synaptycznych, by osiągnąć pewną intensywność wyładowań na
wyjściu. Zarówno synapsy jak i obwody neuronalne charakteryzują się
pewną zdolnością do zmian w wyniku działania; cecha ta jest
określana jako plastyczność. Od niej jest uzależniona ciągłość naszego
życia psychicznego, bowiem potencjały czynnościowe nie tylko
przenoszą informacje, ale również powodują metaboliczne zmiany w
obwodach, w których krążą.
Jak więc widzimy, mózg jest niezwykle skomplikowaną strukturą
złożoną z oddzielnych komórek - neuronów. Te z kolei łączą się
poprzez synapsy z aksonami, przy czym wejścia te nie sumują się
liniowo; dendryt stanowi wyjście każdej komórki.
1.2 Powstawanie zjawisk umysłowych
Natura procesów umysłowych pozostawała nieznana do połowy
XX wieku. Dziś wiemy, że są one wynikiem skomplikowanych
procesów fizycznych i chemicznych; impulsy nerwowe, powodujące
procesy myślowe i percepcyjne, przemieszczają się w korze mózgowej
- wzdłuż, w poprzek oraz w głąb. Umysł jest wynikiem aktywności
wszystkich części mózgu. Jego funkcjonowanie stanowi zjawisko,
które pozostaje niezmiennie przedmiotem kontrowersji zarówno
filozofów jak i badaczy sztucznej inteligencji.
Świadomość jawi się jako wynik procesów neurobiologicznych;
niemniej jednak dogłębne zbadanie relacji mózg-świadomość jest
zadaniem na wiele lat czy nawet dziesięcioleci. Wydaje się, że "w
badaniach naszych skazani jesteśmy na śledzenie krzywej asymptotycznej, zmierzającej do granicy, lecz nigdy jej nie osiągającej, ale
faki ten nie zwalnia nas od konieczności nieustannego podążania do
2
celu" . Skutkiem tego pozostaną pewne elementy niekomunikowalności określane przez filozofów mianem qualia, których nie da się
uchwycić przy pomocy metod nauki. Indywidualne ludzkie zachowania trudno będzie szczegółowo do końca wyjaśnić - są zbyt skomplikowane. Nie mniej jednak uczeni nie rezygnują z badań nad odniesieniem umysł-mózg. Przykładem ich wysiłku są próby odtworzenia
wzorca przepływu informacji w mózgu w czasie wykonywania zadań
umysłowych np. u zwierząt naczelnych. Doświadczenia takie
72
73
MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU
MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU
wymagają skomplikowanych urządzeń, miesięcy spędzonych na
uczeniu małpy odpowiednich czynności i myślenia oraz żmudna
analiza danych. Badania prowadzone na John Hopkins University czy
przez Semira Zekiego upoważniają do pewnych generalizacji. Jedną
z nich jest zasada, że dana informacja jest analizowana równolegle
wzdłuż wielu a nie tylko jednej drogi nerwowej3. Poszczególne
strumienie informacji (ruch, kształt, barwa) są rozdzielane już w
siatkówce oka i również osobno przekazywane do pierwotnej kory
wzrokowej. Podobnie ma się rzecz z systemem słuchowym lokalizacja obiektu przez sowę opiera się na analizie dwóch nurtów
dźwięków docierających do uszu. Jest możliwe, że analogiczny typ
analizy równoległej charakteryzuje systemy pól korowych, systemów
sensorycznych, asocjacyjnych czy motorycznych. Interesujące są
również pomiary pobudzenia neuronów w korze mchowej związane
z zamiarem wykonania machnięcia łapą przez małpę dokonane zostały
przez Apostolosa P. Georgopoulosa z wyżej wymienionego Uniwersytetu; odnalazł on w korze sensorycznej zespół neuronów kodujących
kierunek ruchu przedniej łapy. Zsumowanie częstotliwości wyładowań
wielu komórek neuronowych daje wektor lepiej skorelowany z
rzeczywistym kierunkiem ruchu niż w wypadku pojedynczego
neuronu.
Jeśli analiza ruchu piłki tenisowej dokonuje się równolegle, to
kiedy gracz uświadamia sobie zbliżanie się piłki? Gdzie są integrowane wszystkie dane? W wypadku podanego przykładu najprawdopodobniej w obwodach zwrotnych między komórkami dużych pól
4
recepcyjnych a pierwotną korą wzrokową . Badania Patrycji S.
5
Goldman-Rakic nad poznaniem anatomii pamięci mają doprowadzić
do określenia schematu połączeń w korze przedczołowej. Eksperymenty takie są prowadzone na małpach ale nadal brak informacji na
temat podobnych struktur neuronalnych w ludzkim mózgu. Ryzykowne byłoby założenie, że u różnych gatunków istnieje taka sama mapa
pamięci; zwłaszcza trudno zastosować podobną przesłankę w
odniesieniu do człowieka, bowiem to właśnie złożoność sieci
neuronów wyróżnia homo sapiens od innych form życia.
W sukurs uczonym przychodzą nowe metody badania żywego
mózgu ludzkiego; pozwalają one zaobserwować, które rejony kory
wzmagają swoją aktywność, gdy np. przypominamy sobie jakiś
wyraz. Chodzi tutaj o tomografię pozytronową (PET: PositronEmission Tomography) oraz obrazy uzyskane przy pomocy rezonansu
magnetycznego (MRI: Magnetic Resonance Imaging). Obie te metody
wykrywają w granicach 20-50% wzrost przepływu krwi w danym
obszarze i oparte są na skomplikowanych algorytmach odejmowania;
umożliwiają one odróżnienie przepływu krwi w mózgu w stanie
spoczynku oraz podczas wykonywania zadań umysłowych. Dzięki
nałożeniu obrazów opracowanych komputerowo na dokładne mapy
anatomiczne można przyporządkować określonym stukturom
neuronowym zmiany przepływu krwi. Zbyt mała rozdzielczość
przestrzenna i czasowa nie pozwala na zarejestrowanie pojedynczych
kolumn kory mózgowej. Ale nawet przy takich ograniczeniach płyną
ogromne korzyści z zastosowania obu metod w badaniach ludzkiego
mózgu.
2. Umysł a mocny program sztucznej inteligencji
Opis złożonych funkcji mózgowych uzmysławia nam, jakie
zadania postawili przed sobą uczeni z kręgu sztucznej inteligencji
pragnący odwzorować działanie najbardziej skomplikowanego tworu
we Wszechświecie. Sukcesy badań nad sztuczną inteligencją osiągane
w latach pięćdziesiątych i sześćdziesiątych spowodowały formułowanie optymistycznych programów badawczych typu: to samo
poznanie zachodzi w ludzkim umyśle oraz w komputerach i w obu
dziedzinach ma miejsce semantyka (Allen Newell, Herbert A. Simon),
mózg jest komputerem z mięsa (Marvin Minsky), maszyny mogą się
uczyć (Edward Feigenbaum) etc. Programy te znalazły sprzymierzeńców w niektórych filozofach i psychologach jak np, Hilary Putnam
czy Jerry A. Fodor. Piętrzące się trudności w badaniach nad rozwiązywaniem problemów czy rozpoznawaniem obrazów oraz analizy
6
filozoficzne zwłaszcza końca lat siedemdziesiątych doprowadziły do
74
MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU
MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU
pewnego zróżnicowania poglądów wśród uczonych zajmujących się
sztuczną inteligencją i jej filozofią. Część z nich coraz lepiej
rozumiała, jak śmiałe czy wręcz nieprawdopodobne założenia przyjęto
w odniesieniu do umysłu i programów komputerowych.
Według nich istnieje możliwość napisania programów, które
wyposażone w odpowiednie dane na wejściu i wyjściu tworzą umysł.
Można to sprawdzić przy pomocy testu Turinga -jeśli dany program
pomyślnie przejdzie ten test oznacza to, że jest on nie tylko modelem
umysłu afe samym umysłem. Istotą mocnej AI jest poprawny
program, który może być implementowany na różnych urządzeniach;
specyficzne aspekty intelektu mogą być pojmowane, studiowane i
określane bez zgłębiania sposobu działania mózgu. Można więc
pozostawać stanowczym materialistą co do umysłu i uznawać za
Kartezjuszem, że mózg naprawdę nie ma znaczenia dla intelektu. W
obrębie ogólnej tradycji materiał i stycznej znajduje się również
behawioryzm. Również w mocnym programie sztucznej inteligencji
odnajdujemy jego elementy np. w następującej opinii - jeśli dany
system komputerowy zachowuje się tak, jakby posiadał daną zdolność
umysłową, to rzeczywiście ją posiada.
Myślenie to nic innego jak manipulowanie formalnymi symbolami
i to właśnie robi komputer - sądzą zwolennicy mocnego programu
sztucznej inteligencji. Biorąc więc pod uwagę np. program Schanka
należy stwierdzić, że maszyna nie tylko symuluje możliwości
człowieka ale rozumie opowiadanie o zamawianiu hamburgera i
dostarcza odpowiedzi na pytania.
2.1 Implikacje (Mitologiczne mocnej AI
John R. Searle, pomysłodawca argumentu Chińskiego Pokoju, jest
również autorem rozróżnienia między mocnym oraz złagodzonym
programem AL Po raz pierwszy zaproponował ów podział w słynnym
artykule "Minek, Brains and Pwgrams" w 1980 roku: "Zgodnie z
mocnym programem sztucznej inteligencji komputer jest nie tylko
narzędziem w studiowaniu umysłu. Prawidłowo zaprogramowany
komputer rzeczywiście jest umysłem w tym sensie, że można
literalnie uznać, iż komputer po przekazaniu mu prawidłowego
programu rozumie i ma inne stany umysłowe. Ponieważ zaprogramowany komputer ma stany umysłowe według mocnego programu
sztucznej inteligencji, programy są nie tylko narzędziami umożliwiającymi nam testowanie psychologicznych objaśnień ale raczej same
programy są już wyjaśnieniami"7.
Wydawać by .się mogło, że optymizm zwolenników mocnego
programu sztucznej inteligencji zostanie ostudzony wskutek rozwoju
nowych metod badania ludzkiego mózgu (np. PET oraz MRI przełom lat osiemdziesiątych i dziewięćdziesiątych), ujawnienia coraz
to bardziej skomplikowanych struktur neuronów oraz sposobów ich
działania czy analiz filozoficznych. Tak się jednak nie stało; literatura
filozofii sztucznej inteligencji czy związana z badaniami nad AI nadal
jest pełna idei typu: komputer jest umysłem, program myśli, można
urzeczywistnić siłę przyczynową sieci neuronowych itp. W latach
osiemdziesiątych i dziewięćdziesiątych łatwo można znaleźć przedstawicieli nurtu mocnego programu sztucznej inteligencji; należą do nich
m.in.: Douglas Hof.stadter, Daniel Dennett, Roger Schank, Jerry A.
Fodor, Paul M. Churchland, Stepen P. Stich, Terrence Sejnowski,
Patrycjii Smith Churchland i Zenon Pylyshyn.
75
2.2 Elementy mocnego programu sztucznej inteligencji
w różnych dziedzinach nauki i filozofii
Idee mocnej AI zawarte są także w bardzo popularnej analogii
między komputerem a mózgiem - "Umysł jest dla mózgu tym, czym
program dla komputera"; jej autorem jest Philip N. Johnson-Laird8.
Dowolny zresztą system fizyczny, jeśli tylko zostanie wyposażony w
odpowiedni program i właściwe sygnały na wejściu i wyjściu - nie
tylko może ale musi czuć, myśleć; nie jest przy tym istotne, z czego
będzie zbudowany ów system. Jest to dominujący pogląd w sztucznej
inteligencji, filozofii umysłu oraz psychologii zwłaszcza lat osiemdziesiątych określany mianem kognitywizmu*. Ludzie i inne organizmy żywe są postrzegani jako systemy przetwarzające informacje.
76
77
MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU
MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU
Zasadniczym zagadnieniem jest określenie, w jaki sposób dany
organizm otrzymuje dane, przetwarza je, zapamiętuje i jak pobudzają
go one do inteligentnego zachowania. Termin przetwarzanie informacji został przejęty w latach sześćdziesiątych z teorii informacji
przez psychologię kognitywną i przybrał tu znaczenie operacji
komputacyjnych na symbolach. Istotą poznania stało się manipulowanie znakami oparte na ścisłych zasadach - jak to ma miejsce w
komputerze.
Kognitywizm jest z kolei mocno powiązany z nową dyscypliną
wiedzy zwaną Cognitive Science (CS) - nauką poznawczą10, według
której aspekty umysłu mogą być studiowane nade wszystko na
podstawie informatyki i teorii sztucznej inteligencji. W mocnej AI i
CS umysł nie jest częścią świata natury, nie może być rozpatrywany
jako wynik procesów biologicznych - jest czysto formalny11; ze
wszystkich tych procesów od mitozy poprzez fotosyntezę oraz
trawienie jedno i tylko jedno mianowicie poznanie jest niezależne od
swego biochemicznego podłoża. Powodem jest pogląd, że stany
umysłowe są jedynie procedurami opartymi na manipulowaniu
symbolami. Jakakolwiek więc substancja zdolna przyjąć formalne
algorytmy, tym samym posiadać będzie również intelekt. Mózgowi
12
zdążyło się właśnie być jedną z owych substancji .
Do skrajnie antybiologicznej tradycji w podejściu do człowieka
13
nawiązuje także funkcjonalizm maszynowy (komputerowy) ;
porównuje on stany umysłowe z funkcjonalnymi czy logicznymi
stanami komputera. Stymulacje fizyczne i chemiczne indywidualnego
fizycznego organizmu można zastępować funkcjami wejścia i wyjścia
abstrakcyjnego programu komputerowego.
Idee mocnego programu sztucznej inteligencji zawarte są również
w komputacyjnej teorii umysłu; wyrasta ona z pojmowania mózgu
jako urządzenia przetwarzającego informacje analogicznie do
komputera14. Na to porównanie wpłynęły dwie właściwości komputerów oraz pewne założenia twórców tej teorii. Po pierwsze dane i
programy mogą być uruchamiane na maszynach zbudowanych z lamp
elektronowych, tranzystorów czy układów scalonych; w opinii tej
zawarte jest założenie, że umysł nie jest zależny od mózgu. Po drugie
- sposób zorganizowania programu jest zgodny z intuicjami co do
postępowania w rozwiązywaniu problemów, zadań umysłowych i
uczeniu się; zauważamy tu kolejne założenie - myślenie jest procesem
komputacyjnym i uruchomienie właściwego procesu będzie wywoływać stany umysłowe. Według Jerry Fodora, czołowego przedstawiciela komputacyjnej teorii umysłu, psychologia jest skoncentrowana
wokół formalnej struktury symboli w umyśle i na sposobach
manipulowania nimi.
2.3. Mózga programy formalne
Każdy komputer jest budowany według ściśle określonych reguł
i jego architekturę można szybko rozszyfrować. Nieporównywalnie
trudniejsze jest poznawanie struktury mózgu a tym bardziej odtworzenie sposobu jego działania; równie trudnym jest zadanie odwzorowania działania mózgu przy pomocy programów komputerowych.
Największe nadzieje są obecnie pokładane w sieciach neuropodobnych
- ich działanie jest naśladowaniem pracy zespołów komórek nerwowych. Systemy te są o wiele bardziej skomplikowane od np. programu Schanka. Mimo to nadal można zastosować do nich eksperyment
myślowy Johna Searle'a a dokładniej jego wariant zwany Chińską
Salą Gimnastyczną - jak już o tym wspomnieliśmy w paragrafie
dotyczącym odpowiedzi systemowej Churchlandów. Przyjrzyjmy się
więc zarówno wysiłkom uczonych zmierzających do odwzorowania
działania mózgu jak i zagadnieniom filozoficznym związanym z tymi
badaniami.
Uczeni dążą do poznania własności neuronów i ich połączeń, chcą
zgłębić procesy umysłowe uczenia się, pamięci, mowy, świadomości,
odbierania wrażeń wzrokowych i słuchowych. Kolejnym etapem pracy
jest zaprogramowanie komputera w taki sposób, by odtwarzał pracę
ludzkiego mózgu - konstruowane są tzw. sieci neuropodobne.
Naukowcy napotykają na trudności już na pierwszym etapie, bowiem
wiedza na temat pracy neuronów jest niekompletna i w dodatku
możliwości obliczeniowe komputerów są ograniczone. Należy też
78
79
MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU
MODF.LE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU
postawić niełatwe i ważne pytanie - jakie własności neuronów są
najistotniejsze dla działania umysłu?
Sieci neuropodobne są złożone z "modelowych neuronów" - wielu
połączonych ze sobą jednostek komputerowych wyposażonych w
programy współbieżnego przetwarzania (PDP - Paralell Distributing
Processing). Wyróżnić można trzy warstwy jednostek: wejściowe,
"ukryte" i wyjściowe - wzajemnie ze sobą połączone. Funkcja
synapsy odtwarzana jest przez tz-w. wagę połączeń; opisują one siłę
wpływu jednych jednostek na drugie. Surowa informacja jest
dostarczana sieci poprzez jednostki wejścia a następnie mnożona
przez odpowiednio dobraną wielkość. Jednostki ukryte dodają ważone
wejścia i obliczają aktywność wyjścia "neuronu" reprezentowane jest
przez liczbę określającą częstość generacji iglic.
Każdy komputer dokonuje wiec dwuetapowej konwersji zamienia wzorzec pobudzeń na wejściu sieci w jedną czynność
wyjściową i przekazuje ją do innych maszyn. Zachowanie sieci
neuropodobnej zależy od konwersji pobudzeń w wagach oraz funkcji
wejścia i wyjścia. Najtrudniejszym zadaniem okazało się dobranie
odpowiednich wartości wag. Aby zaimplementować wykonywanie
danej czynności należy zmieniać każdą wagę proporcjonalnie do
pochodnej błędu wagi (EW) - wartości, która jest stosunkiem zmiany
błędu do zmiany wagi. Najpierw EW obliczano nieznacznie zaburzając wagi i obserwując zmiany błędu. Ta początkowa metoda wymagała osobnego zaburzania każdej wagi zaś poprawianie pochodnej błędu
dla każdej z nich było bardzo trudne do obliczenia nawet przy
stosunkowo łatwym zadaniu jakim jest rozpoznawanie cyfr. Następnie
zastosowano algorytm propagacji wstecznej15; okazał się on znacznie
lepszą procedurą w obliczniu EW i stał się jednym z ważniejszych
narzędzi w uczeniu sieci neuropodobnych, choć nie jest pozbawiony
wad.
Przyjęcie propagacji wstecznej jako teorii wyjaśniającej uczenie się
biologicznych neuronów nie było jednoznacznie oczywiste. Z jednej
strony był to napewno wartościowy przyczynek teoretyczny, z drugiej
strony propagacja wsteczna wydaje się niemożliwa biologicznie mózg musiałby sobie poradzić z tym problemem przez wykorzystanie
innych, nieneuronowych dróg przy przenoszeniu impulsu z jednej
warstwy do drugiej. Innym i ważniejszym problemem jest szybkość
wykonywania wspomnianego algorytmu - przy wzroście rozmiarów
sieci jeszcze szybciej rośnie czas jej uczenia się.
2.4 Współbieżne przetwarzanie a argument Johna Searle'a
'M
Zastanówmy się, czy sieci neuropodobne i PDP spełniają pokładane w nich nadzieje odnośnie do idei mocnego programu sztucznej
inteligencji; rozważmy również wzajemne odniesienie argumentu
Searle'a i metod zastosowanych w wyżej wymienionych badaniach.
Uczyńmy to na przykładzie "uczenia sieci" rozpoznawania cyfr i
twarzy.
Próby związane z rozpoznawanie obrazów (paltem recognińon)
nie są niczym nowym w AT. Już w 1955 roku Oliver G. Selfridge
opublikował pionierską pracę na temat16. System Pandemanium
autorstwa jego oraz Ulrika Neissera analizował ręcznie pisane litery;
czynił to przy pomocy 1024 elementowej macierzy o boku złożonym
z 32 kwadratów. Programowi przekazane zostały na wstępie cechy
liter i na ich podstawie dokonywana była analiza. Obecnie podobne
prace są prowadzone przy zastosowaniu 256 jednostek wejściowych,
9 ukrytych i 10 wyjściowych. "Uczenie" sieci dokonuje się przez
zastosowanie następującej procedury: przedstawienia przykładu
treningowego (wzorce - aktywności dla wejść oraz czynności dla
wyjść), określenia zbliżenia aktualnego wyjścia do żądanego i
dostosowania wag połączeń do optymalnego wyjścia. Zauważmy, że
dokonywana jest tutaj interpretacja semantyczna (!) - określone
wzorce wraz z instrukcjami są przekazywane komputerom. Równie
dobrze można by określić cechy trójki jako ósemki i sieć tak by ją
!
interpretowała. Działanie 2 " byłoby odczytane jako cyfra 210
względnie duże 2 i mniejsze 10. System neuropodobny nie zinterpretowałby takiego zapisu jako potęgowania do momentu przekazania
mu informacji typu: jeśli z prawej strony cyfry jest napisana mniejsza
podniesiona w stosunku do niej o 2/3 wysokości - traktuj ów zapis
jako potęgowanie. Bez takiej semantycznej interpretacji sieć byłaby
80
81
MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU
MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU
bezradna. Co więcej - wskutek napisania cyfr czcionkami różnej
wielkości mogłaby interpretować dany szereg jako potęgowanie choć
wcate nie przedstawiałby on tego działania matematycznego.
Przedstawiony zarzut jest najpoważniejszym w odniesieniu do
propagacji wstecznej. Widzimy też, że i w tym przypadku nie da się
pominąć Chińskiego Pokoju - działanie programów współbieżnych
nie dałoby idei potęgowania bez dostarczenia sieci neuropodobnej
wzorców oraz instrukcji. Sieć "wymaga nauczyciela, który podawałby
dla każdego przykładu żądany wynik. (...) [Ludziom natomiast nikt
nie przedstawia (...) dokładnego opisu wewnętrznej reprezentacji
świata, który mamy rozpoznawać przy pomocy wrażeń zmysłowych.
Uczymy się rozumieć zdania lub obrazy wzrokowe bez żadnych
bezpośrednich instrukcji"17.
Czy jest możliwe nienadzorowane uczenie się sieci? Badacze
sztucznej inteligencji na to pytanie dają odpowiedź twierdzącą opracowali szereg procedur potrafiących odpowiednio modyfikować
wagi sieci. Wymieniają metodę konkurencyjnego uczenia się (wraz z
modyfikacją wprowadzoną przez Teuvo Kohenena z Uniwersytetu w
ia
Helsinkach) oraz kodowanie populacyjne . Zapominają jednak w
obydwu przypadkach o jednej podstawowej rzeczy - by na wyjściu
zostały poprawnie zinterpretowane dane wejścia jako np. lampa,
wcześniej musi być podany wzorzec ogólny, element semantyczny. W
wypadku konkurencyjnego uczenia się, by wzorzec wejściowy
przyciągnął do siebie wzorzec wagi najbliższej jednostki ukrytej,
wcześniej musi nastąpić przekazanie zespołu cech np. psów, by
poprawnie mógł być zinterpretowany obraz zarówno jamnika jak i
owczarka niemieckiego. Identyczna sytuacja ma miejsce w odniesieniu do kodowania populacyjnego; aby wieloparamentrowy system
tzw. wzgórków aktywności mógł poprawnie porównać jednostki
reprezentujące usta oraz nos z jednostkami wejścia i zdecydować, czy
powstałe wzgórki reprezentują twarz - wcześniej musi znać wzorcowe
wzgórki nosa-i-ust-tworzących-twarz. Zagadnienia te da się nadal
sprowadzić do podkreślanego przez Searle'a fundamentalnego
rozróżniania między syntaktyką programu komputerowego a warstwą
znaczeniową, semantyczną. Różnicy tej nie zniwelowali uczeni
pracujący nad sieciami neuropodobnymi.
2.5 Symulacja a duplikacja
Postawmy obecnie jeszcze jedno pytanie: czym jest sieć neuropodobna z uruchomionym na niej PDP - symulowaniem czy też
duplikowaniem zjawisk mózgowych? John Searle, zgodnie z argumentem Chińskiego Pokoju, oraz inni uczeni opowiadają się za symulacją.
Zwolennicy mocnej Al są zdania, że mamy do czynienia z duplikacją.
Dla przykładu - J, Anderson stawia na tym samym poziomie
działanie neuronów co i zaprogramowanych sieci ls ; Herbert A. Simon
twierdzi, że dane właściwości komputera i centralnego układu
nerwowego są wspólne20. Nadal powtarzany jest błąd, jaki popełnił
niegdyś Marvin Minsky na początku lat siedemdziesiątych twierdząc,
że za 3-8 lat zostanie zbudowana maszyna o ogólnej inteligencji
człowieka21; dziś analogiczny pogląd wyraża Daniel Crevier z
University of Quebec - według jego osądu moc mózgu zostanie
zduplikowana na superkomputerach w najlepszym razie w 2009 roku
a w najgorszym z 33 letnim poślizgiem natomiast na komputerach
typu desktop odpowiednio w 2025 oraz 2058 roku. "Po tych datach
możemy oczekiwać, że nasze maszyny staną się zdolniejsze niż my"22.
Jakie modele należałoby uznać za zduplikowanie mózgu i umysłu
a jakie pozostawałyby ich symulacją? Aby nie dopuścić do rozmycia
pojęć symulowania i duplikowania, przeanalizujmy znaczenie obydwu
oraz odnieśmy ich treść do mózgu i umysłu z jednej strony oraz
komputera i programów z drugiej. Nie jest to łatwe zadanie, zwłaszcza dlatego, że trudno do końca sprecyzować, co jest czy też ma być
duplikowane względnie .symulowane w odniesieniu do mózgu i
umysłu.
Duplikowanie jest odtworzeniem rzeczywistej rzeczy, która jest
rozpatrywana. W wypadku umysłu model nie musi być identyczny z
danym zjawiskiem (wtedy nie byłby modelem lecz zjawiskiem) 23
winiem mu odpowiadać pod względem informacyjnym . Duplikacja
82
83
MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU
MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU
jest rozumiana jako sposób wystarczający do spowodowania modeli
testowych, kopii czy reprodukcji.
Kiedy rozpoczęły się w latach pięćdziesiątych badania nad
sztuczną inteligencją, wkrótce zostały wyróżnione dwa rodzaje
symulacji - strukturalna i funkcjonalna24. Obie prowadzą do analogii
(podobieństwa) między symulowanym przedmiotem a symulującym
modelem - w naszym wypadku między umysłowymi zdolnościami
ludzi a komputerami. Komputer funkcjonalnie symuluje umysłowe
zdolności człowieka, jeśli ustalone na ich wejściach dane (np.
konkretna sytuacja w szachach) dadzą takie same lub podobne
rezulataty na ich wyjściach (np. określone posunięcie w grze).
Strukturalna symulacja wymaga, by mechanizm przetwarzania
informacji wiodący od danych na wejściu do efektu na wyjściu okazał
się podobny dla człowieka i maszyny. [Szybko] okazało się, że nie
udaje się doprowadzić do podobieństwa strukturalnego między ludzką
a sztuczną inteligencją. Ani hardware ani software nie mogą być
uważane za podobne pod względem strukturalnym do człowieka i
maszyny25.
John Searle zastanawia się, jak można było dopuścić do pojęciowego bałaganu i utożsamienia symulowania z duplikowaniem właśnie
26
w wypadku umysłu i mózgu ludzkiego . W wypadku pracy silnika
samochodowego czy trawienia nikt nie wierzy, że ich symulacje mogą
doprowadzić do poruszania auta czy poczucia sytości. Symulowanie
utleniania węglowodorów w silniku spalinowym czy trawienia obiadu
nie jest urzeczywistnieniem siły przyczynowej silnika czy żołądka. W
wypadku stanów umysłowych należy wziąć pod uwagę, że zachodzą
one w wyniku procesów chemicznych i fizycznych będących
składowymi neurofizjologii mózgu. Czwarty aksjomat Chińskiego
Pokoju mówi wyraźnie: Mózg jest przyczyną umysłu a wniosek drugi
zaznacza, że dowolny inny system zdolny do spowodowania umysłu
musiałby mieć siłę przyczynową (przynajmniej) równoważną mózgowi.
By uniknąć nieporozumień przy określaniu treści wyrażenia spowodowanie umysłu, chcę podkreślić, iż układowi fizycznemu U można
przypisać zdoiność Z - powodowania umysłu - wówczas, gdy zespół
procesów P generowanych przez U pozostaje operacyjnie nierozróż-
nialny od zespołu procesów P,, P 2 - P n towarzyszących funkcjonowaniu umysłu. Wydaje się oczywiste, że co do wyżej wymienionych
procesów towarzyszących myśleniu można mówić wyłącznie o
symulacji a nie o duplikacji i efektach w postaci rzeczywistego
rozumowania27.
Silnik w samochodzie można zamieniać - nie jest istotne, czy
będzie go poruszał motor na paliwo płynne jak benzyna bądź olej
napędowy czy gaz. W tym wypadku liczy się tylko siła przyczynowa
a nie mechanizmy. Jednak w doniesieniu do procesów umysłu nie
można zamieniać mózgu na komputer i nadal sądzić, że mamy do
czynienia z tymi samymi zjawiskami intelektualnymi. Dlaczego tak
się dzieje? Przecież można modelować na komputerze wyładowania
nerwowe, choć różni się on od mózgu tak pod względem fizyki jak
i chemii. Jest tak dlatego, ponieważ myślenie jest zjawiskiem
biologicznym, stany umysłowe powstają w mózgu a ten nie tylko
realizuje wzorce formalne - istotne znaczenie mają tutaj procesy
neurobiologiczne. Wniosek czwarty mówi wyraźnie: Sposób, w jaki
mózg ludzki wytwarza zjawiska umysłowe nie może polegać jedynie
na wykonywaniu programów komputerowych. Przypomnijmy także
wniosek trzeci dotyczący możliwości wytwarzania zjawisk umysłowych przez artefakty; jeśli miałyby one urzeczywistniać specyficzną
siłę przyczynową mózgu, nie mogłyby tego dokonać jedynie przez
wykonywanie formalnego programu. Mózg jest narządem biologicznym odpowiedzialnym za powstawanie świadomości i innych zjawisk
psychicznych. Modele zjawisk mózgowych możemy tworzyć przy
zastosowaniu symulacji komputerowych, ale "modele te odnośnie do
odtwarzania procesów psychicznych nie są ani trochę bardziej
realistyczne niż symulacje jakichkolwiek innych zjawisk naturalnych"28. Biorąc pod uwagę rozróżnienie na strukturalną i funkcjonalną
symulację można więc stwierdzić w odniesieniu do umysłu, że jest
możliwy ów drugi rodzaj symulacji, ale nie jest ona równoważna
29
duplikacji .
Na koniec powróćmy do zasygnalizowanej już przez Searle'a
wątpliwości - co właściwie symulujemy przy pomocy komputera1"?
Czy rzeczywiście symulujemy sposób powstawania poznawczych
i
84
MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU
reprezentacji i funkcje ludzkiej inteligencji? Czy możemy mu
zaimplementować kompletną logikę stosowaną przez istoty ludzkie?
W jaki sposób i czy w ogóle szybkość i dokładność logicznego
wnioskowania są związane z symulacją życia ludzkiego? Jeśli chcemy
symulować funkcje istot ludzkich - na jakie istotne czynniki należy
zwrócić uwagę i co jest owymi istotnymi czynnikami?; potrzebna jest
zapewne lepsza interpretacja opierająca się na kryteriach wyławiających ważne aspekty. Nie łatwo odpowiedzieć na podobne pytania;
problemów dotyczących natury symulowania komputerowego jest
znacznie więcej. W niniejszym paragrafie chodziło jedynie o ich
zasygnalizowanie a zagadnienie zasługuje na osobną, obszerniejszą
pracę.
W powyższych rozważaniach dostrzegamy, jak trudno jest
zastosować pojęcie symulacji maszynowej do scharakteryzowania
ludzkich doznań. Jak się wydaje, intelektualna aktywność ma a priori
pewne własności, których nigdy nie będzie można przekazać
maszynie31. Jeśli stosujemy komputer do symulacji procesów
poznawczych, musimy pamiętać o niekompletności tego modeiu,
32
który jest zwykle uproszczeniem lub abstrakcją zjawiska . Analogia
komputerowa nie jest w stanie przedstawić pełnego zakresu ludzkiego
rozumowania; stanowi ona jedynie model, funkcjonalną symulację
pewnych aspektów ludzkiego umysłu i mózgu. Komputer wyposażony
w odpowiedni program, poprawne dane na wejściu i wyjściu nie jest
umysłem. Zwolennicy mocnego programu sztucznej inteligencji
utożsamiają system zer i jedynek komputera z wyładowaniami lub ich
brakiem w mózgu człowieka. Jest to jednak jedynie daleka analogia.
3. Programy komputerowe w badaniach nad intelektem
Jeden z zasadniczych elementów umysłu - świadomość, jest
wyeliminowana w mocnym programie sztucznej inteligencji; eksperyment myślowy Searle'a pozwala na odrzucenie takiego podejścia.
Postawmy kolejny, bardziej ogólny problem: o ile programy komputerowe są przydatne w badaniach nad intelektem?
MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU
85
3.1 Stanowisko Scarlc'a
Zgodnie z mocnym programem sztucznej inteligencji dowolny
system, zbudowany z czegokolwiek (puszek, układów scalonych czy
papieru) nie tylko może ale wręcz musi czuć i myśleć. Jest tylko
jeden warunek - komputer musi być wyposażony w odpowiedni
program z właściwymi sygnałami na wejściu i wyjściu. Searle uważa
mocny program sztucznej inteligencji za głęboko antybiologiczny
punkt widzenia; nie do przyjęcia jest twierdzenie o braku jakiegokolwiek fizycznego czy biologicznego składnika w ludzkim umyśle
oraz podtrzymywanie poglądu o niezależności intelektu od mózgu.
Autor Chińskiego Pokoju chciałby wierzyć, że uczeni zajmujący się
sztuczną inteligencją odrzucą ten pogląd jako przejaw antynaukowych
tendencji podobnych do sprzeciwów wobec poglądów Kopernika.
Galileusza czy Darwina3J. Formalne manipulowanie symbolami nie
wystarcza do uzyskania rozumienia i komputer nie może być uznany
za maszynę myślącą. Sieci neuropodobne nie pozwalają na pominięcie
Chińskiego Pokoju - eksperyment ten można bowiem zastosować do
dowolnego systemu obliczeniowego, również współbieżnego14.
John Searle skłania się ku złagodzonemu programowi sztucznej
inteligencji - komputer uznaje jedynie za narzędzie służące do
badania ludzkiego intelektu. Komputerowy model umysłu jest
przydatny podobnie jak w symulacjach dotyczących ekonomii, pogody
czy biologii. Autor Minds, Braina, and Programs dostrzega naturalnie
zalety architektury równoległej; sieci konekcyjne pozwalają dokładniej
niż komputer szeregowy modelować procesy mózgu. Systemy te są
jednak znacznym uproszczeniem tychże modeli w stosunku do
rzeczywistych sieci neuronowych. "Choć badacze opracowali potężne
algorytmy o wielkim znaczeniu praktycznym, w dalszym ciągu nie
35
wiemy, jakie reprezentacje są rzeczywiście stosowane przez mózg" .
Złagodzony program sztucznej inteligencji akceptowany przez
Searle'a wydaje się więc być przydatnym modelem ludzkiego umysłu.
Ale nawet ów wyważony pogląd d!a niektórych uczonych nie jest
wcale tak bardzo oczywisty.
86
MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU
3.2 Rozróżnienia Penrose'a
Postawmy pytanie - o ile dany model, zgodny z mocnym (SAI)
bądź złagodzonym (WAI) programem sztucznej inteligencji, jest
przybliżeniem umysłu? Jednym z autorów krytycznie ustosunkowanych do entuzjazmu Searle'a wobec WAI jako modelu intelektu
jest Roger Penrose. Podchodzi on bardzo ostrożnie do komputerowych
modeli umysłu. W swojej najnowszej książce dokonuje rozróżnienia
na cztery punkty widzenia odnośnie do umysłu: A - mocny, B złagodzony program sztucznej inteligencji, C - według którego
fizyczne działanie wywołujące świadomość nie może być nawet
właściwie symulowane komputacyjnie, D - gdzie nie jest możliwe
wyjaśnianie świadomości w terminach fizycznych, komputacyjnych
ani jakichkolwiek naukowych36.
Penrose jest przekonany, że najbliższe prawdy jest stanowisko C;
zewnętrzne efekty świadomości nie mogą być symulowane komputacyjnie. Według autora "The Emperor's New Mind" w fizyce potrzebne
jest nowe rozumienie dziedziny między poziomem klasycznym a
kwantowym; tam, poza znanymi dziś prawami fizyki, winny być
odnalezione procesy niemożliwe do zalgorytmizowania.
Przeprowadzony przez Penrose'a dowód na podstawie twierdzenia
Godła wykazuje niemożność zredukowania pojmowania matematycznego do mechanizmów komputacyjnych. W ludzkim rozumowaniu
jest coś, czego nie da się symulować przy pomocy algorytmów.
Wspomniany dowód jest wymierzony przeciw komputacyjnemu
modelowi umysłu (SAI) ale także przeciw możliwości efektywnej
symulacji komputacyjnej zewnętrznych przejawów działalności
umysłu (WAI). Penrose w swych poglądach odnośnie do sztucznej
inteligencji idzie jeszcze dalej niż Searle.
3.3 Problem lingwistyczny oraz dwa poziomy opisu mózgu
i umysłu
Innego rodzaju analizy odnajdujemy u Dtetera Miincha. On także
poddaje krytyce uznanie złagodzonego programu sztucznej inteligencji
MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU
87
za właściwe przybliżenie modelu umysłu37. Twierdzi on, że autor
Chińskiego Pokoju nie zajmuje bezpiecznego stanowiska identyfikując
WAI z modelami sieciopodobnymi.
Mówiąc o znaczeniu programów komputerowych w badaniach nad
intelektem, warto zwrócić jeszcze uwagę na jeden problem; Miinch
nazywa go lingwistycznym38. Takie terminy jak przekonanie,potrzeba,
pragnienie, winny być odpowiednio rozumiane w zależności od tego,
do jakich bytów są używane. W interpretacji odniesionej do umysłu
wyrażenia te powinny być stosowane wyłącznie do bytów żywych.
Często jednak zdąża się stosowanie tych określeń do wyjaśniania
systemów komputerowych. Działanie maszyn o tak wielkim stopniu
skomplikowania skłania do opisywania ich zachowania przy pomocy
wyżej wymienionych terminów. Ów problem lingwistyczny wyjaśnia
emocje często towarzyszące popularnym i filozoficznym dyskusjom
nad sztuczną inteligencją.
Analizując zagadnienie modele-umysł-mózg-programy komputerowe należy też, za Manfredem Bierwischem, zwrócić uwagę na dwa
poziomy opisywania wymienionych zagadnień. Pierwszy dokonuje się
w odniesieniu do fizjologicznych, fizycznych i chemicznych stanów
i procesów. Drugi dotyczy poziomu umysłowych stanów i procesów;
mogą być one ujęte w terminach fenomenologicznych. Obydwa
poziomy są niesprowadzalne do siebie, choć wzajemnie odniesione wyższy poziom oddany jest przy pomocy terminologii poziomu
niższego39. Błędny jest pogląd uznający proces komputacyjny za
pośredniczący między umysłowym a neurofizjologicznym.
Wymienione powyżej twierdzenia Searle'a, wątpliwości Penrose'a,
rozróżnienia Bierwischa i Miincha przywodzą na myśl raz jeszcze
jeden z podstawowych problemów - o ile komputerowe modele
oddają rzeczywistość pracy umysłu i mózgu. Analizy Searle'a i
Penrose'a wydają się kolejnymi przybliżeniami odpowiedzi.
100
101
PROBt.EM SYNTAKTYCZNYCH UWARUNKOWAŃ SEMANTYKJ
PROBLEM SYNTAKTYCZNYCH UWARUNKOWAŃ" SEMANTYK]
odniesień do czegoś w świecie a system komputerowy oparty na
syntaktyce nie jest do tego zdolny.
Dlaczego zatem argument Rapaporta wygląda tak przekonywająco?
Dzieje się tak dlatego, że eksperyment ów wprowadza w błąd naszą
intuicję co do posiadania przez koreańskiego profesora ponadsyntaktycznego rozumienia tego, co robi. Rapaport za dowód przyjmuje
założenie, uznaje za słuszne zagadnienie, które winno być przedyskutowane. Akcepuje podstawy mocnego programu sztucznej inteligencji
jako prawdziwe".
Powyższe rozważania są przykładami wysiłków uczonych by
wykazać, że programy nie są czysto syntaktyczne; dążyli oni do
zbudowania przynamniej podwalin semantyki wynikającej choć w
ograniczonym stopniu z samej składni. Wszelkie te zabiegi wymierzone są mniej czy bardziej bezpośrednio przeciw Chińskiemu
Pokojowi, Margaret Boden napisała wprost: "[•••] atak Searle'a na
psychologię komputacyjną ma złe podstawy. Co do poglądu <człowiek-w-pokoju> jako zastąpienie programu komputerowego nie
można stwierdzić, że wcale nie zachodzi rozumienie. [...] Nie jest tak,
że komputacyjna psychologia jest zupełnie niezdolna do wyjaśniania
23
powiązań między znaczeniem a procesami umysłowymi" .
Analizy Johna Searle'a natomiast podkreślają granicę między
semantyką i syntaktyką, nie przesuwają jej ani nie zamazują.
syntaktyki. fizyki, semantyki, metod komputacyjnych. kognitywizmu
i tzw. błędu homunculusa, siły przyczynowej mózgu oraz przetwarzania przez mego informacji.
Przypomnijmy w skrócie podstawowe idee Searle'a wynikające z
jego aksjomatów i wniosków". Programy komputerowe są syntaktyczne; sama składnia nie wystarcza do osiągnięcia warstwy znaczeniowej
ani nie kształtuje semantyki. Mózg jest przyczyną intelektu, wytwarza
zjawiska umysłowe, które nie polegają jedynie na wykonywaniu
programów komputerowych. Umysł człowieka zawiera składnik
semantyczny. Same programy nie kształtują myślenia i nie wystarczają do jego osiągnięcia. Sita przyczynowa danego systemu
musiałaby być równoważna mózgowi, by system ten mógł spowodować intelekt. Jej urzeczywistnienie nie może się odbywać jedynie
przez wykonywanie formalnego programu.
Nowe analizy Searle'a sprowadzić można do czterech zagadnień,
które będą omówione poniżej - syntaktyką nie jest częścią fizyki,
błąd homunculusa jest właściwy dla kognitywizmu, syntaktyką nie ma
siły przyczynowej, praca mózgu nie polega na przetwarzaniu
informacji.
2. Nowe analizy i wnioski Searle*a z argumentu
Chińskiego Pokoju
Po artykułach na temat Chińskiego Pokoju opublikowanych w
latach 1980-1991 wydawać by się mogło, że Searle nie ma już nic
nowego do powiedzenia w kwestii wzajemnego odniesienia semantyki
i syntaktyki oraz braku rozumienia języka naturalnego przez komputer. Tak jednak nie jest. Autor Minds, Brains, and Programs powrócił
do tych problemów w 1992 roku poświęcając znaczną część swojej
książki14 i wyciągając nowe wnioski, których jak sam zaznacza nie
dostrzegł poprzednio. Analizowane zagadnienia koncentrują się wokół
2,1 Pozafizykalny charakter syntaktyki
Pierwsza część problemów analizowanych przez autora artykułu
Minds, Brains and Programs dotyczy możliwości realizowania danego
programu na różnych urządzeniach; dlaczego jest to możliwe i jakie
są tego konsekwencje. Inny probiem to odniesienie składni do fizyki,
Obrońcy teorii procesów obliczeniowych w mózgu traktują
komputery na równi z innymi urządzeniami. Gaźnik silnika benzynowego czy Diesla może być wykonany z różnych materiałów, podobnie
i maszyny Turinga - istnieje wiele materiałów, z których można je
zbudować. Jest to typowo funkcjonalistyczne podejście - to samo
działanie dopuszcza wiele realizacji. Zwolennicy idei komputacyjnych
wydają się nie dostrzegać następstw takich poglądów oraz zasadniczej
różnicy: termostaty, gaźniki etc. są przeznaczone do wytwarzania
określonych fizycznych elektów; natomiast działanie komputerów jest
102
PROBLEM SYNTAKTYCZNYCH UWARUNKOWAŃ SEMANTYKI
określane programem syntaktycznym w terminach wyrażonych przez
zera i jedynki.
Zadajmy sobie wobec tego pytanie o konsekwencje wielu
możliwości realizowania tego samego programu na różnych fizycznie
urządzeniach. Wbrew pozorom nie jest to dowodem na abstrakcyjność
tychże procesów a jedynie potwierdzeniem tego, że działania
komputacyjne nie sg wewnętrzne, nie stanowią części systemu. Co
więcej - składnia nie jest częścią fizyki i opis syntaktyczny jest
zawsze zależny od obserwatora. Wyrażenia takie jak masa, przyciąganie grawitacyjne itp. określają cechy wewnętrzne świata; nawet jeśli
wszyscy obserwatorzy przestaliby istnieć - świat nadal posiadałby
grawitację czy masę- Nie jest jednak tak samo w wypadku wyrażeń
typu jest piękny dzień. Tego rodzaju określenia nie reprezentują
wewnętrznych cech otoczenia i dotyczą ocen zależnych od poszczególnych ludzi. Należy więc rozróżniać między wewnętrznymi cechami
świata i zależnymi od obserwatora. Składnia ma charakter pozafizykałny, syntaktyka jest zależna od człowieka.
Drugi problem dotyczy procesów obliczeniowych. Zgodnie z ich
naturą opis syntaktyczny można zastosować do dowolnego obiektu;
przy pomocy metody zerojedynkowej można opisać dowolny obiekt
i wtedy wszystko winno być komputerem cyfrowym26, również móz.g.
Jeśli przyjmiemy taką opinię należałoby konsekwentnie mówić o
sercu, żołądku czy Układzie Słonecznym jako maszynie Turinga. Czy
jest jednak jakiś fakt potwierdzający zdanie mózg jest komputerem
cyfrowym? Zwykle zwolennicy metod obliczeniowych powołują się
na zdanie wszystko jest komputerem cyfrowym, brak jednak pozytywnego argumentu przemawiającego za tym twierdzeniem. Takie pojęcia
jak komputacja, syntaktyka, algorytm, program nie oznaczają
wewnętrznych cech fizycznych systemu, nie są one częścią fizyki, nie
są odkryte w jej obrębie, są jej tylko przypisane. Searle pisze: "Jest
to inny argument z Chińskiego Pokoju. Powinienem go dostrzec 10
lat temu, ale nie dostrzegłem. [Eksperyment myślowy] pokazał, że
11
semantyka nie jest wbudowana do syntaktyki. Obecnie wyciągał
oddzielny i inny wniosek - syntaktyka nie jest wbudowana do fizyk'[Poprzednio] założyłem, że syntaktyczne scharakteryzowani
PROBLEM SYNTAKTYCZNYCH UWARUNKOWAŃ SEMANTYKI
103
komputera nie rodzi żadnych problemów. Ale to byt błąd. Nie ma
możliwości, by odkryć, że coś jest wewnętrzne dla cyfrowego
komputera, gdyż scharakteryzowanie go jako komputera cyfrowego
jest zawsze zależne od obserwatora, który ustala syntaktyczną
interpretację w odniesieniu do czysto fizycznych cech systemu"27.
2.2 Kognitywizm i błąd homunculusa
Jeśli dany program może być realizowany na wielu urządzeniach
i procesy komputacyjne zdefiniujemy syntaktycznie a składnia nie jest
częścią fizyki, to nic nie jest właściwe, wewnętrzne w odniesieniu do
komputera cyfrowego. Uczeni z kręgu nauki poznawczej (Cognitive
Science, skrót: CS) starają się ominąć ów problem28. Rozpatrują oni
mózg tak, jakby w nim był ktoś, kto używa mózgu do procesów
komputacyjnych. Autor "The Rediscovery ofthe Mind" przyznaje, że
analiza tego zagadnienia trwała od 1982 do 1992 roku. Doszedł w
końcu do wniosku, że rozwiązanie problemu proponowane przez
zwolenników kognitywizmu jest pozorne; większość prac z zakresu
komputacyjnej teorii umysłu zawiera idee nazwane przez Searle'a
2
błędem homunculusa '*; by go wyjaśnić, analizuje sposób, jakim
posługuje się komputer wykonując działanie 6x8. Występuje tu szereg
poziomów - od mnożenia do stosowania jedynie zer i jedynek:
- zastąpienie mnożenia sześciokrotnym dodawaniem ósemek,
- zamiana systemu dziesiętnego na binarny,
- zastosowanie prostego algorytmu w celu osiągnięcia najniższego
poziomu, gdzie instrukcjami są wyrażenia typu: drukuj zero, usuń
jedynkę itp.
Na każdym z tych poziomów jest umieszczony coraz mniej
inteligentny homuncutus. Pierwszy nie wie, na czym polega mnożenie
ale zna dodawanie, drugi - zamiast dodawania czy mnożenia zamienia
cyfry na binarne, trzeci nie ma pojęcia o mnożeniu i dodawaniu ale
potrafi działać na binarnych symbolach, ostatni mówi jedynie: zero
jeden, zero jeden. Searle konkluduje: "Wszystkie wyższe poziomy są
zredukowane do dolnego. Tylko ów dolny poziom naprawdę istnieje;
wyższe [..,] istnieją tylko na zasadzie jeśli-to. [...] Bez homunculusa
104
105
PROBLEM SYNTAKTYCZNYCH UWARUNKOWAŃ SEMANTYKI
PROBLEM SYNTAKTYCZNYCH UWARUNKOWAŃ SEMANTYK]
stojącego na zewnątrz zstępującej dekompozycji nigdy nie będziemy
mieć działającej syntaktyki"30.
Nie jest możliwe usunięcie z systemu homunculusa interpretującego poszczególne poziomy. Jeśli składnia miałaby być wewnętrzną
częścią fizyki, to jedyną drogą jest umieszczenie w systemie właśnie
homunculusa. Nawet jeśli rozpatrywać mniej abstrakcyjny poziom jedynie w odniesieniu do zwykłego komputera, to i tu nie można
wyeliminować tego problemu; homunculusem jest każdy użytkownik
maszyny z uruchomionym na niej programem.
Różni autorzy31 pisząc o systemie jako silniku syntaktycznym
kierującym semantyczną maszyną popełniają ciągle w różnych
odmianach ów błąd homunculusa, który jest właściwy dla kognitywizmu. Ciągle bowiem pozostaje pytanie - co powoduje na najniższym bądź innym poziomie, że operacje są wyrażane przez zera i
jedynki, jakie okoliczności czynią system syntaktycznym? Nie można
rozwiązać tych problemów bez dodania homunculusa do układu.
komputacyjnych i niemożności wskazania na przyczyny - w ten
sposób chce on wykazać poprawność swojej tezy.
W nauce określane są mechanizmy, te z kolei są wyjaśniane
przyczynowo. Metoda ta stosowana jest zwłaszcza w naukach
przyrodniczych32. Taki sam rodzaj wyjaśniania obiecuje kognitywizm.
Zgodnie z jego ideami procesy mózgowe produkujące poznanie
wydają się być komputacyjnymi, dlatego poprzez sprecyzowanie
programów można określić przyczyny poznania. Jest rzeczą bardzo
zaskakującą, że wyjaśniając poznanie zwolennicy tego podejścia nie
widzą potrzeby znajomości szczegółów na temat funkcjonowania
mózgu. Podstawowa teza kognitywistów brzmi: mnóstwo symboli jest
manipulowanych w mózgu, jedynki i zera przebiegają tam z wielką
szybkością; są one niewidzialne nie tylko dla oka ludzkiego ale także
dla mikroskopu elektronowego i te właśnie procesy są przyczyną
poznania. Ale tu Searle wykazuje następującą trudność: zera i jedynki
istnieją tylko z punku widzenia obserwatora. Uruchomiony program
nie ma innej siły przyczynowej niż siła, jaką posiada implementujące
go medium, ponieważ program poza komputerem nie ma rzeczywistego istnienia, własnej ontologii. Można więc powiedzieć, stosując
terminologię fizyczną, że nie istnieje oddzielny poziom programu^.
Maszyna literalnie nie postępuje według żadnych zasad. Ona jest
tylko w ten sposób zaprojektowana, by zachowywała się tak, jak
gdyby postępowała zgodnie z określonymi procedurami. Kognitywizm
mówi, że mózg funkcjonuje jak komputer i w ten sposób jest
przyczynowane poznanie. Ale w tym wypadku bez zewnętrznego
obserwatora (homunculusa) zarówno komputer jak i mózg posiadałyby jedynie wzorce. Nie posiadają one siły przyczynowej poza tą, którą
mają media implementujące program. Tak więc pogląd, według
którego mózg działa jak komputer nie ma racji bytu i nie podaje też
przyczynowego wyjaśnienia poznania.
Zwolennicy kognitywizmu bronią się podając przykład komputera
wykonującego dany program. Naciśnięcie klawisza daje wtedy
określony rezultat, wygląda więc na to, że syntaktyczny program ma
siłę przyczynową. Proponują też program badawczy polegający na
takim zaprogramowaniu komputera, by symulował on pewną
2.3 Składnia a związki przyczynowe
Pomysłodawca Chińskiego Pokoju w książce z 1992 roku
nawiązuje do problemów syntaktyki oraz siły przyczynowej. Zagadnienia te poruszył wcześniej w eksperymencie myślowym w drugim
i trzecim wniosku. Searle stawia tam warunki zaistnienia umysłu w
artefaktach w odniesieniu do siły przyczynowej:
- musiałaby być ona przynajmniej równoważna mózgowi,
- jej urzeczywistnienie nie mogłoby nastąpić jedynie przez
wykonanie formalnego programu.
Searle jest zdania, że składnia nie ma i nie może mieć żadnej siły
przyczynowej umożliwiającej generowanie sensu pojętego semantycznie. Zwolennicy kognitywizmu replikują natychmiast - samolot może
lecieć przy pomocy automatycznego pilota czyli komputera wyposażonego w program formalny; twierdzenie Searle'a, według kognitywistów, nie jest więc zgodne z prawdą. Analizy autora The Rediscovery of the Mind zmierzają ku określeniu mechanizmów procesów
106
PROBLEM SYNTAKTYCZNYCH UWARUNKOWAŃ SEMANTYKI
PROBLEM SYNTAKTYCZNYCH UWARUNKOWAŃ SEMANTYKI
umiejętność kognitywną np. posługiwanie się językiem naturalnym.
Udana symulacja byłaby wykazaniem tego, że mózgowy komputer
stosuje ten sam program. Byłoby to jednocześnie przyczynowe
wyjaśnienie jego zachowania w oparciu o formalny algorytm: w
komputerze przetwarzanie danych z wejścia na wyjście dokonywane
jest przez program, w mózgu odnajdujemy ten sam program, mamy
wiec przyczynowe wyjaśnienie.
wane jest z zewnątrz. Sama składnia nie ma jednak siły przyczynowej.
Nawet gdybyśmy odkryli w mózgu wzorce jego działania
(programy), to nadal nie wyjaśniłoby to, co chcemy wyjaśnić oraz w
jaki sposób miałaby być dokonana komputacyjna interpretacja
procesów mózgowych. Co czynimy i możemy czynić w odniesieniu
do mózgu człowieka to poznawać konkretne biologiczne fenomeny i
powodujące je fizyczne procesy.
John Searle wysuwa dwa poważne zastrzeżenia w odniesieniu do
takich poglądów. Po pierwsze z chwilą lepszego poznania neurobiologii mózgu nie można zaakceptować tego typu wyjaśniania dla
jakiejkolwiek funkcji naszego najbardziej skomplikowanego narządu.
Po drugie powyższy projekt nie może być zastosowany również do
innych niż mózg systemów, jakie mogą być symulowane komputerowo. Działanie maszyny do pisania jest naśladowane przez programy
zwane edytorami tekstu ale ów edytor nie symuluje komputera. Choć
huragan może być symulowany przez komputer Cray wyposażony w
program prognozy pogody, to przyczynowe wyjaśnienie zachowania
huraganu nie jest jednak przewidziane przez algorytm. Nie moża więc
robić tu wyjątku w odniesieniu do mózgu, nie ma do tego podstaw.
Wiadomo, jak zachowa się maszyna zaprogramowana przez
człowieka, z wcześniejszych stanów można przewidzieć późniejsze.
Wyjaśnienia odnośnie do zaprogramowanego systemu mają odniesienie intencjonalności programisty czy użytkownika. Nie jest jednak
możliwe wyjaśnianie działania maszyny do pisania czy huraganu bądź
mózgu przez wskazanie na wzorce formalne, ich istnienie nie
wyjaśnia jak system pracuje aktualnie jako system fizyczny.
Powróćmy do przykładu samolotu pilotowanego przez komputer.
Czy w takim i analogicznych przypadkach syntaktycznemu programowi można odmówić siły przyczynowej? W pewnych układach
fizycznych istnieją wzorce, które możemy rozszyfrować i stosować w
systemach z danymi na wejściu i wyjściu. Ale interpretacja wzorców
nie jest częścią systemu, tej dokonać może jedynie człowiek;
wyjaśnianie odnosi się do poszczególnych części programu, dokony-
107
2.4 Krytyka kognitywistycznej koncepcji przetwarzania
informacji
Podstawowe zastrzeżenie dotyczy opracowywania danych w
modelach komputerowych oraz pracy mózgu. Przypisywanie mu
przetwarzania informacji nazywa Searle najgorszym błędem nauki
poznawczej i kluczowym zagadnieniem dla trzech poprzednich34.
Autor "The Rediscovery of ihe Mind" wskazuje nieuzasadnione
założenia kognitywistów i podkreśla zasadnicze różnice w działaniu
mózgu w odniesieniu do programów symulujących, a nie duplikujących nasz intelekt.
Searle twierdzi wyraźnie: mózg nie przetwarza informacji;
kognitywiści trwają przy swoim stanowisku i starają się wytknąć
błędy w jego rozumowaniu. Ich paradygmat naukowy jest odmienny;
mózg różni się od innych systemów, których modele są jedynie
symulowaniem. W modelowaniu najbardziej skomplikowanego
narządu człowieka zachodzi duplikowanie a nie tylko funkcjonalne
odwzorowanie jego własności. Powód - ludzki mózg właśnie
przetwarza informacje. On przepracowuje dane i zdaniem kognitywistów to samo czyni maszyna z odpowiednim programem. Systemy
prognozujące pogodę są tylko symulacją ale w wypadku modeli
mózgu ma miejsce duplikacja (sicf). Utożsamiają one funkcje mózgu
z komputacyjnymi procedurami przetwarzania informacji przez
maszyny.
Analizując istotę przetwarzania informacji w komputerze i
zjawiska zachodzące w mózgu wykazać można błędność założenia
109
PROBLEM SYNTAKTYCZNYCH UWARUNKOWAŃ SEMANTYKI
PROBLEM SYNTAKTYCZNYCH UWARUNKOWAŃ SEMANTYKI
zwolenników kognitywizmu. Podkreślić tu należy rolę zależności w
stosunku do zewnętrznego obserwatora.
Dane w komputerze opracowywane są w kilku etapach. Pierwszym
jest zakodowanie informacji w formie przyswajalnej przez komputer,
człowiek przewiduje syntaktyczną realizację przetwarzania danych np.
poprzez różne poziomy napięcia. Seria stanów musi być interpretowana przez zewnętrznego obserwatora; sam system nie posiada
składni i semantyki, które byłyby jego wewnętrzną częścią. Fizyka nie
ma tutaj większego znaczenia, umożliwia jedynie zaimplementowanie
danego algorytmu. Dane na wyjściu systemu przyjmują również
fizyczną postać, np. wydruku, który ma być zinterpretowany przez
człowieka.
W przypadku mózgu swoistość neurofizjologii odgrywa kluczową
rolę - żaden z istotnych procesów neurobiologicznych nie jest zależny
od obserwatora-". Posłużmy się przykładem, by wykazać różnicę
działania programu według założeń kognitywistów a funkcjonowaniem biologicznego mózgu. Jak zadziała program na widok zbliżającego się Forda Escorta? Komputacyjny model widzenia sklasyfikuje
obiekt jako auto, określi jego cechy np. kolor, kierunek poruszania się
oraz prędkość; rezultatem działania programu będzie wypisanie
zestawu informacji na temat poruszającego się samochodu.
Jak natomiast zareaguje mózg na to samo zjawisko? Odebrane
boźdźce wywołają wrażenie wzrokowe a nie pewną liczbę słów czy
symboli wypisanych na ekranie monitora bądź papierze. Wrażenia te
są tak samo konkretne jak słyszenie czy wypicie zimnej Coca-Coli.
"Przy pomocy komputera możemy utworzyć model przetwarzający
informacje danego zdarzenia [...] jak pogody, trawienia [...], ale
zjawiska same w sobie nie są przez to systemami przetwarzającymi
informacje"36.
"Informacja" w mózgu zawsze jest odniesiona do myślenia,
widzenia, dotyku, słyszenia itp. Przetwarzanie w systemach komputerowych nie ujmuje konkretnej biologicznej rzeczywistości wewnętrznej intencjonalności, wszystko odbywa się tu na wysokim stopniu
abstrakcji. Na wejściu i wyjściu mamy do czynienia z zestawami
symboli a później dopiero są one interpretowane przez zewnętrznego
obserwatora. Tej różnicy nie można zacierać czy nie dostrzegać. Choć
zbliżający się samochód może być opisany przez komputerowy model
widzenia oraz przez patrzącego człowieka, w wypadku tego ostatniego
nie mamy do czynienia z przetwarzaniem informacji. Wrażenie
wzrokowe jest świadomym i konkretnym a nie abstrakcyjnym
zdarzeniem powstającym w mózgu człowieka; ich przyczyną są
określone procesy biologiczne i chemiczne a nie manipulowanie przez
program zestawem symboli interpretowanych ex post.
Podsumujmy krótko idee rozwijane w książce Searle'a "The
Rediscovery of the Mind" i nowe wnioski wyciągane przez niego z
eksperymentu myślowego. Procesy komputacyjne są określane
syntaktycznie, poprzez manipulowanie symbolami; ale składnia i
znaki nie są definiowane w terminach fizyki. Komputacja nie jest
więc odkryta w obrębie fizyki, ona jest jej przypisana. Syntaktyka i
symbole są zależne od obserwatora. Dane zjawiska fizyczne są
interpretowane czy programowane syntaktycznie. Nie jest możliwe
odkrycie, że mózg iub cokolwiek innego jest komputerem cyfrowym;
procesy mózgowe nie są wewnętrznie komputacyjne.
Pewne systemy fizyczne umożliwiają posługiwanie się metodą
obliczeniową, dlatego układamy programy i używamy ich. Ale w
takim wypadku człowiek jest homunculusem interpretującym fizykę
przy pomocy składni i warstwy znaczeniowej. Przez założenie, że
mózg przetwarza informacje nie można uniknąć powyższych
rezultatów. Jest on biologicznym organem w którym procesy
neurobiologiczne przyczynują specyficzne formy intencjonalności,
mózg nie jest czymś, co jedynie przetwarza informacje.
Semantyka proceduralna, koncepcja semantycznych wyrazów
pierwotnych, wewnętrzna sieć semantyczna, konekcyjny modei
rozumienia oraz eksperyment myślowy Rapaporta to przykłady
wysiłków uczonych zmierzających do przypisania rozumienia
systemom komputerowym. Problem pojmowania języka naturalnego
przez człowieka oraz przez maszynę jest źródłem szeregu pytań na
temat odniesienia syntaktyki i semantyki. W tym wypadku analizy
dotyczyły prób tworzenia choćby najbardziej prymitywnej warstwy
znaczeniowej na podstawie samej składni.
108
110
PROBLEM SYNTAKTYCZNYCH UWARUNKOWAŃ SEMANTYKI
PROBLEM SYNTAKTYCZNYCH UWARUNKOWAŃ SEMANTYKI
Niektórzy z badaczy, jak na przykład J. Fodor, sami zrezygnowali
z algorytmizowania rozumienia maszynowego. Koreański Pokój
Rapaporta jest ilustracją przyjmowania założeń za dowód wykazujący
ponadsyntaktyczne pojmowanie tekstów. Ogólne wyniki badań
zwolenników mocnego programu sztucznej inteligencji są nader
skromne i nie upoważniają do przyjęcia koncepcji związanych z
konstruowaniem rozumienia komputerowego. Opis syntaktyczny jest
zależny od obserwatora, który interpretuje symbole a sama składnia
ma charakter pozafizykalny, podobnie jak i działania komputacyjne
czy algorytmy.
PRZYPISY
1. N. Chomsky, Syntactk Structures, The Hague, Mouton 1957.
2. Praktycznym zastosowaniem rekursji w ówczesnych czasach były dwa
programy rozwiązujące problemy: LM-Logic Theorist oraz GPS-General
Problem Solver,
3. Por. W. Rapaport, Logical Foundations for Belief Representation,
Cognitive Science 10 (1986), 371-422; Tenże, Syntactk Semantics:
Foundations of Computational Naturai-Language Understanding, w:
Aspects of Artificial Intelligence, ed. J. H. Fetzer, Kluwer Academic
Publishers, Dordrecht 1988, 105-111.
4. Tamże, 105.
5. Widać tu wyraźne nawiązanie Rapaporta do przykładu map kolejowych
Carnapa, w których zostały usunięte nazwy stacji ale pozostały określenia poszczególnych trakcji.
6. Za komputacyjnym modelem opowiada się również np. Zenon Pylyshyn,
Por.jego pracę, Computation and Cognition, Toward a Foudation for
Cognitive Science, MIT Press, Cambridge 1984, 49-86.
7. Por, jego książkę na ten temat, Understanding Natural Language,
Academic Press, New York 1972.
8. Y. A. Wilks, Grammar. Meaning and the Machinę Analisis of Natural
Language,
Routledge
&
Kcgan
Paul,
London
1972;
T e n ż e ,
A
111
Preferential, Pattern-seeking, Semantics for Natural Inference, Artificial
Intelligence, 6(1975), 53-74.
9. R. M Kempston, Semantic Theory, Cambridge University Press,
Cambridge 1977. Co do za i przeciw w odniesieniu do modelu opartego
na semantycznych wyrazach pierwotnych patrz również: Y. A. Wilks,
Good and Bad Arguments for Semantic Primitives, Communication and
Cognition, 10 (1978), 181-221.
10. Por. J. J. Katz, J. A. Fodor, The Structure of Semantic Theory, Language
39 (1963), 170-210.
U. A. Newell, H. A, Simon, Human Problem SoMng, Prentice-Hall,
Engelwood Cliffs 1972.
12. J. Haugeland, Artificial Intelligence. The Very Idea, MIT Press,
Cambridge 1985, 112-117.
13. D. R. Hofstadter, Waking upfrom the Boolean Dream, or, Subcognithn
as Computation, w: Metamagical Themas: Questing for the Essence of
Mind and Pattern, ed. D.R, Hofsadter, Viking, New York 1985, 648.
14. Por. np. A. Sloman, Reference Without Causal Links, w: Sevenłh
European Conference on Artificial Intelligence, ed. B. du Doulay, L. J.
Steels, North Holland, Amsterdam 1986, 369-381.
15. W Rapaport, Syntactic Semantics: Foundations of Computational
Naturai-Language Understanding, w: Aspects of Artificial Intelligence,
ed. James H. Fetzer, Kluwer Academic Publishers, Dordrecht 1988, 81131.
16. Por. J. H. Fetzer, Artificial Intelligence - hs Scope and Limits, Kluwer
Academic Publishers, Dordrecht 1990, 7.
17. Por. W. Rapaport, Syntactic Semantics: Foundations of Computational
Naturai-Language Understanding, w: Aspects of artificial intelligence,
ed. James H. Fetzer, Kluwer Academic Publishers, Dordrecht 1988, 117118.
18. Tamże.
19. Zwięzłym przedstawieniem analiz jest tabela nr 4.
20, Por. N. Jahren, Can Semanńcs be Syntactic?, w: Epistemology and
Cognition, ed. J. H. Fetzer, Kluwer Academic Publishers, Dordrecht
1991, 170-171.
21. J. H. Fetzer, Artificial Intelligence ~ Its Scope and Limits, Kluwer
Academic Pubiishers, Dordrecht 1990, 7-8.
Download