Rozdział I EWOLUCJA ARGUMENTU SEARLE'A Historia nauki pełni funkcję pomocniczą względem filozofii, może nawet stanowić swego rodzaju przestrzeń testowania mechanizmów rozwoju danej dziedziny poznania1. Dzieje eksperymentu myślowego Johna Searle'a stanowią natomiast interesujący przyczynek do badań nad sztuczną inteligencją i do filozofii sztucznej inteligencji; ukazują one też stopniową zmianę nastawienia do argumentu - od wręcz wrogiego do coraz bardziej przychylnego, doceniającego jego wagę. Chiński Pokój ma szerokie zastosowanie w badaniach nad sztuczną inteligencją - od prostych programów komputerowych po skomplikowane sieci neuropodobne, w filozofii zaś - w teorii umysłu oraz w kwestii wzajemnego odniesienia semantyki i syntaktyki. Pierwszy rozdział ma za zadanie przedstawienie historii argumentu i wprowadzenie w zagadnienia filozoficzne z nim związane. Pytanie dotyczące myślenia maszyn było wielokrotnie stawiane w ciągu ostatnich kilku dziesięcioleci, zmieniało się jego zabarwienie filozoficzne - na początku więc sprecyzujemy obecną postać problemu. Sięgniemy następnie do programu Schanka i filozoficznych poglądów na temat rozumienia przez programy komputerowe a także do koncepcji związanych z modelowaniem ludzkiego umysłu Chiński Pokój był sprzeciwem wobec tzw. mocnego programu sztucznej inteligencji. Przeanalizujemy też ewoluowanie postaci EWOLUCJA ARGUMENTU SEARLE'A samego eksperymentu myślowego - od wersji pierwotnej z 1980 do najnowszej z 1990 roku. Ostatnia cześć niniejszego rozdziału dotyczyć będzie dwóch wariantów argumentu Searle'a; są one interesującym materiałem w dyskusji nad rolą tzw. przetwarzania równoległego oraz nad stosunkiem syntaktyki do semantyki. 1. Ewolucja czasowa pytania o myślenie komputerów Pytanie Alana M. Turinga "Czy maszyny mogą myśleć" przybierało w ciągu dziesięcioleci coraz to nową postać w analizach badaczy sztucznej inteligencji oraz filozofów. Kolejnymi wersjami powyższej kwestii postawionej w 1950 roku były zagadnienia: "Czy maszyna może uzyskać zdolność myślenia przy pomocy programu uruchomionego na niej?" oraz "Czy program komputerowy może mieć przypisaną zdolność myślenia?" Zauważmy, że w kolejnych pytaniach punkt ciężkości został przeniesiony z fizycznych własności maszyn istniejących bądź mogących zaistnieć na obliczeniowe, abstrakcyjne możliwości formalnych programów komputerowych. Kolejną postacią wyżej wymienionych zagadanien jest porównanie "Umysł ludzki jest dla mózgu tym, czym program dla komputera". Nasuwają się też inne kwestie - "Czy umysł ludzki jest programem komputerowym?" oraz "Czy można powiedzieć, że program komputerowy rozumie?" i wreszcie "Czy komputer może mieć umysł?" Zwolennicy tzw. mocnego programu sztucznej inteligencji uznają możliwość przypisania programowi komputerowemu zdolności myślenia. Zgodnie z tym stanowiskiem komputer to nie tylko narzędzie w studiowaniu umysłu; poprawnie zaprogramowany komputer o prawidłowych informacjach wejściowych i wyjściowych jest umysłem - rozumie i ma stany umysłowe2. Programy natomiast nie są zwykłymi narzędziami umożliwiającymi testowanie psychologicznych wyjaśnień - one są same przez się wyjaśnieniem (explanation) sposobu działania umysłu. Tego typu opinie spowodowały sprzeciw m.in. Johna Searle'a. Słynny eksperyment myślowy zwany przez niego "Chińskim 21 Pokojem" wykazuje błędność twierdzenia o posiadaniu przez komputer stanów umysłowych i możliwości wyjaśnienia funkcji ludzkiego umysłu przy pomocy programów komputerowych. Searle opublikował w 1980 roku artykuł zawierający ów argument na łamach amerykańskiego pisma "The Behavioral and Brain Sciences ", którego zwyczajem jest umieszczanie głównego artykułu wraz z replikami innych naukowców oraz odpowiedzią autora na nie. 1.1 Program Schanka Jako przykład programu realizującego założenia mocnego programu sztucznej inteligencji Searle przytacza pracę Rogera Schanka i jego kolegów z Yale3, ale zastrzega się jednocześnie, że argument Chińskiego Pokoju odnosi się do jakiejkolwiek symulacji ludzkiego umysłu dokonywanej przez dowolną maszynę Turinga przy pomocy formalnego programu komputerowego. Celem programu Schanka jest naśladowanie rozumienia opowiadań; program odpowiada na pytania dotyczące informacji nie zawartych wprost w określonym zdarzeniu - w tym wypadku dotyczą one zamawiania hamburgera w restauracji. Komputer dysponuje pewnym zakresem wiadomości na temat restauracji oraz opisem sytuacji: klient po otrzymaniu przypalonego hamburgera nie zapłacił za niego, nie dał napiwku i zdenerwowany wybiegł z restauracji. Jeśli postawimy komputerowi pytanie, czy klient zjadł hamburgera otrzymamy odpowiedź negatywną. Jeśli do komputera zostanie wprowadzony inny opis sytuacji, kiedy to hamburger był smacznie przyrządzony i klient zapłacił oraz dał napiwek kelnerce - na pytanie dotyczące zjedzenia hamburgera komputer odpowie pozytywnie. Takich samych odpowiedzi należałoby się spodziewać od człowieka. Czy to oznacza, że program Schanka ma wbudowaną zdolność myślenia? Czy w ogóle można przypisać tę zdolność do jakiegokolwiek programu komputerowego? Jakie treści filozoficzne związane są z symulowaniem ludzkiego myślenia? W przypadkach podobnych do opisanych powyżej zwolennicy mocnego programu sztucznej inteligencji są zdania, że komputer 22 23 EWOLUCJA ARGUMENTU SEARLE'A EWOLUCJA ARGUMENTU SEARLE'A rozumie opowiadanie oraz że działanie komputera wyposażonego w odpowiedni program wyjaśnia zasady działania ludzkiego umysłu. Artykuł Searle'a z 1980 roku wykazuje bezzasadność tych twierdzeń. O niemożności zrozumienia czegokolwiek przez zaprogramowany komputer decyduje według autora Minds, Brains, and Programs intencjonatność, którą rozumie on jako własność stanów umysłowych, przez którą są one ukierunkowane ku lub wokół tego co dzieje się w świecie7. Intencjonalność jest produktem przyczynowych własności mózgu i elementem odróżniającym ludzkie myślenie od działania programu komputerowego. Searle zakłada, że jest to fakt empiryczny biorąc pod uwagę relacje przyczynowe między mózgiem a procesami umysłowymi. W odniesieniu natomiast do relacji komputer - program komputerowy intencjonalność nie występuje8. 1.2 Searle'a rozumienie rozumienia Zanim przejdziemy do opisu argumentu warto przyjrzeć się samemu pojęciu rozumienia - co to znaczy że "a rozumie b"? Searle rezygnuje w tym wypadku ze złożonych analiz językowych i na konkretnym przykładzie wyjaśnia jego literalne pojmowanie rozumienia: "Rozumiem opowiadania po angielsku, w mniejszym stopniu mogę zrozumieć po francusku, w jeszcze mniejszym po niemiecku a w ogóle [nie rozumiem] po chińsku. Mój samochód, mój kalkulator nie rozumieją niczego - to nie jest ich zakres działania. Często przez analogię lub metaforycznie przypisujemy "rozumienie" i inne kognitywne predykaty samochodom, kalkulatorom i innym artefaktom, ale nic nie zostaje udowodnione poprzez podobne atrybuty"4. Takie pojmowanie rozumienia wystarcza Searle'owi do analiz związanych z argumentem Chińskiego Pokoju. Analogiczne czy metaforyczne przypisywanie rozumienia artefaktom ma miejsce w stosunku do różnych maszyn. Mówimy np. o "odczuwaniu" przez termostat zmian temperatury, "umiejętnościach" kalkulatora odnośnie do potęgowania czy też "wiedzy" odtwarzacza płyt kompaktowych co do kolejności utworów w przypadku uruchomienia funkcji shuffle. Wykonane przez człowieka narzędzia są związane z celem jego działania, dlatego naturalne jest przypisywanie im atrybutów przysługujących ludzkim czynnościom. Musimy jednak pamiętać, że dzieje się tak jedynie na zasadzie analogii, metafory. Mimo tego zastrzeżenia, wielu uczonych zajmujących się badaniami nad sztuczną inteligencją przypisuje tego samego rodzaju poznanie komputerom i 5 ludziom . Searle natomiast wykazuje, że "w sensie dosłownym zaprogramowany komputer rozumie tyle, co samochód lub maszyna licząca a mianowicie dokładnie nic. Rozumienie komputera nie jest ani częściowe ani niekompletne (jak moje rozumienie niemieckiego) 6 - jest żadne" . 2. Chiński Pokój - opis i historia argumentu Głównym celem artykułu "Minds, Brains, and Programs" jest wykazanie niewystarczalności programu komputerowego do wytworzenia intencjonalności oraz analiza konsekwencji tego twierdzenia. By go uzasadnić, Searle przyjął w swym dowodzie metodę zastąpienia konkretnego programu komputerowego przez człowieka i postawi! sobie pytanie: co by się stało, gdyby umysł człowieka zaczął pracować na podobnej zasadzie jak program Schanka tj. odpowiadałby na pytania? Co można byłoby wtedy powiedzieć o intencjonatności? 2.1 Pierwotna wersja argumentu (1980, 1982) Wyobraźmy sobie człowieka zamkniętego w pokoju, który nie zna w ogóle chińskiego, ani w mowie ani w piśmie, i nie potrafi go odróżnić od japońskiego czy od symboli podobnych do obu języków. Człowiek ów ma do dyspozycji mnóstwo chińskich znaków nazwijmy go zestawem nr 1; następnie zostają mu przekazane teksty chińskie (zestaw nr 2) wraz z zasadami po angielsku - określmy je roboczo jako plik A9. Instrukcje te pozwalają na wzajemne powiązanie ze sobą zestawu nr \ i nr 2 - jedynie na podstawie kształtu znaków. Następnie człowiekowi jest dostarczony zbiór tekstów chińskich nr 3 również z angielskimi instrukcjami (plik B); informują 24 EWOLUCJA ARGUMENTU SEARLE P A EWOLUCJA ARGUMENTU SEARLE A one, w jaki sposób skorelować zestaw nr 3 z zestawami nr 1 i 2, by umożliwić utworzenie pliku znaków chińskich nr 4. Zamknięty w pokoju człowiek nie wie, że ludzie z zewnątrz przypisali danym zestawom określone nazwy: tekst (a script), opowiadanie (a story), pytania oraz odpowiedzi na pytania; zasady w języku angielskim określone są jako program. Zakładamy, że instrukcje są bardzo jasne, innymi słowy - program jest napisany tak doskonale, że rodzony Chińczyk nie miałby wątpliwości, iż odpowiedzi daje ktoś, kto od urodzenia mówi po chińsku. Przeprowadźmy obecnie ów eksperyment myślowy z tym samym człowiekiem ale w odniesieniu do ojczystego języka, jakim jest dla niego angielski; pytania i odpowiedzi również są dawane w tym języku. Dla kogoś z zewnątrz, kto od urodzenia mówi po angielsku, odpowiedzi dawane przez człowieka zamkniętego w pokoju będą doskonałe. Zachodzi jednak istotna różnica między dawaniem odpowiedzi po chińsku i po angielsku; w wypadku tego ostatniego języka miało miejsce pełne rozumienie podczas gdy odpowiedzi w chińskim były "produkowane" bez zrozumienia, na zasadzie dobierania jednych niezinterpretowanych znaków do drugich według ściśle określonych instrukcji (programu). W tym wypadku człowiek w pokoju zachowywał się jak komputer - wykonywał jedynie operacje na chińskich symbolach zastępując konkretny program. Tak wyglądała pierwotna wersja argumentu; sprowokował on aż 27 odpowiedzi uczonych z kręgu sztucznej inteligencji, filozofów oraz psychologów10. Searle w replice na wyżej wymienione artykuły wyjaśnił zagadnienia wzbudzające polemikę, sprecyzował wiele pojęć, omówił szereg problemów ale nie wprowadził żadnych zmian do Chińskiego Pokoju w 1980 roku jak i w 1982H, kiedy to siedem kolejnych komentarzy do słynnego artykułu zostało opublikowanych w tym samym czasopiśmie The Behavioral and Brain Sciences. oddziaływania techniki komputerowej; odbyło się ono w nowojorskiej Akademii Nauk (5-8 IV 1983). W panelowej dyskusji12 na temat roli sztucznej inteligencji w wyjaśnianiu ludzkiego myślenia Searle wykazuje fałszy wość mocnego programu AI odwołując się do swego argumentu myślowego, który tym razem określa mianem przypowieści o Chińskim Pokoju. Autor Minds, Brains, and Programs podkreśla niemożność przejścia od semantyki do syntaktyki - z czysto formalnych operacji na symbolach nie wynika treść umysłowa, na podstawie komputacyjnych procesów człowiek zastępujący program nigdy nie nauczyłby się chińskiego. Zwraca też uwagę, by w dyskusji na temat mocnego programu sztucznej inteligencji podchodzić do zagadnienia z punktu widzenia pierwszej a nie trzeciej osoby, zarówno bowiem świadomość jak i procesy myślowe zachodzące w człowieku dotyczą pierwszej osoby. W odniesieniu do samego eksperymentu myślowego Searle wprowadza pewne zmiany - w miejsce dwóch zbiorów chińskich symboli (nr 1 i 2) wprowadza jeden (bazę danych); zamiast o dwóch częściach zasad mówi o wszelkich książkach zawierających zasady dobierania jednych symboli chińskich do drugich. W ten sposób Searle uprościł strukturę logiczną Chińskiego Pokoju rezygnując częściowo z upodabniania algorytmu do Schankowskiego. Stopniowo Searle będzie dążył do nadania argumentowi postaci dowolnego formalnego programu. W wersji z 1983 roku, jak i zresztą później, nie ma żadnych zmian odnośnie do danych na wejściu i wyjściu - nadal są nimi pytania (obecnie zestaw nr 2), oraz odpowiedzi na pytania (zestaw nr 3). 2.2 Przypowieść o Chińskim Pokoju (1983) Searle powraca do swojego eksperymentu myślowego podczas sympozjum dotyczącego naukowego, intelektualnego i społecznego P 25 2.3 Umysł - mózg - świadomość (1984, 1986) W 1984 roku rozgłośnia BBC powierzyła Searle'owi Wykłady 13 Reitha; sześć półgodzinnych audycji dotyczyło krytyki materialistycznego punktu widzenia w odniesieniu do umysłu. W drugim wykładzie zatytułowanym "Can Computers Think?" Searle cytuje Chiński Pokój w wersji z 1983 roku - z pewnymi zmianami. O ile nadal jest mowa o trzech zbiorach symboli, o tyle zasady odnoszące 26 EWOLUCJA ARGUMENTU SEARLE'A się do manipulowania znakami zawarte są w jednej książce. Warto też podkreślić rozwój filozoficznego komentarza do eksperymentu myślowego - w Wykładach Reitha po raz pierwszy zostały sformułowane cztery logiczne tezy (thesis) dotyczące relacji między umysfem, mózgiem a komputerem. Na podstawie tych przesłanek Searle formułuje w tym samym drugim wykładzie14 również 4 wnioski. W 1986 roku, od 9 do 12 stycznia, odbywał się w Bombaju Światowy Kongres na temat syntezy nauki i religii, na który zaproszeni byli m.in. Joseph Weizenbaum z MIT oraz John Searle; ich prelekcje dotyczyły zagadnienia "Umysł, mózg, świadomość". W kontekście mocnego programu sztucznej inteligencji oraz testu Turinga Searle przytacza swój argument w wykładzie pod znamiennym tytułem: Turing the Chinese Room15. Zawiera on te same elementy co w roku 1984; jedynie w odniesieniu do książki z zasadami dobierania symboli zaznacza, że jest ona w jeżyku, który dobrze zna biorący udział w teście, ale modyfikacja ta nie ma większego znaczenia. Pewna zmiana ma natomiast miejsce co do nazwy tez z 1984 roku - nazwane są one tutaj twierdzeniami (propositions), a treść pozostaje zasadniczo ta sama. Zapewne ze względu na temat Kongresu Searle dodał jeszcze jedno twierdzenie {Umysł jest przyczyną zachowania), którego już nie powtarza w opisie w 1990 roku. Dodany też został piąty wniosek {Mózg jest przyczyną zachowania) z powodu wprowadzenia piątego twierdzenia; treść pozostałych wniosków została zachowana. 2.4 Wersja z 1990 roku Chiński Pokój został obszernie opisany przez Searie'a raz jeszcze w artykule opublikowanym w styczniu 1990 roku na Jamach "Scientific American"™; późniejsze prace17 mające odniesienie do argumentu nawiązują do wersji z 1990 roku. Trzy pliki symboli chińskich są nazwane odpowiednio: pierwszy - bazą danych, drugi (zestaw znaków dostarczany na wejściu) - pytaniami, trzeci (zestaw na wyjściu) - odpowiedziami. Programem komputerowym nazwana jest książka z zasadami dobierania symboli na podstawie kształtu, bez EWOLUCJA ARGUMENTU SEARLE'A 27 znajomości ich znaczenia; autorzy książki określeni są jako programiści, a człowiek zamknięty w pokoju jest wyobrażeniem mikroprocesora w komputerze. Cztery twierdzenia przyjmują tu nazwę aksjomatów a ich treść, podobnie jak i czterech wniosków, nie zmienia się. 3. Nowe warianty argumentu Searle'a Chiński Pokój stal się bodźcem do powstania innych eksperymentów myślowych będących wariantami eksperymentu myślowego Searle'a - Koreańskiego Pokoju oraz Chińskiej Sali Gimnastycznej. W 1988 roku William Rapaport, wykładowca informatyki na Uniwersytecie Stanu Nowy Jork w Buffalo, opublikował artykuł18 dotyczący podstaw komputacyjnego rozumienia języka naturalnego. Praca ta zawiera m.in. tzw. Koreański Pokój zasugerowany profesorowi Rapaportowi przez jego studenta Alberta Hanyoung Yuhana; argument ten był wymierzony przeciw głównej idei Chińskiego Pokoju dotyczącej rozumienia. Dwa lata później sam Searle opracował inną wersję swojego argumentu; powodem stały się nadzieje wiązane z równoległym przetwarzaniem wzorowanym na budowie układu nerwowego. Paut M. Churchland i Patricia Smith Churchland, profesorzy filozofii na Uniwersytecie Kalifornijskim w San Diego, twierdzili, że istnieją realne szansę zbudowania myślącej maszyny. By tak się stało, sztuczne systemy muszą naśladować system biologiczny mózgu. Dyskusja na łamach "Scientific American" między Churchlandami a Searlem zaowocowała w postaci m.in. "Chińskiej Sali Gimnastycznej" - wariantu eksperymentu myślowego dla programów współbieżnych. 3.1 Koreański Pokój Pomysł studenta Alberta H. Yuhana został podjęty i opracowany przez jego wykładowcę Williama Rapaporta. Otóż wyobraźmy sobie światowej sławy autorytet w dziedzinie twórczości Szekspira koreańskiego profesora literatury angielskiej na uniwersytecie w 29 EWOLUCJA ARGUMENTU SEARLE'A EWOLUCJA ARGUMENTU SEARLE'A Seulu; ów wykładowca czytał znakomite, ale tylko koreańskie tłumaczenia dzieł dramaturga i nie zna w ogóle angielskiego; jest natomiast ekspertem w swojej dziedzinie. Na temat sztuk scenicznych wspomnianego autora napisał po koreańsku szereg artykułów; zostały one przetłumaczone na angielski, opublikowane w wielu liczących się anglojęzycznych czasopismach naukowych i spotkały się ze znakomitym przyjęciem. Pytanie, zadane przez Rapaporta, brzmi: Czy koreański profesor rozumie Szekspira? Zauważmy, że inaczej niż w Chińskim Pokoju problem nie dotyczy tego, czy naukowiec rozumie angielski, bo on go nie rozumie. Ani czy mechanicznie ("bezmyślnie") postępował według algorytmu tłumaczenia, który inni przygotowali dla niego. "{...) On rozumie Szekspira - intelektualna wspólnota uczonych poświadczyła to - i on rzeczywiście coś niecoś <something> pojmuje"19. Według Rapaporta w odniesieniu do człowieka z eksperymentu myślowego można powiedzieć, że jednak coś niecoś rozumie, choć nie jest Chińczykiem. Albo inaczej - system sztucznej inteligencji rozumiejący-język-naturalny może coś niecoś rozumieć20. wspomnianych systemów wariant argumentu nazywając go Chińską Salą Gimnastyczną; występują tu analogiczne elementy, co w argumencie w oryginalnym brzmieniu z 1990 roku. Całość eksperymentu odbywa się w wielkiej sali gimnastycznej zamiast w pokoju. Cały zespół ludzi, a nie jeden człowiek, ma do dyspozycji zbiór chińskich symboli (zestaw nr 1) oraz instrukcje po angielsku z zasadami manipulowania symbolami (książki). Do sali wprowadzane są pliki chińskich znaków (pytania-zestaw nr 2), które opracowuje wielki zespół ludzi, przez co cały system wymaga pewnego dostrojenia, zgrania. Osoby w sali przekazują sobie nawzajem symbole aż do ostatecznego opracowania zestawu nr 3 (odpowiedzi). Cała hala ludzi jest więc zorganizowana jak sieć neuropodobna działająca przy zastosowaniu programów równoległych. Argument został podany z zastosowaniem terminów Chińskiego Pokoju. Ponieważ chodzi o eksperyment myślowy należy naturalnie pominąć dwa elementy związane z Chińską Salą Gimnastyczną: problem wielkości sali mogącej pomieścić wszystkich ludzi stanowiących model mózgu oraz czas, jaki byłby potrzebny do przepracowania zestawu nr 2 w nr 3. Z komputacyjnego punktu widzenia istnieje równoważność szeregowego i równoległego systemu - człowiek w Chińskim Pokoju czy ludzie w Chińskiej Sali Gimnastycznej wskutek manipulowania symbolami nic nie zrozumieją. Wielkie rozmiary sali czy większy stopień złożoności systemu nie doprowadzą do interpretacji semantycznej, nie stworzą umysłu. Chińska Sala Gimnastyczna zaprzecza mocnemu programowi sztucznej inteligencji również w odniesieniu do systemów konekcyjnych i sieci neuropodobnych; semantyka nie wynika również z równoległych obliczeń, ani z systemów wzorowanych na ludzkim mózgu. 28 3.2 Chińska Sala Gimnastyczna Według Searle'a Chiński Pokój odnosi się do każdej wersji mocnego programu sztucznej inteligencji - zarówno do systemów szeregowych jak i równoległych. Nie można naturalnie lekceważyć najnowszych osiągnięć w dziedzinie systemów konekcyjnych, ale nie można też przeceniać znaczenia wyżej wymienionych badań. Niemniej jednak prowokują one istotne pytania dotyczące sposobu działania złożonych, równoległych systemów podobnych do struktur w mózgu. Każde zadanie, jakie ma być wykonane na komputerze równoległym może być wykonane na tradycyjnym komputerze szeregowym. Współbieżne systemy nie pozwalają więc na pominięcie eksperymentu myślowego. Searle chciał jednak dowieść, że Churchlandowie nie mają racji pokładając wielkie nadzieje w systemach konekcyjnych oraz w modelach sieci neuropodobnych; przedstawił więc odnoszący się do PRZYPISY 1. Por. M. Heller, Filozofia nauki. Wprowadzenie, PAT, Kraków 1992, 12. 2. J. R. Searle, Minds, Brains, and Prógratns, 417. Rozdział IV MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU 1. Mózg a umysł W poprzednich trzech rozdziałach zarysowany został problem komputerowego modelowania mózgu. Warto usystematyzować wcześniejsze dane, by jeszcze lepiej zdać sobie sprawę-ze stopnia skomplikowania zagadnienia powstawania stanów umysłowych. Analizy te będą pomocne rozważaniom filozoficznym co do wzajemnych odniesień umysłu i mózgu oraz programów formalnych i komputerów a także mocnego i złagodzonego programu sztucznej inteligencji. 1.1 Struktura i działanie mózgu Mózg człowieka jest najbardziej złożonym tworem we Wszechświecie. Waży zaledwie 1100 do 1400 gramów, tworzy go trylion komórek; 100 miliardów spośród nich to neurony połączone w sieci1. Dwie półkule mózgowe połączone są spoidłami - wielkim i aksonalnym. Ich podstawami są móżdżek koordynujący ruchy oraz rdzeń przedłużony, który kontroluje funkcje autonomiczne łącznie z oddychaniem, krążeniem i trawieniem. W środku mózgu znajdują się 70 71 MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU struktury odpowiedzialne m. in. za pamięć długotrwałą i emocje tworzą one system limbiczny. Prawa i lewa półkula są pokryte mocno pofałdowaną korą o grubości 2 milimetrów. Dzieli się się ona na szereg warstw a jej łączna powierzchnia wynosi ok. 1,5 m2. Według kryteriów morfologicznych i funkcjonalnych można wydzielić w korze poszczególne pola: odbiorcze sensoryczne - kontrolujące aktywność motoryczną oraz pola o niewyraźnie określonych granicach, w których zachodzą procesy asocjacyjne. Na jeden milimetr kwadratowy kory przypada mniej więcej 100 tysięcy neuronów. Komórki te są bardzo zróżnicowane między sobą pod względem kształtu, budowy molekularnej, wejść i projekcji; nie jest jednak tak, że każdy neuron jest jedyny w swym rodzaju. Można wśród nich stwierdzić pewne schematy - neurony o podobnych funkcjach są zgrupowane w kolumny lub tzw. blaszki (slabs). Neurony odbierają sygnały przez rozgałęzione wypustki - dendryty a przesyłają informacje za pośrednictwem innych wypustek zwanych aksonami. Informacje przesyłane są wzdłuż aksonu jako impulsy elektryczne - tzw, potencjały czynnościowe o napięciu 100 mV. Impulsy te trwają I milisekundę i powstają dzięki dodatnio naładowanym jonom sodu. W synapsach, niezwykle precyzyjnych połączeniach między zakończeniami aksonalnymi a dendrytem, potencjały te są przekształcane w sygnały chemiczne -neurotransmitery. Odkąd w 1921 roku zidentyfikowano pierwszy przekaźnik nerwowy lista substancji odpowiedzialnych za tę funkcję wydłużała się i obecnie znamy ich blisko pięćdziesiąt. Cząsteczki przenikają przez szczelinę synaptyczną i kanałami jonowymi błony dendrytu postsynaptycznego są wiązane w neuronie; prowadzi to do powstania potencjału czynnościowego. Częstotliwość impulsów wynosi do 200 na sekundę, szybkość nie jest zbyt duża - ok. 100 m/s. czyli milion razy mniejsza niż prędkość sygnału elektrycznego w drucie miedzianym. Wynika to ze stosunkowo dużej oporności neuronów wzdłuż osi; by pokonać odległość kilku centymetrów, potencjał czynnościowy musi być często odnawiany w czasie tej drogi. Każdy neuron nieustannie integruje ok. 1000 wejść synaptycznych, by osiągnąć pewną intensywność wyładowań na wyjściu. Zarówno synapsy jak i obwody neuronalne charakteryzują się pewną zdolnością do zmian w wyniku działania; cecha ta jest określana jako plastyczność. Od niej jest uzależniona ciągłość naszego życia psychicznego, bowiem potencjały czynnościowe nie tylko przenoszą informacje, ale również powodują metaboliczne zmiany w obwodach, w których krążą. Jak więc widzimy, mózg jest niezwykle skomplikowaną strukturą złożoną z oddzielnych komórek - neuronów. Te z kolei łączą się poprzez synapsy z aksonami, przy czym wejścia te nie sumują się liniowo; dendryt stanowi wyjście każdej komórki. 1.2 Powstawanie zjawisk umysłowych Natura procesów umysłowych pozostawała nieznana do połowy XX wieku. Dziś wiemy, że są one wynikiem skomplikowanych procesów fizycznych i chemicznych; impulsy nerwowe, powodujące procesy myślowe i percepcyjne, przemieszczają się w korze mózgowej - wzdłuż, w poprzek oraz w głąb. Umysł jest wynikiem aktywności wszystkich części mózgu. Jego funkcjonowanie stanowi zjawisko, które pozostaje niezmiennie przedmiotem kontrowersji zarówno filozofów jak i badaczy sztucznej inteligencji. Świadomość jawi się jako wynik procesów neurobiologicznych; niemniej jednak dogłębne zbadanie relacji mózg-świadomość jest zadaniem na wiele lat czy nawet dziesięcioleci. Wydaje się, że "w badaniach naszych skazani jesteśmy na śledzenie krzywej asymptotycznej, zmierzającej do granicy, lecz nigdy jej nie osiągającej, ale faki ten nie zwalnia nas od konieczności nieustannego podążania do 2 celu" . Skutkiem tego pozostaną pewne elementy niekomunikowalności określane przez filozofów mianem qualia, których nie da się uchwycić przy pomocy metod nauki. Indywidualne ludzkie zachowania trudno będzie szczegółowo do końca wyjaśnić - są zbyt skomplikowane. Nie mniej jednak uczeni nie rezygnują z badań nad odniesieniem umysł-mózg. Przykładem ich wysiłku są próby odtworzenia wzorca przepływu informacji w mózgu w czasie wykonywania zadań umysłowych np. u zwierząt naczelnych. Doświadczenia takie 72 73 MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU wymagają skomplikowanych urządzeń, miesięcy spędzonych na uczeniu małpy odpowiednich czynności i myślenia oraz żmudna analiza danych. Badania prowadzone na John Hopkins University czy przez Semira Zekiego upoważniają do pewnych generalizacji. Jedną z nich jest zasada, że dana informacja jest analizowana równolegle wzdłuż wielu a nie tylko jednej drogi nerwowej3. Poszczególne strumienie informacji (ruch, kształt, barwa) są rozdzielane już w siatkówce oka i również osobno przekazywane do pierwotnej kory wzrokowej. Podobnie ma się rzecz z systemem słuchowym lokalizacja obiektu przez sowę opiera się na analizie dwóch nurtów dźwięków docierających do uszu. Jest możliwe, że analogiczny typ analizy równoległej charakteryzuje systemy pól korowych, systemów sensorycznych, asocjacyjnych czy motorycznych. Interesujące są również pomiary pobudzenia neuronów w korze mchowej związane z zamiarem wykonania machnięcia łapą przez małpę dokonane zostały przez Apostolosa P. Georgopoulosa z wyżej wymienionego Uniwersytetu; odnalazł on w korze sensorycznej zespół neuronów kodujących kierunek ruchu przedniej łapy. Zsumowanie częstotliwości wyładowań wielu komórek neuronowych daje wektor lepiej skorelowany z rzeczywistym kierunkiem ruchu niż w wypadku pojedynczego neuronu. Jeśli analiza ruchu piłki tenisowej dokonuje się równolegle, to kiedy gracz uświadamia sobie zbliżanie się piłki? Gdzie są integrowane wszystkie dane? W wypadku podanego przykładu najprawdopodobniej w obwodach zwrotnych między komórkami dużych pól 4 recepcyjnych a pierwotną korą wzrokową . Badania Patrycji S. 5 Goldman-Rakic nad poznaniem anatomii pamięci mają doprowadzić do określenia schematu połączeń w korze przedczołowej. Eksperymenty takie są prowadzone na małpach ale nadal brak informacji na temat podobnych struktur neuronalnych w ludzkim mózgu. Ryzykowne byłoby założenie, że u różnych gatunków istnieje taka sama mapa pamięci; zwłaszcza trudno zastosować podobną przesłankę w odniesieniu do człowieka, bowiem to właśnie złożoność sieci neuronów wyróżnia homo sapiens od innych form życia. W sukurs uczonym przychodzą nowe metody badania żywego mózgu ludzkiego; pozwalają one zaobserwować, które rejony kory wzmagają swoją aktywność, gdy np. przypominamy sobie jakiś wyraz. Chodzi tutaj o tomografię pozytronową (PET: PositronEmission Tomography) oraz obrazy uzyskane przy pomocy rezonansu magnetycznego (MRI: Magnetic Resonance Imaging). Obie te metody wykrywają w granicach 20-50% wzrost przepływu krwi w danym obszarze i oparte są na skomplikowanych algorytmach odejmowania; umożliwiają one odróżnienie przepływu krwi w mózgu w stanie spoczynku oraz podczas wykonywania zadań umysłowych. Dzięki nałożeniu obrazów opracowanych komputerowo na dokładne mapy anatomiczne można przyporządkować określonym stukturom neuronowym zmiany przepływu krwi. Zbyt mała rozdzielczość przestrzenna i czasowa nie pozwala na zarejestrowanie pojedynczych kolumn kory mózgowej. Ale nawet przy takich ograniczeniach płyną ogromne korzyści z zastosowania obu metod w badaniach ludzkiego mózgu. 2. Umysł a mocny program sztucznej inteligencji Opis złożonych funkcji mózgowych uzmysławia nam, jakie zadania postawili przed sobą uczeni z kręgu sztucznej inteligencji pragnący odwzorować działanie najbardziej skomplikowanego tworu we Wszechświecie. Sukcesy badań nad sztuczną inteligencją osiągane w latach pięćdziesiątych i sześćdziesiątych spowodowały formułowanie optymistycznych programów badawczych typu: to samo poznanie zachodzi w ludzkim umyśle oraz w komputerach i w obu dziedzinach ma miejsce semantyka (Allen Newell, Herbert A. Simon), mózg jest komputerem z mięsa (Marvin Minsky), maszyny mogą się uczyć (Edward Feigenbaum) etc. Programy te znalazły sprzymierzeńców w niektórych filozofach i psychologach jak np, Hilary Putnam czy Jerry A. Fodor. Piętrzące się trudności w badaniach nad rozwiązywaniem problemów czy rozpoznawaniem obrazów oraz analizy 6 filozoficzne zwłaszcza końca lat siedemdziesiątych doprowadziły do 74 MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU pewnego zróżnicowania poglądów wśród uczonych zajmujących się sztuczną inteligencją i jej filozofią. Część z nich coraz lepiej rozumiała, jak śmiałe czy wręcz nieprawdopodobne założenia przyjęto w odniesieniu do umysłu i programów komputerowych. Według nich istnieje możliwość napisania programów, które wyposażone w odpowiednie dane na wejściu i wyjściu tworzą umysł. Można to sprawdzić przy pomocy testu Turinga -jeśli dany program pomyślnie przejdzie ten test oznacza to, że jest on nie tylko modelem umysłu afe samym umysłem. Istotą mocnej AI jest poprawny program, który może być implementowany na różnych urządzeniach; specyficzne aspekty intelektu mogą być pojmowane, studiowane i określane bez zgłębiania sposobu działania mózgu. Można więc pozostawać stanowczym materialistą co do umysłu i uznawać za Kartezjuszem, że mózg naprawdę nie ma znaczenia dla intelektu. W obrębie ogólnej tradycji materiał i stycznej znajduje się również behawioryzm. Również w mocnym programie sztucznej inteligencji odnajdujemy jego elementy np. w następującej opinii - jeśli dany system komputerowy zachowuje się tak, jakby posiadał daną zdolność umysłową, to rzeczywiście ją posiada. Myślenie to nic innego jak manipulowanie formalnymi symbolami i to właśnie robi komputer - sądzą zwolennicy mocnego programu sztucznej inteligencji. Biorąc więc pod uwagę np. program Schanka należy stwierdzić, że maszyna nie tylko symuluje możliwości człowieka ale rozumie opowiadanie o zamawianiu hamburgera i dostarcza odpowiedzi na pytania. 2.1 Implikacje (Mitologiczne mocnej AI John R. Searle, pomysłodawca argumentu Chińskiego Pokoju, jest również autorem rozróżnienia między mocnym oraz złagodzonym programem AL Po raz pierwszy zaproponował ów podział w słynnym artykule "Minek, Brains and Pwgrams" w 1980 roku: "Zgodnie z mocnym programem sztucznej inteligencji komputer jest nie tylko narzędziem w studiowaniu umysłu. Prawidłowo zaprogramowany komputer rzeczywiście jest umysłem w tym sensie, że można literalnie uznać, iż komputer po przekazaniu mu prawidłowego programu rozumie i ma inne stany umysłowe. Ponieważ zaprogramowany komputer ma stany umysłowe według mocnego programu sztucznej inteligencji, programy są nie tylko narzędziami umożliwiającymi nam testowanie psychologicznych objaśnień ale raczej same programy są już wyjaśnieniami"7. Wydawać by .się mogło, że optymizm zwolenników mocnego programu sztucznej inteligencji zostanie ostudzony wskutek rozwoju nowych metod badania ludzkiego mózgu (np. PET oraz MRI przełom lat osiemdziesiątych i dziewięćdziesiątych), ujawnienia coraz to bardziej skomplikowanych struktur neuronów oraz sposobów ich działania czy analiz filozoficznych. Tak się jednak nie stało; literatura filozofii sztucznej inteligencji czy związana z badaniami nad AI nadal jest pełna idei typu: komputer jest umysłem, program myśli, można urzeczywistnić siłę przyczynową sieci neuronowych itp. W latach osiemdziesiątych i dziewięćdziesiątych łatwo można znaleźć przedstawicieli nurtu mocnego programu sztucznej inteligencji; należą do nich m.in.: Douglas Hof.stadter, Daniel Dennett, Roger Schank, Jerry A. Fodor, Paul M. Churchland, Stepen P. Stich, Terrence Sejnowski, Patrycjii Smith Churchland i Zenon Pylyshyn. 75 2.2 Elementy mocnego programu sztucznej inteligencji w różnych dziedzinach nauki i filozofii Idee mocnej AI zawarte są także w bardzo popularnej analogii między komputerem a mózgiem - "Umysł jest dla mózgu tym, czym program dla komputera"; jej autorem jest Philip N. Johnson-Laird8. Dowolny zresztą system fizyczny, jeśli tylko zostanie wyposażony w odpowiedni program i właściwe sygnały na wejściu i wyjściu - nie tylko może ale musi czuć, myśleć; nie jest przy tym istotne, z czego będzie zbudowany ów system. Jest to dominujący pogląd w sztucznej inteligencji, filozofii umysłu oraz psychologii zwłaszcza lat osiemdziesiątych określany mianem kognitywizmu*. Ludzie i inne organizmy żywe są postrzegani jako systemy przetwarzające informacje. 76 77 MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU Zasadniczym zagadnieniem jest określenie, w jaki sposób dany organizm otrzymuje dane, przetwarza je, zapamiętuje i jak pobudzają go one do inteligentnego zachowania. Termin przetwarzanie informacji został przejęty w latach sześćdziesiątych z teorii informacji przez psychologię kognitywną i przybrał tu znaczenie operacji komputacyjnych na symbolach. Istotą poznania stało się manipulowanie znakami oparte na ścisłych zasadach - jak to ma miejsce w komputerze. Kognitywizm jest z kolei mocno powiązany z nową dyscypliną wiedzy zwaną Cognitive Science (CS) - nauką poznawczą10, według której aspekty umysłu mogą być studiowane nade wszystko na podstawie informatyki i teorii sztucznej inteligencji. W mocnej AI i CS umysł nie jest częścią świata natury, nie może być rozpatrywany jako wynik procesów biologicznych - jest czysto formalny11; ze wszystkich tych procesów od mitozy poprzez fotosyntezę oraz trawienie jedno i tylko jedno mianowicie poznanie jest niezależne od swego biochemicznego podłoża. Powodem jest pogląd, że stany umysłowe są jedynie procedurami opartymi na manipulowaniu symbolami. Jakakolwiek więc substancja zdolna przyjąć formalne algorytmy, tym samym posiadać będzie również intelekt. Mózgowi 12 zdążyło się właśnie być jedną z owych substancji . Do skrajnie antybiologicznej tradycji w podejściu do człowieka 13 nawiązuje także funkcjonalizm maszynowy (komputerowy) ; porównuje on stany umysłowe z funkcjonalnymi czy logicznymi stanami komputera. Stymulacje fizyczne i chemiczne indywidualnego fizycznego organizmu można zastępować funkcjami wejścia i wyjścia abstrakcyjnego programu komputerowego. Idee mocnego programu sztucznej inteligencji zawarte są również w komputacyjnej teorii umysłu; wyrasta ona z pojmowania mózgu jako urządzenia przetwarzającego informacje analogicznie do komputera14. Na to porównanie wpłynęły dwie właściwości komputerów oraz pewne założenia twórców tej teorii. Po pierwsze dane i programy mogą być uruchamiane na maszynach zbudowanych z lamp elektronowych, tranzystorów czy układów scalonych; w opinii tej zawarte jest założenie, że umysł nie jest zależny od mózgu. Po drugie - sposób zorganizowania programu jest zgodny z intuicjami co do postępowania w rozwiązywaniu problemów, zadań umysłowych i uczeniu się; zauważamy tu kolejne założenie - myślenie jest procesem komputacyjnym i uruchomienie właściwego procesu będzie wywoływać stany umysłowe. Według Jerry Fodora, czołowego przedstawiciela komputacyjnej teorii umysłu, psychologia jest skoncentrowana wokół formalnej struktury symboli w umyśle i na sposobach manipulowania nimi. 2.3. Mózga programy formalne Każdy komputer jest budowany według ściśle określonych reguł i jego architekturę można szybko rozszyfrować. Nieporównywalnie trudniejsze jest poznawanie struktury mózgu a tym bardziej odtworzenie sposobu jego działania; równie trudnym jest zadanie odwzorowania działania mózgu przy pomocy programów komputerowych. Największe nadzieje są obecnie pokładane w sieciach neuropodobnych - ich działanie jest naśladowaniem pracy zespołów komórek nerwowych. Systemy te są o wiele bardziej skomplikowane od np. programu Schanka. Mimo to nadal można zastosować do nich eksperyment myślowy Johna Searle'a a dokładniej jego wariant zwany Chińską Salą Gimnastyczną - jak już o tym wspomnieliśmy w paragrafie dotyczącym odpowiedzi systemowej Churchlandów. Przyjrzyjmy się więc zarówno wysiłkom uczonych zmierzających do odwzorowania działania mózgu jak i zagadnieniom filozoficznym związanym z tymi badaniami. Uczeni dążą do poznania własności neuronów i ich połączeń, chcą zgłębić procesy umysłowe uczenia się, pamięci, mowy, świadomości, odbierania wrażeń wzrokowych i słuchowych. Kolejnym etapem pracy jest zaprogramowanie komputera w taki sposób, by odtwarzał pracę ludzkiego mózgu - konstruowane są tzw. sieci neuropodobne. Naukowcy napotykają na trudności już na pierwszym etapie, bowiem wiedza na temat pracy neuronów jest niekompletna i w dodatku możliwości obliczeniowe komputerów są ograniczone. Należy też 78 79 MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU MODF.LE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU postawić niełatwe i ważne pytanie - jakie własności neuronów są najistotniejsze dla działania umysłu? Sieci neuropodobne są złożone z "modelowych neuronów" - wielu połączonych ze sobą jednostek komputerowych wyposażonych w programy współbieżnego przetwarzania (PDP - Paralell Distributing Processing). Wyróżnić można trzy warstwy jednostek: wejściowe, "ukryte" i wyjściowe - wzajemnie ze sobą połączone. Funkcja synapsy odtwarzana jest przez tz-w. wagę połączeń; opisują one siłę wpływu jednych jednostek na drugie. Surowa informacja jest dostarczana sieci poprzez jednostki wejścia a następnie mnożona przez odpowiednio dobraną wielkość. Jednostki ukryte dodają ważone wejścia i obliczają aktywność wyjścia "neuronu" reprezentowane jest przez liczbę określającą częstość generacji iglic. Każdy komputer dokonuje wiec dwuetapowej konwersji zamienia wzorzec pobudzeń na wejściu sieci w jedną czynność wyjściową i przekazuje ją do innych maszyn. Zachowanie sieci neuropodobnej zależy od konwersji pobudzeń w wagach oraz funkcji wejścia i wyjścia. Najtrudniejszym zadaniem okazało się dobranie odpowiednich wartości wag. Aby zaimplementować wykonywanie danej czynności należy zmieniać każdą wagę proporcjonalnie do pochodnej błędu wagi (EW) - wartości, która jest stosunkiem zmiany błędu do zmiany wagi. Najpierw EW obliczano nieznacznie zaburzając wagi i obserwując zmiany błędu. Ta początkowa metoda wymagała osobnego zaburzania każdej wagi zaś poprawianie pochodnej błędu dla każdej z nich było bardzo trudne do obliczenia nawet przy stosunkowo łatwym zadaniu jakim jest rozpoznawanie cyfr. Następnie zastosowano algorytm propagacji wstecznej15; okazał się on znacznie lepszą procedurą w obliczniu EW i stał się jednym z ważniejszych narzędzi w uczeniu sieci neuropodobnych, choć nie jest pozbawiony wad. Przyjęcie propagacji wstecznej jako teorii wyjaśniającej uczenie się biologicznych neuronów nie było jednoznacznie oczywiste. Z jednej strony był to napewno wartościowy przyczynek teoretyczny, z drugiej strony propagacja wsteczna wydaje się niemożliwa biologicznie mózg musiałby sobie poradzić z tym problemem przez wykorzystanie innych, nieneuronowych dróg przy przenoszeniu impulsu z jednej warstwy do drugiej. Innym i ważniejszym problemem jest szybkość wykonywania wspomnianego algorytmu - przy wzroście rozmiarów sieci jeszcze szybciej rośnie czas jej uczenia się. 2.4 Współbieżne przetwarzanie a argument Johna Searle'a 'M Zastanówmy się, czy sieci neuropodobne i PDP spełniają pokładane w nich nadzieje odnośnie do idei mocnego programu sztucznej inteligencji; rozważmy również wzajemne odniesienie argumentu Searle'a i metod zastosowanych w wyżej wymienionych badaniach. Uczyńmy to na przykładzie "uczenia sieci" rozpoznawania cyfr i twarzy. Próby związane z rozpoznawanie obrazów (paltem recognińon) nie są niczym nowym w AT. Już w 1955 roku Oliver G. Selfridge opublikował pionierską pracę na temat16. System Pandemanium autorstwa jego oraz Ulrika Neissera analizował ręcznie pisane litery; czynił to przy pomocy 1024 elementowej macierzy o boku złożonym z 32 kwadratów. Programowi przekazane zostały na wstępie cechy liter i na ich podstawie dokonywana była analiza. Obecnie podobne prace są prowadzone przy zastosowaniu 256 jednostek wejściowych, 9 ukrytych i 10 wyjściowych. "Uczenie" sieci dokonuje się przez zastosowanie następującej procedury: przedstawienia przykładu treningowego (wzorce - aktywności dla wejść oraz czynności dla wyjść), określenia zbliżenia aktualnego wyjścia do żądanego i dostosowania wag połączeń do optymalnego wyjścia. Zauważmy, że dokonywana jest tutaj interpretacja semantyczna (!) - określone wzorce wraz z instrukcjami są przekazywane komputerom. Równie dobrze można by określić cechy trójki jako ósemki i sieć tak by ją ! interpretowała. Działanie 2 " byłoby odczytane jako cyfra 210 względnie duże 2 i mniejsze 10. System neuropodobny nie zinterpretowałby takiego zapisu jako potęgowania do momentu przekazania mu informacji typu: jeśli z prawej strony cyfry jest napisana mniejsza podniesiona w stosunku do niej o 2/3 wysokości - traktuj ów zapis jako potęgowanie. Bez takiej semantycznej interpretacji sieć byłaby 80 81 MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU bezradna. Co więcej - wskutek napisania cyfr czcionkami różnej wielkości mogłaby interpretować dany szereg jako potęgowanie choć wcate nie przedstawiałby on tego działania matematycznego. Przedstawiony zarzut jest najpoważniejszym w odniesieniu do propagacji wstecznej. Widzimy też, że i w tym przypadku nie da się pominąć Chińskiego Pokoju - działanie programów współbieżnych nie dałoby idei potęgowania bez dostarczenia sieci neuropodobnej wzorców oraz instrukcji. Sieć "wymaga nauczyciela, który podawałby dla każdego przykładu żądany wynik. (...) [Ludziom natomiast nikt nie przedstawia (...) dokładnego opisu wewnętrznej reprezentacji świata, który mamy rozpoznawać przy pomocy wrażeń zmysłowych. Uczymy się rozumieć zdania lub obrazy wzrokowe bez żadnych bezpośrednich instrukcji"17. Czy jest możliwe nienadzorowane uczenie się sieci? Badacze sztucznej inteligencji na to pytanie dają odpowiedź twierdzącą opracowali szereg procedur potrafiących odpowiednio modyfikować wagi sieci. Wymieniają metodę konkurencyjnego uczenia się (wraz z modyfikacją wprowadzoną przez Teuvo Kohenena z Uniwersytetu w ia Helsinkach) oraz kodowanie populacyjne . Zapominają jednak w obydwu przypadkach o jednej podstawowej rzeczy - by na wyjściu zostały poprawnie zinterpretowane dane wejścia jako np. lampa, wcześniej musi być podany wzorzec ogólny, element semantyczny. W wypadku konkurencyjnego uczenia się, by wzorzec wejściowy przyciągnął do siebie wzorzec wagi najbliższej jednostki ukrytej, wcześniej musi nastąpić przekazanie zespołu cech np. psów, by poprawnie mógł być zinterpretowany obraz zarówno jamnika jak i owczarka niemieckiego. Identyczna sytuacja ma miejsce w odniesieniu do kodowania populacyjnego; aby wieloparamentrowy system tzw. wzgórków aktywności mógł poprawnie porównać jednostki reprezentujące usta oraz nos z jednostkami wejścia i zdecydować, czy powstałe wzgórki reprezentują twarz - wcześniej musi znać wzorcowe wzgórki nosa-i-ust-tworzących-twarz. Zagadnienia te da się nadal sprowadzić do podkreślanego przez Searle'a fundamentalnego rozróżniania między syntaktyką programu komputerowego a warstwą znaczeniową, semantyczną. Różnicy tej nie zniwelowali uczeni pracujący nad sieciami neuropodobnymi. 2.5 Symulacja a duplikacja Postawmy obecnie jeszcze jedno pytanie: czym jest sieć neuropodobna z uruchomionym na niej PDP - symulowaniem czy też duplikowaniem zjawisk mózgowych? John Searle, zgodnie z argumentem Chińskiego Pokoju, oraz inni uczeni opowiadają się za symulacją. Zwolennicy mocnej Al są zdania, że mamy do czynienia z duplikacją. Dla przykładu - J, Anderson stawia na tym samym poziomie działanie neuronów co i zaprogramowanych sieci ls ; Herbert A. Simon twierdzi, że dane właściwości komputera i centralnego układu nerwowego są wspólne20. Nadal powtarzany jest błąd, jaki popełnił niegdyś Marvin Minsky na początku lat siedemdziesiątych twierdząc, że za 3-8 lat zostanie zbudowana maszyna o ogólnej inteligencji człowieka21; dziś analogiczny pogląd wyraża Daniel Crevier z University of Quebec - według jego osądu moc mózgu zostanie zduplikowana na superkomputerach w najlepszym razie w 2009 roku a w najgorszym z 33 letnim poślizgiem natomiast na komputerach typu desktop odpowiednio w 2025 oraz 2058 roku. "Po tych datach możemy oczekiwać, że nasze maszyny staną się zdolniejsze niż my"22. Jakie modele należałoby uznać za zduplikowanie mózgu i umysłu a jakie pozostawałyby ich symulacją? Aby nie dopuścić do rozmycia pojęć symulowania i duplikowania, przeanalizujmy znaczenie obydwu oraz odnieśmy ich treść do mózgu i umysłu z jednej strony oraz komputera i programów z drugiej. Nie jest to łatwe zadanie, zwłaszcza dlatego, że trudno do końca sprecyzować, co jest czy też ma być duplikowane względnie .symulowane w odniesieniu do mózgu i umysłu. Duplikowanie jest odtworzeniem rzeczywistej rzeczy, która jest rozpatrywana. W wypadku umysłu model nie musi być identyczny z danym zjawiskiem (wtedy nie byłby modelem lecz zjawiskiem) 23 winiem mu odpowiadać pod względem informacyjnym . Duplikacja 82 83 MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU jest rozumiana jako sposób wystarczający do spowodowania modeli testowych, kopii czy reprodukcji. Kiedy rozpoczęły się w latach pięćdziesiątych badania nad sztuczną inteligencją, wkrótce zostały wyróżnione dwa rodzaje symulacji - strukturalna i funkcjonalna24. Obie prowadzą do analogii (podobieństwa) między symulowanym przedmiotem a symulującym modelem - w naszym wypadku między umysłowymi zdolnościami ludzi a komputerami. Komputer funkcjonalnie symuluje umysłowe zdolności człowieka, jeśli ustalone na ich wejściach dane (np. konkretna sytuacja w szachach) dadzą takie same lub podobne rezulataty na ich wyjściach (np. określone posunięcie w grze). Strukturalna symulacja wymaga, by mechanizm przetwarzania informacji wiodący od danych na wejściu do efektu na wyjściu okazał się podobny dla człowieka i maszyny. [Szybko] okazało się, że nie udaje się doprowadzić do podobieństwa strukturalnego między ludzką a sztuczną inteligencją. Ani hardware ani software nie mogą być uważane za podobne pod względem strukturalnym do człowieka i maszyny25. John Searle zastanawia się, jak można było dopuścić do pojęciowego bałaganu i utożsamienia symulowania z duplikowaniem właśnie 26 w wypadku umysłu i mózgu ludzkiego . W wypadku pracy silnika samochodowego czy trawienia nikt nie wierzy, że ich symulacje mogą doprowadzić do poruszania auta czy poczucia sytości. Symulowanie utleniania węglowodorów w silniku spalinowym czy trawienia obiadu nie jest urzeczywistnieniem siły przyczynowej silnika czy żołądka. W wypadku stanów umysłowych należy wziąć pod uwagę, że zachodzą one w wyniku procesów chemicznych i fizycznych będących składowymi neurofizjologii mózgu. Czwarty aksjomat Chińskiego Pokoju mówi wyraźnie: Mózg jest przyczyną umysłu a wniosek drugi zaznacza, że dowolny inny system zdolny do spowodowania umysłu musiałby mieć siłę przyczynową (przynajmniej) równoważną mózgowi. By uniknąć nieporozumień przy określaniu treści wyrażenia spowodowanie umysłu, chcę podkreślić, iż układowi fizycznemu U można przypisać zdoiność Z - powodowania umysłu - wówczas, gdy zespół procesów P generowanych przez U pozostaje operacyjnie nierozróż- nialny od zespołu procesów P,, P 2 - P n towarzyszących funkcjonowaniu umysłu. Wydaje się oczywiste, że co do wyżej wymienionych procesów towarzyszących myśleniu można mówić wyłącznie o symulacji a nie o duplikacji i efektach w postaci rzeczywistego rozumowania27. Silnik w samochodzie można zamieniać - nie jest istotne, czy będzie go poruszał motor na paliwo płynne jak benzyna bądź olej napędowy czy gaz. W tym wypadku liczy się tylko siła przyczynowa a nie mechanizmy. Jednak w doniesieniu do procesów umysłu nie można zamieniać mózgu na komputer i nadal sądzić, że mamy do czynienia z tymi samymi zjawiskami intelektualnymi. Dlaczego tak się dzieje? Przecież można modelować na komputerze wyładowania nerwowe, choć różni się on od mózgu tak pod względem fizyki jak i chemii. Jest tak dlatego, ponieważ myślenie jest zjawiskiem biologicznym, stany umysłowe powstają w mózgu a ten nie tylko realizuje wzorce formalne - istotne znaczenie mają tutaj procesy neurobiologiczne. Wniosek czwarty mówi wyraźnie: Sposób, w jaki mózg ludzki wytwarza zjawiska umysłowe nie może polegać jedynie na wykonywaniu programów komputerowych. Przypomnijmy także wniosek trzeci dotyczący możliwości wytwarzania zjawisk umysłowych przez artefakty; jeśli miałyby one urzeczywistniać specyficzną siłę przyczynową mózgu, nie mogłyby tego dokonać jedynie przez wykonywanie formalnego programu. Mózg jest narządem biologicznym odpowiedzialnym za powstawanie świadomości i innych zjawisk psychicznych. Modele zjawisk mózgowych możemy tworzyć przy zastosowaniu symulacji komputerowych, ale "modele te odnośnie do odtwarzania procesów psychicznych nie są ani trochę bardziej realistyczne niż symulacje jakichkolwiek innych zjawisk naturalnych"28. Biorąc pod uwagę rozróżnienie na strukturalną i funkcjonalną symulację można więc stwierdzić w odniesieniu do umysłu, że jest możliwy ów drugi rodzaj symulacji, ale nie jest ona równoważna 29 duplikacji . Na koniec powróćmy do zasygnalizowanej już przez Searle'a wątpliwości - co właściwie symulujemy przy pomocy komputera1"? Czy rzeczywiście symulujemy sposób powstawania poznawczych i 84 MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU reprezentacji i funkcje ludzkiej inteligencji? Czy możemy mu zaimplementować kompletną logikę stosowaną przez istoty ludzkie? W jaki sposób i czy w ogóle szybkość i dokładność logicznego wnioskowania są związane z symulacją życia ludzkiego? Jeśli chcemy symulować funkcje istot ludzkich - na jakie istotne czynniki należy zwrócić uwagę i co jest owymi istotnymi czynnikami?; potrzebna jest zapewne lepsza interpretacja opierająca się na kryteriach wyławiających ważne aspekty. Nie łatwo odpowiedzieć na podobne pytania; problemów dotyczących natury symulowania komputerowego jest znacznie więcej. W niniejszym paragrafie chodziło jedynie o ich zasygnalizowanie a zagadnienie zasługuje na osobną, obszerniejszą pracę. W powyższych rozważaniach dostrzegamy, jak trudno jest zastosować pojęcie symulacji maszynowej do scharakteryzowania ludzkich doznań. Jak się wydaje, intelektualna aktywność ma a priori pewne własności, których nigdy nie będzie można przekazać maszynie31. Jeśli stosujemy komputer do symulacji procesów poznawczych, musimy pamiętać o niekompletności tego modeiu, 32 który jest zwykle uproszczeniem lub abstrakcją zjawiska . Analogia komputerowa nie jest w stanie przedstawić pełnego zakresu ludzkiego rozumowania; stanowi ona jedynie model, funkcjonalną symulację pewnych aspektów ludzkiego umysłu i mózgu. Komputer wyposażony w odpowiedni program, poprawne dane na wejściu i wyjściu nie jest umysłem. Zwolennicy mocnego programu sztucznej inteligencji utożsamiają system zer i jedynek komputera z wyładowaniami lub ich brakiem w mózgu człowieka. Jest to jednak jedynie daleka analogia. 3. Programy komputerowe w badaniach nad intelektem Jeden z zasadniczych elementów umysłu - świadomość, jest wyeliminowana w mocnym programie sztucznej inteligencji; eksperyment myślowy Searle'a pozwala na odrzucenie takiego podejścia. Postawmy kolejny, bardziej ogólny problem: o ile programy komputerowe są przydatne w badaniach nad intelektem? MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU 85 3.1 Stanowisko Scarlc'a Zgodnie z mocnym programem sztucznej inteligencji dowolny system, zbudowany z czegokolwiek (puszek, układów scalonych czy papieru) nie tylko może ale wręcz musi czuć i myśleć. Jest tylko jeden warunek - komputer musi być wyposażony w odpowiedni program z właściwymi sygnałami na wejściu i wyjściu. Searle uważa mocny program sztucznej inteligencji za głęboko antybiologiczny punkt widzenia; nie do przyjęcia jest twierdzenie o braku jakiegokolwiek fizycznego czy biologicznego składnika w ludzkim umyśle oraz podtrzymywanie poglądu o niezależności intelektu od mózgu. Autor Chińskiego Pokoju chciałby wierzyć, że uczeni zajmujący się sztuczną inteligencją odrzucą ten pogląd jako przejaw antynaukowych tendencji podobnych do sprzeciwów wobec poglądów Kopernika. Galileusza czy Darwina3J. Formalne manipulowanie symbolami nie wystarcza do uzyskania rozumienia i komputer nie może być uznany za maszynę myślącą. Sieci neuropodobne nie pozwalają na pominięcie Chińskiego Pokoju - eksperyment ten można bowiem zastosować do dowolnego systemu obliczeniowego, również współbieżnego14. John Searle skłania się ku złagodzonemu programowi sztucznej inteligencji - komputer uznaje jedynie za narzędzie służące do badania ludzkiego intelektu. Komputerowy model umysłu jest przydatny podobnie jak w symulacjach dotyczących ekonomii, pogody czy biologii. Autor Minds, Braina, and Programs dostrzega naturalnie zalety architektury równoległej; sieci konekcyjne pozwalają dokładniej niż komputer szeregowy modelować procesy mózgu. Systemy te są jednak znacznym uproszczeniem tychże modeli w stosunku do rzeczywistych sieci neuronowych. "Choć badacze opracowali potężne algorytmy o wielkim znaczeniu praktycznym, w dalszym ciągu nie 35 wiemy, jakie reprezentacje są rzeczywiście stosowane przez mózg" . Złagodzony program sztucznej inteligencji akceptowany przez Searle'a wydaje się więc być przydatnym modelem ludzkiego umysłu. Ale nawet ów wyważony pogląd d!a niektórych uczonych nie jest wcale tak bardzo oczywisty. 86 MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU 3.2 Rozróżnienia Penrose'a Postawmy pytanie - o ile dany model, zgodny z mocnym (SAI) bądź złagodzonym (WAI) programem sztucznej inteligencji, jest przybliżeniem umysłu? Jednym z autorów krytycznie ustosunkowanych do entuzjazmu Searle'a wobec WAI jako modelu intelektu jest Roger Penrose. Podchodzi on bardzo ostrożnie do komputerowych modeli umysłu. W swojej najnowszej książce dokonuje rozróżnienia na cztery punkty widzenia odnośnie do umysłu: A - mocny, B złagodzony program sztucznej inteligencji, C - według którego fizyczne działanie wywołujące świadomość nie może być nawet właściwie symulowane komputacyjnie, D - gdzie nie jest możliwe wyjaśnianie świadomości w terminach fizycznych, komputacyjnych ani jakichkolwiek naukowych36. Penrose jest przekonany, że najbliższe prawdy jest stanowisko C; zewnętrzne efekty świadomości nie mogą być symulowane komputacyjnie. Według autora "The Emperor's New Mind" w fizyce potrzebne jest nowe rozumienie dziedziny między poziomem klasycznym a kwantowym; tam, poza znanymi dziś prawami fizyki, winny być odnalezione procesy niemożliwe do zalgorytmizowania. Przeprowadzony przez Penrose'a dowód na podstawie twierdzenia Godła wykazuje niemożność zredukowania pojmowania matematycznego do mechanizmów komputacyjnych. W ludzkim rozumowaniu jest coś, czego nie da się symulować przy pomocy algorytmów. Wspomniany dowód jest wymierzony przeciw komputacyjnemu modelowi umysłu (SAI) ale także przeciw możliwości efektywnej symulacji komputacyjnej zewnętrznych przejawów działalności umysłu (WAI). Penrose w swych poglądach odnośnie do sztucznej inteligencji idzie jeszcze dalej niż Searle. 3.3 Problem lingwistyczny oraz dwa poziomy opisu mózgu i umysłu Innego rodzaju analizy odnajdujemy u Dtetera Miincha. On także poddaje krytyce uznanie złagodzonego programu sztucznej inteligencji MODELE UMYSŁU A ARGUMENT CHIŃSKIEGO POKOJU 87 za właściwe przybliżenie modelu umysłu37. Twierdzi on, że autor Chińskiego Pokoju nie zajmuje bezpiecznego stanowiska identyfikując WAI z modelami sieciopodobnymi. Mówiąc o znaczeniu programów komputerowych w badaniach nad intelektem, warto zwrócić jeszcze uwagę na jeden problem; Miinch nazywa go lingwistycznym38. Takie terminy jak przekonanie,potrzeba, pragnienie, winny być odpowiednio rozumiane w zależności od tego, do jakich bytów są używane. W interpretacji odniesionej do umysłu wyrażenia te powinny być stosowane wyłącznie do bytów żywych. Często jednak zdąża się stosowanie tych określeń do wyjaśniania systemów komputerowych. Działanie maszyn o tak wielkim stopniu skomplikowania skłania do opisywania ich zachowania przy pomocy wyżej wymienionych terminów. Ów problem lingwistyczny wyjaśnia emocje często towarzyszące popularnym i filozoficznym dyskusjom nad sztuczną inteligencją. Analizując zagadnienie modele-umysł-mózg-programy komputerowe należy też, za Manfredem Bierwischem, zwrócić uwagę na dwa poziomy opisywania wymienionych zagadnień. Pierwszy dokonuje się w odniesieniu do fizjologicznych, fizycznych i chemicznych stanów i procesów. Drugi dotyczy poziomu umysłowych stanów i procesów; mogą być one ujęte w terminach fenomenologicznych. Obydwa poziomy są niesprowadzalne do siebie, choć wzajemnie odniesione wyższy poziom oddany jest przy pomocy terminologii poziomu niższego39. Błędny jest pogląd uznający proces komputacyjny za pośredniczący między umysłowym a neurofizjologicznym. Wymienione powyżej twierdzenia Searle'a, wątpliwości Penrose'a, rozróżnienia Bierwischa i Miincha przywodzą na myśl raz jeszcze jeden z podstawowych problemów - o ile komputerowe modele oddają rzeczywistość pracy umysłu i mózgu. Analizy Searle'a i Penrose'a wydają się kolejnymi przybliżeniami odpowiedzi. 100 101 PROBt.EM SYNTAKTYCZNYCH UWARUNKOWAŃ SEMANTYKJ PROBLEM SYNTAKTYCZNYCH UWARUNKOWAŃ" SEMANTYK] odniesień do czegoś w świecie a system komputerowy oparty na syntaktyce nie jest do tego zdolny. Dlaczego zatem argument Rapaporta wygląda tak przekonywająco? Dzieje się tak dlatego, że eksperyment ów wprowadza w błąd naszą intuicję co do posiadania przez koreańskiego profesora ponadsyntaktycznego rozumienia tego, co robi. Rapaport za dowód przyjmuje założenie, uznaje za słuszne zagadnienie, które winno być przedyskutowane. Akcepuje podstawy mocnego programu sztucznej inteligencji jako prawdziwe". Powyższe rozważania są przykładami wysiłków uczonych by wykazać, że programy nie są czysto syntaktyczne; dążyli oni do zbudowania przynamniej podwalin semantyki wynikającej choć w ograniczonym stopniu z samej składni. Wszelkie te zabiegi wymierzone są mniej czy bardziej bezpośrednio przeciw Chińskiemu Pokojowi, Margaret Boden napisała wprost: "[•••] atak Searle'a na psychologię komputacyjną ma złe podstawy. Co do poglądu <człowiek-w-pokoju> jako zastąpienie programu komputerowego nie można stwierdzić, że wcale nie zachodzi rozumienie. [...] Nie jest tak, że komputacyjna psychologia jest zupełnie niezdolna do wyjaśniania 23 powiązań między znaczeniem a procesami umysłowymi" . Analizy Johna Searle'a natomiast podkreślają granicę między semantyką i syntaktyką, nie przesuwają jej ani nie zamazują. syntaktyki. fizyki, semantyki, metod komputacyjnych. kognitywizmu i tzw. błędu homunculusa, siły przyczynowej mózgu oraz przetwarzania przez mego informacji. Przypomnijmy w skrócie podstawowe idee Searle'a wynikające z jego aksjomatów i wniosków". Programy komputerowe są syntaktyczne; sama składnia nie wystarcza do osiągnięcia warstwy znaczeniowej ani nie kształtuje semantyki. Mózg jest przyczyną intelektu, wytwarza zjawiska umysłowe, które nie polegają jedynie na wykonywaniu programów komputerowych. Umysł człowieka zawiera składnik semantyczny. Same programy nie kształtują myślenia i nie wystarczają do jego osiągnięcia. Sita przyczynowa danego systemu musiałaby być równoważna mózgowi, by system ten mógł spowodować intelekt. Jej urzeczywistnienie nie może się odbywać jedynie przez wykonywanie formalnego programu. Nowe analizy Searle'a sprowadzić można do czterech zagadnień, które będą omówione poniżej - syntaktyką nie jest częścią fizyki, błąd homunculusa jest właściwy dla kognitywizmu, syntaktyką nie ma siły przyczynowej, praca mózgu nie polega na przetwarzaniu informacji. 2. Nowe analizy i wnioski Searle*a z argumentu Chińskiego Pokoju Po artykułach na temat Chińskiego Pokoju opublikowanych w latach 1980-1991 wydawać by się mogło, że Searle nie ma już nic nowego do powiedzenia w kwestii wzajemnego odniesienia semantyki i syntaktyki oraz braku rozumienia języka naturalnego przez komputer. Tak jednak nie jest. Autor Minds, Brains, and Programs powrócił do tych problemów w 1992 roku poświęcając znaczną część swojej książki14 i wyciągając nowe wnioski, których jak sam zaznacza nie dostrzegł poprzednio. Analizowane zagadnienia koncentrują się wokół 2,1 Pozafizykalny charakter syntaktyki Pierwsza część problemów analizowanych przez autora artykułu Minds, Brains and Programs dotyczy możliwości realizowania danego programu na różnych urządzeniach; dlaczego jest to możliwe i jakie są tego konsekwencje. Inny probiem to odniesienie składni do fizyki, Obrońcy teorii procesów obliczeniowych w mózgu traktują komputery na równi z innymi urządzeniami. Gaźnik silnika benzynowego czy Diesla może być wykonany z różnych materiałów, podobnie i maszyny Turinga - istnieje wiele materiałów, z których można je zbudować. Jest to typowo funkcjonalistyczne podejście - to samo działanie dopuszcza wiele realizacji. Zwolennicy idei komputacyjnych wydają się nie dostrzegać następstw takich poglądów oraz zasadniczej różnicy: termostaty, gaźniki etc. są przeznaczone do wytwarzania określonych fizycznych elektów; natomiast działanie komputerów jest 102 PROBLEM SYNTAKTYCZNYCH UWARUNKOWAŃ SEMANTYKI określane programem syntaktycznym w terminach wyrażonych przez zera i jedynki. Zadajmy sobie wobec tego pytanie o konsekwencje wielu możliwości realizowania tego samego programu na różnych fizycznie urządzeniach. Wbrew pozorom nie jest to dowodem na abstrakcyjność tychże procesów a jedynie potwierdzeniem tego, że działania komputacyjne nie sg wewnętrzne, nie stanowią części systemu. Co więcej - składnia nie jest częścią fizyki i opis syntaktyczny jest zawsze zależny od obserwatora. Wyrażenia takie jak masa, przyciąganie grawitacyjne itp. określają cechy wewnętrzne świata; nawet jeśli wszyscy obserwatorzy przestaliby istnieć - świat nadal posiadałby grawitację czy masę- Nie jest jednak tak samo w wypadku wyrażeń typu jest piękny dzień. Tego rodzaju określenia nie reprezentują wewnętrznych cech otoczenia i dotyczą ocen zależnych od poszczególnych ludzi. Należy więc rozróżniać między wewnętrznymi cechami świata i zależnymi od obserwatora. Składnia ma charakter pozafizykałny, syntaktyka jest zależna od człowieka. Drugi problem dotyczy procesów obliczeniowych. Zgodnie z ich naturą opis syntaktyczny można zastosować do dowolnego obiektu; przy pomocy metody zerojedynkowej można opisać dowolny obiekt i wtedy wszystko winno być komputerem cyfrowym26, również móz.g. Jeśli przyjmiemy taką opinię należałoby konsekwentnie mówić o sercu, żołądku czy Układzie Słonecznym jako maszynie Turinga. Czy jest jednak jakiś fakt potwierdzający zdanie mózg jest komputerem cyfrowym? Zwykle zwolennicy metod obliczeniowych powołują się na zdanie wszystko jest komputerem cyfrowym, brak jednak pozytywnego argumentu przemawiającego za tym twierdzeniem. Takie pojęcia jak komputacja, syntaktyka, algorytm, program nie oznaczają wewnętrznych cech fizycznych systemu, nie są one częścią fizyki, nie są odkryte w jej obrębie, są jej tylko przypisane. Searle pisze: "Jest to inny argument z Chińskiego Pokoju. Powinienem go dostrzec 10 lat temu, ale nie dostrzegłem. [Eksperyment myślowy] pokazał, że 11 semantyka nie jest wbudowana do syntaktyki. Obecnie wyciągał oddzielny i inny wniosek - syntaktyka nie jest wbudowana do fizyk'[Poprzednio] założyłem, że syntaktyczne scharakteryzowani PROBLEM SYNTAKTYCZNYCH UWARUNKOWAŃ SEMANTYKI 103 komputera nie rodzi żadnych problemów. Ale to byt błąd. Nie ma możliwości, by odkryć, że coś jest wewnętrzne dla cyfrowego komputera, gdyż scharakteryzowanie go jako komputera cyfrowego jest zawsze zależne od obserwatora, który ustala syntaktyczną interpretację w odniesieniu do czysto fizycznych cech systemu"27. 2.2 Kognitywizm i błąd homunculusa Jeśli dany program może być realizowany na wielu urządzeniach i procesy komputacyjne zdefiniujemy syntaktycznie a składnia nie jest częścią fizyki, to nic nie jest właściwe, wewnętrzne w odniesieniu do komputera cyfrowego. Uczeni z kręgu nauki poznawczej (Cognitive Science, skrót: CS) starają się ominąć ów problem28. Rozpatrują oni mózg tak, jakby w nim był ktoś, kto używa mózgu do procesów komputacyjnych. Autor "The Rediscovery ofthe Mind" przyznaje, że analiza tego zagadnienia trwała od 1982 do 1992 roku. Doszedł w końcu do wniosku, że rozwiązanie problemu proponowane przez zwolenników kognitywizmu jest pozorne; większość prac z zakresu komputacyjnej teorii umysłu zawiera idee nazwane przez Searle'a 2 błędem homunculusa '*; by go wyjaśnić, analizuje sposób, jakim posługuje się komputer wykonując działanie 6x8. Występuje tu szereg poziomów - od mnożenia do stosowania jedynie zer i jedynek: - zastąpienie mnożenia sześciokrotnym dodawaniem ósemek, - zamiana systemu dziesiętnego na binarny, - zastosowanie prostego algorytmu w celu osiągnięcia najniższego poziomu, gdzie instrukcjami są wyrażenia typu: drukuj zero, usuń jedynkę itp. Na każdym z tych poziomów jest umieszczony coraz mniej inteligentny homuncutus. Pierwszy nie wie, na czym polega mnożenie ale zna dodawanie, drugi - zamiast dodawania czy mnożenia zamienia cyfry na binarne, trzeci nie ma pojęcia o mnożeniu i dodawaniu ale potrafi działać na binarnych symbolach, ostatni mówi jedynie: zero jeden, zero jeden. Searle konkluduje: "Wszystkie wyższe poziomy są zredukowane do dolnego. Tylko ów dolny poziom naprawdę istnieje; wyższe [..,] istnieją tylko na zasadzie jeśli-to. [...] Bez homunculusa 104 105 PROBLEM SYNTAKTYCZNYCH UWARUNKOWAŃ SEMANTYKI PROBLEM SYNTAKTYCZNYCH UWARUNKOWAŃ SEMANTYK] stojącego na zewnątrz zstępującej dekompozycji nigdy nie będziemy mieć działającej syntaktyki"30. Nie jest możliwe usunięcie z systemu homunculusa interpretującego poszczególne poziomy. Jeśli składnia miałaby być wewnętrzną częścią fizyki, to jedyną drogą jest umieszczenie w systemie właśnie homunculusa. Nawet jeśli rozpatrywać mniej abstrakcyjny poziom jedynie w odniesieniu do zwykłego komputera, to i tu nie można wyeliminować tego problemu; homunculusem jest każdy użytkownik maszyny z uruchomionym na niej programem. Różni autorzy31 pisząc o systemie jako silniku syntaktycznym kierującym semantyczną maszyną popełniają ciągle w różnych odmianach ów błąd homunculusa, który jest właściwy dla kognitywizmu. Ciągle bowiem pozostaje pytanie - co powoduje na najniższym bądź innym poziomie, że operacje są wyrażane przez zera i jedynki, jakie okoliczności czynią system syntaktycznym? Nie można rozwiązać tych problemów bez dodania homunculusa do układu. komputacyjnych i niemożności wskazania na przyczyny - w ten sposób chce on wykazać poprawność swojej tezy. W nauce określane są mechanizmy, te z kolei są wyjaśniane przyczynowo. Metoda ta stosowana jest zwłaszcza w naukach przyrodniczych32. Taki sam rodzaj wyjaśniania obiecuje kognitywizm. Zgodnie z jego ideami procesy mózgowe produkujące poznanie wydają się być komputacyjnymi, dlatego poprzez sprecyzowanie programów można określić przyczyny poznania. Jest rzeczą bardzo zaskakującą, że wyjaśniając poznanie zwolennicy tego podejścia nie widzą potrzeby znajomości szczegółów na temat funkcjonowania mózgu. Podstawowa teza kognitywistów brzmi: mnóstwo symboli jest manipulowanych w mózgu, jedynki i zera przebiegają tam z wielką szybkością; są one niewidzialne nie tylko dla oka ludzkiego ale także dla mikroskopu elektronowego i te właśnie procesy są przyczyną poznania. Ale tu Searle wykazuje następującą trudność: zera i jedynki istnieją tylko z punku widzenia obserwatora. Uruchomiony program nie ma innej siły przyczynowej niż siła, jaką posiada implementujące go medium, ponieważ program poza komputerem nie ma rzeczywistego istnienia, własnej ontologii. Można więc powiedzieć, stosując terminologię fizyczną, że nie istnieje oddzielny poziom programu^. Maszyna literalnie nie postępuje według żadnych zasad. Ona jest tylko w ten sposób zaprojektowana, by zachowywała się tak, jak gdyby postępowała zgodnie z określonymi procedurami. Kognitywizm mówi, że mózg funkcjonuje jak komputer i w ten sposób jest przyczynowane poznanie. Ale w tym wypadku bez zewnętrznego obserwatora (homunculusa) zarówno komputer jak i mózg posiadałyby jedynie wzorce. Nie posiadają one siły przyczynowej poza tą, którą mają media implementujące program. Tak więc pogląd, według którego mózg działa jak komputer nie ma racji bytu i nie podaje też przyczynowego wyjaśnienia poznania. Zwolennicy kognitywizmu bronią się podając przykład komputera wykonującego dany program. Naciśnięcie klawisza daje wtedy określony rezultat, wygląda więc na to, że syntaktyczny program ma siłę przyczynową. Proponują też program badawczy polegający na takim zaprogramowaniu komputera, by symulował on pewną 2.3 Składnia a związki przyczynowe Pomysłodawca Chińskiego Pokoju w książce z 1992 roku nawiązuje do problemów syntaktyki oraz siły przyczynowej. Zagadnienia te poruszył wcześniej w eksperymencie myślowym w drugim i trzecim wniosku. Searle stawia tam warunki zaistnienia umysłu w artefaktach w odniesieniu do siły przyczynowej: - musiałaby być ona przynajmniej równoważna mózgowi, - jej urzeczywistnienie nie mogłoby nastąpić jedynie przez wykonanie formalnego programu. Searle jest zdania, że składnia nie ma i nie może mieć żadnej siły przyczynowej umożliwiającej generowanie sensu pojętego semantycznie. Zwolennicy kognitywizmu replikują natychmiast - samolot może lecieć przy pomocy automatycznego pilota czyli komputera wyposażonego w program formalny; twierdzenie Searle'a, według kognitywistów, nie jest więc zgodne z prawdą. Analizy autora The Rediscovery of the Mind zmierzają ku określeniu mechanizmów procesów 106 PROBLEM SYNTAKTYCZNYCH UWARUNKOWAŃ SEMANTYKI PROBLEM SYNTAKTYCZNYCH UWARUNKOWAŃ SEMANTYKI umiejętność kognitywną np. posługiwanie się językiem naturalnym. Udana symulacja byłaby wykazaniem tego, że mózgowy komputer stosuje ten sam program. Byłoby to jednocześnie przyczynowe wyjaśnienie jego zachowania w oparciu o formalny algorytm: w komputerze przetwarzanie danych z wejścia na wyjście dokonywane jest przez program, w mózgu odnajdujemy ten sam program, mamy wiec przyczynowe wyjaśnienie. wane jest z zewnątrz. Sama składnia nie ma jednak siły przyczynowej. Nawet gdybyśmy odkryli w mózgu wzorce jego działania (programy), to nadal nie wyjaśniłoby to, co chcemy wyjaśnić oraz w jaki sposób miałaby być dokonana komputacyjna interpretacja procesów mózgowych. Co czynimy i możemy czynić w odniesieniu do mózgu człowieka to poznawać konkretne biologiczne fenomeny i powodujące je fizyczne procesy. John Searle wysuwa dwa poważne zastrzeżenia w odniesieniu do takich poglądów. Po pierwsze z chwilą lepszego poznania neurobiologii mózgu nie można zaakceptować tego typu wyjaśniania dla jakiejkolwiek funkcji naszego najbardziej skomplikowanego narządu. Po drugie powyższy projekt nie może być zastosowany również do innych niż mózg systemów, jakie mogą być symulowane komputerowo. Działanie maszyny do pisania jest naśladowane przez programy zwane edytorami tekstu ale ów edytor nie symuluje komputera. Choć huragan może być symulowany przez komputer Cray wyposażony w program prognozy pogody, to przyczynowe wyjaśnienie zachowania huraganu nie jest jednak przewidziane przez algorytm. Nie moża więc robić tu wyjątku w odniesieniu do mózgu, nie ma do tego podstaw. Wiadomo, jak zachowa się maszyna zaprogramowana przez człowieka, z wcześniejszych stanów można przewidzieć późniejsze. Wyjaśnienia odnośnie do zaprogramowanego systemu mają odniesienie intencjonalności programisty czy użytkownika. Nie jest jednak możliwe wyjaśnianie działania maszyny do pisania czy huraganu bądź mózgu przez wskazanie na wzorce formalne, ich istnienie nie wyjaśnia jak system pracuje aktualnie jako system fizyczny. Powróćmy do przykładu samolotu pilotowanego przez komputer. Czy w takim i analogicznych przypadkach syntaktycznemu programowi można odmówić siły przyczynowej? W pewnych układach fizycznych istnieją wzorce, które możemy rozszyfrować i stosować w systemach z danymi na wejściu i wyjściu. Ale interpretacja wzorców nie jest częścią systemu, tej dokonać może jedynie człowiek; wyjaśnianie odnosi się do poszczególnych części programu, dokony- 107 2.4 Krytyka kognitywistycznej koncepcji przetwarzania informacji Podstawowe zastrzeżenie dotyczy opracowywania danych w modelach komputerowych oraz pracy mózgu. Przypisywanie mu przetwarzania informacji nazywa Searle najgorszym błędem nauki poznawczej i kluczowym zagadnieniem dla trzech poprzednich34. Autor "The Rediscovery of ihe Mind" wskazuje nieuzasadnione założenia kognitywistów i podkreśla zasadnicze różnice w działaniu mózgu w odniesieniu do programów symulujących, a nie duplikujących nasz intelekt. Searle twierdzi wyraźnie: mózg nie przetwarza informacji; kognitywiści trwają przy swoim stanowisku i starają się wytknąć błędy w jego rozumowaniu. Ich paradygmat naukowy jest odmienny; mózg różni się od innych systemów, których modele są jedynie symulowaniem. W modelowaniu najbardziej skomplikowanego narządu człowieka zachodzi duplikowanie a nie tylko funkcjonalne odwzorowanie jego własności. Powód - ludzki mózg właśnie przetwarza informacje. On przepracowuje dane i zdaniem kognitywistów to samo czyni maszyna z odpowiednim programem. Systemy prognozujące pogodę są tylko symulacją ale w wypadku modeli mózgu ma miejsce duplikacja (sicf). Utożsamiają one funkcje mózgu z komputacyjnymi procedurami przetwarzania informacji przez maszyny. Analizując istotę przetwarzania informacji w komputerze i zjawiska zachodzące w mózgu wykazać można błędność założenia 109 PROBLEM SYNTAKTYCZNYCH UWARUNKOWAŃ SEMANTYKI PROBLEM SYNTAKTYCZNYCH UWARUNKOWAŃ SEMANTYKI zwolenników kognitywizmu. Podkreślić tu należy rolę zależności w stosunku do zewnętrznego obserwatora. Dane w komputerze opracowywane są w kilku etapach. Pierwszym jest zakodowanie informacji w formie przyswajalnej przez komputer, człowiek przewiduje syntaktyczną realizację przetwarzania danych np. poprzez różne poziomy napięcia. Seria stanów musi być interpretowana przez zewnętrznego obserwatora; sam system nie posiada składni i semantyki, które byłyby jego wewnętrzną częścią. Fizyka nie ma tutaj większego znaczenia, umożliwia jedynie zaimplementowanie danego algorytmu. Dane na wyjściu systemu przyjmują również fizyczną postać, np. wydruku, który ma być zinterpretowany przez człowieka. W przypadku mózgu swoistość neurofizjologii odgrywa kluczową rolę - żaden z istotnych procesów neurobiologicznych nie jest zależny od obserwatora-". Posłużmy się przykładem, by wykazać różnicę działania programu według założeń kognitywistów a funkcjonowaniem biologicznego mózgu. Jak zadziała program na widok zbliżającego się Forda Escorta? Komputacyjny model widzenia sklasyfikuje obiekt jako auto, określi jego cechy np. kolor, kierunek poruszania się oraz prędkość; rezultatem działania programu będzie wypisanie zestawu informacji na temat poruszającego się samochodu. Jak natomiast zareaguje mózg na to samo zjawisko? Odebrane boźdźce wywołają wrażenie wzrokowe a nie pewną liczbę słów czy symboli wypisanych na ekranie monitora bądź papierze. Wrażenia te są tak samo konkretne jak słyszenie czy wypicie zimnej Coca-Coli. "Przy pomocy komputera możemy utworzyć model przetwarzający informacje danego zdarzenia [...] jak pogody, trawienia [...], ale zjawiska same w sobie nie są przez to systemami przetwarzającymi informacje"36. "Informacja" w mózgu zawsze jest odniesiona do myślenia, widzenia, dotyku, słyszenia itp. Przetwarzanie w systemach komputerowych nie ujmuje konkretnej biologicznej rzeczywistości wewnętrznej intencjonalności, wszystko odbywa się tu na wysokim stopniu abstrakcji. Na wejściu i wyjściu mamy do czynienia z zestawami symboli a później dopiero są one interpretowane przez zewnętrznego obserwatora. Tej różnicy nie można zacierać czy nie dostrzegać. Choć zbliżający się samochód może być opisany przez komputerowy model widzenia oraz przez patrzącego człowieka, w wypadku tego ostatniego nie mamy do czynienia z przetwarzaniem informacji. Wrażenie wzrokowe jest świadomym i konkretnym a nie abstrakcyjnym zdarzeniem powstającym w mózgu człowieka; ich przyczyną są określone procesy biologiczne i chemiczne a nie manipulowanie przez program zestawem symboli interpretowanych ex post. Podsumujmy krótko idee rozwijane w książce Searle'a "The Rediscovery of the Mind" i nowe wnioski wyciągane przez niego z eksperymentu myślowego. Procesy komputacyjne są określane syntaktycznie, poprzez manipulowanie symbolami; ale składnia i znaki nie są definiowane w terminach fizyki. Komputacja nie jest więc odkryta w obrębie fizyki, ona jest jej przypisana. Syntaktyka i symbole są zależne od obserwatora. Dane zjawiska fizyczne są interpretowane czy programowane syntaktycznie. Nie jest możliwe odkrycie, że mózg iub cokolwiek innego jest komputerem cyfrowym; procesy mózgowe nie są wewnętrznie komputacyjne. Pewne systemy fizyczne umożliwiają posługiwanie się metodą obliczeniową, dlatego układamy programy i używamy ich. Ale w takim wypadku człowiek jest homunculusem interpretującym fizykę przy pomocy składni i warstwy znaczeniowej. Przez założenie, że mózg przetwarza informacje nie można uniknąć powyższych rezultatów. Jest on biologicznym organem w którym procesy neurobiologiczne przyczynują specyficzne formy intencjonalności, mózg nie jest czymś, co jedynie przetwarza informacje. Semantyka proceduralna, koncepcja semantycznych wyrazów pierwotnych, wewnętrzna sieć semantyczna, konekcyjny modei rozumienia oraz eksperyment myślowy Rapaporta to przykłady wysiłków uczonych zmierzających do przypisania rozumienia systemom komputerowym. Problem pojmowania języka naturalnego przez człowieka oraz przez maszynę jest źródłem szeregu pytań na temat odniesienia syntaktyki i semantyki. W tym wypadku analizy dotyczyły prób tworzenia choćby najbardziej prymitywnej warstwy znaczeniowej na podstawie samej składni. 108 110 PROBLEM SYNTAKTYCZNYCH UWARUNKOWAŃ SEMANTYKI PROBLEM SYNTAKTYCZNYCH UWARUNKOWAŃ SEMANTYKI Niektórzy z badaczy, jak na przykład J. Fodor, sami zrezygnowali z algorytmizowania rozumienia maszynowego. Koreański Pokój Rapaporta jest ilustracją przyjmowania założeń za dowód wykazujący ponadsyntaktyczne pojmowanie tekstów. Ogólne wyniki badań zwolenników mocnego programu sztucznej inteligencji są nader skromne i nie upoważniają do przyjęcia koncepcji związanych z konstruowaniem rozumienia komputerowego. Opis syntaktyczny jest zależny od obserwatora, który interpretuje symbole a sama składnia ma charakter pozafizykalny, podobnie jak i działania komputacyjne czy algorytmy. PRZYPISY 1. N. Chomsky, Syntactk Structures, The Hague, Mouton 1957. 2. Praktycznym zastosowaniem rekursji w ówczesnych czasach były dwa programy rozwiązujące problemy: LM-Logic Theorist oraz GPS-General Problem Solver, 3. Por. W. Rapaport, Logical Foundations for Belief Representation, Cognitive Science 10 (1986), 371-422; Tenże, Syntactk Semantics: Foundations of Computational Naturai-Language Understanding, w: Aspects of Artificial Intelligence, ed. J. H. Fetzer, Kluwer Academic Publishers, Dordrecht 1988, 105-111. 4. Tamże, 105. 5. Widać tu wyraźne nawiązanie Rapaporta do przykładu map kolejowych Carnapa, w których zostały usunięte nazwy stacji ale pozostały określenia poszczególnych trakcji. 6. Za komputacyjnym modelem opowiada się również np. Zenon Pylyshyn, Por.jego pracę, Computation and Cognition, Toward a Foudation for Cognitive Science, MIT Press, Cambridge 1984, 49-86. 7. Por, jego książkę na ten temat, Understanding Natural Language, Academic Press, New York 1972. 8. Y. A. Wilks, Grammar. Meaning and the Machinę Analisis of Natural Language, Routledge & Kcgan Paul, London 1972; T e n ż e , A 111 Preferential, Pattern-seeking, Semantics for Natural Inference, Artificial Intelligence, 6(1975), 53-74. 9. R. M Kempston, Semantic Theory, Cambridge University Press, Cambridge 1977. Co do za i przeciw w odniesieniu do modelu opartego na semantycznych wyrazach pierwotnych patrz również: Y. A. Wilks, Good and Bad Arguments for Semantic Primitives, Communication and Cognition, 10 (1978), 181-221. 10. Por. J. J. Katz, J. A. Fodor, The Structure of Semantic Theory, Language 39 (1963), 170-210. U. A. Newell, H. A, Simon, Human Problem SoMng, Prentice-Hall, Engelwood Cliffs 1972. 12. J. Haugeland, Artificial Intelligence. The Very Idea, MIT Press, Cambridge 1985, 112-117. 13. D. R. Hofstadter, Waking upfrom the Boolean Dream, or, Subcognithn as Computation, w: Metamagical Themas: Questing for the Essence of Mind and Pattern, ed. D.R, Hofsadter, Viking, New York 1985, 648. 14. Por. np. A. Sloman, Reference Without Causal Links, w: Sevenłh European Conference on Artificial Intelligence, ed. B. du Doulay, L. J. Steels, North Holland, Amsterdam 1986, 369-381. 15. W Rapaport, Syntactic Semantics: Foundations of Computational Naturai-Language Understanding, w: Aspects of Artificial Intelligence, ed. James H. Fetzer, Kluwer Academic Publishers, Dordrecht 1988, 81131. 16. Por. J. H. Fetzer, Artificial Intelligence - hs Scope and Limits, Kluwer Academic Publishers, Dordrecht 1990, 7. 17. Por. W. Rapaport, Syntactic Semantics: Foundations of Computational Naturai-Language Understanding, w: Aspects of artificial intelligence, ed. James H. Fetzer, Kluwer Academic Publishers, Dordrecht 1988, 117118. 18. Tamże. 19. Zwięzłym przedstawieniem analiz jest tabela nr 4. 20, Por. N. Jahren, Can Semanńcs be Syntactic?, w: Epistemology and Cognition, ed. J. H. Fetzer, Kluwer Academic Publishers, Dordrecht 1991, 170-171. 21. J. H. Fetzer, Artificial Intelligence ~ Its Scope and Limits, Kluwer Academic Pubiishers, Dordrecht 1990, 7-8.