4 Czy komputer przypomina mózg? W minionym wieku XX zyskało sobie popularność nazywanie komputerów „mózgami elektronowymi”. Ów splot dwóch przeciwstawnych znaczeń – z jednej strony biologiczny mózg, z drugiej martwe elektrony – oddawał dobrze ówczesne nadzieje. Złożone z elektronicznych podzespołów maszyny, tj. komputery cyfrowe, miały bowiem dosięgnąć sfer osiągalnych do tej pory wyłącznie dla mózgowo ugruntowanych intelektów. Miały, na przykład, dowodzić matematycznych twierdzeń. Czy komputer cyfrowy jest jednak tym właśnie wynalazkiem informatycznym, który przypomina mózg? Czy innego rodzaju maszyny – neurokomputery, komputery analogowe, komputery kwantowe... (lista nie jest zamknięta) – nie pełnią tej funkcji lepiej? Oto pytania, którym przyjrzymy się krytycznie, biorąc na celownik jeden tylko ze wspomnianych wynalazków alternatywnych. §1. Mózg – biologiczna centrala naszego organizmu Mówiąc obrazowo, ludzki mózg stanowi niewielką objętościowo, lecz niezwykle pojemną informacyjnie, sieć miniaturowych, biologicznych przełączników. Nazywa się je neuronami. Pojedyncze neurony wykonują operacje niezwykle proste i niemal identyczne: odbierają impulsy elektryczne, przetwarzają je, a następnie przekazują dalej. Komunikują się za pośrednictwem wyspecjalizowanych włókien nerwowych – dendrytów i aksonów. Co ważne, a co umyka często modelującym mózg naukowcom, neurony działają na zasadzie analogowości. Znaczy to, że dochodzące do nich mikro-impulsy są przetwarzane w sposób ciągły i proporcjonalnie: siła sygnału wyjściowego zależy w sposób ciągły od siły dochodzących doń mikro-impulsów. Wspomniane wyżej miniaturowe elementy tworzą wewnątrz mózgu rozległe i wyspecjalizowane skupiska, nazywane ośrodkami nerwowymi – mamy więc ośrodek mowy, ośrodek wzroku, ośrodki ruchowe i wiele innych. Dy- 54 4. Czy komputer przypomina mózg? namicznej współpracy między nimi przyświeca jeden cel ogólny: utrzymanie właściwego stanu organizmu. Cele szczegółowe zaś mają postać rozkazów wydawanych organom i układom wewnętrznym, na przykład „podnieś rękę”, „obróć głowę”, „zapamiętaj coś”. Choć nakreślony obraz słabo przystaje do ludzkiej samowiedzy, która karmi się bardziej poetyckim obrazem strumienia świadomości, to tak właśnie wygląda „mózgowa” rzeczywistość. Tak naprawdę – choć na drodze wewnętrznej obserwacji doświadczyć tego nie sposób – w naszych głowach trwa nieustanny ruch impulsów nerwowych. Ich rozmaite konfiguracje stoją u podstaw wszelkich naszych postrzeżeń i działań. Niektóre wywołują odruchy lub snute bezrefleksyjnie myśli, inne rozpoznajemy świadomie jako obrazy i słowa. Gdy zachodzi taka potrzeba, owe obrazy i słowa łączymy w większe całości – dzieje się tak, gdy rozumujemy, fantazjujemy, prowadzimy dyskusje, tworzymy... §2. Mózgopodobny wynalazek 2.1. Pośród wszystkich rodzajów aktywności mózgu największą rolę odgrywa uprawianie nauki, a w tym obmyślanie wynalazków. O ile do połowy XX wieku lwia ich część stanowiła pożyteczne udoskonalenia organów zmysłowych, to dopiero w ostatnich dziesięcioleciach ośmielono się porwać na coś, co umożliwia i koordynuje pracę tych organów, a więc sam mózg. Czytelnik domyśla się zapewne, o jaki wynalazek chodzi. Oczywiście o komputer cyfrowy (f zob. esej 12). Już w tym miejscu jednak wypada osłabić tę oczywistość. Okazuje się bowiem, że maszyna cyfrowa – mimo faktycznej wszechstronności i nadrzędności wobec innego rodzaju urządzeń, np. silników – pozwala imitować tylko pewne zewnętrzne przejawy aktywności mózgu. Dobry przykład to wspomniane wyżej dowodzenie twierdzeń. Natomiast ani jej budowa, ani zasady działania nie mają swojego bezpośredniego pierwowzoru po stronie ludzkiego mózgu. Komputer cyfrowy przypomina go niejako na wyższym poziomie – realizuje po prostu reguły logiki, a te człowiek sformułował świadomie na podstawie obserwacji własnych zachowań rozumnych. Wynalazkiem, który spełnia warunek bezpośredniego podobieństwa do mózgu jest sztuczna sieć neuronowa (w skrócie SSN). Pierwsze pomysły takich sieci narodziły się w latach 40-tych i 50-tych minionego wieku na pograniczu neurofizjologii i techniki. W roku 1946 dwaj amerykańscy uczeni, Warren McCulloch i Walter Pitts, zaproponowali matematyczny opis komórki nerwowej i zarysowali możliwość łączenia sztucznych komórek w większe układy do przetwarzania informacji. W roku 1957 dwaj inni uczeni, Frank Rosenblatt i Charles Wightman, skonstruowali pierwszą wielowarstwową sieć do rozpoznawania znaków, tzw. perceptron. Trzy lata §2. Mózgopodobny wynalazek 55 później opracowana przez Bernarda Widrowa sieć MADALINE stała się pierwszym mózgopodobnym produktem komercyjnym (por. [Tadeusiewicz 1993]). Już ta próbka nazewniczej różnorodności pokazuje, że wynalazek sztucznej sieci neuronowej – znów w przeciwieństwie do komputera cyfrowego – nie jest czymś jednolitym. Podkreśla to liczba mnoga w jego nazwie. Sygnalizuje ona głębokie różnice w – powiedzmy górnolotnie – filozofii działania poszczególnych sieci. Do sprawy tej powrócimy za chwilę, tymczasem zaś wydobądźmy z niewątpliwej różnorodności mózgopodobnych wynalazków pewne cechy wspólne. 2.2. Oto każda SSN składa się z ogromnej liczby identycznych elementów przetwarzających, nazywanych sztucznymi neuronami. Zależnie od przeznaczenia sieci neurony takie działają nieco inaczej, zwykle jednak wykonują kilka prostych operacji: odbierają sygnały od neuronów z nimi połączonych, odpowiednio wzmacniają je lub osłabiają, przeprowadzają na nich pewną zbiorczą operację matematyczną, a uzyskany wynik (sygnał wyjściowy) przekazują kolejnym neuronom. Co ważne, cała moc sieci, a więc wszystko to, co potrafi ona zdziałać, tkwi w strukturze połączeń międzyneuronalnych – połączenia takie umożliwiają nie tylko przekaz sygnału, ale również jego niezbędną modulację. Zamiast przywoływać skomplikowane, matematyczno-techniczne opisy działania sieci, odwołajmy się do prostego przykładu. Wyobraźmy sobie układ złożony z wielu warstw sztucznych neuronów, który chcielibyśmy wykorzystać do rozpoznawania ludzkich twarzy. Jego działanie zainicjujemy, wprowadzając na warstwę wejściową odpowiednio zakodowany obraz – na przykład poszczególne neurony otrzymają impulsy o sile proporcjonalnej do stopnia zaczernienia konkretnych punktów obrazu. Po ułamku sekundy odpowiednio przetworzony sygnał trafi do wszystkich neuronów drugiej warstwy, po chwili wszystkie neurony drugiej warstwy przekażą swoje impulsy neuronom trzeciej warstwy... Gdy ustali się sygnał elementów wyjściowych, będziemy mogli zinterpretować go jako decyzję: „to jest twarz osoby x”. Najciekawszą i jednocześnie najczęściej podkreślaną cechą sieci jest ich zdolność do samoorganizacji. Chodzi o to, że sieci nie wyposaża się w gotowy program działania, ale uczy się ją na przykładach. W trakcie treningu poszczególne neurony tak dostrajają swoje funkcje i połączenia z innymi neuronami, aby dostosować sposób działania do wyznaczanych celów. Owo dostrajanie polega najczęściej na zmianie tzw. wag połączeń międzyneuronalnych. Wagi te maleją lub rosną zgodnie z pewną matematyczną formułą, która wiąże tę zmianę z pobudzeniami innych neuronów i wielkością dochodzących do danego neuronu impulsów. Odwołując się do naszego przykładu, powiedzielibyśmy, że przed zastosowaniem sieci do rozpoznawania twarzy, trzeba ją poddać długotrwałemu treningowi na specjalnie dobranych parach sygnałów [zakodowany obraz twarzy, nazwisko osoby x]. 56 4. Czy komputer przypomina mózg? Powróćmy teraz do sygnalizowanej wyżej niejednolitości SSN. Nie porzucając jednak naszego przykładu. Otóż przykład ten wskazuje na jedną tylko klasę SSN zwaną sieciami wielowarstwowymi. W układach takich obowiązuje sztywny podział na kolejne warstwy neuronów, a sygnał jest przetwarzany w ściśle określonym porządku: od warstwy wejściowej, przez kolejne warstwy pośrednie, aż do warstwy wyjściowej, której stan interpretuje się jako decyzję sieci. Oprócz układów tego rodzaju konstruuje się jednak systemy nieco bardziej egzotyczne, określane jako sieci stanów stabilnych. Nazwa ta obrazuje dobrze ich ideę. Sieć składa się z identycznych komórek, które zależnie od stadium przetwarzania są traktowane jako wejściowe lub wyjściowe. W stadium zerowym wszystkie neurony sieci otrzymują pewien sygnał początkowy, interpretowany zbiorczo jako zakodowany bodziec. W kolejnych fazach czasowych wszystkie neurony wysyłają mikro-impulsy do neuronów z nimi połączonych, wskutek czego sieć zmienia swój całościowy stan, tj. całościowy rozkład pobudzeń neuronalnych. Gdy stan przestaje się już zmieniać, mówi się, że układ osiągnął jeden z wyróżnionych stanów stabilnych, który rozumie się – podobnie jak w przypadku ostatniej warstwy sieci wielowarstwowej – jako finalną reakcję sieci na początkowy bodziec. (Por. [Tadeusiewicz 1993]). 2.3. Chociaż sztuczne sieci neuronowe nie zyskały sobie takiej liczby zastosowań i takiego rozgłosu jak komputery cyfrowe, wielu specjalistów upatruje w nich poważnej konkurencji dla tych ostatnich. Z opinią tą współgrają coraz liczniejsze sukcesy komercyjne sieci. Stosuje się je między innymi do rozpoznawania obiektów, automatyzacji procesu uczenia się i przewidywania zdarzeń (chociażby giełdowych) na podstawie danych historycznych. A trzeba przyznać, że w tych właśnie obszarach tradycyjne komputery nie spisują się najlepiej. Niezależnie jednak od rozwiązań już wdrożonych mózgopodobny wynalazek ma pewne cechy, które wyjątkowo dobrze predysponują go do roli rywala maszyn cyfrowych. Przede wszystkim chodzi tu – mówiąc technicznie – o architekturę równoległą. Dzięki niej sieci przetwarzają dane równolegle właśnie, a nie tak jak komputery cyfrowe – sekwencyjnie (czyli po kolei). To zaś czyni je dużo szybszymi i zdolnymi do jednoczesnej realizacji wielu zadań. Kolejny atut sieci to ich mała wrażliwość na awarie – w przypadku uszkodzenia pewnych fragmentów układu ich funkcje mogą przejąć z powodzeniem, po odpowiednim przeuczeniu, inne grupy neuronów. I wreszcie rzecz najważniejsza: sieci działają w sposób adaptacyjny. Znaczy to, że ludzie nie muszą układać drobiazgowych programów ich pracy; wystarczy, że „zaprezentują” układowi pewne przykłady działań pożądanych, a ten sam „nauczy się”, jak postępować w sytuacjach podobnych. §3. Sieć jako model mózgu 57 §3. Sieć jako model mózgu Jeśli czytelnik docenił już wagę sztucznych sieci neuronowych jako pewnego rodzaju narzędzi – narzędzi konkurujących skutecznie z komputerami cyfrowymi – to może pójść o krok dalej i zapytać o innego rodzaju „służebną” funkcję sieci. Mamy na myśli funkcję czysto teoretyczną, a mianowicie funkcję modelowania. 3.1. Termin „model” robi we współczesnej nauce prawdziwą furorę. Dopełnia się go różnymi przymiotnikami, co potwierdza jego naukową wszechobecność. Mamy więc modele fizyczne (choćby słynny model atomu Bohra), modele psychologiczne (w tym różne modele pamięci), modele ekonomiczne (opisujące np. przepływy dóbr między różnymi gałęziami gospodarki). Mamy wreszcie zdecydowanego lidera w tym gronie, czyli modele informatyczne1. W ich kontekście musimy postawić pytanie: czy sztuczne sieci neuronowe stanowią dobry informatyczny model mózgu, a jeśli nie całego mózgu, to przynajmniej pewnych jego – powiedzmy po inżyniersku – wyspecjalizowanych podzespołów. Chcąc na nie odpowiedzieć w miarę sugestywnie, postąpimy kontrastowo i odwołamy się ponownie do informatycznego rywala sieci, a więc komputera cyfrowego. Jak zauważyliśmy we wstępie komputery takie zwano niegdyś „mózgami elektronowymi”, co w warstwie czysto językowej stawiało je w roli dobrych kandydatów na modele mózgu. Czy tak jednak w istocie jest? Otóż naszym zdaniem NIE, a oto garść argumentów krytycznych. Przede wszystkim – mimo pewnych czysto powierzchownych podobieństw co do realizowanych funkcji – komputer cyfrowy i mózg tak naprawdę przetwarzają dane inaczej: komputer sekwencyjnie, czyli operacja po operacji, a mózg równolegle, czyli wykonując wiele operacji na raz. Co więcej, dużo wskazuje na to (por. [Scott 1999]), że dane w mózgu są kodowane analogowo, za pomocą ciągłych wartości potencjałów elektrycznych, a w pamięci komputerów – cyfrowo, przy użyciu konkretnych i zawsze skończonych sekwencji zer i jedynek (wiąże się z tym o wiele szerszy dylemat, o którym więcej w f eseju 18). Kolejna sprawa budząca nieufność to kwestia kształtowania się mózgu. Jak wiadomo, mózg dorosłego człowieka rozwija się w procesie dojrzewania biologicznego, a jego zawartość to efekt długotrwałej i mocno zindywidualizowanej nauki. Tymczasem programy dla maszyn cyfrowych (nawet te uczące się) powstają jako coś od razu gotowego i przystosowanego do realizacji takich a nie innych celów. 1 Gwoli ścisłości trzeba dodać, co zresztą jeszcze bardziej podkreśla dominującą rolę modeli informatycznych, że współcześnie wiele modeli innego rodzaju, np. psychologicznych czy ekonomicznych, ma charakter zinformatyzowany. Są to w istocie pewne programy komputerowe lub algorytmiczne schematy opisujące zjawiska z określonej dziedziny (np. psychologii). 58 4. Czy komputer przypomina mózg? Zarysowane wyżej kwestie – będące realnymi przeszkodami w modelowaniu mózgu – nie dotyczą sieci neuropodobnych Te ostatnie bowiem działają właśnie równolegle – a nie sekwencyjnie, mogą przetwarzać dane analogowe – a nie tylko dyskretne, i są układami adaptacyjno-uczącymi się – a nie odgórnie zaprogramowanymi. Dzięki temu zaś pozwalają modelować nie tylko zewnętrzne przejawy wewnątrz-mózgowej aktywności (jak logiczne rozumowania), ale również tęże aktywność. To zaś wydaje się przemawiać za tezą, że SSN lepiej nadają się na model mózgu niż komputery cyfrowe. W tym miejscu jest dobra okazja na spostrzeżenie pewnej zaskakująco dowcipnej koincydencji językowej na poziomie akronimów, czyli nazwowych skrótowców. Otóż termin „komputer cyfrowy” można skrócić wdzięcznie do KC, co prawdopodobnie wielu starszym czytelnikom nasuwa natychmiastowe skojarzenie z pewnym organem, organem naczelnym dawnego systemu, a mianowicie z Komitetem Centralnym. A czym między innymi zajmował się Komitet Centralny? Ano, centralnym planowaniem. Ów KC w wydaniu politycznym miał ambicję (pozorowaną!) być jakimś superkomputerem, który mógłby opracować super-program dla peerelowskiej gospodarki. Nawet jednak gdyby polityczny KC pracował tak sprawnie jak informatyczny KC (co zakrawa na kolejną śmieszność), to i tak owo super-programistyczne zadanie powieść się nie mogło. A to ze względu na zbyt dużą złożoność (obliczeniową!) problemu centralnej regulacji gospodarki. KC jednak działał. A w działaniu swym bardziej przypominał scentralizowany i odgórnie programowany komputer cyfrowy niż rozproszoną i równoległą sztuczną sieć neuronową. Więcej o tych sprawach – choć w kontekście bardziej ogólnym i mniej humorystycznym – można przeczytać w eseju 20. 3.2. Zgodnie z przysłowiem jednak diabeł – diabeł modelu sieciowego – tkwi w szczegółach. Szczegół pierwszy to zbyt duża różnorodność sieci, a co za tym idzie poważny kłopot ze wskazaniem układu najbardziej adekwatnie modelującego mózg. Które rozwiązanie wybrać: wielowarstwową sieć typu perceptron czy układ o stanach stabilnych. A może jeszcze inny? A jeśli już dokonamy wyboru, to jaki algorytm uczenia się w niej zastosować. W szczególności: czy wystarczy, by algorytm taki miał uzasadnienie matematyczne, czy też musi przypominać schematy uczenia się identyfikowane przez psychologów i neurofizjologów? Oto niebłahe pytania, które muszą rozstrzygnąć modelujący mózg badacze. Drugi szczegół ma charakter bardziej techniczny, ale też bardziej fundamentalny. Chodzi o możliwą matematyczną równoważność sztucznych sieci neuronowych (SSN) uniwersalnej maszynie Turinga (UMT). Oznaczmy ją jako (UMT ≡ SSN). Kwestia ta stanowi po dziś dzień otwarte, czyli nierozwiązane, zagadnienie matematyczne (której to otwartości sprzyja niewątpliwie brak jednolitej teorii różnych SSN). Jak wiadomo, UMT stanowi logiczny schemat działania komputera cyfrowego (f zob. esej 10, §2). Gdyby więc okazało się, że równoważność (UMT ≡ SSN) zachodzi, to należałoby zwątpić w zasadniczą odmienność modeli mózgu 59 opartych na sieciach neuropodobnych. Byłyby to tylko nieco inaczej skonstruowane i z innych analogii wywiedzione maszyny cyfrowe. Wszystko zaś, co dałoby się wyjaśnić i przewidzieć za ich pomocą, dałoby się wykonać równie dobrze za pomocą pewnej skomplikowanej maszyny Turinga. A jedyne cechy, jakie odróżniałyby obydwie konstrukcje to prostota i czytelność z punktu widzenia człowieka – człowieka nawykłego (również za sprawą kultury) do pewnych obrazów, analogii i objaśnień. Użyty w ostatnim akapicie tryb przypuszczający pozostawia czytelnika (jak również autora) w rozterce. Czy mózg przypomina bardziej komputer cyfrowy, czy bardziej neuro-komputer? Czy użyta w ostatnim pytaniu alternatywa ma sens? Czy powstanie kiedyś jednolita teoria sztucznych sieci neuronowych, która pozwoli sens ten rozjaśnić? Oto pytania, które – jak na razie – muszą pozostać bez odpowiedzi. Czym jednak byłaby nauka i po cóż miałby istnieć ludzki umysł, gdyby brakło nam frapujących pytań? e WARTO PRZECZYTAĆ Churchland P. S., Mechanizm rozumu, siedlisko duszy. Filozoficzna podróż wgłąb mózgu, Fundacja Aletheia, Warszawa 2002. Pöppel E., Edingshaus A.L., Mózg – tajemniczy kosmos, Państwowy Instytut Wydawniczy, Warszawa 1998. Tadeusiewicz R., Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa 1993.