Czy komputer przypomina mózg?

advertisement
4
Czy komputer przypomina mózg?
W minionym wieku XX zyskało sobie popularność nazywanie komputerów
„mózgami elektronowymi”. Ów splot dwóch przeciwstawnych znaczeń –
z jednej strony biologiczny mózg, z drugiej martwe elektrony – oddawał dobrze ówczesne nadzieje. Złożone z elektronicznych podzespołów maszyny,
tj. komputery cyfrowe, miały bowiem dosięgnąć sfer osiągalnych do tej pory
wyłącznie dla mózgowo ugruntowanych intelektów. Miały, na przykład, dowodzić matematycznych twierdzeń.
Czy komputer cyfrowy jest jednak tym właśnie wynalazkiem informatycznym, który przypomina mózg? Czy innego rodzaju maszyny – neurokomputery, komputery analogowe, komputery kwantowe... (lista nie jest zamknięta)
– nie pełnią tej funkcji lepiej? Oto pytania, którym przyjrzymy się krytycznie, biorąc na celownik jeden tylko ze wspomnianych wynalazków alternatywnych.
§1. Mózg – biologiczna centrala naszego organizmu
Mówiąc obrazowo, ludzki mózg stanowi niewielką objętościowo, lecz niezwykle pojemną informacyjnie, sieć miniaturowych, biologicznych przełączników. Nazywa się je neuronami. Pojedyncze neurony wykonują operacje niezwykle proste i niemal identyczne: odbierają impulsy elektryczne, przetwarzają je, a następnie przekazują dalej. Komunikują się za pośrednictwem wyspecjalizowanych włókien nerwowych – dendrytów i aksonów. Co ważne,
a co umyka często modelującym mózg naukowcom, neurony działają na zasadzie analogowości. Znaczy to, że dochodzące do nich mikro-impulsy są przetwarzane w sposób ciągły i proporcjonalnie: siła sygnału wyjściowego zależy
w sposób ciągły od siły dochodzących doń mikro-impulsów.
Wspomniane wyżej miniaturowe elementy tworzą wewnątrz mózgu rozległe i wyspecjalizowane skupiska, nazywane ośrodkami nerwowymi – mamy
więc ośrodek mowy, ośrodek wzroku, ośrodki ruchowe i wiele innych. Dy-
54
4. Czy komputer przypomina mózg?
namicznej współpracy między nimi przyświeca jeden cel ogólny: utrzymanie
właściwego stanu organizmu. Cele szczegółowe zaś mają postać rozkazów
wydawanych organom i układom wewnętrznym, na przykład „podnieś rękę”,
„obróć głowę”, „zapamiętaj coś”.
Choć nakreślony obraz słabo przystaje do ludzkiej samowiedzy, która
karmi się bardziej poetyckim obrazem strumienia świadomości, to tak właśnie
wygląda „mózgowa” rzeczywistość. Tak naprawdę – choć na drodze
wewnętrznej obserwacji doświadczyć tego nie sposób – w naszych głowach
trwa nieustanny ruch impulsów nerwowych. Ich rozmaite konfiguracje stoją
u podstaw wszelkich naszych postrzeżeń i działań. Niektóre wywołują odruchy lub snute bezrefleksyjnie myśli, inne rozpoznajemy świadomie jako obrazy
i słowa. Gdy zachodzi taka potrzeba, owe obrazy i słowa łączymy w większe
całości – dzieje się tak, gdy rozumujemy, fantazjujemy, prowadzimy dyskusje,
tworzymy...
§2. Mózgopodobny wynalazek
2.1. Pośród wszystkich rodzajów aktywności mózgu największą rolę odgrywa
uprawianie nauki, a w tym obmyślanie wynalazków. O ile do połowy
XX wieku lwia ich część stanowiła pożyteczne udoskonalenia organów
zmysłowych, to dopiero w ostatnich dziesięcioleciach ośmielono się porwać
na coś, co umożliwia i koordynuje pracę tych organów, a więc sam mózg. Czytelnik domyśla się zapewne, o jaki wynalazek chodzi. Oczywiście o komputer
cyfrowy (f zob. esej 12).
Już w tym miejscu jednak wypada osłabić tę oczywistość. Okazuje się bowiem, że maszyna cyfrowa – mimo faktycznej wszechstronności i nadrzędności
wobec innego rodzaju urządzeń, np. silników – pozwala imitować tylko
pewne zewnętrzne przejawy aktywności mózgu. Dobry przykład to wspomniane wyżej dowodzenie twierdzeń. Natomiast ani jej budowa, ani zasady
działania nie mają swojego bezpośredniego pierwowzoru po stronie ludzkiego
mózgu. Komputer cyfrowy przypomina go niejako na wyższym poziomie –
realizuje po prostu reguły logiki, a te człowiek sformułował świadomie na
podstawie obserwacji własnych zachowań rozumnych. Wynalazkiem, który
spełnia warunek bezpośredniego podobieństwa do mózgu jest sztuczna sieć
neuronowa (w skrócie SSN).
Pierwsze pomysły takich sieci narodziły się w latach 40-tych i 50-tych minionego wieku na pograniczu neurofizjologii i techniki. W roku 1946 dwaj
amerykańscy uczeni, Warren McCulloch i Walter Pitts, zaproponowali matematyczny opis komórki nerwowej i zarysowali możliwość łączenia sztucznych
komórek w większe układy do przetwarzania informacji. W roku 1957 dwaj
inni uczeni, Frank Rosenblatt i Charles Wightman, skonstruowali pierwszą
wielowarstwową sieć do rozpoznawania znaków, tzw. perceptron. Trzy lata
§2. Mózgopodobny wynalazek
55
później opracowana przez Bernarda Widrowa sieć MADALINE stała się pierwszym mózgopodobnym produktem komercyjnym (por. [Tadeusiewicz 1993]).
Już ta próbka nazewniczej różnorodności pokazuje, że wynalazek sztucznej sieci neuronowej – znów w przeciwieństwie do komputera cyfrowego –
nie jest czymś jednolitym. Podkreśla to liczba mnoga w jego nazwie. Sygnalizuje ona głębokie różnice w – powiedzmy górnolotnie – filozofii działania
poszczególnych sieci. Do sprawy tej powrócimy za chwilę, tymczasem zaś
wydobądźmy z niewątpliwej różnorodności mózgopodobnych wynalazków
pewne cechy wspólne.
2.2. Oto każda SSN składa się z ogromnej liczby identycznych elementów
przetwarzających, nazywanych sztucznymi neuronami. Zależnie od przeznaczenia sieci neurony takie działają nieco inaczej, zwykle jednak wykonują kilka
prostych operacji: odbierają sygnały od neuronów z nimi połączonych, odpowiednio wzmacniają je lub osłabiają, przeprowadzają na nich pewną zbiorczą
operację matematyczną, a uzyskany wynik (sygnał wyjściowy) przekazują kolejnym neuronom. Co ważne, cała moc sieci, a więc wszystko to, co potrafi
ona zdziałać, tkwi w strukturze połączeń międzyneuronalnych – połączenia
takie umożliwiają nie tylko przekaz sygnału, ale również jego niezbędną modulację.
Zamiast przywoływać skomplikowane, matematyczno-techniczne opisy
działania sieci, odwołajmy się do prostego przykładu. Wyobraźmy sobie układ
złożony z wielu warstw sztucznych neuronów, który chcielibyśmy wykorzystać do rozpoznawania ludzkich twarzy. Jego działanie zainicjujemy, wprowadzając na warstwę wejściową odpowiednio zakodowany obraz – na przykład
poszczególne neurony otrzymają impulsy o sile proporcjonalnej do stopnia
zaczernienia konkretnych punktów obrazu. Po ułamku sekundy odpowiednio
przetworzony sygnał trafi do wszystkich neuronów drugiej warstwy, po chwili
wszystkie neurony drugiej warstwy przekażą swoje impulsy neuronom trzeciej warstwy... Gdy ustali się sygnał elementów wyjściowych, będziemy mogli
zinterpretować go jako decyzję: „to jest twarz osoby x”.
Najciekawszą i jednocześnie najczęściej podkreślaną cechą sieci jest ich
zdolność do samoorganizacji. Chodzi o to, że sieci nie wyposaża się w gotowy
program działania, ale uczy się ją na przykładach. W trakcie treningu poszczególne neurony tak dostrajają swoje funkcje i połączenia z innymi neuronami, aby dostosować sposób działania do wyznaczanych celów. Owo dostrajanie polega najczęściej na zmianie tzw. wag połączeń międzyneuronalnych.
Wagi te maleją lub rosną zgodnie z pewną matematyczną formułą, która wiąże
tę zmianę z pobudzeniami innych neuronów i wielkością dochodzących do
danego neuronu impulsów. Odwołując się do naszego przykładu, powiedzielibyśmy, że przed zastosowaniem sieci do rozpoznawania twarzy, trzeba ją
poddać długotrwałemu treningowi na specjalnie dobranych parach sygnałów
[zakodowany obraz twarzy, nazwisko osoby x].
56
4. Czy komputer przypomina mózg?
Powróćmy teraz do sygnalizowanej wyżej niejednolitości SSN. Nie porzucając jednak naszego przykładu. Otóż przykład ten wskazuje na jedną tylko
klasę SSN zwaną sieciami wielowarstwowymi. W układach takich obowiązuje
sztywny podział na kolejne warstwy neuronów, a sygnał jest przetwarzany
w ściśle określonym porządku: od warstwy wejściowej, przez kolejne warstwy pośrednie, aż do warstwy wyjściowej, której stan interpretuje się jako
decyzję sieci.
Oprócz układów tego rodzaju konstruuje się jednak systemy nieco bardziej egzotyczne, określane jako sieci stanów stabilnych. Nazwa ta obrazuje
dobrze ich ideę. Sieć składa się z identycznych komórek, które zależnie od stadium przetwarzania są traktowane jako wejściowe lub wyjściowe. W stadium
zerowym wszystkie neurony sieci otrzymują pewien sygnał początkowy, interpretowany zbiorczo jako zakodowany bodziec. W kolejnych fazach czasowych
wszystkie neurony wysyłają mikro-impulsy do neuronów z nimi połączonych,
wskutek czego sieć zmienia swój całościowy stan, tj. całościowy rozkład pobudzeń neuronalnych. Gdy stan przestaje się już zmieniać, mówi się, że układ
osiągnął jeden z wyróżnionych stanów stabilnych, który rozumie się – podobnie jak w przypadku ostatniej warstwy sieci wielowarstwowej – jako finalną
reakcję sieci na początkowy bodziec. (Por. [Tadeusiewicz 1993]).
2.3. Chociaż sztuczne sieci neuronowe nie zyskały sobie takiej liczby zastosowań i takiego rozgłosu jak komputery cyfrowe, wielu specjalistów upatruje
w nich poważnej konkurencji dla tych ostatnich. Z opinią tą współgrają coraz
liczniejsze sukcesy komercyjne sieci. Stosuje się je między innymi do rozpoznawania obiektów, automatyzacji procesu uczenia się i przewidywania zdarzeń (chociażby giełdowych) na podstawie danych historycznych. A trzeba
przyznać, że w tych właśnie obszarach tradycyjne komputery nie spisują się
najlepiej.
Niezależnie jednak od rozwiązań już wdrożonych mózgopodobny wynalazek ma pewne cechy, które wyjątkowo dobrze predysponują go do roli rywala
maszyn cyfrowych. Przede wszystkim chodzi tu – mówiąc technicznie – o architekturę równoległą. Dzięki niej sieci przetwarzają dane równolegle właśnie,
a nie tak jak komputery cyfrowe – sekwencyjnie (czyli po kolei). To zaś czyni
je dużo szybszymi i zdolnymi do jednoczesnej realizacji wielu zadań. Kolejny
atut sieci to ich mała wrażliwość na awarie – w przypadku uszkodzenia pewnych fragmentów układu ich funkcje mogą przejąć z powodzeniem, po odpowiednim przeuczeniu, inne grupy neuronów. I wreszcie rzecz najważniejsza:
sieci działają w sposób adaptacyjny. Znaczy to, że ludzie nie muszą układać
drobiazgowych programów ich pracy; wystarczy, że „zaprezentują” układowi
pewne przykłady działań pożądanych, a ten sam „nauczy się”, jak postępować
w sytuacjach podobnych.
§3. Sieć jako model mózgu
57
§3. Sieć jako model mózgu
Jeśli czytelnik docenił już wagę sztucznych sieci neuronowych jako pewnego
rodzaju narzędzi – narzędzi konkurujących skutecznie z komputerami cyfrowymi – to może pójść o krok dalej i zapytać o innego rodzaju „służebną”
funkcję sieci. Mamy na myśli funkcję czysto teoretyczną, a mianowicie funkcję
modelowania.
3.1. Termin „model” robi we współczesnej nauce prawdziwą furorę. Dopełnia
się go różnymi przymiotnikami, co potwierdza jego naukową wszechobecność. Mamy więc modele fizyczne (choćby słynny model atomu Bohra),
modele psychologiczne (w tym różne modele pamięci), modele ekonomiczne
(opisujące np. przepływy dóbr między różnymi gałęziami gospodarki). Mamy
wreszcie zdecydowanego lidera w tym gronie, czyli modele informatyczne1.
W ich kontekście musimy postawić pytanie: czy sztuczne sieci neuronowe stanowią dobry informatyczny model mózgu, a jeśli nie całego mózgu, to przynajmniej pewnych jego – powiedzmy po inżyniersku – wyspecjalizowanych
podzespołów.
Chcąc na nie odpowiedzieć w miarę sugestywnie, postąpimy kontrastowo
i odwołamy się ponownie do informatycznego rywala sieci, a więc komputera cyfrowego. Jak zauważyliśmy we wstępie komputery takie zwano niegdyś
„mózgami elektronowymi”, co w warstwie czysto językowej stawiało je w roli
dobrych kandydatów na modele mózgu. Czy tak jednak w istocie jest? Otóż
naszym zdaniem NIE, a oto garść argumentów krytycznych.
Przede wszystkim – mimo pewnych czysto powierzchownych podobieństw co do realizowanych funkcji – komputer cyfrowy i mózg tak naprawdę
przetwarzają dane inaczej: komputer sekwencyjnie, czyli operacja po operacji,
a mózg równolegle, czyli wykonując wiele operacji na raz. Co więcej, dużo
wskazuje na to (por. [Scott 1999]), że dane w mózgu są kodowane analogowo,
za pomocą ciągłych wartości potencjałów elektrycznych, a w pamięci komputerów – cyfrowo, przy użyciu konkretnych i zawsze skończonych sekwencji zer
i jedynek (wiąże się z tym o wiele szerszy dylemat, o którym więcej w f eseju
18). Kolejna sprawa budząca nieufność to kwestia kształtowania się mózgu.
Jak wiadomo, mózg dorosłego człowieka rozwija się w procesie dojrzewania
biologicznego, a jego zawartość to efekt długotrwałej i mocno zindywidualizowanej nauki. Tymczasem programy dla maszyn cyfrowych (nawet te uczące
się) powstają jako coś od razu gotowego i przystosowanego do realizacji takich
a nie innych celów.
1
Gwoli ścisłości trzeba dodać, co zresztą jeszcze bardziej podkreśla dominującą rolę modeli informatycznych, że współcześnie wiele modeli innego rodzaju, np. psychologicznych czy
ekonomicznych, ma charakter zinformatyzowany. Są to w istocie pewne programy komputerowe lub algorytmiczne schematy opisujące zjawiska z określonej dziedziny (np. psychologii).
58
4. Czy komputer przypomina mózg?
Zarysowane wyżej kwestie – będące realnymi przeszkodami w modelowaniu mózgu – nie dotyczą sieci neuropodobnych Te ostatnie bowiem działają
właśnie równolegle – a nie sekwencyjnie, mogą przetwarzać dane analogowe
– a nie tylko dyskretne, i są układami adaptacyjno-uczącymi się – a nie
odgórnie zaprogramowanymi. Dzięki temu zaś pozwalają modelować nie
tylko zewnętrzne przejawy wewnątrz-mózgowej aktywności (jak logiczne rozumowania), ale również tęże aktywność. To zaś wydaje się przemawiać za
tezą, że SSN lepiej nadają się na model mózgu niż komputery cyfrowe.
W tym miejscu jest dobra okazja na spostrzeżenie pewnej zaskakująco dowcipnej koincydencji językowej na poziomie akronimów, czyli nazwowych skrótowców. Otóż termin „komputer cyfrowy” można skrócić wdzięcznie do KC, co prawdopodobnie wielu
starszym czytelnikom nasuwa natychmiastowe skojarzenie z pewnym organem, organem
naczelnym dawnego systemu, a mianowicie z Komitetem Centralnym. A czym między
innymi zajmował się Komitet Centralny? Ano, centralnym planowaniem.
Ów KC w wydaniu politycznym miał ambicję (pozorowaną!) być jakimś superkomputerem, który mógłby opracować super-program dla peerelowskiej gospodarki. Nawet jednak gdyby polityczny KC pracował tak sprawnie jak informatyczny KC (co zakrawa na kolejną śmieszność), to i tak owo super-programistyczne zadanie powieść się
nie mogło. A to ze względu na zbyt dużą złożoność (obliczeniową!) problemu centralnej
regulacji gospodarki.
KC jednak działał. A w działaniu swym bardziej przypominał scentralizowany i odgórnie
programowany komputer cyfrowy niż rozproszoną i równoległą sztuczną sieć neuronową. Więcej o tych sprawach – choć w kontekście bardziej ogólnym i mniej humorystycznym – można przeczytać w eseju 20.
3.2. Zgodnie z przysłowiem jednak diabeł – diabeł modelu sieciowego – tkwi
w szczegółach. Szczegół pierwszy to zbyt duża różnorodność sieci, a co za tym
idzie poważny kłopot ze wskazaniem układu najbardziej adekwatnie modelującego mózg. Które rozwiązanie wybrać: wielowarstwową sieć typu perceptron czy układ o stanach stabilnych. A może jeszcze inny? A jeśli już dokonamy
wyboru, to jaki algorytm uczenia się w niej zastosować. W szczególności: czy
wystarczy, by algorytm taki miał uzasadnienie matematyczne, czy też musi
przypominać schematy uczenia się identyfikowane przez psychologów i neurofizjologów? Oto niebłahe pytania, które muszą rozstrzygnąć modelujący
mózg badacze.
Drugi szczegół ma charakter bardziej techniczny, ale też bardziej fundamentalny. Chodzi o możliwą matematyczną równoważność sztucznych sieci
neuronowych (SSN) uniwersalnej maszynie Turinga (UMT). Oznaczmy ją jako
(UMT ≡ SSN). Kwestia ta stanowi po dziś dzień otwarte, czyli nierozwiązane,
zagadnienie matematyczne (której to otwartości sprzyja niewątpliwie brak jednolitej teorii różnych SSN).
Jak wiadomo, UMT stanowi logiczny schemat działania komputera cyfrowego (f zob. esej 10, §2). Gdyby więc okazało się, że równoważność (UMT ≡
SSN) zachodzi, to należałoby zwątpić w zasadniczą odmienność modeli mózgu
59
opartych na sieciach neuropodobnych. Byłyby to tylko nieco inaczej skonstruowane i z innych analogii wywiedzione maszyny cyfrowe. Wszystko zaś, co
dałoby się wyjaśnić i przewidzieć za ich pomocą, dałoby się wykonać równie
dobrze za pomocą pewnej skomplikowanej maszyny Turinga. A jedyne cechy, jakie odróżniałyby obydwie konstrukcje to prostota i czytelność z punktu
widzenia człowieka – człowieka nawykłego (również za sprawą kultury) do
pewnych obrazów, analogii i objaśnień.
Użyty w ostatnim akapicie tryb przypuszczający pozostawia czytelnika (jak
również autora) w rozterce. Czy mózg przypomina bardziej komputer cyfrowy, czy bardziej neuro-komputer? Czy użyta w ostatnim pytaniu alternatywa ma sens? Czy powstanie kiedyś jednolita teoria sztucznych sieci neuronowych, która pozwoli sens ten rozjaśnić?
Oto pytania, które – jak na razie – muszą pozostać bez odpowiedzi. Czym
jednak byłaby nauka i po cóż miałby istnieć ludzki umysł, gdyby brakło nam
frapujących pytań?
e
WARTO PRZECZYTAĆ
Churchland P. S., Mechanizm rozumu, siedlisko duszy. Filozoficzna podróż wgłąb
mózgu, Fundacja Aletheia, Warszawa 2002.
Pöppel E., Edingshaus A.L., Mózg – tajemniczy kosmos, Państwowy Instytut
Wydawniczy, Warszawa 1998.
Tadeusiewicz R., Sieci neuronowe, Akademicka Oficyna Wydawnicza RM,
Warszawa 1993.
Download