Pobrane z czasopisma http://kulturaiwartosci.journals.umcs.pl Data: 19/07/2017 01:17:49 Kultura i Wartości ISSN 2299-7806 Nr 20/2016 http://dx.doi.org/10.17951/kw.2016.20.183 Czy powinniśmy się obawiać sztucznej inteligencji? Recenzja: Nick Bostrom, Superinteligencja. Scenariusze, strategie, zagrożenia, tłum. D. Konowrocka-Sawa, Wydawnictwo Helion, Gliwice 2016 (s. 488) Kamil Szymański1 Prawdopodobnie większość z nas styka się na co dzień z algorytmami, które można uznać za przejawy sztucznej inteligencji (SI). Siadając rano do komputera i logując się do Facebooka, otrzymujemy dawkę posegregowanych informacji na temat naszych znajomych, a także związanych z polubionymi przez nas stronami. Nad tym, byśmy otrzymywali tylko te wiadomości, na których nam zależy, czuwają algorytmy, które analizują nasze upodobania i na ich podstawie wyświetlają nam odpowiednie treści. Innym przykładem sztucznej inteligencji może być Siri – inteligentny osobisty asystent, który znajduje się w smartfonach marki Apple. Dzięki funkcji rozpoznawania głosu mamy możliwość „kazać jej” wezwać taksówkę, zaś sygnał GPS skieruje do nas pożądany pojazd. Możemy poprosić ją o znalezienie restauracji w pobliżu nas, w których, przykładowo, serwują smaczne burgery. Możemy nawet posłuchać dowcipów, które opowiada, czy porozmawiać o pogodzie. Ilość sprzętów, jakie posiadają algorytmy, które możemy nazwać „prostą” sztuczną inteligencją jest ogromna i ciągle rośnie – autonomiczne samochody, lodówki, które „same robią zakupy”, pociągi w metrze. KAMIL SZYMALSKI, doktorant nauk o poznaniu i komunikacji społecznej na Wydziale Filozofii i Socjologii UMCS w Lublinie, doktorant filozofii na Wydziale Filozofii KUL; adres do korespondencji: Instytut Filozofii UMCS, Pl. M. Curie-Skłodowskiej 4, 20-031, Lublin; e-mail: [email protected] 183 Pobrane z czasopisma http://kulturaiwartosci.journals.umcs.pl Data: 19/07/2017 01:17:49 Technika staje się coraz bardziej „niezależna” od człowieka. Pojawienie się sztucznej inteligencji stanowić będzie dla człowieka ogromne ułatwienie w jego codziennych działaniach. Jednak wielu badaczy, a także osobistości związanych ze współczesnym rozwojem techniki, jak Elton Musk1 czy Steven Hawking2, przestrzegają przed bezkrytycznym, i pozbawionym nadzoru rozwoju SI, która może faktycznie w przyszłości zagrozić człowiekowi i jego istnieniu. Kwestia sztucznej inteligencji poruszana jest przez Nicka Bostroma w jego najnowszej książce zatytułowanej Superinteligencja. Scenariusze, strategie, zagrożenia (oryginalne wydanie w roku 2014, przekład w języku polskim w roku 2016). Nick Bostom, profesor Uniwersytetu Oxfordzkiego, jest kierownikiem Instytutu Przyszłości Ludzkości3. Zajmuje się problemami rozwoju techniki, transhumanizmem oraz związanym z tym zagrożeniami egzystencjalnymi. Jego najnowsza książka poświęcona jest zagadnieniu „zaawansowanej” i w pełni autonomicznej sztucznej inteligencji: historii rozwoju owej koncepcji, jej możliwych sposobów funkcjonowania oraz zagrożeniom, które mogą wyniknąć z jej powstania. Książka zawiera piętnaście rozdziałów, które dodatkowo podzielone są na podrozdziały (od trzech do dziewięciu). Rozdziały zatytułowane są kolejno: Dotychczasowe dokonania i obecne możliwości; Ścieżki wiodące ku superinteligencji; Formy superinteligencji; Dynamika eksplozji inteligencji; Decydująca przewaga strategiczna; Poznawcze supermoce; Pobudki superinteligencji; Czy czeka nas zagłada?; Problem kontroli; Wyrocznie; Dżiny, suwereni i narzędzia; Scenariusze wielobiegunowości; Zaszczepianie wartości; Wybór kryteriów wyboru; Perspektywa strategiczna; Moment krytyczny. Poszczególne rozdziały są podzielone równomiernie, od około 30 do 40 stron, dając łącznie z wstępem, zakończeniem i obszerną bibliografią – 488 stron. Największą wadą polskiego wydania jest umieszczenie przypisów na końcu książki. Liczba przypisów waha się od 40 do 60 dla każdego rozdziału, a całość przypisów zawiera się na 78 stronach, co znacznie utrudnia wygodne korzystanie z książki. https://www.theguardian.com/technology/2014/oct/27/elon-musk-artificial-intelligence-ai-biggest-existential-threat [dostęp: 10.02.2017]. 2 http://www.bbc.com/news/technology-30290540 [dostęp: 10.02.2017]. 3 http://www.philosophy.ox.ac.uk/members/other_faculty/bostrom_nick [dostęp: 10.02.2017]. 1 184 Pobrane z czasopisma http://kulturaiwartosci.journals.umcs.pl Data: 19/07/2017 01:17:49 Kamil Szymański, Czy powinniśmy się obawiać sztucznej inteligencji? Pierwszy rozdział to wprowadzeni do problematyki sztucznej inteligencji. Autor dokonuje spojrzenia wstecz na rozwój gatunku ludzkiego, wskazując na wciąż przyśpieszający rozwój naukowo-techniczny, nawiązując przy tym do koncepcji osobliwości (ang. Singularity) zaproponowanej przez Raya Kurtzweila. Wychodząc z przesłanki przyśpieszenia postępu technicznego, sugeruje, że sztuczna inteligencja może objawić się znacznie szybciej, niż prognozuje to wielu naukowców. Przypomina jednak okres połowy XX wieku, kiedy to w nawiązaniu do rozwoju komputerów pojawiły się pomysły, by uczynić maszynę „inteligentną”. Prognozowano, że okres od wynalezienia komputerów do pojawienia się SI wyniesie około 20 lat. Jednak, jak świadczy dotychczasowa historia, wraz z rozwojem badań nad sztuczną inteligencją w ośrodkach badawczych USA okazywało się, że te nad wyraz optymistyczne prognozy nie mogą być urzeczywistnione. Dodatkowo Bostrom przywołuje wydarzenie, które zapoczątkowało badania oraz prace nad opracowaniem SI – sześciotygodniowe warsztaty w Dartmouth College pod nazwą Dartmouth Summer Research on Artifical Inteligence w 1956 roku. Był to okres, gdy starano się udowodnić, że sztuczna inteligencja jest w stanie działać w świecie, np. dokonywać obliczeń czy wymyślać dowody logiczne4. Okazało się, że wraz z rozwojem komputeryzacji oraz techniki, komputer może pełnić funkcję „psychoterapeuty” czy wykorzystywać elementy, podłączone do niego jak sztuczne ramię, do działania w przestrzeni, w której się znajduje. Bostrom wskazuje, że wraz z rozwojem badań nad SI, jej możliwości stale się rozwijają. Już teraz wiele algorytmów góruje nad człowiekiem w takich grach jak warcaby, szachy, Scrabble5, czy Azjatycka gra GO6. Choć algorytmy te odnoszą sukcesy w swych dyscyplinach, to jednak, jak zauważa autor, są one wyspecjalizowane do działania jedynie w obrębie swojej dziedziny, przez co nie można przypisać im inteligencji. Przeprowadzono jednak ankiety z udziałem ekspertów w zakresie kognitywistki i badań nad sztuczną inteligencją, pytając ich o szacunkową datę zaistnienia maszyny, która dorówna inteligencją człowiekowi. Według tych ekspertów szanse na zaistnienie SI o możliwościach człowieka w 2050 roku będą wynosiły 50%, zaś około 2080 roku aż 90%7. 4 N. Bostrom, Superinteligencja: scenariusze, strategie, zagrożenia, tłum. D. KonowrockaSawa, Wydawnictwo Helion, Gliwice 2016, s. 24. 5 Tamże, s. 32. 6 https://qz.com/639952/googles-ai-won-the-game-go-by-defying-millennia-of-basic-human-instinct/ [dostęp: 10.02.2017]. 7 N. Bostrom, Superinteligencja, dz. cyt., s. 42. 185 Pobrane z czasopisma http://kulturaiwartosci.journals.umcs.pl Data: 19/07/2017 01:17:49 Kamil Szymański, Czy powinniśmy się obawiać sztucznej inteligencji? Drugi rozdział książki zajmuje się sposobami zaistnienie „autonomicznej” SI. Według Bostroma, możliwe tu metody to: rozwój sztucznej inteligencji, emulacja mózgu, poznanie biologiczne, interfejsy mózg-komputer oraz budowa sieci i organizacji. Pomysł oparty o rozwój SI zakłada, że w najbliższym czasie dzięki wzrostowi mocy obliczeniowej oraz udoskonalaniu emulacji mózgu, komputer będzie w stanie wykształcić coś w rodzaju „świadomości”, która będzie podobna do świadomości człowieka. Emulacja mózgu opiera się z kolei na zeskanowaniu i odwzorowaniu struktur obliczeniowych ludzkiego mózgu w przystosowanym ku temu urządzeniu, np. komputerze. Dzięki temu urządzenie uzyskałoby „świadomość”, ponieważ funkcjonowałby jako dokładna kopia „matematyczna” danej osoby, której mózg został zeskanowany. Biorąc pod uwagę niemalże nieograniczone możliwości przyśpieszenia mocy obliczeniowej danej maszyny, tego typu świadomość prawdopodobnie byłaby w stanie przewyższać intelektualnie „zwykłych” ludzi. Trzecim sposobem na uzyskanie superinteligencji jest „ulepszenie” zdolności myślnych człowieka. Można tego dokonać poprzez eugenikę, ale, jak zauważa Bostrom, budzi to poważne kontrowersje natury moralnej i politycznej. Inna możliwość to wykorzystanie leków poprawiających zdolności mózgu czy manipulacje na poziomie genów w zarodkach lub nawet u dorosłych osób. Inny wariant to wykorzystanie możliwości obecnej techniki – jako syntezy ludzkiego mózgu oraz artefaktów, np. instalowanie chirurgiczne implantów czy procesorów, poprawiających pamięć lub zdolności analityczne. Ostatnią metodą na stworzenie superinteligencji jest zbudowanie ogromnej sieci i organizacji, która w jedną całość łączyłaby możliwości kognitywne pojedynczych ludzi, komputerów oraz innych urządzeń. Jednym z przejawów tego rodzaju działania jest powstanie i wykorzystanie Internetu do wręcz nieograniczonej wymiany informacji oraz idei. W trzecim rozdziale autor przedstawia możliwe formy, jakie może przybrać superinteligencja. Pierwszą jest superinteligencja szybka, posiadająca możliwości równe człowiekowi, jednakże znacznie szybsza. Drugą jest superinteligencja zbiorowa, która, dzięki temu, że składa się z wielu jednostek, jako całość przewyższa wszelkie inne inteligentne formy życia. Jest to nawiązanie do superinteligencji opartej na sieci i organizacji. Trzecią forma jest superinteligencja jakościowa, która jest równie „szybka” jak ludzki umysł, jednakże, właśnie co do inteligencji, go przewyższa. W rozdziale czwartym Bostrom analizuje, ile czasu potrzeba, by superinteligencja mogła się pojawić. Zauważa, że przyśpieszenie naukowo-tech186 Pobrane z czasopisma http://kulturaiwartosci.journals.umcs.pl Data: 19/07/2017 01:17:49 Kamil Szymański, Czy powinniśmy się obawiać sztucznej inteligencji? niczne znacznie zwiększyło możliwości cywilizacyjne, a tempo, w jakim wyłaniają się coraz to nowe możliwości, stale rośnie. W związku z tym, czas do zaistnienia superinteligencji stale się „kurczy”; każdy kolejny etap znacząco przybliża nas do tego momentu. W piątym rozdziale Bostrom zastanawia się nad tym, czy w świecie pojawi się tylko „jedna” superinteligencja, czy może będzie ich „kilka”? Biorąc pod uwagę, że jest obecnie wiele konkurujących ze sobą ośrodków naukowych, jak też państw, których priorytetem jest przewaga techniczna, jak USA, Rosja czy Chiny, to jest prawdopodobne, że w mniej więcej tym samym czasie może pojawić się kilka różnych superinteligencji – podobnie jak było to z badaniami nad skonstruowaniem bomby atomowej. Rozdział szósty to analiza teoretycznych możliwości, które może posiąść superinteligencja. Bostrom wymienia to następujące możliwości: potęgowanie własnej inteligencji, zdolność myślenia strategicznego, zdolność manipulowania ludźmi, umiejętność hakowania, możliwość prowadzenia badań technologicznych oraz produktywność gospodarcza. Bostrom rozważa również scenariusze, w ramach których superinteligencja z nieokreślonych pobudek starałaby się przejąć „władzę nad światem”. Rozdział siódmy zawiera analizę potencjalnych pobudek, według których miałaby działać superinteligencja. Takie pobudki to: kierowane instynktem samozachowawczym działanie na rzecz samoprzetrwania, realizacja jakichś nieokreślonych celów społecznych (w przypadku powstania superinteligencji opartej na systemie organizacji społecznej), ciągłe podnoszenie zdolności poznawczych, doskonalenie na poziomie techniki lub wystąpienie u sztucznej inteligencji „egoizmu konsumpcyjnego”, tj. pozyskiwanie i gromadzenie przez nią zasobów naturalnych. Rozdział ósmy jest poświęcony analizie możliwej zagłady ludzkości, która mogłaby stanowić rezultat powstania niezależnej superinteligencji. Bostrom sugeruje, że nawet uzyskanie maksymalnej kontroli nad superinteligencją nie gwarantuje, że nie uzna ona ludzi za „przeszkodę”, którą należy usunąć8. Dodatkowo, projekty oparte o SI mogą nieść niebezpieczeństwo pojawienia się niespodziewanych błędów, które mogą zmienić sposób działania SI. Dlatego Bostrom analizuje, czy możliwe byłoby określenie celów, których SI nigdy nie może realizować; mogłoby to blokować podejmowanie przez nią samodzielnych decyzji i działania bez nadzoru. 8 Tamże, s. 174–175. 187 Pobrane z czasopisma http://kulturaiwartosci.journals.umcs.pl Data: 19/07/2017 01:17:49 Kamil Szymański, Czy powinniśmy się obawiać sztucznej inteligencji? Rozdział dziewiąty to rozważania na temat kontroli superinteligencji. Bostrom twierdzi, że skoro pojawienie się SI może rodzić egzystencjalne zagrożeniem dla ludzkości, jak najszybciej należy rozpocząć prace nad zminimalizowaniem takiego ryzyka9. Można by tego dokonać poprzez coś w rodzaju uwięzienia fizycznego lub informacyjnego, czyli umieszczenie superinteligencji w zamkniętym ośrodku lub stworzenie dla niej odrębnej sieci komunikacji, bez dostępu do Internetu. Innym sposobem mogłoby być stworzenie metody zachęty, czyli skonstruowanie praw, określających działanie superinteligencji; przy czym SI nie mogłaby tych praw złamać. Podobnie do praw Asimova10: 1) robot nie może skrzywdzić człowieka, ani też przez zaniechanie działania dopuścić, by człowiek doznał krzywdy; 2) robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem; 3) robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem. Kolejna możliwość kontroli to stopniowe „upośledzanie” SI, czyli ograniczanie jej możliwości poznawczych i dostępu do informacji, przez co człowiek wciąż posiadałby przewagę i byłby w stanie się bronić. Ostatnia możliwość to metoda wyzwalaczy, które działałyby podobnie do praw robotów, jednakże byłyby nieuświadomione i ukryte dla SI. W przypadku działania niezgodnego z prawami, sztuczna inteligencja uległaby zablokowaniu, a człowiek mógłby odpowiednio zareagować: naprawić błąd, poddać kontroli lub nawet ją „wyłączyć”. W rozdziale dziesiątym autor przedstawia trzy możliwe typy superinteligencji. Pierwszy to wyrocznia – celem superinteligencji jest udzielanie odpowiedzi oraz rozwiązywania kwestii, których nie może rozwiązać człowiek, np. pytań filozoficznych. Drugi to dżin – urządzenie, które „spełnia życzenia”. Taka superinteligencja wykonywałaby skomplikowane logistycznie zadania, np. wykorzystując w tym celu podległe jej roboty. System ten mógłby np. przystosowywać inne planety do ludzkich potrzeb. Trzeci typ to SI narzędziowa – superinteligencja to „doskonały” program, który nie posiada świadomości i „wolnej woli”, lecz jedynie wykonuje z idealną precyzją określone zadania, np. zarządza globalnym ruchem lotniczym. Rozdział jedenasty przedstawia skutki, jakie w ludzkim świecie mogłaby wywołać sztuczna inteligencja. Bostrom analizuje możliwe zmiany społeczne i związane z nimi problemy, jak np. zastąpienie pracy fizycznej Tamże, s. 193. https://pl.wikipedia.org/wiki/Etyka_robot%C3%B3w#Prawa_robot.C3.B3w_Asimova [dostęp: 10.02.2017]. 188 9 10 Pobrane z czasopisma http://kulturaiwartosci.journals.umcs.pl Data: 19/07/2017 01:17:49 Kamil Szymański, Czy powinniśmy się obawiać sztucznej inteligencji? człowieka przez roboty oraz wzrost bezrobocia, problemy z rozdziałem kapitału wytworzonego przez SI czy wytworzenie singletonu, czyli globalnego państwa zarządzanego przez superinteligencję. W rozdziale dwunastym i trzynastym Bostrom rozważa pytanie, czy Sztucznej Inteligencji można będzie zaszczepić wartości. Dzięki ewolucji pojawiły się istoty zdolne do poznawania i rozróżniania wartości (czego dowodem jest człowiek11). Bostrom sądzi więc, że ten mechanizm można zastosować w ewolucyjnym procesie uczenia wartości sztucznej inteligencji – zaczepiając jej kilka podstawowych prawd, które następnie sama będzie rozwijać. Innym sposobem na zaszczepianie wartości miałoby być wykorzystanie mechanizmu uczenia się. Gdy superinteligencja postępuje w sposób niebudzący wątpliwości moralnych, otrzymuje „nagrodę”, co wytwarza w niej nawyk postepowania w sposób „właściwy”. Trzecia możliwość to umieszczenie inteligencji w spreparowanym środowisku, w którym przebywanie wymusza „naukę” obowiązujących w nim wartości. Ostatnią metodą mogłoby być najpierw nauczenie SI wartości podstawowych, a następnie stopniowe podnoszenie kierowanych wobec niej wymagań. Kolejny ważny problem to wybór wartości i zachowań, których chcielibyśmy nauczyć superinteligencję. Bostrom powołuje się na koncepcję Eliezera Yudkowsky’ego nazwaną CEV – coherent extrapolated volition (spójna, ekstrapolowalna wola). Zgodnie z nią, superinteligencja powinna realizować takie cele, które realizowałby człowiek, lecz musi mieć rzeczywiście pewność, że ludzie chcieliby je zrealizować. Jeśli SI nie jest tego pewna lub ma się domyślać, musi zaprzestać działania. Dodatkowo, sztuczna inteligencja powinna posiadać odpowiedni zestaw komponentów w postaci koncepcji celu, teorii decyzji, teorii poznania oraz ratyfikacji. W rozdziale czternastym autor pyta o to, w jakim kierunku powinniśmy zmierzać: analizuje koncepcje związane ze zróżnicowanym rozwojem technologicznym, preferowaną kolejnością nadejścia, tempem nadchodzących przemian, oraz stara się odpowiedzieć na pytanie, czy powinniśmy dalej prowadzić badania nad emulacją mózgu i sztuczną inteligencją. W ostatnim, bardzo krótkim rozdziale Bostrom wskazuje cele, na których ludzkość powinna się obecnie skupić, by doprowadzić do wytworzenia superinteligencji oraz by ograniczyć ryzyka związane z rozwojem technologicznym. 11 N. Bostrom, Superinteligencja, dz. cyt., s. 274. 189 Pobrane z czasopisma http://kulturaiwartosci.journals.umcs.pl Data: 19/07/2017 01:17:49 Kamil Szymański, Czy powinniśmy się obawiać sztucznej inteligencji? Superinteligencja Nicka Bostroma to książka niezwykle ważna i intelektualnie prowokująca. Pozwala poszerzyć wiedzę o problemach sztucznej inteligencji tym osobom, które dopiero zaczynają zajmować się tą problematyką. Dodatkowo, niezwykle bogata bibliografia ułatwia czytelnikom dalsze poszukiwania. Zaletą książki jest również to, że analizując możliwe problemy i zagrożenia, Bostrom bierze pod uwagę różne możliwe formy sztucznej inteligencji, nie spłycając jej do ogólnego „programu”, np. superkomputera – co niestety można zauważyć w częstokroć niezbyt głębokich analizach medialnych. Bostrom zwraca uwagę na to, że jest kilka możliwych dróg, na jakich może powstać Superinteligencja. Zauważa również, że rożne mogą być też przyczyny jej ewentualnego „buntu”. To sprawia, że analizy Nicka Bostroma stanowią obecnie analiz najbardziej pełne zestawienie zagrożeń związanych z rozwojem SI. Bibliografia Bostrom N., Superinteligencja: scenariusze, strategie, zagrożenia, tłum. D. KonowrockaSawa, Wydawnictwo Helion, Gliwice 2016. https://pl.wikipedia.org/wiki/Etyka_robot%C3%B3w#Prawa_robot.C3.B3w_Asimova [dostęp: 10.02.2017]. https://qz.com/639952/googles-ai-won-the-game-go-by-defying-millennia-of-basic-human-instinct/ [dostęp: 10.02.2017]. https://www.theguardian.com/technology/2014/oct/27/elon-musk-artificial-intelligence-ai-biggest-existential-threat [dostęp: 10.02.2017]. http://www.bbc.com/news/technology-30290540 [dostęp: 10.02.2017]. http://www.philosophy.ox.ac.uk/members/other_faculty/bostrom_nick[dostęp: 10.02.2017]. Information about Author: KAMIL SZYMAŃSKI, PhD student in cognitive science and social communication at the Faculty of Philosophy and Sociology, UMCS, Lublin, PhD student in Philosophy at the Faculty of Philosophy, KUL, Lublin; address for correspondence: Pl. Marii Curie-Skłodowskiej 4, PL 20-031 Lublin; e-mail: [email protected] 190 Powered by TCPDF (www.tcpdf.org)