Sztuczna inteligencja, czy sztucznie inteligentne? Dawid Laszuk 23.05.2009r. Copyright statement This presentation has been prepared for the meeting of the Students' Society of Neurobiology at the Warsaw University, thus for a non-profit non activity. Pictures included, modified to various degree, have been copied from the Internet and literature without indicating the original source, which is frequently difficult to trace. Whoever finds his/her rights violated, is kindly requested to notify the author (sknn(et)o2.pl); the questioned picture will be immediately withdrawn. Unlimited use of these slides in teaching is welcomed provided that the users take full responsibility for it. Sztuczna inteligencja Hipotetyczna inteligencja realizowana w procesie inżynieryjnym, a nie naturalnym Nazwa technologii i dziedzina badań bada naukowych informatyki na styku z neurologią, psychologią. Pierwsze użycie terminu – 1955 – John McCarthy: „konstruowanie maszyn, o których działaniu dałoby się powiedzieć, że są podobne do ludzkich przejawów inteligencji” inteligencji Sztuczna inteligencja - Przeszłość Golemy Frankenstein Sztuczna inteligencja - obecnie Roboty Cyborgi Schemat działania neuronu Dostaje impuls elektryczny W zależności od wartości napięcia zostaje pobudzony „Przenosi” dalej impuls Perceptron 1. Dane wejściowe z wagami 2.Odpowiednia analiza danych 3.Dane wyjściowe Uczenie maszyn Rekurencja: 1)Dane wejściowe 2)Analiza danych 3)Wyjście 4)Porównanie ze wzorcem 5)Zmiana wagi Sieć Neuronowa Zastosowania: w programach do rozpoznawania pisma (OCR) na lotniskach do sprawdzania, czy prześwietlony bagaż zawiera niebezpieczne ładunki prognoza pogody do syntezy mowy prognozy giełdowe interpretacja badań biologicznych sterowanie procesów przemysłowych. analiza problemów produkcyjnych Czy da się z tego zrobić sztucznego człowieka? Jak rozpoznać czy sieć ma „inteligencję” człowiek? Test Turinga Problemy: (1) Ogólnikowe riposty (2) Maszyna może być inteligentna, ale nie musi umieć dobrze rozmawiać (3) Osoby sprawdzające i w drugim pokoju. (4) Zbyt duża wiedza komputera – 0,2354 * 24866 = ? - 1950 Test Turinga Aby zdać test Turinga komputer musiałby: 1) Otrzymywać, wysyłać i przetwarza przetwarzać komunikaty w języku zyku naturalnym. 2) Przetwarzać,, przechowywać i wykorzystywa wykorzystywać otrzymywane informacje. 3) Umieć racjonalnie wnioskować na podstawie posiadanych informacji. 4) Potrafić przystosować się ę do nowej sytuacji. 5) Wykrywać powtarzające się ę wzorce w otrzymywanych informacjach , i je uogólniać. uogólnia Chatbox ELIZA – 1966 psychoanalityk PARRY – 1972 schizofrenię paranoidalną. ALICE – 1995 trzykrotny zwyciężca nagrody Loebnera; ok. 300 programistów Tysiące wolontariuszy http://www.alicebot.org/ Argument „Chińskiego „Chiń Pokoju” John Searle - 1980r. Rat-Robot Robot Robot z wymienną świadomością Wymienny robot ze świadomością Najnowsze „inteligentne” programy Program „Adam”: h: drożdze → geny → enzymy. prop. eksp. → analiza wyników → poprawka Program Lipsona i Shimdta: Odnajduje zależności ci w danych wej wejściowych Automatycznie wyciąga ga „wnioski” Porównanie: człowiek vs. maszyna Człowiek PeCet Superkomputer Moc obliczeniowa 100 – 10 000 mln MIPS 0,01 mln MIPS 1,7 PetaFLOPS [10^15] Rozwój mocy Stała Prawo Moore'a Prawo Moore'a Zapotrzebowanie energetyczne Batonik „Mars” 10 zł / miesięcznie miesi Mała elektrownia Możliwa przenośność Tak Jak trzeba, to można mo Nie Rozmiar 1,5 litra 30 litrów Uczenie się Poprzez analogię Po przez rekurencje i siłowe wstawianie danych MIPS – Milion instrukcji na sekundę FLOPS – Operacje zmiennoprzecinkowe na sekunde >> 10 000 litrów Superkomputery Komputer za 1 000$ (1997) Przyszłość (sztucznej) inteligencji? Przejście cie od AI (artificial Intelligence) do IA (ntelligence amplification) Cybhomo sapiens?? Etyka Robotów (Asimova 1942) 1. Robot nie może e skrzywdzi skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, dopu aby człowiek doznał krzywdy. 2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczno sprzeczności z Pierwszym Prawem. 3. Robot musi chronić sam siebie, je jeśli tylko nie stoi to w sprzeczności ci z Pierwszym lub Drugim Prawem. 0. Robot nie może e skrzywdzi skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić doprowadzi do uszczerbku dla ludzkości. ści. AI - zagrożenia Głupi programiści programi robotów bojowych Głupi programiści programi maszyn produkujących produkuj roboty bojowe Ludzka empatia Z Definicji: Programista nie jest głupi. Bibliografia •Ogólnodostępny pny Internet •Penrose R., Nowy umysł Cesarza, PWN ,1995 •Tadeuszewicz R., Sieci Neuronowe, RM, 1993 (http://winntbg.bg.agh.edu.pl/skrypty/0001/) •Wikipedia Dziękuj Dziękuję Miłego dnia :)