(Microsoft PowerPoint - sztuczna inteligencja [tryb zgodno\234ci])

advertisement
Sztuczna inteligencja,
czy sztucznie inteligentne?
Dawid Laszuk
23.05.2009r.
Copyright statement
This presentation has been prepared for the meeting of the Students' Society of
Neurobiology at the Warsaw University, thus for a non-profit
non
activity. Pictures included,
modified to various degree, have been copied from the Internet and literature without
indicating the original source, which is frequently difficult to trace. Whoever finds his/her
rights violated, is kindly requested to notify the author (sknn(et)o2.pl); the questioned
picture will be immediately withdrawn. Unlimited use of these slides in teaching is
welcomed provided that the users take full responsibility for it.
Sztuczna inteligencja
Hipotetyczna inteligencja realizowana w procesie inżynieryjnym,
a nie naturalnym
Nazwa technologii i dziedzina badań
bada naukowych informatyki na
styku z neurologią, psychologią.
Pierwsze użycie terminu – 1955 – John McCarthy:
„konstruowanie maszyn, o których działaniu dałoby się powiedzieć, że są
podobne do ludzkich przejawów inteligencji”
inteligencji
Sztuczna inteligencja - Przeszłość
Golemy
Frankenstein
Sztuczna inteligencja - obecnie
Roboty
Cyborgi
Schemat działania neuronu
Dostaje impuls
elektryczny
W zależności od
wartości napięcia
zostaje pobudzony
„Przenosi” dalej
impuls
Perceptron
1. Dane wejściowe z
wagami
2.Odpowiednia
analiza danych
3.Dane wyjściowe
Uczenie maszyn
Rekurencja:
1)Dane wejściowe
2)Analiza danych
3)Wyjście
4)Porównanie ze
wzorcem
5)Zmiana wagi
Sieć Neuronowa
Zastosowania:
w programach do rozpoznawania pisma (OCR)
na lotniskach do sprawdzania, czy
prześwietlony bagaż zawiera niebezpieczne
ładunki
prognoza pogody
do syntezy mowy
prognozy giełdowe
interpretacja badań biologicznych
sterowanie procesów przemysłowych.
analiza problemów produkcyjnych
Czy da się z tego zrobić
sztucznego człowieka?
Jak rozpoznać czy sieć ma „inteligencję”
człowiek?
Test Turinga
Problemy:
(1) Ogólnikowe riposty
(2) Maszyna może być
inteligentna, ale nie musi
umieć dobrze rozmawiać
(3) Osoby sprawdzające i w
drugim pokoju.
(4) Zbyt duża wiedza
komputera –
0,2354 * 24866 = ?
-
1950
Test Turinga
Aby zdać test Turinga komputer musiałby:
1) Otrzymywać, wysyłać i przetwarza
przetwarzać
komunikaty w języku
zyku naturalnym.
2) Przetwarzać,, przechowywać i wykorzystywa
wykorzystywać
otrzymywane informacje.
3) Umieć racjonalnie wnioskować na podstawie
posiadanych informacji.
4) Potrafić przystosować się
ę do nowej sytuacji.
5) Wykrywać powtarzające się
ę wzorce w
otrzymywanych informacjach , i je uogólniać.
uogólnia
Chatbox
ELIZA – 1966 psychoanalityk
PARRY – 1972 schizofrenię paranoidalną.
ALICE – 1995 trzykrotny zwyciężca nagrody
Loebnera;
ok. 300 programistów
Tysiące wolontariuszy
http://www.alicebot.org/
Argument „Chińskiego
„Chiń
Pokoju”
John Searle - 1980r.
Rat-Robot
Robot
Robot z wymienną świadomością
Wymienny robot ze świadomością
Najnowsze „inteligentne” programy
Program „Adam”:
h: drożdze → geny → enzymy.
prop. eksp. → analiza wyników → poprawka
Program Lipsona i Shimdta:
Odnajduje zależności
ci w danych wej
wejściowych
Automatycznie wyciąga
ga „wnioski”
Porównanie: człowiek vs. maszyna
Człowiek
PeCet
Superkomputer
Moc obliczeniowa
100 – 10 000 mln
MIPS
0,01 mln MIPS
1,7 PetaFLOPS
[10^15]
Rozwój mocy
Stała
Prawo Moore'a
Prawo Moore'a
Zapotrzebowanie
energetyczne
Batonik „Mars”
10 zł / miesięcznie
miesi
Mała elektrownia
Możliwa przenośność
Tak
Jak trzeba, to można
mo
Nie
Rozmiar
1,5 litra
30 litrów
Uczenie się
Poprzez analogię
Po przez rekurencje i siłowe wstawianie
danych
MIPS – Milion instrukcji na sekundę
FLOPS – Operacje zmiennoprzecinkowe na sekunde
>> 10 000 litrów
Superkomputery
Komputer za 1 000$ (1997)
Przyszłość (sztucznej) inteligencji?
Przejście
cie od AI (artificial Intelligence) do IA (ntelligence
amplification)
Cybhomo sapiens??
Etyka Robotów
(Asimova 1942)
1. Robot nie może
e skrzywdzi
skrzywdzić człowieka, ani przez
zaniechanie działania dopuścić,
dopu
aby człowiek
doznał krzywdy.
2. Robot musi być posłuszny rozkazom człowieka,
chyba że stoją one w sprzeczno
sprzeczności z Pierwszym
Prawem.
3. Robot musi chronić sam siebie, je
jeśli tylko nie stoi
to w sprzeczności
ci z Pierwszym lub Drugim
Prawem.
0. Robot nie może
e skrzywdzi
skrzywdzić ludzkości, lub
poprzez zaniechanie działania doprowadzić
doprowadzi do
uszczerbku dla ludzkości.
ści.
AI - zagrożenia
Głupi programiści
programi
robotów bojowych
Głupi programiści
programi
maszyn produkujących
produkuj
roboty bojowe
Ludzka empatia
Z Definicji:
Programista nie jest głupi.
Bibliografia
•Ogólnodostępny
pny Internet
•Penrose R., Nowy umysł Cesarza, PWN ,1995
•Tadeuszewicz R., Sieci Neuronowe, RM, 1993
(http://winntbg.bg.agh.edu.pl/skrypty/0001/)
•Wikipedia
Dziękuj
Dziękuję
Miłego dnia :)
Download