Ćwierć wieku rozwoju sztucznej inteligencji w Polsce

advertisement
Ćwierć wieku rozwoju
sztucznej inteligencji
w Polsce
Ryszard Tadeusiewicz
AGH, Kraków
Przedstawiana historia AI
w Polsce lat 80., 90. i 200x
będzie wysoce subiektywna.
Zapewne historycy nauki inaczej opiszą te dzieje
i racja będzie niewątpliwie po ich stronie.
Tyle tylko, że historycy będą to oglądali od
zewnątrz a ich metody będą beznamiętne.
Tymczasem ja oglądałem to wszystko od środka
a mój stosunek do AI jest wysoce emocjonalny!
Druga zasada, jaka będzie
przestrzegana, będzie polegała
na unikaniu wymieniania
nazwisk badaczy
zaangażowanych w rozwój
sztucznej inteligencji.
Chodzi o to, żeby kogoś nie
pominąć, bo pamięć bywa
zawodna...
1982
• Sytuacja polityczna była taka, jak wszyscy
wiedzą. Nastroje były minorowe. Miało to wpływ
(negatywny) na rozwój nauki.
• W AI najbardziej „modne” były zagadnienia
rozpoznawania obrazów (ale w sensie
„pattern recognition” a nie „image processing”)
• Obowiązywała zasada, że algorytmy trzeba
opisywać w sposób wysoce sformalizowany
i starać się dowodzić ich własności w sposób
analityczny
1983
• Dla podrażnienia super-podejrzliwej władzy
utworzyliśmy na AGH organizację OFSIK
• Inicjatorem OFSIKa był prof. Zbigniew
Zwinogrodzki, który siedział długie lata na
Syberii i na którym w związku z tym Stan
Wojenny nie robił wrażenia
• UB natychmiast zainteresował się OFSIKiem
i zarząd OFSIKa (z mówiącym te słowa) został
wezwany do złożenia zeznań
Zeznaliśmy i zostało to oficjalnie
zaprotokołowane: OFSIK
To była:
Ogólnopolska
Federacja
Sztucznej
Inteligencji z siedzibą w
Krakowie
Tak to Sztuczna Inteligencja trafiła do polityki...
1984
• Zaczęły pojawiać się pierwsze polskie
praktyczne opracowania dotyczące
automatycznego rozpoznawania mowy
• Na AGH zbudowano pierwszą wersję
wieloprocesorowego systemu CESARO
(Cyfrowy Eksperymentalny System
Analizy i Rozpoznawania Obrazów)
analizującego obrazy z kamery TV przem.
1985
• Powstało kilka dobrych opracowań
dotyczących komputerowego
przetwarzania języka naturalnego (niestety
głównie angielskiego, chociaż w Polsce)
• System CESARO został sprzęgnięty
z polskim robotem IRp6 i wykonywano
badania nad zastosowaniami wizyjnego
sprzężenia zwrotnego
1986
• Nastąpił pierwszy (wielokrotnie potem
ponawiany) przypływ entuzjazmu dla
metod wnioskowania opartych na teorii
zbiorów rozmytych
• Przyjęta została przez CKK pierwsza
habilitacja, której głównym motywem były
zagadnienia sztucznej inteligencji
(automatyczne dowodzenie twierdzeń)
1987
• Rozwijający się rynek gier komputerowych
stymulował prace badawcze związane
z wykorzystaniem heurystycznych strategii
do rozwiązywania różnych problemów
• Zanotowano istotny postęp w obszarze
komputerowej analizy języka naturalnego
(polskiego)
1988
• Odkryta kilka lat wcześniej teoria zbiorów
przybliżonych (Pawlaka) zaczęła
zdobywać międzynarodowe uznanie
• W AGH powstał pierwszy komputerowy
symulator rodziny pszczelej oparty na
podobnych koncepcjach, jak dzisiejsze
automaty komórkowe i algorytmy
mrowiskowe
1989
• Początek zainteresowania techniką sieci
neuronowych
• Powstaje kilka dobrych polskich systemów
ekspertowych
• Dzięki PROLOGowi obliczenia
symboliczne stają się wygodniejsze
i bardziej efektywne
1990
• Szybko narastające zainteresowanie ze strony
praktyki systemami ekspertowymi prowadzi do
powstania kilku nieudanych konstrukcji.
Psuje to opinię AI i jest powodem sceptycznego
nastawienia do jej możliwości
• Następuje dalszy rozwój systemów
inteligentnego przetwarzania sygnałów
(głównie dla diagnostyki medycznej
i technicznej)
1991
• Pojawiają się pierwsze polskie prace
z zakresu inteligentnego rozpoznawania
obrazów dla potrzeb policji (analiza
odcisków palców)
• Kilka polskich rozwiązań w zakresie
algorytmów rozgrywających zyskuje
międzynarodowe uznanie
1992
• Jak się wydaje jest to jedyny rok w ciągu
całego ćwierćwiecza, w którym nic
szczególnego w polskiej AI nie zaszło!
1993
• Ukazała się pierwsza polska książka na
temat sieci neuronowych. Zainteresowanie
było tak duże, że w tym samym roku
trzeba było wydać drugie wydanie
• Algorytmy uczące się (najczęściej oparte
na technice drzew decyzyjnych) znajdują
coraz więcej zastosowań
1994
• Pojawiają się kolejne książki i kolejne
publikacje na temat sieci neuronowych
• Powstaje Polskie Towarzystwo Sieci
Neuronowych
• Sieci neuronowe stają się
najpopularniejszą techniką AI
1995
• Zaczyna funkcjonować działająca do dnia
dzisiejszego instytucja corocznych
konferencji poświęconych sztucznej
inteligencji
1996
• Następuje duży wzrost zainteresowania
możliwościami, jakie dają algorytmy
genetyczne i ewolucyjne podejście do
rozwiązywania problemów
• Sieci neuronowe osiągają status dobrze
znanej i godnej zaufania metodyki
badawczej.
1997
• Technika sztucznej inteligencji zmierza do
wypracowania metod hybrydowych:
genetyczno-rozmytych, neuronoworozmytych, neuronowych z
wykorzystaniem podejścia ewolucyjnego
itp.
1998
• Popularne stają się prace związane z
zastosowaniem technik sztucznej
inteligencji w automatyce i robotyce.
Szczególnie dużo ciekawych wyników
uzyskuje się przy zastosowaniu podejścia
rozmytego w sterowaniu różnych maszyn i
urządzeń
1999
• Z obawy przed skutkami „pluskwy
milenijnej” rozwijane są różne metody,
które mają zlikwidować ten problem, przy
czym termin „sztuczna inteligencja” jest
używany (i nadużywany) jako wytrych.
• Metody sztucznej inteligencji zaczynają z
powodzeniem być wykorzystywane do
ochrony przeciw-wirusowej
2000
• Coraz większe zainteresowanie metodami
sztucznej inteligencji ze strony ekonomii –
zwłaszcza sektora bankowego oraz
inwestorów giełdowych
• Kompleksowo zautomatyzowane centra
produkcyjne coraz częściej zawierają
komputer nadrzędny sterowany
algorytmami sztucznej inteligencji
2001
• Liczne i ciekawe prace na temat wykorzystania
sztucznej inteligencji w diagnostyce
i eksploatacji maszyn.
• Upowszechnia się i popularyzuje pojęcie
„Business Intelligence” – często stosowane
wprawdzie jedynie jako hasło marketingowe,
ale wskazujące na kierunki rozwoju systemów
dla zastosowań ekonomicznych
2002
• Szereg ciekawych wyników związanych z
wykorzystaniem sztucznej inteligencji przy
budowie sprzętu powszechnego użytku:
nowej aparatury medycznej, artykułów
gospodarstwa domowego, wyposażenia
pojazdów itp.
2003
• Powstaje koncepcja sieci semantycznych
opartych na metodach sztucznej
inteligencji, mających na celu ułatwienie
orientacji w narastających lawinowo
zasobach informacji gromadzonej w Sieci.
• Metody agentowe powodują wzrost
zainteresowania sztuczną inteligencją w
kontekście hasła „inteligentny agent”
2004
• W miejsce dotychczas używanego terminu
„Sztuczna inteligencja” coraz częściej
zaczyna się stosować termin soft
computing
• Zaproponowana zostaje technika
automatycznego rozumienia (np. obrazów)
jako uzupełnienie dla przetwarzania,
analizy i rozpoznwania
2005
• Techniki sztucznej inteligencji w coraz
szerszym zakresie angażowane są do
semantycznie zorientowanego
poszukiwania potrzebnych informacji
w Internecie
2006
• W Poznaniu odbywa się zjazd PTI, na
którym podsumowany zostaje dorobek AI
w ciągu ostatniego ćwierćwiecza
Download