Ćwierć wieku rozwoju sztucznej inteligencji w Polsce Ryszard Tadeusiewicz AGH, Kraków Przedstawiana historia AI w Polsce lat 80., 90. i 200x będzie wysoce subiektywna. Zapewne historycy nauki inaczej opiszą te dzieje i racja będzie niewątpliwie po ich stronie. Tyle tylko, że historycy będą to oglądali od zewnątrz a ich metody będą beznamiętne. Tymczasem ja oglądałem to wszystko od środka a mój stosunek do AI jest wysoce emocjonalny! Druga zasada, jaka będzie przestrzegana, będzie polegała na unikaniu wymieniania nazwisk badaczy zaangażowanych w rozwój sztucznej inteligencji. Chodzi o to, żeby kogoś nie pominąć, bo pamięć bywa zawodna... 1982 • Sytuacja polityczna była taka, jak wszyscy wiedzą. Nastroje były minorowe. Miało to wpływ (negatywny) na rozwój nauki. • W AI najbardziej „modne” były zagadnienia rozpoznawania obrazów (ale w sensie „pattern recognition” a nie „image processing”) • Obowiązywała zasada, że algorytmy trzeba opisywać w sposób wysoce sformalizowany i starać się dowodzić ich własności w sposób analityczny 1983 • Dla podrażnienia super-podejrzliwej władzy utworzyliśmy na AGH organizację OFSIK • Inicjatorem OFSIKa był prof. Zbigniew Zwinogrodzki, który siedział długie lata na Syberii i na którym w związku z tym Stan Wojenny nie robił wrażenia • UB natychmiast zainteresował się OFSIKiem i zarząd OFSIKa (z mówiącym te słowa) został wezwany do złożenia zeznań Zeznaliśmy i zostało to oficjalnie zaprotokołowane: OFSIK To była: Ogólnopolska Federacja Sztucznej Inteligencji z siedzibą w Krakowie Tak to Sztuczna Inteligencja trafiła do polityki... 1984 • Zaczęły pojawiać się pierwsze polskie praktyczne opracowania dotyczące automatycznego rozpoznawania mowy • Na AGH zbudowano pierwszą wersję wieloprocesorowego systemu CESARO (Cyfrowy Eksperymentalny System Analizy i Rozpoznawania Obrazów) analizującego obrazy z kamery TV przem. 1985 • Powstało kilka dobrych opracowań dotyczących komputerowego przetwarzania języka naturalnego (niestety głównie angielskiego, chociaż w Polsce) • System CESARO został sprzęgnięty z polskim robotem IRp6 i wykonywano badania nad zastosowaniami wizyjnego sprzężenia zwrotnego 1986 • Nastąpił pierwszy (wielokrotnie potem ponawiany) przypływ entuzjazmu dla metod wnioskowania opartych na teorii zbiorów rozmytych • Przyjęta została przez CKK pierwsza habilitacja, której głównym motywem były zagadnienia sztucznej inteligencji (automatyczne dowodzenie twierdzeń) 1987 • Rozwijający się rynek gier komputerowych stymulował prace badawcze związane z wykorzystaniem heurystycznych strategii do rozwiązywania różnych problemów • Zanotowano istotny postęp w obszarze komputerowej analizy języka naturalnego (polskiego) 1988 • Odkryta kilka lat wcześniej teoria zbiorów przybliżonych (Pawlaka) zaczęła zdobywać międzynarodowe uznanie • W AGH powstał pierwszy komputerowy symulator rodziny pszczelej oparty na podobnych koncepcjach, jak dzisiejsze automaty komórkowe i algorytmy mrowiskowe 1989 • Początek zainteresowania techniką sieci neuronowych • Powstaje kilka dobrych polskich systemów ekspertowych • Dzięki PROLOGowi obliczenia symboliczne stają się wygodniejsze i bardziej efektywne 1990 • Szybko narastające zainteresowanie ze strony praktyki systemami ekspertowymi prowadzi do powstania kilku nieudanych konstrukcji. Psuje to opinię AI i jest powodem sceptycznego nastawienia do jej możliwości • Następuje dalszy rozwój systemów inteligentnego przetwarzania sygnałów (głównie dla diagnostyki medycznej i technicznej) 1991 • Pojawiają się pierwsze polskie prace z zakresu inteligentnego rozpoznawania obrazów dla potrzeb policji (analiza odcisków palców) • Kilka polskich rozwiązań w zakresie algorytmów rozgrywających zyskuje międzynarodowe uznanie 1992 • Jak się wydaje jest to jedyny rok w ciągu całego ćwierćwiecza, w którym nic szczególnego w polskiej AI nie zaszło! 1993 • Ukazała się pierwsza polska książka na temat sieci neuronowych. Zainteresowanie było tak duże, że w tym samym roku trzeba było wydać drugie wydanie • Algorytmy uczące się (najczęściej oparte na technice drzew decyzyjnych) znajdują coraz więcej zastosowań 1994 • Pojawiają się kolejne książki i kolejne publikacje na temat sieci neuronowych • Powstaje Polskie Towarzystwo Sieci Neuronowych • Sieci neuronowe stają się najpopularniejszą techniką AI 1995 • Zaczyna funkcjonować działająca do dnia dzisiejszego instytucja corocznych konferencji poświęconych sztucznej inteligencji 1996 • Następuje duży wzrost zainteresowania możliwościami, jakie dają algorytmy genetyczne i ewolucyjne podejście do rozwiązywania problemów • Sieci neuronowe osiągają status dobrze znanej i godnej zaufania metodyki badawczej. 1997 • Technika sztucznej inteligencji zmierza do wypracowania metod hybrydowych: genetyczno-rozmytych, neuronoworozmytych, neuronowych z wykorzystaniem podejścia ewolucyjnego itp. 1998 • Popularne stają się prace związane z zastosowaniem technik sztucznej inteligencji w automatyce i robotyce. Szczególnie dużo ciekawych wyników uzyskuje się przy zastosowaniu podejścia rozmytego w sterowaniu różnych maszyn i urządzeń 1999 • Z obawy przed skutkami „pluskwy milenijnej” rozwijane są różne metody, które mają zlikwidować ten problem, przy czym termin „sztuczna inteligencja” jest używany (i nadużywany) jako wytrych. • Metody sztucznej inteligencji zaczynają z powodzeniem być wykorzystywane do ochrony przeciw-wirusowej 2000 • Coraz większe zainteresowanie metodami sztucznej inteligencji ze strony ekonomii – zwłaszcza sektora bankowego oraz inwestorów giełdowych • Kompleksowo zautomatyzowane centra produkcyjne coraz częściej zawierają komputer nadrzędny sterowany algorytmami sztucznej inteligencji 2001 • Liczne i ciekawe prace na temat wykorzystania sztucznej inteligencji w diagnostyce i eksploatacji maszyn. • Upowszechnia się i popularyzuje pojęcie „Business Intelligence” – często stosowane wprawdzie jedynie jako hasło marketingowe, ale wskazujące na kierunki rozwoju systemów dla zastosowań ekonomicznych 2002 • Szereg ciekawych wyników związanych z wykorzystaniem sztucznej inteligencji przy budowie sprzętu powszechnego użytku: nowej aparatury medycznej, artykułów gospodarstwa domowego, wyposażenia pojazdów itp. 2003 • Powstaje koncepcja sieci semantycznych opartych na metodach sztucznej inteligencji, mających na celu ułatwienie orientacji w narastających lawinowo zasobach informacji gromadzonej w Sieci. • Metody agentowe powodują wzrost zainteresowania sztuczną inteligencją w kontekście hasła „inteligentny agent” 2004 • W miejsce dotychczas używanego terminu „Sztuczna inteligencja” coraz częściej zaczyna się stosować termin soft computing • Zaproponowana zostaje technika automatycznego rozumienia (np. obrazów) jako uzupełnienie dla przetwarzania, analizy i rozpoznwania 2005 • Techniki sztucznej inteligencji w coraz szerszym zakresie angażowane są do semantycznie zorientowanego poszukiwania potrzebnych informacji w Internecie 2006 • W Poznaniu odbywa się zjazd PTI, na którym podsumowany zostaje dorobek AI w ciągu ostatniego ćwierćwiecza