Mgr Rejer Izabela Mgr Wawrzyniak Agata Mgr Wąsikowska Barbara Zastosowania Sztucznej Inteligencji w ekonomii Summary The article has the aim to present the topic of application of Artificial Intelligence tools in economy. Economic problems, which are described here, are very difficult to solve. As a rule they are multidimensional problems. They are characterised by existence of many feedbacks between variables. This is a reason why classical mathematics is sometimes useless in solving this kind of problems. In the first part of this article there are presented basic information about Artificial Intelligence (AI) as a science. In the further passage there are described different applications of main methods of AI, which are used in dealing with economic problems, such as: genetic algorithms, neural networks, fuzzy logic. Wstęp W imponującym rozwoju technik komputerowych i globalizacji wymiany informacji należy zauważyć nieadekwatność istniejących systemów komputerowych do zjawisk zachodzących w rzeczywistości gospodarczej. Wyraża się to między innymi w stosowaniu logiki dwuwartościowej do opisu zjawisk rozmytych, co ogranicza obszary zastosowań i podnosi koszty wprowadzania komputerów. Konsekwencją rozwoju tradycyjnych systemów komputerowych jest także generowanie ogromnych zbiorów danych, których analiza jest utrudniona ze względu na ich rozmiar. Jedną z dziedzin, której rozwój stał się możliwy dzięki rozwojowi technologii komputerowej, jest sztuczna inteligencja. Rozwój wielu narzędzi sztucznej inteligencji umożliwił praktyczne wyeliminowanie wspomnianej wyżej nieprzystosowalności zbiorów danych. Powszechne stało się zastosowanie narzędzi Sztucznej Inteligencji w takich dziedzinach jak: sterowanie procesami technologicznymi, bankowość, zarządzanie, handel oraz operacje na giełdzie papierów wartościowych. Niestety jest to jeszcze zjawisko praktycznie nieznane na gruncie polskiej gospodarki. Niniejszy artykuł ma przybliżyć tematykę zastosowań narzędzi sztucznej inteligencji w ekonomii. Problemy ekonomiczne, o których będzie mowa, są problemami trudnymi do rozwiązania. Z reguły są to bowiem problemy wielkowymiarowe, które cechuje istnienie wielu wzajemnych sprzężeń zwrotnych między występującymi w nich zmiennymi. Dlatego niemożliwe wydaje się być skuteczne rozwiązywanie tego rodzaju problemów (przynajmniej wielu z nich) przy pomocy matematyki klasycznej. W pierwszej części niniejszego artykułu przedstawiono podstawowe informacje dotyczące Sztucznej Inteligencji jako dziedziny nauki. Następnie omówiono zastosowanie głównych metod AI (ang. Artificial Intelligence) w problemach ekonomicznych. 1. Powstanie i rozwój Sztucznej Inteligencji W ciągu kilku ostatnich lat popularne stały się badania w dziedzinie zwanej Sztuczną Inteligencją. Ich celem jest możliwie dokładne imitowanie działania ludzkiego umysłu, za pomocą elektronicznych maszyn, a w przyszłości zbudowanie maszyn przewyższających ludzkie zdolności w tym zakresie. Z roku na rok obserwuje się niesłychany wzrost szybkości działania komputerów, dzięki czemu stają się one wygodnymi i szybkimi maszynami automatyzującymi pracę obliczeniowe związane z przetwarzaniem informacji. Współczesne komputery potrafią w ciągu zaledwie ułamka sekundy policzyć skomplikowane zadanie matematyczne czy wyznaczyć budżet dużej firmy. Jednak pozornie proste czynności, które ludzie wykonują bez kłopotów, takie np. jak rozpoznawanie twarzy czy wychwycenie słowa z rozmowy, są niezmiernie trudne do zaprogramowania. Tym czasem sieci neuronów ludzkiego mózgu mają naturalną łatwość wykonywania tego typu zadań. Tak więc naukowcy zaczęli budować maszyny o architekturze naśladującej mózg ludzki. Wzrost zainteresowania wynikami badań nad AI wynika przynajmniej z kilku powodów. Po pierwsze: są one istotne dla budowy robotów, czyli maszyn spełniających praktyczne zapotrzebowanie przemysłu na urządzenia zdolne do wykonywania różnorodnych i skomplikowanych zadań, które dotychczas wymagały zaangażowania człowieka. Po drugie: interesujący jest również rozwój systemów eksperckich - programów komputerowych obejmujących całą istotną wiedzę posiadaną przez ekspertów w danej dziedzinie. Nasuwa się tu jednak pytanie: czy wiedzę i doświadczenie człowieka można zastąpić programem komputerowym? Po trzecie: Sztuczna Inteligencja może mieć również bezpośrednie znaczenie dla psychologii. Niektórzy badacze bowiem, mają nadzieję, że próbując imitować za pomocą urządzeń elektronicznych działanie ludzkiego mózgu zdołają się dowiedzieć czegoś istotnego o jego działaniu, i to niezależnie od porażki czy sukcesu tych prób. Istnieje również przekonanie, że badania nad AI mogą wnieść wiele do najważniejszych zagadnień filozofii. Człowiekiem, który wpadł na koncepcję współczesnego komputera (w 1935 r.) był Alan Nathison Turing. Obecnie wszystkie komputery są w istocie „maszynami Turinga”. Ten brytyjski matematyk był także pionierem Sztucznej Inteligencji. W roku 1950 w swym słynnym artykule „Maszyny liczące a inteligencja” („Computing Machinery and Intelligence”) opublikowanym w brytyjskim czasopiśmie filozoficznym „Mind” wyraził pogląd mówiący, że aby uznać iż komputer myśli powinien on potrafić udzielić odpowiedzi na dowolne pytanie, w taki sposób jaki odpowiedziałby na to pytanie człowiek. W artykule tym również Turing po raz pierwszy opisał test zwany obecnie „testem Turinga, który miał umożliwić rozstrzygnięcie, czy można zasadnie stwierdzić, że dana maszyna myśli. Aby poddać komputer testowi Turinga należy umieścić w jednym pomieszczeniu jakiegoś człowieka w drugim zaś komputer. Należy to jednak zrobić tak, by osoba zadająca pytania nie wiedziała, w którym pomieszczeniu jest człowiek, a w którym maszyna. Następnie osoba przesłuchująca zadaje szereg pytań i na podstawie otrzymywanych odpowiedzi, usiłuje odróżnić człowieka od komputera. Zarówno pytania jak i odpowiedzi są przekazywane jedynie za pomocą klawiatury i monitora. Przesłuchiwany człowiek ma obowiązek mówić prawdę i starać się przekonać przesłuchującego, iż rzeczywiście jest człowiekiem, natomiast komputer jest zaprogramowany tak aby „kłamiąc” starał się go przekonać, że to właśnie on jest człowiekiem. Jeśli po przeprowadzeniu serii takich testów przesłuchujący nie jest w stanie zidentyfikować rzeczywistego człowieka, to uznajemy, iż komputer przeszedł pomyślnie test. Od momentu opublikowania koncepcji „testu Turinga” bezustannie podejmowane są próby zbudowania maszyny mogącej sprostać wymaganiom testu. Jednym z pierwszych urządzeń AI był zbudowany przez W. Greya Waltera w początku lat pięćdziesiątych elektroniczny „żółw”. Poruszał się on po podłodze korzystając z własnego napędu, dopóki napięcie w bateriach nie spadło do niebezpiecznie niskiego poziomu. Wtedy to rozpoczynał poszukiwania najbliższego kontaktu. Po naładowaniu baterii ruszał w dalszą drogę po pokoju. W późniejszych czasach skonstruowano wiele podobnych urządzeń. Przykładem odmiennego kierunku badań jest stworzony w 1972 roku przez Terry’ego Winograda program komputerowy, zdolny do sensownej rozmowy na temat rozmaitych kolorowych klocków, które podczas symulacji układał jeden na drugim na różne sposoby. Mimo jednak tych wczesnych sukcesów niezmiernie trudnym problemem okazało się zbudowanie urządzenia do kontrolowania ruchów prostego, sztucznego ramienia, zdolnego do wykonywania bezkolizyjnych manewrów w pobliżu przypadkowo rozmieszczonych przeszkód. Bliższy idei testu Turinga jest program komputerowy napisany w latach sześćdziesiątych przez K. M Colby’ego, który miał symulować zachowanie psychoterapeuty. Działał on tak dobrze, że niektórzy pacjenci woleli korzystać z jego usług niż z pomocy prawdziwych psychoterapeutów i byli bardzo skłonni zwierzyć się mu ze swoich problemów. Kolejnymi urządzeniami, stanowiącymi dobry przykład maszyn zdolnych do „inteligentnego zachowana” są komputery grające w szachy. W chwili obecnej niektóre maszyny osiągnęły godny uwagi poziom gry, zbliżony do poziomu mistrzów międzynarodowych. Maszyny grające w szachy, oprócz zdolności wykonywania dokładnych obliczeń, korzystają również z ogromnej wiedzy książkowej. Jednym z najsławniejszych programów komputerowych do gry w szachy był program napisany przez Dana i Kathe Spracklenów, który otrzymał tytuł mistrza Federacji Szachowej Stanów Zjednoczonych. Warto wspomnieć, że na ogół komputery radzą sobie lepiej w konkurencji z ludźmi, jeśli stawia się dodatkowe wymaganie, aby grać bardzo szybko. Ludzie radzą sobie lepiej, jeśli mają do dyspozycji więcej czasu na obmyślanie posunięć. Wynika to z faktu, że na ogół komputery podejmują decyzje na podstawie precyzyjnych i dokładnych obliczeń wariantów, podczas gdy ludzie korzystają na ogół z „sądów”, wynikających ze stosunkowo powolnej, świadomej oceny pozycji szachownicy. Obecnie, błyskawiczny rozwój techniki sprawił, iż zaczęły rozwijać się nowe dziedziny takie jak: systemy ekspertowe, zbiory rozmyte i logika rozmyta, sztuczne sieci neuronowe, algorytmy genetyczne, które znalazły różne zastosowania (min w ekonomii). 2. Metody sztucznej inteligencji Pojęciem sztucznej inteligencji określa się zbiór metod, które mają na celu opisanie rzeczywistości w sposób przypominający rozumowanie człowieka. Metody te powstały jako przeciwwaga tradycyjnych algorytmów komputerowych, zawodzących często w sytuacjach, które człowiek potrafi rozwiązać bez większych problemów. Z reguły po metody sztucznej inteligencji sięga się wtedy gdy brakuje klasycznych metod matematycznych pozwalających na rozwiązanie rozpatrywanego problemu. Metody te wykorzystywane są też często wtedy kiedy dany problem badawczy może co prawda zostać rozwiązany metodami klasycznymi, ale wykorzystanie metod sztucznej inteligencji przyspieszy czas uzyskania rozwiązania. Cechą charakterystyczną wszystkich metod sztucznej inteligencji jest fakt, że generują one wyniki w pewnym stopniu przybliżone. Nie można wykorzystywać ich więc w sytuacjach, które wymagają dużej precyzji obliczeń np. w zastosowaniach inżynierskich, czy przy operacjach wykonywanych na kontach bankowych. Są one natomiast z powodzeniem stosowane w szerokiej gamie zastosowań ekonomiczno-społecznych, których i tak w większości przypadków nie można rozwiązać ze 100% precyzją. Do rodziny metod sztucznej inteligencji zaliczane są w chwili obecnej trzy podstawowe klasy metod. Należy wśród nich wyróżnić: sieci neuronowe, systemy rozmyte oraz algorytmy genetyczne. Miejsce poszczególnych metod sztucznej inteligencji na tle ogółu metod badawczych można przedstawić następująco:1 (rys. nr 1). Poznanie wnioskowanie indukcyjne ukryte wnioskowanie dedukcyjne jawne precyzyjne wnioskowanie algorytmiczne regresja nieparametryczna sieci neuronowe adaptacyjne systemy rozmyte algorytmy genetyczne systemy ekspertowe regresja parametryczna Złożoność Rys. 1 – Miejsce poszczególnych klas metod sztucznej inteligencji wśród ogółu metod badawczych. Jak widać na zaprezentowanym wykresie metody sztucznej inteligencji należą do klasy metod indukcyjnych, wykorzystywanych w problemach cechujących się wysokim stopniem złożoności oraz niejawnymi powiązaniami między zmiennymi. 1 Zieliński, Jerzy S. – „Inteligentne systemy w zarządzaniu. Teoria i praktyka”, PWN, Warszawa 2000, str.172 2.1 Algorytmy genetyczne Algorytmy genetyczne są wykorzystywane do rozwiązywania zadań optymalizacyjnych, z którymi bardzo często mamy do czynienia w naukach ekonomicznych. Przykładem może tu być dobrze znany problem poszukiwania najkrótszej drogi (problem komiwojażera) czy też problem znalezienia optymalnej wielkości zapasów, które należy utrzymywać w przedsiębiorstwie. Problemy optymalizacyjne występujące w ekonomi bardzo często można zaliczyć do problemów NP-trudnych. Oznacza to, że do ich optymalizacji nie wystarczą klasyczne metody pełnego przeszukiwania przestrzeni możliwych rozwiązań. Rozpatrzmy dokładniej problem komiwojażera. W skrócie polega on na znalezieniu najkrótszej drogi pomiędzy określoną ilością miast, przy spełnieniu założenia, że każde z miast jest odwiedzane tylko raz, a miasto startowe jest jednocześnie kończącym. W przypadku 5 miast problem ten może zostać rozwiązany poprzez wygenerowanie i porównanie wszystkich możliwych rozwiązań (12). Jednakże nawet nieznaczne zwiększenie ilości miast powoduje wprost kolosalny wzrost liczby możliwych rozwiązań – dla 10 miast jest ich już 181440, dla 30 – 4*1030! Istnienie tak dużej ilości koniecznych do rozpatrzenia przypadków sprawia, że rozwiązywanie tego typu problemów trzeba oprzeć na przybliżonych metodach poszukiwania rozwiązania optymalnego2. Do metod takich należą wzorowane na naturalnej ewolucji algorytmy genetyczne. Ich działanie oparte jest na mechanizmach doboru naturalnego i dziedziczenia, a podstawową zasada, którą się kierują w doborze rozwiązań optymalnych jest ewolucyjna zasada przeżycia osobników jak najlepiej przystosowanych. Wynika z tego, że dokonują one w pewien sposób ukierunkowanego przeszukiwania przestrzeni możliwych rozwiązań. Poza wymienionym wcześniej problemem komiwojażera i problemem optymalizacji zapasów w przedsiębiorstwie, algorytmy genetyczne są wykorzystywane w optymalizacji sieci dystrybucyjnej, analizie bankructw przedsiębiorstw, ustalaniu harmonogramów zarządzania produkcją i innych podobnych zagadnieniach. 2.2 Sieci neuronowe Podstawową zaletą sieci neuronowych decydujących o ich coraz powszechniejszym wykorzystaniu w różnych dziedzinach nauki jest możliwość rozwiązania postawionego zadania bez wcześniejszej znajomości metody jego rozwiązywania. Ta cecha sieci neuronowych jest przydatna szczególnie wtedy kiedy metoda taka nie istnieje. W dziedzinie nauk ekonomicznych często można spotykać się z problemami cechującymi się tak wysokim stopniem złożoności, że stworzenie matematycznych modeli na podstawie których można by je rozwiązywać jest praktycznie niemożliwe. Sieć neuronowa potrafi natomiast poradzić sobie z dowolnie skomplikowanymi problemami przy założeniu że są one rozwiązywalne i że istnieje odpowiedni zbiór danych, które mogą zostać wykorzystane w procesie uczenia sieci. Sieć neuronowa działa bowiem na podobnych zasadach jak mózg ludzki. Uczy się ona rozwiązywać postawiony przed nią problem w oparciu o prezentowane jej przykłady uczące. Jeżeli przykładów tych jest zbyt mało, to będzie zachowywała się jak niedouczone dziecko, jeżeli jest ich zbyt dużo, to podczas prób rozwiązania problemu zagubi się w gąszczu szczegółów. Jedną z ciekawszych cech sieci neuronowych jest ich zdolność do generalizacji, czyli uogólniania wiedzy prezentowanej w trakcie uczenia. Zdolność ta przejawia się poprawnym zachowaniem sieci w przypadku wprowadzenia do niej informacji w pewnym stopniu różniącej się wszystkich informacji, które zostały zaprezentowane podczas procesu uczenia. Dwie inne cechy sieci neuronowych otwierające przed nimi pole zastosowań ekonomicznych to umiejętność radzenia sobie z niekompletnymi i zaszumionymi danymi oraz umiejętność aproksymacji systemów nawet bardzo silnie nieliniowych. Do podstawowych klas problemów ekonomicznych, które z powodzeniem są rozwiązywane przy pomocy sieci neuronowych należy zaliczyć predykcję, optymalizację, klasyfikację oraz analizę danych. Istota zagadnień optymalizacyjnych została już omówiona przy okazji algorytmów genetycznych, a więc w punkcie tym będzie ona pominięta. Należy tylko nadmienić, że sieci neuronowe najczęściej wykorzystywane do rozwiązywania problemów optymalizacyjnych to sieci ze sprzężeniami zwrotnymi, głównie sieci Hopfielda. Zdolności aproksymacyjne sieci neuronowych są ostatnio szczególnie często wykorzystywane do przewidywania zachowań rynków finansowych. Badana jest tutaj zarówno możliwość zmiany, czy kontynuacji trendu cenowego poszczególnych instrumentów finansowych, jak i ich konkretne ceny. Innymi ekonomicznymi zadaniami prognostycznymi stawianymi przed sieciami neuronowymi są prognozy: bankructw przedsiębiorstw, wskaźników ekonomicznych, zapotrzebowania na pracowników, przepływów gotówkowych oraz zjawisk i wskaźników makroekonomicznych takich jak: bezrobocie, inflacja, PKB i innych. Ważną zaletą sieci neuronowych wykorzystywanych do celów prognostycznych jest fakt, że w wyniku uczenia sieć może nabyć zdolności przewidywania wyjściowych sygnałów wyłącznie na podstawie obserwacji, bez konieczności stawiania w sposób jasny hipotez o Korbicz J., Obuchowski A., Uciński D. – „Sztuczne sieci neuronowe. Podstawy i zastosowania”, Akademicka Oficyna Wydawnicza PLJ, Warszawa, 1994, str. 137-138 2 naturze związku pomiędzy wejściowymi danymi, a przewidywanymi wynikami. 3 Bardzo często w celach prognostycznych wykorzystuje się najprostsze sieci perceptronowe o jednokierunkowym przepływie sygnałów i nieliniowych, ciągłych funkcjach aktywacji, wyposażone z reguły w jedną warstwę ukrytą. Wśród bardziej specjalistycznych sieci zajmujących się tego typu zagadnieniami należy wymienić sieci realizujące regresję uogólnioną (GRNN). Innym, często przytaczanym ekonomicznym zastosowaniem sieci neuronowych są zagadnienia klasyfikacyjne. Zagadnienia te polegają na wyodrębnieniu w przestrzeni rozważań rozpatrywanego problemu szeregu rozłącznych klas, identyfikujących jego poszczególne charakterystyczne obszary. Zadaniem sieci neuronowych, wykorzystywanych w zagadnieniach klasyfikacyjnych jest wytworzenie w trakcie nauki pól decyzyjnych odpowiadających zdefiniowanym przez użytkownika klasom. Prawidłowo nauczona sieć cechuje się tym, że podanie jej dowolnego wzorca wejściowego powoduje wygenerowanie identyfikatora klasy, do której prezentowany wzorzec jest w największym stopniu podobny. Do rozwiązywania zagadnień klasyfikacyjnych wykorzystuje się z reguły zwykłe jednokierunkowe sieci z ciągłymi, nieliniowymi funkcjami aktywacji. Identyfikacja klas jest w nich zorganizowana najczęściej poprzez przypisanie jednego neuronu wyjściowego sieci jednej konkretnej klasie. Sieci tego typu mają więc tyle neuronów wyjściowych, na ile klas został podzielony rozpatrywany problem. Sztandarowym, bardzo często spotykanym, ekonomicznym zastosowaniem klasyfikacyjnych sieci neuronowych jest badanie zdolności kredytowej przedsiębiorstw. Sieć realizująca tego typu zadanie uczona jest w oparciu o dane zawarte w zgromadzonych wcześniej wnioskach kredytowych. Na podstawie danych tych sieć identyfikuje obszary odpowiadające np. klientom wypłacalnym, niewypłacalnym oraz pozostałym. Oczywiście ilość klas może być dowolna, zależna od użytkownika. Kolejnym ciekawym zagadnieniem rozwiązywanym przy pomocy sieci klasyfikacyjnych są próby identyfikacji formacji cenowych informujących, zgodnie z teorią analizy technicznej, o możliwości zmiany bądź kontynuacji aktualnego trendu cenowego danego instrumentu finansowego. Innymi często spotykanymi ekonomicznymi zastosowaniami sieci klasyfikacyjnych są zagadnienia związane: z klasyfikacją obligacji, oceną stopnia opłacalności przedsięwzięć inwestycyjnych, wyborem funduszu powierniczego, wyborem strategii sprzedaży i inne. Zagadnienia związane z analizą danych są w pewien sposób podobne do zagadnień klasyfikacyjnych. W zasadzie cel ich jest taki sam. Jest nim podział rozpatrywanego 3 Tadeusiewicz R. – „Sieci neuronowe”, Akademicka Oficyna Wydawnicza RM, Warszawa, 1993, str. 16 problemu na szereg klas. Podstawową różnicą odróżniającą od siebie te dwa rodzaje zagadnień jest znajomość kryteriów decyzyjnych. W zagadnieniach klasyfikacyjnych kryteria te są dokładnie zdefiniowane, co oznacza, że ilość klas jest ściśle znana. Zadaniem sieci neuronowej jest jedynie nauczenie się poprawnego klasyfikowania nowych obiektów do zdefiniowanych wcześniej klas. W zadaniach związanych z analizą danych kryteria decyzyjne pozwalające na zakwalifikowanie danego obiektu do określonej klasy nie są znane. Co więcej nieznane są również same klasy. Zadaniem stawianym przed sieciami neuronowymi wykorzystywanymi w procesie analizy danych jest właśnie wyszukanie tych klas, czyli podział całego zbioru danych na szereg jednorodnych podzbiorów. Oczywiście podział ten powinien być przeprowadzony w taki sposób aby elementy tego samego podzbioru były jak najbardziej podobne do siebie, zaś elementy różnych podzbiorów - jak najbardziej odmienne4. Do rozwiązywania tego typu problemów wykorzystuje się różne odmiany sieci samouczących, spośród których do najbardziej znanych należą chyba sieci Kohonena. Sieci pozwalające na dokonywanie analizy dużych zbiorów danych są obecnie coraz częściej wykorzystywane w zagadnieniach ekonomicznych. Przykładem może być analiza trendów cenowych instrumentów finansowych pod względem występujących w nich prawidłowości. Analiza taka pozwala np. na wyodrębnienie ze zbioru próbek formacji cenowych charakterystycznych dla danego waloru, które następnie można wykorzystać do prognozy przyszłej wartości tegoż waloru przy pomocy przeznaczonej do rozwiązywania tego rodzaju zadań sieci neuronowej. 2.3 Logika rozmyta Otaczająca nas rzeczywistość gospodarcza charakteryzuje się bardzo wysokim stopniem złożoności. Z tego powodu trudno jest ją opisać używając dokładnych, precyzyjnych pojęć. Najczęściej do opisu zjawisk występujących w rzeczywistości gospodarczej używa się więc pojęć nie precyzyjnych, lecz rozmytych. Odwrotną zależność występującą między precyzją opisu problemów występujących w otaczającym nas świecie, a ich złożonością najlepiej oddaje zasada niespójności sformułowana przez twórcę logiki rozmytej Lofti Zadeha. Brzmi ona następująco: „w miarę wzrostu złożoności systemu nasza zdolność do formułowania istotnych stwierdzeń dotyczących jego zachowania maleje, osiągając w końcu próg poza którym precyzja i istotność stają się cechami wzajemnie prawie się wykluczającymi”5. Zieliński, Jerzy S. – „Inteligentne systemy w zarządzaniu. Teoria i praktyka”, PWN, Warszawa 2000, str.191 Piegat A. – „Modelowanie i sterowanie rozmyte”, Akademicka Oficyna Wydawnicza EXIT, Warszawa, 1999, str. 18 4 5 Niemożność formułowania precyzyjnych stwierdzeń na temat opisywanego systemu stała się głównym motorem rozwoju nowej dziedziny wiedzy zwanej logiką rozmytą. W coraz większej ilości wyrobów (szczególnie japońskich) wykorzystuje się logikę rozmytą. W roku 1980 firma F.L Smidth & Company z Kopenhagi jako pierwsza zastosowała system oparty na logice rozmytej do sterowania piecem cementowni. W roku 1988 firma Hitachi powierzyła nadzór nad metrem w Sendai (Japonia) programowi opartemu na logice rozmytej. Od tego czasu przedsiębiorstwa Japońskie zaczęły wykorzystywać to podejście w produkcji setek wyrobów sprzętu gospodarstwa domowego i elektroniki użytkowej. Zastosowania logiki rozmytej nie ograniczają się tylko do systemów sterowania. Za pomocą tej nowej dziedziny życia można w zasadzie opisać każdy system o ciągłych parametrach, niezależnie od tego, czy będzie to zagadnienie z fizyki, biologii, czy też ekonomii. Przykładem problemu ekonomicznego, do rozwiązania którego to można wykorzystać logikę rozmytą może być problem odpowiedniego ukierunkowanie działalności przedsiębiorstwa. Jasne określenie cech klientów ma istotne znaczenie zwłaszcza przy zastosowaniu metod marketingu bezpośredniego. Jeśli firma planuje np. rozesłanie materiałów reklamowych określonego towaru, to w celu ograniczenia kosztów oferta ta powinna być skierowana tylko do tych klientów, którzy prawdopodobnie byliby skłonni dany produkt kupić. Kryteriami definiującymi potencjalnych nabywców mogą być: wiek, dane o dochodach, dane demograficzne, dane geograficzne, historia poprzednich zakupów itp. Firma prowadząca dane badania marketingowe gromadzi uzyskane informacje w bazach danych, obejmujących często dane dotyczące nawet kilkudziesięciu tysięcy osób. Problemem jest oczywiście wybór właściwych cech klientów, którzy mogą stać się celem podejmowanych akcji marketingowych. Innymi problemami, które można rozwiązać przy pomocy logiki rozmytej są problemy związane z podejmowaniem decyzji dotyczących aktywności giełdowej. Problemy te należą do najbardziej skomplikowanych zagadnień związanych z inżynierią finansową. Często wykazują one cechy nieliniowych zachowań o charakterze chaotycznym i mają zwykle skomplikowana dynamikę. Jedna z najistotniejszych kwestii jest właściwe wykorzystanie rozpoznawalnych trendów oraz zbudowanie strategii rynkowej, która będzie przynosić zyski w czasie długotrwałych i silnych trendów, zaś minimalizować straty w czasie chwilowych wahań koniunktury. Strategie te bazują na intuicyjnych regułach, które w sposób naturalny mogą być modelowane przy wykorzystaniu logiki rozmytej. Zakończenie Sztuczna inteligencja jest dziedziną nauki stosunkowo młodą, ale bardzo prężnie się rozwijającą. Ciągle wzrasta ilość metod badawczych oraz rozszerzane są obszary jej wykorzystania w ekonomii. Ostatnio pojawiają się nowe metody np. analiza danych przy wykorzystaniu zbiorów przybliżonych. Zaprezentowane powyżej zalety poszczególnych metod sztucznej inteligencji powodują, że stanowią one coraz częściej wykorzystywane przeciwwagę dla klasycznych metod matematycznych. Coraz częściej można także obserwować łączenie poszczególnych metod w metody hybrydowe łączące w sobie zalety poszczególnych narzędzi. Bibliografia 1. Inteligentne systemy w zarządzaniu – teoria i praktyka, praca napisana pod redakcja Jerzego S. Zielińskiego; 2. Penrose R.: Nowy umysł cesarza – o komputerach, umyśle i prawach fizyki, Wydawnictwo Naukowe PWN, Warszawa 2000; 3. Piegat A.: Modelowanie i sterowanie rozmyte, Akademicka Oficyna Wydawnicza EXIT, Warszawa 1999 r.; 4. Logika rozmyta, „Świat Nauki”, wrzesień 1993 r.; 5. Rozmyty świat, „Wiedza i Życie”, luty 1997 r.; 6. Czy maszyna może się uczyć całkiem sama?, „Wiedza i Życie”, sierpień 1998 r.; 7. Sztuczna inteligencja w realnym świecie zastosowań, „Computerworld”, nr 41, 1994 r.; 8. Zapomniane pomysły Alana Turinga, „Świat Nauki”, czerwiec 1999 r.; 9. Mistrz duchowy sztucznej inteligencji, „Świat Nauki”, styczeń 1994 r.; 10. Sztuczna inteligencja, „Świat Nauki”, listopad 1995 r.; 11. Rutkowska D., Piliński M., Rutkowski L.: Sieci neuronowe, algorytmy genetyczne i systemy rozmyte, Wydawnictwo Naukowe PWN, Łódź 1999 r.; 12. Tadeusiewicz R.: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa, 1993 r.; 13. Korbicz J., Obuchowski A., Uciński D.: Sztuczne sieci neuronowe. Podstawy i zastosowania, Akademicka Oficyna Wydawnicza PLJ, Warszawa, 1994 r.