1. Współczesne generacje technologii komputerowych. Generacje

advertisement
1. Współczesne generacje technologii komputerowych.
Generacje
Technologia
Przetwarzanie
szeregowe
Przetwarzanie
wiedzy
Przetwarzanie
równoległe
0. Przekaźniki elektromechaniczne
1. Lampy elektronowe
2. Tranzystory
3. Układy scalone
3.5.Układy dużej skali integracji (LSI)
4. Układy bardzo dużej skali integracji
(VLSI)
5. Układy VLSI przetwarzające wiedzę
6. Technologie optyczne i hybrydowe
(neurokomputery)
7. Komputery molekularne
Architektura
przetwarzania
17 . Aproksymacja lingwistyczna. Kwantowanie przestrzeni
wartości w rozmytych systemach ekspertowych.
Podstawą zdefiniowania zbioru wartości zmiennej
jest określenie tzw. terminów podstawowych
(pierwotnych).
Na ich podstawie tworzone mogą być zbiory rozmyte
opisujące terminy złożone, definiowane za pomocą
operatorów działań na zbiorach rozmytych oraz
modyfikatorów kształtu.
Proces kolejnego przekształcania terminów
pierwotnych, poprzez zastosowanie modyfikatorów,
tak aby wynikowy zbiór rozmyty w jak najlepszy
sposób opisywał modelowane pojęcie nazywamy
aproksymacją lingwistyczną.
17 b . Aproksymacja lingwistyczna. Kwantowanie przestrzeni
wartości w rozmytych systemach ekspertowych.
Typowym sposobem tworzenia terminów pierwotnych
dla poszczególnych zmiennych tworzonego systemu
jest równomierne kwantowanie przestrzeni wartości.
Polega ono na podzieleniu tej przestrzeni na określoną
liczbę zbiorów rozmytych o jednakowej szerokości.
Kwestia wyboru liczby i funkcji przynależności
terminów pierwotnych musi być przedmiotem
konsultacji budowniczego systemu z ekspertem.
W przypadku, gdy brak jest dostatecznej wiedzy dla
bezpośredniego określenia terminów pierwotnych,
możliwe jest otrzymanie funkcji przynależności na
podstawie analizy obserwacji zachowania
modelowanego systemu.
18. Proces defuzyfikacji we wnioskowaniu rozmytym.
Proces wnioskowania z wykorzystaniem reguł
rozmytych daje w wyniku rozmytą wartość zmiennej
wyjściowej. W wielu przypadkach niezbędna jest jej
zamiana na wartość dokładną. Wyznaczanie
dokładnej wartości zmiennej określonej za pomocą
zbioru rozmytego nazywamy wyostrzaniem lub
defuzyfikacją. Defuzyfikacja przeprowadzana jest
zwykle za pomocą jednej z dwóch metod: - środka
obszaru (metoda centroidu - COA), lub średniej
maksymalnej (MOM). Metoda COA polega na
znalezieniu środka ciężkości zbioru rozmytego;
metoda MOM natomiast polega na wyznaczeniu
środka obszaru o największej przynależności.
25. Rekurencyjne warianty Sztucznych Sieci Neuronowych.
W topologii sieci rekurencyjnych dopuszcza się
zastosowanie połączeń wstecznych.
Sygnał wyjściowy z dowolnej jednostki może być
przekazany również (bezpośrednio lub za
pośrednictwem innych neuronów) na jej wejście.
Stan neuronu staje się więc zależny nie tylko
od wartości sygnału wejsciowego, ale również
od przeszłego stanu dowolnej jednostki,
nie wykluczając tego właśnie neuronu.
Najprostszym przykładem jest tu modyfikacja
jednokierunkowej sieci typu wstecznej propagacji
przez dodanie w warstwie wejściowej
jednostek tzw. kontekstu.
27. Cztery podstawowe założenia idei Algorytmów Getycznych.
1.Rozwiązania zakodowane są w postaci łańcuchów binarnych
o stałej długości; natomiast populacja rozwiązań zachowuje
stałą liczność w całym algorytmie.
2.Krzyżowanie rozwiązań angażuje dwa rozwiązania
rodzicielskie, dając w efekcie dwa rozwiązania potomne,
w których zachowana jest pozycja bitów.
3.Selekcja rozwiązań wykorzystuje mechanizm koła ruletki;
przestrzegana jest przy tym zasada wymiany całej populacji
rozwiązań w kolejnych krokach algorytmu.
4.Prawdopodobieństwo mutacji wyraża prawdopodobieństwo
zdarzenia, że pozycja bitu w łańcuchu binarnym,
reprezentującym zakodowaną postać rozwiązania, w kolejnej
populacji, zostanie poddana przekształceniu zmiany wartości.
28. Podstawowe kroki typowego Algorytmu Genetycznego.
1. Losowe ustalenie populacji inicjującej algorytm.
2. Oszacowanie wartości funkcji przystosowania
dla wszystkich chromosomów, po zdekodowaniu
ich do formy dogodnej do oszacowania
i przydzieleniu wartości funkcji przystosowania
(dopasowania).
3. Dokonanie selekcji chromozomów rodzicielskich
dla następnej generacji.
4. Powtarzanie operacji: krzyżowania, mutacji,
oszacowania wartości funkcji przystosowania,
selekcji chromosomów rodzicielskich
dla kolejnych generacji, dopóki nie zostanie
spełnione kryterium zatrzymania algorytmu.
29. Strategie Ewolucyjne - istota i zastosowania.
Strategie ewolucyjne, są stosowane głównie do numerycznej
optymalizacji projektów inżynierskich.
Strategie ewolucyjne różnią się od algorytmów genetycznych
następującymi cechami:
- reprodukcja jest dokonywana w sposób deterministyczny,
- wprowadzono inną koncepcję mutacji,
- parametr charakteryzujący mutację wchodzi w skład
chromosomu i podlega również ewolucji, zatem strategia
ewolucyjna samoczynnie adaptuje własny parametr
wewnętrzny (cechy tej nie ma algorytm genetyczny),
-operator krosowania jest operatorem ubocznym i często nie
jest wykorzystywany.
Są one używane wszędzie tam, gdzie rozwiązanie trudno jest
przewidzieć albo gdy funkcja jest trudna do optymalizacji przy
użyciu metod klasycznych.
Zaletą takiego podejścia jest duża uniwersalność, a przy
rozwiązywaniu problemu nie wymaga się obecności eksperta.
30. Inteligentne Programowanie Ewolucyjne.
Programowanie ewolucyjne jest w swojej idei zbliżone do koncepcji
strategii ewolucyjnych. Obejmuje jednak bardziej złożone problemy
związane ze sztuczną inteligencją.
W programowaniu ewolucyjnym inteligentne zachowanie rozumiane
jest jako zdolność przewidywania relacji pomiędzy środowiskiem
a działaniem ukierunkowanym na określony cel.
Środowisko zostało w idei programowania ewolucyjnego
zasymulowane jako sekwencja symboli wziętych ze skończonego
alfabetu.
Praktyczną reprezentacją tego typu problemów jest model tak
zwanego automatu ze skończoną liczbą stanów.
Download