Zagadnienia modelowania działania mózgu

advertisement
Metody bioinformatyki
Zagadnienia modelowania
działania mózgu
prof. dr hab. Jan Mulawka
Czym zajmuje się neuroinformatyka
• Neuroinformatyka jest interdyscyplinarną nauką
zajmującą się analizą i przetwarzaniem danych
zebranych od systemu nerwowego
• W jej skład wchodzą: biologia i medycyna (nauki
neuralne), statystyka, cyfrowe przetwarzanie
sygnałów, informatyka i fizyka
• Mieści się więc ona w szeroko rozumianym
nurcie bioinformatyki
Koncepcja homo komputera
Definicje sztucznej inteligencji
• Sztuczna inteligencja jest nauką o maszynach
realizujących zadania, które wymagają inteligencji
wówczas, gdy są wykonywane przez człowieka. (Minsky)
• Sztuczna inteligencja stanowi dziedzinę informatyki
dotyczącą metod i i technik wnioskowania symbolicznego
przez komputer oraz symbolicznej reprezentacji wiedzy
stosowanej podczas takiego wnioskowania. (Feigenbaum)
Dwa rodzaje sztucznej inteligencji
• Silna sztuczna inteligencja dąży do utworzenia
sztucznych systemów myślących o poziomie
intelektualnym zbliżonym do ludzkiego lub go
przewyższającym
• Słaba sztuczna inteligencja zajmuje się szerokim
spektrum problemów szczegółowych,
dotyczących wykonywania przez systemy
informatyczne zadań, których złożoność
powoduje, że wymagają one inteligencji, jeśli są
wykonywane przez człowieka
Czym ma być system inteligentny?
• System, który myśli jak człowiek
• System, który myśli racjonalnie
• System, który zachowuje się jak
człowiek
• System, który zachowuje się
racjonalnie
Możliwości informatyczne ludzkiego mózgu
(homo komputer)
• Ludzki mózg jest niedościgłym wzorem
przetwarzania danych
• Przy myśleniu zużywa on tyle energii, ile
starczyłoby do uruchomienia zaledwie
kalkulatora
• Objętość zajmowana przez ludzki mózg
odpowiada średnio objętości damskiej torebki
Wymaganie wielkich wydajności
obliczeniowych
• Odtworzono jedynie strukturę działania kory
mózgowej kota, bo superkomputery wciąż
przetwarzają dane dużo wolniej niż kot
• Okazuje się, że mikroprocesory zaledwie
w 10% wykorzystują czas na efektywne
myślenie; 90% czasu zajmuje oczekiwanie na
odszukanie niezbędnych danych w pamięci,
które po wykorzystaniu trzeba odesłać w
odpowiednie miejsce
• Dlatego wymagane są superkomputery
o olbrzymich mocach obliczeniowych
Liczba operacji na sekundę wykonywanych przez
najszybsze komputery na świecie
• 1 petaflop : 10 exp 18 operacji
zmiennoprzecinkowych na sekundę
• Wydajność ludzkiego mózgu : 20 petaflopów
• Wydajność mózgu kota :
10 exp 13 = 10 teraflopów
• Wydajność współczesnych superkomputerów :
0.9 petaflopa
4.5% wydajności ludzkiego mózgu
Wymagania od przyszłościowych komputerów
• Strumieniowe przetwarzanie danych w czasie
rzeczywistym
• Dokonywanie obliczeń w sposób równoległy
• Wykorzystanie architektur podobnych do sieci
neuronowych
• Wykazywanie umiejętności uczenia się maszyn
• Działanie oparte na koncepcjach silnej jak
również słabej sztucznej inteligencji
Ogólny schemat interfejsu człowiek
komputer (BCI)
Automatyczna klasyfikacja sygnałów
elektroencefalograficznych - EEG
1. Poznawanie działania mózgu
2. Modelowanie działania mózgu
Sygnały generowane przez mózg
Podstawowe wiadomości o EEG
Elektroencefalografia – badanie potencjałów elektrycznych generowanych
przez komórki nerwowe mózgu odprowadzanych z powierzchni głowy
Metody pomiaru
 powierzchniowe
 głębinowe
Rozmieszczenie elektrod
Powszechnie stosowany standard „1020”.
Litery opisują elektrody według
anatomicznych obszarów czaszki
( Fp – przedczołowe, F - czołowe, C centralne, T - skroniowe, Pciemieniowe, O - potyliczne, S uszne)
Potencjały wywołane
Potencjały wywołane – stanowią odpowiedź elektryczną mózgu na stymulację
receptorów czuciowych i zmysłowych oraz czynność neuronalną związaną z
procesami poznawczymi albo planowaniem czynności ruchowych
W praktyce klinicznej wyróżnić można stymulację czuciową, wzrokową, słuchową
Pojęcia
Latencja – liczba milisekund
które upłynęły od pojawienia
się bodźca
Załamek – lokalny wzrost lub
spadek potencjału
Metody analizy zapisów EEG
Można wyróżnić metody:
Analizy wzrokowej - popularna przede wszystkich w środowiskach lekarzy
Analizy technicznej
analiza w dziedzinie czasu
analiza w dziedzinie częstotliwości
analiza w dziedzinie czas-częstotliwość
różne inne metody dekompozycji sygnałów
Mapowanie EEG - polega na
interpolacji funkcji potencjału z
elektrodami jako węzłami w tej
samej chwili czasu t
Postawienie problemu klasyfikacji sygnałów
Dysponujemy pomiarami potencjałów wywołanych (stymulacja słuchowa) dla
dwóch rodzajów bodźca.
Problem: Rozpoznawanie bodźca
na podstawie zapisów EEG
Problemy alternatywne
Rozpoznawanie chorób, rozpoznawanie ruchu kończyn, rozpoznawanie
wyobrażeń (zamiaru) ruchu itd.
Opracowanie algorytmu przetwarzania sygnałów EEG
prowadzącego do rozwiązania postawionego problemu
klasyfikacji
Ogólna koncepcja procesu przetwarzania
Proces przetwarzania podzielony został na 6 etapów z których najistotniejszymi są
dekompozycja, ekstrakcja cech, Uczenie
Przetwarzanie wstępne
Model pomiaru
y(t)=x(t)+s(t)
wielkość s(t) jest zmienną losową podlegającą rozkładowi normalnemu z wartością
oczekiwaną E[s(t)]=0. Wobec tego wartość oczekiwana E[y(t)]=s(t)
Uśrednianie sygnałów wielokrotnie mierzonych dla pojedynczego pacjenta
Filtr częstotliwości
Dyskretna transformata Fouriera (DFT)
Definicja filtru progowego f (usunięcie
wszystkich częstotliwości wyższych
niż zadana wartość progowa )
Okno analizy
Analiza wykonywana dla
wybranego odcinka
czasowego sygnału
Dekompozycja zapisu EEG
ICA (Analiza składowych
niezależnych)
−
Wyrażenie sygnałów wejściowych w
postaci X=AS
−
Określenie liczby sygnałów
źródłowych (problem cocktail party)
PARAFAC (Analiza
składowych równoległych)
Wyrażenie sygnałów wejściowych w
postaci
Dekompozycja ICA
Założenia:
Zadanie optymalizacji :
1. Wszystkie sygnały S są od siebie
niezależne
Poszukujemy takiej macierzy W
2. Wartości sygnałów S mają rozkłady
niegausowskie
która maksymalizuje nienormalność S
3. Macierz W jest kwadratowa
Miary nienormalności :
Ograniczenia :
Kurtoza:
1. Brak możliwości określenia energii
źródeł sygnału
2. Brak możliwości określenia
kolejności źródeł .
3. Amplituda sygnału określona jest z
dokładnością do znaku
ENTROPIA:
Dekompozycja ICA-liczba sygnałów niezależnych
Problem
W jaki sposób określić liczbę składowych niezależnych ?
Rozwiązanie oparte o analizę składowych głównych (PCA)
PCA
Rozważamy bazę ortogonalną
w której macierz korelacji
jest diagonalna.
(sygnały nie
są
skorelowane ) .
Po transformacji dostajemy
sygnał Y:
RX
u –Y=
określa
procent całkowitej wariancji zmiennych zawartej w k
pierwszych składowych głównych
Dla jakiej wartości u liczba składowych głównych najlepiej oddaje
liczbę składowych niezależnych?
Dekompozycja ICA-liczba sygnałów niezależnych
Dekompozycja PARAFAC
Sygnał z pojedynczej elektrody
zastąpiony jest przez jego
spektrogram
Zapis dla pojedynczego pacjenta jest
reprezentowany przez tensor
Liczba składowych równoległych
powinna być taka by
minimalizować błąd estymacji
Ekstrakcja cech
Definicja przykładu dla pojedynczego pacjenta: p=(s1,s2,s3...,sn)
s1...sn – sygnały powstałe na skutek którejś z rozważanych dekompozycji
Reprezentacja składowej s :
Składowe s są cechami zbioru sygnałów dla danej klasy pacjentów.
Cechami charakterystycznymi są składowe s występujące u jak
największej liczby pacjentów z danej klasy.
Wybór cech charakterystycznych
-- > grupowanie pojęciowe
Określenie udziału danej cechy s w zbiorze sygnałów --> Rozmyta
reprezentacja cech funkcja rozmycia --> entropia
Ekstrakcja cech – reprezentacja rozmyta
Dla przykładowego zbioru pacjentów który został poddany procesowi
grupowania
można wprowadzić pojęcie cechy charakterystycznej zbioru sygnałów w
stopniu entropii pacjentów w grupach.
Ekstrakcja cech – wybór optymalnej liczby grup
Ocena jakości grupowania :
indeks Deviesa- Bouldina
Wada miary:
najlepsza wartość dla grup
jednorodnych (przykłady
identyczne)
Problem : automatyczny wybór liczby grup
Cechy zbioru idealnego
Pojęcie idealnego zbioru sygnałów
1. Każda składowa jest cechą na poziomie entropii 1
2. Wartością indeksu DB jest 0.
3 Znormalizowana do przedział (0,1) wartość
entropii pacjentów w grupach jest równa 1
sumarycznej
4. Wartość oczekiwana entropii pacjentów w grupach jest równa 1
5. Odchylenie od wartości oczekiwanej entropii jest równe 0
6. Odchylenie od oczekiwanej liczności pacjentów w grupach
równe 0
Ekstrakcja cech – wybór optymalnej liczby grup
Wektor charakterystyczny cech
Wartość oczekiwana wektora id
Zadanie optymalizacji
Identyczna sytuacja w przypadku rozważania indeksu klas
Wektor charakterystyczny cech
Wartość oczekiwana wektora id
32
Ekstrakcja cech – współrzędne
wektora cech
Ekstrakcja cech – tworzenie pojęć
Ekstrakcja cech – tworzenie pojęć
Ekstrakcja cech w obrębie pojedynczej klasy pacjentów
Ekstrakcja cech – tworzenie pojęć
Ekstrakcja cech dla klas
Uczenie się zdefiniowanych pojęć
Czteroetapowy proces uczenia :
1.Uczenie się rozpoznawania rozwiązań charakterystycznych klasy
ch (na zadanym poziomie entropii pacjentów)
2 Uczenie się rozpoznawania rozwiązań klasy c (na zadanym
poziomie entropii pacjentów)
3.Uczenie się rozpoznawania rozwiązań identycznych dla obu grup
pacjentów
4.Uczenie się rozpoznawania klasy pacjenta
Klasyfikacja
Czteroetapowy proces klasyfikacji
Schemat procesu przetwarzania
Dokładność klasyfikacji
Pogorszenie jakości klasyfikacji ze wzrostem
progu entropii
Porównanie jakości klasyfikacji
Najlepszy uzyskany klasyfikator czteroetapowy
Download