Metody bioinformatyki Zagadnienia modelowania działania mózgu prof. dr hab. Jan Mulawka Czym zajmuje się neuroinformatyka • Neuroinformatyka jest interdyscyplinarną nauką zajmującą się analizą i przetwarzaniem danych zebranych od systemu nerwowego • W jej skład wchodzą: biologia i medycyna (nauki neuralne), statystyka, cyfrowe przetwarzanie sygnałów, informatyka i fizyka • Mieści się więc ona w szeroko rozumianym nurcie bioinformatyki Koncepcja homo komputera Definicje sztucznej inteligencji • Sztuczna inteligencja jest nauką o maszynach realizujących zadania, które wymagają inteligencji wówczas, gdy są wykonywane przez człowieka. (Minsky) • Sztuczna inteligencja stanowi dziedzinę informatyki dotyczącą metod i i technik wnioskowania symbolicznego przez komputer oraz symbolicznej reprezentacji wiedzy stosowanej podczas takiego wnioskowania. (Feigenbaum) Dwa rodzaje sztucznej inteligencji • Silna sztuczna inteligencja dąży do utworzenia sztucznych systemów myślących o poziomie intelektualnym zbliżonym do ludzkiego lub go przewyższającym • Słaba sztuczna inteligencja zajmuje się szerokim spektrum problemów szczegółowych, dotyczących wykonywania przez systemy informatyczne zadań, których złożoność powoduje, że wymagają one inteligencji, jeśli są wykonywane przez człowieka Czym ma być system inteligentny? • System, który myśli jak człowiek • System, który myśli racjonalnie • System, który zachowuje się jak człowiek • System, który zachowuje się racjonalnie Możliwości informatyczne ludzkiego mózgu (homo komputer) • Ludzki mózg jest niedościgłym wzorem przetwarzania danych • Przy myśleniu zużywa on tyle energii, ile starczyłoby do uruchomienia zaledwie kalkulatora • Objętość zajmowana przez ludzki mózg odpowiada średnio objętości damskiej torebki Wymaganie wielkich wydajności obliczeniowych • Odtworzono jedynie strukturę działania kory mózgowej kota, bo superkomputery wciąż przetwarzają dane dużo wolniej niż kot • Okazuje się, że mikroprocesory zaledwie w 10% wykorzystują czas na efektywne myślenie; 90% czasu zajmuje oczekiwanie na odszukanie niezbędnych danych w pamięci, które po wykorzystaniu trzeba odesłać w odpowiednie miejsce • Dlatego wymagane są superkomputery o olbrzymich mocach obliczeniowych Liczba operacji na sekundę wykonywanych przez najszybsze komputery na świecie • 1 petaflop : 10 exp 18 operacji zmiennoprzecinkowych na sekundę • Wydajność ludzkiego mózgu : 20 petaflopów • Wydajność mózgu kota : 10 exp 13 = 10 teraflopów • Wydajność współczesnych superkomputerów : 0.9 petaflopa 4.5% wydajności ludzkiego mózgu Wymagania od przyszłościowych komputerów • Strumieniowe przetwarzanie danych w czasie rzeczywistym • Dokonywanie obliczeń w sposób równoległy • Wykorzystanie architektur podobnych do sieci neuronowych • Wykazywanie umiejętności uczenia się maszyn • Działanie oparte na koncepcjach silnej jak również słabej sztucznej inteligencji Ogólny schemat interfejsu człowiek komputer (BCI) Automatyczna klasyfikacja sygnałów elektroencefalograficznych - EEG 1. Poznawanie działania mózgu 2. Modelowanie działania mózgu Sygnały generowane przez mózg Podstawowe wiadomości o EEG Elektroencefalografia – badanie potencjałów elektrycznych generowanych przez komórki nerwowe mózgu odprowadzanych z powierzchni głowy Metody pomiaru powierzchniowe głębinowe Rozmieszczenie elektrod Powszechnie stosowany standard „1020”. Litery opisują elektrody według anatomicznych obszarów czaszki ( Fp – przedczołowe, F - czołowe, C centralne, T - skroniowe, Pciemieniowe, O - potyliczne, S uszne) Potencjały wywołane Potencjały wywołane – stanowią odpowiedź elektryczną mózgu na stymulację receptorów czuciowych i zmysłowych oraz czynność neuronalną związaną z procesami poznawczymi albo planowaniem czynności ruchowych W praktyce klinicznej wyróżnić można stymulację czuciową, wzrokową, słuchową Pojęcia Latencja – liczba milisekund które upłynęły od pojawienia się bodźca Załamek – lokalny wzrost lub spadek potencjału Metody analizy zapisów EEG Można wyróżnić metody: Analizy wzrokowej - popularna przede wszystkich w środowiskach lekarzy Analizy technicznej analiza w dziedzinie czasu analiza w dziedzinie częstotliwości analiza w dziedzinie czas-częstotliwość różne inne metody dekompozycji sygnałów Mapowanie EEG - polega na interpolacji funkcji potencjału z elektrodami jako węzłami w tej samej chwili czasu t Postawienie problemu klasyfikacji sygnałów Dysponujemy pomiarami potencjałów wywołanych (stymulacja słuchowa) dla dwóch rodzajów bodźca. Problem: Rozpoznawanie bodźca na podstawie zapisów EEG Problemy alternatywne Rozpoznawanie chorób, rozpoznawanie ruchu kończyn, rozpoznawanie wyobrażeń (zamiaru) ruchu itd. Opracowanie algorytmu przetwarzania sygnałów EEG prowadzącego do rozwiązania postawionego problemu klasyfikacji Ogólna koncepcja procesu przetwarzania Proces przetwarzania podzielony został na 6 etapów z których najistotniejszymi są dekompozycja, ekstrakcja cech, Uczenie Przetwarzanie wstępne Model pomiaru y(t)=x(t)+s(t) wielkość s(t) jest zmienną losową podlegającą rozkładowi normalnemu z wartością oczekiwaną E[s(t)]=0. Wobec tego wartość oczekiwana E[y(t)]=s(t) Uśrednianie sygnałów wielokrotnie mierzonych dla pojedynczego pacjenta Filtr częstotliwości Dyskretna transformata Fouriera (DFT) Definicja filtru progowego f (usunięcie wszystkich częstotliwości wyższych niż zadana wartość progowa ) Okno analizy Analiza wykonywana dla wybranego odcinka czasowego sygnału Dekompozycja zapisu EEG ICA (Analiza składowych niezależnych) − Wyrażenie sygnałów wejściowych w postaci X=AS − Określenie liczby sygnałów źródłowych (problem cocktail party) PARAFAC (Analiza składowych równoległych) Wyrażenie sygnałów wejściowych w postaci Dekompozycja ICA Założenia: Zadanie optymalizacji : 1. Wszystkie sygnały S są od siebie niezależne Poszukujemy takiej macierzy W 2. Wartości sygnałów S mają rozkłady niegausowskie która maksymalizuje nienormalność S 3. Macierz W jest kwadratowa Miary nienormalności : Ograniczenia : Kurtoza: 1. Brak możliwości określenia energii źródeł sygnału 2. Brak możliwości określenia kolejności źródeł . 3. Amplituda sygnału określona jest z dokładnością do znaku ENTROPIA: Dekompozycja ICA-liczba sygnałów niezależnych Problem W jaki sposób określić liczbę składowych niezależnych ? Rozwiązanie oparte o analizę składowych głównych (PCA) PCA Rozważamy bazę ortogonalną w której macierz korelacji jest diagonalna. (sygnały nie są skorelowane ) . Po transformacji dostajemy sygnał Y: RX u –Y= określa procent całkowitej wariancji zmiennych zawartej w k pierwszych składowych głównych Dla jakiej wartości u liczba składowych głównych najlepiej oddaje liczbę składowych niezależnych? Dekompozycja ICA-liczba sygnałów niezależnych Dekompozycja PARAFAC Sygnał z pojedynczej elektrody zastąpiony jest przez jego spektrogram Zapis dla pojedynczego pacjenta jest reprezentowany przez tensor Liczba składowych równoległych powinna być taka by minimalizować błąd estymacji Ekstrakcja cech Definicja przykładu dla pojedynczego pacjenta: p=(s1,s2,s3...,sn) s1...sn – sygnały powstałe na skutek którejś z rozważanych dekompozycji Reprezentacja składowej s : Składowe s są cechami zbioru sygnałów dla danej klasy pacjentów. Cechami charakterystycznymi są składowe s występujące u jak największej liczby pacjentów z danej klasy. Wybór cech charakterystycznych -- > grupowanie pojęciowe Określenie udziału danej cechy s w zbiorze sygnałów --> Rozmyta reprezentacja cech funkcja rozmycia --> entropia Ekstrakcja cech – reprezentacja rozmyta Dla przykładowego zbioru pacjentów który został poddany procesowi grupowania można wprowadzić pojęcie cechy charakterystycznej zbioru sygnałów w stopniu entropii pacjentów w grupach. Ekstrakcja cech – wybór optymalnej liczby grup Ocena jakości grupowania : indeks Deviesa- Bouldina Wada miary: najlepsza wartość dla grup jednorodnych (przykłady identyczne) Problem : automatyczny wybór liczby grup Cechy zbioru idealnego Pojęcie idealnego zbioru sygnałów 1. Każda składowa jest cechą na poziomie entropii 1 2. Wartością indeksu DB jest 0. 3 Znormalizowana do przedział (0,1) wartość entropii pacjentów w grupach jest równa 1 sumarycznej 4. Wartość oczekiwana entropii pacjentów w grupach jest równa 1 5. Odchylenie od wartości oczekiwanej entropii jest równe 0 6. Odchylenie od oczekiwanej liczności pacjentów w grupach równe 0 Ekstrakcja cech – wybór optymalnej liczby grup Wektor charakterystyczny cech Wartość oczekiwana wektora id Zadanie optymalizacji Identyczna sytuacja w przypadku rozważania indeksu klas Wektor charakterystyczny cech Wartość oczekiwana wektora id 32 Ekstrakcja cech – współrzędne wektora cech Ekstrakcja cech – tworzenie pojęć Ekstrakcja cech – tworzenie pojęć Ekstrakcja cech w obrębie pojedynczej klasy pacjentów Ekstrakcja cech – tworzenie pojęć Ekstrakcja cech dla klas Uczenie się zdefiniowanych pojęć Czteroetapowy proces uczenia : 1.Uczenie się rozpoznawania rozwiązań charakterystycznych klasy ch (na zadanym poziomie entropii pacjentów) 2 Uczenie się rozpoznawania rozwiązań klasy c (na zadanym poziomie entropii pacjentów) 3.Uczenie się rozpoznawania rozwiązań identycznych dla obu grup pacjentów 4.Uczenie się rozpoznawania klasy pacjenta Klasyfikacja Czteroetapowy proces klasyfikacji Schemat procesu przetwarzania Dokładność klasyfikacji Pogorszenie jakości klasyfikacji ze wzrostem progu entropii Porównanie jakości klasyfikacji Najlepszy uzyskany klasyfikator czteroetapowy