Kognitywna Teoria Normy. Schematy i pojęcie noramtywne. Łukasz Łazarz (Wydział Prawa Uniwersytetu Jagiellońskiego) Słowa kluczowe: kognitywistyka, psychologia, sztuczna inteligencja, architektury kognitywne, filozofia, etyka, moralność, norma, schematy normatywne, schematy moralne. Abstrakt Nauka o człowieku, jego świadomości (umyśle), ma fundamentalne znaczenia dla jakichkolwiek odpowiedzi na gruncie jakiejkolwiek nauki. Związane to jest z faktem, że badając świat w jakimkolwiek jego aspekcie tak naprawdę nigdy nie mamy do czynienia z tym realnym światem, a raczej z jego odbiciem w lustrze naszej świadomości. Innymi słowy, tak naprawdę badamy to co widzimy, a nie to co rzeczywiście jest. Bez znajomości charakterystyki tej świadomościowej soczewki przez jaki widzimy świat nie będziemy mogli nigdy stwierdzić jak obraz odbity świata jest bliski jemu samemu. Kognitywistyka jest taką właśnie nauką o ludzkiej soczewce. Jej fundamentalne znaczenie dla zrozumienia problemów pojawiających się na gruncie bardzo różnych nauk powoduje jej nieustającą popularność na gruncie wielu dyscyplin nauki. W artykule stawiam jednak tezę, że przyczyn „genetycznych” dziedziny normatywne są szczególnie impregnowane na wyniki nauk poznawczych, które w sposób zagrażający podstawowym filarom systemów normatywnych forsują mniej lub bardziej naturalistyczną wizję człowieka, wizję, która nie jest do zaakceptowania na gruncie jakiegokolwiek systemu normatywnego. Systemy normatywne mają bowiem swoją konkretną funkcjonalność polegającą na zaspokajaniu potrzeb człowieka, a przede wszystkim jego najważniejszej potrzeby – potrzeby bezpieczeństwa. A temu naturalistyczna wizja człowieka w sposób oczywisty nie sprzyja. W pracy podejmuję próby ogólnego opisania architektury kognitywnej (nazywanej także dla zaakcentowania funkcjonalności polegającej na przetwarzaniu informacji) procesorem poznawczym. Próbę opisania podejmuję w dwóch wymiarach – deklaratywnym (problematyka reprezentacji danych) oraz proceduralnym (problem działania procesora poznawczego z wykorzystaniem wymiaru deklaratywnego). Kluczowym dla celów niniejszej pracy jest jednak analiza wiedzy, a w szczególności, przy zachowaniu rozłączności podziału wiedzy deklaratywnej i proceduralnej dostrzeżenie w ramach wiedzy deklaratywnej, takiego fragmentu wiedzy, który w treści utożsamić można z wiedzą proceduralną, aczkolwiek sposób jej nabywania jest właściwy dla wiedzy deklaratywnej. Innymi słowy kluczowym jest wyróżnienie takiej wiedzy deklaratywnej, która dotyczy powiązań z wiedzą o użyteczności (emocjach) oraz wiedzą o działaniach własnych (cecha właściwa dla wiedzy proceduralnej), ale która nabywana jest jak wiedza deklaratywna, a nie w drodze treningu właściwego dla wiedzy proceduralnej. Takie powtarzalne fragmenty wiedzy nazywam schematami (lub pojęciami) deklaratywnoproceduralnymi lub schematami (lub pojęciami) normatywnymi. Patrząc na budowę schematów normatywnych łatwo wyróżnić elementy wiedzy deklaratywnej stanowiącej odpowiednik pojęcia hipotezy, elementy wiedzy o działaniach własnych stanowiącej odpowiednik pojęcia dyspozycji oraz elementy wiedzy o użyteczności (emocjach) stanowiącej odpowiednik pojęcia np. sankcji. W artykule stanowczo chcę wykazać, że to właśnie pojęcie schematu (pojęcia) normatywnego (lub deklaratywno proceduralnego) najlepiej definiuje filozoficznie problematyczne pojęcie normy. Taka definicja normy nie tylko najlepiej intuicyjnie oddaje to czy jest norma w rzeczywistości, ale także wskazuje na przyczyny wspólnej na gruncie deskryptywnym i normatywnym metodologii (rozumowanie). Taka definicja normy obala także niesłuszne, moim zdaniem twierdzenie pochodzące od Kanta o innym ontologicznym statusie normy i wiedzy deskryptywnej a także każe głębiej zastanowić się nad użytecznością powszechnie stosowanego argumentu błędu naturalistycznego (naturalistic fallacy). 1. Rozwój perspektywy kognitywnej Ludzki umysł był od zawsze był obiektem zainteresowania różnych nauk. Z oczywistych przyczyn był najważniejszym obiektem zainteresowania dla filozofii, psychologii czy antropologii. Wszystkie te nauki z założenia zajmują się bowiem problematyką ludzkiego umysłu. Jednak powoli zaczęto sobie zdawać sprawę, że przyjęcie określonych założeń dotyczących jego funkcjonowania silnie oddziaływają na problematykę innych nauk; socjologii, językoznawstwa, logiki, informatyki, pedagogiki, literaturoznawstwa. Na przełomie wieków rozwój informatyki doprowadził do narodzin nowej idei na gruncie nauk zajmujących się problematyką ludzkiego umysłu, idei traktowania go jako jednostki przetwarzania informacji. Claude Shannon w pracy dyplomowej z 1937 roku oraz w klasycznym dziele A Mathematical Theory of Communication (Shannon, Weaver 1948) rozwinął podstawy teorii informacji binarnej. W 1948 w Hixon miało miejsce interdyscyplinarne sympozjum, które przeszło do historii nauki. Matematycy, informatycy (między innymi John von Neumann, Norbert Wiener i Warren McCulloch) dyskutowali na temat „korowych mechanizmów zachowania”. W 1956 roku w MIT odbyły się warsztaty poświęcone zagadnieniu informacji. Udział w nich brali min. Noam Chomsky i George Miller. Chomsky mówił o swoim projekcie gramatyki generatywnej, Miller przedstawił badania na temat pamięci krótkotrwałej, za pomocą której można zapamiętać mniej więcej siedem rzeczy na raz (7+/-2). Spotkanie to stworzyło możliwość połączenia ujęć psychologii eksperymentalnej, lingwistyki teoretycznej oraz komputerowych symulacji procesów kognitywnych. W tym samym roku Claude Shannon, Marvin Minsky i John McCarthy zorganizowali warsztaty w Dartmouth, które w zamiarze miały doprowadzić do rozwoju sformalizowanych form myślenia. Szybko dostrzeżono, że nowa perspektywa badania umysłu zdaje się otwierać nowe, dziewicze dotąd obszary wiedzy o samym umyśle. Towarzyszący powstaniu nauk poznawczych optymizm powodował, że wierzono, że zalgorytmizowanie wszystkich czynności poznawczych człowieka jest kwestią nieodległego czasu. Z czasem optymizm ten osłabł, napotkano bowiem znaczne trudności techniczne, pojawiły się także poważne zarzuty natury filozoficznej co do możliwości całkowitego ich zalgorytmizowania (Penrose 2001, Searle 1980). Wszystko to nie zmieniło faktu, że nauka o umyśle po 1956 roku nigdy nie miała być już taka sama. Powstały nowe gałęzie nauki zajmujące się bezpośrednio problematyką mózgu i umysłu, Sztuczna Inteligencja (Artificial Intelligence) i neuronauki. Rozwój technologii komputerowej stworzył nowe możliwości w zakresie neurobiologicznego poznania struktury mózgu co spowodowało rozwój neuronauk. Sztuczna Inteligencja z wieloma sukcesami algorytmizuje prostsze czynności poznawcze, co od wielu lat ma zastosowanie inżynieryjne. Sam termin Sztucznej Inteligencji (Artificial Intelligence) został ukuty na wyżej wspomnianych warsztatach w Dartmouth. Przedstawiciele bardziej radykalnego kierunku Artificial General Intelligence budują architektury kognitywne, które według przedstawicieli tego kierunku badań już na dzisiejszym poziomie prawidłowo modelują najważniejsze (rdzeniowe) czynności poznawcze (Franklin 1995). Po rewolucji poznawczej psychologia całkowicie odwróciła się od paradygmatu behawioralnego, zgodnie z którym traktowano umysł jako czarną skrzynkę. Już w latach osiemdziesiątych dwudziestego wieku trzy czwarte psychologów na terytorium Stanów Zjednoczonych identyfikowało się z psychologią poznawczą, co w sposób znamienny pokazuje dominującą pozycję nurtu kognitywistycznego w obrębie nauk psychologicznych. Nie ma żadnych wątpliwości, że rozwój wiedzy na temat ludzkiej wiedzy w ramach nauk poznawczych ma współcześnie olbrzymi wpływ na wiele dziedzin nauki i nie ma żadnych wątpliwości, że siła tego wpływu będzie ciągle rosła. Ostatnim bastionem relatywnie mało zainfekowanym kognitywną rewolucją są dziedziny normatywne. Dziedziny normatywne zajmują się bowiem najbardziej złożonymi procesami poznawczymi, które z powodu swojej złożoności wydają się trudne do zalgorytmizowania. Jednak aktualnie coraz częściej kognitywistyka przekracza także i tą granicę i zajmuje się problematyką zarezerwowaną dotychczas dla etyki i „starej” filozofii. Co więcej, wydaje się, że same dziedziny normatywne są ex definitione impregnowane na rezultaty nauk poznawczych. Wydaje się, że chociaż wierząc, że „prawda nas wyzwoli” istnieje na gruncie nauk normatywnych „jakaś psychiczna bariera chroniąca nas przed zbyt głębokim wnikaniem w swój umysł” (Duch 1998). Bariera ta wynika najprawdopodobniej z niemożności pogodzenia algorytmizowanej, naturalistycznej wizji człowieka z fundamentalnymi założeniami stojącymi u podstaw prawie wszystkich systemów normatywnych. Nawet jeśli antynaturalistyczne założenia te są błędne, to są najskuteczniejszymi środkiem zaspokojenia najbardziej podstawowej potrzeby, potrzeby bezpieczeństwa. Potrzeby, której zwykle ustępuje nawet potrzeba kompetencji. Dlatego też tak wielu, jak wyraził to przy okazji recenzji nowej książki Rogera Penrose'a znany fizyk, prof. Łukasz Turski"...bardzo chce, by się to nam nigdy nie udało". 2. Umysł jako jednostka przetwarzania informacji (procesor poznawczy) 2.1. Dwa wymiary procesora poznawczego Z kognitywistycznego punktu widzenia fenomen umysłu ludzkiego opisywany jest przy użyciu metafory komputera, albo przynajmniej przy użyciu metafory jednostki przetwarzania informacji (procesor poznawczy). Takie ujęcie problematyki umysłu ludzkiego wyróżnia w sposób szczególny dwa zagadnienia: zagadnienie deklaratywne (problem reprezentacja danych) i zagadnienie proceduralne (problem sposobu działania na danych). Dlatego też każda próba budowy architektury kognitywnej (w niniejszym artykule będę zamiennie używał pojęć architektury kognitywnej i procesora poznawczego) związana będzie w wyróżnieniem dwóch wymiarów takiej architektury: wymiaru deklaratywnego oraz wymiaru proceduralnego. Rozróżnienie pomiędzy deklaratywnym i proceduralnym wymiarem ludzkich procesów poznawczych (lub ogólnie architektury kognitywnej lub procesora poznawczego) wyraża się klasycznym podziałem na wiedzę deklaratywną i wiedzę proceduralną (Ryle 1949). Wiedza deklaratywna dotyczy danych (faktów) zakodowanych w pamięci trwałej. Danymi może być wiedza ogólna czy wiedza epizodyczna. Wiedza deklaratywna utożsamiona jest z jest wiedzą „że”. Wiedza proceduralna dotyczy zakodowanych w pamięci trwałej procedur realizacji czynności o charakterze umysłowym lun motorycznym (ruchowym). Ta specyficzna wiedza potocznie nazywana jest umiejętnościami. Wiedza proceduralna kojarzona jest z wiedzą „jak”. Taki podział na wiedzę deklaratywną i wiedzę proceduralną jest podstawą istniejących architektur poznawczych, min. ACT-R (Anderson 1995). Na meta poziomie, analogiczny podział może być zaobserwowany w rozróżnieniu algorytmu i architektury funkcjonalnej (Pylyshyn 1980) albo algorytmu i jego implementacji (Anderson 1987). W obydwu przypadkach algorytm oznacza dane deklaratywne i proceduralne (wiedzę, że) a architektura funkcjonalna albo implementacja algorytmu oznacza działanie (wiedzę jak). Podsumowując: wymiar deklaratywny procesów poznawczych dotyczy więc problematyki reprezentacji danych i jej składników; schematów, skryptów, ram, pojęć, reprezentacji umysłowych, wymiar proceduralny procesów poznawczych dotyczy natomiast problematyki wyboru (choice) i jego przedmiotu; działań ruchowych (motor activities) oraz działań mentalnych (mental activities) min. kierowanie uwagą, rozwiązywanie problemów, myślenie, wnioskowanie. 2.2. Wymiar deklaratywny reprezentacji danych procesora poznawczego – problematyka 2.2.1. Wiedza deklaratywna - wymiar deklaratywny procesora poznawczego w ogólności 2.2.1.1. Chunki jako niepodzielne jednostki informacji Po raz pierwszy pojęcie “chunku” zostało użyte przez Millera, który przedstawił badania, z których wynikało, że pamięć krótkotrwała może pomieścić 5-9 chunków informacji (siedem plus minus dwa), gdzie chunk jest jednostką podstawową (Miller 1956). Chunk jest wyróżniającym się w osobną całość zbiorem informacji. Chunk może odnosić się do liter, słów, pozycji w szachach albo twarzy ludzi. Chunk był definiowany min. jako “zbiór elementów mających ze sobą silny związek, natomiast słaby związek z innymi chunkami” (Gobet 2001). Pojęcie wydobywania chunku (chunking) i ograniczonej pojemności pamięci krótkotrwałej stało się podstawowym pojęciem wszystkich teorii pamięci powstałych po opublikowaniu prac Millera. Istnieje wiele psychologicznych dowodów na istnienie chunków, np. Gee oraz Grosjean w 1983 roku badali struktury, które miały postać słownych klastrów. Nazywano je performance structures (Gee, Grosjean w 1983). Na początku chcę zaproponować definicję „chunku”, którym będę się posługiwał w niniejszym artykule. Pojęcie to jest podstawowe dla opisu wymiaru deklaratywnego procesora poznawczego,. Chunk niech oznacza pojedynczą jednostkę informacji pozyskaną przez procesor poznawczy. Ta jednostka informacji będzie stanowić podstawę dla wyboru jakiegokolwiek działania w ramach wymiaru proceduralnego procesora poznawczego. Chunk jest niepodzielny. Chunk może być złożoną strukturą, ale jego składniki nie są dostępne dla procesora poznawczego dopóki nie są wyodrębnione z danego chunka w drodze procesu wydobywania chunków (chunking). Chunking z kolei jest procesem wydobywania chunków ze źródeł informacji procesora poznawczego. Tymi źródłami są: bieżące dane zmysłowe (zmysły), pamięć, bieżące emocje oraz bieżące działania własne. Jeśli zmysły oraz pamięć wydają się być oczywistymi źródłami informacji, wyróżnienie bieżących działań własnych i bieżących emocji wymaga dwóch słów komentarza. Mowa o bieżących działaniach własnych oraz emocjach dlatego, że gdy przestają być bieżące to dana informacja staje się strukturalnym składnikiem pamięci. Tak więc bieżące działania własne nie oznaczają nic innego jak tylko informacje dotyczące bieżących własnych działań. Teoretycznie można to źródło informacji utożsamić ze informacją zmysłową, jednak z przyczyn systemowych zdecydowałem się na odrębne potraktowanie tego źródła, jako fundamentalnie istotnego dla rozwoju normatywności procesora poznawczego. Natomiast emocjonalność jako źródło procesora poznawczego jest nieco bardziej złożonym zagadnieniem, jakkolwiek jest to głównie techniczny i konfiguracyjny problem. Implementacja określonej emocjonalności i jej funkcjonalnej charakterystyki jako modułu motywacyjnego będzie miała zasadnicze znaczenie dla działalności procesora poznawczego, w szczególności z perspektywy jego efektywności, jednak nie będzie to miało znaczenia dla samego sposobu funkcjonowania mechanizmu. Emocje jako źródło informacji dla procesora poznawczego omówię dokładniej w punkcie poświęconym schematom normatywnym i podpunkcie dotyczącym chunków emocjonalnych. Chunki są jednostkami informacji w ramach istniejących architektur kognitywnych, takich jak ACT-R (Anderson 1995). Wiedza deklaratywna jest reprezentowana przez chunki będącymi schemato-podobnymi składającymi się z wskaźnika isa określającego ich kategorię i innych wskaźników określających ich treść. Problem “jak” informacja jest wydobywana do pojedynczego chunku, lub innymi słowy wedle jakich kryteriów wykonywany jest chunking należy do problematyki wymiaru proceduralnego procesora poznawczego i zostanie omówiony w osobnym punkcie. Na ten moment wystarczy jeśli dokonamy intuicyjnego założenia, że każdy wybór konkretnego działania jest podejmowaniu w oparciu o kalkulację maksymalnej użyteczności danego działania. Możemy to tymczasowe założenie nazwać Utility Rational Procedural Assumption (URPA). Dla potrzeb jedności pojęć chcę także zaznaczyć, że chunki mogą być rozumiane jako niepodzielne jednostki informacji jak zostało to przedstawione wyżej (np. „Kowalski je ciasto” – całość danych reprezentujących Kowalskiego jedzącego ciastko, albo “jedzenie” - całość danych reprezentujących fakt jedzenia, albo „ciastko” - całość danych reprezentujących ciastko), ale także jako schematy a także relacje. 2.2.1.2. Chunki jako schematy Koncepcja schematów ma wielu spadkodawców. Jakkolwiek początków tej koncepcji należy szukać w Kantowskiej idei samego pojęcia, fundamenty pod współczesne rozumienie schematu zostały nadane przez Sir Frederick’a Bartlett’a z Cambridge University. Bartlett (1932) badał się wpływ oczekiwań ludzi na pamiętanie I rozumienie zdarzeń życia codziennego. W latach sześćdziesiątych XX wieku Piaget (1967) użył pojęcia schematu to opisu poznania dzieci. Współczesne rozumienie pojęcia schematu zostało jednak nadane w latach siedemdziesiątych. Schank’a (1972) teoria zależności pojęciowych (conceptual dependency theory), korzystała z pojęcia schematu w celu reprezentowania pojęć relacyjnych (relational concepts); Schank i Abelson (1977) zaproponowali formy schematów nazwane skryptami, które zawierały w sobie informację o zorganizowanych sekwencjach stereotypowych działań; Bower et al. (1979) również badał podobne struktury nazywane skryptami pod kątem wydzielenia z nich sekwencji niskiego poziomu nazywanymi scenami (scenes). Na gruncie Sztucznej Inteligencji, Minsky (1975) zaproponował inne struktury schemato-podobne nazwane ramami (frames). Ramy przeznaczone się głównie do reprezentacji pojęć, przez przegrupowanie ich atrybutów w złożone struktury. Rumelhart (1980) upatrywał natomiast schematów w silnie zintegrowancych częściach sieci semantycznej. Kiedy procesor poznawczy koncentruje się na danym obiekcie (Kowalski je ciastko) wydzielone zostają następujące jednostki informacji (chunks): „Kowalski je ciastko”, „Kowalski je”, „jedzenie ciastka”, „Kowalski”, „jedzenie”, „ciastko”. Pojedyncze chunki połączone są związkami skojarzeniowymi: "Kowalski" z "jedzenie ciastka ", "Kowalski je " z "ciastkiem”, "Kowalski" z "jedzeniem", "jedzenie" z "ciastkiem ". Taki niepodzielony jeszcze zbiór informacji można rozumieć jako pojedynczy chunk „Kowalski je ciastko”, albo jako wydzielony zbiór chunków połączonych jak wyżej, który odnieść można do pojęcia schematu. Rys. 1. przykład: schemat: “Kowalski je ciastko” Jak wspomniałem wyżej, schematy można rozumieć jako dobrze zintegrowane części sieci semantycznej reprezentującej wiedzę procesora poznawczego. Idea sieci semantycznej podkreśla rolę pojedynczej jednostki informacji (chunku) i połączeń skojarzeniowych pomiędzy takimi jednostkami (Collins, Loftus 1975). Idea sieci semantycznej ma także silne inspiracje neurobiologiczne odwołujące się do sieci neuronowych. Kiedy wydobywamy pojęcie "Kowalskiego" reprezentowanego przez pojedynczy chunk zwiększamy szanse wydobycia (czyli de facto wydobywamy) także i inne skojarzone z określoną siłą cechy (pojęcia) reprezentowane przez pojedyncze chunki, np. "jedzenie" lub "jedzenie ciastka”. Siła skojarzenia ma wpływ na prawdopodobieństwo wydobycia połączonego chunku, a także odzwierciedla ona prawdopodobieństwo występowania danej cechy tego pojęcia. (Kowalski" jest "jedzący" z danym prawdopodobieństwem, "Kowalski" jest "jedzącym” "ciastko” z danym prawdopodobieństwem). Probabilistyczny charakter połączeń pomiędzy chunkami podkreślany jest przez przedstawicieli koncepcji probabilistycznych. (Smith, Shoben, Rips 1973, 1974). Taki zbiór chunków może być charakteryzowany w wymiarze wertykalnym i horyzontalnym wymiarze reprezentacji pojęciowych (Rosch 1978). Wymiar wertykalny reprezentacji pojęciowych dotyczy stopnia ogólności pojęcia (połączenia pomiędzy pojęciem „Człowieka” i „Kowalskiego”). Im bardziej ogólny poziom tym mniej danych potrzebnych do opisania chunku na tym poziomie (wszystkie dane potrzebne do opisania “Człowieka” zawierają się w bardziej szczegółowym zbiorze danych w przypadku pojęcia “Kowalskiego”). Horyzontalny wymiar reprezentacji pojęciowych dotyczy desygnatów pojęcia znajdującego się na poziomie wyższym. Im bardziej typowy egzemplarz (desygnat) tym większe prawdopodobieństwo, że nastąpi wydobycie (chunking) danego pojęcia reprezentującego ten egzemplarz. Taki zbiór chunków można także charakteryzować poprzez wyodrębnienie w nim części stałej oraz części zmiennej. Schemat jest bowiem jak sztuka albo gra (Rumelhart 1980). Scenariusz reprezentuje stałą cześć schematu (core), a np. aktorzy jego zmienną część (tracks). Podobnie Minsky wyróżnił dwa poziomy swoich ram (frames), niższa część (slots) składają się ze zmiennych danych. 2.2.1.3. Chunki jako relacje Wcześniejsze dziełą Collins’a and Quillian’a (1969) zakładały, że chunki są węzłami sieci semantycznej połączonych relacjami także reprezentującymi relacje semantyczną (węzeł "Kowalski" i relacja "jedzenia") . Trudności z rozróżnieniu pomiędzy chunkami a relacjami spowodowały modyfikację teorii sieci semantycznych. W wyniku powyższego relacje Collins’a and Loftus’a zostały zastąpione związkami skojarzeniowymi o określonej sile. Poprzednie relacje, takie jak „jedzenie” zostały prawidłowo sklasyfikowane jako węzły (chunki). Powyższe odsłania następne rozumienie chunków jako relacji pomiędzy innymi chunkami. Zbiory chunków łączących dwa inne chunki spełniają właśnie taką rolę relacji pomiędzy tymi dwoma chunkami. Na przykład: chunk "Kowalski" jest w relacji “jedzenia” z innym chunkiem “ciastko”. Jeśli widzimy "Kowalski je " raz na dziesięć razy kiedy w ogóle widzimy Kowalskiego, prawdopodobieństwo, że "Kowalski" jest "jedzący" wynosi 10%. Jeśli widzimy "Kowalskiego jedzącego ciastko " raz na dziesięć razy kiedy w ogóle widzimy Kowalskiego jedzącego, prawdopodobieństwo, że "Kowalski" jest w relacji "jedzący" z „ciastkiem” wynosi 1%. Ta relacyjna funkcja chunków jest bardzo istotna w procesie uczenia się procesora poznawczego. Rozumowanie syntetyczne może być rozumiane z symbolicznego punktu widzenia jako proces powtarzania schematów. Takie powtarzanie schematów prowadzi do wzrostu prawdopodobieństwa wystąpienia takiej danej relacji (reprezentowanej przez łączącego chunka lub zbiór łączących chunków) pomiędzy dwoma innymi chunkami (indukcja). Z koneksjonistycznego punktu widzenia rozumowanie syntetyczne może być rozumiane jako wzrost wag pomiędzy dwoma danymi chunkami. Rozumowanie analityczne może być natomiast rozumiane z symbolicznego punktu widzenia jako dedukcja jednego chunka będącego w relacji danego chunku (lub zbioru chunków) z innym chunkiem z danym prawdopodobieństwem. Na przykład kiedy widzimy “Kowalskiego” ale nie widzimy czy “Kowalski je ciastko” lub “Kowalski nie je ciastka” (nie mamy wiedzy na temat czego Kowalski je czy nie je ciastka) to im wyższe prawdopodobieństwo takiej relacji, która poprzednio została wyidukowana (Kowalski je ciastko) tym większe prawdopodobieństwo, że taki określony chunk (ciastko) zostanie wydedukowany (przy relacji „jedzenia”). Z koneksjonistycznego punktu widzenia analityczne rozumowanie może być rozumiane jako rozprzestrzenianie się aktywacji (spread of activation). Na przykład kiedy widzimy "Kowalskiego", "Kowalski" chunk jest aktywowany; im większe wagi połączeń z innym chunkami ("je " i "je ciastko"), tym bardziej intensywne rozprzestrzenianie się aktywacji z chunku "Kowalski" i większe prawdopodobieństwo, że następne chunki zostaną znów wydobyte. 2.2.1.4. Wnioski Pojęcie chunku i jego rozumienie jako schematu (ujęcie strukturalne chunku) lub relacji (ujęcie funkcjonalne) odgrywa centralną rolę dla problematyki reprezentacji danych, która umożliwia dalsze przetwarzanie tych danych. Przedstawione wyżej ujęcie kognitywistyczne jest współcześnie dominującym podejściem do pierwszego, z dwóch wyróżnionych wymiarów procesora poznawczego, tj. wymiaru deklaratywnego. 2.2.2. Wiedza proceduralno-deklaratywna 2.2.2.1. Schematy schematy moralne) proceduralno-deklaratywne (schematy normatywne, Jak wspomniałem już wcześniej, wydobywanie informacji do chunku (chunking) odbywa się z następujących źródeł danych procesora poznawczego: zmysły, pamięć, bieżąca informacja dotycząca działań własnych oraz bieżąca informacja dotycząca emocjonalności. W tym punkcie skoncentruję się na schematach, w których kluczową rolę odgrywa informacja dotycząca działań własnych oraz dotycząca emocjonalności (jako konsekwencji działań własnych). Takie schematy będę nazywał schematami proceduralnodeklaratywnymi lub schematami normatywnymi. W ramach schematów normatywnych, zasadniczą rolę pełnią natomiast schematy moralne. . Rys. 2. uproszczona struktura schematu normatywnego Wzorcowe schematy proceduralno-deklaratywne (schematy normatywne) składają się w deklaratywnych chunków warunkowych (declarative conditional chunks), chunków reprezentujących informację dotyczącą działań własnych oraz chunków emocjonalnych. Ponieważ chunki warunkowo mają stricte deklaratywny charakter, wydaje się że nie ma potrzeby dokonywać na ich temat dodatkowych uwag. Inaczej ma się rzecz z chunkami dotyczącymi działań własnych oraz chunków „emocjonalnych”. 2.2.2.2. Chunki emocjonalne (chunki użyteczności) Zgodnie z wcześniejszym założeniem emocje są jednym ze źródeł informacji dla procesora. Emocje powinny być bowiem rozumiane jako informacja na temat realizacji założonych celów (założonych dla danego procesora poznawczego – np. nie ma żadnych wątpliwości, że takim najważniejszym celem dla każdej istoty żywej jest przeżycie). Chunki emocjonalne grają kluczową role w określeniu wartości użyteczności dla sytuacji reprezentowanych przez inne chunki zgodnie z biegunową i motywacyjną charakterystyką emocji. Ta biegunowa i motywacyjna funkcja emocji znajduje odbicie w terminologii używanej na gruncie innych dyscyplin nauki: emocje lub wartości (filozofia), emocje, potrzeby, popędy (psychologia), użyteczność, zapłata, cele (informatyka). Printz (2004) w swoim artykule o „Emocjach jako ucieleśnionych ocenach” wykazuje, że emocje są reprezentacjami umysłowymi, które poprzez rejestrację zmian cielesnych niosą informację (co jak wykazuje jest ewolucyjną funkcją emocji) o tematach relacyjnych (co determinuje charakterystykę emocji jako oceny). Nie wchodząc w szczegóły rozważane przez Printza wydaje się współcześnie nie budzić wątpliwości, że emocje stanowią źródło informacji (tak jak przyjąłem wcześniej) o charakterze wartościującym. Jednak, co zwłaszcza widać przechodząc na tematykę moralną, istnieją problemy z wiązaniem emocji z określonymi ocenami moralnym. Oczywistym jest, że co do zasady ludzie „podążają za dobrym emocjami” (radość, przyjemność). Jednak wystarczy zauważyć, że „złe emocje” (smutek) także są potrzebne człowiekowi do „długoterminowo” rozumianego szczęścia (co obrazuje stare przysłowie: „bez kropli goryczy nie można zaznać smaku słodyczy”) i widać, że o prostym przełożeniu emocji na oceny moralne nie może być mowy. Czy jednak przekreśla to czysto emocjonalny charakter ocen moralnych (czyli, że oceny moralne są de facto emocjami)? W moim przekonaniu absolutnie nie. Faktem jest, że w przypadku człowieka mamy już na wstępie dużo problemów z rozpoznaniem celów, do których dąży. Co więcej, relatywnie elastyczny zestaw celów przypisanych każdemu człowiekowi związany jest z jeszcze bardziej elastycznym zestawem celów pośrednich, np. jedną z najbardziej podstawowych potrzeb człowieka, którą potrzeba afiliacji można związać z różnymi celami pośrednimi takimi jak kompletacja, status materialny, uroda. Zmienność tych celów podkreśla traktowanie przez Printza emocji jako reprezentacji umysłowych niosących informację o rdzennych tematach relacyjnych. Co więcej, nasza ocena, a tym samym towarzysząca jej emocja może zmieniać się w czasie, to znaczy w określonym czasie t1 dana osoba będzie inaczej oceniała (i czuła inne emocje) dane zdarzenie niż w innym czasie t2. Bez wątpienia więc nasza wiedza o funkcji określonych zdarzeń do określonych emocji jest bardzo mała. Trudno jednak żeby było inaczej jeśli funkcja ta ma tak indywidualny charakter. Emocjonalna konsekwencja danego zdarzenia nie jest jak ta jedna fala, która po wrzuceniu danego przedmiotu biegnie od miejsca jego zetknięcia się z wodą w kierunku brzegu. Konsekwencja emocjonalna to nie tylko ta fala, to także inne fale, które biegną w innych kierunkach, odbijają się gdzieś od brzegu, odbijają się same od siebie, by w końcu spotkać się z tą pierwszą falą. To wzajemne przenikanie się w czasie, interferowanie emocji prowadzi do określonego, chociaż tak trudno przewidywalnego rezultatu, który ma jednak nadal charakter czysto emocjonalny. Czyli jest niczym innym jak tylko nadal emocją. Wśród tych trudnych i dość niełatwych do opisania przez tradycyjną psychologię emocji są także i te nazywane dość intuicyjnie emocjami moralnymi (moral emotions). W tym miejscu warto także zaznaczyć, że określenie takiej charakterystyki (funkcji) pewnych zdarzeń względem wartościowania jest kluczowe dla projektów AGI (Artificial General Intelligence) mających ambicje stworzenia human level AI. Niezwykle, jeśli nie niemożliwe wydaje się odtworzenie całości wiedzy na temat takiej funkcji u człowieka (musielibyśmy bowiem znać wszystkie rdzenne, tj. w jakiejś znacznej mierze wspólne dla wszystkich ludzi, emocjonalne konsekwencje wszystkich możliwych zdarzeń!). Pamiętać, też należy, że jakiekolwiek odchylenie od takiej jak ludzka charakterystyki może mieć brzemienne skutki, także w zakresie efektywności działania. Wydaje się to zasadniczym ograniczeniem w planach budowania human level AI architektur kognitywnych. Wszystkie powyższe problemy są dla mojego tematu jednak bez większego znaczenia. Nie jest moim celem wskazanie przecież jedynej, prawdziwej i dającej wszystkim szczęście etyki! Trudności z określeniem jaka konkretna może być treść chunków emocjonalnych nie maja żadnego wpływu na badanie mechanizmów posługujących się takimi chunkami. Ich treść jest więc bez znaczenia. Badanie normatywności to badanie mechanizmów a nie danych, którymi te mechanizmy się posługują. Problemy techniczne i konfiguracyjne nie mają znacznie dla poznania kognicji per se. 2.2.2.3. Wiedza proceduralno wiedza proceduralna deklaratywna (wiedza normatywna) versus Drugim bardzo istotnym zagadnieniem jest rozróżnienie pomiędzy wiedzą deklaratywno proceduralną w ogólności (lub schematami normatywnymi jako fragmentami tej wiedzy) a wiedzy proceduralnej (produkcjami). Samo rozróżnienie wiedzy deklaratywnej od proceduralnej pochodzi od Gilberta Ryle’a (1949). Jak wspominałem już wcześniej, takie rozróżnienie jest wyrazem samego rozróżnienie pomiędzy wymiarem deklaratywnym a proceduralnym procesora poznawczego. Wiedza deklaratywna dotyczy faktów zakodowanym w pamięci trwałej. Wiedza deklaratywna jest kojarzona z wiedzą „że”. Wiedza ta posiada silne zabarwienie semantyczne. Wiedza proceduralna natomiast dotyczy procedur wykonywania działań mentalnych lub motorycznych również zakodowanych w pamięci trwałej. Procedury dotyczą umiejętności. Wiedza proceduralna jest kojarzona z wiedzą „jak”. Podział na wiedzę deklaratywną i wiedzę proceduralną jest podstawowym na wielu architektur kognitywnych, takich jak min. ACT-R (Anderson 1995). Idea stojąca u podstaw rozróżnienia tych dwóch rodzajów wiedzy jest oczywista. Można mieć wszystkie możliwe informacje na temat wykonywania określonej czynności a mimo to nie umieć jej wykonać ("knowing the path is not walking the path"). Najpierw bowiem musimy nabyć umiejętność wykonywania danej czynności. Nie ma żadnych wątpliwości, że wiedza deklaratywna i wiedza proceduralna są nabywane w inny sposób, ale nie ma żadnych podstaw aby twierdzić, że inny jest także sposób ich przechowywania, inna struktura lub inny jest sposób wydobywania tej wiedzy. (Nęcka 2008). Kluczowym dla celów niniejszego artykułu, przy zachowaniu rozłączności podziału wiedzy deklaratywnej i proceduralnej jest dostrzeżenie w ramach wiedzy deklaratywnej, takiego fragmentu wiedzy, który w treści utożsamić można z wiedzą proceduralną, aczkolwiek sposób jej nabywania jest właściwy dla wiedzy deklaratywnej. Innymi słowy kluczowym jest wyróżnienie takiej wiedzy deklaratywnej, która dotyczy powiązań z wiedzą o użyteczności (emocjach) oraz wiedzą o działaniach własnych (cecha właściwa dla wiedzy proceduralnej), ale która nabywana jest jak wiedza deklaratywna, a nie w drodze treningu właściwego dla wiedzy proceduralnej. Uściślając więc definicję zawartą na wstępie niniejszego punktu, schematy będące fragmentami wiedzy proceduralno deklaratywnej nazywam schematami (lub pojęciami) proceduralno deklaratywnymi lub schematami (lub pojęciami) normatywnymi. Dla celów dalszych rozważań przyjmuję też definicję schematów proceduralnych jako produkcji (elementów wiedzy proceduralnej) oraz schematów normatywnych (jako elementów wiedzy proceduralno deklaratywnej). Rys. 3 Wzajemne relacje pomiędzy wiedzą deklaratywną, proceduralną proceduralno deklaratywną ze względu na sposób nabywania oraz treść a 2.3. Wymiar proceduralny procesora poznawczego – problematyka wyboru 2.3.1. Wymiar proceduralny w ogólności Rozważania dotyczące reprezentacji wiedzy są niepełne bez przedstawienia, chociaż w zarysie wymiaru proceduralnego procesora poznawczego. Mniej lub bardziej realny oraz mniej lub bardziej utajony zarazem cel kognitywistyki polegający na możliwie jak najszerszym (najlepiej całkowitym) odwzorowaniu funkcjonalności fenomenu umysłu ludzkiego (czyli de facto samego człowieka), obok problematyki reprezentacji danych każe odpowiedzieć sobie także pytanie o wymiar proceduralny, czyli o to jak należy postępować z tymi danymi. Nie będę w ty miejscu szczegółowo omawiał problematyki wymiaru proceduralnego procesora poznawczego ponieważ nie jest to tematem niniejszej pracy, jednak chcę pokazać jak wykorzystywane są schematy proceduralne, czyli zgodnie z definicją przyjętą w poprzedzającym punkcie; schematy normatywne (elementy wiedzy deklaratywnej pod względem sposobu nabywania wiedzy) jak i same produkcje (elementy wiedzy proceduralnej pod względem sposobu nabywania wiedzy). Powyższe niezbędne jest dla opisu funkcji motywacyjnej schematów normatywnych. Procesor poznawczy “w akcji” używa takich urządzeń jak zmysły (data input device), pamięć (data storage device) and zdolności ruchowe (output device). Kontrola nad urządzeniami wykonywane jest poprzez dokonywanie wyborów, które jak założyłem dla uproszczenie na wstępie dokonywane są na podstawie kalkulacji użyteczności co nazwałem Utility Rational Procedural Assumption (URPA). Poniżej chcę dokładniej opisać to założenie. Przedmiotem wyboru są procedury realizacji czynności o charakterze umysłowym lub motorycznym (elementy wiedzy deklaratywnej) oraz opisane wyżej schematy normatywne (elementy wiedzy deklaratywnej pod względem sposobu nabywania wiedzy). 2.3.2. Utility Rational Procedural Assumption (URPA) Zgodnie z racjonalną analizą problematyki wyboru, procesor poznawczy dokonuje go wykonuje wyboru (także w sytuacjach rozwiązywania problemów) w oparciu o kalkulację jego użyteczności: każda opcja ma przewidywane prawdopodobieństwo (P) osiągnięcia celu i przewidywane koszty z tym związane (C). Jeśli wartość G będzie oczekiwanym zyskiem to prawdopodobieństwo określonego zysku będzie wnosiła PG. Natomiast prawdopodobieństwo określonego zysku przy kosztach C będzie wynosić PG-C. Oczywiście taka racjonalna analiza będzie stać w sprzeczności z życiowym doświadczeniem, które pokazuje, że ludzie nie zawsze działają mając na celu maksymalizację użyteczności (Dawes, 1988). W sytuacjach wyboru optymalnej strategii wydawać się może, że podmioty wybierają najbardziej prawdopodobnie maksymalizujące użyteczność opcje, tymczasem w rzeczywistości podmioty dokonują takich wyborów z pewnym przybliżeniem (Kintsch, 1970). Dlatego dla odwzorowania realnie dokonywanych wyborów wprowadza się pewna przypadkowość w kalkulacji przewidywanych zysków Lovett (1988). Schematy proceduralne (produkcje sensu stricte oraz schematy normatywne) są uruchamiane (własne działanie opisane schematami proceduralnymi) kiedy chunki warunkowe odpowiadają aktualnie wydobytemu (w procesie chunkingu) chunkowi. W typowej sytuacji istnieje wiele różnych schematów, które na moment wydobycia określonego chunku spełniają ten warunek. W takim przypadku niezbędne są reguły, które będą rozstrzygać ten konflikt (conflict rules). Rozstrzyganie konfliktu pomiędzy konkurującymi ze sobą schematami proceduralnymi zasadniczo odbywać się będzie na podstawie, zgodnie z racjonalną analizą wyboru, na podstawie kalkulacji użyteczności, gdzie oczekiwana użyteczność przedstawia się wzorem U = PG-C. W teorii ACT-R każda produkcja jest wybierana jest na podstawie kalkulacji prawdopodobieństwa, która wyraża oczekiwany zysk E(i) w porównaniu do oczekiwanych zysków innych produkcji E(j). ACT-R co do zasady dokonuje produkcji charakteryzującym się najwyższym zyskiem, jednak ze względu na wprowadzone zmienne losowe (noise) jest ona wybierana tylko przez pewien okres czasu. Poniższy wzór (Conflict Resolution Equatation) pokazuje prawdopodobieństwo, że dana produkcja o oczekiwanym zysku E(i) będzie charakteryzować się największą wartością zmiennej losowej (nosie) dodatnej to wartości oczekiwanego zysku. gdzie t jest stałą kontrolną losowości. Sama natomiast wartość oczekiwanego zysku obliczana jest na podsatwie wzoru E=PG – C, gdzie P jest prawdopodobieństwem osiągnięcia celu G, G jest wartością tego celu a C jest wartością kosztu w przypadku osiągnięcie celu G. P (prawdopodobieństwem osiągnięcia celu G) może być zapisany jako: P=qr, gdzie q wyraża prawdopodobieństwo, że dana produkcja osiągnie zamierzony następny stan a t jest prawdopodobieństwem osiągnięcia celu produkcji zakładając przejście do następnego zamierzonego stanu. Ze względów praktycznych, można uznać, że q=1, zostawiając jedynie P=r. W takim przypadku, parametr r jest kluczowy dla potencjalnego wyboru pomiędzy konkurującymi ze sobą produkcjami. Kiedy parametr r jest mały to oznacza to, że niezależnie od prawdopodobieństwa osiągnięcia następnego stanu małe jest prawdopodobieństwo osiągnięcia ostatecznego celu. W teorii ACT-R wartość paramteru r danej produkcji liczone jest według następującego wzoru: r = sukcesy /(sukcesy + porażki) Bardzo ważną cechą wprowadzoną w ramach teorii ACT-R jest także współczynnik zapominania (decay) doświadczeń sukcesów i porażek branych pod uwagę w kalkulacji oczekwanego zysku danej produkcji. Innymi słowy, im więcej upłynęło czasu od ostatniego użycia produkcji tym parametr r będzie niższy; In other words: more time elapsed from last r(t) = porażki (t) / (porażki (t) + sukcesy) (t) gdzie gdzie t(j) jest definiowany sukcesu lub porażki. jako ilość czasu, który upłynął od danego Na przykład w SOAR-RL, podczas każdego cyklu, korzysta z równania Boltzmanna w celu dokonania wyboru określonego działania spośród danego zbioru innych działań: n P(a)= e Q (s,a)xB t / ∏ e Q (s,b)xB t B=1 gdzie P(a) wyraża prawdopodobieństwo wyboru danego działania. Qt(s,a) jest szacowaną wartością wykonania akcji a ze stanu s w czasie t. Wzór ten wyraża prawdopodobieństwo wyboru określonego działania spośród danego zbioru innych działań na podstawie wartości Q oraz zmiennej B, nazwaną inverse temperature. Jeśli If B -> ∞ każda akcja ma takie samo prawdopodobieństwo (1/n) wyboru. Innymi słowy niska wartość B odpowiada bardziej losowemu zachowaniu a wyższa wartość B odpowiada zachowaniu bardziej „wyrachowanemu” (Hogewoning). W tym miejscu należy jasno stwierdzić niezaleznie od oporów jakie może budzić to stwierdzenie: nie ma żadnych dowodów, że do opisu ludzkiego zachowania potrzebne są jakiekolwiek inne czynniki poza kalkulacją użyteczności oraz zmiennych losowych. Niezależnie od tego jak trudne jest odwzorowanie użyteczności w przypadku ludzkiej architektury kognitywnej (co zostało już omówione w niniejszej pracy) oraz niezależnie od tego jak wielkie wątpliwości może budzić istota fenomenu losowości ( możemy tylko korzystać z wartości pseudolosowych) te dwa pojęcia są znacznie lepiej intuicyjnie pojmowalne niż jakikolwiek inne pojęcia metafizyczne, np. w postaci wolnej woli. Wydaje się także, w świetle ustaleń współczesnej kognitywistyki zupełnie wystarczające do opisu jakichkolwiek zachowań ludzi (zachowań będących przedmiotem badań psychologicznych). 3. Teoria normy 3.1. Jak powinna wyglądać teoria normy 3.1.1. Formalny aspekt teorii normy Można wyobrazić sobie wiele definicji normy, w zależności od tego jaki jej aspekt chcielibyśmy podkreślić. Jeśli powiemy np., że normy prawne są zdaniami zapisanymi w ustawach (lub innych aktach prawnych) podkreślamy ich materialny aspekt. W tym konkretnym przypadku tracimy jednak wszystkie inne aspekty norm prawnych. Jeśli więc budujemy teorię normy powinniśmy odpowiedzieć sobie na pytanie jaką funkcję powinna spełniać ta teoria. Funkcja ta wynika z podanego wyżej przykładu. Dobra teoria normy powinna efektywnie charakteryzować możliwie wszystkie aspekty normy, w podanym wyżej przykładzie normy prawnej. Mówiąc efektywnie mam na myśli dwie rzeczy: teoria normy powinna podkreślać wyróżnione aspekty fenomenu normy proporcjonalnie do ich wagi (ważniejsze/częstsze cechy powinny zostać bardziej podkreślone) oraz powinna używać do rozsądnie szerokiego opisu tego fenomenu minimum terminów (środków). Taką charakterystyką (minimum środków/maksimum informacji) będę nazywać w przypadku definicji normy formalnym aspektem definicji normy. 3.1.2. Materialny aspekt teorii normy Obok samej definicji normy wskazującej czym jest normatywność, a tym samym wskazującej możliwie szeroko jej aspekty, szczególnie ważne jest także wskazanie skąd bierze się motywująca właściwość normy i dlaczego normy stanowią racje działania. Tą moc wyjaśniająca w zakresie funkcji motywacyjnej będę natomiast nazywać materialnym aspektem teorii normy. 3.2. Czym norma nie jest oraz czym norma nie powinna być w ramach dyskursu naukowego 3.2.1. Koncepcje językowe normy Zajmując się problematyką ontologii moralności, a tym samym normatywności, jako pojęcia zawierającego w sobie pojęcie moralności (każda norma moralna jest normą) pierwszym pytaniem, na które należy udzielić odpowiedzi jest pytanie: czy pojęcie normy moralnej (lub normy w ogóle) ma wyłącznie charakter językowy czy reprezentuje ono coś więcej? Tak jak uważa się, że reprezentacje umysłowe to stany umysłu spełniające dwa warunki: są nośnikami informacji oraz mogą zostać błędnie zastosowane (Dretske 1981, 1986) tak samo reprezentacje słowne to pewne stany słowne (czyli po prostu słowa) spełniają te dwa warunki, tj. są nośnikami informacji oraz mogą zostać błędnie zastosowane. Pogląd Dretske o „przenoszeniu informacji” został przejęty z teorii informacji Shannona i Weaver’a. Zgodnie z tym podejściem stan niesie za sobą informację o tym, z czym niezawodnie występuje. Pojęcie normy niesie więc jakąś informację o fragmencie jakieś rzeczywistości występującej poza samym pojęciem normy. Trudno mieć jakikolwiek wątpliwości, że używając pojęcia normy próbujemy przekazać określoną informację o czymś innym niż samo tylko wyrażenie językowe, dlatego wydaje się, że nie można poprzestać na słabym stwierdzeniu, że norma jest li tylko wyrażeniem językowym. Trzeba szukać dalej. 3.2.2. Koncepcje antynaturalistyczne normy Drugą grupę poglądów na moralność, czy też w szerszym ujęciu normatywność, którą chciałbym wykluczyć już na samym początku są wszystkie poglądy antynaturalistyczne. Całkowicie zdaję sobie sprawę jak wielkie oburzenie będzie powodować to u wielu, że nieomalże mechanistycznie odrzucam tak znaczącą grupę koncepcji, dlatego zmuszony jest o dodatkowe słowo komentarza. Teorie antynaturalistyczne przesuwają ontologię normy poza granice ludzkiej kognicji, w szczególności poza granicę racjonalnego poznania, która ma zdolność rozpoznawania praw, które zwyczajowo nazywa się prawami przyrody. Działanie takie czyni problem ontologii całkowicie niewyjaśnianym za pomocą narzędzi poznawczych, w które wyposażony jest człowiek. Nie przesądzając, czy rzeczywiście fenomen normatywności nie daje się wyjaśniać za pomocą ludzkiego poznania (praw przyrody) - jeśli chcemy prowadzić jakikolwiek dyskurs na jej temat musimy założyć coś przeciwnego. Musimy założyć, że problem moralności lub szerzej normatywności daje się tłumaczyć i poznać za pomocą środków, które są nam dane. Dopóki nie będziemy w stanie udowodnić czegoś całkowicie przeciwnego, tj, niemożliwości „przyrodniczego” wyjaśnienia praw rządzących się normatywnością a nadal jesteśmy zainteresowani naukowym zgłębianiem jej fenomenem musimy założyć prawdziwość paradygmatu naturalistycznego. Warto w tym miejscu odnieść się to używanego często terminu błędu naturalistycznego Moore’a (naturalistic fallacy). Według Moore’a zawsze kiedy definiuje się pojęcie „dobry” za pomocą predykatu empirycznego, pojawia się następująca sytuacja: można człon definiujący (definiens) uogólnić i zapytać, czy jest on dobry; otrzymujemy wtedy zawsze sensowen w rozumieniu potocznego języka i bynajmniej nietrywialne pytanie. Nietrywialny charakter takich pytań pokazuje, że odnośna definicja naturalistyczna jest fałszywa. Moore upraszcza jednak przedstawiany przez siebie przykład w sposób całkowicie ignorujący problemy, które wskazałem przy omówieniu schematów normatywnych, w szczególności problematyki chunków utylitarnych (emocjonalnych). Dopóki nie będziemy mieli całkowitej wiedzy na temat emocjonalnych reakcji człowieka na wszystkie możliwe działania lub zjawiska z nim związane utożsamienie pojęcia „dobra” z jakimkolwiek znanym nam predykatywnym określeniem zawsze musi być prowadzić do nietrywialnego pytania o intuicyjną prawdziwość takiego porównania. Więcej, nie trzeba długo się trudzić, aby wykazać jak takie utożsamienie jest uproszczone i nieprawdziwe. Problemem jest tu więc ludzka niewiedza i ograniczone zdolności poznawcze a nie sama możliwość utożsamienia intuicyjnie rozumianego pojęcia dobra z określonym elementem deskryptywnym (empirycznym). Jeśli chcemy prowadzić dyskurs o normatywności w sposób umożliwiający przypisanie mu jakichkolwiek znamion naukowości musimy z założenia zrezygnować z paradygmatu antynaturalistycznego. Trzeba powiedzieć sobie jasno, niezależnie jak wielki opór wielu metafizyków napotka takie twierdzenie: poglądy antynaturalistyczne ex definitione znajdują się poza granicą nauki. Jeśli wbrew wszystkiemu roszczą sobie pretensje do jakiejkolwiek naukowości psują ją i prowadzą do jeszcze większego opóźnienia rozwoju nauk społecznych względem rozwoju nauk przyrodniczych. 3.3. Cechy normatywności 3.3.1. Wymiar subiektywny normy Jedną z najważniejszych analizowanych cech normatywności jest jej potencjalnie obiektywny lub subiektywny charakter. Jeśli ktoś uważa, że moralność jest częścią obiektywnie obserwowalnego świata zewnętrznego to musi się on zmierzyć z problemem określenia takiego fragmentu zewnętrznej rzeczywistości, który można utożsamić z moralnością. To musi prowadzić na mętne wody metafizyki i w konsekwencji na błędne pozycje antynaturalistyczne. Ten spór o obiektywizm lub subiektywizm częściowo można utożsamić ze sporem kognitywistów z nonognitywistami. Ten ostatni podział związany jest z dyskusją na temat metodologicznego statusu nauk normatywnych, zwłaszcza zaś logiczno-semantycznego statusu wyrażeń normatywnych. Utożsamiać ze sobą obydwa spory można jednak tylko częściowo, bowiem przyjęcie stanowiska subiektywistycznego niekoniecznie musi prowadzić do stanowiska nonkognitywistycznego, odmawiającego sądom normatywnym statusu deskryptywnego. Nie dlatego, że zdania normatywne uzyskują bardziej „weryfikalno-prawdziwościowy” status jak zdania deskryptywne, a raczej dlatego, że rezultaty nauk kognitywnych wpływają na odejście od intuicyjnego paradygmatu „weryfikalno-prawdziwościowego” statusu zdań deskryptywnych. W tym sensie różnica pomiędzy zdaniami normatywnymi a normatywnymi wydaje się zanikać. W historii etyki można znaleźć wiele stanowisk, które w mniejszym lub większym stopniu wiązały moralność z subiektywnymi zdolnościami człowieka, np. Arystoteles, Tomasz z Akwinu, światło rozumu (light of reason) w tradycji prawa naturalnego, rozumna natura (intellectual nature) Racjonalistów, sens moralny (moral sens) Szkockich Moralistów albo Rozum Praktyczny Kanta. Te subiektywne zdolności człowieka grają różne role: od zdolności poznawczej obiektywnie istniejącej rzeczywistości moralnej (np. klasyczna tradycja prawa naturalnego) do twórczej kreacji subiektywnego fenomenu moralności (Hutcheson 1971, Hume). Współczesna nonkognitywistyka wspiera zwykle silnie subiektywistyczne stanowisko, np. poglądy Russela (1999), Ayera (1956), Stevensona (1950), Rorty’ego (1998). 3.3.2. Wymiar emocjonalny normy Emocjonalny wymiar normy zauważalny jest de facto we wszystkich koncepcjach normatywności (moralności). Związane to jest z trywialną intuicją, wypełnienie słusznej normy związane jest mocno z pozytywną oceną mająca zabarwienie emocjonalne, natomiast działanie wbrew słusznej normie związane jest z negatywną oceną także posiadającą określone zabarwienie emocjonalne. Łatwo zauważyć analogię pomiędzy skutkami wypełnienie lub niewypełnienia normy a tradycyjnie ujmowaną biegunowością emocjonalności. Oczywiście wiązanie słuszności normy (dobra) z niektórymi, tradycyjnie utożsamianymi jako pozytywnymi stanami emocjonalnymi (np. przyjemność) jest wielkim uproszczeniem, które daje pożywkę dla błędnych argumentów pokroju natural fallasy. Zwykle mówi się więc o tzw. „emocjach moralnych”, których związanie z tradycyjnymi emocjami istnieje, jakkolwiek jest ono dość mętne. Jak podkreślałem w punkcie dotyczącym schematów normatywnych, w szczególności podpunktu dotyczącego problematyki chunków utylitarnych (emocjonalnych) problemy związane z określeniem związku pomiędzy tradycyjnymi emocjami a „emocjami moralnymi” związane jest z problemem „rezonowania” w czasie emocji na skutek określonego działania. Chociaż nie znamy właściwości tej zależności jednych emocji od tych drugich, nie powinno budzić już żadnych wątpliwości, że emocje są immanentnie i przyczynowo-skutkowo związane z problematyką dyspozycji normy. Podkreślenie emocjonalnego wymiaru normy można znaleźć już w etyce Arystotelesowskiej lub etyce Epikurejskiej, a także w poglądach hedonistów czy poglądach utylitarystów. 3.3.3. Wymiar racjonalny normy Problem racjonalności norm związany jest ściśle z możliwością stosowania na gruncie normatywnym określonej metodologii, metodologii bliskiej naukom empirycznym. Spór o właściwą metodę normatywną jest sporem fundamentalnym dla filozofii normatywnej (czy dziedzin normatywnym w ogólności). Jednak pomimo wagi tego problemu, nie ma zgodności co do jego rozwiązania. Trudności w znalezieniu formuły utożsamiającej normy ze zdaniami teoretycznymi przy jednoczesnym intuicyjnym poczuciu możliwości szerokiego stosowania metod logicznych w ramach dyskursu normatywnego najlepiej formułuje tzw. Dylemat Joergensena: (1) W myśl powierzchnie akceptowanych standardów metalogicznych przesłankami i konkluzjami inferencji logicznych są wyłącznie zdania w sensie logicznym, (2) Normy nie są zdaniami w sensie logicznym, (3) Normy nie mogą występować jako przesłanki i konkluzje w inferencjach logicznych, (4) Można jednak podać przykłady rozumowań, którym trudno odmówić intuicyjnej ważności, gdzie normy występują w roli przesłanek i wniosków, np. jeśli powinieneś mówić prawdę, to nie wolno Ci mówić fałszu. Istotą dylematu jest konflikt między tezą (3) wynikającą z tez (1), (2) i tezą (4). Jeśli bowiem odmawia się normom wartości logicznej (czyli przyjmuje tezę (2) – nonkognitywistyczną) przy równoczesnej akceptacji tezy (1), pojawia się problem wykazania źródła prawomocności potocznych – „intuicyjnie ważnych” – rozumowań normatywnych”. Powszechnie można mówić o istnieniu czterech metod, które według ich zwolenników konkurują o prymat metody właściwej dla dziedzin normatywnych (Stelmach, Brożek 2006). Można więc wyróżnić następujące metody: logikę, analizę, argumentacją i hermeneutykę. Bez wątpienia nie jest to podział ani całkowity ani rozłączny, jednak jest on przydatny dla klasyfikacji metod normatywnych. W sposób oczywisty poczucie możliwości stosowania metod właściwym naukom empirycznym przejawiała się w poglądach zwolenników logiki i analizy. Zresztą już samo ich przeciwstawienie może budzić pewne zastrzeżenia. Jednak podział ten spowodowany jest jednorodnością logiki i relatywnie łatwym jej precyzyjnym zdefiniowanym oraz łatwością jej opisu w perspektywie historycznej. Nie może jednak budzić żadnych wątpliwości, że zwolennicy jednego i drugiego kierunku w sposób właściwy podkreślali właściwość metodologii racjonalnej jako właściwej dla dziedzin normatywnych. Stosunek logiki do argumentacji jest bardziej skomplikowany, głównie ze względu na dość dużą różnorodność teorii argumentacyjnych. Teorie argumentacyjne rekonstruują sposoby posługiwania się argumentami, przy czym chodzi tu o to znaczenie słowa „argument”, w którzy znaczy on tyle, co „rozumowanie” czy „wnioskowanie” (Stelmach, Brożek 2006). Jeśli nawet niektóre koncepcje argumentacyjne wyróżniają w sposób szczególny logikę (Alexy 1991) a niektóre niekoniecznie, to nawet w tych ostatnich metody racjonalne (schematy logiczne) przejawiają się w istnieniu określonych toposów (Perelmann). 3.4. Kognitywna teoria normy – podsumowanie dotychczasowych rozważań Przedstawiwszy w sposób uproszczony ale wystarczający wizję człowieka jako procesora poznawczego, wizję bliską współczesnej kognitywistyce, kryteria jakie powinna spełniać dobra teoria normy oraz cechy fenomenu normatywności mogę zaproponować kognitywną teorię normy, która przenosi wiedzę kognitywistyki na siatkę pojęciową filozofii normatywnej. Podsumowując wyróżnione cechy normatywności a tym samym toczące się spory o subiektywny, emocjonalny i racjonalny charakter norm można zauważyć pewną prawidłowość. Wydaje się, że jedni widzieli w normach równie „prawdziwościowo weryfikowalne” twierdzenia jak w zdaniach deskryptywnych a drudzy, głównie ze względu na dostrzeganą właśnie subiektywność norm postulowali wyraźnie ich rozróżnienie (zdań i norm). Ten spór, jak wspominałem już wcześniej najpełniej oddaje spór kognitywistów z nonkognitywistami. Norma nie może istnieć bez działania człowieka, dlatego genezy normy należy szukać w mechanizmach funkcjonowania jego umysłu. Wydaje się, że z perspektywy nauk poznawczych, w sposób najbardziej wszechstronny zajmujących się problematyką umysłu i mózgu pojęcie normy należy utożsamić ze schematami normatywnym (schematami proceduralno deskryptywnymi). Schematy normatywne doskonale oddają dostrzeganą już wcześniej charakterystykę norm: są subiektywne, składają się z silnego komponentu emocjonalnego oraz mają racjonalny charakter (taki sam jak zdania deskryptywne). W ten sposób godzą one spór pomiędzy „subiektywistami” i „racjonalistami”. W ujęciu poznawczym norma spełnia wszystkie wyróżnione kryteria. Zrównanie norm ze z daniami deskryptywnymi nie odbywa się jednak poprzez przypisanie normom charakteru „prawdziwościowo weryfikowalnego” (jak robią to kognitywiści - adwersarze nonkognitywistów), ale poprzez zakwestionowanie absolutnie „prawdziwościowo weryfikowalnego” zdań deskryptywnych. Rozwój nauk poznawczych prowadzi bowiem coraz częściej na nawet gruncie nauk ścisłych do degradacji absolutnej „weryfikowalności” sfery deskryptywnej, co wyraża się np.w powstawaniu coraz to nowych logik niemonotonicznych. Chociaż wydaje się, że badanie neurobiologiczne niekoniecznie są kluczowe dla zrozumienie fenomenu ludzkiej kognicji (Bach 2009), potwierdzają one tylko postawią wyżej tezę o subiektywno-emocjonalnym i racjonalny zarazem charakterze problemów moralnych (normatywnych). Wskazuje na to zaangażowanie kory przedczołowej oraz ciała migdałowatego w trakcie podejmowania decyzji moralnych - struktur odpowiedzialnych za racjonalizm i emocjonalność (Casaebeer, Churchland 2003). Zaproponowana teoria normy nie tylko najszczelniej obejmuje dotychczasowe spostrzeżenia pewnych cech normatywności (co jest wypełnieniem formalnego znamiona dobrej definicji normy), ale także konsekwentnie tłumaczy funkcję motywacyjną norm (co jest wypełnieniem materialnego znamiona definicji nomy). Zaproponowana teoria normy opiera się też na najbliższej współczesnej kognitywistyce wizji człowieka, która jakkolwiek może dla wielu może wydawać się wątpliwa ze względu na naturalistyczne uprzedzenia, to jednak wizji spełniającej w największym stopniu standardy nauk empirycznych. Z powyższych względów propozycja kognitywnej teorii normy wydaje się być mocno uzasadniona. Bibliografia Alexy R., Theorie der juristichen. Argumentation. 2. Aufl. Frankfurt am Main: Suhrkamp 1991, s. 188-198 Bach J, Principles of Synthetic Intelligence (2009, Oxford University Press): Norbet Bischoffs argument: “rely on neuroanatomy to know the cognition is wrong. What would have become chemistry if it had always waited for the more basal since of physics? The metallurgist, knowing everything about metal molecules and their alloys, is not necessarily the best authority with regard to the functioning of car engines, even though they consist mainly of steel and iron.” Bach J, The MicroPsi Agent architecture, (2003) Casebeer W, & Churchland P, The Neural Mechanisms of Moral Cognition: A Multiple-Aspect Approach to Moral Judgment and Decision-Making (2003, Volume 18, Number 1 / January, 2003 , pages: 169-194) Collins, A. M. & Quillian, M. R. (1969). Retrieval time from semantic memory. Journal of Verbal Learning and Verbal Behavior, 8, 240-247 Collins, A. M. & Loftus, E. F. (1975). A spreading-activation theory of semantic processing. Psychological Review, 82(6), 407-428 Damasio A, Descartes’ error: Emotion, reason, and the human brain, Groddet?Putman., New York 1994; wyd. pol.: Błąd Kartezjusza, Rebis, Poznań 1999, Tajemnice świadomości, Rebis, Poznań 2000 Doerner D (1999) Bauplan fur eine Selle, Reinbeck:Rowohlt Doerner D., Bartl C., Detje F., Halcour D., Schaub H., Straker U (2002) Sie EMchanik des Sellenswagen. Eine neuronale Theorie der Handlungsregulation. Bern, Goettingen, Toronto, Seatlle: Verlag Hans Huber. Duch W., Czym jest Kognitywistyka, "Kognitywistyka i Media w Edukacji" 1 (1998) str. 9-50. Gee James Paul, Grosjean Francois (1983) “Perormance structures: a psychological and linguistic appraisal”, Cognitive psychology 15, 411-458 Hogewoning (2007), Strategies for Affect-Controlled Action-Selection in Soar-RL, Lecture Notes In Computer Science; Vol. 4528, Proceedings of the 2nd international work-conference on Nature Inspired Problem-Solving Methods in Knowledge Engineering: Interplay Between Natural and Artificial Computation, Part II Laird J, Rosenbloom P.S., Newell A, SOAR: An architecture for general intelligence 1987, Artificial Intelligence 33, 1-64, Lovett, M. C. (1998). Choice. In J. R. Anderson, & C. Lebiere (Eds.). The atomic components of thought, 255-296. Mahwah, NJ: Erlbaum. Maruszewski T. (2006), Psychlogia poznania, 19289, 83-87957-51-8, GWP Gdańskie Wydawnictwo Psychologiczne, Maslow A (1954) Motivation and Personality NY: Harper, 1954. Contents. Second Ed. NY: Harper, 1970. Contents. Third Ed. NY: Addison-Wesley, 1987. Minsky M., (1975), Frame theory, . In TINLAP '75: Proceedings of the 1975 workshop on Theoretical issues in natural language processing (1975), pp. 104-116. Penrose R, The Emperor's New Mind: Concerning Computers, Minds, and The Laws of Physics (1989, ISBN 0-14-014534-6), Shadows of the Mind: A Search for the Missing Science of Consciousness (1994, ISBN 0-19-8539789) Nęcka E., Orzechowski J., Szymra B., (2008), Psychologia poznawcza, Wydawnictwo naukowe PWN, Warszawa Printz J.J. (2004). Embodied appraisals. W: J.J. Printz The gut feelings. A Perceptural Theory of Emotions. New York: Oxford University Press. Rosch (1978), Principles of categorization, E: E.H.Rosch, B.B Lloyd, Cognition and categorization, p. 27-48, Hillasale, NJ: Lawrence Erlbaum. Rumelhart, D.E. (1980) Schemata: the building blocks of cognition. In: R.J. Spiro etal. (eds) Theoretical Issues in Reading Comprehension, Hillsdale, NJ: Lawrence Erlbaum. Searle J., (1980) Minds, Brains and Programs, The Behavioral and Brain Sciences.3, pp. 417-424. Shallice T., Supervisory control of action and thoght selection, w: Attention: selection, Awarness, and Control. A Tribute to Donald Broadbent. A. Baddeley, L. Weiskrantz (red.).. Clarendon Press, Oxford 1993, s.171-187 Shannon, Weaver (1948) A Mathematical Theory of Communication, Bell System Technical Journal, vol. 27, pp. 379-423, 623-656, July, October, 1948 Stelmach J., Brożek B, Metody Prawnicze, Kraków 2006