Kognitywna Teoria Normy

advertisement
Kognitywna Teoria Normy. Schematy i pojęcie noramtywne.
Łukasz Łazarz (Wydział Prawa Uniwersytetu Jagiellońskiego)
Słowa
kluczowe:
kognitywistyka,
psychologia,
sztuczna
inteligencja,
architektury kognitywne, filozofia, etyka, moralność, norma, schematy
normatywne, schematy moralne.
Abstrakt
Nauka o człowieku, jego świadomości (umyśle), ma fundamentalne
znaczenia dla jakichkolwiek odpowiedzi na gruncie jakiejkolwiek nauki.
Związane to jest z faktem, że badając świat w jakimkolwiek jego aspekcie
tak naprawdę nigdy nie mamy do czynienia z tym realnym światem, a raczej z
jego odbiciem w lustrze naszej świadomości. Innymi słowy, tak naprawdę
badamy to co widzimy, a nie to co rzeczywiście jest. Bez znajomości
charakterystyki tej świadomościowej soczewki przez jaki widzimy świat nie
będziemy mogli nigdy stwierdzić jak obraz odbity świata jest bliski jemu
samemu.
Kognitywistyka
jest
taką
właśnie
nauką
o
ludzkiej
soczewce.
Jej
fundamentalne znaczenie dla zrozumienia problemów pojawiających się na
gruncie bardzo różnych nauk powoduje jej nieustającą popularność na gruncie
wielu dyscyplin nauki. W artykule stawiam jednak tezę, że przyczyn
„genetycznych” dziedziny normatywne są szczególnie impregnowane na wyniki
nauk poznawczych, które w sposób zagrażający podstawowym filarom systemów
normatywnych forsują mniej lub bardziej naturalistyczną wizję człowieka,
wizję, która nie jest do zaakceptowania na gruncie jakiegokolwiek systemu
normatywnego. Systemy normatywne mają bowiem swoją konkretną funkcjonalność
polegającą na zaspokajaniu potrzeb człowieka, a przede wszystkim jego
najważniejszej potrzeby – potrzeby bezpieczeństwa. A temu naturalistyczna
wizja człowieka w sposób oczywisty nie sprzyja.
W pracy podejmuję próby ogólnego opisania architektury kognitywnej
(nazywanej
także
dla
zaakcentowania
funkcjonalności
polegającej
na
przetwarzaniu informacji) procesorem poznawczym. Próbę opisania podejmuję w
dwóch wymiarach – deklaratywnym (problematyka reprezentacji danych) oraz
proceduralnym (problem działania procesora poznawczego z wykorzystaniem
wymiaru deklaratywnego). Kluczowym dla celów niniejszej pracy jest jednak
analiza wiedzy, a w szczególności, przy
zachowaniu rozłączności podziału
wiedzy
deklaratywnej
i
proceduralnej
dostrzeżenie
w
ramach
wiedzy
deklaratywnej, takiego fragmentu wiedzy, który w treści utożsamić można z
wiedzą proceduralną, aczkolwiek sposób jej nabywania jest właściwy dla
wiedzy deklaratywnej. Innymi słowy kluczowym jest wyróżnienie takiej wiedzy
deklaratywnej, która dotyczy powiązań z wiedzą o użyteczności (emocjach)
oraz
wiedzą
o
działaniach
własnych
(cecha
właściwa
dla
wiedzy
proceduralnej), ale która nabywana jest jak wiedza deklaratywna, a nie w
drodze treningu właściwego dla wiedzy proceduralnej. Takie powtarzalne
fragmenty
wiedzy
nazywam
schematami
(lub
pojęciami)
deklaratywnoproceduralnymi lub schematami (lub pojęciami) normatywnymi. Patrząc na
budowę schematów normatywnych łatwo wyróżnić elementy wiedzy deklaratywnej
stanowiącej odpowiednik pojęcia hipotezy, elementy wiedzy o działaniach
własnych stanowiącej odpowiednik pojęcia dyspozycji oraz elementy wiedzy o
użyteczności (emocjach) stanowiącej odpowiednik pojęcia np. sankcji. W
artykule stanowczo chcę wykazać, że to właśnie pojęcie schematu (pojęcia)
normatywnego
(lub
deklaratywno
proceduralnego)
najlepiej
definiuje
filozoficznie problematyczne pojęcie normy. Taka definicja normy nie tylko
najlepiej intuicyjnie oddaje to czy jest norma w rzeczywistości, ale także
wskazuje na przyczyny wspólnej na gruncie deskryptywnym i normatywnym
metodologii (rozumowanie).
Taka definicja normy obala także niesłuszne,
moim zdaniem twierdzenie pochodzące od Kanta o innym ontologicznym statusie
normy i wiedzy deskryptywnej a także każe głębiej zastanowić się nad
użytecznością powszechnie stosowanego argumentu błędu naturalistycznego
(naturalistic fallacy).
1. Rozwój perspektywy kognitywnej
Ludzki umysł był od zawsze był obiektem zainteresowania różnych nauk. Z
oczywistych przyczyn był najważniejszym obiektem zainteresowania dla
filozofii, psychologii czy antropologii. Wszystkie te nauki z założenia
zajmują się bowiem problematyką ludzkiego umysłu. Jednak powoli zaczęto
sobie zdawać sprawę, że przyjęcie określonych założeń dotyczących jego
funkcjonowania silnie oddziaływają na problematykę innych nauk; socjologii,
językoznawstwa, logiki, informatyki, pedagogiki, literaturoznawstwa.
Na przełomie wieków rozwój informatyki doprowadził do narodzin nowej idei
na gruncie nauk zajmujących się problematyką ludzkiego umysłu, idei
traktowania go jako jednostki przetwarzania informacji.
Claude Shannon w pracy dyplomowej z 1937 roku oraz w klasycznym dziele A
Mathematical Theory of Communication (Shannon, Weaver 1948) rozwinął
podstawy teorii informacji binarnej.
W 1948 w Hixon miało miejsce interdyscyplinarne sympozjum, które przeszło
do historii nauki. Matematycy, informatycy (między innymi John von Neumann,
Norbert Wiener i Warren McCulloch) dyskutowali na temat „korowych
mechanizmów zachowania”.
W 1956 roku w MIT odbyły się warsztaty poświęcone zagadnieniu informacji.
Udział w nich brali min. Noam Chomsky i George Miller. Chomsky mówił o
swoim projekcie gramatyki generatywnej, Miller przedstawił badania na temat
pamięci krótkotrwałej, za pomocą której można zapamiętać mniej więcej
siedem rzeczy na raz (7+/-2). Spotkanie to stworzyło możliwość połączenia
ujęć
psychologii
eksperymentalnej,
lingwistyki
teoretycznej
oraz
komputerowych symulacji procesów kognitywnych.
W tym samym roku Claude Shannon, Marvin Minsky i John McCarthy
zorganizowali warsztaty w Dartmouth, które w zamiarze miały doprowadzić do
rozwoju sformalizowanych form myślenia.
Szybko dostrzeżono, że nowa perspektywa badania umysłu zdaje się otwierać
nowe, dziewicze dotąd obszary wiedzy o samym umyśle. Towarzyszący powstaniu
nauk poznawczych optymizm powodował, że wierzono, że zalgorytmizowanie
wszystkich czynności poznawczych człowieka jest kwestią nieodległego czasu.
Z czasem optymizm ten osłabł, napotkano bowiem znaczne trudności
techniczne, pojawiły się także poważne zarzuty natury filozoficznej co do
możliwości całkowitego ich zalgorytmizowania (Penrose 2001, Searle 1980).
Wszystko to nie zmieniło faktu, że nauka o umyśle po 1956 roku nigdy nie
miała być już taka sama. Powstały nowe gałęzie nauki zajmujące się
bezpośrednio
problematyką
mózgu
i
umysłu,
Sztuczna
Inteligencja
(Artificial Intelligence) i neuronauki. Rozwój technologii komputerowej
stworzył nowe możliwości w zakresie neurobiologicznego poznania struktury
mózgu co spowodowało rozwój neuronauk. Sztuczna Inteligencja z wieloma
sukcesami algorytmizuje prostsze czynności poznawcze, co od wielu lat ma
zastosowanie inżynieryjne. Sam termin Sztucznej Inteligencji (Artificial
Intelligence) został ukuty na wyżej wspomnianych warsztatach w Dartmouth.
Przedstawiciele
bardziej
radykalnego
kierunku
Artificial
General
Intelligence budują architektury kognitywne, które według przedstawicieli
tego kierunku badań już na dzisiejszym poziomie prawidłowo modelują
najważniejsze (rdzeniowe) czynności poznawcze (Franklin 1995). Po rewolucji
poznawczej
psychologia
całkowicie
odwróciła
się
od
paradygmatu
behawioralnego, zgodnie z którym traktowano umysł jako czarną skrzynkę. Już
w latach osiemdziesiątych dwudziestego wieku trzy czwarte psychologów na
terytorium Stanów Zjednoczonych identyfikowało się z psychologią poznawczą,
co w sposób znamienny pokazuje dominującą pozycję nurtu kognitywistycznego
w obrębie nauk psychologicznych.
Nie ma żadnych wątpliwości, że rozwój wiedzy na temat ludzkiej wiedzy w
ramach nauk poznawczych ma współcześnie olbrzymi wpływ na wiele dziedzin
nauki i nie ma żadnych wątpliwości, że siła tego wpływu będzie ciągle
rosła.
Ostatnim bastionem relatywnie mało zainfekowanym kognitywną rewolucją są
dziedziny normatywne. Dziedziny normatywne zajmują się bowiem najbardziej
złożonymi procesami poznawczymi, które z powodu swojej złożoności wydają
się
trudne
do
zalgorytmizowania.
Jednak
aktualnie
coraz
częściej
kognitywistyka przekracza także i tą granicę i zajmuje się problematyką
zarezerwowaną dotychczas dla etyki i „starej” filozofii. Co więcej, wydaje
się, że same dziedziny normatywne są ex definitione impregnowane na
rezultaty nauk poznawczych. Wydaje się, że chociaż wierząc, że „prawda nas
wyzwoli” istnieje na gruncie nauk normatywnych „jakaś psychiczna bariera
chroniąca nas przed zbyt głębokim wnikaniem w swój umysł” (Duch 1998).
Bariera
ta
wynika
najprawdopodobniej
z
niemożności
pogodzenia
algorytmizowanej,
naturalistycznej
wizji
człowieka
z
fundamentalnymi
założeniami stojącymi u podstaw prawie wszystkich systemów normatywnych.
Nawet
jeśli
antynaturalistyczne
założenia
te
są
błędne,
to
są
najskuteczniejszymi środkiem zaspokojenia najbardziej podstawowej potrzeby,
potrzeby bezpieczeństwa. Potrzeby, której zwykle ustępuje nawet potrzeba
kompetencji.
Dlatego też tak wielu, jak wyraził to przy okazji recenzji nowej książki
Rogera Penrose'a znany fizyk, prof. Łukasz Turski"...bardzo chce, by się to
nam nigdy nie udało".
2. Umysł jako jednostka przetwarzania informacji (procesor poznawczy)
2.1. Dwa wymiary procesora poznawczego
Z kognitywistycznego punktu widzenia fenomen umysłu ludzkiego opisywany
jest przy użyciu metafory komputera, albo przynajmniej przy użyciu metafory
jednostki przetwarzania informacji (procesor poznawczy). Takie ujęcie
problematyki umysłu ludzkiego wyróżnia w sposób szczególny dwa zagadnienia:
zagadnienie deklaratywne (problem reprezentacja danych) i zagadnienie
proceduralne (problem sposobu działania na danych). Dlatego też każda próba
budowy architektury kognitywnej (w niniejszym artykule będę zamiennie
używał pojęć architektury kognitywnej i procesora poznawczego) związana
będzie
w
wyróżnieniem
dwóch
wymiarów
takiej
architektury:
wymiaru
deklaratywnego oraz wymiaru proceduralnego.
Rozróżnienie pomiędzy deklaratywnym i proceduralnym wymiarem ludzkich
procesów poznawczych (lub ogólnie architektury kognitywnej lub procesora
poznawczego) wyraża się klasycznym podziałem na wiedzę deklaratywną i
wiedzę proceduralną (Ryle 1949). Wiedza deklaratywna dotyczy danych
(faktów) zakodowanych w pamięci trwałej. Danymi może być wiedza ogólna czy
wiedza epizodyczna. Wiedza deklaratywna utożsamiona jest z jest wiedzą
„że”. Wiedza proceduralna dotyczy zakodowanych w pamięci trwałej procedur
realizacji czynności o charakterze umysłowym lun motorycznym (ruchowym). Ta
specyficzna
wiedza
potocznie
nazywana
jest
umiejętnościami.
Wiedza
proceduralna kojarzona jest z wiedzą „jak”. Taki podział na wiedzę
deklaratywną i wiedzę proceduralną jest podstawą istniejących architektur
poznawczych, min. ACT-R (Anderson 1995).
Na meta poziomie, analogiczny podział może być zaobserwowany w rozróżnieniu
algorytmu i architektury funkcjonalnej (Pylyshyn 1980) albo algorytmu i
jego implementacji (Anderson 1987). W obydwu przypadkach algorytm oznacza
dane deklaratywne i proceduralne (wiedzę, że) a architektura funkcjonalna
albo implementacja algorytmu oznacza działanie (wiedzę jak).
Podsumowując: wymiar deklaratywny procesów poznawczych dotyczy więc
problematyki reprezentacji danych i jej składników; schematów, skryptów,
ram, pojęć, reprezentacji umysłowych,
wymiar proceduralny procesów poznawczych dotyczy natomiast problematyki
wyboru (choice) i jego przedmiotu; działań ruchowych (motor activities)
oraz działań mentalnych (mental activities) min. kierowanie uwagą,
rozwiązywanie problemów, myślenie, wnioskowanie.
2.2.
Wymiar
deklaratywny
reprezentacji danych
procesora
poznawczego
–
problematyka
2.2.1. Wiedza deklaratywna - wymiar deklaratywny procesora poznawczego w
ogólności
2.2.1.1. Chunki jako niepodzielne jednostki informacji
Po raz pierwszy pojęcie “chunku” zostało użyte przez Millera, który
przedstawił badania, z których wynikało, że pamięć krótkotrwała może
pomieścić 5-9 chunków informacji (siedem plus minus dwa), gdzie chunk jest
jednostką podstawową (Miller 1956). Chunk jest wyróżniającym się w osobną
całość zbiorem informacji. Chunk może odnosić się do liter, słów, pozycji w
szachach albo twarzy ludzi. Chunk był definiowany min. jako “zbiór
elementów mających ze sobą silny związek, natomiast słaby związek z innymi
chunkami” (Gobet 2001).
Pojęcie wydobywania chunku (chunking) i ograniczonej pojemności pamięci
krótkotrwałej stało się podstawowym pojęciem wszystkich teorii pamięci
powstałych po opublikowaniu prac Millera. Istnieje wiele psychologicznych
dowodów na istnienie chunków, np. Gee oraz Grosjean w 1983 roku badali
struktury, które miały postać słownych klastrów. Nazywano je performance
structures (Gee, Grosjean w 1983).
Na początku chcę zaproponować definicję „chunku”, którym będę się
posługiwał w niniejszym artykule. Pojęcie to jest podstawowe dla opisu
wymiaru deklaratywnego procesora poznawczego,.
Chunk niech oznacza pojedynczą jednostkę informacji pozyskaną przez
procesor poznawczy.
Ta jednostka informacji będzie stanowić podstawę dla wyboru jakiegokolwiek
działania w ramach wymiaru proceduralnego procesora poznawczego.
Chunk jest niepodzielny. Chunk może być złożoną strukturą, ale jego
składniki nie są dostępne dla procesora poznawczego dopóki nie są
wyodrębnione z danego chunka w drodze procesu wydobywania chunków
(chunking).
Chunking z kolei jest procesem wydobywania chunków ze źródeł informacji
procesora poznawczego. Tymi źródłami są: bieżące dane zmysłowe (zmysły),
pamięć, bieżące emocje oraz bieżące działania własne. Jeśli zmysły oraz
pamięć wydają się być oczywistymi źródłami informacji, wyróżnienie
bieżących działań własnych i bieżących emocji wymaga dwóch słów komentarza.
Mowa o bieżących działaniach własnych oraz emocjach dlatego, że gdy
przestają być bieżące to dana informacja staje się strukturalnym
składnikiem pamięci. Tak więc bieżące działania własne nie oznaczają nic
innego
jak
tylko
informacje
dotyczące
bieżących
własnych
działań.
Teoretycznie można to źródło informacji utożsamić ze informacją zmysłową,
jednak z przyczyn systemowych zdecydowałem się na odrębne potraktowanie
tego źródła, jako fundamentalnie istotnego dla rozwoju normatywności
procesora poznawczego. Natomiast emocjonalność jako źródło procesora
poznawczego jest nieco bardziej złożonym zagadnieniem, jakkolwiek jest to
głównie techniczny i konfiguracyjny problem. Implementacja określonej
emocjonalności
i
jej
funkcjonalnej
charakterystyki
jako
modułu
motywacyjnego będzie miała zasadnicze znaczenie dla działalności procesora
poznawczego, w szczególności z perspektywy jego efektywności, jednak nie
będzie to miało znaczenia dla samego sposobu funkcjonowania mechanizmu.
Emocje jako źródło informacji dla procesora poznawczego omówię dokładniej w
punkcie poświęconym schematom normatywnym i podpunkcie dotyczącym chunków
emocjonalnych.
Chunki są jednostkami informacji w ramach istniejących architektur
kognitywnych, takich jak ACT-R (Anderson 1995). Wiedza deklaratywna jest
reprezentowana przez chunki będącymi schemato-podobnymi składającymi się z
wskaźnika isa określającego ich kategorię i innych wskaźników określających
ich treść.
Problem “jak” informacja jest wydobywana do pojedynczego chunku, lub innymi
słowy
wedle
jakich
kryteriów
wykonywany
jest
chunking
należy
do
problematyki wymiaru proceduralnego procesora poznawczego i zostanie
omówiony w osobnym punkcie. Na ten moment wystarczy jeśli dokonamy
intuicyjnego
założenia,
że
każdy
wybór
konkretnego
działania
jest
podejmowaniu w oparciu o kalkulację maksymalnej użyteczności danego
działania.
Możemy
to
tymczasowe
założenie
nazwać
Utility
Rational
Procedural Assumption (URPA).
Dla potrzeb jedności pojęć chcę także zaznaczyć, że chunki mogą być
rozumiane
jako
niepodzielne
jednostki
informacji
jak
zostało
to
przedstawione
wyżej
(np.
„Kowalski
je
ciasto”
–
całość
danych
reprezentujących Kowalskiego jedzącego ciastko, albo “jedzenie” - całość
danych reprezentujących fakt jedzenia, albo „ciastko” - całość danych
reprezentujących ciastko), ale także jako schematy a także relacje.
2.2.1.2. Chunki jako schematy
Koncepcja schematów ma wielu spadkodawców. Jakkolwiek początków tej
koncepcji należy szukać w Kantowskiej idei samego pojęcia, fundamenty pod
współczesne rozumienie schematu zostały nadane przez Sir Frederick’a
Bartlett’a z Cambridge University. Bartlett (1932) badał się wpływ
oczekiwań ludzi na pamiętanie I rozumienie zdarzeń życia codziennego. W
latach sześćdziesiątych XX wieku Piaget (1967) użył pojęcia schematu to
opisu poznania dzieci. Współczesne rozumienie pojęcia schematu zostało
jednak nadane w latach siedemdziesiątych. Schank’a (1972) teoria zależności
pojęciowych (conceptual dependency theory), korzystała z pojęcia schematu w
celu reprezentowania pojęć relacyjnych (relational concepts); Schank i
Abelson (1977) zaproponowali formy schematów nazwane skryptami, które
zawierały w sobie informację o zorganizowanych sekwencjach stereotypowych
działań; Bower et al. (1979) również badał podobne struktury nazywane
skryptami pod kątem wydzielenia z nich
sekwencji niskiego poziomu
nazywanymi scenami (scenes). Na gruncie Sztucznej Inteligencji, Minsky
(1975)
zaproponował
inne
struktury
schemato-podobne
nazwane
ramami
(frames). Ramy przeznaczone się głównie do reprezentacji pojęć, przez
przegrupowanie ich atrybutów w złożone struktury. Rumelhart (1980)
upatrywał natomiast schematów w silnie zintegrowancych częściach sieci
semantycznej.
Kiedy procesor poznawczy koncentruje się na danym obiekcie (Kowalski je
ciastko) wydzielone zostają następujące jednostki informacji (chunks):
„Kowalski je ciastko”, „Kowalski je”, „jedzenie ciastka”, „Kowalski”,
„jedzenie”,
„ciastko”.
Pojedyncze
chunki
połączone
są
związkami
skojarzeniowymi: "Kowalski" z "jedzenie ciastka ", "Kowalski je " z
"ciastkiem”, "Kowalski" z "jedzeniem", "jedzenie" z "ciastkiem ". Taki
niepodzielony jeszcze zbiór informacji można rozumieć jako pojedynczy chunk
„Kowalski je ciastko”, albo jako wydzielony zbiór chunków połączonych jak
wyżej, który odnieść można do pojęcia schematu.
Rys. 1. przykład: schemat: “Kowalski je ciastko”
Jak wspomniałem wyżej, schematy można rozumieć jako dobrze zintegrowane
części sieci semantycznej reprezentującej wiedzę procesora poznawczego.
Idea sieci semantycznej podkreśla rolę pojedynczej jednostki informacji
(chunku) i połączeń skojarzeniowych pomiędzy takimi jednostkami (Collins,
Loftus
1975).
Idea
sieci
semantycznej
ma
także
silne
inspiracje
neurobiologiczne odwołujące się do sieci neuronowych. Kiedy wydobywamy
pojęcie "Kowalskiego" reprezentowanego przez pojedynczy chunk zwiększamy
szanse wydobycia (czyli de facto wydobywamy) także i inne skojarzone z
określoną siłą cechy (pojęcia) reprezentowane przez pojedyncze chunki, np.
"jedzenie" lub "jedzenie ciastka”.
Siła skojarzenia ma wpływ na prawdopodobieństwo wydobycia połączonego
chunku, a także odzwierciedla ona prawdopodobieństwo występowania danej
cechy tego pojęcia. (Kowalski" jest "jedzący" z danym prawdopodobieństwem,
"Kowalski"
jest
"jedzącym”
"ciastko”
z
danym
prawdopodobieństwem).
Probabilistyczny charakter połączeń pomiędzy chunkami podkreślany jest
przez przedstawicieli koncepcji probabilistycznych. (Smith, Shoben, Rips
1973, 1974).
Taki zbiór chunków może być charakteryzowany w wymiarze wertykalnym i
horyzontalnym wymiarze reprezentacji pojęciowych (Rosch 1978). Wymiar
wertykalny reprezentacji pojęciowych dotyczy stopnia ogólności pojęcia
(połączenia pomiędzy pojęciem „Człowieka” i „Kowalskiego”). Im bardziej
ogólny poziom tym mniej danych potrzebnych do opisania chunku na tym
poziomie (wszystkie dane potrzebne do opisania “Człowieka” zawierają się w
bardziej szczegółowym zbiorze danych w przypadku pojęcia “Kowalskiego”).
Horyzontalny wymiar reprezentacji pojęciowych dotyczy desygnatów pojęcia
znajdującego się na poziomie wyższym. Im bardziej typowy egzemplarz
(desygnat) tym większe prawdopodobieństwo, że nastąpi wydobycie (chunking)
danego pojęcia reprezentującego ten egzemplarz.
Taki zbiór chunków można także charakteryzować poprzez wyodrębnienie w nim
części stałej oraz części zmiennej. Schemat jest bowiem jak sztuka albo gra
(Rumelhart 1980). Scenariusz reprezentuje stałą cześć schematu (core), a
np. aktorzy jego zmienną część (tracks). Podobnie Minsky wyróżnił dwa
poziomy swoich ram (frames), niższa część (slots) składają się ze zmiennych
danych.
2.2.1.3. Chunki jako relacje
Wcześniejsze dziełą Collins’a and Quillian’a (1969) zakładały, że chunki
są węzłami sieci semantycznej połączonych relacjami także reprezentującymi
relacje semantyczną (węzeł "Kowalski" i relacja "jedzenia") . Trudności z
rozróżnieniu pomiędzy chunkami a relacjami spowodowały modyfikację teorii
sieci semantycznych. W wyniku powyższego relacje Collins’a and Loftus’a
zostały zastąpione związkami skojarzeniowymi o określonej sile. Poprzednie
relacje, takie jak „jedzenie” zostały prawidłowo sklasyfikowane jako węzły
(chunki). Powyższe odsłania następne rozumienie chunków jako relacji
pomiędzy innymi chunkami. Zbiory chunków łączących dwa inne chunki
spełniają właśnie taką rolę relacji pomiędzy tymi dwoma chunkami. Na
przykład: chunk "Kowalski" jest w relacji “jedzenia” z innym chunkiem
“ciastko”. Jeśli widzimy "Kowalski je " raz na dziesięć razy kiedy w ogóle
widzimy Kowalskiego, prawdopodobieństwo, że "Kowalski" jest "jedzący"
wynosi 10%. Jeśli widzimy "Kowalskiego jedzącego ciastko " raz na dziesięć
razy kiedy w ogóle widzimy Kowalskiego jedzącego, prawdopodobieństwo, że
"Kowalski" jest w relacji "jedzący" z „ciastkiem” wynosi 1%. Ta relacyjna
funkcja chunków jest bardzo istotna w procesie uczenia się procesora
poznawczego.
Rozumowanie syntetyczne może być rozumiane z symbolicznego punktu widzenia
jako proces powtarzania schematów. Takie powtarzanie schematów prowadzi do
wzrostu
prawdopodobieństwa
wystąpienia
takiej
danej
relacji
(reprezentowanej przez łączącego chunka lub zbiór łączących chunków)
pomiędzy dwoma innymi chunkami (indukcja). Z koneksjonistycznego punktu
widzenia rozumowanie syntetyczne może być rozumiane jako wzrost wag
pomiędzy dwoma danymi chunkami.
Rozumowanie analityczne może być natomiast rozumiane z symbolicznego punktu
widzenia jako dedukcja jednego chunka będącego w relacji danego chunku (lub
zbioru chunków) z innym chunkiem z danym prawdopodobieństwem. Na przykład
kiedy widzimy “Kowalskiego” ale nie widzimy czy “Kowalski je ciastko” lub
“Kowalski nie je ciastka” (nie mamy wiedzy na temat czego Kowalski je czy
nie je ciastka) to im wyższe prawdopodobieństwo takiej relacji, która
poprzednio
została
wyidukowana
(Kowalski
je
ciastko)
tym
większe
prawdopodobieństwo, że taki określony chunk (ciastko) zostanie wydedukowany
(przy
relacji
„jedzenia”).
Z
koneksjonistycznego
punktu
widzenia
analityczne rozumowanie może być rozumiane jako rozprzestrzenianie się
aktywacji (spread of activation). Na przykład kiedy widzimy "Kowalskiego",
"Kowalski" chunk jest aktywowany; im większe wagi połączeń z innym chunkami
("je " i "je ciastko"), tym bardziej intensywne rozprzestrzenianie się
aktywacji z chunku "Kowalski" i większe prawdopodobieństwo, że następne
chunki zostaną znów wydobyte.
2.2.1.4. Wnioski
Pojęcie chunku i jego rozumienie jako schematu (ujęcie strukturalne
chunku) lub relacji (ujęcie funkcjonalne) odgrywa centralną rolę dla
problematyki reprezentacji danych, która umożliwia dalsze przetwarzanie
tych danych. Przedstawione wyżej ujęcie kognitywistyczne jest współcześnie
dominującym podejściem do pierwszego, z dwóch wyróżnionych wymiarów
procesora poznawczego, tj. wymiaru deklaratywnego.
2.2.2. Wiedza proceduralno-deklaratywna
2.2.2.1.
Schematy
schematy moralne)
proceduralno-deklaratywne
(schematy
normatywne,
Jak wspomniałem już wcześniej, wydobywanie informacji do chunku
(chunking) odbywa się z następujących źródeł danych procesora poznawczego:
zmysły, pamięć, bieżąca informacja dotycząca działań własnych oraz bieżąca
informacja dotycząca emocjonalności. W tym punkcie
skoncentruję się na
schematach, w których kluczową rolę odgrywa informacja dotycząca działań
własnych
oraz
dotycząca
emocjonalności
(jako
konsekwencji
działań
własnych).
Takie
schematy
będę
nazywał
schematami
proceduralnodeklaratywnymi
lub
schematami
normatywnymi.
W
ramach
schematów
normatywnych, zasadniczą rolę pełnią natomiast schematy moralne.
.
Rys. 2. uproszczona struktura schematu normatywnego
Wzorcowe schematy proceduralno-deklaratywne (schematy normatywne) składają
się w deklaratywnych chunków warunkowych (declarative conditional chunks),
chunków reprezentujących informację dotyczącą działań własnych oraz chunków
emocjonalnych.
Ponieważ
chunki
warunkowo
mają
stricte
deklaratywny
charakter, wydaje się że nie ma potrzeby dokonywać na ich temat dodatkowych
uwag. Inaczej ma się rzecz z chunkami dotyczącymi działań własnych oraz
chunków „emocjonalnych”.
2.2.2.2. Chunki emocjonalne (chunki użyteczności)
Zgodnie z wcześniejszym założeniem emocje są jednym ze źródeł informacji
dla procesora. Emocje powinny być bowiem rozumiane jako informacja na temat
realizacji założonych celów (założonych dla danego procesora poznawczego –
np. nie ma żadnych wątpliwości, że takim najważniejszym celem dla każdej
istoty żywej jest przeżycie). Chunki emocjonalne grają kluczową role w
określeniu wartości użyteczności dla sytuacji reprezentowanych przez inne
chunki zgodnie z biegunową i motywacyjną charakterystyką emocji. Ta
biegunowa i motywacyjna funkcja emocji znajduje odbicie w terminologii
używanej
na
gruncie
innych
dyscyplin
nauki:
emocje
lub
wartości
(filozofia), emocje, potrzeby, popędy (psychologia), użyteczność, zapłata,
cele (informatyka).
Printz (2004) w swoim artykule o „Emocjach jako ucieleśnionych ocenach”
wykazuje,
że
emocje
są
reprezentacjami
umysłowymi,
które
poprzez
rejestrację zmian cielesnych niosą informację (co jak wykazuje jest
ewolucyjną
funkcją
emocji)
o
tematach
relacyjnych
(co
determinuje
charakterystykę emocji jako oceny). Nie wchodząc w szczegóły rozważane
przez Printza wydaje się współcześnie nie budzić wątpliwości, że emocje
stanowią źródło informacji (tak jak przyjąłem wcześniej) o charakterze
wartościującym.
Jednak, co zwłaszcza widać przechodząc na tematykę moralną, istnieją
problemy z wiązaniem emocji z określonymi ocenami moralnym. Oczywistym
jest, że co do zasady ludzie „podążają za dobrym emocjami” (radość,
przyjemność). Jednak wystarczy zauważyć, że „złe emocje” (smutek) także są
potrzebne człowiekowi do „długoterminowo” rozumianego szczęścia (co
obrazuje stare przysłowie: „bez kropli goryczy nie można zaznać smaku
słodyczy”) i widać, że o prostym przełożeniu emocji na oceny moralne nie
może być mowy. Czy jednak przekreśla to czysto emocjonalny charakter ocen
moralnych (czyli, że oceny moralne są de facto emocjami)? W moim
przekonaniu absolutnie nie.
Faktem jest, że w przypadku człowieka mamy już na wstępie dużo problemów z
rozpoznaniem celów, do których dąży. Co więcej, relatywnie elastyczny
zestaw celów przypisanych każdemu człowiekowi związany jest z jeszcze
bardziej elastycznym zestawem celów pośrednich, np. jedną z najbardziej
podstawowych potrzeb człowieka, którą potrzeba afiliacji można związać z
różnymi celami pośrednimi takimi jak kompletacja, status materialny, uroda.
Zmienność tych celów podkreśla traktowanie przez Printza emocji jako
reprezentacji
umysłowych
niosących
informację
o
rdzennych
tematach
relacyjnych. Co więcej, nasza ocena, a tym samym towarzysząca jej emocja
może zmieniać się w czasie, to znaczy w określonym czasie t1 dana osoba
będzie inaczej oceniała (i czuła inne emocje) dane zdarzenie niż w innym
czasie t2.
Bez wątpienia więc nasza wiedza o funkcji określonych zdarzeń do
określonych emocji jest bardzo mała. Trudno jednak żeby było inaczej jeśli
funkcja ta ma tak indywidualny charakter. Emocjonalna konsekwencja danego
zdarzenia nie jest jak ta jedna fala, która po wrzuceniu danego przedmiotu
biegnie od miejsca jego zetknięcia się z wodą w kierunku brzegu.
Konsekwencja emocjonalna to nie tylko ta fala, to także inne fale, które
biegną w innych kierunkach, odbijają się gdzieś od brzegu, odbijają się
same od siebie, by w końcu spotkać się z tą pierwszą falą. To wzajemne
przenikanie się w czasie, interferowanie emocji prowadzi do określonego,
chociaż tak trudno przewidywalnego rezultatu, który ma jednak nadal
charakter czysto emocjonalny. Czyli jest niczym innym jak tylko nadal
emocją. Wśród tych trudnych i dość niełatwych do opisania przez tradycyjną
psychologię emocji są także i te nazywane dość intuicyjnie emocjami
moralnymi (moral emotions).
W tym miejscu warto także zaznaczyć, że określenie takiej charakterystyki
(funkcji) pewnych zdarzeń względem wartościowania jest kluczowe dla
projektów AGI (Artificial General Intelligence) mających ambicje stworzenia
human level AI. Niezwykle, jeśli nie niemożliwe wydaje się odtworzenie
całości wiedzy na temat takiej funkcji u człowieka (musielibyśmy bowiem
znać wszystkie rdzenne, tj. w jakiejś znacznej mierze wspólne dla
wszystkich ludzi, emocjonalne konsekwencje wszystkich możliwych zdarzeń!).
Pamiętać, też należy, że jakiekolwiek odchylenie od takiej jak ludzka
charakterystyki może mieć brzemienne skutki, także w zakresie efektywności
działania. Wydaje się to zasadniczym ograniczeniem w planach budowania
human level AI architektur kognitywnych.
Wszystkie powyższe problemy są dla mojego tematu jednak bez większego
znaczenia. Nie jest moim celem wskazanie przecież jedynej, prawdziwej i
dającej wszystkim szczęście etyki! Trudności z określeniem jaka konkretna
może być treść chunków emocjonalnych nie maja żadnego wpływu na badanie
mechanizmów posługujących się takimi chunkami. Ich treść jest więc bez
znaczenia. Badanie normatywności to badanie mechanizmów a nie danych,
którymi te mechanizmy się posługują. Problemy techniczne i konfiguracyjne
nie mają znacznie dla poznania kognicji per se.
2.2.2.3. Wiedza proceduralno
wiedza proceduralna
deklaratywna
(wiedza
normatywna)
versus
Drugim bardzo istotnym zagadnieniem jest rozróżnienie pomiędzy wiedzą
deklaratywno proceduralną w ogólności (lub schematami normatywnymi jako
fragmentami tej wiedzy) a wiedzy proceduralnej (produkcjami). Samo
rozróżnienie wiedzy deklaratywnej od proceduralnej pochodzi od Gilberta
Ryle’a (1949). Jak wspominałem już wcześniej, takie rozróżnienie jest
wyrazem samego rozróżnienie pomiędzy wymiarem deklaratywnym a proceduralnym
procesora poznawczego. Wiedza deklaratywna dotyczy faktów zakodowanym w
pamięci trwałej. Wiedza deklaratywna jest kojarzona z wiedzą „że”. Wiedza
ta posiada silne zabarwienie semantyczne.
Wiedza
proceduralna
natomiast
dotyczy
procedur
wykonywania
działań
mentalnych lub motorycznych również zakodowanych w pamięci trwałej.
Procedury dotyczą umiejętności. Wiedza proceduralna jest kojarzona z wiedzą
„jak”.
Podział na wiedzę deklaratywną i wiedzę proceduralną jest podstawowym na
wielu architektur kognitywnych, takich jak min. ACT-R (Anderson 1995).
Idea stojąca u podstaw rozróżnienia tych dwóch rodzajów wiedzy jest
oczywista. Można mieć wszystkie możliwe informacje na temat wykonywania
określonej czynności a mimo to nie umieć jej wykonać ("knowing the path is
not walking the path"). Najpierw bowiem musimy nabyć umiejętność
wykonywania danej czynności. Nie ma żadnych wątpliwości, że wiedza
deklaratywna i wiedza proceduralna są nabywane w inny sposób, ale nie ma
żadnych podstaw aby twierdzić, że inny jest także
sposób ich
przechowywania, inna struktura lub inny jest sposób wydobywania tej wiedzy.
(Nęcka 2008).
Kluczowym dla celów niniejszego artykułu, przy zachowaniu rozłączności
podziału wiedzy deklaratywnej i proceduralnej jest dostrzeżenie w ramach
wiedzy deklaratywnej, takiego fragmentu wiedzy, który w treści utożsamić
można z wiedzą proceduralną, aczkolwiek sposób jej nabywania jest właściwy
dla wiedzy deklaratywnej. Innymi słowy kluczowym jest wyróżnienie takiej
wiedzy deklaratywnej, która dotyczy powiązań z wiedzą o użyteczności
(emocjach) oraz wiedzą o działaniach własnych (cecha właściwa dla wiedzy
proceduralnej), ale która nabywana jest jak wiedza deklaratywna, a nie w
drodze treningu właściwego dla wiedzy proceduralnej.
Uściślając więc definicję zawartą na wstępie niniejszego punktu, schematy
będące fragmentami wiedzy proceduralno deklaratywnej nazywam schematami
(lub pojęciami) proceduralno deklaratywnymi lub schematami (lub pojęciami)
normatywnymi.
Dla
celów
dalszych
rozważań
przyjmuję
też
definicję
schematów
proceduralnych jako produkcji (elementów wiedzy proceduralnej) oraz
schematów normatywnych (jako elementów wiedzy proceduralno deklaratywnej).
Rys. 3 Wzajemne relacje pomiędzy wiedzą deklaratywną, proceduralną
proceduralno deklaratywną ze względu na sposób nabywania oraz treść
a
2.3. Wymiar proceduralny procesora poznawczego – problematyka wyboru
2.3.1. Wymiar proceduralny w ogólności
Rozważania
dotyczące
reprezentacji
wiedzy
są
niepełne
bez
przedstawienia,
chociaż
w
zarysie
wymiaru
proceduralnego
procesora
poznawczego. Mniej lub bardziej realny oraz mniej lub bardziej utajony
zarazem
cel
kognitywistyki
polegający
na
możliwie
jak
najszerszym
(najlepiej
całkowitym)
odwzorowaniu
funkcjonalności
fenomenu
umysłu
ludzkiego
(czyli
de
facto
samego
człowieka),
obok
problematyki
reprezentacji danych każe odpowiedzieć sobie także pytanie o wymiar
proceduralny, czyli o to jak należy postępować z tymi danymi. Nie będę w ty
miejscu szczegółowo omawiał problematyki wymiaru proceduralnego procesora
poznawczego ponieważ nie jest to tematem niniejszej pracy, jednak chcę
pokazać jak wykorzystywane są schematy proceduralne, czyli zgodnie z
definicją przyjętą w poprzedzającym punkcie; schematy normatywne (elementy
wiedzy deklaratywnej pod względem sposobu nabywania wiedzy) jak i same
produkcje (elementy wiedzy proceduralnej pod względem sposobu nabywania
wiedzy). Powyższe niezbędne jest dla opisu funkcji motywacyjnej schematów
normatywnych.
Procesor poznawczy “w akcji” używa takich urządzeń jak zmysły (data input
device), pamięć (data storage device) and zdolności ruchowe (output
device). Kontrola nad urządzeniami wykonywane jest poprzez dokonywanie
wyborów, które jak założyłem dla uproszczenie na wstępie dokonywane są na
podstawie kalkulacji użyteczności co nazwałem Utility Rational Procedural
Assumption (URPA). Poniżej chcę dokładniej opisać to założenie. Przedmiotem
wyboru są procedury realizacji czynności o charakterze umysłowym lub
motorycznym (elementy wiedzy deklaratywnej) oraz opisane wyżej schematy
normatywne (elementy wiedzy deklaratywnej pod względem sposobu nabywania
wiedzy).
2.3.2. Utility Rational Procedural Assumption (URPA)
Zgodnie z racjonalną analizą problematyki wyboru, procesor poznawczy
dokonuje go wykonuje wyboru (także w sytuacjach rozwiązywania problemów) w
oparciu o kalkulację jego użyteczności: każda opcja ma przewidywane
prawdopodobieństwo (P) osiągnięcia celu i przewidywane koszty z tym
związane
(C).
Jeśli
wartość
G
będzie
oczekiwanym
zyskiem
to
prawdopodobieństwo
określonego
zysku
będzie
wnosiła
PG.
Natomiast
prawdopodobieństwo określonego zysku przy kosztach C będzie wynosić PG-C.
Oczywiście taka racjonalna analiza będzie stać w sprzeczności z życiowym
doświadczeniem, które pokazuje, że ludzie nie zawsze działają mając na celu
maksymalizację użyteczności (Dawes, 1988).
W sytuacjach wyboru optymalnej strategii wydawać się może, że podmioty
wybierają najbardziej prawdopodobnie maksymalizujące użyteczność opcje,
tymczasem w rzeczywistości podmioty dokonują takich wyborów z pewnym
przybliżeniem
(Kintsch,
1970).
Dlatego
dla
odwzorowania
realnie
dokonywanych wyborów wprowadza się pewna przypadkowość w kalkulacji
przewidywanych zysków Lovett (1988).
Schematy proceduralne (produkcje sensu stricte oraz schematy normatywne) są
uruchamiane (własne działanie opisane schematami proceduralnymi) kiedy
chunki warunkowe odpowiadają aktualnie wydobytemu (w procesie chunkingu)
chunkowi. W typowej sytuacji istnieje wiele różnych schematów, które na
moment wydobycia określonego chunku spełniają ten warunek. W takim
przypadku niezbędne są reguły, które
będą rozstrzygać ten konflikt
(conflict rules). Rozstrzyganie konfliktu pomiędzy konkurującymi ze sobą
schematami proceduralnymi zasadniczo odbywać się będzie na podstawie,
zgodnie z racjonalną analizą wyboru, na podstawie kalkulacji użyteczności,
gdzie oczekiwana użyteczność przedstawia się wzorem U = PG-C.
W teorii ACT-R każda produkcja jest wybierana jest na podstawie kalkulacji
prawdopodobieństwa, która wyraża oczekiwany zysk E(i) w porównaniu do
oczekiwanych zysków innych produkcji E(j). ACT-R co do zasady dokonuje
produkcji charakteryzującym się najwyższym zyskiem, jednak ze względu na
wprowadzone zmienne losowe (noise) jest ona wybierana tylko przez pewien
okres czasu. Poniższy wzór (Conflict Resolution Equatation) pokazuje
prawdopodobieństwo, że dana produkcja o oczekiwanym zysku E(i) będzie
charakteryzować się największą wartością zmiennej losowej (nosie) dodatnej
to wartości oczekiwanego zysku.
gdzie t jest stałą kontrolną losowości. Sama natomiast wartość oczekiwanego
zysku obliczana jest na podsatwie wzoru E=PG – C, gdzie P jest
prawdopodobieństwem osiągnięcia celu G, G jest wartością tego celu a C jest
wartością kosztu w przypadku osiągnięcie celu G. P (prawdopodobieństwem
osiągnięcia celu G) może być zapisany jako: P=qr, gdzie q wyraża
prawdopodobieństwo, że dana produkcja osiągnie zamierzony następny stan a t
jest prawdopodobieństwem osiągnięcia celu produkcji zakładając przejście do
następnego zamierzonego stanu. Ze względów praktycznych, można uznać, że
q=1, zostawiając jedynie P=r. W takim przypadku, parametr r jest kluczowy
dla potencjalnego wyboru pomiędzy konkurującymi ze sobą produkcjami. Kiedy
parametr r jest mały to oznacza to, że niezależnie od prawdopodobieństwa
osiągnięcia następnego stanu małe jest prawdopodobieństwo osiągnięcia
ostatecznego celu.
W teorii ACT-R wartość paramteru r danej produkcji liczone jest według
następującego wzoru:
r = sukcesy /(sukcesy + porażki)
Bardzo ważną cechą wprowadzoną w ramach teorii ACT-R jest także
współczynnik zapominania (decay) doświadczeń sukcesów i porażek branych pod
uwagę w kalkulacji oczekwanego zysku danej produkcji. Innymi słowy, im
więcej upłynęło czasu od ostatniego użycia produkcji tym parametr r będzie
niższy; In other words: more time elapsed from last
r(t) = porażki (t) / (porażki (t) + sukcesy) (t)
gdzie
gdzie t(j) jest definiowany
sukcesu lub porażki.
jako
ilość
czasu,
który
upłynął
od
danego
Na przykład w SOAR-RL, podczas każdego cyklu, korzysta z równania
Boltzmanna w celu dokonania wyboru określonego działania spośród danego
zbioru innych działań:
n
P(a)= e
Q (s,a)xB
t
/ ∏
e
Q
(s,b)xB
t
B=1
gdzie P(a) wyraża prawdopodobieństwo wyboru danego działania. Qt(s,a) jest
szacowaną wartością wykonania akcji a ze stanu s w czasie t.
Wzór ten wyraża prawdopodobieństwo wyboru określonego działania spośród
danego zbioru innych działań na podstawie wartości Q oraz zmiennej B,
nazwaną inverse temperature. Jeśli If B -> ∞ każda akcja ma takie samo
prawdopodobieństwo (1/n) wyboru. Innymi słowy niska wartość B odpowiada
bardziej losowemu zachowaniu a wyższa wartość B odpowiada zachowaniu
bardziej „wyrachowanemu” (Hogewoning).
W tym miejscu należy jasno stwierdzić niezaleznie od oporów jakie może
budzić to stwierdzenie: nie ma żadnych dowodów, że do opisu ludzkiego
zachowania potrzebne są jakiekolwiek inne czynniki poza kalkulacją
użyteczności oraz zmiennych losowych. Niezależnie od tego jak trudne jest
odwzorowanie użyteczności w przypadku ludzkiej architektury kognitywnej (co
zostało już omówione w niniejszej pracy) oraz niezależnie od tego jak
wielkie wątpliwości może budzić istota fenomenu losowości ( możemy tylko
korzystać z wartości pseudolosowych)
te dwa pojęcia są znacznie lepiej
intuicyjnie pojmowalne niż jakikolwiek inne pojęcia metafizyczne, np. w
postaci wolnej woli. Wydaje się także, w świetle ustaleń współczesnej
kognitywistyki zupełnie wystarczające do opisu jakichkolwiek zachowań ludzi
(zachowań będących przedmiotem badań psychologicznych).
3. Teoria normy
3.1. Jak powinna wyglądać teoria normy
3.1.1. Formalny aspekt teorii normy
Można wyobrazić sobie wiele definicji normy, w zależności od tego jaki
jej aspekt chcielibyśmy podkreślić. Jeśli powiemy np., że normy prawne są
zdaniami zapisanymi w ustawach (lub innych aktach prawnych) podkreślamy ich
materialny aspekt. W tym konkretnym przypadku tracimy jednak wszystkie inne
aspekty norm prawnych. Jeśli więc budujemy teorię normy powinniśmy
odpowiedzieć sobie na pytanie jaką funkcję powinna spełniać ta teoria.
Funkcja ta wynika z podanego wyżej przykładu.
Dobra teoria normy powinna efektywnie charakteryzować możliwie wszystkie
aspekty normy, w podanym wyżej przykładzie normy prawnej. Mówiąc efektywnie
mam na myśli dwie rzeczy: teoria normy powinna podkreślać wyróżnione
aspekty fenomenu normy proporcjonalnie do ich wagi (ważniejsze/częstsze
cechy powinny zostać bardziej podkreślone) oraz powinna używać do rozsądnie
szerokiego
opisu
tego
fenomenu
minimum
terminów
(środków).
Taką
charakterystyką (minimum środków/maksimum informacji) będę nazywać w
przypadku definicji normy formalnym aspektem definicji normy.
3.1.2. Materialny aspekt teorii normy
Obok samej definicji normy wskazującej czym jest normatywność, a tym
samym wskazującej możliwie szeroko jej aspekty, szczególnie ważne jest
także wskazanie skąd bierze się motywująca właściwość normy i dlaczego
normy stanowią racje działania. Tą moc wyjaśniająca w zakresie funkcji
motywacyjnej będę natomiast nazywać materialnym aspektem teorii normy.
3.2. Czym norma nie jest oraz czym norma nie powinna być w ramach
dyskursu naukowego
3.2.1. Koncepcje językowe normy
Zajmując
się
problematyką
ontologii
moralności,
a
tym
samym
normatywności, jako pojęcia zawierającego w sobie pojęcie moralności (każda
norma moralna jest normą) pierwszym pytaniem, na które należy udzielić
odpowiedzi jest pytanie: czy pojęcie normy moralnej (lub normy w ogóle) ma
wyłącznie charakter językowy czy reprezentuje ono coś więcej? Tak jak uważa
się, że reprezentacje umysłowe to stany umysłu spełniające dwa warunki: są
nośnikami informacji oraz mogą zostać błędnie zastosowane (Dretske 1981,
1986) tak samo reprezentacje słowne to pewne stany słowne (czyli po prostu
słowa) spełniają te dwa warunki, tj. są nośnikami informacji oraz mogą
zostać błędnie zastosowane. Pogląd Dretske o „przenoszeniu informacji”
został przejęty z teorii informacji Shannona i Weaver’a. Zgodnie z tym
podejściem stan niesie za sobą informację o tym, z czym niezawodnie
występuje. Pojęcie normy niesie więc jakąś informację o fragmencie jakieś
rzeczywistości występującej poza samym pojęciem normy. Trudno mieć
jakikolwiek wątpliwości, że używając pojęcia normy próbujemy przekazać
określoną informację o czymś innym niż samo tylko wyrażenie językowe,
dlatego wydaje się, że nie można poprzestać na słabym stwierdzeniu, że
norma jest li tylko wyrażeniem językowym. Trzeba szukać dalej.
3.2.2. Koncepcje antynaturalistyczne normy
Drugą grupę poglądów na moralność, czy też w szerszym ujęciu
normatywność, którą chciałbym wykluczyć już na samym początku są wszystkie
poglądy antynaturalistyczne. Całkowicie zdaję sobie sprawę jak wielkie
oburzenie będzie powodować to u wielu, że nieomalże mechanistycznie
odrzucam tak znaczącą grupę koncepcji, dlatego zmuszony
jest o dodatkowe
słowo komentarza. Teorie antynaturalistyczne przesuwają ontologię normy
poza granice ludzkiej kognicji, w szczególności poza granicę racjonalnego
poznania, która ma zdolność rozpoznawania praw, które zwyczajowo nazywa się
prawami przyrody. Działanie takie czyni problem ontologii całkowicie
niewyjaśnianym za pomocą narzędzi poznawczych, w które wyposażony jest
człowiek. Nie przesądzając, czy rzeczywiście fenomen normatywności nie daje
się wyjaśniać za pomocą ludzkiego poznania (praw przyrody) - jeśli chcemy
prowadzić jakikolwiek dyskurs na jej temat musimy założyć coś przeciwnego.
Musimy założyć, że problem moralności lub szerzej normatywności daje się
tłumaczyć
i poznać za pomocą środków, które są nam dane. Dopóki nie
będziemy
w
stanie
udowodnić
czegoś
całkowicie
przeciwnego,
tj,
niemożliwości
„przyrodniczego”
wyjaśnienia
praw
rządzących
się
normatywnością a nadal jesteśmy zainteresowani naukowym zgłębianiem jej
fenomenem musimy założyć prawdziwość paradygmatu naturalistycznego.
Warto w tym miejscu odnieść się to używanego często terminu błędu
naturalistycznego Moore’a (naturalistic fallacy). Według Moore’a zawsze
kiedy definiuje się pojęcie „dobry” za pomocą predykatu empirycznego,
pojawia się następująca sytuacja: można człon definiujący
(definiens)
uogólnić i zapytać, czy jest on dobry; otrzymujemy wtedy zawsze sensowen w
rozumieniu
potocznego
języka
i
bynajmniej
nietrywialne
pytanie.
Nietrywialny charakter takich pytań pokazuje, że odnośna definicja
naturalistyczna jest fałszywa. Moore upraszcza jednak przedstawiany przez
siebie przykład w sposób całkowicie ignorujący problemy, które wskazałem
przy omówieniu schematów normatywnych, w szczególności problematyki chunków
utylitarnych (emocjonalnych). Dopóki nie będziemy mieli całkowitej wiedzy
na temat emocjonalnych reakcji człowieka na wszystkie możliwe działania lub
zjawiska z nim związane utożsamienie pojęcia „dobra” z jakimkolwiek znanym
nam predykatywnym określeniem zawsze musi być prowadzić do nietrywialnego
pytania o intuicyjną prawdziwość takiego porównania. Więcej, nie trzeba
długo się trudzić, aby wykazać jak takie utożsamienie jest uproszczone i
nieprawdziwe. Problemem jest tu więc ludzka niewiedza i ograniczone
zdolności
poznawcze
a
nie
sama
możliwość
utożsamienia
intuicyjnie
rozumianego
pojęcia
dobra
z
określonym
elementem
deskryptywnym
(empirycznym). Jeśli chcemy prowadzić dyskurs o normatywności w sposób
umożliwiający przypisanie mu jakichkolwiek znamion naukowości musimy z
założenia
zrezygnować
z
paradygmatu
antynaturalistycznego.
Trzeba
powiedzieć sobie jasno, niezależnie jak wielki opór wielu metafizyków
napotka takie twierdzenie: poglądy antynaturalistyczne ex definitione
znajdują się poza granicą nauki. Jeśli wbrew wszystkiemu roszczą sobie
pretensje do jakiejkolwiek naukowości psują ją i prowadzą do jeszcze
większego opóźnienia rozwoju nauk społecznych względem rozwoju nauk
przyrodniczych.
3.3. Cechy normatywności
3.3.1. Wymiar subiektywny normy
Jedną z najważniejszych analizowanych cech normatywności jest jej
potencjalnie obiektywny lub subiektywny charakter. Jeśli ktoś uważa, że
moralność jest częścią obiektywnie obserwowalnego świata zewnętrznego to
musi się on zmierzyć z problemem określenia takiego fragmentu zewnętrznej
rzeczywistości, który można utożsamić z moralnością. To musi prowadzić na
mętne
wody
metafizyki
i
w
konsekwencji
na
błędne
pozycje
antynaturalistyczne. Ten spór o obiektywizm lub subiektywizm częściowo
można utożsamić ze sporem kognitywistów
z nonognitywistami. Ten ostatni
podział związany jest z dyskusją na temat metodologicznego statusu nauk
normatywnych,
zwłaszcza
zaś
logiczno-semantycznego
statusu
wyrażeń
normatywnych. Utożsamiać ze sobą obydwa spory można jednak tylko częściowo,
bowiem
przyjęcie
stanowiska
subiektywistycznego
niekoniecznie
musi
prowadzić
do
stanowiska
nonkognitywistycznego,
odmawiającego
sądom
normatywnym statusu deskryptywnego. Nie dlatego, że zdania normatywne
uzyskują
bardziej
„weryfikalno-prawdziwościowy”
status
jak
zdania
deskryptywne, a raczej dlatego, że rezultaty nauk kognitywnych wpływają na
odejście
od
intuicyjnego
paradygmatu
„weryfikalno-prawdziwościowego”
statusu zdań deskryptywnych. W tym sensie różnica pomiędzy zdaniami
normatywnymi a normatywnymi wydaje się zanikać.
W historii etyki można znaleźć wiele stanowisk, które w mniejszym lub
większym stopniu wiązały moralność z subiektywnymi zdolnościami człowieka,
np. Arystoteles, Tomasz z Akwinu, światło rozumu (light of reason) w
tradycji
prawa
naturalnego,
rozumna
natura
(intellectual
nature)
Racjonalistów, sens moralny (moral sens) Szkockich Moralistów albo Rozum
Praktyczny Kanta. Te subiektywne zdolności człowieka grają różne role: od
zdolności poznawczej obiektywnie istniejącej rzeczywistości moralnej (np.
klasyczna tradycja prawa naturalnego) do twórczej kreacji subiektywnego
fenomenu moralności (Hutcheson 1971, Hume). Współczesna nonkognitywistyka
wspiera zwykle silnie subiektywistyczne stanowisko, np. poglądy Russela
(1999), Ayera (1956), Stevensona (1950), Rorty’ego (1998).
3.3.2. Wymiar emocjonalny normy
Emocjonalny wymiar normy zauważalny jest de facto we wszystkich
koncepcjach normatywności (moralności). Związane to jest z trywialną
intuicją, wypełnienie słusznej normy związane jest mocno z pozytywną oceną
mająca zabarwienie emocjonalne, natomiast działanie wbrew słusznej normie
związane jest z negatywną oceną także posiadającą określone zabarwienie
emocjonalne. Łatwo zauważyć analogię pomiędzy skutkami wypełnienie lub
niewypełnienia normy a tradycyjnie ujmowaną biegunowością emocjonalności.
Oczywiście wiązanie słuszności normy (dobra) z niektórymi, tradycyjnie
utożsamianymi jako pozytywnymi stanami emocjonalnymi (np. przyjemność) jest
wielkim uproszczeniem, które daje pożywkę dla błędnych argumentów pokroju
natural fallasy. Zwykle mówi się więc o tzw. „emocjach moralnych”, których
związanie z tradycyjnymi emocjami istnieje, jakkolwiek jest ono dość mętne.
Jak
podkreślałem
w
punkcie
dotyczącym
schematów
normatywnych,
w
szczególności podpunktu dotyczącego problematyki chunków utylitarnych
(emocjonalnych)
problemy
związane
z
określeniem
związku
pomiędzy
tradycyjnymi emocjami a „emocjami
moralnymi” związane jest z problemem
„rezonowania” w czasie emocji na skutek określonego działania. Chociaż nie
znamy właściwości tej zależności jednych emocji od tych drugich, nie
powinno budzić już żadnych wątpliwości, że emocje są immanentnie i
przyczynowo-skutkowo związane z problematyką dyspozycji normy. Podkreślenie
emocjonalnego wymiaru normy można znaleźć już w etyce Arystotelesowskiej
lub etyce Epikurejskiej, a także w poglądach hedonistów czy poglądach
utylitarystów.
3.3.3. Wymiar racjonalny normy
Problem racjonalności norm związany jest ściśle z możliwością
stosowania na gruncie normatywnym określonej metodologii, metodologii
bliskiej naukom empirycznym. Spór o właściwą metodę normatywną jest sporem
fundamentalnym dla filozofii normatywnej (czy dziedzin normatywnym w
ogólności). Jednak pomimo wagi tego problemu, nie ma zgodności co do jego
rozwiązania. Trudności w znalezieniu formuły utożsamiającej normy ze
zdaniami teoretycznymi przy jednoczesnym intuicyjnym poczuciu możliwości
szerokiego stosowania metod logicznych w ramach dyskursu normatywnego
najlepiej formułuje tzw. Dylemat Joergensena:
(1)
W myśl powierzchnie akceptowanych standardów metalogicznych
przesłankami i konkluzjami inferencji logicznych są wyłącznie zdania
w sensie logicznym,
(2)
Normy nie są zdaniami w sensie logicznym,
(3)
Normy nie mogą występować jako przesłanki i konkluzje w
inferencjach logicznych,
(4)
Można jednak podać przykłady rozumowań, którym trudno odmówić
intuicyjnej ważności, gdzie normy występują w roli przesłanek i
wniosków, np. jeśli powinieneś mówić prawdę, to nie wolno Ci mówić
fałszu.
Istotą dylematu jest konflikt między tezą (3) wynikającą z tez (1), (2) i
tezą (4). Jeśli bowiem odmawia się normom wartości logicznej (czyli
przyjmuje tezę (2) – nonkognitywistyczną) przy równoczesnej akceptacji tezy
(1), pojawia się problem wykazania źródła prawomocności potocznych –
„intuicyjnie ważnych” – rozumowań normatywnych”.
Powszechnie można mówić o istnieniu czterech metod, które według ich
zwolenników konkurują o prymat metody właściwej dla dziedzin normatywnych
(Stelmach, Brożek 2006). Można więc wyróżnić następujące metody: logikę,
analizę, argumentacją i hermeneutykę. Bez wątpienia nie jest to podział ani
całkowity ani rozłączny, jednak jest on przydatny dla klasyfikacji metod
normatywnych. W sposób oczywisty poczucie możliwości stosowania metod
właściwym naukom empirycznym przejawiała się w poglądach zwolenników logiki
i analizy. Zresztą już samo ich przeciwstawienie może budzić pewne
zastrzeżenia. Jednak podział ten spowodowany jest jednorodnością logiki i
relatywnie łatwym jej precyzyjnym zdefiniowanym oraz łatwością jej opisu w
perspektywie historycznej. Nie może jednak budzić żadnych wątpliwości, że
zwolennicy jednego i drugiego kierunku w sposób właściwy podkreślali
właściwość
metodologii
racjonalnej
jako
właściwej
dla
dziedzin
normatywnych.
Stosunek logiki do argumentacji jest bardziej skomplikowany, głównie ze
względu
na
dość
dużą
różnorodność
teorii
argumentacyjnych.
Teorie
argumentacyjne rekonstruują sposoby posługiwania się argumentami, przy czym
chodzi tu o to znaczenie słowa „argument”, w którzy znaczy on tyle, co
„rozumowanie” czy „wnioskowanie” (Stelmach, Brożek 2006). Jeśli nawet
niektóre koncepcje argumentacyjne wyróżniają w sposób szczególny logikę
(Alexy 1991) a niektóre niekoniecznie, to nawet w tych ostatnich metody
racjonalne (schematy logiczne) przejawiają się w istnieniu określonych
toposów (Perelmann).
3.4. Kognitywna teoria normy – podsumowanie dotychczasowych rozważań
Przedstawiwszy w sposób uproszczony ale wystarczający wizję człowieka
jako procesora poznawczego, wizję bliską współczesnej kognitywistyce,
kryteria jakie powinna spełniać dobra teoria normy oraz cechy fenomenu
normatywności mogę zaproponować kognitywną teorię normy, która przenosi
wiedzę kognitywistyki na siatkę pojęciową filozofii normatywnej.
Podsumowując wyróżnione cechy normatywności a tym samym toczące się spory o
subiektywny, emocjonalny i racjonalny charakter norm można zauważyć pewną
prawidłowość.
Wydaje
się,
że
jedni
widzieli
w
normach
równie
„prawdziwościowo weryfikowalne” twierdzenia jak w zdaniach deskryptywnych a
drudzy, głównie ze względu na dostrzeganą właśnie subiektywność norm
postulowali wyraźnie ich rozróżnienie (zdań i norm). Ten spór, jak
wspominałem
już
wcześniej
najpełniej
oddaje
spór
kognitywistów
z
nonkognitywistami.
Norma nie może istnieć bez działania człowieka, dlatego genezy normy należy
szukać w mechanizmach funkcjonowania jego umysłu. Wydaje się, że z
perspektywy
nauk
poznawczych,
w
sposób
najbardziej
wszechstronny
zajmujących się problematyką umysłu i mózgu pojęcie normy należy utożsamić
ze
schematami
normatywnym
(schematami
proceduralno
deskryptywnymi).
Schematy
normatywne
doskonale
oddają
dostrzeganą
już
wcześniej
charakterystykę norm: są subiektywne, składają się z silnego komponentu
emocjonalnego oraz mają racjonalny charakter (taki sam jak zdania
deskryptywne). W ten sposób godzą one spór pomiędzy „subiektywistami” i
„racjonalistami”. W ujęciu poznawczym norma spełnia wszystkie wyróżnione
kryteria. Zrównanie norm ze z daniami deskryptywnymi nie odbywa się jednak
poprzez przypisanie normom charakteru „prawdziwościowo weryfikowalnego”
(jak robią to kognitywiści - adwersarze nonkognitywistów), ale poprzez
zakwestionowanie
absolutnie
„prawdziwościowo
weryfikowalnego”
zdań
deskryptywnych.
Rozwój nauk poznawczych prowadzi bowiem coraz częściej na nawet gruncie
nauk
ścisłych
do
degradacji
absolutnej
„weryfikowalności”
sfery
deskryptywnej, co wyraża się np.w powstawaniu coraz to nowych logik
niemonotonicznych.
Chociaż wydaje się, że badanie neurobiologiczne niekoniecznie są
kluczowe
dla
zrozumienie
fenomenu
ludzkiej
kognicji
(Bach
2009),
potwierdzają one tylko postawią wyżej tezę o subiektywno-emocjonalnym i
racjonalny zarazem charakterze problemów moralnych (normatywnych). Wskazuje
na to zaangażowanie kory przedczołowej oraz ciała migdałowatego w trakcie
podejmowania decyzji moralnych - struktur odpowiedzialnych za racjonalizm i
emocjonalność (Casaebeer, Churchland 2003).
Zaproponowana teoria normy nie tylko najszczelniej obejmuje dotychczasowe
spostrzeżenia pewnych cech normatywności (co jest wypełnieniem formalnego
znamiona dobrej definicji normy), ale także konsekwentnie tłumaczy funkcję
motywacyjną norm (co jest wypełnieniem materialnego znamiona definicji
nomy).
Zaproponowana
teoria
normy
opiera
się
też
na
najbliższej
współczesnej kognitywistyce wizji człowieka, która jakkolwiek może dla
wielu może wydawać się wątpliwa ze względu na naturalistyczne uprzedzenia,
to jednak wizji spełniającej w największym stopniu standardy nauk
empirycznych. Z powyższych względów propozycja kognitywnej teorii normy
wydaje się być mocno uzasadniona.
Bibliografia
Alexy R., Theorie der juristichen. Argumentation. 2. Aufl. Frankfurt am
Main: Suhrkamp 1991, s. 188-198
Bach J, Principles of Synthetic Intelligence (2009, Oxford University
Press): Norbet Bischoffs argument:
“rely on neuroanatomy to know the
cognition is wrong. What would have become chemistry if it had always
waited for the more basal since of physics? The metallurgist, knowing
everything about metal molecules and their alloys, is not necessarily the
best authority with regard to the functioning of car engines, even though
they consist mainly of steel and iron.”
Bach J, The MicroPsi Agent architecture, (2003)
Casebeer W, & Churchland P, The Neural Mechanisms of Moral Cognition: A
Multiple-Aspect Approach to Moral Judgment and Decision-Making (2003,
Volume 18, Number 1 / January, 2003 , pages: 169-194)
Collins, A. M. & Quillian, M. R. (1969). Retrieval time from semantic
memory. Journal of Verbal Learning and Verbal Behavior, 8, 240-247
Collins, A. M. & Loftus, E. F. (1975). A spreading-activation theory of
semantic processing. Psychological Review, 82(6), 407-428
Damasio A, Descartes’ error: Emotion, reason, and the human brain,
Groddet?Putman., New York 1994; wyd. pol.: Błąd Kartezjusza, Rebis, Poznań
1999, Tajemnice świadomości, Rebis, Poznań 2000
Doerner D (1999) Bauplan fur eine Selle, Reinbeck:Rowohlt
Doerner D., Bartl C., Detje F., Halcour D., Schaub H., Straker U (2002) Sie
EMchanik des Sellenswagen. Eine neuronale Theorie der Handlungsregulation.
Bern, Goettingen, Toronto, Seatlle: Verlag Hans Huber.
Duch W., Czym jest Kognitywistyka, "Kognitywistyka i Media w Edukacji" 1
(1998) str. 9-50.
Gee James Paul, Grosjean Francois (1983) “Perormance structures: a
psychological and linguistic appraisal”, Cognitive psychology 15, 411-458
Hogewoning (2007), Strategies for Affect-Controlled Action-Selection in
Soar-RL, Lecture Notes In Computer Science; Vol. 4528, Proceedings of the
2nd international work-conference on Nature Inspired Problem-Solving
Methods in Knowledge Engineering: Interplay Between Natural and Artificial
Computation, Part II
Laird J, Rosenbloom P.S., Newell A, SOAR: An architecture for general
intelligence 1987, Artificial Intelligence 33, 1-64,
Lovett, M. C. (1998). Choice. In J. R. Anderson, & C. Lebiere (Eds.). The
atomic components of thought, 255-296. Mahwah, NJ: Erlbaum.
Maruszewski T. (2006), Psychlogia poznania, 19289, 83-87957-51-8, GWP
Gdańskie Wydawnictwo Psychologiczne,
Maslow A (1954) Motivation and Personality NY: Harper, 1954. Contents.
Second Ed. NY: Harper, 1970. Contents. Third Ed. NY: Addison-Wesley, 1987.
Minsky M., (1975), Frame theory, . In TINLAP '75: Proceedings of the 1975
workshop on Theoretical issues in natural language processing (1975), pp.
104-116.
Penrose R, The Emperor's New Mind: Concerning Computers, Minds, and The
Laws of Physics (1989, ISBN 0-14-014534-6), Shadows of the Mind: A Search
for the Missing Science of Consciousness (1994, ISBN 0-19-8539789)
Nęcka E., Orzechowski J., Szymra B., (2008), Psychologia poznawcza,
Wydawnictwo naukowe PWN, Warszawa
Printz J.J. (2004). Embodied appraisals. W: J.J. Printz The gut feelings. A
Perceptural Theory of Emotions. New York: Oxford University Press.
Rosch (1978), Principles of categorization, E: E.H.Rosch, B.B Lloyd,
Cognition and categorization, p. 27-48, Hillasale, NJ: Lawrence Erlbaum.
Rumelhart, D.E. (1980) Schemata: the building blocks of cognition. In: R.J.
Spiro etal. (eds) Theoretical Issues in Reading Comprehension, Hillsdale,
NJ: Lawrence Erlbaum.
Searle J., (1980) Minds, Brains and Programs, The Behavioral and Brain
Sciences.3, pp. 417-424.
Shallice T., Supervisory control of action and thoght selection, w:
Attention: selection, Awarness, and Control. A Tribute to Donald Broadbent.
A. Baddeley, L. Weiskrantz (red.).. Clarendon Press, Oxford 1993, s.171-187
Shannon, Weaver (1948) A Mathematical Theory of Communication, Bell System
Technical Journal, vol. 27, pp. 379-423, 623-656, July, October, 1948
Stelmach J., Brożek B, Metody Prawnicze, Kraków 2006
Download