Wyjaśnić wyjaśnianie
Co to znaczy „wyjaśniać”? Co mamy na myśli, gdy mówimy, że teoria ewolucji „wyjaśnia” powstawanie gatunków, a Ogólna Teoria Względności „wyjaśnia” grawitację? Czy nauka wyjaśnia obserwacje przyrody w takim samym sensie, co pracownik sklepu wyjaśniający klientowi umiejscowienie stoiska z pastami do zębów? Czy czasownik „wyjaśniać” ma to samo (lub przynajmniej bardzo podobne) znaczenie w naukach, filozofii i życiu codziennym, czy też sposób jego użycia różni się w zależności od kontekstu? Czy możemy „wyjaśnić wyjaśnianie”?
Poleganie na etymologii słów w poszukiwaniu dogłębnego zrozumienia znaczonych przez nie pojęć zwodzi niekiedy na manowce. Wszak wieloryb nie jest wcale rybą, a gwiazda poranna nie jest gwiazdą. Etymologia może być jednak użyteczną wskazówką, gdy naszym celem jest uchwycenie jego powszechnego rozumienia, zwłaszcza w historycznym kontekście jego pojawienia się w języku. Możemy posilić się informacją z kilku języków, w których słowa o tym samym lub bardzo podobnym znaczeniu zostały niezależnie ukute z bardzo odmiennych morfemów (najmniejszych językowych jednostek lub „pod-słów” posiadających konkretne znaczenie). I tak, polskie „wyjaśniać” sugeruje czynienie czegoś „jaśniejszym”, metaforycznie bardziej oczywistym i lepiej widocznym. Analogicznie jest z niemieckim „erklären”, od przymiotnika „klar” znaczącego „jasny”. Z kolei angielskie „explain” (i jego odpowiedniki w większości języków romańskich) wywodzi się od łacińskiego „explanare”, czyli „rozpłaszczać” (to, co było zbite) lub „rozwijać” (to, co było zwinięte). Wspólnym mianownikiem obu etymologii jest metafora czynienia czegoś lepiej widocznym, bardziej dostępnym naszemu poznaniu.
Uchwycenie tego elementu wspólnego wszystkim dobrym wyjaśnieniom i wyrażenie go w ścisłym, formalnym języku, nie jest jednak łatwym zadaniem. Naukowcy i filozofowie nauki na różne sposoby próbowali mierzyć się z tym zadaniem. Według modelu nomologiczno-dedukcyjnego (ND), popularnego w połowie ubiegłego wieku, wyjaśnienie miało być równoznaczne z relacją wynikania pomiędzy zbiorem przesłanek, z których co najmniej jedną stanowi jakieś prawo natury, a zaobserwowanym zjawiskiem, które staramy się wyjaśnić. Z kolei unifikacjonistyczne koncepcje wyjaśniania podkreślają możliwość maksymalnie zwięzłego, a zarazem wyczerpującego opisania jak najszerszej klasy zjawisk. Okazuje się jednak, że te (i inne) teorie nie uchwytują w pełni znaczenia czasownika „wyjaśniać” lub obejmują przypadki, których nikt z nas nie uznałby za przykłady „wyjaśniania”[1].
Trudność w satysfakcjonującym zdefiniowaniu „wyjaśniania” skłania niektórych do przyjęcia podejścia pluralistycznego. Być może w różnych dziedzinach mamy zupełnie co innego mówiąc o „wyjaśnianiu”, tak jak słowo „tutaj” wskazuje na inne miejsce, zależnie od tego, gdzie znajduje się osoba mówiąca (w tym przypadku jest to tzw. deixis). Być może „wyjaśnianie” w wykonaniu filozofa jest czymś innym, niż „wyjaśnianie” fizyka lub biologa, a każdy z nich posługuje się jeszcze innym „wyjaśnianiem”, kiedy tłumaczy dziecku obsługę pilota do telewizora. Można nawet pokusić się o generalizację, że wiele nauk szczegółowych próbowało znaleźć esencję swojego przedmiotu badań w jednej, naczelnej zasadzie lub definiującym je zjawisku. Biolodzy wiedzą dziś jednak, że życie nie jest zasilane przez mistyczną elan vital, zaś badania Jonathana Haidta i jego współpracowników pokazują, że w rozumowaniu moralnym kierujemy się czymś więcej, niż minimalizacją cierpienia i maksymalizacją szczęścia lub przyjemności (czytelnikom zainteresowanym tym tematem polecam książkę Prawy Umysł (oryg. The Righteous Mind [3]). Tam, gdzie szukano jednej napędowej siły, znajdujemy skomplikowany mechanizm lub zbiór wpływających na siebie nawzajem zasad. Być może podobną, pluralistyczną koncepcję, należy zastosować poszukując teorii wyjaśniania?
Takie podejście przyjmują Zachary Wojtowicz i Simon DeDeo w artykule From Probability to Consilience [4]. Jedną z interesujących cech ich modelu jest wyrażenie wartości wyjaśnienia jako równania matematycznego (opartego głównie na prawdopodobieństwie i teorii informacji) obejmującego kilka formuł, gdzie każda odpowiada innej „wartości eksplanacyjnej”. Wartości eksplanacyjne są, w koncepcji Wojtowicza i DeDeo, funkcjami zaobserwowanych danych i proponowanego wyjaśnienia (mającego te obserwacje wyjaśniać) nadającymi temu drugiemu jego wartość. Pozwalają nam ocenić siłę hipotezy wyjaśniającej i porównać ją z alternatywnymi wyjaśnieniami.
DeDeo i Wojtowicz identyfikują trzy „klasy” wartości eksplanacyjnych. Przyjrzyjmy się im po kolei.
Pierwszą klasę stanowią wartości empiryczne: opisowość i ko-eksplanacja. „Mierzą” one wartość wyjaśnienia w oparciu o istotne obserwacje, które dane wyjaśnienie ma tłumaczyć.
➔ Opisowość (Descriptiveness) – Jak dobrze wyjaśnienie przewiduje każdy z wyjaśnianych faktów z osobna. Formalnie jest to suma (ściślej rzecz biorąc, logarytm sumy) prawdopodobieństw warunkowych każdej osobnej obserwacji pod warunkiem, że wyjaśnienie jest prawdziwe.
➔ Ko-eksplanacja (Co-explanation) – Jak dobrze wyjaśnienie łączy ze sobą wyjaśniane fakty. Innymi słowy, jak wiele danych jesteśmy wyjaśnić rozpatrując je wszystkie razem zamiast jako tylko osobne, niezależne obserwacje (co jest mierzone przez opisowość).
Druga klasa to wartości teoretyczne będące niezależnymi od danych odpowiednikami wartości empirycznych. Możemy je obliczyć zanim jeszcze zaczniemy analizować dane, które staramy się wyjaśnić.
➔ Moc (Power) – Oczekiwana opisowość wyjaśnienia, jeśli okaże się ono prawdziwe. Zakładając, że dane wyjaśnienie okaże się poprawne, jak bliskie jego przewidywania powinny być zaobserwowanym faktom empirycznym?
➔ Unifikacja (Unification) – Oczekiwana ko-eksplanacja. Analogicznie do mocy, lecz tym razem szacujemy, jak dobrze dane wyjaśnienie będzie łączyć ze sobą wyjaśniane fakty, jeżeli okaże się być poprawne.
Do trzeciej klasy należą różne wartości zależne od kontekstu. Jednym z nich jest prostota wyjaśnienia, którą jednak można interpretować (i mierzyć) wielorako (zależnie od… kontekstu). Jednym ze sposobów, na jakie wyjaśnienie może być „proste” byłaby niewielka liczba postulowanych przez nie (nie zaobserwowanych bezpośrednio) zjawisk i mechanizmów. Inną możliwością jest łatwość zrozumienia i zgodność ze zdrowym rozsądkiem (co ma zastosowanie w „codziennych” formach wyjaśnienia, lecz niekoniecznie z tymi, które stosuje się w fizyce kwantowej i Ogólnej Teorii Względności). Ważna (choć oczywiście nie przesądzająca) jest też zgodność proponowanego wyjaśnienia z resztą wiedzy zgromadzonej przez daną dziedzinę. Rozważmy wyjaśnienie odporności niesporczaków na próżnię i promieniowanie kosmiczne poprzez hipotezę o ich pozaziemskim pochodzeniu [5]. Hipoteza ta byłaby nader trudna do pogodzenia z nadzwyczajnym podobieństwem biologii niesporczaków (ich struktury chemicznej, organizacji kodu genetycznego) do reszty ziemskiego życia. Pozaziemskie pochodzenie niesporczaków nie jest też szczególnie „proste” (przynajmniej według niektórych definicji “prostoty”), ponieważ postuluje istnienie dodatkowej drogi, którą życie pojawiło się na naszej planecie.
W modelu Wojtowicza i DeDeo wartość poszczególnych wyjaśnień może w różnym stopniu czerpać z poszczególnych wartości eksplanacyjnych (dotyczy to również „konkurencyjnych” wyjaśnień tych samych obserwacji, np. alternatywnych interpretacji fizyki kwantowej). Jedne cenimy bardziej za efektywne tłumaczenie wielu niepowiązanych ze sobą faktów. Siła innych leży w łączeniu ze sobą zjawisk, które do tej pory wydawały nam się kompletnie niepowiązane. Pewną rolę w wybieraniu “najepszego” wyjaśnienia odgrywa też ludzka psychologia i różnice indywidualne. Pewne osoby mogą “z natury” bardziej cenić opisowość lub ko-eksplanację, co wpływa na ich “podatność” na poszczególne hipotezy wyjaśniające. Czasami takie „preferencje” posuwają się do ekstremum, czego przykładem mogą być pewne przesądy i teorie spiskowe. Wiele z nich cechuje bardzo wysoka opisowość (tłumaczą nieprawdopodobne/niemożliwe zjawiska) lub ko-eksplanacja (doszukują się iluzorycznych powiązań), a często również lekceważenie wartości prostoty (mnóstwo nieuzasadnionych założeń), czy zgodności z uprzednią wiedzą (kompletna sprzeczność z nauką).
Nasuwać się może pytanie: jeśli „wyjaśniania” nie definiuje jedna konkretna właściwość, lecz raczej jest ono „agregatem” lub „sumą” kilku różnych wartości eksplanacyjnych… jaka korzyść płynie z ujmowania ich wszystkich w obrębie jednej kategorii? Dlaczego „łączna suma empirycznych, teoretycznych i zależnych od kontekstu wartości eksplanacyjnych” jest wystarczająco użytecznym pojęciem, by przypisać mu jedno słowo, ale „zbiór wszystkich psów w Polsce i ptaków na Madagaskarze” już nie spełnia tego wymogu?
Być może wskazówka leży w temacie drugiego akapitu tego posta: ostatecznej funkcji wyjaśniania, którą sugeruje etymologia słowa. Różne wyjaśnienia mogą na różne sposoby osiągać ten sam skutek: czynić jakiś aspekt rzeczywistości lepiej dostępnym naszym umysłom. Pozwalają go widzieć lepiej („jaśniej”, skąd „wyjaśnianie”) lub więcej i w połączeniu z większą ilością faktów (angielskie „explain” i łacińskie „explanare” - “rozpłaszczać”). Wspólnym elementem wyjaśnień może być przedstawienie faktów w sposób, który pozwoli nam wykorzystać informację w sposób ułatwiający osiąganie konkretnych celów. Oczywiście, nie każde wyjaśnienie będzie użyteczne dla każdej osoby. Więcej, pewne wyjaśnienia mogą być kompletnie „bezwartościowe” z pragmatycznej perspektywy, nawet jeśli osiągają nadzwyczajnie wysokie wyniki na wszystkich możliwych wartościach eksplanacyjnych. Mechanizm szacowania wartości nowej wiedzy wykorzystywany przez nasze mózgi wyewoluował jednak w celu wspomagania przetrwania naszych przodków w ich naturalnym środowisku. Nie powinniśmy zatem spodziewać się, że będzie adekwatnie oceniał „pragmatyczną użyteczność” matematycznych i filozoficznych abstrakcji, kompletnie oderwanych od naszego codziennego doświadczenia. Analogicznie, nasi przodkowie nie mieli kontaktu z aspartamem. „Oryginalną” funkcją naszych receptorów smaku słodkiego jest wykrywanie cukrów stanowiących cenne źródło energii, nie “bezwartościowych” sztucznych słodzików „oszukujących” naszą biologię. Nie zmienia to faktu, że aspartam jest słodki i byłby słodki również dla naszego praprzodka łowcy-zbieracza poszukującego rzadkich owoców zawierających śladowe (według dzisiejszych standardów) ilości cukru. Podobnie wyjaśnienie nie przestaje być wyjaśnieniem tylko dlatego, że „oszukuje” pewien system w naszych mózgach, którego „zamierzoną” przez ewolucję funkcją jest przetwarzanie informacji tak, by uczynić ją bardziej użyteczną (o ile tym właśnie jest, przynajmniej w pewnym przybliżeniu, wyjaśnianie).
Można też pytać „dlaczego?”. Czy jest jakiś powód poszukiwania „wyjaśniania wyjaśniania”? Co oferuje nam taka teoria? Praktyczna wartość nowej teorii naukowej często przychodzi dopiero lata po jej sformułowaniu i (ewentualnym) udowodnieniu. Badacz często nawet nie zastanawia się nad nią podczas łamania sobie głowy nad zagadką.
Liczby urojone (i wiele bardziej dziwacznych i nieintuicyjnych konceptów matematycznych) ujawniły swoje zastosowanie w fizyce i inżynierii wiele dekad po tym, jak po raz pierwszy pojawiły się w umysłach matematyków. Również Albert Einstein nie zaczynał prac nad Teorią Względności z myślą o jej zastosowaniu w astronautyce, czy systemach GPS.
Już teraz możemy jednak dostrzec pewne potencjalne zastosowania formalizacji wyjaśniania. Różne formy (szeroko rozumianej) sztucznej inteligencji są używane w coraz większej liczbie dziedzin, od automatycznego tłumaczenia języków, przez medycynę, po autonomiczne samochody. Procesy „rozumowania” prowadzące AI do poszczególnych wniosków i decyzji często są bardzo trudne do interpretacji lub kompletnie niezrozumiałe, nawet dla ich twórców. Zoperacjonalizowanie, sformalizowanie i ścisłe zdefiniowanie wyjaśniania mogłoby pomóc w lepszym zrozumieniu działania systemów sztucznej inteligencji. Zwłaszcza jeśli zechcemy nauczyć systemy AI, by wyjaśniały nam działania innych systemów, przydatne (a może nawet konieczne) będzie zapewnienie im jakiegoś mechanizmu oceniającego wartość poszczególnych wyjaśnień.
Wyjaśnienie wyjaśnienia i podobnych aspektów funkcjonowania umysłu jest jednak istotne dla badań nie tylko „sztucznej”, ale również „naturalnej” inteligencji. Wraz ze zrozumieniem działania narzędzia dostarczającego nam wiedzy o świecie, rośnie nasza zdolność do używania go w sposób zgodny z naszymi celami, jak również korygowania jego działania w sytuacjach, w których ma tendencje do zawodzenia, takich jak dysracjonalia (niezdolność do racjonalnego działania i rozumowania pomimo wystarczającej inteligencji [6]), czy zaburzenia umysłowe związane z zaburzeniami prawidłowego rozumowania (np. schizofrenia).
Jakkolwiek, model Wojtowicza i DeDeo wydaje się interesujący i obiecujący, miejmy na uwadze, że na tę chwilę jest tylko teoretycznym szkieletem wyrażonym w języku matematyki. Podaje on ogólny “przepis” na temat tego, jak całkowita wartość wyjaśnienia (wyrażona jako warunkowe prawdopodobieństwo wyjaśnienia w świetle obserwacji) może zostać obliczona na podstawie bardziej “pierwotnych” właściwości. O jego użyteczności przekonamy się, gdy zademonstrowane zostanie jego wykorzystanie w praktyce, chociażby w symulacji wykorzystującej sztucznie wygenerowany zestaw danych i kilka alternatywnych wyjaśnień tych danych. Jeśli okaże się, że bardziej szczegółowa wersja modelu (zawierająca m.in. konkretne metody obliczania poszczególnych wartości eksplanacyjnych, które można stosować w różnorodnych kontekstach do bardzo różnego rodzaju danych) adekwatnie ocenia prawdopodobieństwo alternatywnych wyjaśnień i oblicza ich wyniki dla poszczególnych wartości eksplanacyjnych, niewykluczone że From Probability to Consilience będzie w przyszłości postrzegane jako przełom zarówno w naukach formalnych, jak i naukach o umyśle.
Źródła
[1] https://plato.stanford.edu/entries/scientific-explanation/
[2] Godfrey-Smith, P. (2003). Theory and reality: An introduction to the philosophy of science. University of Chicago Press. Rozdział 13.3
[3] Haidt, J. (2012). The righteous mind: Why good people are divided by politics and religion. Penguin UK.
[4] Wojtowicz, Z., & DeDeo, S. (2020). From probability to consilience: How explanatory values implement Bayesian reasoning. Trends in Cognitive Sciences, 24(12), 981-993. doi:10.1016/j.tics.2020.09.013
[5] https://www.sciencedaily.com/releases/2008/09/080908135906.htm
[6] Stanovich, K. E. (1993). Dysrationalia. Journal of Learning Disabilities, 26(8), 501-515. doi:10.1177/002221949302600803
Mateusz Bagiński – programista i data scientist w zespole SwarmCheck. Studiuje kognitywistykę. Fascynują go mózgi (białkowe i krzemowe), języki (ludzkie i nie-ludzkie) i pochodzenie życia.