• Nie Znaleziono Wyników

ASPERGER A ONTOLOGICZNE CZARNE ŁABĘDZIE

W dokumencie CZARNY ŁABĘDŹ (Stron 177-181)

Czy kujony są bardziej ślepe na łabędzie? Umiejętności społeczne w Ekstremistanie – O nieśmiertelności doktora Greenspana

Jeżeli Czarny Łabędź jest książką o ograniczeniach epistemicznych, to na podstawie tej definicji można wywnioskować, że nie chodzi o pewien obiektywnie zdefiniowany fenomen, jak deszcz lub wypadek samochodowy – Czarnym Łabędziem jest prostu coś nieoczekiwanego dla konkretnego obserwatora.

Zastanawiałem się zatem, dlaczego tylu skądinąd inteligentnych ludzi beztrosko kwestionuje fakt, że niektóre wydarzenia, takie jak I wojna światowa lub atak na World Trade Center z 11 września 2011 roku, były Czarnymi Łabędziami, ponieważ niektórzy je przewidywali. Atak z 11 września był bez wątpienia Czarnym Łabędziem dla ofiar, które w nim zginęły; w przeciwnym razie nie naraziłyby się na to ryzyko. Z pewnością nie był jednak Czarnym Łabędziem dla terrorystów, którzy zaplanowali i przeprowadzili całą akcję. Spędziłem wiele czasu poza salą do podnoszenia ciężarów na siłowni, powtarzając, że Czarny Łabędź dla indyka nie jest Czarnym Łabędziem dla rzeźnika.

To samo dotyczy kryzysu z 2008 roku, który z pewnością był Czarnym Łabędziem dla niemal wszystkich ekonomistów, dziennikarzy i finansistów na świecie (w tym, jak można było oczekiwać, dla Roberta C. Mertona i Myrona Scholesa, indyków z Rozdziału 17), lecz na pewno nie dla autora niniejszych słów. (Nawiasem mówiąc, prawie żadna z – bardzo nielicznych – osób które, jak się wydawało, „przewidziały” to wydarzenie, nie przewidziała jego głębi. Jak się przekonamy, ze względu na nietypowy charakter wydarzeń w Ekstremistanie w przypadku Czarnych Łabędzi nie chodzi tylko o wystąpienie pewnego zdarzenia, ale także o jego głębię i skutki).

PRAWDOPODOBIEŃSTWO ASPERGERYCZNE

Ludzie szukający obiektywnych Czarnych Łabędzi, które byłyby interpretowane w taki sam sposób przez wszystkich obserwatorów, wykazują całkowity brak zrozumienia tego zjawiska, ale to nie wszystko – takie podejście wydaje się niebezpiecznie powiązane z problemem niedostatecznego rozwoju kompetencji zwanej teorią umysłu lub psychologią zdroworozsądkową. Niektórzy skądinąd inteligentni ludzie nie potrafią pojąć, że inni mogą mieć inną wiedzę od nich samych.

Zdaniem badaczy ta przypadłość często dotyka inżynierów lub pracowników wydziałów fizyki. Jednemu z nich, doktorowi Johnowi, przyjrzeliśmy się w Rozdziale 9.

Chcąc sprawdzić, czy dziecko cierpi na niedostateczny rozwój teorii umysłu, można się posłużyć jednym z wariantów „testu fałszywych przekonań”. Wprowadzamy do pokoju dwoje dzieci. Jedno z nich wkłada zabawkę pod łóżko i wychodzi. Podczas jego nieobecności drugie dziecko – obiekt badania – zabiera ją i chowa do pudełka. Obiektowi zadaje się pytanie: „Gdzie po powrocie do pokoju drugie dziecko będzie szukać zabawki?”. Można założyć, że dzieci poniżej czwartego roku życia (kiedy zaczyna się rozwijać teoria umysłu) wybiorą pudełko, a starsze dzieci poprawnie stwierdzą, że drugie dziecko będzie jej szukać pod łóżkiem. Mniej więcej w tym wieku dzieci zaczynają zdawać sobie sprawę z tego, że druga osoba może być pozbawiona niektórych informacji, które one mają, oraz mieć przekonania inne od ich własnych. Ten test pomaga wykryć łagodne formy autyzmu – mimo wysokiej inteligencji wielu ludziom może być trudno postawić się w czyjejś sytuacji i wyobrazić sobie świat na podstawie informacji posiadanych przez kogoś innego. Istnieje nawet nazwa na określenie choroby osoby, która może funkcjonować w społeczeństwie, ale cierpi na łagodną postać autyzmu – to zespół Aspergera.

Psycholog Simon Baron-Cohen przeprowadził wiele badań dotyczących rozróżniania biegunów ludzkiego temperamentu w odniesieniu do dwóch umiejętności: systematyzowania oraz empatyzowania i rozumienia innych. Z jego badań wynika, że czysto systematyzujące osoby cierpią na brak teorii umysłu; pociąga je inżynieria i powiązane z nią zawody (a jeżeli poniosą w tych dziedzinach porażkę, to wybierają na przykład ekonomię matematyczną); z kolei empatyzujące umysły pociągają zawody bardziej społeczne (lub literackie). Gruby Tony należałby oczywiście do bardziej społecznej kategorii. Mężczyźni są nadreprezentowani w kategorii systematyzującej, natomiast kobiety dominują na drugim biegunie.

Zwróćcie uwagę na niezaskakujący, lecz bardzo znaczący fakt: osoby z zespołem Aspergera mają wysoką awersję do niejednoznaczności.

Badania pokazują, że naukowcy są nadreprezentowani w systematyzującej kategorii osób ślepych na Czarne Łabędzie; w Rozdziale 17 nazywam ich locke’owskimi szaleńcami. Nie widziałem żadnego oficjalnego, bezpośredniego testu na brak zrozumienia zjawiska Czarnych Łabędzi oraz skłonność do systematyzowania, z wyjątkiem obliczeń dokonanych przeze mnie i George’a Martina w 1998 roku, dzięki którym znaleźliśmy dowody na to, że wszyscy objęci analizą profesorowie finansów i ekonomii ilościowej z ważniejszych uczelni, którzy inwestowali w fundusze hedgingowe, grali przeciw Czarnym Łabędziom, narażając się na katastrofalne straty. Nie była to preferencja losowa, ponieważ taki styl inwestycyjny wykazywało wówczas od 30 do 50 proc. inwestorów spoza grona profesorów. Najbardziej znanymi z nich byli znów wyróżnieni Noblem Myron Scholes i Robert C. Merton, których Bóg stworzył po to, abym mógł zilustrować swoją tezę o ślepocie na Czarne Łabędzie17. Na skutek omówionego w Rozdziale 17 kryzysu wszyscy doświadczyli problemów, które doprowadziły do bankructwa ich firmę Long-Term Capital Management. Zwracam uwagę, że ci sami ludzie, których irytują dyskusje o zespole Aspergera jako

chorobie niepasującej do ponoszenia ryzyka oraz analiza nieoczywistych ryzyk spoza modelu i wynikających z nich zagrożeń dla społeczeństwa, byliby przeciwni zatrudnianiu osoby o bardzo słabym wzroku jako kierowcy szkolnego autobusu. Sam z przyjemnością czytam Miltona, Homera, Tahę Husajna i Borgesa (czyli niewidomych autorów), ale wolałbym, żeby nie wieźli mnie autostradą na trasie Nicea–Marsylia – i na tej samej zasadzie korzystam z narzędzi stworzonych przez inżynierów, ale wolę, aby ryzykownymi decyzjami społeczeństwa zajmował się ktoś, kto nie jest dotknięty ślepotą na ryzyko.

POWRÓT ŚLEPOTY NA PRZYSZŁOŚĆ

Przypomnijcie sobie teraz chorobę opisaną w Rozdziale 12, polegającą na nieprawidłowym przechodzeniu od przeszłości do przyszłości – dolegliwość przypominającą autyzm, w której ludzie nie dostrzegają związków drugiego rzędu – obiekt nie wykorzystuje związku pomiędzy przeszłością przeszłości i przyszłością przeszłości, żeby przewidzieć relację między przeszłością teraźniejszości a przyszłością teraźniejszości. Cóż, dżentelmen nazwiskiem Alan Greenspan, były prezes Banku Rezerw Federalnych, udał się do Kongresu, żeby wyjaśnić, że kryzysu bankowego, do którego przyczynił się wraz ze swoim poprzednikiem, Benem Bernanke, nie można było przewidzieć, ponieważ „nigdy dotąd się nie zdarzył”. Żaden z członków Kongresu nie był na tyle inteligentny, by krzyknąć: „Alanie Greenspanie, nigdy dotąd nie umarłeś, przez całe osiemdziesiąt lat, ani razu. Czy to czyni cię nieśmiertelnym?”. Tym samym argumentem zasłaniał się Robert Rubin, pożałowania godny bankowiec i były sekretarz skarbu, którego goniłem we Fragmencie II – ale ten gość napisał długą książkę o niepewności (o ironio! – u mojego wydawcy i z pomocą tego samego zespołu, który pracował przy Czarnym łabędziu18).

Odkryłem (ale wówczas nie byłem tym już nawet zdziwiony), że żaden badacz nie sprawdził, czy wielkie odchylenia w ekonomii można przewidzieć na podstawie minionych wielkich odchyleń – to znaczy czy wielkie odchylenia mają swoich poprzedników. To jeden z elementarnych testów, których brakuje w tej dziedzinie, równie podstawowy jak sprawdzenie, czy pacjent oddycha albo czy żarówka jest wkręcona – ale, co charakterystyczne, nikt nie próbował tego zrobić. Nie potrzeba wiele introspekcji, by dojść do tego, że wielkie wydarzenia nie mają wielkich rodziców – I wojna światowa nie miała poprzednika; kryzysu z 1987 roku, kiedy kursy spadły o niemal 23 proc. w ciągu jednego dnia, nie dało się przewidzieć na podstawie jego najgorszego poprzednika – dziennej straty w wysokości około 10 proc. – a dotyczy to oczywiście niemal wszystkich tego rodzaju wydarzeń. Z moich analiz wynikało, że na podstawie zwykłych wydarzeń można przewidzieć zwykłe wydarzenia, ale ekstremalnych wydarzeń prawie nigdy nie sposób przewidzieć za pomocą wąskiego odwołania do przeszłości, być może dlatego, że mają ostrzejszy przebieg, gdy ludzie nie są na nie przygotowani.

Zdumiewa mnie fakt, że ludzie sobie tego nie uświadamiają. Szczególnie szokujące jest to, że przeprowadzają tak zwane stress testy, przyjmując najgorsze minione odchylenie jako zdarzenie bazowe służące do prognozowania potencjalnie najgorszego przyszłego odchylenia i nie zdając sobie sprawy z tego, że gdyby zastosowali tę samą metodę w przeddzień owego zdarzenia bazowego, nie udałoby im się wyjaśnić tego skrajnego odchylenia19.

Ci ludzie mają doktoraty z ekonomii; niektórzy to profesorowie – jeden z nich jest prezesem Banku Rezerw Federalnych (w chwili, gdy piszę te słowa). Czy wysokie stopnie naukowe czynią ludzi ślepymi na te elementarne pojęcia?

Wszak wielki łaciński poeta Lukrecjusz, który nie ukończył uczelni ekonomicznej, pisał, że za największy istniejący obiekt dowolnego rodzaju uznajemy największy obiekt, jaki widzieliśmy w życiu: et omnia de genere omni / Maxima quae vivit quisque, haec ingentia fingit.

PRAWDOPODOBIEŃSTWO MUSI BYĆ SUBIEKTYWNE20

Rodzi to problem, który warto nieco bardziej zgłębić. Fakt, że wielu badaczy nie zdaje sobie od razu sprawy z tego, że Czarne Łabędzie wynikają przede wszystkim z luk na naszej mapie świata, i że niektórzy badacze muszą podkreślać tę subiektywną cechę owego zjawiska (na przykład Jochen Runde napisał wnikliwy esej na temat idei Czarnego Łabędzia, czuł się jednak w obowiązku podkreślić subiektywny aspekt rzadkich zdarzeń o olbrzymich skutkach), prowadzi nas do problemu historycznego z samą definicją prawdopodobieństwa. W dziejach ludzkości istniało wiele podejść do zagadnienia filozofii prawdopodobieństwa. Pogląd, że dwóch ludzi może mieć dwa różne obrazy świata, a następnie wyrażać je jako różne prawdopodobieństwa, pozostawał jednak obcy badaczom. W związku z tym musiało minąć trochę czasu, zanim naukowcy zaakceptowali tę nieaspergeryczną tezę, że różni ludzie, pozostając racjonalnymi, mogą przypisywać różne prawdopodobieństwo różnym przyszłym stanom świata. Zjawisko to nazywane jest prawdopodobieństwem subiektywnym.

Pojęcie prawdopodobieństwa subiektywnego sformułowali Frank Plumpton Ramsey w 1925 roku i Bruno de Finetti dwanaście lat później. Pogląd na temat prawdopodobieństwa wyrażony przez tych dwóch intelektualnych gigantów można przedstawić jako kwantyfikację stopnia przekonania (obiekt podaje liczbę z przedziału od 0 do 1 odpowiadającą sile przekonania, że dane zdarzenie będzie miało miejsce), subiektywnego dla obserwatora, który wyraża je z wybraną przez siebie racjonalnością, przy zachowaniu pewnych ograniczeń. Ograniczenia spójności w procesie podejmowania decyzji są oczywiste: nie można obstawiać, że istnieje 60 proc. szans na opady śniegu i 50 proc. szans, że śnieg nie spadnie. Podmiot działania nie powinien naruszyć zasady Dutch book, która głosi, że nie można wyrażać prawdopodobieństwa w sposób niespójny poprzez serię zakładów prowadzących do pewnej straty, na przykład zachowując się tak, jak gdyby prawdopodobieństwa odrębnych wariantów zdarzenia mogły się sumować do ponad 100 procent.

Występuje tu również inna różnica pomiędzy „prawdziwą” przypadkowością (którą można porównać do sytuacji, w której Bóg rzuca kostką) a przypadkowością wynikającą z czegoś, co nazywam ograniczeniami epistemicznymi, czyli z braku wiedzy.

To, co określamy jako niepewność ontologiczną (lub ontyczną), w odróżnieniu od niepewności epistemicznej, to taki rodzaj przypadkowości, w której przyszłość nie wynika z przeszłości (ani z czegokolwiek innego). Tworzy ją w każdej chwili złożoność naszych działań, która sprawia, że ten rodzaj niepewności jest o wiele bardziej fundamentalny niż niepewność epistemiczna wynikająca z niedoskonałości naszej wiedzy.

Oznacza to, że w przypadku takich systemów, zwanych nieergodycznymi, w odróżnieniu od systemów ergodycznych, nie istnieje coś takiego jak perspektywa długoterminowa. W systemie ergodycznym na prawdopodobieństwo tego, co może się zdarzyć w perspektywie długoterminowej, nie wpływają zdarzenia, które mogą wystąpić, powiedzmy, w przyszłym roku.

Osoba grająca w ruletkę w kasynie może wygrać fortunę, jeżeli jednak będzie grać dalej, to, zważywszy na przewagę kasyna, w końcu wszystko straci. Ktoś, kto nie ma większych umiejętności, ostatecznie poniesie porażkę. Oznacza to, że systemy ergodyczne są zwykle niezależne od strategii obieranych w perspektywie średnioterminowej – badacze nazywają to brakiem zależności od historii. System nieergodyczny nie ma realnych cech długoterminowych – jest podatny na zależność od ścieżki.

Uważam, że rozróżnienie niepewności epistemicznej i ontologicznej jest ważne z filozoficznego punktu widzenia, ale zupełnie nieistotne w świecie rzeczywistym. Niepewność epistemiczną trudno jest odseparować od bardziej fundamentalnej niepewności. Jest to przypadek „rozróżnienia bez różnicy”, które (w odróżnieniu od wcześniej wymienionych rozróżnień) może wprowadzać w błąd, ponieważ odciąga uwagę od rzeczywistych problemów: praktycy przywiązują do niego dużą wagę, zamiast skupić się na ograniczeniach epistemicznych. Przypomnijmy, że sceptycyzm jest kosztowny, więc powinien być dostępny w razie potrzeby.

W praktyce coś takiego jak „perspektywa długoterminowa” nie istnieje; znaczenie ma to, co następuje wcześniej. Problem ze stosowaniem pojęcia perspektywy długoterminowej, czyli tego, co matematycy nazywają cechą asymptotyczną (tym, co się dzieje, gdy dana wartość dąży do nieskończoności), polega na tym, że przestajemy zwracać uwagę na to, co następuje przedtem, a co będę omawiać dalej jako preasymptotykę. Różne funkcje mają różne preasymptotyki, zgodnie z ich tempem dążenia do danej asymptoty. Niestety jednak, jak wciąż powtarzam studentom, życie odbywa się w preasymptocie, a nie w jakiejś platońskiej perspektywie długoterminowej, a niektóre cechy występujące w preasymptocie (czyli w perspektywie krótkoterminowej) mogą się wyraźnie różnić od tych, które występują w perspektywie długoterminowej. Oznacza to, że nawet skuteczna teoria napotyka rzeczywistość krótkoterminową o bogatszej fakturze. Niewielu rozumie, że coś takiego jak osiągalna perspektywa długoterminowa zasadniczo nie istnieje, to jedynie konstrukt matematyczny służący rozwiązywaniu równań; aby założyć perspektywę długoterminową w złożonym systemie, trzeba również założyć, że nie pojawi się w nim nic nowego.

Ponadto możecie opracować doskonały model świata, odarty z wszelkiej niepewności dotyczącej analityki przedstawienia, a mimo to paść ofiarą drobnego braku dokładności w przypadku jednego z wprowadzanych parametrów. Przypomnijcie sobie efekt motyla z Rozdziału 11. Nawet najdrobniejsza niepewność na poziomie najmniejszego parametru mogłaby, z uwagi na nieliniowości, urosnąć do ogromnej niepewności na poziomie wyników wygenerowanych przez dany model. Tego rodzaju nieliniowości dotykają na przykład modeli klimatu – nawet gdybyśmy dysponowali precyzyjnym modelem zjawisk pogodowych (którym, rzecz jasna, nie dysponujemy), drobna zmiana w jednym z parametrów, zwana kalibracją, mogłaby całkowicie zmienić uzyskane wnioski.

Preasymptotykę będziemy omawiać w dalszej części książki w kontekście rozróżnień między różnymi klasami rozkładów prawdopodobieństwa. Na razie chciałbym stwierdzić tylko, że wiele z tych rozróżnień matematycznych i filozoficznych jest całkowicie przejaskrawionych – funkcjonują na zasadach radziecko-harwardzkich, wychodząc od ogółu do szczegółu. Ludzie przyjmują model za punkt wyjścia, narzucają go rzeczywistości i zaczynają kategoryzować, zamiast zacząć od rzeczywistości i sprawdzić, co pasuje do modelu, przechodząc od szczegółu do ogółu.

Prawdopodobieństwo na termometrze

Owo błędnie stosowane w praktyce rozróżnienie przypomina inny, omawiany wcześniej, podział na to, co ekonomiści nazywają knightowskim ryzykiem (możliwym do wyliczenia) i knightowską niepewnością (niemożliwą do wyliczenia). Takie podejście zakłada, że wszystko w dziedzinie prawdopodobieństwa można skalkulować, podczas gdy w rzeczywistości wszystko jest w zasadzie niepoliczalne (a szczególnie zdarzenia rzadkie). Trzeba upaść na głowę, żeby sądzić, że prawdopodobieństwo przyszłych zdarzeń można zmierzyć w analogiczny sposób, w jaki można zmierzyć temperaturę termometrem. W kolejnej części zobaczymy, że niskie prawdopodobieństwo najtrudniej obliczyć, oraz że ma to znaczenie, jeśli związane są z tym istotne korzyści.

Inne niedociągnięcie, na które muszę zwrócić uwagę, dotyczy dziwnie nierealistycznej i nieścisłej tradycji badawczej w naukach społecznych – teorii „racjonalnych oczekiwań”, która zakłada, że racjonalnie wnioskujący obserwatorzy dojdą do tego samego wniosku, gdy dostarczy im się te same dane, nawet jeżeli ich początkowe hipotezy wyraźnie się od siebie różniły (to wynik działania mechanizmu aktualizacji zwanego wnioskowaniem bayesowskim). Dlaczego uważam tę tradycję za nieścisłą? Ponieważ wystarczy prosty test, żeby zauważyć, że w rzeczywistości ludzie nie dochodzą do takich samych wniosków. Jak zobaczyliśmy w Rozdziale 6, wynika to częściowo z psychologicznych zniekształceń – takich jak efekt potwierdzenia – które prowadzą do różnych interpretacji danych. Jest jednak matematyczny powód, dla którego ludzie nie dochodzą do takich samych wniosków – jeżeli używacie rozkładu prawdopodobieństwa z domeny Ekstremistanu, a ja używam rozkładu z domeny Przeciętnostanu (lub innego rozkładu z domeny Ekstremistanu), to nigdy nie dojdziemy do jednakowych

konkluzji z tej prostej przyczyny, że jeśli zakładacie, że dane zjawisko należy do Ekstremistanu, to nie aktualizujecie rozkładu (ani nie zmieniacie zdania) tak szybko. Przykładowo, jeżeli zakładacie, że działacie w domenie Przeciętnostanu, i nie zaobserwujecie żadnych Czarnych Łabędzi, to możecie wykluczyć ich istnienie. Inaczej jest wtedy, gdy założycie, że jesteśmy w Ekstremistanie.

Podsumowując, założenie, że „przypadkowość” nie jest epistemiczna i subiektywna, albo przywiązywanie dużej wagi do rozróżnienia „przypadkowości ontologicznej” i „przypadkowości epistemicznej” wskazuje na pewien naukowy autyzm, pragnienie usystematyzowania rzeczywistości oraz zasadnicze niezrozumienie samej idei przypadkowości. W takim ujęciu zakłada się, że obserwator może osiągnąć wszechwiedzę oraz obliczyć prawdopodobieństwo z doskonałą precyzją i bez naruszenia zasad spójności. To, co zostaje, staje się „przypadkowością” lub zjawiskiem o innej nazwie, powstającymi z sił przypadku, których nie można zredukować za pomocą wiedzy i analizy.

Warto się jeszcze zastanowić nad jedną kwestią: dlaczego do diabła dorośli ludzie godzą się na te radziecko-harwardzkie metody „od ogółu do szczegółu”, zamiast je wyśmiać? I dlaczego wbrew danym empirycznym tworzą w oparciu o nie politykę w Waszyngtonie? Chyba tylko po to, żeby dostarczyć rozrywki badaczom historii, którzy zdiagnozują u nich nowe zaburzenia psychiczne. I dlaczego domyślnie zakładamy, że ludzie doświadczają wydarzeń w identyczny sposób? Dlaczego kiedykolwiek traktowaliśmy poważnie ideę „obiektywnego” prawdopodobieństwa?

Po tym wypadzie na teren psychologii percepcji dynamiki czasu i zdarzeń przejdźmy do naszej kwestii zasadniczej, prawdziwego sedna naszego programu, do tego, co agresywnie nazwałem najbardziej użytecznym problemem filozofii.

Niestety, najbardziej użytecznym.

Fragment V

(BYĆ MOŻE) NAJUŻYTECZNIEJSZY PROBLEM W

W dokumencie CZARNY ŁABĘDŹ (Stron 177-181)