• Nie Znaleziono Wyników

(BYĆ MOŻE) NAJUŻYTECZNIEJSZY PROBLEM W HISTORII WSPÓŁCZESNEJ FILOZOFII

W dokumencie CZARNY ŁABĘDŹ (Stron 181-187)

Mały rozmiar może jednak nie być najlepszym pomysłem – Gdzie znaleźć łazienkę – Przewiduj i giń – O szkolnych autobusach i inteligentnych podręcznikach

Będę szczery. Przed Czarnym łabędziem (i powiązanymi z nim tekstami) większość epistemologii i teorii decyzji stanowiła dla ludzi żyjących w świecie rzeczywistym wyłącznie jałowe sztuczki i grę wstępną. W niemal całej historii myśli chodzi o to, co wiemy lub co myślimy, że wiemy. Czarny łabędź to pierwsza w historii myśli próba (o której mi wiadomo) sporządzenia mapy tego, gdzie szkodzi nam to, czego nie wiemy, ustalenia systemowych granic kruchości wiedzy – oraz wskazania dokładnych miejsc, w których mapy tego rodzaju przestają działać.

Odpowiadając na najczęstszą „krytykę” ze strony ekonomistów oraz (obecnie zbankrutowanych) bankowców, o których wspominałem w Części III, nie mówię „Mamy prze**ane”, mówię „Mamy prze**ane w Czwartej Ćwiartce”; różnica między tymi stwierdzeniami jest taka sama, jak między rozwagą i ostrożnością a paranoją.

Pozwólcie, że ujmę to bardziej agresywnie – wprawdzie ograniczenia w rodzaju przypisywanych Gödlowi mają ogromne konsekwencje filozoficzne, ale niewiele możemy na nie poradzić; uważam natomiast, że ujawnione przez mnie granice wiedzy empirycznej i statystycznej mają odczuwalne (jeżeli nie zasadnicze) znaczenie, a przy tym pozostawiają nam duże pole manerwu, jeżeli chodzi o rozwiązania – decyzje można kategoryzować na podstawie wagi potencjalnego błędu oszacowania pary prawdopodobieństwo razy skutek. Możemy to wykorzystać na przykład do stworzenia bezpieczniejszego społeczeństwa – uodpornienia go na to, co się znajduje w Czwartej Ćwiartce.

ŻYCIE W DWÓCH WYMIARACH

Historia ludzkiej myśli pełna jest prób odnalezienia właściwego miejsca na granicy sceptycyzmu i łatwowierności; między tym, jak wierzyć, a tym, jak nie wierzyć. A także prób odpowiedzi na pytanie: jak podejmować decyzje na podstawie tych przekonań. Ponieważ przekonania, którym nie towarzyszą decyzje, są po prostu jałowe. Nie jest to więc problem epistemologiczny (tzn. skupiający się na tym, co jest prawdziwe lub fałszywe), a problem dotyczący decyzji, działania i zaangażowania.

Oczywiście nie można wątpić we wszystko i funkcjonować w świecie; nie da się też wierzyć we wszystko i przeżyć.

Filozoficzne podejście do problemu było jednak wysoce niekompletne, a co gorsza, nie poprawiło się szczególnie przez setki lat – o ile w ogóle się poprawiło. Jedna grupa myślicieli, powiedzmy szkoła kartezjan albo sceptyków akademickich jakieś osiemnaście wieków przed nimi, na swój własny sposób zaczęła od odrzucenia wszystkiego z góry, przy czym niektórzy poszli jeszcze dalej, jak pyrronianie, którzy odrzucili tak wiele, że nawet sceptycyzm wydał im się zbyt dogmatyczny. Druga grupa, powiedzmy średniowieczni scholastycy albo współcześni pragmatycy, zaczyna od utrwalenia niektórych lub wszystkich przekonań. Podczas gdy średniowieczni myśliciele w tym punkcie się na arystotelesowski sposób zatrzymują, wcześni pragmatycy, z wielkim myślicielem Charlesem Sandersem Peirce’em na czele, przynieśli nam promyk nadziei. Ich ideą było nieustanne aktualizowanie i korygowanie przekonań (chociaż w ramach znanej struktury prawdopodobieństwa, ponieważ Peirce wierzył w istnienie i osiągalność ergodycznego, długoterminowego, dostępnego nam stanu zbieżności z prawdą). Ta odmiana pragmatyzmu (zwanego początkowo „pragmatycyzmem”) postrzegała wiedzę jako ścisłą wzajemną zależność między antysceptycyzmem a fallibilizmem, tzn. między kategoriami tego, w co należy wątpić i tego, co należy akceptować. Program ten zyskuje najbardziej zaawansowaną postać oraz zastosowanie w mojej dziedzinie, czyli dziedzinie prawdopodobieństwa, w treściwych, trudnych, głębokich i błyskotliwych wypadach Isaaca Leviego na teren teorii decyzji, z pojęciem korpusu przekonań, zaangażowania doksastycznego, oddalenia od oczekiwań oraz prawdopodobieństwa kredalnego.

Można to uznać za promyk nadziei, ale wciąż jesteśmy daleko, bardzo daleko jakichkolwiek użytecznych rozwiązań.

Wyobraźcie sobie życie w przestrzeni trójwymiarowej w złudzeniu, że istnieją tylko dwa wymiary. Mogłoby się to sprawdzić w przypadku robaka, ale w przypadku ptaka już nie. Oczywiście nie bylibyście świadomi tego braku – i otaczałoby was wiele tajemnic, których nie moglibyście wyjaśnić, nie dodając do rzeczywistości jeszcze jednego wymiaru, niezależnie od poziomu waszej wiedzy. I oczywiście czasami ogarniałoby was poczucie bezsilności. Taki był los wiedzy przez wszystkie te setki lat, gdy tkwiła zamknięta w dwóch wymiarach, zbyt uproszczona, aby przydać się do czegokolwiek poza salą lekcyjną.

Od czasów Platona tylko filozofowie zastanawiali się nad tym, czym jest Prawda – nie bez powodu. Takie dyskusje nie mają żadnego zastosowania w praktyce. Skupiając się na rozróżnieniu Prawdziwe/Fałszywe, epistemologia pozostała, z bardzo nielicznymi wyjątkami, więźniem nieistotnej i wysoce niepełnej perspektywy dwuwymiarowej. Trzeci, brakujący wymiar to oczywiście – skutki Prawdy i waga Fałszu, przewidywanie. Innymi słowy, wynik decyzji, wpływ i skala rezultatu danego wyboru. Niekiedy można być w błędzie, a błąd okazuje się nieistotny. Albo można mieć rację w takiej sprawie jak płeć aniołów, co jest bezużyteczne poza sferą rozważań intelektualnych.

Uproszczone, sfilistrowane, zakademizowane i zgloryfikowane pojęcie „dowodów” staje się bezużyteczne. Jeżeli chodzi o

Czarne Łabędzie, działacie w taki sposób, żeby chronić się przed negatywnymi Czarnymi Łabędziami (lub wystawiać się na pozytywne Czarne Łabędzie), nawet jeśli nie macie żadnych dowodów na to, że mogą się pojawić. Na tej samej zasadzie sprawdzamy, czy ludzie nie mają broni przed wpuszczeniem ich na pokład samolotu, mimo że nie mamy żadnych dowodów na to, że są terrorystami. Koncentracja na gotowych, skomodyfikowanych pojęciach typu „dowody” to problem ludzi, którzy twierdzą, że postępują według „ścisłych” zasad, a potem bankrutują.

Probabilistyczny świat i bez tego ma kłopot z pojęciem „dowodów”, ale w świecie z Czarnymi Łabędziami sprawy mają się o wiele gorzej.

W zasadzie niemal żadna decyzja, o jakiej słyszałem, nie bazuje na rozróżnieniu Prawda/Fałsz.

Gdy zaczyna się badać wynik, rezultat decyzji, wyraźnie widać, że konsekwencje niektórych błędów mogą być łagodne, a innych poważne. I w zasadzie wiemy z góry, które są które. Wiemy, które błędy są istotne, a które – nieszczególnie.

Najpierw przyjrzyjmy się jednak poważnemu problemowi dotyczącemu pochodzenia wiedzy o prawdopodobieństwie.

ZALEŻNOŚĆ OD TEORII DLA ZDARZEŃ RZADKICH

Podczas mojego „pustynnego” okresu, gdy krytycy obrzucali mnie brutalnymi, a równocześnie zabawnymi obelgami, wdałem się w spór z dżentelmenem zatrudnionym wówczas przez firmę o nazwie Lehman Brothers. Dżentelmen ów wydał w The Wall Street Journal oświadczenie, w którym stwierdził, że takie zdarzenia jak te z sierpnia 2007 roku powinny mieć miejsce raz na dziesięć tysięcy lat. W rzeczywistości byliśmy świadkami trzech takich zdarzeń, trzy dni z rzędu. The Wall Street Journal zamieścił zdjęcie tego człowieka, z którego wnioskuję, że „nie wygląda on na dziesięć tysięcy lat”. Skąd zatem wziął prawdopodobieństwo „raz na dziesięć tysięcy lat”? Na pewno nie z osobistego doświadczenia, na pewno nie z danych zgromadzonych przez Lehman Brothers – jego firma nie istniała od dziesięciu tysięcy lat i oczywiście nie przetrwała kolejnych dziesięciu tysięcy, bo upadła zaraz po naszej wymianie zdań. Wiadomo zatem, że źródłem owego skrajnie niskiego prawdopodobieństwa była teoriia. Im mniej prawdopodobne jest dane zdarzenie, tym mniej danych empirycznych możemy uzyskać (przy wielkodusznym założeniu, że przyszłość będzie przypominać przeszłość) i tym bardziej musimy polegać na teorii.

Zwróćmy uwagę, że częstotliwości zdarzeń rzadkich nie można oszacować na podstawie obserwacji empirycznych z tego właśnie powodu, że zdarzają się rzadko. Potrzebujemy w tym celu uprzedniego przedstawienia modelowego; im rzadsze zdarzenie, tym wyższy błąd oszacowania przy zastosowaniu standardowych metod indukcyjnych (na przykład doboru próby częstotliwości na podstawie zliczania dotychczasowych wystąpień), i tym wyższa zależność od przedstawienia a priori, które dokonuje ekstrapolacji w sferę zdarzeń mało prawdopodobnych (które z konieczności występują nieczęsto)21.

Ale problem aprioryczności występuje zawsze, nawet poza sferą niskiego prawdopodobieństwa. Wydaje się istotny w odniesieniu do zdarzeń rzadkich, ale tak naprawdę przenika całą wiedzę probabilistyczną. Przedstawię teraz dwie wersje tego problemu, nad którymi pracowałem z dwoma współpracownikami – Avitalem Pilpelem, filozofem nauki (który szybko chodzi), oraz Raphaelem Douadym, matematykiem (który czasami jest dobrym towarzyszem spacerów, o ile nie jest zajęty).

Epimenides z Krety

Avital Pilpel i ja wyraziliśmy problem regressus ad infinitum jako epistemiczny problem zarządzania ryzykiem, ale można go uogólnić na dowolną formę wiedzy probabilistycznej. Jest to problem samoreferencji miar prawdopodobieństwa.

Przedstawiliśmy go w następujący sposób. Jeżeli potrzebujemy danych, żeby otrzymać rozkład prawdopodobieństwa, dzięki któremu ocenimy naszą wiedzę na temat przyszłego zachowania rozkładu na podstawie wyników z przeszłości, oraz jeżeli jednocześnie potrzebujemy rozkładu prawdopodobieństwa, żeby ocenić stopień wystarczalności i predyktywności danych, to mamy do czynienia z poważnym przypadkiem pętli regresu. To problem samoreferencji pokrewny problemowi Epimenidesa z Krety, który twierdził, że Kreteńczycy są lub nie są kłamcami. Analogia z sytuacją Epimenidesa jest niepokojąco bliska, ponieważ rozkład prawdopodobieństwa wykorzystuje się do oceny poziomu prawdziwości, chociaż nie może on ocenić własnego poziomu prawdziwości i zasadności. A w przeciwieństwie do wielu problemów samoreferencyjnych, problemy dotyczące oceny ryzyka mają poważne konsekwencje. Sytuacja jest szczególnie niebezpieczna w przypadku zdarzeń o niskim prawdopodobieństwie.

Twierdzenie o nierozstrzygalności

Praca poświęcona problemowi samoreferencji, opublikowana z Pilpelem po Czarnym łabędziu, przeszła w zasadzie bez echa.

W związku z tym razem z Raphaelem Douadym sformułowaliśmy ten filozoficzny problem w kategoriach matematycznych. Jak się wydaje, jego praktycznie implikacje są znacznie bardziej druzgocące niż implikacje problemu Gödla.

Ze wszystkich ludzi, których znam, Raphael jest prawdopodobnie człowiekiem o największej erudycji matematycznej – kulturą matematyczną przewyższa zapewne wszystkich współczesnych myślicieli, być może z wyjątkiem jego nieżyjącego już ojca, Adriena Douady’ego.

Pisząc nasz tekst, prawdopodobnie opracowaliśmy oficjalny dowód na naszą tezę przy użyciu matematyki, a dokładniej gałęzi matematyki zwanej „teorią miary”, która służyła Francuzom do zapewniania ścisłości matematyce prawdopodobieństwa. Prowizorycznie tytuł tej pracy brzmi: Nierozstrzygalność. O niespójności szacowania prawdopodobieństw na podstawie próby bez powiązania założeń a priori z klasą możliwych do zaakceptowania prawdopodobieństw.

Chodzi o konsekwencje . . .

Idąc dalej, w prawdziwym życiu nie obchodzi nas proste, czyste prawdopodobieństwo (to, czy dane zdarzenie nastąpi, czy nie nastąpi). Martwią nas jego konsekwencje (skala zdarzenia; łączna liczba ofiar lub suma szkód materialnych i innych strat w jego następstwie, skala korzyści w przypadku korzystnego zdarzenia). Zważywszy na to, że im rzadsze zdarzenie, tym poważniejsze jego konsekwencje (wystarczy uświadomić sobie, że powódź stulecia jest poważniejsza i rzadsza niż powódź dekady, a bestseller dziesięciolecia sprzedaje się w większej liczbie egzemplarzy niż bestseller roku), nasze oszacowanie wpływu [na rzeczywistość] zdarzenia rzadkiego będzie obarczone ogromnym błędem (wpływ równa się prawdopodobieństwo razy skutek; wynik należy pomnożyć przez błąd oszacowania) i nic na to nie pomoże22.

Zatem im rzadsze zdarzenie, tym mniej wiemy o jego roli – i tym bardziej musimy kompensować sobie ten brak za pomocą ekstrapolującej, generalizującej teorii. Będzie jej brakować ścisłości proporcjonalnie do twierdzeń o rzadkości zdarzenia.

Oznacza to, że błąd teoretyczny i modelowy mają większe konsekwencje „w ogonach” oraz, co jest dobrą wiadomością, że niektóre przedstawienia są bardziej kruche niż inne.

Pokazałem, że omawiany błąd jest poważniejszy w Ekstremistanie, gdzie zdarzenia rzadkie są istotniejsze z uwagi na brak skali, czyli brak asymptotycznego pułapu dla zmiennej losowej. Dla porównania, w Przeciętnostanie dominuje wypadkowy skutek regularnych zdarzeń, a wyjątki są raczej nieistotne – znamy ich skutek i jest on bardzo łagodny, ponieważ dzięki „prawu wielkich liczb” możliwa jest dywersyfikacja. Pozwolę sobie jeszcze raz zobrazować to przykładem z Ekstremistanu. Mniej niż 0,25 proc. wszystkich spółek giełdowych na świecie odpowiada za około połowę kapitalizacji rynkowej, niezmiernie niski procent powieści wydawanych na świecie odpowiada za około połowę sprzedaży literatury pięknej, mniej niż 0,1 proc. leków generuje nieco ponad połowę przychodów branży farmaceutycznej – a mniej niż 0,1 proc. ryzykownych zdarzeń spowoduje co najmniej połowę szkód i strat.

Od rzeczywistości do przedstawienia23

Pozwólcie, że pokażę ten problem z innej perspektywy. Przejście od teorii do świata rzeczywistego wiąże się z dwiema różnymi trudnościami – problemami odwrotnymi i preasymptotyką.

Problemy odwrotne. Przypomnijcie sobie, o ile trudniej jest odtworzyć kostkę lodu z kałuży (inżynieria odwrotna), niż przewidzieć kształt kałuży. W rzeczywistości nie ma jednego rozwiązania – kostka lodu może mieć bardzo wiele kształtów.

Odkryłem, że radziecko-harwardzka metoda widzenia świata (w przeciwieństwie do perspektywy Grubego Tony’ego) powoduje, iż popełniamy błąd, myląc ze sobą dwie strzałki (od kostki lodu do kałuży i od kałuży do kostki lodu). To kolejny przejaw błędu platońskości, myślenia, że platońska forma z naszych wyobrażeń odpowiada temu, co widzimy przez okno.

Mnóstwo dowodów na mylenie tych dwóch strzałek widzimy w historii medycyny, racjonalistycznej medycyny bazującej na Arystotelesowskiej teleologii, którą omówiłem wcześniej. Błąd ów opiera się na następujących przesłankach. Zakładamy, że znamy logikę danego organu i jego funkcję, zatem możemy zastosować tę logikę w leczeniu pacjenta. W medycynie bardzo trudno jest wyzbyć się naszych teorii ciała ludzkiego. Analogicznie, łatwo jest stworzyć własną teorię albo nauczyć się jakiejś teorii na Harvardzie, a następnie rozciągnąć ją na świat. Rzeczy stają się wówczas bardzo proste.

Problem mylenia tych dwóch strzałek jest bardzo poważny w dziedzinie prawdopodobieństwa, zwłaszcza w przypadku niskich prawdopodobieństw24.

Jak pokazaliśmy na przykładzie twierdzenia o nierozstrzygalności i problemu samoreferencji, w prawdziwym życiu nie obserwujemy rozkładów prawdopodobieństwa. Obserwujemy jedynie zdarzenia. Mogę więc przeformułować wyniki w następujący sposób: nie znamy właściwości statystycznych zdarzeń – a raczej poznajemy je po fakcie. Załóżmy, że dysponujemy zbiorem obserwacji: może im odpowiadać mnóstwo rozkładów statystycznych – każdy dokonywałby innej ekstrapolacji poza zbiór zdarzeń, z którego go zaczerpnięto. Problem odwrotny jest poważniejszy, gdy wiele teorii i wiele rozkładów może pasować do jednego zbioru danych, zwłaszcza w obecności nieliniowości lub rozkładów nieoszczędnych25. Przy nieliniowościach liczba rodzin możliwych modeli/parametryzacji rośnie wybuchowo26.

W niektórych domenach problem staje się jednak bardziej interesujący. Przypomnijcie sobie problem Casanovy z Rozdziału 8. W środowiskach, które mają tendencję do tworzenia negatywnych Czarnych Łabędzi, a nie tworzą żadnych pozytywnych Czarnych Łabędzi (zwanych ujemnie skośnymi), problem niskich prawdopodobieństw jest gorszy. Dlaczego? Niewątpliwie zdarzenia katastrofalne będą zwykle z konieczności nieobecne w danych, gdyż od takiego skutku zależy przetrwanie samej zmiennej. Oznacza to, że takie rozkłady zazwyczaj skłaniają obserwatora do przeceniania stabilności i niedoceniania potencjalnej zmienności i ryzyka.

Powyższy wniosek – że rzeczy często sprawiają wrażenie bardziej stabilnych i mniej ryzykownych w przeszłości, co prowadzi do niespodzianek – musi być traktowany poważnie, zwłaszcza w dziedzinie medycyny. Wąsko analizowana historia epidemii nie wskazuje na ryzyko zarazy, która zdominuje naszą planetę. Jestem również przekonany, że robiąc to, co robimy środowisku naturalnemu, mocno nie doceniamy potencjalnej niestabilności, której będziemy gdzieś doświadczać z tytułu łącznych szkód, wyrządzonych przyrodzie.

Problem ten rozgrywa się obecnie na naszych oczach. W okresie, gdy piszę ten esej, rynek giełdowy okazuje się o wiele bardziej ryzykowny, niż zapewniano niewinnych emerytów za pomocą historycznych dyskursów, pokazujących dane za sto lat.

W pierwszej dekadzie XXI wieku spadek wynosi niemal 23 proc., natomiast szarlatani finansowi wmawiali emerytom, że

oczekiwany wzrost w tym czasie sięgnie około 75 proc. Doprowadziło to do bankructwa wiele planów emerytalnych (oraz największą firmę motoryzacyjną na świecie), bo ludzie naprawdę uwierzyli w tę „empiryczną” historię – i oczywiście spowodowało, że wiele niezadowolonych osób przełożyło przejście na emeryturę na później. Weźcie pod uwagę, że jesteśmy frajerami i zwykle wybieramy zmienne, które są niestabilne, lecz sprawiają wrażenie stabilnych.

Preasymptotyka. Wróćmy teraz do platońskości, żeby omówić preasymptotykę – to, co zdarza w perspektywie krótkoterminowej. Oczywiście teorie są złe z zasady, ale niekiedy stają się jeszcze gorsze – jeśli zostały wyprowadzone w wyidealizowanych sytuacjach, czyli asymptocie, a stosuje się je poza asymptotą (w odniesieniu do jej granicy, na przykład nieskończoności lub wartości dążącej do zera). Razem z Mandelbrotem pokazaliśmy, że niektóre właściwości asymptotyczne sprawdzają się preasymptotycznie w Przeciętnostanie i dlatego kasynom tak dobrze się wiedzie – w Ekstremistanie sprawy mają się inaczej.

Większość edukacji statystycznej bazuje na tych asymptotycznych, platońskich właściwościach, my jednak żyjemy w świecie rzeczywistym, który rzadko przypomina asymptotę. Wiedzą o tym teoretycy statystyki (a przynajmniej tak twierdzą), ale nie zwykły użytkownik statystyki, który w swoich pracach powołuje się na „dowody”. Pogłębia to również zjawisko, które nazwałem błędem ludycznym: badacze statystyki matematycznej zazwyczaj zakładają, że świat ma strukturę zbliżoną do zamkniętych struktur gier, zwykle o prawdopodobieństwie znanym a priori. Tymczasem nasz problem nie polega na tym, jak dokonywać wyliczeń, gdy znamy prawdopodobieństwa, tylko na tym, jak znaleźć prawdziwy rozkład dla danego horyzontu.

Wiele z naszych problemów dotyczących wiedzy wynika z tego napięcia między a priori a a posteriori.

Namacalny dowód

Nie istnieje niezawodny sposób wyliczania niskich prawdopodobieństw. Przedstawiłem już trudność z wyliczeniem prawdopodobieństwa rzadkich zdarzeń z filozoficznego punktu widzenia. Używając niemal wszystkich dostępnych danych ekonomicznych – które wybrałem dlatego, że ekonomia dysponuje czystymi danymi – pokazałem, że na podstawie danych nie da się określić, jak daleko znajdujemy się od rozkładu Gaussa. Istnieje miara zwana kurtozą, którą czytelnicy nie musz zawracać sobie głowy, a która mówi o tym, „jak grube są ogony”, czyli jak wielką rolę odgrywają rzadkie zdarzenia. Cóż, często zdarza się tak, że przy dziesięciu tysiącach danych i czterdziestu latach codziennych obserwacji pojedyncza obserwacja odpowiada za 90 proc. kurtozy! Błąd próbkowania jest zbyt duży, aby ocenić w sposób statystyczny, jak bardzo dane zjawisko odbiega od rozkładu Gaussa; oznacza to, że jedna brakująca liczba wpływa na obraz całości. Z niestabilności kurtozy wynika, że pewna klasa miar statystycznych powinna zostać całkowicie odrzucona. To dowód na to, że wszystko, co polega na

„odchyleniu standardowym”, „wariancji”, „odchyleniu najmniejszych kwadratów” itp. to bzdura.

Pokazałem również, że chcąc wyliczyć prawdopodobieństwo z akceptowalną dokładnością, nie możemy posłużyć się fraktalami – z tej prostej przyczyny, że nawet bardzo mała zmiana tego, co nazywam „wykładnikiem ogona”, wynikająca z błędu obserwacji, doprowadziłaby do zmiany prawdopodobieństw, a co najmniej o czynnik rzędu 10.

Wniosek: w niektórych domenach należy unikać ekspozycji na niskie prawdopodobieństwa. Po prostu nie jesteśmy w stanie ich wyliczyć.

BŁĄD PRAWDOPODOBIEŃSTWA POJEDYNCZEGO ZDARZENIA

Przypomnijcie sobie z przykładu z Rozdziału 10, że warunkowa wartość oczekiwana dalszej długości trwania życia spada coraz bardziej, im człowiek jest starszy (w miarę starzenia się oczekiwana dalsza liczba lat życia staje się niższa; wynika to z faktu, że istnieje asymptotyczny „miękki” pułap długości życia człowieka). Wyraźmy to w jednostkach odchyleń standardowych: warunkowa wartość oczekiwana przeciętnostańskiej zmiennej gaussowskiej wynosi 0,8 (odchyleń standardowych) – jeśli jest wyższa niż próg zero. Jeśli jest wyższa niż próg 1, wyniesie 1,52. Jeśli jest wyższa niż 2, wyniesie 2,37. Jak widać, w miarę wzrostu odchyleń obie liczby powinny się ze sobą zbiegać, zatem jeśli wartość oczekiwana jest wyższa niż 10 odchyleń standardowych, oczekuje się, że zmienna losowa wyniesie właśnie 10.

W Ekstremistanie działa to inaczej. Warunkowa wartość oczekiwana wzrostu zmiennej losowej nie zbiega się z progiem w miarę wzrostu zmiennej. W prawdziwym świecie, powiedzmy w przypadku zwrotów z akcji (i wszelkich zmiennych ekonomicznych), jeśli strata jest gorsza niż 5 jednostek, niezależnie od jednostki miary (nie robi ona większej różnicy), to wyniesie około 8 jednostek. Jeśli zmiana przekracza 50 jednostek, to powinna przybrać wartość około 80 jednostek, a jeżeli dojdziemy do końca, aż do wyczerpania próby, przeciętna zmiana gorsza niż 100 jednostek wyniesie 250 jednostek! Dotyczy to wszystkich obszarów, w których udało mi się znaleźć wystarczająco duże próby. Wnioskujemy stąd, że nie istnieje „typowa”

porażka ani „typowy” sukces. Można przewidzieć, że wybuchnie wojna, ale nie można określić jej skutków! Jeżeli liczba ofiar

porażka ani „typowy” sukces. Można przewidzieć, że wybuchnie wojna, ale nie można określić jej skutków! Jeżeli liczba ofiar

W dokumencie CZARNY ŁABĘDŹ (Stron 181-187)