• Nie Znaleziono Wyników

LOGIKA PRZYPADKOWOŚCI FRAKTALNEJ (Z OSTRZEŻENIEM) 3

W dokumencie CZARNY ŁABĘDŹ (Stron 139-142)

ESTETYKA PRZYPADKOWOŚCI

LOGIKA PRZYPADKOWOŚCI FRAKTALNEJ (Z OSTRZEŻENIEM) 3

Przykład dystrybucji bogactwa z Rozdziału 15 ukazuje logikę rozkładu fraktalnego: jeśli zwiększymy majątek z miliona do dwóch milionów, liczba osób posiadających przynajmniej taką kwotę spada czterokrotnie, co wskazuje na wykładnik wynoszący dwa.

Gdyby wykładnik wynosił jeden, liczba takich osób spadłaby dwukrotnie. Wykładnik jest nazywany potęgą (dlatego niektórzy posługują się pojęciem prawa potęgowego). Przyjmijmy, że liczbę wystąpień wartości powyżej zadanego poziomu nazwiemy przewyższeniem – przewyższenie dwóch milionów to liczba osób o majątku większym niż dwa miliony. Jedną z podstawowych cech tych fraktali (albo innym sposobem na wyrażenie ich głównej cechy, skalowalności) jest fakt, że stosunek dwóch przewyższeń4 powyżej pewnych wartości będzie stosunkiem tych wartości do potęgi szacowanego wykładnika z minusem.

Pokażmy to na przykładzie. Załóżmy, że „uważacie”, że tylko dziewięćdziesiąt sześć książek rocznie sprzeda się w ponad dwustu pięćdziesięciu tysiącach egzemplarzy (wynik z zeszłego roku) i „uważacie”, że wykładnik wynosi około 1,5. Możecie

na tej podstawie wywnioskować, że mniej więcej trzydzieści cztery książki sprzedadzą się w ponad pięciuset tysiącach egzemplarzy – rachunek jest prosty: 96 razy (500 tys : 250 tys.)-1,5. To samo rozumowanie doprowadzi nas do wniosku, że mniej więcej dwanaście książek powinno się sprzedać w ponad milionie egzemplarzy – 96 razy (1 mln : 250 tys.)-1,5.

Teraz przedstawię różnie mierzone wykładniki dla szeregu zjawisk.

Uprzedzam, że wartość tych wykładników nie została precyzyjnie wyznaczona. Za chwilę przekonamy się, dlaczego tak jest, na razie zaznaczę jedynie, że nie jesteśmy w stanie zaobserwować tych parametrów; albo usiłujemy ją odgadnąć, albo wywieść ją z danych statystycznych, przez co niekiedy trudno jest poznać ich rzeczywisty poziom, o ile on rzeczywiście istnieje. Na początek przyjrzyjmy się praktycznym konsekwencjom wykładnika.

Tabela 3 ilustruje, jaki wpływ na rzeczywistość wywierają wysoce nieprawdopodobne zdarzenia. Pokazuje, w jaki sposób górny 1 proc. i górne 20 proc. oddziałują na całość. Im niższy wykładnik, tym większe odciskają piętno. Warto jednak zwrócić uwagę na to, jak czuły jest ten proces: zmiana z 1,1 na 1,3 oznacza przejście od 66 proc. całości do 34 proc. Zwiększenie wykładnika o zaledwie 0,2 pociąga za sobą diametralną zmianę wyniku – a taka różnica może być wynikiem prostego błędu pomiaru. Nie jest to błahy problem: pamiętajcie, że nie możemy określić wykładnika w precyzyjny sposób, ponieważ nie jesteśmy w stanie bezpośrednio go zmierzyć. Pozostaje nam oszacować jego wartość, opierając się na danych z przeszłości albo zaufać jakiejś teorii i opracować na jej podstawie model, który pozwoli nam się zorientować co do wykładnika – ale modele te mogą mieć ukryte słabości, przez które nie można ich ślepo odnosić do rzeczywistości.

Pamiętajcie zatem, że wykładnik o wartości 1,5 to tylko przybliżenie, że trudno go obliczyć, że nie objawią nam go bogowie, a przynajmniej nie tak prędko, i że błąd próby osiągnie monstrualne rozmiary. Zobaczycie, że liczba książek, które sprzedały się w ponad milionie egzemplarzy, nie zawsze wyniesie dwanaście – może sięgnąć nawet dwudziestu albo ograniczyć się do zaledwie dwóch.

Co istotniejsze, ów wykładnik zaczyna mieć zastosowanie od określonego pułapu, zwanego punktem krzyżowania [ang.

crossover], i odnosi się do liczb większych od wartości tego punktu. Może to być dwieście tysięcy albo dopiero czterysta tysięcy książek. Analogicznie bogactwo ma inne właściwości poniżej tego poziomu, powiedzmy, że to będzie sześćset milionów dolarów, gdzie nierówność rośnie, niż powyżej tego punktu.

Skąd wiadomo, gdzie przebiega ta granica? Na tym polega problem. Razem z moimi współpracownikami analizowaliśmy około dwudziestu milionów informacji finansowych. Wszyscy dysponowaliśmy tą samą bazą danych, ale nigdy nie udało nam się zgodzić w kwestii wysokości wykładnika. Wiedzieliśmy, że zgromadzone dane świadczą o istnieniu fraktalnego prawa potęgowego, ale przekonaliśmy się, że niemożliwe jest precyzyjne określenie wykładnika. Niemniej jednak to, co udało nam się ustalić – że ich rozkład jest skalowalny i fraktalny – wystarczyło, żebyśmy mogli skutecznie działać i podejmować właściwe decyzje.

Problem górnej granicy

Niektórzy ludzie przeprowadzili własne badania i doszli do wniosku, że fraktalność obowiązuje „do pewnego momentu”. Ich zdaniem bogactwo, sprzedaż książek i zyski z papierów wartościowych przestają mieć rozkład fraktalny od określonego poziomu. Proponują „obcięcie obserwacji skrajnych”. Zgadzam się z nimi, że istnieje pułap, na którym fraktalność może się zatrzymać, tylko gdzie on się znajduje? Teza, że istnieje górna granica, tylko nie wiadomo gdzie, w praktyce ma takie same konsekwencje jak teza, że żadna granica nie istnieje. Określenie górnego pułapu jest bardzo niebezpieczne. Przypuśćmy, że powiecie: Przyjmijmy w naszych analizach bogactwa granicę stu pięćdziesięciu miliardów dolarów. Ktoś inny może zaoponować: Dlaczego nie sto pięćdziesiąt jeden miliardów? Albo sto pięćdziesiąt dwa? Równie dobrze możemy uznać, że jest to zmienna nieograniczona.

Strzeżcie się precyzji

Doświadczenie nauczyło mnie kilku rzeczy: każdy wykładnik, który próbuję zmierzyć, prawdopodobnie okaże się zawyżony (przypominam, że wyższy wykładnik oznacza niższą rolę dużych odchyleń) – to, co widzicie, prawdopodobnie będzie mniej

„czarnołabędzie” niż to, czego nie widzicie. Nazywam to problemem maskarady.

Wyobraźmy sobie, że generuję proces o wykładniku wartości 1,7. Nie widzicie, co się dzieje we wnętrzu silnika, macie dostęp tylko do wytwarzanych przez niego danych. Jeśli zapytam was o wartość wykładnika, prawdopodobnie wasze obliczenia wskażą wynik około 2,4. Do takiego wniosku doszlibyście nawet wtedy, gdybyście dysponowali milionem danych.

Wynika to z faktu, że niektóre procesy fraktalne ujawniają swoje właściwości po bardzo długim czasie i nie doceniamy siły wstrząsu, jaki mogą one wywołać.

Czasem fraktal może was zwieść, możecie mieć wrażenie, że jest gaussowski, szczególnie jeśli wartość progowa jest wysoka. W przypadku rozkładów fraktalnych tego rodzaju skrajne odchylenia są na tyle rzadkie, że mogą wprowadzić w błąd:

nie da się wtedy rozpoznać, że rozkład jest fraktalny.

Jeszcze raz o kałuży

Jak już się przekonaliście, mamy trudności z poznaniem parametrów modelu, który naszym zdaniem rządzi światem. Zatem w przypadku Ekstremistanu znów natykamy się na problem indukcji, tym razem w ostrzejszej postaci niż dotychczas. Dzieje się tak dlatego, że mechanizm fraktalny może przynieść wysokie wartości; zatem duże odchylenia są możliwe, ale nie sposób precyzyjnie określić, jakie jest ich prawdopodobieństwo i z jaką częstotliwością powinny występować. Przypomina to

wcześniejszy przykład kałuży wody: mogła powstać z wielu różnych kostek lodu. Jako człowiek, który przechodzi od rzeczywistości do możliwych modeli jej wyjaśniania, staję w obliczu zupełnie innych trudności niż badacze, których rozumowanie biegnie w odwrotnym kierunku.

Właśnie skończyłem czytać trzy książki „popularnonaukowe”, które podsumowują stan badań nad systemami złożonymi:

Ubiquity Marka Buchanana, Masę krytyczną Philipa Balla i Why Most Things Fail Paula Ormeroda. Ci trzej autorzy przedstawiają świat nauk społecznych jako domenę praw potęgowych, z czym z całą pewnością się zgadzam. Twierdzą również, że wiele z tych zjawisk cechuje pewna uniwersalność i istnieje cudowna zbieżność między różnymi procesami naturalnymi a zachowaniami grup społecznych, z czym również się zgadzam. Opierają swoje badania na rozmaitych teoriach dotyczących sieci i wykazują wspaniałe analogie między tak zwanymi zjawiskami krytycznymi w naukach przyrodniczych a samoorganizacją grup społecznych. Łączą ze sobą procesy, które wywołują lawiny, zaraźliwość społeczną i coś, co nazywają kaskadami informacyjnymi, z czym – znów – się zgadzam.

Uniwersalność jest jednym z powodów, dla których fizycy tak interesują się prawami potęgowymi związanymi z punktami krytycznymi. Istnieją sytuację, zarówno w teorii układów dynamicznych, jak i w mechanice statystycznej, w których wiele właściwości dynamiki wokół punktów krytycznych jest niezależnych od szczegółów danego układu dynamicznego. Wykładnik w punkcie krytycznym może być taki sam dla wielu układów z tej samej grupy, nawet jeśli różnią się pod wieloma innymi względami. Prawie się zgadzam z tą koncepcją uniwersalności. Wreszcie wszyscy trzej autorzy zachęcają nas do stosowania technik z dziedziny fizyki statystycznej i unikania jak ognia ekonometrii oraz gaussowskich, nieskalowalnych rozkładów – pod czym podpisuję się obiema rękoma. Ale wszyscy trzej autorzy, generując albo promując precyzję, wpadają w inną pułapkę – nie odróżniają procesów prospektywnych od retrospektywnych (między problemem a odwrotnym problemem), co według mnie jest największym grzechem naukowym i epistemologicznym. Nie są w tym odosobnieni; popełnia go prawie każdy, kto pracuje z danymi, ale nie podejmuje na ich podstawie decyzji. To odmiana błędu narracyjnego. Nie dysponując informacjami zwrotnymi, patrzycie na modele i wydaje wam się, że potwierdzają one rzeczywistość. Wierzę w koncepcje przedstawione w tych trzech książkach, ale uważam, że są one wykorzystywane w niewłaściwy sposób, a ich autorzy przypisują im zbyt dużą precyzję. W gruncie rzeczy teoria złożoności powinna zwiększyć naszą nieufność do precyzyjnych, naukowych modeli rzeczywistości. Nie sprawia ona, że wszystkie łabędzie stają się białe; sprawia, że stają się szare, i tylko szare5.

Jak już wspomniałem, dla oddolnych empiryków świat naprawdę wygląda inaczej pod względem epistemologicznym. W tej perspektywie nie ma jednego równania, które rządzi wszechświatem; musimy obserwować dane i stawiać hipotezy dotyczące przebiegu rzeczywistych procesów, a następnie „kalibrować” i dostosowywać nasze równanie na podstawie dodatkowych informacji. W miarę przebiegu zdarzeń porównujemy to, co widzimy, z tym, co spodziewaliśmy się zobaczyć. Odkrycie, że historia biegnie naprzód, a nie wstecz, zazwyczaj uczy pokory, zwłaszcza tych, którzy zdają sobie sprawę z błędu narracyjnego. Panuje przekonanie, że biznesmeni mają wybujałe ego, ale w rzeczywistości często odrabiają lekcję pokory, obserwując różnice między decyzją a jej skutkami, między precyzyjnymi modelami a rzeczywistością.

Mówię tu o nieprzejrzystości, braku pełnych informacji, niewidzialności generatora świata. Historia nie odkrywa przed nami swojej logiki – musimy ją sami odgadnąć.

Od przedstawienia do rzeczywistości

Opisana wyżej koncepcja łączy wszystkie części mojej książki. Wiele osób studiuje psychologię, matematykę albo teorię ewolucji, żeby wzbogacić się na zastosowaniu tej wiedzy w biznesie. Ja proponuję odwrotną strategię: studiowanie intensywnej, niezbadanej i uczącej pokory niepewności na rynkach po to, żeby dowiedzieć się czegoś o naturze przypadkowości i móc zastosować tę wiedzę w psychologii, teorii prawdopodobieństwa, matematyce, teorii decyzji, a nawet fizyce statystycznej. W ten sposób zobaczycie podstępne przejawy błędu narracyjnego, błędu ludycznego oraz wielkich błędów platonizacji, jakie się pojawiają, kiedy przechodzimy od modelu do rzeczywistości.

Kiedy poznałem Mandelbrota, zapytałem go, dlaczego tak uznany naukowiec, który powinien zajmować się w życiu czymś bardziej wartościowym, zainteresował się prymitywną dziedziną finansów. Wydawało mi się, że finanse i ekonomia to dyscypliny, w których analizuje się różne zjawiska empiryczne i zapełnia konto pieniędzmi na odwal się, żeby później móc się zająć większymi, ważniejszymi kwestiami. Mandelbrot odpowiedział: „Dla danych. To kopalnia danych”. I rzeczywiście, wszyscy zapominają, że zaczynał od ekonomii, zanim zainteresował się fizyką i geometrią natury. Praca z takim bogactwem danych uczy pokory i ostrożności, by nie iść drogą między modelem a rzeczywistością w niewłaściwym kierunku.

W statystyce występuje problem błędnego koła (który możemy nazwać też regresem statystycznym). Wyobraźcie sobie, że potrzebujecie danych z przeszłości, żeby sprawdzić, czy pewien rozkład prawdopodobieństwa jest normalny, fraktalny czy jeszcze inny. Będziecie musieli ustalić, czy macie wystarczającą ilość danych na poparcie swojego wniosku. Skąd wiadomo, czy ilość danych jest wystarczająca? Z rozkładu prawdopodobieństwa – rozkład ten pozwala ocenić, czy macie wystarczająco dużo danych, żeby „zyskać pewność” co do swoich wniosków. Jeśli chodzi o rozkład normalny, wystarczy kilka punktów (znów mamy tu do czynienia z prawem wielkich liczb). Ale skąd wiemy, że chodzi o rozkład normalny? No cóż, z danych.

Zatem potrzebujemy danych, żeby ocenić formę rozkładu, ale to z rozkładu prawdopodobieństwa dowiemy się, ile potrzebujemy danych. To skutkuje błędnym kołem.

Regres nie zachodzi, jeśli założycie z góry, że rozkład jest normalny. Tak się składa, że z jakiegoś powodu rozkład normalny

dość łatwo ujawnia swoje właściwości. Inaczej jest w przypadku rozkładów z domeny Ekstremistanu. Zatem wybór paradygmatu gaussowskiego i powołanie się na jakieś ogólne prawo wydaje się wygodnym rozwiązaniem. Właśnie z tego powodu domyślnie stosuje się rozkład normalny. Jak nieustannie powtarzam, tego rodzaju założenie może się sprawdzić w przypadku ograniczonej puli dziedzin, takich jak statystyki przestępczości, wskaźniki umieralności i inne kwestie z domeny Przeciętnostanu. Inaczej jest jednak z danymi historycznymi o nieznanych właściwościach i z kwestiami z domeny Ekstremistanu.

No dobrze, ale dlaczego statystycy, którzy pracują z danymi historycznymi, nie zdają sobie sprawy z tego problemu? Po pierwsze, nie lubią słuchać, że problem indukcji sprawia, iż ich zawód traci sens. Po drugie, nie znają dokładnych rezultatów swoich prognoz. Jak się przekonaliśmy na przykładzie konkursów organizowanych przez Makridakisa, są ofiarami błędu narracyjnego, ale nie chcą nic zrobić, żeby przestać go popełniać.

W dokumencie CZARNY ŁABĘDŹ (Stron 139-142)