• Nie Znaleziono Wyników

Ryzyko – zało Ŝ enia i terminologia

1.4 Ontologiczny i epistemologiczny status ryzyka

1.4.5 Niewiedza i ryzyko

Z dotychczasowych rozwaŜań zawartych w tym rozdziale moŜna wyciągnąć wniosek, Ŝe konstrukcje ryzyka tworzone przez uczestników Ŝycia społecznego jedynie w niewielkim stopniu uwarunkowane są charakterem leŜących u ich podłoŜa zagroŜeń. Oznacza to, Ŝe poszczególne definicje ryzyka nie składają się po prostu z wiedzy o zagroŜeniach. Istotną rolę odgrywają w nich takŜe niewiedza i niepewność (zob. Wynne 1992).

Znaczenie niewiedzy w społecznych konstrukcjach ryzyka w wielu miejscach podkreśla Ulrich Beck (zob. np. 1999: 109-132, 2007: 211-233).

Niewiedza stanowi jego zdaniem konstytutywny element ryzyka. Wynika to z tego, Ŝe faktyczny charakter zagroŜeń jest często nieokreślony i niemoŜliwy do

przewidzenia, a kalkulacyjny model ryzyka nie jest w stanie uchwycić sedna zjawiska.

Jednak mówienie o niepewności ocen ryzyka łatwo grozi popełnieniem błędu pleonazmu. Niepewność jest wszak definicyjnym składnikiem ryzyka, mającego zawsze charakter probabilistyczny. Tym bardziej jednak naleŜałoby więc poświęcić temu zagadnieniu odpowiednią ilość uwagi, szczególnie

uwzględniając fakt, Ŝe niepewność moŜe przybierać róŜne formy, a jej poziom i charakter róŜnią się w zaleŜności od sposobu modelowania ryzyka, a takŜe samej technologii.

Andrzej Szymanek wyszczególnia cztery podstawowe rodzaje niepewności, występujące w technicznych modelach ryzyka i bezpieczeństwa (2006: 54):

1. niepewność oceny strat i korzyści, 2. niepewność ocen ryzyka,

3. niepewność pojęć i modeli,

4. niepewność danych empirycznych.

Niepewność pierwszego typu odnosi się do nieprzewidywalności skutków wystąpienia danego zjawiska (zarówno pozytywnych, jak i negatywnych). Drugi typ, określony przez autora mianem „niepewności ocen ryzyka”, odnosi się do prawdopodobieństwa wystąpienia zagroŜenia (tamŜe). „Niepewność pojęć i modeli” moŜe wynikać z niewiedzy na temat wewnętrznej dynamiki danego systemu technologicznego i charakteru jego interakcji z otoczeniem lub braku wystarczających danych na temat wartości określonych parametrów modelu (tamŜe). Czwarty typ ryzyka odnosi się do trudności z ustaleniem kluczowych danych empirycznych.21

By odróŜnić od siebie róŜne rodzaje niewiedzy składające się na ryzyko, będziemy za Brianem Wynne’m (1992) uŜywać pojęć niepewności i ignorancji. „Niepewność” będzie odnosiła się do prawdopodobieństwa

wystąpienia określonych niepoŜądanych skutków (litera „P” w modelu R = P x S lub punkt 2 w klasyfikacji Szymanka). W przypadku niepewności ustalony jest

21 Choć autor nie porusza tego wątku, „niepewność danych empirycznych” moŜe dotyczyć zarówno danych poddawanych analizie, jak i uzyskiwanych w jej wyniku, a więc na „wejściu” i „wyjściu” procedury szacowania ryzyka.

charakter konsekwencji (zagroŜeń), lecz nieznane pozostaje prawdopodobieństwo ich wystąpienia. „Ignorancja” odnosi się zaś do samego charakteru skutków, które pozostają nieznane (litera „S” lub punkt 1 u Szymanka22). Ignorancja występuje w sytuacji, w której nie wiemy, czego nie wiemy, gdyŜ nie potrafimy określić

moŜliwych obszarów wystąpienia zagroŜenia. Np. pojawienie się choroby szalonych krów czy ptasiej grypy było zaskoczeniem dla większości ekspertów. Dobry przykład stanowią takŜe przypadki lekarstw, które – choć testowane pod kątem moŜliwości wystąpienia wielu skutków ubocznych – po latach (lub nawet dopiero w kolejnym pokoleniu) wykazują swe niepoŜądane działanie, którego nie potrafiono przewidzieć wcześniej.23 W odniesieniu do niepewności i ignorancji proponujemy łącznie uŜywać pojęcia „niewiedzy”.

Poziom niepewności i ignorancji róŜni się w zaleŜności od przyjętego modelu ryzyka oraz systemu technologicznego, do którego się odnosi. Brian Wynne zauwaŜa, Ŝe praktyka szacowania ryzyka, rozumiana jako naukowa dyscyplina analizy ryzyka i bezpieczeństwa, została stworzona do badania relatywnie dobrze ustrukturyzowanych problemów o charakterze mechanicznym, takich jak fabryki chemiczne, elektrownie atomowe czy technologie lotnicze i kosmiczne (1992: 113). „W takich systemach procesy i parametry techniczne są dobrze zdefiniowane, a niezawodność poszczególnych komponentów poddaje się testowaniu i kalkulacji” (tamŜe). Dzięki temu, jak była juŜ o tym mowa w rozdziale pierwszym, poziom niepewności i ignorancji daje się stosunkowo łatwo opanować przy pomocy probabilistycznego modelu ryzyka.

Problem pojawia się w momencie, gdy procedura szacowania ryzyka zaczyna być stosowana na przykład w odniesieniu do złoŜonych globalnych problemów ekologicznych. Określenie podstawowych parametrów z dokładnością zbliŜoną do tej uzyskiwanej w przypadku analizy ryzyka systemów zamkniętych staje się trudne do osiągnięcia (tamŜe). To oznacza zwiększenie poziomu

22 Punkty 3 i 4 z klasyfikacji niepewności Andrzeja Szymanka (niepewność pojęć i modeli oraz niepewność danych empirycznych) są związane zarówno z nieprzewidywalnością prawdopodobieństwa, jak i skutków.

23

Peter Wehling szczegółowo omawia przypadek podawania od połowy lat 40-tych do końca 70-tych milionom kobiet w ciąŜy syntetycznego estrogenu, tzw. DES (Diethylstilboestrol), który miał zapobiegać poronieniom. Dopiero w 1971 roku zauwaŜono związek między jego zaŜywaniem a występowaniem rzadkiego przypadku złośliwego nowotworu pochwy u młodych kobiet, których matki stosowały DES w czasie ciąŜy. Jak podkreśla Wehling, do dostrzeŜenia tego faktu przyczyniło się wyjątkowe lokalne nagromadzenie przypadków nowotworu, zazwyczaj nie występującego u kobiet poniŜej 50 roku Ŝycia oraz pytanie matek jednej z chorych kobiet, która spytała o ewentualne późne skutki stosowania DES. Obecnie przestrzega się przed moŜliwością wystąpienia ubocznych skutków DES u trzeciego pokolenia pacjentów, na co wskazują przeprowadzane eksperymenty na szczurach (Wehling 2004: 79-82).

niepewności i ignorancji w szacunkach ryzyka, które zdominowały dyskurs o ryzyku w jego ostatnich fazach.

John Adams w ksiąŜce Risk (1995) obrazuje stopień niewiedzy na temat ryzyka na przykładzie rakotwórczego oddziaływania znanych substancji

chemicznych, będącego przedmiotem jednego za raportów National Research Council w USA. UŜywa on czarnego prostokąta do zobrazowania proporcji między wiedzą i niewiedzą (rys. 1).

Jasny prostokąt po lewej stronie na dole reprezentuje 7000 substancji, które w ogóle zostały przebadane pod kątem ich ewentualnej rakotwórczości, na tle wszystkich znanych 5 milionów substancji. Mała kropka (wskazana strzałką) w prawym górnym roku to 30 substancji uznanych za rakotwórcze. Substancje składające się na pozostały, ciemny obszar pozostają niezbadane, a ich ewentualne rakotwórcze działanie nieznane (Adams 1995: 45-47).

Rys. 1 „Prostokąt Adamsa” obrazujący relacje między wiedzą a niewiedzą w dziedzinie substancji rakotwórczych (za: Adams 1995).

Nie jest to jednak tylko problem niedostatków wiedzy naukowej. Jak piszą niemieccy autorzy Wolfgang Krohn i Johannes Weyer w tekście o znamiennym tytule Społeczeństwo jako laboratorium (1989), specyfika wielu współczesnych technologii polega na tym, Ŝe nie jesteśmy w stanie przewidzieć ich moŜliwych skutków przed ich implementacją; w takiej sytuacji jedynym sposobem

przetestowania nowych rozwiązań technologicznych pod kątem wiąŜącego się z nimi ryzyka jest wprowadzenie ich w Ŝycie i obserwowanie, jak działają (Krohn, Weyer 1989). Za przykład moŜe posłuŜyć technika wojskowa, która jest właściwie nie do przetestowania w warunkach poligonowych, stąd w przypadku części współczesnych konfliktów zbrojnych wskazuje się, Ŝe na decyzję o ich wybuchu w duŜym stopniu wpłynęła chęć przetestowania nowych rodzajów broni.

Jednak studia nad kontrowersjami naukowymi i technologicznymi (zob. rozdz. 2.1) pokazują, Ŝe takŜe juŜ przy funkcjonujących technologiach konsensus odnośnie ich działania musi być dopiero wytwarzany społecznie i nie jest

odzwierciedleniem „obiektywnego stanu rzeczy” i cech danej technologii. W tekście A clean kill? The role of Patriot in the Gulf War (2002: 7-28) Harry Collins i Trevor Pinch analizują skuteczność wyrzutni rakietowych Patriot w zwalczaniu rakiet Scud w trakcie operacji „Pustynna Burza” i pokazują, Ŝe nie da się ona określić na podstawie tradycyjnych metod obserwacji, lecz jest ustalana w trakcie społecznych procesów negocjacji (więcej na ten temat w następnym rozdziale).

Zwrócenie uwagi na rolę niewiedzy w analizach ryzyka wiązało się takŜe z wprowadzeniem aspektów społecznych (pozatechnicznych) do namysłu nad technologią. Społeczne oddziaływania złoŜonych technologii, implementowanych na globalną skalę (sztandarowym przykładem jest tutaj Internet) nie tylko nie poddają się probabilistycznym kalkulacjom, ale często wymykają się próbom ich jakościowego przewidywania; zaskoczeniem dla specjalistów z zakresu IT była nie tylko gwałtowna popularność komputerów osobistych czy World Wide Web, lecz takŜe sms-ów; wskazuje to, Ŝe trudności dotyczą nie tylko określania konsekwencji rozwoju technologicznego, lecz przede wszystkim jego przyszłego kierunku.

Ulrich Beck w swych analizach niewiedzy koncentruje się głównie na problemie niemoŜności zdobycia wiedzy na temat ryzyka. W Społeczeństwie ryzyka porusza problem jego zmysłowej nieuchwytności (2002: 36-37):

O istnieniu i rozkładzie zagroŜeń i ryzyka dowiadujemy się w zasadzie dzięki przedstawianym nam argumentom. To, co szkodzi zdrowiu, co niszczy naturę, jest dla nas często niepoznawalne, a nawet tam, gdzie jest rzekomo widoczne, dopiero społeczna konstrukcja pozwala

„obiektywnie” potwierdzić dowiedzioną opinię ekspertów. Wiele nowych rodzajów ryzyka (skaŜenia radioaktywne czy chemiczne, szkodliwe substancje w Ŝywności, choroby cywilizacyjne) wymyka się całkowicie

ludzkiej zdolności bezpośredniego postrzegania. (…) W kaŜdym razie zagroŜenia te potrzebują „organów percepcji” nauki – teorii,

eksperymentów, instrumentów pomiarowych – aby w ogóle mogły być

dostrzegalne jako zagroŜenia i aby moŜna je było zinterpretować.

Jak zwracają uwagę Evers i Nowotny, dyskusyjnym pozostaje fakt, czy zmysłowa nieuchwytność jest cechą dystynktywną nowych rodzajów ryzyka: niewidoczne gołym okiem bakterie, wirusy i zarazki od wieków (a przynajmniej od czasów Ludwika Pasteura) wywołująśmiertelne epidemie (Evers, Nowotny 1987: 36). Istotne jest jednak, Ŝe w przypadku zagroŜeń o charakterze technologicznym, ich identyfikacja i opis zapośredniczone są nieuchronnie przez język i racjonalność naukową.

Beck traktuje niewiedzę jako w duŜym stopniu obiektywny składnik

konstrukcji ryzyka, wynikający z nieuchwytnej natury zagroŜeń. Wymienia jednak równieŜ „zamierzoną niewiedzę”, polegającą na ukrywaniu informacji; kojarzy ją z zagroŜeniami terrorystycznymi, dla których tajność operacji jest warunkiem

powodzenia. Przede wszystkim koncentruje się jednak na problemie niemoŜności dotarcia do wiedzy, co znajduje swe odzwierciedlenie w przedstawionej przez niego typologii niewiedzy. WyróŜnia on (2007: 230-231):

- selektywne przypuszczenia, cechujące się niskim stopniem prawdopodobieństwa,

- niechęć do wiedzy (Nicht-Wissen-Wollen), polegającą na

niedopuszczaniu informacji do wiadomości; za Leszkiem Kołakowskim moŜna by ją nazwać „odmową wiedzy” (zob. Zybertowicz 2005), - refleksyjną niewiedzę, opierającą się na identyfikacji luk w wiedzy

(„wiem, czego nie wiem”),

- świadomą niemoŜność wiedzy (Nicht-Wissen-Können), opierającą się na akceptacji niemoŜności zdobycia pełnej wiedzy na temat ryzyka, - wypartą lub nieświadomą niewiedzę, stanowiącą przykład ignorancji, - nieświadomą niemoŜność wiedzy, określaną przez Becka mianem

„nieznanego nieznanego”, która chyba stanowić by miała radykalną wersję poprzedniego typu niewiedzy; niestety Beck nie omawia

szczegółowo tego rodzaju niewiedzy i nie wskazuje na róŜnice między tym a poprzednim typem.

Warto zwrócić uwagę na jeszcze jedną cechę ujmowania niewiedzy przez Ulricha Becka. Koncentrując się głównie na niemoŜności zdobycia wiedzy, a pomijając praktycznie w swych analizach „zamierzoną niewiedzę” i „niechęć do wiedzy”, wpisuje się on w nurt socjologii wiedzy rozumianej jako socjologia błędu.

Niewiedza jest tutaj pewnym problemem (niepoŜądanym błędem poznawczym), którego źródła naleŜy zidentyfikować w celu uzyskania moŜliwie czystej formy wiedzy. Z tej perspektywy niewiedza ma obiektywny charakter, wynikający z

niepoznawalności zagroŜeń. Pominięty praktycznie zostaje element konstruowania niewiedzy, towarzyszącym procesom konstruowania ryzyka. Do tego wątku

przyjdzie nam jeszcze wrócić w dalszej części pracy.

Podsumowując niniejszy rozdział moŜna powiedzieć, Ŝe w wyniku pojawienia się nowych technologii oraz krytyki naukowego szacowania ryzyka mieliśmy do czynienia w latach 80-tych z załamaniem się konsensusu wokół dominującej do tej pory definicji ryzyka jako obiektywnego, fizycznego atrybutu pewnych technologii, obliczanego przy pomocy modelu probabilistycznego. Więź łącząca ryzyko z zagroŜeniem uległa wpierw rozciągnięciu i poluźnieniu – przez dołączenie do niej nowych ogniw w postaci nowych aktorów, języków opisu,

wartości i interesów – a następnie rozszczepieniu na konkurujące ze sobą procesy konstrukcji ryzyka, dąŜące do narzucenia swojej definicji danej technologii innym aktorom i uczynienia jej dominującą. To otworzyło pole konfliktom

Rozdział 2

Od kontrowersji naukowych do konfliktów