• Nie Znaleziono Wyników

33 H. Margetts, P. John, S. Hale, & T. Yasseri, Political

Turbulence: How Social Media Shape Collective Action,

Princeton University Press, 2015.

80

lajkowania”, nazywanego pogardliwie kliktywizmem lub slaktywizmem. Okazuje się bowiem, iż głównym mechanizmem tworzenia się samo-wiedzy jest obserwacja i reakcja na zachowania innych aktorów. Na przykład dynamika wzrostu poparcia w lajkach dla danego wydarzenia lub tematu może bardzo łatwo przerodzić się w konkretne działanie. Czy dostrzega pan przemianę polityki właśnie ze względu na rozwój nowych wynalazków komunikacyjnych i medialnych? Czy może jednak polityka nie uległa zasadniczo zmianie i po prostu fetyszyzujemy nowe technologie?

prof. Andrzej Zybertowicz: Myślę, że w większości krajów tej

przemiany nie da się odczuć. Pamiętam moją rozmowę z Jarosławem Kaczyńskim w czasie kampanii prezydenckiej w 2010 roku o celowości głębszego wejścia w Internet. On przedstawił mi wyniki badań wska-zujące, że w ówczesnym momencie jedynie 15% wyborców sięgało po treści polityczne w Internecie, wobec czego uznał, że inwestowanie zasobów wtedy, w 2010 roku, byłoby nieopłacalne. Podejrzewam więc, że jednak w większości krajów świata Internet nie zmienił polityki aż tak dotkliwie. Natomiast ja chciałbym porozmawiać o wątkach, które były dziś poruszane przez uczestników konferencji i od razu zasuge-rować pewną sprzeczność tych wypowiedzi. Profesor Duch powiedział, że wielość dostępnych środków komunikacji powoduje segmentację naszych obrazów świata. Każdy może znaleźć dowolną informację, interpretację, muzykę lub filmy, które utwierdzają go oraz utrwalają jego obraz świata. Powoduje to, że użytkownik czuje się nasycony czym trzeba i nie musi zaglądać nigdzie indziej. Natomiast przed chwilą pan mówił, jakoby Facebook przełamał ten fenomen sześciu stopni dystansu do każdego człowieka…

E.B.: Przestrzeń społeczna się tak zmieniła.

A.Z.: I umożliwiła zmiany kaskadowe. Otóż wydaje się, że nie – właśnie

badania nad sieciami społecznościowymi pokazują, że jednak te światy są dalej pozamykane.

81

E.B.: Zmniejszenie się wymiarów świata społecznego nie musi być

tożsame z polityką.

A.Z.: Zgoda. Ja chciałbym, żebyśmy porozmawiali o konkretnym

przy-kładzie możliwych zagrożeń. Przemiany technologiczne, które były tutaj dzisiaj interesująco pokazane, rozgrywają się, jak sądzę, na dwóch polach: na polu władzy oraz na polu ekonomii, czyli rynku i bogactwa. I te dwa obszary oczywiście pozostają pod wpływem przemian tech-nologicznych. Rozpowszechnianie się, w tym momencie jeszcze party-kularnych, wyspecjalizowanych systemów sztucznej inteligencji, już to głęboko zmienia. W chwili gdy zaczną powstawać systemy integrujące różne formy inteligencji – nieistotne w tym momencie, czy one będą miały świadomość, czy nie – które będą w stanie rozwiązywać coraz bardziej skomplikowane problemy, nastąpią głębokie zmiany na polu władzy. Ale i pole władzy zacznie uważniej sięgać po nowe instrumenty. Władza zawsze sięgała po nowe technologie rządzenia, stabilizacji władzy i bogactwa. Sięgnijmy do drobnego przykładu. Kilka miesięcy temu głośnym echem odbiła się sprawa firmy Microsoft, która wypu-ściła bota Tay – sztuczną inteligencję na Twittera34. Otóż dwa elementy są tutaj ważne podkreślenia, jeden chyba nie był dostatecznie wyeks-plorowany. Pierwszy: złośliwi internauci przechwycili i przeprogramo-wali sztuczną inteligencję – oczywiście niskiej generacji – która stała się rasistką i faszystką. Jednak Tay w ciągu doby była w stanie opubli-kować ponad 100 000 wpisów bazując na tym, czego się nauczyła. Teraz jeśli sobie wyobrazimy, że ona byłaby sztuczną inteligencją wyższej generacji, która na podstawie śledzenia historii osób, z którymi wchodzi w interakcje, płynnie, perswazyjnie i subtelnie wciągałaby te osoby w grę, to mamy w dosłownym sensie broń masowego rażenia. Amerykanie mają programy, które obserwując wpisy na Twitterze, analizują nastroje społeczne w różnych regionach świata. Mogą je badać w cyklu dobowym, obserwując, jak ludzie idąc do pracy, zaży-wają porannej kawy, jak ich nastroje się poprawiają, a potem pogar-szają. Już dzisiaj bez większego kłopotu można sobie wyobrazić zbudo-wanie programu monitorującego narastające niepokoje społeczne na podstawie zapytań Googlowskich. W każdym kraju, gdzie wyszukiwarka Google jest powszechnie stosowana, potencjalne ruchy rewolucyjne 34 Chatbot Tay

(akronim angielskiego wyrażenia thinking about you) został stworzony przez firmę Microsoft jako program komputero-wy mający symulować język naturalny – w tym przypadku miał naśladować wzorce językowe amery-kańskiej nastolatki, jednocześnie ucząc się w oparciu o interakcje z użytkownikami chatu. Na krótko po swojej premierze 16 marca 2016 został zdezaktywowany po kontrowersjach, jakie wywołały jej mizoginistyczne i rasistowskie wpisy w serwisie Twitter.

82

takie jak Oburzeni są dławione dzięki ich predyktywnemu monitoro-waniu. Jeśli zatem chcemy rozmawiać o przyszłości sztucznej inteli-gencji, to powinniśmy zadać sobie pytanie: co możemy przewidzieć? Nieco wbrew tezom, które są zawarte w programie konferencji, że przy-szłość jest nieprzewidywalna, chciałbym powiedzieć, że co najmniej trzy

procesy są możliwe do przewidzenia. Jeśli nie nastąpi jakiś kataklizm cywili-zacyjny typu wojny jądrowej, która nas cofnie technologicznie, to te procesy będą na pewno postępowały. Będzie to z pewnością pogłębiający się proces cyfryzacji: zamiany całej rzeczywistości na świat cyfrowy. Drugi, powią-zany z nim proces, to automatyzacja. A wszystko to będzie się działo w tkance kulturowych, ekonomicznych i politycznych nierówności. Nie ma żadnych przesłanek, żeby zakładać, że w jakiejś istotnej mierze nierówności zostaną złagodzone, natomiast istnieją prze-słanki, żeby zakładać, że będą się nasilać. I teraz wyobraźmy sobie, co się będzie działo, kiedy działająca na większą skalę, dużo bardziej wyrafinowana sztuczna inteligencja typu Tay stanie się dostępna. Na razie jest ona bardzo kosztowna i dostępna dla wybranych. Wracając do Facebooka: rok temu zmieniono algorytmy newsfeed selekcjonujące wpisy, jakie ukazywały się na tablicach różnych użytkowników. Testowano możliwość sterowania emocjami, tak by możliwe stało się chronienie ludzi przed depresją przez przesy-łanie im tylko pozytywnych wpisów znajomych. Ale równie dobrze możemy sobie wyobrazić algorytm przeciwny – wpędzania w depresję. Niedawno w Biurze Bezpieczeństwa Narodowego, gdzie mamy zespół do spraw cyberbezpieczeństwa, jeden z ekspertów przekonywał, że już dzisiaj za pomocą telewizorów, które funkcjonują w systemie Smart za pomocą Internetu, w razie wojny informacyjnej można generować komunikaty celowo wywołujące panikę. Na przykład o wybuchu w fabryce chemicznej na obrzeżach Warszawy i obowiązkowej ewaku-acji. Zanim władza uruchomiłaby system komunikacji neutralizu-jący ten wpis, panika mogłaby już mieć bardzo poważne skutki. Do czego zmierzam? Sztuczna inteligencja może stać się bronią maso-wego rażenia, niezależnie od tego, czy będzie samoświadoma, czy nie;

Jeśli zatem chcemy rozmawiać