• Nie Znaleziono Wyników

Szersze aspekty kontroli nad Internetem

W dalszych rozdziałach książki Who Controls... jej autorzy przyglądają się bliżej fenomenowi pojawiania się granic w Internecie, który zazwyczaj jest widziany w zupełnie przeciwny sposób: jako bezgraniczny właśnie. Jeszcze w wywiadzie udzielonym w 2001 roku gazecie „New York Times” nie kto inny jak Vinton Cerf twierdził, że ruch w sieci jest całkowicie niewrażliwy na granice państw [Gold-smith 2006, 58]. Autorzy ci stawiają tezę, że granice, które pojawiły się w sieci, miały początkowo charakter „organiczny”; były skutkiem zróżnicowanych geo-graicznie potrzeb jej użytkowników, nie tylko dotyczących języka, lecz także wielu innych, bardziej subtelnych kwestii [Goldsmith 2006, 49]. Dla nas istotna jest przyczyna, którą autorzy określają jako ostateczną. Jest nią ekonomiczny efekt dystansu między sprzedawcą a kupującym. Z jednej strony sieć ten dy-stans niweczy – ta odległość to „jeden klik”. Z drugiej strony natomiast irmy, na przykład Amazon, które opierają na tak rozumianym poczuciu odległości swo-ją taktykę, szybko się uczą, że realna przestrzeń ma znaczenie i buduswo-ją osta-tecznie, jak ta wielka spółka, gigantyczne magazyny położone niedaleko swoich klientów [Goldsmith 2006, 57].

Na początku XXI wieku powstało wiele irm pozwalających identyikować geograiczne położenie użytkownika szybko, łatwo i niepostrzeżenie, poszerza-jąc wcześniejsze, prymitywne metody wymagaposzerza-jące jego udziału (domaganie się samodzielnej deklaracji przez wybór kraju, żądanie karty kredytowej itp.), które pojawiły się w połowie lat 90. wraz z postępującą komercjalizacją sieci [Gold-smith 2006, 60]103. Usługi „net geo-identiication” pozwalają zabezpieczać się przed wyłudzeniami, dostosowywać reklamy do lokalnego rynku czy rozrywkę do lokalnego prawa. Granice pojawiające się w Internecie szybko jednak zosta-ły wzmocnione i wykorzystane przez rządy państw do zbudowania potężnych technik typu top-down, służących na przykład do kontrolowania niechcianego ruchu przychodzącego spoza nich. Jeden ze sposobów polega nie na karaniu nie-osiągalnych dostawców, lecz własnych klientów podlegających lokalnej władzy [Goldsmith 2006, 67]. Podobnie jak w wypadku podrabianych towarów znanych marek, rządy grożą konsekwencjami pośrednikom umożliwiającym komunika-cję przenoszącą treści nielegalne. Ci pośrednicy funkcjonują w obrębie teryto-rium państwa i podlegają państwowej jurysdykcji. W wypadku leków są to le-karze i farmaceuci, alkoholu – właściciele lokali gastronomicznych czy wręcz barmani, Internetu zaś – ludzie, sprzęt i usługi umożliwiające konsumentom dostęp do treści [Goldsmith 2006, 68]. Autorzy Who Controls... oceniają efek-tywność takiej strategii bardzo wysoko: opiera się ona na modelu źródło – po-średnik – cel, w którym popo-średnik staje się efektywnym i łatwym przedmiotem kontroli. Jest to istotne zwłaszcza w wypadku Internetu, gdzie nie da się z tego

103 Kompetentne omówienie najnowszych technik geolokalizacji zawiera książka Antho-ny’ego T. Holdenera III HTML5 Geolocation [Holdener 2011].

ogniwa zrezygnować ani przesunąć go poza granice jurysdykcji danego pań-stwa: w sieci zawsze funkcjonują lokalni pośrednicy [Goldsmith 2006, 71].

Już w latach 90. Lawrence Lessig wylewał zimną wodę na głowy hiperliber-tarianistów, pokazując, że rząd może kontrolować Internet dzięki jego przywią-zaniu do hardware’u i software’u [Goldsmith 2006, 72]. Autorzy Who Controls...

deiniują kilka zasadniczych stref ograniczania przepływu treści stosowanego przez rządy, które przede wszystkim dotyczą pośredników i lokują się w na-stępujących rejonach: transportu, informacji, inansów, systemu nazw i serwe-rów DNS. Na końcu pozostaje jeszcze kontrola pojedynczych użytkowników.

Na pierwszy ogień idą zwykle dostawcy Internetu – Internet Service Providers (ISP), którzy działają, opierając się na izycznej sieci: kablach, światłowodach, routerach itd. W takiej kontroli miano pionierów przypada Europejczykom, USA ze swoją wrażliwością na regulacje są względnie nieaktywne, a liderów należy szukać przede wszystkim na wschodzie: w Chinach czy Arabii Sau-dyjskiej [Goldsmith 2006, 73]. Embargo rządowe rozciąga się także na samą informację; wyszukiwarki takie jak Google nieustannie blokują pewne lin-ki w obawie przed możliwymi sankcjami prawnymi, a także są przedmiotem nieustannych takich nacisków104. Także w tej streie Europejczycy są bardziej agresywni niż reszta świata [Goldsmith 2006, 75]. Trzecia strefa obejmuje i-nanse i polega na przykład na żądaniu blokowania transakcji kartami płatni-czymi [Goldsmith 2006, 76]. Na końcu pozostaje jeszcze objęcie prawną od-powiedzialnością pojedynczych użytkowników sieci [Goldsmith 2006, 79].

Konkludując, autorzy Who Controls... nie mają wątpliwości, że te metody są skuteczne; w 2003 roku ogłosił swój koniec symbol niezależnego geograicz-nie ruchu internetowego serwis HeavenCo, trzymający swoje serwery na beto-nowej platformie znajdującej się na Morzu Północnym sześć mil od wybrzeży Wielkiej Brytanii, formalnie samozwańczej monarchii o nazwie Sealand. Dzia-łające od 1999 roku HeavenCo uległo ostatecznie embargu inansowemu; nie było banków skłonnych z nim współpracować [Goldsmith 2006, 84].

Opisywany tutaj problem Lessig podejmuje w książce Code. Version 2.0 [Lessig 2006]. Zajmuje się on w niej kwestią regulacji Internetu, którego spe-cyika opiera się na swoistości oferowanego terytorium – cyberprzestrzeni.

Podlega ona innego typu zależnościom, wynikającym z jej niepowtarzalnych technologicznych obciążeń; innego rodzaju „kodu”, który w wypadku prawa obowiązującego w świecie realnym przyjmuje postać konstytucji czy ustaw.

W sieci takim „kodem” jest oprogramowanie i technika (software i hardware), determinujące nie tylko jej kształt, lecz także sposób funkcjonowania. Lessig wykorzystuje dwuznaczność tego pojęcia – jego informatyczne, technologiczne konotacje łączy z sensem metaforycznym, oznaczającym zewnętrzną, nadrzęd-ną strukturę. Tak rozumiany „kod” jest zatem rodzajem „prawa” rządzącego

cy-104 Do tej grupy dołączyła także Polska w 2011 roku, przedstawiając 72 żądania usunięcia zawartości, co można sprawdzić na stronie: http://www.google.com/transparencyreport/go-vernmentrequests/PL/ (dostęp: 3.12.2012).

berprzestrzenią, co jest spostrzeżeniem Williama Mitchella, czy też czymś, co Joel Reidenberg nazywa Lex Informatica [Lessig 2006, 5]. Centralnym problem książki staje się zatem zależność możliwości regulacji sieci od „kodu” i pojawia-jące się wytyczne dotyczące przyszłości [Lessig 2006, 24].

Przyszłość ta rozpoczęła się według niego symbolicznie w styczniu 1995 roku, kiedy to władze Bawarii, największego kraju związkowego Republiki Fe-deralnej Niemiec ze stolicą w Monachium, zażądały od irmy CompuServe, do-starczającej usług internetowych na tym terenie, usunięcia pornograii, obłożo-nej tam silnymi obwarowaniami, z jej serwerów. Początkowo sprzeciwiająca się temu irma ostatecznie skapitulowała, wdrażając system iltrów przesiewają-cych zawartość stron w zależności od kraju jej dostarczenia [Lessig 2006, 39].

Ten precedens zaowocował złożonymi procedurami pozwalającymi na kontrolę takich aspektów obecności w sieci jak tożsamość i identyikacja [Lessig 2006, 43]. Badanie tożsamości jest interesujące dla wielu podmiotów, nie tylko rządo-wych, lecz także komercyjnych. Służą temu zarówno podstawowe technologie, takie jak odnajdywanie według numeru IP (backtracing) czy używanie śledzą-cych porcji informacji pozostawianym przez strony odwiedzane w Internecie tzw. cookies, jak i pomysły bardziej wyrainowane. Lessig opisuje dwie takie techniki, pierwsza to tzw. pojedyncze logowanie (SSO – single sign-on), polega-jące na trwałej, jednorazowej walidacji, która później pozwala na dostęp do róż-norodnych zasobów [Lessig 2006, 49]. Druga, której przydaje dużo większe zna-czenie, opiera się na idei warstwy identyikacji, która uzupełnia dotychczasową architekturę sieci105. Korzystając z wyrainowanych technik kryptograicznych, jest rozwinięciem technologii SSO. Lessig podaje przykład rozwiązania o na-zwie Microsoft Passport [Lessig 2006, 50], które zostało zarzucone i przyjęło obecnie postać tzw. Window Live Id, będącego rodzajem lokalnego, czyli ogra-niczonego do usług jednej korporacji SSO. Zwraca także uwagę, że w przyszłym standardzie adresowania w Internecie tzw. IPv6106 jest już wbudowana funkcja identyikacji, wynikająca z zastosowania unikalnego klucza kryptograicznego dla każdej porcji informacji transportowanej w sieci tzw. pakietu [Lessig 2006, 54]. O tym, że kwestie prywatności są nadal aktualne, przekonują nas zarówno działania irm, wśród których na plan pierwszy w mediach wysuwa się Google,

105 „Warstwa” (layer) jest pojęciem technicznym użytym do opisu technologii, na któ-rej jest wsparty Internet: wiązki protokołów znanej pod nazwą TCP/IP. Architektura TCP/IP składa się z warstw, z których każda odpowiada za inny aspekt komunikacji. Literatura do-tycząca tego zagadnienia jest obita; autor korzystał z podręcznika TCP/IP Biblia [Scrimger 2002]. Historycznie rzecz biorąc, powstał on w dwóch fazach: w pierwszej Vinton Cerf i Ro-bert Kahn stworzyli podstawy TCP (Transport Control Protocol) w 1973 roku i opublikowali w 1974 roku; w 1978 roku Vinton Cerf, Jon Postel i Danny Cohen zaproponowali wydzielenie z niego części odpowiadającej ostatecznie za system adresowania, nazwanej IP (Internet Pro-tocol), która została oicjalnie zaprezentowana zleceniodawcy, agencji DARPA, i wpisana do dokumentacji RFC pod numerem 791 w 1981 roku, inaugurując powstanie internetowej prze-strzeni adresowania [Mueller 2002, 76]. Ideę „warstw” opisuję dalej.

106 Obecnie używany to IPv4, który ze względu na krótką sentencję adresu powoli wyczer-puje swoje możliwości.

jak i reakcje bardzo wysokiego szczebla instytucji, pełniące funkcję wyraziciela interesu publicznego. Ostatnim takim incydentem jest zmiana polityki prywat-ności Google i reakcja na nią Unii Europejskiej107.

Kontrola tożsamości pozwala adaptować regulacje pochodzące ze świata realnego w cyberprzestrzeni, ale, jak twierdzi Lessig, sama architektura sieci – jej „kod” – staje się regulatorem [Lessig 2006, 81]. Rozpoczyna od ważnego rozróżnienia między Internetem, który jest raczej sposobem komunikacji, uła-twiającym i wzbogacającym realne życie, od cyberprzestrzeni, czyli odrębnego, zróżnicowanego świata różnorodnych doświadczeń: społecznych, kulturowych itp. [Lessig 2006, 83]. Lessig przedstawia jej strukturę z punktu widzenia po-jedynczego użytkownika. Podmiotowo zdeiniowany punkt widzenia pozwala mu skonstruować środowisko „obywatela sieci” (netizen), będące wypadko-wą czterech sił (constraints): praw, norm, rynku i architektury108 [Lessig 2006, 123]. Jest to także droga do ujrzenia problemu w perspektywie szerszej niż zagrożenie sfery wolności ze strony rządowej. Te cztery siły pozostają w sub-telnej równowadze, na którą ogromny wpływ ma jedna z nich – prawo [Lessig 2006, 125]. Lessig dowodzi, że w jego obszarze kryją się zagrożenia polegające na ukrytym, niebezpośrednim, lecz celowym stanowieniu prawa realizującego rządowe pryncypia [Lessig 2006, 136]. W ten sposób można mówić o prze-chwytywaniu kontroli nad „kodem” i w rezultacie nad samą cyberprzestrze-nią. W tym procesie istotną rolę odgrywa samo oprogramowanie, a szczególnie fenomen tzw. wolnego oprogramowania, którym zajmuję się w dalszej części.

Teza Lessiga jest konsekwentnie prosta: tzw. oprogramowanie zamknięte, czyli takie, do którego kodu źródłowego nie mamy wglądu, jest podatniejsze na re-gulatywne zbiegi rządu [Lessig 2006, 152]. Trzeba tutaj dodać, że Lessig nie deklaruje się jako zwolennik całkowitego wyłączenia strony rządowej z proce-su regulacji, ale reprezentuje pragmatyczny pogląd jego koniecznej obecności [Lessig 2006, 153]109.

Próbę lapidarnego i syntetycznego opisania sytuacji prawa w Internecie po-dejmuje Jan van Dijk w książce Społeczne aspekty nowych mediów. Analiza

spo-107 Por. doniesienie prasowe „Gazety Wyborczej” Europa chce wymusić na Google zmiany w polityce prywatności. Gigant wie o nas stanowczo za dużo z dnia 17.10.2012 roku, które infor-muje, że Paul Nemitz, Komisarz ds. Praw Obywatelskich UE, stanowczo polecił Google „poważ-nie” traktować ochronę danych osobowych, a szczegółowe zarzuty sformułowano w postaci li-stu, który z podpisami 27 państw członkowskich UE przesłano irmie, oznaczając okres trzech miesięcy na odpowiedź. Jednocześnie Viviane Reding, Komisarz ds. Sprawiedliwości, zapropo-nowała znaczne podniesienie kar dla irm naruszających prywatność. Reakcja władz UE jest odpowiedzią na zmiany dotyczące polityki prywatności wprowadzone przez Google w marcu 2012 roku (http://technologie.gazeta.pl/internet/1,104530,12684222,Europa_chce_wymu-sic_na_Google_zmiany_w_polityce_prywatnosci_.html, dostęp: 21.10.2012)

108 Czyli „instrukcji wpisanej w hardware i software” – kodu [Lessig 2006, 121].

109 Polityczne aspekty funkcjonowania cyberprzestrzeni w ramach trzech podstawowych obszarów: ewoluujących technologii sieciowych, ewoluujących istot i środowisk sieciowych oraz rozwijającej się alternatywnej polityki sieciowej omawia szeroko Agnieszka Rothert w książce Cybernetyczny porządek polityczny [Rothert 2005].

łeczeństwa sieci z 2006 roku (wydanie drugie, wydanie polskie: 2010). Stawia on tezę, która się już tutaj wyraźnie zarysowała i znajdzie dalej nowe dowody:

[...] w pierwszym dziesięcioleciu XXI wieku Internet jest w coraz mniejszym stopniu kontrolowany przez prawo i wspólnotę internetową, a w coraz większym przez ry-nek i standardy techniczne, których w żadnym razie nie można nazwać neutralnymi technologiami i za którymi stoją nowe regulacje prawne [Dijk 2010, 186].

Obserwowaliśmy już pewne wypadki organizowania się społeczności in-ternetowej, która dla van Dijka obecnie koncentruje się wokół trzech instytu-cji powstałych poza nadzorem dwóch rządowych ageninstytu-cji USA: Departamentów Obrony i Handlu, i stopniowo uwalniających się od ich kurateli. Są to Internet Engineering Task Force (IETF)110, najważniejszy według Dijka, Internet Corpo-ration for Assigned Names and Numbers (ICANN)111 i trzecia: Internet Society (ISOC)112. Pierwsza to komitet złożony z przedstawicieli wielu grup czuwający nad protokołami internetowej komunikacji, na przykład TCP/IP, druga dystry-buuje nazwy domen i numery IP, trzecia jest rodzajem swobodnego i otwartego stowarzyszenia reprezentującego globalną wspólnotę użytkowników sieci.

Kwestia zależności Internetu od rynku przewija się tutaj nieustannie i w na-stępnym rozdziale zanalizujemy dokładniej jej pojawienie się od strony histo-rycznej. Mniej znane jest natomiast zagadnienie poruszane w tym rozdziale, dotyczące kontroli technologicznej, które van Dijk przedstawia w uporządko-wanej formie, odwołując się do kolejnych warstw internetowej komunikacji, zgodnych z promowanym przez rząd Stanów Zjednoczonych modelem proto-kołów o nazwie Open Systems Interconnection (OSI). Opisuje on techniczną podstawę sieci, opartą właśnie na idei warstw, z których każda spełnia inną praktyczną funkcję. Tak właśnie jest również pomyślany czołowy protokół (a raczej wiązka protokołów) o nazwie TCP/IP, będący podstawą internetowej transmisji i adresowania danych113. Van Dijk porządkuje ten model, wyodręb-niając trzy podstawowe poziomy, zawierające dalej siedem warstw modelu OSI, co przedstawia w formie tabeli [Dijk 2010, 191]. Te trzy poziomy: treść, kod i podstawa, sumujące całość manipulacji technicznych, jakim podlegają infor-macje przekazywane siecią; od najwyższego – treściowego, po najniższy, izycz-ny poziom sprzętu, mogą podlegać różnego typu kontroli, dostosowanej tech-nicznie do bieżącej, technicznej formy informacji. Ich szczegółowy opis wiedzie do wniosku, że te technologiczne instrumenty kontroli determinują kształt Internetu, otwierając jego nową fazę [Dijk 2010, 193]. Stanowią one również ważny kontekst funkcjonowania rozwiązań Web 2.0, które będąc kolejną fazą funkcjonowania biznesu w sieci, opierają się właśnie na nowych rozwiązaniach technologicznych.

110 http://www.ietf.org/ (dostęp: 3.12.2012).

111 http://www.icann.org/ (dostęp: 3.12.2012).

112 https://www.internetsociety.org/ (dostęp: 3.12.2012).

113 Więcej na temat szczegółów technicznych tych rozwiązań i wzajemnych zależności można znaleźć w książce TCP/IP Biblia [Scrimger 2002, 45].

Van Dijk przedstawia także trzy obszary praw podlegających szczególne-mu wpływowi rozwoju Internetu; to prawo do informacji i koszczególne-munikacji, prawa własności i prawo do prywatności, które także wchodzą we wzajemne kolizje.

Problemy prawne związane z ICT są zazwyczaj rozwiązywane za pomocą trzech różnych strategii: uregulowań formalnoprawnych, stosowania mechanizmów samoregulacji (np. mediacja, kodeksy postępowania i dobrych praktyk) i wpro-wadzania nowych rozwiązań technicznych (takich jak szyfrowanie, liczniki da-nych, monitoring czy identyikacja), których odpowiednie konkretyzacje po-jawiają się w poszczególnych obszarach [Dijk 2010, 198], choć każdy z trzech obszarów wyznaczonych przez wymienione prawa rodzi innego typu problemy.

Pierwszy zawiera kwestie związane z osłabianiem się autonomii prawa i pań-stwa, które jest jego depozytariuszem, choćby tylko dlatego, że sieć ma charak-ter globalny i dokumentuje proces zacierania się granic miedzy sferą publiczną Rysunek 7. Warstwy sieci i instrumenty kontroli

Źródło: Jan van Dijk: Społeczne aspekty nowych mediów. Analiza społeczeństwa sieci, tłum. Jacek Konieczny, Warszawa 2010, s. 191. Reprodukcja dzięki uprzejmości Sage Publications Ltd.

a prywatną, co jest wynikiem realizacji zarówno komunikacji interpersonalnej, jak i masowej [Dijk 2010, 197]. Prawa własności w szczególności odnoszą się do praw autorskich, ale ogólnie dotyczą problematyki dystrybucji i tworzenia wie-dzy [Dijk 2010, 202]. Prawo do prywatności jest różnorodnie kształtowane, co utrudnia jego ochronę w wymiarze globalnym, a jest, jak twierdzi Dijk, „prawdo-podobnie najbardziej zagrożoną wartością w komunikacji za pomocą sieci”. Dijk postuluje, aby traktować je priorytetowo – przed wszelkimi innymi i bynajmniej nie poświęcać go w imię bezpieczeństwa [Dijk 2010, 218]114.

W niniejszej książce poświęcamy mało miejsca tej problematyce, skupiając się głównie na kwestiach społecznych i ekonomicznych, praca van Dijka pozwa-la uzmysłowić sobie jednak, jak dalece zależne są one od formalnych regupozwa-lacji prawnych i mniej formalnych tendencji rozwoju problemów, utrudniających te regulacje. Obszerny opis tych zagadnień, podwójnie wartościowy, ponieważ op-arty na długoletniej obserwacji praktyki i skupiony na polskiej rzeczywistości, zawiera książka Piotra Waglowskiego Prawo w sieci. Zarys regulacji internetu [Waglowski 2005]. Piotr Waglowski, z wykształcenia prawnik, bierze czynny udział w polskim Internecie115 od 1994 roku, a jego książka jest dokumentacją rozwoju problematyki prawnej związanej z siecią w Polsce. Jest rzeczą cha-rakterystyczną i ważną z naszego punktu widzenia, że jej autor, który z zasa-dy umieszcza podejmowane zagadnienia w kontekście społecznym, w ramach prawnych aspektów społeczeństwa informacyjnego nadaje im specjalny porzą-dek. Rozpoczyna swoją książkę od ogólnych zagadnień dotyczących istnienia sieci w regulowanym ładzie państwa, następnie przechodzi do bardziej szcze-gółowych kwestii, takich jak ochrona wartości, w tym szczególnie wolności i własności. Ta ostatnia kieruje go w stronę zagadnień rynkowych, obrotu go-spodarczego i konsumenta. Kończy kwestiami naruszeń prawa specyicznymi dla sieci, co z kolei stawia specjalne wymagania i pozwala rozwijać państwo-wy mechanizm prawny, obejmując państwo-wymiar sprawiedliwości i organa ścigania.

Waglowski, w ten sposób konstruując koncepcję swojego wywodu, poświadcza jednocześnie istnienie konglomeratu zagadnień, który tutaj staram się opisać jako środowisko.

114 Dzięki współpracy m.in. Uniwersytetu Harvarda i Uniwersytetu w Toronto istnieje przedsięwzięcie o nazwie OpenNet Initiative dokumentujące praktyki bezpieczeństwa i iltro-wania treści w Internecie podejmowane w świetle prawa i oicjalnie, oferujące bardzo szczegó-łowe i aktualne opisy takich działań. Więcej szczegółów, a także raporty z wynikami kwerend, jest dostępnych na stronie: http://opennet.net/ (dostęp: 9.12.2012).

115 Jego strona (a raczej zestaw stron) znajduje się pod adresem: http://www.vagla.pl/

(dostęp: 8.12.2012).

Komercjalizacja Internetu i jej kontekst