• Nie Znaleziono Wyników

Regulacja poprzez stanowienie standardów technicznych

W dokumencie Lex informatica, 281 s. (Stron 149-155)

– REGULACJA TYPU PONOWOCZESNEGO

2. Regulacja poprzez stanowienie standardów technicznych

Ustalanie standardów dla protokołów transmisji danych w sieciach komputerowych należy do tej klasy sytuacji, w których projektowanie reguł działania systemu urządzeń technicznych staje się formą sterowania zachowaniem użytkowników tego systemu. Regulacja tego rodzaju spełnia kryteria defi nicyjne przyjęte dla legis informatica319. Historia Internetu

dowodzi, że procesy standaryzacji mogą skutecznie postępować w ramach organizacji nieposiadających formalnego umocowania prawno–politycznego. Była to od samego początku domena specjalistów, uczonych i inżynierów. Jedyne kryterium udziału w ich pracach stanowiła możliwość wykazania się wymaganą wiedzą i umiejętnościami320 Przez kilkadziesiąt lat nowe standardy opracowywane były w trakcie nieformalnych narad i spotkań grup eksperckich o zmiennym i otwartym składzie osobowym.

Zasięg stanowionych w ten sposób reguł sięgał wszędzie tam, gdzie docierały odgałęzienia Sieci. Joel R. Reidenberg uznał to zjawisko ze zwia-stun nowego „technicznego paradygmatu regulacji”, który w odróżnieniu od paradygmatu politycznego zakłada prymat granic Sieci nad granicami państw. W dobie informacjonizmu ekspansja „regulacji technicznej”

obej-319 Daniel Benoliel słusznie zauważa, że nazbyt często standaryzacja jest ignorowana literaturze prawno–politologicznej jako domena czysto techniczna, podczas gdy pełni ona doniosłą społecznie rolę regulatora zachowań. Por. tenże, Cyberspace Technological Standarization: An Institutional Theory Retrospective, „Berkeley Technology Law Journal” vol. 18, 2003, s. 1261.

320 Por. J. Reynold, J. Postel, The Request of Comments Reference Guide, Network Working Group RFC 1000 (dostępne pod adresem: http://ietf.org.rfc/rfc1000.txt).

Część druga. Regulacja Internetu na przełomie XX i XXI wieku

— 150 —

mowała kolejne aspekty funkcjonowania Internetu, przez co rozszerzała się na kolejne obszary życia społecznego321.

Odkąd Internet uniezależnił się od rządu USA w połowie lat dziewięć-dziesiątych, każdy zainteresowany mógł tworzyć kolejne węzły międzysieci. Ustały wszelkie ograniczenia podmiotowe jak i te wynikające z fi nansowania systemu ze środków publicznych. Każda lokalna sieć mogła stać się częś-cią Internetu pod warunkiem, że jej konfi guracja odpowiadała wymogom zapisanym w protokołach transmisji danych. Dotyczyło to w równym stopniu nowo tworzonych węzłów o przeznaczeniu komercyjnym, jak i niekomercyjnym, publicznym i prywatnym.

Mimo zwiększającego się i różnicującego grona użytkowników Inter-netu łączył ich konsensus co do potrzeby zachowania interoperatywności poszczególnych części systemu, a także jego funkcjonalności. Wzrastało społeczne znaczenie procesów decyzyjnych w obrębie technicznych i or-ganizacyjnych funkcji systemu. Powstała konieczność koordynacji w skali globalnej wysiłków na rzecz rozwoju protokołów komunikacyjnych i innych specyfi kacji ogólnych.

Kluczowa rola w realizacji tej misji przypadła Internet

Enginee-ring Task Force (IETF), tj. niezależnej od ośrodków władzy politycznej

jednostce, w której skład weszli uznani eksperci z zakresu informatyki i telekomunikacji322. Metody stanowienia standardów technicznych w ra-mach IETF uwzględniają specyfi kę Internetu, tj. głęboką decentralizację systemu, brak jednego ośrodka decyzyjnego oraz potrzebę rozwiązywania problemów na możliwie jak najniższym szczeblu. Nieofi cjalnym credo zespołu stały się słowa przypisywane Davidowi Clarkowi z Massachusetts

Institute of Technology: “We reject kings, presidents, and voting. We believe

321 J.R. Reidenberg, Rules of the Road for Global Electronic Highways: Merging the Trade and Technical Paradigm, „Harvard Journal of Law & Technology”, vol. 6, 1992–1993, s. 296– 301.

322 Praktykę działania IETF opisuje Paulina Borsook, How Anarchy Works? On location with the Masters of the Metaverse, the Internet Engineering Task Force, „Wired” 3.10 1995. Por. także The In-ternet Standards Process – Revision 2, Network Working Group RFC 1602 (dostępne pod adresem: http://ietf.org.rfc/rfc1602.txt).

III. Lex informatica – regulacja typu ponowoczesnego

— 151 —

in rough consensus and running code”323. Mimo wyodrębnienia w

struk-turze wewnętrznej zarządu (steering group) i grup roboczych (working

groups)324 IETF nigdy nie przekształciło się w organizację hierarchiczną. Jego otwarta i zdecentralizowana struktura opiera się na pracy wolonta-riuszy, wśród których dominuje nieformalna forma koordynacji działań. Jednym z podstawowych zadań statutowych IETF jest rozpoznawanie i rozwiązywanie najpilniejszych operacyjnych i technicznych problemów Internetu, poprzez sporządzanie specyfi kacji rozwoju i sposobu użycia protokołów komunikacyjnych oraz architektoniki Sieci325.

Za formalne źródło tworzonych reguł można uznać wydawane przez IETF dokumenty, tzw. Request for Comments (skrót: RFC), czyli cykliczne memoranda, zapisy rozważań i dyskusji obejmujące rezultaty badań, inno-wacje i metodologie, znajdujące zastosowanie w technice internetowej326. Każdy dokument uzyskuje niepowtarzalny numer seryjny i jest zapisywany w specjalnym archiwum. Udoskonalonym wersjom wcześniejszych RFC na-dawane są nowe oznaczenia. Funkcjonowanie archiwum RFC przypomina dziennik promulgacyjny, seryjne wydawnictwo, w którym niektóre zapisy obowiązują, podczas gdy inne są uchylane albo zmieniane.

Treściom zawartych w niektórych RFC nadawany jest status szczególny. Określane są jako „Standardy Internetu”. Proces ich formowania składa się z kilku etapów. Tzw. „ścieżka powstawania standardu” rozpoczyna się od wszechstronnego rozważania zgłaszanych wniosków przez powołaną w tym celu grupę roboczą. Jeżeli w ramach grupy uda się osiągnąć

po-323 „Niepełny konsensus” – polega on na „ucieraniu” opinii, czyli poszukiwaniu dominujących poglądów wśród grupy osób podejmujących decyzję przy niezwykle uważnym analizowaniu głosów przeciwnych.

324 Najważniejsze grupy robocze IETF obejmują kwestie: Applications Area, Internet Area, Operations & Management Area, Routing Area, Security Area, Transport Area.

325 RFC 3160 „The Tao of IETF”. Dostępne: http://www.ietf.org/tao.html.

326 Ich wydawaniem zajmuje się redaktor RFC, który odpowiada nie tylko za formatowanie i publikację ale również prowadzi archiwum „Próśb o komentarz”. Udział w wykonywaniu tych zadań ma Internet Society (ISOC), organizacja zrzeszająca użytkowników Internetu, aspirująca do pełnienia funkcji reprezentanta interesów tej społeczności na arenie międzynarodowej, a także organizująca materialne podstawy funkcjonowania IETF.

Część druga. Regulacja Internetu na przełomie XX i XXI wieku

— 152 —

rozumienie (według zasady tzw. rough consensus), propozycja standardu może uzyskać status projektu (draft stadnard), o czym ostatecznie roz-strzyga steering group. Następnie draft przechodzi czteromiesięczny okres testów, po którym może zostać opublikowany jako Internet Standard, czyli tzw. pełny standard Internetu. Standardy tworzone w ramach IETF można zakwalifi kować jako standardy de iure, a jednocześnie standardy niekomercyjne, o jawnym (co do zasady) kodzie źródłowym, tworzone z intencją doskonalenia techniki327. Standardy takie, po ich opublikowa-niu, stają się częścią domeny publicznej.

Standardy publikowane w formie RFC nie pełnią jedynie funkcji sugestii, zalecenia, głosu w dyskusji, których naruszenie nie pociągają za sobą żadnych konsekwencji. Istnieje wiele organizacji zajmujących się czuwaniem nad tym by kluczowe Standardy Internetu były honorowane przez użytkowników. Podmioty lub „miejsca” w Sieci, które nie podpo-rządkowują się tym zaleceniom mogą trafi ć na tzw. czarne listy (black

lists). Dane osób lub instytucji niestosujących się do wymogów RFC są

ujawniane publicznie. W komentarzu dodanym do jednej z tego rodzaju list zapisano: „należy zauważyć, że nikt nie ma obowiązku stosowania się

do RFC, jednakże »kooperatywna interoperatywność«, warunkująca prze-trwanie Sieci, wymaga, żeby każda jej część funkcjonowała na podstawie tych samych reguł technicznych”. Umieszczenie na liście samo w sobie

nie tworzy blokady komunikacyjnej, służy jedynie rejestracji tych, którzy postanowili nie implementować protokołów opisanych w dokumentach

Request for comments. Każdy użytkownik lub operator systemu może

samodzielnie podjąć decyzję, czy nadal chce komunikować się z systemami wyłamującymi się od ustalonego standardu328.

Kolejne węzły Sieci powstają w sposób niekontrolowany i spontaniczny. Jednakże niezachowanie zgodności z przyjętymi standardami technicznymi może doprowadzić do wykluczania „odstępców” z globalnego systemu. Wielu

327 Ich przeciwieństwem będą standardy de facto tworzone w ramach przemysłu, przez podmioty ukierunkowane na odniesienie indywidualnej korzyści materialnej. Standardy te mają zazwyczaj utajniony kod źródłowy. Por. D. Benoliel, Cyberspace…, s. 1284.

III. Lex informatica – regulacja typu ponowoczesnego

— 153 —

operatorów sieci lokalnych nie akceptuje transmisji danych pochodzących od lub skierowanych do osób ignorujących technologiczne uzgodnienia (tzw. RFC ignorants). Wiadomości wysyłane do takich lokalizacji często nie trafi ają do miejsc przeznaczenia. Tworzenie „czarnych list” ma z założenia utrudnić życie osobom i instytucjom, które rozpowszechniają spam lub wirusy komputerowe albo podejmują inne nieakceptowane działania. Te kategorie podmiotów najczęściej ignorują standardy RFC329. Używanie innych, niż ustalone przez IETF standardów stwarza ryzyko, że liczba użytkowników, z którymi możliwa będzie interakcja ulegnie drastycznemu zmniejszeniu. Z kolei zastosowanie się do nich maksymalizuje potencjalny zasięg komunikacji (connectivity).

Wraz z postępującym wzrostem ilości nowych użytkowników indy-widualnych, szybko okazało się, że standaryzacja techniczna jest tylko pozornie neutralna względem sfery polityki i gospodarki330. Przykład tego typu sytuacji podaje Kathy Bowrey, autorka książki pt. „Prawo i kultury

Internetu”. Opisuje ona przypadek, gdy na „czarną listę” trafi ła cała

kla-sa adresów internetowych przeznaczona dla biznesu australijskiego, tj. domena „com.au”331. W konsekwencji, wielu operatorów z całego świata wstrzymało komunikację z tymi adresami, traktując ich jako potencjalnych naruszycieli standardów Sieci. Transmisje danych kierowane do i od klien-tów australijskich fi rm nie docierały do adresaklien-tów. Stworzyło to poważne perturbacje wśród przedsiębiorców, ponieważ wielu z nich uczyniło Internet głównym medium dla reklamy i promocji swoich towarów i usług, a często również podstawowym kanałem komunikacji z rynkiem. Zagrożona została egzystencja całej gałęzi gospodarki narodowej w postaci usług elektronicz-nych, gałęzi głęboko uzależnionej od stałego dostępu do Sieci. Powodem „odcięcia” domeny „com.au” było naruszenie przez kilka australijskich instytucji rejestrujących adresy domenowe wytycznych jednego ze

standar-329 K. Bowrey, Law and Internet Cultures, Cambridge 2005, s. 3. 330 J. Abbate, Inventing the Internet, Cambridge, Mass. 1999, s. 147.

331 W narodowej domenie autralijskiej.au, organizacje komercyjne rejestrują się w subdomenie generycznej „com”. Każdy adres tam zarejestrowany ma powstać xxx.com.au.

Część druga. Regulacja Internetu na przełomie XX i XXI wieku

— 154 —

dów Internetu. Standard ten (opisany w dokumencie RFC 954 NICKNAME/

WHOIS, z października 1985 roku) ustalał, że każdy podmiot, który rejestruje

dla siebie adres domenowy powinien udostępnić publicznie dane o swojej tożsamości, w tym dane kontaktowe. Australijskie instytucje rejestrujące, powołując się na własną politykę ochrony prywatności zablokowały do tych danych dostęp. Zostało to uznane za naruszenie globalnego standardu Sieci, mogące zagrozić jej funkcjonalności i interoperatywności. Wyciągnięte surowe konsekwencje spowodowały wniesienie do IETF petycji o rozważenie przeprowadzenia zmiany standardy RFC 954332. Przykład ten ilustruje w jaki sposób standardy techniczne wkraczają w sferę prawno–polityczną i jak wzrasta ich znaczenie wraz z pogłębianiem się zależności społeczeństw od nowych globalnych technik. Podobny charakter mają dokumenty RFC mówiące o wykluczeniu kwestii inwigilacji elektronicznej z zakresu działania IETF333, czy też opowiadające się za szeroką dopuszczalnością stosowania technik kryptografi cznych, służących rozwojowi gospodarki elektronicznej i ochronie prywatności użytkowników334.

Bardzo szybki rozwój technik internetowych był początkowo wyni-kiem pracy światowej klasy specjalistów prowadzonej w trybie royalty free. Uczestnicy tego procesu dobrowolnie rezygnowali z wynagrodzenia za swój wkład intelektualny, nie zgłaszali też dokonywanych w trakcie pracy wynalazków w celu uzyskania na nie patentów, mimo że dawałoby to im prawo wyłącznego z nich korzystania w sposób zarobkowy. To podejście stało się swego rodzaju zwyczajem. Stąd, w początkowym okresie, warun-kiem koniecznym dla nadania danemu rozwiązaniu technicznemu statusu Standardu Internetu było to, aby nie pozostawał on pod chronioną praw własności intelektualnej gwarantujących jednemu podmiotowi wyłączność (proprietary standard)335.

332 K. Bowrey, op.cit., s. 4–7.

333 Policy on wiretapping, RFC 2804 (dostępny pod adresem: http://www.ietf.org/rfc/rfc2804.txt). 334 RFC 1984 (dostępny pod adresem: http://www.ietf.org/rfc/rfc1984.txt).

335 A.M. Froomkin, Habermas@discourse.net: Toward a Critical Theory of Cyberspace, „Harvard Law Review”, vol. 116, no. 3, 2003, s. 795.

III. Lex informatica – regulacja typu ponowoczesnego

— 155 —

Z biegiem czasu zaczęło się zarysowywać stopniowe uzależnianie należących do legis informaticae standardów od systemu praw własności intelektualnej chronionych przez aparat państwowy. Potwierdza to tezę o, co najwyżej, względnej autonomii legis informaticae. IETF stanęła wobec poważnego dylematu. Ci, którzy mogliby w największym stopniu przy-czynić się do rozwoju technik Internetu funkcjonowali w systemie zakła-dającym ochronę praw własności intelektualnej, np. byli zatrudnionymi w wielkich korporacjach. Doszło do zderzenia pomiędzy etosem royalty

free – pracy opartej na współdziałaniu i otwartości oraz prawem własności

intelektualnej, w szczególności prawem patentowym, którego założeniem jest istnienie konkurencji wynalazców, gdzie zwycięzca uzyskuje mono-pol. IETF zmuszone było dokonać wyboru: albo zachować bezwzględną zasadę otwartych (jawnych) standardów, choćby były one nie najwyższej jakości, albo też wybierać najlepsze rozwiązania, nawet jeżeli łączyłoby się to z „uwikłaniem” w prawa własności intelektualnej336.

Na poziomie standardów określających protokoły transmisji danych

lex informatica opiera się na sieciowej fi lozofi i koordynacji działań.

Stan-dardy techniczne ustalane są w drodze dyskursu, przy braku jednego, ofi cjalnego organu nadzoru nad ich przestrzeganiem i występowaniem wielu niezależnych podmiotów testujących i dokumentujących odstęp-stwa. Egzekucja przebiega w trybie „sankcji rozproszonych”, ale jest przy tym wystarczająco skuteczna. Polega na zastosowania środków technicznych (pozanormatywnych), czyli odpowiedniej manipulacji „kodem” Internetu.

W dokumencie Lex informatica, 281 s. (Stron 149-155)