• Nie Znaleziono Wyników

Wątpliwości i niepokoje

Nie wszyscy podzielają zachwyt nad syndykacją treści. Jonathan Zittrain w książce The Future of the Internet – And How to Stop It zwraca uwagę na za-grożenie, jakie niesie zanurzanie się w gąszcz sieci, związane nieodłącznie z nie-ustannym akceptowaniem i uruchamianiem nieznanego kodu. Rozwija przy tym metaforę, którą posłużył się Microsoft wiele lat temu, aby to niebezpieczeństwo

93 Pojawiły się w niej słowa parafrazujące słynne przemówienie Martina Luthera Kinga („I have a dream...”): „Miałem marzenie dotyczące Web... miało ono dwie części. W pierwszej Web staje się jeszcze potężniejszym narzędziem współpracy ludzi. [...] W drugiej współpraca rozszerza się na komputery” [Berners-Lee 2000, 157 – tłumaczenie moje].

94 http://www.w3.org/Consortium/facts#people (dostęp: 31.10.2012).

95 Jego opis i specyikacja znajduje się na stronie: http://www.w3.org/RDF/ (dostęp:

9.09.2012).

96 Adres statystyki: http://www.syndic8.com/stats.php?Section=feeds#tabtable (dostęp:

9.09.2012) – problem polega na tym, że nie jest podana jej data i trudno być pewnym jej aktu-alności.

zilustrować, czyli obraz kanapki, której składniki trzeba uważnie kontrolować97.

„Strony internetowe są jak hamburgery”98 – pisze, podkreślając ich heteroge-niczny charakter (chodzi o zmieszanie mięsa z wielu krów w jednym kotlecie).

W tym kontekście pojawia się trzecia strona internetowej transakcji w wymia-nie treści, czyli kodu – dostawca treści syndykalizowanej (pierwsza to admini-strator strony internetowej, na której pojawia się ta treść, druga ‒ użytkownik, czwarta ‒ reklamodawca). Zittrain straszy, że RSS może dostarczać zarówno wiadomości, jak i ostatnie wersje atakującego oprogramowania [Zittrain 2008, 56]. Zagrożenie takie istnieje, choć współczesne przeglądarki oferują już mecha-nizmy pozwalające się do pewnego stopnia przed nim bronić.

Dużo bardziej ogólny i zasadniczy charakter mają natomiast uwagi Nicho-lasa Carra z jego cytowanej już tutaj książki The Big Switch. Jego wyobrażony twór, który nazwał World Wide Computer, już tutaj wspominany, posiada właś-ciwość komputera tradycyjnego: daje się programować. Wśród różnych konse-kwencji tego faktu zwraca uwagę także na mechanizm RSS, który opisuje jako jedną z korzystnych funkcji blogu, pozwalającą uaktualniać treści wpisywane przez autora automatycznie i niezwłocznie po stronie jego potencjalnych czy-telników, opisując jednocześnie, jak wiele innego typu przekazów poza tekstem staje się dostępnych [Carr 2008, 120]. Dopiero w rozdziale ósmym The Great Unboundling omawia proces, będący nie tyle skutkiem przenosin gazet do In-ternetu, na co zwraca przede wszystkim uwagę, ile skutków pojawiających się dzięki mechanizmom, które tym przenosinom towarzyszą. Tytułowe unbound-ling, czyli „odwiązanie”, polega na zburzeniu dotychczasowej logiki towarzyszą-cej przekazom medialnym. Czytelnik do tej pory dostawał zbiór artykułów, re-klam i innych elementów treści, przez który przedzierał się do interesujących go fragmentów. W wersji elektronicznej tymczasem pomija wszystko to, co go nie interesuje. W dodatku składnik komercyjny ukrywał się dotąd za zawartością, tymczasem teraz wskaźnikiem wartości staje się według Carra przede wszyst-kim atrakcyjność związanej z artykułem reklamy mierzona liczbą kliknięć [Carr 2008, 120]. Obydwa te procesy powodują podwójne „odwiązanie”: tekstu od jego otoczenia i treści od towarzyszącego jej składnika czysto merkantylnego.

Wskutek tego, jak pisze, trzeba się liczyć z bogactwem przekazów wprawdzie, ale niskiej jakości. Kultura wytwarzana przez World Wide Computer jest kulturą mierności [Carr 2008, 157]. Gazety nie są jedynymi przykładami tego procesu;

podobne zjawisko towarzyszy muzyce, czego przykładem jest kupowanie muzy-ki na utwory w sklepie Apple, ale przecież nie można zapomnieć także o me-chanizmie syndykacji treści, którym się tutaj zajmujemy. Wprawdzie Carr o nim nie wspomina w tym kontekście, ale to idealna realizacja „odwiązania”, w której odbiorca staje się wyłącznym redaktorem zestawu informacji, docierających do niego w postaci surowych strumieni danych.

97 „10 Immutable Laws of Security” (10 niezmiennych praw bezpieczeństwa), opubliko-wane na stronie: http://technet.microsoft.com/library/cc722487.aspx, dostęp: 9.09.2012).

98 „Web pages are like fast food hamburgers” [Zittrain 2008, 56].

Odwiązanie pojawiające się jako niebezpieczny, bo de facto odwracający uwagę od treści i wprowadzający jeszcze silniejszy bodziec merkantylny re-zultat rozpadu spoistości medium, było witane przez proroków cyberprze-strzeni takich jak Pierre Lévy z nadzieją. Molekularna natura przecyberprze-strzeni kultury i cywilizacji jest wyobrażeniem rozpadu, rozpowszechnienia, rozple-nienia oglądanego na poziomie abstrakcyjnej syntezy. Ich realizacja w rzeczy-wistości realnych bytów rodzi odmienne wnioski. Należy tutaj wspomnieć inny głos ostrzegający przed wieloma zagrożeniami wynikającymi z wyposażenia wszystkich w narzędzia zastrzeżone dotychczas dla fachowców, niweczące merytokratyczną kontrolę obiegu treści. Książka Andrew Keena Kult amatora.

Jak Internet niszczy kulturę ukazała się w 2007 roku, czyli w czasie, kiedy mi-nął już Wellmanowski utopijny zachwyt Internetem [Keen 2007]. Keen nie jest badaczem, lecz świadkiem i uczestnikiem drugiej konferencji nazywanej Foo Camp99. Konferencje te odbywają się od 2003 roku100 w siedzibie irmy O’Reilly Media na północy Kalifornii w małej miejscowości o nazwie Sebas topol, kilka-dziesiąt kilometrów od Doliny Krzemowej [Keen 2007, 33]. Ta, którą opisuje Keen, odbyła się 10–12 września 2004 roku i miała formę kempingu, tworząc miejsce, „gdzie kontrkultura lat 60. spotyka się z wolnym rynkiem lat 80. i tech-noilią lat 90.” [Keen 2007, 34]101. Jej „demokratyczny” charakter opierał się na antyzasadzie: „Żadnych widzów, sami uczestnicy” i stał się dla Keena esen-cją zagrożenia, które zarysowało się w sieci, nazwanego przez niego wprost:

„Publiczność i autor stali się jednym ciałem i zamieniają kulturę w kakofonię”

[Keen 2007, 35]. Książka zawiera przegląd dziedzin, w których szerzący się

„kult amatora” przynosi fatalne skutki; wśród nich znajdujemy także polemi-kę z omawianą tutaj koncepcją mądrości tłumów, zachwalaną entuzjastycz-nie przez wspominanego wcześentuzjastycz-niej Jamesa Surowieckiego [Keen 2007, 98]102. Niepokój Keena wywołuje również rewolucja dokonująca się w obrębie praw autorskich [Keen 2007, 136], a także proces, który ilustruje pomysłem Kevina Kelly’ego, nazwanym przez autora „płynną wersją książki”103. Kelly wzywa do

99 Słowo foo pochodzi z żargonu informatycznego i oznacza tzw. metasyntaktyczną zmienną (czyli prototyp zmiennej), samo ma charakter nonsensowny i nie odnosi się do żad-nego denotatu. Jego wykładnię zawiera RFC 3092 (Request for Comments – jeden z tysięcy do-kumentów tworzących bazę standardów i rozwiązań stosowanych w Internecie) pod adresem:

http://www.ietf.org/rfc/rfc3092.txt (dostęp: 20.09.2012).

100 Według strony Lanyrd.com: http://lanyrd.com/topics/foo-camp/past/ (dostęp: 20.09.

2012).

101 Opis tego przedsięwzięcia znajduje się na stronie http://wiki.oreillynet.com/

foocamp04/index.cgi (dostęp: 20.09.2012).

102 Podobne niepokoje pojawiają się we wcześniejszym tekście z 2002 roku Ryszarda Ta-deusiewicza, który pisze o „efekcie chęci i skłonności do autoekspresji”, mającym potencjalnie negatywne skutki w postaci „zaśmiecenia” sieci. Jego przyczyną jest „próżność internautów, którzy lubią «zaistnieć» w Sieci, chociaż często absolutnie nie mają do tego żadnych podstaw”

[Tadeusiewicz 2002, 54].

103 Przedstawiony w jego tekście, opublikowanym 14 maja 2006 roku w dzienniku „The New York Times” Scan this book!, dostępnym w sieci pod adresem http://www.nytimes.

com/2006/05/14/magazine/14publishing.html?_r=4pagewanted=all& (dostęp: 20.09.2012).

skanowania książek, które w postaci cyfrowej stają się ujednoliconym hiper-tekstem. Tak powstałą masę można następnie, według Keena, arbitralnie dzie-lić na dowolne części, zaniedbując źródłowe całości i zrównując w ten sposób Dostojewskiego z siedmioma krasnoludkami, dokonując nowych kompilacji, wyborów itd. [Keen 2007, 70]. W tym wniosku uprzedza podobne niepokoje żywione przez Nicholasa Carra, referowane przed chwilą.

Obszerny tekst Kelly’ego nie jest jednak wyłącznie pochwałą utopii; skano-wanie książek widzi on jako rodzaj moralnej powinności wynikającej z relatyw-nie relatyw-niewielkiej ich dostępności dla szerokiej publiczności. Na tym tle omawia projekt Google Books, wspominany już tutaj i szeroko opisany przez Randalla Strossa w książce Planeta Google w rozdziale pod znaczącym tytułem Księży-cowy plan [Stross 2009, 121]. Ten proces jednak postępuje mimo wielu prob-lemów technicznych, prawnych i inansowych. Polemika Keena i inne podob-ne do niej publikacje, takie jak Nicholasa Carra, to nowe, krytyczpodob-ne analizy fenomenu Internetu nie tylko i nie przede wszystkim w sensie akademickiej dyskusji; przeciwnie, są nasycone przykładami, a ich zacięcie ma charakter reportażowy czy dokumentacyjny. Odsłaniają pewne praktyczne skutki funk-cjonowania, które mają walor bezcenny, ponieważ uzupełniają obraz sieci jako rzeczywistego środowiska. Nie jest rzeczą tego tekstu rozsądzać racje, które z pewnością kryją się po obu stronach, ale ukazać burzliwość tego środowiska i napięcia, jakie się w nim kryją.