• Nie Znaleziono Wyników

Widok Koniec wirtualności — metody cyfrowe

N/A
N/A
Protected

Academic year: 2021

Share "Widok Koniec wirtualności — metody cyfrowe"

Copied!
28
0
0

Pełen tekst

(1)Acta Universitatis Wratislaviensis No 3487. Prace Kulturoznawcze XV Wrocław 2013. Richard Rogers. Koniec wirtualności — metody cyfrowe Wykład inauguracyjny wygłoszony w Katedrze Nowych Mediów i Kultury Cyfrowej Uniwersytetu Amsterdamskiego, 8 maja 2009 roku. Usytuowanie metod cyfrowych w badaniach internetowych Przyjmuje się istnienie ontologicznej różnicy między rdzennie cyfrowym (natively digital) a zdigitalizowanym (digitized), to znaczy między obiektami, treścią, urządzeniami i środowiskami, które „narodziły się” w nowym medium, a tymi, które do niego „wyemigrowały”. Czy obecne metody badawcze powinny się zmienić, częściowo bądź w całości, zważywszy na skupienie uwagi na obiektach i treści medium? Proponowany przeze mnie dalej program badawczy dotyczy „wirtualnych metod”, które wykorzystują standardowe metody nauk społecznych i humanistycznych. Podział na rdzennie cyfrowe i zdigitalizowane można także odnieść do obecnych metod badawczych. Jaki rodzaj badań może być prowadzony przy użyciu zdigitalizowanych metod (jak ankiety online i katalogi), a jaki przy użyciu tych, które są rdzennie cyfrowe (jak systemy rekomendacji i folksonomie)? Po drugie, proponuję, aby badania internetowe prowadzić w nowy sposób, kładąc nacisk na rdzennie cyfrowe metody badawcze w miejsce zdigitalizowanych. Sugeruję przeniesienie uwagi z możliwości dostarczanych przez zmianę farby drukarskiej w bity na dociekanie, jak badania z wykorzystaniem Internetu mogą wyjść poza studia nad kulturą online. W jaki sposób zachowywać i analizować hiperłącza, tagi, wyniki wyszukiwarek internetowych, zarchiwizowane strony internetowe i inne obiekty cyfrowe? Jak wiele można się nauczyć z tego, w jak sposób urządzenia online (na przykład wyszukiwarki i systemy rekomendacji) używają obiektów i jak te sposoby mogą być wykorzystane w badaniach społeczeństwa i kultury? Ostatecznie, wprowadzając pojęcie „uzasadnienia online” (online gro-. Prace Kulturoznawcze 15, 2013 © for this edition by CNS. PK15.indb 313. 2013-10-30 11:16:42.

(2) 314. Richard Rogers. undedness), proponuję praktykę badawczą, która uzasadnia twierdzenia o zmianie kulturowej i warunkach społecznych w dynamice online. Moim ogólnym celem jest rewizja metod badań internetowych, możliwa dzięki rozwinięciu nowej gałęzi badań — metod cyfrowych. Dotychczas metody wykorzystywane w badaniach internetowych służyły krytyce uporczywej wizji Internetu jako osobnej wirtualnej dziedziny rzeczywistości. Podejście takie wyrosło z dyskursu na temat rzeczywistości wirtualnej z okresu późnych lat 80. i wczesnych 90., w którym Internet stanowił wirtualną dziedzinę mającą szansę zredefiniować świadomość, tożsamość, cielesność, wspólnotowość, obywatelskość i politykę ruchów społecznych1. W istocie, w 1999 roku, w jednej z pierwszych prób syntezy badań internetowych, badacz komunikacji Steve Jones zachęcał innych badaczy do wyjścia poza perspektywę postrzegania Internetu jako osobnej dziedziny rzeczywistości, otwierając tym samym dyskusję na temat metodologii2. Jak przedstawiciele nauk społecznych mieliby badać Internet, jeśli nie opierając się na dotychczasowych podejściach: interakcji człowiek–komputer, psychologii społecznej i studium cyberkulturowym?3 W przełomowej pracy na temat korzystania z Internetu w Trynidadzie i Tobago etnografowie Daniel Miller i Don Slater zakwestionowali koncepcję cyberprzestrzeni jako osobnej dziedziny, w której każdy, niezależnie od lokalizacji, doświadczał jej przekształcających tożsamość udogodnień4. Slater i Miller uzasadnili Internet, pokazując, jak Trynidadczycy dopasowali medium do własnych kulturowych praktyk. Chociaż ich praca stanowiła studium przypadku, jej nadrzędną wartością była możliwość uogólnień. Jeśli Trynidadczycy, używając Internetu, realizowali swoją kulturę, to przedstawiciele innych kultur prawdopodobnie robią to samo. Ważny program badawczy Virtual Society? (1997–2002), wyjaśniając — w licznych badaniach empirycznych poświęconych użytkownikom Internetu — transformatywne możliwości cyberprzestrzeni, stał się kolejnym punktem zwrotnym w rozwoju badań internetowych. Umożliwił on sformułowanie pięciu 1 J.P. Barlow, A Declaration of the Independence of Cyberspace, Davos 1996, http://homes.eff. org/~barlow/Declaration-Final.html (dostęp: 28 stycznia 2009); M. Benedict, Cyberspace: Some proposals, [w:] Cyberspace — First Steps, red. M. Benedict, Cambridge 1991; J. Dibbel, My Tiny Life: Crime and Passion in a Virtual World, New York 1998; H. Rheingold, Virtual Reality: Exploring the Brave New Technologies, New York 1991; idem, The Virtual Community: Homesteading on the Electronic Frontier, Reading, MA, 1993; S. Shaviro, Money for nothing: Virtual worlds and virtual economies, [w:] Virtual Worlds, red. M. Ipe, Hyderabad 2008; A.R. Stone, The War of Desire and Technology at the Close of the Mechanical Age, Cambridge 1995; S. Turkle, Life on the Screen: Identity in the Age of the Internet, New York 1995. 2 S. Jones, Studying the Net: Intricacies and issues, [w:] Doing Internet Research: Critical Issues and Methods for Examining the Net, red. S. Jones, London 1999. 3 C. Hine, Virtual Ethnography, London 2000. 4 D. Miller, D. Slater, The Internet: An Ethnographic Approach, Oxford 2000.. Prace Kulturoznawcze 15, 2013 © for this edition by CNS. PK15.indb 314. 2013-10-30 11:16:42.

(3) Koniec wirtualności — metody cyfrowe. 315. „zasad wirtualności”5. W tej, obecnie należącej do klasyki, krytyce cyfrowego podziału, badacze dowodzili, że wykorzystywanie nowych mediów jest zależne od sytuacji użytkownika (kwestia dostępu), związane zaś z tym obawy i zagrożenia są nierówno rozdzielone (kwestia umiejętności). Jeśli chodzi o związek między rzeczywistością a wirtualnością, to wirtualne interakcje raczej uzupełniają niż zastępują „rzeczywistość” i stymulują więcej rzeczywistych interakcji, aniżeli prowadzą do izolacji i osamotnienia. Wreszcie, badania pokazały, że tożsamości są uzasadnione zarówno online, jak i offline. Co istotne, autorzy programu zdecydowali się na metody, określane mianem wirtualnych, wraz z narzędziami służącymi badaniu użytkowników. Ankiety, wywiady, obserwacja i obserwacja uczestnicząca stały się preferowanymi metodami badań. W naukach humanistycznych kolejne badania użytkowników (user studies), koncentrujące się na amatorze, fanie i „prosumencie” (produser) także borykają się z podziałem na rzeczywistość i wirtualność, usiłując przedstawić i poddać krytyce wynikający z wykorzystania systemów reputacyjnych status kultury online6. Dowodzę tutaj, że wirtualne metody i badania użytkowników w naukach społecznych i humanistycznych, odwracając uwagę od pochodzących z medium d an y ch, umożliwiają badania czegoś znacznie większego od kultury online. Jak zatem powinny wyglądać badania użytkowników, wykorzystujące rutynowo gromadzone przez oprogramowanie dane? Dotychczasowo opierały się one na źródłach uprzywilejowujących obserwacje, wywiady i ankiety. Wynikało to z jednej strony z różnicy między sposobami wykorzystywania komputerów (computing) w naukach społecznych i humanistycznych i niezwykłych osiągnięć dużych firm komercyjnych w zakresie gromadzenia danych — z drugiej. W pewnym sensie Google, Amazon i wiele innych czołowych internetowych urządzeń już prowadzi badania użytkowników, jakkolwiek ich się tak nie nazywa w tym kontekście. Wprowadzane przez użytkowników dane (preferencje, historia wyszukiwania, historia zakupów, lokalizacja) są zachowywane i analizowane w celu dopasowywania odpowiednich wyników. Pod wpływem takich działań teoretyk nowych mediów Lev Manovich ogłosił metodologiczny zwrot w badaniach internetowych, przynajmniej pod względem gromadzenia danych. Wprowadzając zainspirowane Google Analytics pojęcie cultural analytics, zaproponował budowę gigantycznej bazy danych, przechowywanie i urządzenia analityczne umożliwiające wykorzystywanie komputerów w humanistyce7. Jedną 5. S. Woolgar, Five rules of virtuality, [w:] Virtual Society? Technology, Cyberbole, Reality, red. S. Woolgar, Oxford 2002. 6 H. Jenkins, Convergence Culture: Where Old and New Media Collide, New York 2006; A. Keen, The Cult of the Amateur: How Today’s Internet is Killing Our Culture, London 2007; A. Bruns, Blogs, Wikipedia, Second Life, and Beyond: From Production to Produsage, New York 2008. 7 L. Manovich, Cultural analytics, [niepubl.], 2007, http://www.manovich.net/cultural_analytics.pdf (dostęp: 28 stycznia 2009).. Prace Kulturoznawcze 15, 2013 © for this edition by CNS. PK15.indb 315. 2013-10-30 11:16:42.

(4) 316. Richard Rogers. z charakterystycznych cech tego metodologicznego zwrotu jest jego wyraźne odejście od opierania się na wynegocjowanym dostępie do zbiorów komercyjnych danych (na przykład zapytań użytkowników wyszukiwarki firmy AOL, aktywności milionów użytkowników Second Life należącego do Linden Lab czy graczy EverQuest firmy Sony), jakkolwiek wartościowe były uzyskiwane w ten sposób wyniki8. Cultural analytics, jak również to, co zostało nazwane obliczeniową nauką społeczną (computational social science) mają charakter „wielkiej nauki” [w języku angielskim określenie big science odnosi się do wielkich, rozbuchanych i kosztownych projektów naukowych — przyp. tłum.]9; „Wizualizacje powinny być tak zaprojektowane, aby w pełni wykorzystywać największe obecnie dostępne gigapikselowe monitory wielkości ściany”10. W pewnym sensie programy badań są odpowiedzią środowiska naukowego na pytanie: „Co zrobiłoby Google?”. Można by je umieścić w szerszym kontekście zakresu i skutków „googlizacji” (googlization). Jej dotychczasowa krytyka, która powstała w reakcji na metaforyczne wkroczenie firmy-wyszukiwarki do biblioteki (projekt Google Books), zajęła się wzrostem „podglądactwa” Google’a, jego modelem biznesowym i estetyką w zakresie przemysłów informacji i wiedzy11. Zwłaszcza bibliotekoznawcy zajmują się zmieniającym locus dostępu do informacji i wiedzy (z publicznych półek na komercyjne serwery). „Efekty Google” mogą być także charakteryzowane w kategoriach wypierania surfowania i przeglądania przez wyszukiwanie. Mogą też być omawiane w kategoriach spadku znaczenia specjalistycznego edytora na rzecz algorytmu back-end, tematów, do których jeszcze powrócę. Teraz jednak najważniejsze jest to, że mogą one być omawiane w kategoriach modeli badań — czyli takich badań, które dążyłyby do odtworzenia zarówno skali gromadzenia danych, jak i analizy. Propozycja, jaką tutaj przedstawiam, jest znacznie bardziej skromna, jednak pozostająca w zgodzie z tym, co określa się mianem rejestracyjnych podejść do badań użytkowników. Urządzenia online i oprogramowanie zainstalowane w komputerze (na przykład przeglądarki) rejestrują codzienną aktywność internautów. Historie przeglądania mogą być sposobem jej badania. Co ważniejsze, gromadzenie danych w ramach przedstawionego tu metodologicznego zwrotu 8 N. Contractor, Digital Traces: An Exploratorium for Understanding and Enabling Social Networks, presentation at the annual meeting of the American Association for the Advancement of Science (AAAS) 2009. 9 D. Lazer et al., Computational Social Science, „Science” 323, 2009. 10 L. Manovich, Software Takes Command, [niepubl.], 2008, http://www.manovich.net/ (dostęp: 10 kwietnia 2009). 11 J.-N. Jeanneney, Google and the Myth of Universal Knowledge, Chicago 2007; S. Vaidhyanathan, Where is this book going?, The Googlization of Everything Blog, 25 September 2007, http:// www.googlizationofeverything.com/2007/09/where_is_this_book_going.php (dostęp: 22 grudnia 2008); R. Rogers, The googlization question, and the inculpable engine, [w:] Deep Search: The Politics of Search Engines, red. F. Stalder, K. Becker, Edison, NJ, 2009.. Prace Kulturoznawcze 15, 2013 © for this edition by CNS. PK15.indb 316. 2013-10-30 11:16:42.

(5) Koniec wirtualności — metody cyfrowe. 317. może skorzystać z faktu, że wykorzystywanie komputerów zapewnia techniki, które mogłyby znaleźć zastosowanie w badaniach. Z tego powodu proponuję przede wszystkim rozważyć kwestię dostępności tychże t ech n i k. Chciałbym przedstawić nową epokę w badaniach internetowych, które już nie zajmują się podziałem na rzeczywistość i wirtualność. Chodzi o zmianę rodzaju pytań zadawanych w badaniach internetowych. Internet jest bowiem terenem badań czegoś znacznie większego niż ty l k o kultura online. Pytanie zatem nie brzmi już: jak duża część społeczeństwa i kultury znajduje się online?, lecz raczej: jak zdiagnozować zmianę kulturową i warunki społeczne, używając Internetu? Punktem wyjścia niniejszego programu badawczego jest uznanie, że Internet to nie tylko przedmiot badania, lecz także jego źródło. Na podstawie danych zgromadzonych i zanalizowanych przez takie urządzenia jak wyszukiwarki można wysnuwać prawomocne wnioski. Jednym z bardziej znaczących przykładów jest Google Flu Trends, niekomercyjny (Google.org) projekt rozpoczęty w 2008 roku, który przewiduje lokalne epidemie grypy na podstawie liczby zapytań w wyszukiwarce dotyczących grypy, objawów grypy i pokrewnych haseł, a następnie „geolokalizuje” miejsca, z których one pochodziły. Tym samym Google Flu Trends podważa istniejące metody gromadzenia danych (raporty izb przyjęć) i ponownie otwiera dyskusje na temat sieci jako medium prognostycznego, znacznie bliższego otaczającemu światu, niż może się wydawać12. Skąd wywodzą się „uzasadniona sieć” i związane z nią geolokalizacyjne praktyki badawcze? „Końca cyberprzestrzeni” jako nieumiejscowionej (placeless) przestrzeni (używając określenia Manuela Castellsa) można się doszukiwać w technicznych skutkach słynnego pozwu sądowego, wniesionego przeciw Yahoo w 2000 roku we Francji przez dwie organizacje pozarządowe13. W tamtym czasie francuscy internauci mieli dostęp do nazistowskich stron na Yahoo.com w Stanach Zjednoczonych, owe organizacje zaś chciały, aby strony te były we Francji zablokowane. Technologia geolokalizacji z wykorzystaniem adresu IP została opracowana specjalnie do przekazywania treści w danym kraju w celu kierowania treści do danych krajów; obecnie po wpisaniu do przeglądarki we Francji „google. com”, domyślnie otrzymujemy „google.fr”. To „uzasadnianie” sieci zostało wdrożone przez takie duże organizujące treści projekty, jak Google, Microsoft Live i YouTube; telewizja online jest także dostarczana geograficznie. Prace diagnostyczne jak Google Flu Trends, dzięki którym twierdzenia na temat warunków społecznych są formułowane na podstawie obserwacji praktyk internetowych, prowadzą do opracowywania nowych teoretycznych pojęć. W trzeciej epoce badań internetowych program metod cyfrowych wprowadza pojęcie 12. R. Rogers, The Viagra Files: The Web as anticipatory medium, „Prometheus” 21 (2), 2003. M. Castells, The Information Age: Economy, Society and Culture — The Rise of the Network Society, Malden, MA, 1996: J. Goldsmith, T. Wu, Who Controls the Internet? Illusions of a Borderless World, Oxford-New York 2006; R. Rogers, The politics of Web Space, [niepubl.], 2008. 13. Prace Kulturoznawcze 15, 2013 © for this edition by CNS. PK15.indb 317. 2013-10-30 11:16:42.

(6) 318. Richard Rogers. uzas adnienia online, w celu konceptualizacji badań, które podążają za medium, są zdolne uchwycić jego dynamikę i uczynić zasadne twierdzenia o zmianie kulturowej i społecznej. W istocie nadrzędnym teoretycznym celem metod cyfrowych jest przedefiniowanie związku między siecią a otaczającym światem. Uczestnicy brytyjskiego programu Virtual Society? — tak jak wcześniej etnografowie — musieli w celu zbadania sieci udać się w teren. Tutaj program badawczy komplikuje kolejność, w jakiej ustalenia są uzasadnione14. Na przykład teraz, gdy Internet stał się znaczącym metaźródłem, przed ważnym metodologicznym problemem stanęło dziennikarstwo, zwłaszcza w kwestii wiarygodności źródła. Polegająca na zdobywaniu kolejnych źródeł od źródeł metoda kuli śnieżnej w przeszłości była stosowana do sprawdzania informacji w sieciach społecznych, posługując się pojęciami metodologicznymi. „Z kim jeszcze powinienem porozmawiać?” — tak brzmiało pytanie na zakończenie wywiadu, kiedy już udało się zbudować zaufanie. Związek między „z kim jeszcze powinienem porozmawiać” i „do kogo innego jeszcze mnie odsyłasz” jest w dziennikarstwie asymetryczny, ale drugie pytanie jest zadawane przez wyszukiwarki rekomendujące informacje. Jak poradzić sobie z różnicą między werbalnymi i internetowymi (linki online) źródłami rekomendacji? Czy wyszukiwanie jest początkiem pogoni za informacją, który kończy się jakąś uzasadnioną rzeczywistością wywiadu poza siecią, gdzie utrzymujemy podział między częścią rzeczywistą i wirtualną? Czy może jest to zbytnie uproszczenie? Nasz idealny podział zestawu źródeł (rzeczywiste i wirtualne, uzasadnione albo wygooglowane) wywołuje pytanie o to, co będzie następne. Co będziemy sprawdzać po zakończeniu wywiadu, aby zweryfikować rzeczywistość? Internet dla niektórych może nie zmieniać hierarchii źródeł (przykładem są restrykcje w niektórych instytucjach edukacyjnych odnośnie do cytowania Wikipedii), ale może zmieniać porządek sprawdzania i związek sieci w stosunku do otaczającego świata. Opracowałem pojęcie uzasadnienia online po zapoznaniu się z wynikami badań zarówno prawicowego skrzydła, jak i „grup nienawiści” (hate groups) w Holandii przeprowadzonych przez dziennik „NRC Handelsblad”. Dziennikarze chcieli sprawdzić, czy ekstremizm używanego przez nie języka nasilał się z upływem czasu, być może wskazując w ten sposób na ogólną radykalizację prawicy i kultury nienawiści. Co znaczące, dziennikarze zdecydowali się wykorzystać Internet Archive, zamiast wyruszyć w teren czy przeprowadzić analizę pamfletów, ulotek i innych druków ulotnych w Instytucie Historii Społecznej15. Dostrzegli i zanalizowali zmiany w języku prawicowych i ekstremistycznych stron, odkrywając, że z upływem czasu stawał się on coraz bardziej radykalny. Dokonane przez dziennikarzy ustalenia na temat kultury uzasadniała analiza stron interneto14 N. Marres, R. Rogers, Subsuming the ground: How local realities of the Ferghana Valley, Narmada Dams and BTC Pipeline are put to use on the Web, „Economy & Society” 37 (2), 2008. 15 „NRC Handelsblad” 28 sierpnia 2007.. Prace Kulturoznawcze 15, 2013 © for this edition by CNS. PK15.indb 318. 2013-10-30 11:16:42.

(7) Koniec wirtualności — metody cyfrowe. 319. wych. Co najważniejsze, okazało się oto, że można oceniać kondycję społeczną na podstawie Internetu.. Podążaj za medium: program badawczy metod cyfrowych Dlaczego należy podążać za medium? Trzeba przede wszystkim zauważyć, że przedmiot badań internetowych jest często niestabilny. Ta niestabilność jest często omawiana w kategoriach efemeryczności stron internetowych i innych mediów cyfrowych oraz zawiłości związanych z ich u t rwal en i em, zapożyczając pojęcie z fotografii. Jak je utrwalić, aby mogły zostać uważnie zbadane? Archiwizacja sieci nieustannie stoi przed dylematem zachowywania stron internetowych z jednej strony i podtrzymywania ich żywotności z drugiej. Zgodnie z jednym podejściem stary sprzęt komputerowy i oprogramowanie są konserwowane w celu utrzymania mediów „przy życiu”. Według innego, praktykowanego także w środowiskach graczy, problem efemeryczności jest rozwiązywany przez symulację/ emulację, która umożliwia działanie nostalgicznego oprogramowania, na przykład gier Atari, na obecnym sprzęcie komputerowym. Problem efemeryczności jest jednakże znacznie poważniejszy niż problemy związane z konserwacją. Badacz Internetu jest często „zaskakiwany” związanymi z medium wydarzeniami, jak aktualizacje oprogramowania, które są w stanie wyprzedzić publikację badań. Jako praktyka badawcza podążanie za medium, w przeciwieństwie do dążenia do jego utrwalenia, może być także omawiane z wykorzystaniem określenia zapożyczonego z dziennikarstwa i socjologii nauki — scooping [scoop oznacza publikację sensacyjnego materiału przed konkurencją — przyp. tłum.]. Socjolog nauki Michael Lynch użył go, opisując sytuację, w której przedmiot badania doszedł do podobnych albo takich samych wniosków, co badacze, i pierwszy się do nich odniósł. Efekt jest taki, że „[przedmiot badania] rekonfiguruje pole, w którym — jak dotychczasowo myśleliśmy — były usytuowane nasze badania”16. W badaniach internetowych takie zjawisko jest powszechne. Analitycy branżowi, organizacje monitorujące sieć i blogerzy rutynowo tworzą nowe określenia (jak na przykład googlizacja) i dochodzą do wniosków, które kształtują bieżącą aktywność naukową. Jednakże jestem przekonany, że działania takie podejmują też nieustannie rekonfigurowane obiekty sieciowe. Na przykład serwis społecznościowy Facebook uważany był za przypadek „zamkniętego ogrodu” (walled garden), czyli relatywnie hermetycznego systemu społecznościowego, w którym domyślnie tylko tak zwani znajomi mogą widzieć informacje na temat innych znajomych i ich aktywności. „Zamknięty ogród” jest serią koncentrycznych krę16. M. Lynch, A sociology of knowledge machine, „Ethnographic Studies” 2, 1997, s. 16–38.. Prace Kulturoznawcze 15, 2013 © for this edition by CNS. PK15.indb 319. 2013-10-30 11:16:42.

(8) 320. Richard Rogers. gów: użytkownik musiał mieć konto, by uzyskać do niego dostęp, zostać znajomym innych, by móc oglądać ich profile, i zmienić swoje ustawienia prywatności, by pozwolić znajomym znajomych oglądać własny profil. Udostępnienie profilu znajomym znajomych było maksymalnym stopniem możliwej ekspozycji do marca 2009 roku — wówczas to Facebook zmienił ustawienia; użytkownicy mogą dziś uczynić swoje profile widocznymi dla wszystkich użytkowników z kontami, w przeciwieństwie do wyłącznie znajomych, ewentualnie poszerzonych o znajomych znajomych, jak w poprzedniej konfiguracji. Jaki rodzaj badań mógł „ubiec” Facebook, przełączając guzik? Jakie badania mogły na tym skorzystać? Facebook służy jako znaczący przykład nagłej rekonfiguracji przedmiotu badania, która jest częsta dla tego medium. Bardziej teoretycznie rzecz ujmując, podążanie za medium jest szczególną formą badań medium w jego swoistości. Swoistość medium nie wynika tylko z tego, jak zobowiązania dyscyplinarne w medioznawstwie dzielone są na mniejsze części według głównego przedmiotu badania: filmu, radia, telewizji etc. Jest to także szczególny rodzaj apelu o poważne traktowanie ontologicznej odrębności przez środki, dzięki którym ontologie są różnie budowane. Według literaturoznawcy i teoretyka mediów Marshalla McLuhana media wyróżniają się tym, jak angażują zmysły17. Głębia, rozdzielczość i inne estetyczne właściwości wpływają na to, jak aktywnie lub biernie przetwarzamy media. Albo jesteśmy wypełnieni mediami, albo je wypełniamy. Natomiast zdnaniem teoretyka kultury Raymonda Williamsa swoistość medium polega na czymś innym. Media są swoiste w formach, jakie przyjmują — formach kształtowanych przez głównych aktorów, by służyć interesom18. Na przykład tworzenie strumienia ( flow), oznaczającego programowanie telewizyjnych sekwencji tak, aby utrzymać widzów przed ekranami, służy rankingom oglądalności i reklamie. Według Williamsa media nie są a priori różne od siebie, ale mogą się takimi stać. W opinii Katherine Hayles cechą szczególną mediów jest zaś ich materialność; książka określa, tekst nie19. Proponowana przez badaczkę „analiza swoistości mediów” jest medioznawczym programem porównawczym, który bada symulowaną obecność materialnie wytwarzanych cech charakterystycznych mediów (na przykład hipertekstu w wypadku mediów cyfrowych) w innych mediach (na przykład druku). Cechy charakterystyczne poszczególnych mediów dają się odnaleźć w innych mediach. Przykładowo, jak twierdzi Alexander Galloway, zjawisko strumienia występuje nie tylko w radiu i telewizji, lecz także w sieci, w której martwe linki zakłócają surfowanie20. Punkt wyjścia Hayles jest widoczny w pracy, której tematem są Microsoft Word i Adobe Photoshop — Matthew Fuller zbadał, jak konkretne oprogramowa17. M. McLuhan, Understanding Media: The Extensions of Man, New York 1964. R. Williams, Television: Technology and Cultural Form, London 1974. 19 K. Hayles, Print is flat, code is deep: The importance of media-specific analysis, „Poetics Today” 25 (1), 2004. 20 A. Galloway, Protocol: How Control Exists after Decentralization, Cambridge 2004. 18. Prace Kulturoznawcze 15, 2013 © for this edition by CNS. PK15.indb 320. 2013-10-30 11:16:42.

(9) Koniec wirtualności — metody cyfrowe. 321. nie ogranicza bądź umożliwia tekst21. W mniemaniu Fullera dokument Microsoftu albo obraz w Photoshopie są swoistymi rezultatami oprogramowania, różnymi od jakiegoś dokumentu czy jakiegoś obrazu. Odpowiedni program badawczy badałby skutki właściwości (oprogramowania), na co także zwraca uwagę Manovich w swojej pracy poświęconej swoistości mediów komputerowych. Wraz z tymi mediami ontologia tego badacza wykracza poza wspominane „rezultaty” mediów (hipertekstualny druk Hayles, dokument w Wordzie i obraz w Photoshopie Fullera)22. Media komputerowe są metamediami, ponieważ inkorporują wcześniejsze formy mediów, co zgadza się z rekultywacyjną tezą wysuniętą przez Jaya Davida Boltera i Richarda Grusina23. Z tą różnicą, że według Manovicha media komputerowe nie tylko przemodelowują rezultaty innych mediów, ale także implementują ich formy produkc ji. Przedstawiona tutaj swoistość medium opiera się nie tylko na zaangażowaniu zmysłów McLuhana, społecznie kształtowanych formach Williamsa, materialności Hayles czy właściwościach i cechach zaproponowanych przez innych teoretyków. Tkwi ona raczej w metodzie. Poprzednio opisałem taką pracę jako „epistemologię sieci” (Web epistemology). W sieci informacja, wiedza i zachowania społeczne są organizowane przez systemy rekomendacji — algorytmy i skrypty, które przygotowują i dostarczają URL, pliki z mediami, znajomych etc. W pewnym sensie Manovich skierował dyskusję w tym kierunku, zarówno jeśli chodzi o formy produkcji (metoda w sensie rzemiosła), jak i metodologiczny zwrot związany z inicjatywą cultural anlytics. Chciałbym pójść o krok dalej, twierdząc, że niedostatecznie zbadane metody sieci są także warte uwagi, zarówno same w sobie, jak i pod względem skutków ich rozprzestrzeniania się na inne media, jak na przykład ma to miejsce w przypadku programów telewizyjnych polecanych użytkownikom TiVo na podstawie ich profili. Początkowo praca w obrębie epistemologii sieci toczyła się w kontekście polityki wyszukiwarek internetowych24. Dążono do uwzględnienia środków, za pomocą których wyszukiwarki proponują źródła. Dlaczego w marcu 2003 roku Biały Dom, CIA, FBI, prawicowa Heritage Foundation oraz główne koncerny informacyjne jak CNN znajdowały się na szczycie listy wyników w kontekście zapytania o „terroryzm”? W pewnym sensie odpowiedź na to pytanie kryje się w tym, jak hiperłącza są obsługiwane. Są one jednak jednym z wielu obiektów cyfrowych, do których można dodać w przypadkowej kolejności: wątek, tag, PageRank, edycję hasła na Wikipedii, robots.txt, wpis, komentarz, trackback, pingback, adres IP, URL, whois, znacznik czasowy, odnośnik bezpośredni, zakładkę społecznościo-. 21 22 23 24. M. Fuller, Behind the Blip: Essays on the Culture of Software, Brooklyn 2003. L. Manovich, Software Takes... J.D. Bolter, R. Grusin, Remediation: Understanding New Media, Cambridge 1999. R. Rogers, Information Politics on the Web, Cambridge 2004.. Prace Kulturoznawcze 15, 2013 © for this edition by CNS. PK15.indb 321. 2013-11-06 14:49:01.

(10) 322. Richard Rogers. wą, profil. Lista jest długa. Należy badać, jak te obiekty są obsługiwane, swoiście dla danego medium, i uczyć się z metody medium. Dalej chciałbym przedstawić serię medialnych obiektów, urządzeń, przestrzeni, jak też platform, poruszając najpierw krótko temat częstotliwości, z jaką są one badane za pomocą metod cyfrowych i założeniami spoza medium. Następnie chciałbym omówić wpływ, jaki na prowadzenie badań ma strategia podążania za medium — czerpanie nauki ze sposobów, jak urządzenia traktują obiekty cyfrowe, jak strony internetowe są archiwizowane, jak wyszukiwarki internetowe porządkują informacje i jak technologia geolokalizacji IP służy treści w kontekście polityki państwowej i praktyki językowej. Jaki rodzaj badań może być prowadzony w wyniku analizy hiperłączy z wykorzystaniem informacji z głównych algorytmów? Jak korzystać z internetowych archiwów w badaniach społecznych? Dlaczego należy zachowywać historie stron internetowych? Jak badać wyniki wyszukiwarek, tak by wykazać zmieniające się hierarchie wiarygodności i różnice w stopniu zaufania do sieci, wiadomości i blogosfery? Czy technologia geolokalizacji IP może być wykorzystywana w charakteryzowaniu krajów i kultur? Jak badania serwisów społecznościowych mogą ujawnić kulturowe gusta i preferencje? Jak roboty wpływają na zarządzanie treścią Wikipedii? Co zrobiłby badawczy bot? Zaczynając od mikro, a na makro kończąc, omawiam hiperłącze, stronę internetową, wyszukiwarkę i sfery — w tym sieciosferę (Websphere), blogosferę, infosferę (newssphere) etc. — oraz sieć (czy też sieci, uwzględniając ich krajowy locus). Wreszcie, zwracam się w stronę serwisów społecznościowych oraz Wikipedii i uczę się z tych kultur — odpowiednio — profili i botów, rozważając, w jaki sposób można je wykorzystać analitycznie. Głównym celem strategii podążania za medium jest reorientacja badań internetowych tak, aby Internet stał się źródłem danych, metod i technik.. Link Jak najczęściej bada się hiperłącza? Istnieją przynajmniej dwa główne podejścia: hipertekstowa teoria literatury (hypertext literary theory) i teoria sieci społecznych, w tym teoria sześciu stopni oddalenia („świat jest mały”) i teoria ścieżki25. Dla przedstawicieli pierwszego podejścia zestaw hiperłączy tworzy wiele różnych ścieżek prowadzących przez tekst. Surfujący po sieci, klikający tekst internauta może być uznany za autora historii, ponieważ wielokrotnymi kliknięciami wybiera prowadzące przez tekst ścieżki26. Mamy tu zatem do czynienia 25. L. Introna, H. Nissenbaum, Shaping the Web: Why the politics of search engines matters, „The Information Society” 16 (3), 2000. 26 G. Landow, Hyper/Text/Theory, Baltimore 1994; D. Watts, Small Worlds, Princeton 1999; H. Park, M. Thewall, Hyperlink analyses of the World Wide Web: A review, „Journal of ComputerMediated Communication” 8 (4), 2003.. Prace Kulturoznawcze 15, 2013 © for this edition by CNS. PK15.indb 322. 2013-10-30 11:16:43.

(11) Koniec wirtualności — metody cyfrowe. 323. z nowym rodzajem autorstwa oraz historią opowiadaną przez przemieszczanie się między linkami27. Dla zwolenników teorii sześciu stopni oddalenia tworzące ścieżki linki pokazują dystans między aktorami. Badacze sieci społecznych wykorzystują teorię ścieżki i przyglądają się z bliska, w jaki sposób więzy jednokierunkowo i dwukierunkowo pozycjonują aktorów28. Istnieje specjalny słownik, który został opracowany w celu określenia pozycji aktora, zwłaszcza jego centralności, w obrębie sieci. Na przykład — aktor jest „wysoce między”, jeśli istnieje duże prawdopodobieństwo, że inni aktorzy muszą przez niego przejść, by dotrzeć do siebie. W jaki sposób wyszukiwarki traktują linki? Ich podejście jest charakterystyczne dla scjentometrii i socjologii asocjacyjnej. Podobnie jak w wypadku analizy sieci społecznych, liczy się rozmieszczenie aktorów, ale niekoniecznie pod względem wzajemnych odległości albo sposobów, dzięki którym można dotrzeć do aktora przez budowanie sieci kontaktów (networking). W tym przypadku więzy raczej są wskaźnikami reputacji aktora — można powiedzieć, że definiują jego pozycję. Dodatkowo to podejście nie zakłada, że więzy między aktorami są przyjazne lub w inny sposób użyteczne, w sensie zapewniania upełnomocniających ścieżek albo wskazówek dotyczących udanego budowania sieci kontaktów. Chciałbym teraz rozpatrzyć sposoby, w jakie wyszukiwarki traktują linki w charakterze wskaźników wpływu i reputacji. Jak reputacja aktora może zostać scharakteryzowana za pomocą zapewnianych i otrzymanych hiperłączy? Aktorzy mogą być charakteryzowani (profilowani) nie tylko liczbą otrzymywanych linków, lecz także liczbą linków otrzymywanych od innych aktorów z dużą liczbą linków otrzymanych w podstawowym algorytmie wyszukiwarki. Może się to też odbywać w badaniu, jakie linki podają i otrzymują29. W poprzednim badaniu odkryliśmy z moim zespołem tendencje dotyczące linkowania między typami internetowych domen. Na przykład rządy mają skłonność do podawania linków wyłącznie do innych stron rządowych, natomiast strony pozarządowe podają linki do rozmaitych stron, okazjonalnie krytycznych. Korporacyjne strony z reguły nie linkują, z wyjątkiem stron ich zrzeszeń — branżowych i reprezentacyjnych. Akademickie i edukacyjne strony z reguły podają linki do stron partnerów i własnych inicjatyw. Łącznie te skłonności do linkowania pokazują codzienną „politykę asocjacji”30. Na przykład w badaniach przeprowadzonych przez mój zespół w 1999 roku odkryliśmy, że Greenpeace podawał linki do stron rządowych, ale 27 G. Elmer, Hypertext on the Web: The beginnings and ends of Web pathology, „Space and Culture” 10, 2001. 28 V. Krebs, Mapping Networks of terrorist cells, „Connections” 24 (3), 2002. 29 Por. A. Beaulieu, Sociable hyperlinks: An ethnographic approach to connectivity, [w:] Virtual Methods: Issues in Social Research on the Internet, red. C. Hine, Oxford 2005. 30 N. Marres, R. Rogers, Depluralising the Web, repluralising public debate. The GM Food Debate on the Web, [w:] Preferred Placement, red. R. Rogers, Maastricht 2000; R. Rogers, Operating issue Networks on the Web, „Science as Culture” 11 (2), 2002.. Prace Kulturoznawcze 15, 2013 © for this edition by CNS. PK15.indb 323. 2013-10-30 11:16:43.

(12) 324. Richard Rogers. strony rządowe nie linkowały z powrotem. Novartis, międzynarodowa korporacja, podawała link do Greenpeace, ale z kolei Greenpeace nie linkował zwrotnie. Podczas dokonywania charakterystyki aktora według linków przychodzących i wychodzących widoczne stają się ewentualne odchylenia od normy. Bardziej ogólnie — okazuje się, czy poszczególne linki przychodzące mówią coś o jego reputacji. Link do strony organizacji pozarządowej na rządowej stronie mógłby być na przykład interpretowany jako potwierdzenie dobrej reputacji31. Oprócz opisywania mikropolityki hiperłączy analiza linków może być także wykorzystana w bardziej wyrafinowanym doborze próby. Tutaj różnica między zdigitalizowanym a rdzennie cyfrowym ma duże znaczenie. Open Net Initative na Uniwersytecie Toronto prowadzi badania internetowej cenzury, tworząc listy stron internetowych (wykorzystując katalogi online, jak Open Directory Project i Yahoo). Badacze sprawdzają następnie, czy strony są blokowane w poszczególnych państwach. To ważna praca, która rzuca światło zarówno na granice występowania, jak i zaplecze techniczne praktyk z zakresu państwowej cenzury Internetu na świecie32. Na potrzeby badań strony pogrupowano na blisko czterdzieści kategorii: znani blogerzy, strony rządowe, strony poświęcone prawom człowieka, humor, prawa kobiet etc. Tak oto wzorce cenzury mogą być badane według rodzaju stron w poszczególnych krajach. Cała lista stron internetowych sprawdzanych w jednym kraju (około trzech tysięcy) jest próbą obejmującą oczywiście wyłącznie niewielką część wszystkich stron, także tych z określonej kategorii. Jak dobierać strony metodą, która podąża za medium, poznając i wykorzystując metody stosowane przez wyszukiwarki internetowe (analiza linków)? Mój zespół wniósł swój wkład do pracy Open Net Initiative, opracowując metodę, która przeszukuje wszystkie strony w konkretnej kategorii, zbiera hiperłącza z tych stron i określa dodatkowe kluczowe strony (przez analizę współlinków (co-link)), których nie ma na liście. Nazwałem tę metodę „dynamicznym doborem próby URL”, chcąc tym samym podkreślić różnicę między ręcznym kompilowaniem list URL i bardziej zautomatyzowanymi technikami znajdywania istotnych adresów URL. Po znalezieniu nowych stron 31. Oprogramowanie Issue Crawler i wspomagające je narzędzia zostały stworzone specjalnie w celu przeprowadzania tego typu analiz hiperłączy. Służy ono do przeszukiwania stron internetowych oraz gromadzenia i przechowywania linków. Przeszukująco-analityczne moduły zostały zaadaptowane z scjentometrii (analiza współlinków) i analizy budowania sieci społecznych (metoda kuli śnieżnej). Gdy sieć jest zlokalizowana za pomocą Issue Crawlera, mogą zacząć być charakteryzowani indywidualni aktorzy. Służy do tego narzędzie Actor Profiler, które graficznie pokazuje przychodzące i wychodzące linki pierwszej dziesiątki aktorów danej sieci. Do charakteryzowania aktorów służą także „ciułacz” [scraper; to scrape — skrobać, ciułać; w informatyce oznacza kopiowanie danych ze strony internetowej za pomocą programu komputerowego — przyp. tłum.] zbierający wszystkie linki wychodzące z danej strony i ciułacz dostarczający listę linków do niej odsyłających o nazwie Yahoo inlink ripper [pol. „rozpruwacz” linków przychodzących — przyp. tłum.]. 32 Access Denied: The Practice and Policy of Global Internet Filtering, red. R. Diebert, J. Palfrey, R. Rohozinski, J. Zittrain, Cambridge 2008.. Prace Kulturoznawcze 15, 2013 © for this edition by CNS. PK15.indb 324. 2013-10-30 11:16:43.

(13) Koniec wirtualności — metody cyfrowe. 325. sprawdza się je pod kątem statystyk połączenia (początkowo za pomocą pełnomocników (proxies), a następnie ewentualnie maszyn znajdujących się w danych krajach) w celu ustalenia, czy są zablokowane. W projekcie badawczym poświęconym „społecznym, politycznym i religijnym” stronom w Iranie, razem z innymi badaczami przeszukaliśmy wszystkie strony w tej kategorii Open Net Initiative i przez analizę hiperłączy odkryliśmy około trzydziestu dotychczas nieznanych zablokowanych stron. Co ważne, badanie było też analizą na poziomie strony, a nie wyłącznie serwera. Pozwoliło to między innymi na odkrycie, że Iran nie blokował strony głównej BBC News (jak ustaliło Open Net Initiative), ale tylko jej wersję w języku perskim. Różnica między dwiema metodami pozyskiwania list stron do analizy — ręcznym katalogowaniem i dynamicznym doborem próby URL — pokazuje wkład do metody badania medium w jego specyficzności.. Strona internetowa W dotychczasowych badaniach stron internetowych dominowały badania użytkowników i badania gałki ocznej (eyeball studies), w których próby opisu poruszania się po stronie napotykały takie pomysły, jak „nie każ mi myśleć”33. Wiele badań stron internetowych jest prowadzonych „znad ramienia” — badacze obserwują, jak badani poruszają się po sieci i używają wyszukiwarek, a następnie przeprowadzają z nimi wywiady. Jednym z klasycznych rejestracyjnych podejść jest śledzenie ruchów gałki ocznej (eye tracking). Strona się ładuje, a wzrok przesuwa się w lewą górną stronę ekranu, znaną jako złoty trójkąt. Powstające w ten sposób mapy ciepła dostarczają wskazówek odnośnie do przebudowania strony. Na przykład Google.com przeniosło swoje usługi z góry okienka wyszukiwania (zakładki) w lewą górną stronę ekranu (menu). Innym najczęstszym trendem badań stron internetowych jest analiza właściwości, w której strony są porównywane i zestawiane na podstawie stopnia interaktywności, możliwości uzyskiwania informacji zwrotnej od użytkowników etc.34 Sprawdza się, czy konkretny pakiet właściwości skutkuje wzrostem liczby użytkowników i zwiększoną uwagą z ich strony. W ramach tego podejścia strony są często archiwizowane na potrzeby przyszłych badań (ważnym przykładem jest tu specjalny zbiór z 11 września). Większość pracy polega więc na archiwizacji stron przed ich analizą. Jednym z głównych zadań jest tu obmyślanie sposobów zachowywania i przechowywania stron, tak aby dane, na których oparte są badania, były dostępne. A zatem pro33. S. Krug, Don’t Make Me Think! A Common Sense Approach to Web Usability, Indianapolis 2000; A. Dunne, Hertzian Tales: Electronic Products, Aesthetic Experience, and Critical Design, Cambridge 2005. 34 K. Foot, S. Schneider, Online action in campaign 2000: An exploratory analysis of the U.S. Political Web Sphere, „Journal of Broadcast and Electronic Media” 46 (2), 2002.. Prace Kulturoznawcze 15, 2013 © for this edition by CNS. PK15.indb 325. 2013-10-30 11:16:43.

(14) 326. Richard Rogers. gram badawczy metod cyfrowych zajmuje się przede wszystkim stroną internetową jako zarchiwizowanym obiektem, udostępnionym dzięki Wayback Machine, stworzonej przez Internet Archive (archive.org). Pytanie zatem brzmi: jakie rodzaje badań umożliwia i uniemożliwia Wayback Machine? Aby na to odpowiedzieć, należy najpierw zdekonstruować czy raczej „odpakować” Internet Archive z Wayback Machine. W jakim sensie Internet Archive jako obiekt, powstający w procesie archiwizacji, wymusza określone preferencje odnośnie do jego wykorzystania i rodzaju badań przeprowadzanych dzięki niemu? Badacz archiwizacji sieci, Niels Brügger, napisał: „W przeciwieństwie do innych dobrze znanych mediów Internet zwyczajnie nie istnieje w formie dostosowanej do archiwizacji, ale raczej jest najpierw kształtowany jako przedmiot badania podczas archiwizacji, i to kształtowany różnie, w zależności od tego, kto, kiedy i w jakim celu dokonuje archiwizacji”35. To, że przedmiot badania jest konstruowany sposobami, które go porządkują i zachowują, jest klasycznym argumentem nie tylko socjologii i filozofii nauki36. Początkowe pytanie badawcze brzmi więc: jakie metody badań są uprzywilejowane przez swoiste formy przyjmowane przez sieciowe archiwa, a jakie są wykluczane? Na przykład tym, co robi największe wrażenie na korzystających z Internet Archive, przyzwyczajonych do wyszukiwarek internautach, nie jest istnienie zarchiwizowanego Internetu. Uderza ich raczej sposób, w jaki odbywa się wyszukiwanie. Zamiast słów kluczowych wprowadza się URL, po czym otrzymuje się listę przechowywanych stron związanych z adresami URL z przeszłości. W ten sposób Internet Archive przez interfejs Wayback Machine porządkuje historię sieci w postaci historii pojedynczych stron internetowych. Jakie rodzaje podejść badawczych są faworyzowane przez obecny układ stron internetowych w Internet Archive? Wayback Machine umożliwia zbadanie ewolucji w czasie pojedynczej strony (albo wielu stron), na przykład przez lekturę albo gromadzenie migawek z dat, w których strona była indeksowana. Jak można wykorzystać taki układ historycznych stron? Wspominałem wcześniej o przeprowadzonej przez „NRC Handelsblad” analizie nasilenia się w Holandii użycia języka ekstremistycznego. Dziennikarze sprawdzili około stu stron z Internet Archive, niektóre sprzed dekady. To praca, na której badacze powinni się opierać zarówno pod względem metodologicznym, jak i technicznym. Można na przykład, wykorzystując ciułacza, skopiować dane z prawicowych i ekstremistycznych stron w Internet Archive, umieścić tekst (i obrazki) w bazie danych i systematycznie przeszukiwać je pod kątem słów kluczowych w porządku chronologicznym. Dzięki analizie zestawów zarchiwizowanych stron internetowych, 35. N. Brügger, Archiving Websites: General Considerations and Strategies, Aarhus 2005, s. 1. B. Latour, S. Woolgar, Laboratory Life, Princeton 1986; K. Knorr-Cetina, Epistemic Cultures, Cambridge 1999; J. Walker, Feral Hypertext: When Hypertext Literature Escapes Control. „Proceedings of the Sixteenth ACM conference on Hypertext and Hypermedia”, 6–9 September 2005, Salzburg. 36. Prace Kulturoznawcze 15, 2013 © for this edition by CNS. PK15.indb 326. 2013-10-30 11:16:43.

(15) Koniec wirtualności — metody cyfrowe. 327. podobnie jak dziennikarze „NRC Handelsblad”, można opisywać zmiany warunków społecznych. Jak jeszcze można prowadzić badania z użyciem Internet Archive? Program metod cyfrowych rozwinął sposoby zachowywania historii stron w wyniku robienia migawek i montowania ich w film, w stylu fotografii poklatkowej37. W ramach pokazu, jak dzięki Internet Archive zachowywać takie ewolucyjne historie, od 1998 aż do końca 2007 roku razem z moim zespołem robiliśmy migawki strony głównej Google. Analiza dotyczyła subtelnych zmian dokonanych w interfejsie, a zwłaszcza w zakładkach. Odkryliśmy spadek znaczenia ludzkich edytorów jako podmiotów organizujących sieć. Po umieszczeniu linku do katalogu na stronie głównej Google w 2001 roku, w 2004 został umieszczony pod przyciskiem „Więcej”, a w 2006 pod „Jeszcze więcej”. Pod koniec 2007 roku wraz z usunięciem opcji „Jeszcze więcej” w celu znalezienia katalogu trzeba go było wyszukać38. Ważne zagadnienie zaniku ludzkiego edytora, widoczne w tym przypadku w ewolucji interfejsu Google, miało dalekosiężne konsekwencje odnośnie do tego, jak wiedza jest gromadzona i porządkowana. W istocie, po zbadaniu Google razem z pozostałymi badaczami zwróciliśmy się w stronę Yahoo, oryginalnego katalogu stron internetowych, i odkryliśmy, że tam także katalog został zastąpiony przez algorytm back-end. Badając wyniki zapytania w katalogu, przekonaliśmy się, że Yahoo też już nie podaje ich alfabetycznie, w egalitarnym stylu porządkowania informacji i źródeł, odziedziczonym z encyklopedii. Yahoo wymienia obecnie źródła katalogu zgodnie z popularnością, w powszechnie znanym stylu systemów rekomendacji. Czy historie wyszukiwarek zachowane w postaci ewolucji ich interfejsów wskazują na bardziej ogólne zmiany, dotyczące porządkowania informacji i wiedzy? Porównawcze medioznawcze podejście mogłoby się okazać pomocne w udzieleniu odpowiedzi na to pytanie. Jednym z ważniejszych przypadków w tym kontekście byłaby gazeta online. Na przykład w „The New York Times” artykuły są wciąż umieszczane na stronie głównej gazety i w poszczególnych działach, ale także wyszczególniane w listach „najczęściej mailowanych” i „najczęściej blogowanych”, zapewniając swoisty dla tego medium system rekomendacji odnośnie do poruszania się między wiadomościami. Wpływ systemów rekomendacji — głównych środków, za pomocą których informacja i wiedza są porządkowane w sieci — może być także badany przez pryzmat oczekiwań internautów. Czy nie jest tak, że coraz częściej spodziewają się oni znanych z sieci rozwiązań w archiwach, bibliotekach, centrach informacji turystycznej i innych miejscach poszukiwania wiedzy i informacji?. 37 Oprogramowanie służące do robienia migawek było wcześniej wykorzystane w analizie stron Wikipedii, pokazującej ewolucję haseł, a tym samym tego, jak Wikipedia buduje wiedzę. 38 Przycisk „Jeszcze więcej” powrócił do interfejsu Google.com w 2008 roku.. Prace Kulturoznawcze 15, 2013 © for this edition by CNS. PK15.indb 327. 2013-10-30 11:16:43.

(16) 328. Richard Rogers. Wyszukiwarki i sfery Niesławna publikacja danych wyszukiwarki AOL z 2006 roku wstrząsnęła badaniami wyszukiwarek. Opublikowanym zapytaniom pół miliona użytkowników z okresu ponad trzech miesięcy towarzyszyło wiele niepokojących i często pikantnych doniesień prasowych dotyczących stopnia intymności ujawnionych szczegółów, nawet jeśli historie wyszukiwania były anonimowe (brak nazwisk) i pozbawione informacji o lokalizacji (brak adresu IP). Przypadek AOL może być interpretowany jako zmiana postrzegania obecności online (online presence), jeśli pojęcie to nadal ma sens. Daną osobę można „wygooglować” — jej autorska wersja własnej obecności często pojawia się na szczycie listy wyników. Generalnie to, co inni o niej napisali, powinno się pojawić niżej w rankingach. Przechowywanie zapytań wyszukiwarek jest tym samym źródłem trzeciego zestawu śladów, jeśli chodzi o charakteryzowanie poszczególnych jednostek. To wywołuje pytania dotyczące polityki prywatności. Jak długo firmy, do których należą wyszukiwarki, mogą przechowywać historie wyszukiwania? Z tego powodu wyszukiwarki są badane w kontekście prawnym — zwłaszcza pod względem tego, jak przepisy dotyczące przechowywania danych odnoszą się do badań. Wcześniej wspominałem o innym nurcie w badaniach wyszukiwarek, określanym mianem googlizacji. Ta myśl krytyczna w duchu ekonomii politycznej bada, jak stosowany przez Google model darmowych usług w zamian za profil może się rozprzestrzeniać w branżach i kulturach oprogramowania. Omówiłem to zagadnienie gdzie indziej, proponując badaczom googlizacji plan badań, który uwzględniałby googlizację back-end i front-end. Pierwsza obejmuje badanie polityki informacji interfejsu (w tym upadek katalogowania przez ludzkiego edytora). Druga dotyczy wzrostu roli algorytmu, który poleca źródła hierarchicznie, a nie alfabetycznie, o czym już wspominałem. Znaczenie badania nowych hierarchii informacji w wyszukiwarkach powinno być także omówione w świetle badań użytkowników. Mały procent użytkowników ustawia preferencje na wyświetlanie więcej niż dziesięciu wyników na stronie. Internauci z reguły nie zaglądają na dalsze strony i częściej klikają wyniki pojawiające się bliżej szczytu listy39. Władza wyszukiwarek wynika z połączenia ich praktyk rankingowania (uwzględnianie źródeł na szczycie listy wyników) i widocznego „szacunku” użytkowników dla ustanowionego porządku (niesprawdzanie dalej). Model Google polega także na rejestracyjnej interaktywności — zarówno preferencje użytkownika, jak i historia wyszukiwania są zapisywane, przechowywane i wykorzystywane tak, by służyć dopasowaniu wyników „na miarę”. Przed siecią, algorytmami wyszukiwarek i systemami rekomendacji interaktywność była „konsultacyjna” — wcześniej zała39. A. Spink, B.J. Jansen, Web Search: Public Searching on the Web, Dordrecht 2004.. Prace Kulturoznawcze 15, 2013 © for this edition by CNS. PK15.indb 328. 2013-10-30 11:16:43.

(17) Koniec wirtualności — metody cyfrowe. 329. dowane informacje były „wywoływane”40. Zapytania zwracały te same informacje wszystkim użytkownikom w danym momencie. Teraz wyniki są dynamicznie generowane na podstawie zarejestrowanych preferencji, historii wyszukiwania i lokalizacji danej osoby. Różne sposoby porządkowania źródeł i wyników zapewnianych przez wyszukiwarki nie są wystarczająco zbadane przede wszystkim dlatego, że nie przechowuje się i nie udostępnia potrzebnych w tym celu danych, pomijając wspominaną publikację AOL czy skutki innych wynegocjowanych porozumień z firmami, do których należą wyszukiwarki. Jeśli chodzi o Google, firma w przeszłości udostępniła umożliwiający gromadzenie danych API (Application Programming Interface). Choć liczba możliwych zapytań w ciągu jednego dnia była ograniczona, uzyskane wyniki nadawały się do późniejszego wykorzystania. Korzystający z API badacze zostali jednak wystrychnięci na dudka przez Google, które wycofało usługę pod koniec 2006 roku. Wraz z jej ponownym wprowadzeniem w zmienionym kształcie w 2009 roku Google nie omieszkało podkreślić, że zautomatyzowane zapytania i stałe przechowywanie wyników są wbrew regulaminowi usługi. Jak w takiej sytuacji badać wyszukiwarki? Gdy z moim zespołem, używając ciułacza, kopiujemy dane z Google, zamieszczamy notkę doceniającą wyrozumiałość firmy, do której należy wyszukiwarka41. Co kryje się w wynikach wyszukiwarki Google? Jak wspomniałem, wyszukiwarki, podstawowy punkt dostępu do sieci, są epistemologicznymi maszynami w tym sensie, że przeszukują, indeksują i gromadzą pamięć podręczną oraz ostatecznie zarządzają treścią. Wcześniej opisałem sieć, a w szczególności sieć opartą na wyszukiwarkach, jako potencjalne miejsce zderzenia alternatywnych wizji rzeczywistości42. Odpowiednia terminologia powstała dzięki pracom socjologa C. Wright Millsa, który scharakteryzował cel badań społecznych jako prezentację „niezgodnych ze sobą definicji rzeczywistości”43. Czy wyszukiwarki umieszczają alternatywne definicje rzeczywistości jedną obok drugiej, czy to ich wyniki dostosowują się do oficjalnego i głównego nurtu? Przechowywanie i analizowanie wyników wyszukiwarek mogłoby pomóc znaleźć odpowiedzi na podobne pytania. Taki był cel oprogramowania Issue Dramaturg, nazwanego w ten sposób ze względu na potencjalny dramat na monitorze komputera — strony mogłyby się „wspinać” albo gwałtownie spadać ze szczytu listy wyników. Należy podkreślić, że szczytowe pozycje są bardzo po40 J. Jensen, Interactivity: Tracking a new concept in media and communication studies, [w:] ComputerMedia and Communication, red. P. Mayer, Oxford 1999. 41 Treść notki można znaleźć w zakładce Credits strony projektu Issue Dramaturg, http://issuedramaturg.issuecrawler.net/. 42 R. Rogers, Information Politics... 43 C. Wright Mills, Wyobraźnia socjologiczna, przeł. M. Bucholc, Warszawa 2007, s. 296; R. Rogers, N. Marres, French scandals on the Web, and on the streets: A small experiment in stretching the limits of reported reality, „Asian Journal of Social Science” 30 (2), 2002.. Prace Kulturoznawcze 15, 2013 © for this edition by CNS. PK15.indb 329. 2013-10-30 11:16:43.

(18) 330. Richard Rogers. żądane. Liczne organizacje korzystają z technik optymalizacji wyszukiwarek, aby zwiększyć widoczność swoich stron. Istnieją techniki białego i czarnego kapelusza, to znaczy akceptowane przez wyszukiwarki i takie, które sprawiają, że usuwają strony internetowe z list wyników, dopóki ponownie nie zaczną przestrzegać ich etykiety. W ramach projektu Issue Dramaturg razem z moim zespołem zgromadziliśmy w dwóch celach wyniki wyszukiwania dla zapytania „9/11” oraz innych pokrewnych haseł. Po pierwsze, chcieliśmy zbadać hierarchie źródeł — jak już o tym pisałem. Które źródła są uprzywilejowane? Które „wygrywają” w konkursie o miejsce na szczycie listy wyników dla poszczególnych zapytań? Drugim celem było namierzenie poszczególnych źródeł w duchu podejścia do badań wyszukiwarek, które nazwałem odległością od źródła (source distance). Jak daleko od szczytu listy wyników dla zapytania „9/11”, jeśli chodzi o relacje z 11 września, znajdują się tak znaczący aktorzy, jak władze Nowego Jorku czy „The New York Times”? Czy takie źródła się wybijają, czy pojawiają się obok źródeł, które kwestionują bardziej oficjalne i znajome opinie? Poza władzami Nowego Jorku i „The New York Times” kolejnym aktorem, którego monitorowaliśmy, był 9/11 Truth movement (911truth.org). Od marca do września 2009 strona ruchu pojawiała się w pierwszej piątce wyników dla zapytania „9/11”, a strony pozostałych dwóch aktorów poniżej pięćdziesiątego wyniku. W połowie września, w okolicach rocznicy tego wydarzenia, wydarzył się dramat — 911truth.org spadło gwałtownie na dwusetne miejsce listy, a następnie wypadło z pierwszego tysiąca, czyli maksymalnej liczby wyników dostarczanych przez Google. Mój zespół jest przekonany, że to jeden z pierwszych całkowicie udokumentowanych przypadków jawnego usunięcia strony internetowej z Google — z pozycji w pierwszej piątce przez pół roku do miejsca poza pierwszym tysiącem44. Przypadek ten wywołuje pytania o stabilność i zmienność wyników wyszukiwarek i stwarza możliwości nowych badań. Jakkolwiek wyszukiwarka Google zajmuje dominującą pozycję w sieci, to nie jest jedyna. Wiele osób nie zdaje sobie sprawy z istnienia innych wyszukiwarek dominujących w określonych częściach lub sferach sieci. Dla blogosfery istnieje Technorati, dla infosfery Google News, a dla tagosfery czy zakładek społecznościowych Delicious. W istocie, opisywanie sieci w kategoriach sfer automatycznie przywodzi na myśl nazwę najbardziej znanej sfery — blogosfery, a także działalność naukową, która usiłuje zdefiniować sieciosferę45. „Sfera” w „blogosferze” kojarzy się ze sferą publiczną. Można o niej myśleć w katego44. R. Rogers, The googlization question... K. Foot, S. Schneider, Online action in campaign...; S. Schneider, K. Foot, Online structure for political action: Exploring presidential Web sites from the 2000 American election, „Javnost” 9 (2), 2002. 45. Prace Kulturoznawcze 15, 2013 © for this edition by CNS. PK15.indb 330. 2013-10-30 11:16:43.

(19) Koniec wirtualności — metody cyfrowe. 331. riach figury geometrycznej, na której powierzchni wszystkie punkty znajdują się w tej samej odległości od centrum czy rdzenia. Takie zjawisko można postrzegać jako egalitarny ideał, w którym każdy blog czy wręcz każde źródło informacji jest znane rdzeniowi i vice versa. Okazuje się jednak, że w sieci pewne źródła są centralne. Otrzymują zdecydowaną większość linków przychodzących i mają najwyższą liczbę odwiedzin. W myśl zasad w rodzaju „bogaci się bogacą” [część popularnego powiedzenia „The rich get richer and the poor get poorer”, czyli „Bogaci się bogacą, a biedni biednieją” — przyp. tłum.] (znanej także jako rozkład Pareto), cieszące się zainteresowaniem strony stają się jeszcze popularniejsze. Odległość między centrum a innymi punktami może tylko rosnąć, dowodząc, że — jakkolwiek użyteczny — ideał sfery jest fikcją. Chciałbym zaproponować sposób badania dystansu między rdzeniem a peryferiami jako miary różnic w rankingach między źródłami w poszczególnych sferach. Analiza sferyczna jest metodą cyfrową mierzenia i poznawania dystansu między źródłami w różnych sferach w sieci. W założeniu sfera jest uważana za urządzenie, które wytyczyło granice zestawu źródeł — na przykład czysty PageRank wszystkich źródeł w sieci (najbardziej wpływowe strony zgodnie z liczbą linków przychodzących) albo analogiczne rankingi stron ( pageranks) wszystkich źródeł sporządzone przez główne wyszukiwarki dla danej sfery, na przykład Technorati, Google News i Delicious. Toteż badając sferę, proponuję przede wszystkim pozwolić wyszukiwarkom wytyczyć jej granice. W analizie sfer rozważa się, które źródła są najbardziej wpływowe, nie tylko pod względem całości, lecz także pojedynczych zapytań. Międzysferyczna analiza (cross-spherical analysis) porównuje źródła zwracane przez każdą sferę dla tego samego zapytania, może być zatem postrzegana jako porównawcze badanie rankingów. Co najistotniejsze, dzięki międzysferycznej analizie można rozważyć konsekwencje traktowania linków, „świeżości” ( freshness), tagów etc. przez każdą wyszukiwarkę. Czy poszczególne źródła mają tendencję do bycia w rdzeniu tylko jednej sfery? Co porównanie źródeł i odległości między nimi w poszczególnych sferach mówi nam o właściwości nowych mediów oraz aktualnych zobowiązaniach informacyjnych w poszczególnych kulturach? We wstępnej analizie badałem z moim zespołem, które zwierzęta w anglojęzycznej sieci, wiadomościach i blogosferze są najczęściej łączone ze zmianą klimatu. Odkryliśmy, że sieć ma najbardziej zróżnicowany zestaw zwierząt wiązanych ze zmianą klimatu. Wiadomości upodobały sobie niedźwiedzia polarnego, a blogosfera wzmocniła czy raczej bardziej wyeksponowała wybór infosfery. Ostrożnie wywnioskowaliśmy, że sieć może być mniej podatna na tworzone przez media ikony niż wiadomości, co ma znaczenie dla badań mediów, które obierają za punkt wyjścia kulturę reklamy i rozgłosu ( publicity culture). Ponadto blogosfera wydaje się raczej pasożytować na wiadomościach, aniżeli stanowić ich alternatywę.. Prace Kulturoznawcze 15, 2013 © for this edition by CNS. PK15.indb 331. 2013-10-30 11:16:43.

(20) 332. Richard Rogers. Sieci Jak wcześniej wspominałem, badania Internetu były „prześladowane” przez podział na wirtualność i rzeczywistość. Jedno ze źródeł tego rozróżnienia ma związek z technicznymi właściwościami Internetu i tym, jak zostały skojarzone z wirtualną dziedziną rzeczywistości — cyberprzestrzenią. W istocie musiało być w niej coś szczególnego pod względem technologicznym46. Protokoły i zasady, zwłaszcza komutacja pakietów i zasada end-to-end, początkowo wypełniły wyobrażenie cyberprzestrzeni jako dziedziny wolnej od fizycznych ograniczeń. Techniczna obojętność Internetu względem geograficznej lokalizacji jego użytkowników zrodziła nie tylko ideę braku umiejscowienia ( placelessness). W swojej strukturze stanowiła rzekomo także przestrzeń niezależną od państw narodowych i różnych sposobów traktowania przez nie strumieni informacji. Przypomina się słynny cytat przypisywany Johnowi Gilmorowi, który wraz z Johnem Perry Barlowem założył Electronic Frontier Foundation: „Internet traktuje cenzurę jako usterkę i maszeruje wokół niej”47. Geografia jednakże od początku była częścią cyberprzestrzeni, uwzględniwszy lokalizację oryginalnych trzynastu głównych serwerów, nierówną dystrybucję przepływów ruchu (traffic flows) między krajami, a także przydział adresów IP w zakresach, który później umożliwił użycie technologii geolokalizacji IP w celach związanych z reklamą i prawami autorskimi. Technologia geolokalizacji IP oraz inne techniczne środki lokalizacyjne (technologia lokalizująca) też mogą być wykorzystane w badaniach, których przedmiotem jest Internet, pomagając sprawdzić, czego można się dowiedzieć o warunkach społecznych w różnych krajach. W programie badawczym metod cyfrowych wraz z moim zespołem nazwaliśmy takie badania badaniami krajowych sieci (national Web studies). Wcześniej omawiałem badania brytyjskich etnografów, którzy uzasadnili cyberprzestrzeń dzięki empirycznym badaniom tego, jak karaibscy internauci dopasowali medium do własnych kulturowych praktyk. Są to oczywiście badania krajowych sieci, jednakże prowadzone metodami obserwacyjnymi (spoza medium). Badając krajowe sieci, można też sprawdzać dane, rutynowo gromadzone na przykład przez duże przedsiębiorstwa, w rodzaju rankingu stron Alexy wedle kraju (zgodnie z ruchem). Które strony są najczęściej odwiedzane w poszczególnych krajach i co liczba odwiedzin na danej stronie mówi o informacyjnej kulturze danego kraju? Dzięki paskowi narzędzi, który internauci instalowali w swoich przeglądarkach, Alexa przetarła szlak rejestracyjnemu gromadzeniu danych. Zapewniał on statystyki dotyczące załadowanej w przeglądarce strony, dotyczące na przykład jej „świeżości”. Wszystkie strony, które załadował użytkownik albo po których surfował, także były rejestrowane. Zarejestrowane adresy URL były 46 47. W. Chun, Control and Freedom: Power and Paranoia in the Age of Fiber, Cambridge 2006. J. Boyle, Foucault in Cyberspace, „Univ. Cincinnati Law Review” 66, 1997.. Prace Kulturoznawcze 15, 2013 © for this edition by CNS. PK15.indb 332. 2013-10-30 11:16:43.

(21) Koniec wirtualności — metody cyfrowe. 333. porównywane z adresami, które już znajdowały się w bazie danych Alexy. Te adresy URL, których tam nie było, były zbierane i sprowadzane. Tak narodziło się Internet Archive. Internet Archive (1996–) zostało opracowane w epoce Internetu, którą pozwalam sobie nazwać cyberprzestrzenią (gdzie indziej przedstawiłem opracowaną przez siebie periodyzację historii Internetu i nie będę już tutaj wchodził w jej szczegóły)48. Aby zilustrować ten projekt i różnice między Internet Archive oraz państwowymi archiwami sieci, powstającymi w wielu krajach, warto zauważyć, że Internet Archive zbudowano w celu surfowania — typu korzystania z Internetu, który zapewne ustąpił już miejsca wyszukiwaniu49. W stworzonej przez Internet Archive Wayback Machine można wpisać pojedynczy adres URL, wyświetlić i przejrzeć dostępne strony. Po dotarciu do zewnętrznego linku Internet Archive szuka strony, której data jest najbliższa opuszczanej stronie, i ją ładuje. Jeśli strona nie istnieje w Internet Archive, następuje przekierowanie na aktualną stronę. Zachowana jest ciągłość przepływu ze strony na stronę50. Ale państwowe archiwa też przestały myśleć o sieci w kategoriach cyberprzestrzeni. Zamiast tego ich celem jest zachowanie poszczególnych sieci krajowych. Pierwsze zatem pytanie dotyczące metodologii badań internetowych brzmi: jak można wytyczyć granice krajowej sieci? Holenderska Biblioteka Narodowa reprezentuje na przykład podobne podejście co wcześniej wspomniani badacze internetowej cenzury. To zdigitalizowana metoda, wykorzystująca model katalogu, w którym ekspert, opierając się na edytorskich kryteriach, wybiera znaczące strony. Strony te są systematycznie archiwizowane w technologii oryginalnie opracowanej w ramach projektu Internet Archive. W trakcie pisania tego tekstu w Holandii archiwizuje się około stu stron krajowych — znacznie mniej w porównaniu z Internet Archive51. Wyjaśniając różnice w podejściach i wynikach dwóch projektów, chciałbym zwrócić uwagę, że koniec wirtualności i koniec cyberprzestrzeni nie były łaskawe dla archiwizacji sieci. Powrót państwa narodowego i wykorzystanie określonych rygorystycznych strategii postępowania (zwłaszcza prawa autorskiego) niezwykle spowolniło wysiłki. Czy metody cyfrowe mogą pomóc w naprawie sytuacji? Chciałbym zasugerować archiwistom krajowych sieci rozważenie rejestracyjnego podejścia na przykład adaptacji modelu Alexy — w państwowym kontekście wyniki mogą okazać się pożyteczne. 48. R. Rogers, The politics of Web... C. Shirky, Ontology is Overrated: Categories, Links, and Tags, The Writings of Clay Shirky, 2005, http://www.shirky.com/writings/ontology_overrated.html (dostęp: 28 stycznia 2009). 50 A. Galloway, Protocol: How Control... 51 Dla porównania, liczba archiwizowanych stron tworząca obecny zbiór holenderskiej Biblioteki Narodowej jest zaledwie ułamkiem całości krajowej sieci. Archiwizowanych jest w przybliżeniu sto holenderskich stron spośród istniejących trzech milionów (tylko w domenie .nl, jeśli chodzi o 2008 rok. Zob. E. Weltevrede, Thinking Nationally with the Web: A Medium-Specific Approach to the National Turn in Web Archiving. M.A thesis, University of Amsterdam 2009). 49. Prace Kulturoznawcze 15, 2013 © for this edition by CNS. PK15.indb 333. 2013-10-30 11:16:44.

(22) 334. Richard Rogers. Serwisy społecznościowe i postdemografia „Definiujemy tutaj strony serwisów społecznościowych jako strony, na których użytkownicy mogą zakładać profile i łączyć te profile z innymi profilami w celu budowy otwartej osobistej sieci kontaktów”52 — tak zaczęła się praca poświęcona korzystaniu z takich serwisów, jak MySpace czy Facebook przez amerykańskie nastolatki, napisana na podstawie badań przeprowadzonych w ramach Pew Internet & American Life Project. Z przeprowadzonych ankiet wynikało, że 91% ankietowanych korzysta ze stron, by „podtrzymywać przyjaźnie”, a niecała jedna czwarta — by „flirtować”. Inne ważne badanie serwisów społecznościowych rozpatrywało takie kwestie, jak autoprezentacja i zarządzanie własnym statusem online, zróżnicowanie „klas społecznych” użytkowników MySpace i Facebooka oraz związki między znajomymi z „prawdziwego życia” i znajomymi dodanymi do znajomych w serwisie53. Inna grupa badań, prowadzonych zwykle w związku z tworzeniem oprogramowania, zajmuje się tym, jak wykorzystać ogromną ilość danych zawartych w profilach online, zwłaszcza dotyczących gustu i zainteresowań. Chciałbym zaproponować, aby badania te określać jako „postdemograficzne”. Postdemografię można by postrzegać jako badania danych pochodzących z serwisów społecznościowych, a zwłaszcza sposobów profilowania. Szczególnie interesujące są tu potencjalne skutki budowy narzędzi „nadbudowanych” na czołowych platformach profilujących. Jakie wyniki może przynieść „mieszanie” (mashing up) danych lub tak zwane metaprofilowanie? Celem przyświecającym poprzedzonej prefiksem „post” demografii jest stworzenie opozycji względem tego, jak badania demograficzne organizują grupy, rynki i wyborców w geograficznym sensie. Zakłada ona także teoretyczne odejście od stosowania demografii w celach „biopolitycznych” (aby sprawować władzę nad ciałem) na rzecz „infopolityki” — rekomendowania określonych informacji określonym ludziom54. Pojęcie postdemografii także angażuje nowe metody w celu badania sieci społecznych, nieskupiających się na tradycyjnych danych demograficznych, jak rasa, etniczność, wiek, dochody i poziom wykształcenia albo ich pochodnych w rodzaju klasy, ale raczej na gustach, zainteresowaniach, „ulubionych”, grupach, zaakceptowanych zaproszeniach, zainstalowanych aplikacjach i innych informacjach, z których składają się profil online i towarzyszący mu bagaż. Tradycyjnie demografowie analizują oficjalne dokumenty (dotyczące urodzin, śmierci, ślubów) i badania ankietowych populacji, w tym spis statystyczny — najbardziej znane przedsięwzięcie tego typu. Badacze profili, odwrotnie, 52. A. Lenhart, M. Madden, Social Networking Websites and Teens. Pew Internet Project Data Memo, Pew Internet & American Life Project, Washington 2007. 53 D. Boyd, N. Ellison, Social network sites: Definition, history, and scholarship, „Journal of Computer-Mediated Communication” 13 (1), 2007. 54 M. Foucault, The History of Sexuality, t. 1. The Will to Knowledge, London 1998; wyd. pol. Historia seksualności, przeł. T. Komendant, Gdańsk 2010; R. Rogers, Information Politics.... Prace Kulturoznawcze 15, 2013 © for this edition by CNS. PK15.indb 334. 2013-10-30 11:16:44.

Cytaty

Powiązane dokumenty