• Nie Znaleziono Wyników

Search Engine Op miza on (SEO), wyszukiwarki, wyszukiwanie

Easley i Kleinberg przy opisywaniu modeli rządzących postawami i efektami wyszukiwań, takimi jak szeroko omawiany przez nich przypadek tzw. rynków połączonych (matching markets), odnoszą się do zaawansowanych rozwiązań matematycznych pochodzących z teorii gier. Zarysuję podstawy tej techni-ki na podstawie podręcznika Jerriego L. Ledforda Search Engine Optimization Bible. Second Edition z 2009 roku [Ledford 2009]. Przedstawia on na począt-ku krótką historię wyszukiwarek, którą rozpoczyna pomysł studenta Alana Emtage’a z 1990 roku pod nazwą Archie służący do wyszukiwania plików, do-stosowany rok później do przeszukiwania ich tekstowej zawartości przez in-nego studenta Marka McCahilla i znany pod nazwą Gopher. Następne zaawan-sowane już rozwiązanie to Wandex z 1993 roku, otwierający okres, w którym powstała większość znanych wyszukiwarek: Excite – 1993, Yahoo! – 1994, Web Crawler – 1994, Lycos – 1994, Infoseek – 1995, AltaVista – 1995, Ink-tomi – 1996, Ask Jeeves – 1997, Google – 1997, MSN Search – 1998 [Ledford 2009, 4]. To wyliczenie trzeba uzupełnić o próby wcześniejsze, ponieważ, jak twierdzi Mark Levene w książce An Introduction to Search Engines and Web Navigation, korzeni wyszukiwania w sieci należy szukać w późnych latach 50.

w pracach Hansa Petera Luhna w IBM. Wiele współczesnych rozwiązań opie-ra się na badaniach prowadzonych w latach 70. i 80., takich jak system SMART (System for the Mechanical Analysis and Retrieval of Text) Geralda Saltona z Uniwersitetu Cornella [Levene 2010, 6].

Ledford podaje podstawową klasyikację algorytmów wyszukiwania, wy-dzielonych z całościowego procesu, warto się im choćby pobieżnie przyjrzeć, aby zdać sobie sprawę z wzrastającej komplikacji problemu i jego rozwoju, przekładającego się na efekty biznesowe. Algorytmy te dzielą się na działa-jące na pojedynczej stronie (on-site), w obrębie całego serwisu (whole-site) i poza serwisem (off-site). Te pierwsze badają elementy strony pod kątem wyszukiwanego słowa i słów oraz zdań odnoszących się do niego, poszukując wzorców jego występowania i sprawdzając sąsiedztwo. Algorytmy whole-site sprawdzają związki między stronami w serwisie oraz architekturę jego we-wnętrznych odnośników, off-site – strukturę linków prowadzących na stronę, a więc omawianą już własność, będącą podstawą rankingu [Ledford 2009, 11].

Tym ogólnym procedurom towarzyszą rozwiązania szczegółowe, przepro-wadzające kwerendy dotyczące między innymi list, tzw. drzew, czyli struktur tworzących klasyikacje w obrębie relacyjnych baz danych opartych na języku

SQL (Structured Query Language), a także bardziej zaawansowane, takie jak przeszukiwanie heurystyczne (informed search), przeszukiwanie antagoni-styczne (adversarial search) czy przeszukiwanie ograniczone (constraint satis-faction search) [Ledford 2009, 13]. Technologie wyszukiwania są niezwykle rozwinięte i coraz bardziej wyrainowane, a irmy takie jak Google kierują znaczne środki na ich rozwój.

Ledford poświęca osobny rozdział kwestii szczególnie nas interesującej, omawiając problematykę „długiego ogona” z punktu widzenia strategii wy-szukiwania, ważnej dla skonstruowania właściwego scenariusza SEO. Umiesz-cza ją w ciągu wspomnianych już koncepcji George’a Kingsleya Zipfa i Vilfre-da Pareto. Nie ulega dla niego wątpliwości, że wiąże się ona ściśle z metodyką wyszukiwania, choć Anderson nie uwzględnił jej w swojej konstrukcji. Biznes oparty na handlu elektronicznym może być ujrzany jako system zamówień [Ledford 2009, 24] i z drugiej strony „długi ogon” może służyć do opisu za-chowań związanych z wyszukiwaniem [Ledford 2009, 26]. Podaje także prze-ważające tematy wyszukiwań, są to: nazwy produktów, funkcjonalność pro-duktu, jego atrakcyjność, jakość, użyteczność i wykorzystanie, dalej następuje poszukiwanie rozwiązań różnego rodzaju problemów, pojęć ogólnych i spe-cyicznych związanych z przemysłem, następnie terminów o znaczeniu ogól-nym i specjalistyczogól-nym, a także lokalizacji geograicznych [Ledford 2009, 28].

Znajomość rozkładu popularności wyszukiwania pozwala odtworzyć struktu-rę krzywej popytu i wyróżnić zarówno strefę „głowy”, jak i „długiego ogona”.

Ledford zwraca także uwagę na prawidłowość, zgodnie z którą użytkownicy zadający pytania wyszukiwarce o bardziej specyicznym (i mniej popular-nym) charakterze są zazwyczaj bliżsi decyzji zakupu i można uzyskać wśród nich wyższy stopień konwersji [Ledford 2009, 29]. Trzeba dodać, że irmą, która potraiła doskonale wykorzystać korzyści wynikające z logiki „długiego ogona”, było samo Google, wprowadzając płatny mechanizm słów kluczy, op-arty na bardzo prostej zasadzie, którą wyłożył CEO (Chief Executive Oficer – Dyrektor Naczelny, odpowiednik Prezesa Zarządu) Google, Eric Schmidt, na pierwszym zebraniu akcjonariuszy:

Google ma misję zagospodarowania Długiego Ogona – reklamodawców począwszy od największych na świecie irm – jak Wal-Mart – po najmniejsze: pojedynczych lu-dzi... [Shuen 2009, 78].

Kwestia wyszukiwania wydaje się szczegółowym zagadnieniem, jednak do-ty czy bardzo szybko rozwijającej się technologii, która leży u podstaw wielkie-go biznesu sieciowewielkie-go68. Tom Funk odwołuje się do Danny’ego Sullivana, dzien-nikarza, którego przedstawia jako „guru wyszukiwania”, o czym świadczyłoby jego wieloletnie doświadczenie, trwające od 1995 roku, kiedy to opublikował

68 Uaktualnianą listę wyszukiwarek różnego typu można znaleźć w serwisie Search Engi-ne Watch na stronie http://searchengiEngi-newatch.com/page/guides (dostęp: 2.09.2012).

pierwszy tekst poświęcony indeksacji stron przez wyszukiwarki69. Sullivan jest także autorem obszernej i często cytowanej strony poświęconej tej problema-tyce: SearchEngineLand70, a także inicjatorem międzynarodowych konferen-cji pod nazwą Search Marketing Expo, odbywających się według informakonferen-cji na oicjalnej stronie71 od 2007 roku w różnych krajach Europy, Ameryki Północnej i Australii. Tom Funk łączy go również z innym wydarzeniem tego rodzaju: SES Conference and Expo (Search Engine Strategies Conference and Expo), na któ-rego stronie72 nie wspomina się o nim zupełnie. Jest jednak godne wymienienia ze względu na wagę i rozmach. Istnieje od 1999 roku i stanowi jedno z najważ-niejszych wydarzeń w obrębie przemysłu wyszukiwania i marketingu społecz-nego73. Sullivan, jak referuje Funk, jest autorem klasyikacji ewolucji wyszuki-wania, w którego historii wyróżnia trzy etapy:

1. Search 1.0 – polegał na wyszukiwaniu słów jedynie na pojedynczej stro-nie, informując o ich lokalizacji, częstotliwości i ograniczonym do strony rankingu.

2. Search 2.0 – bardziej zaawansowany, rozpoczęty przez Page’a i Brina wraz z ich algorytmem PageRank, objął kryteria znajdujące się poza po-jedynczą stroną.

3. Search 3.0 – etap, w którym różnego typu dane, zgromadzone w różno-rodnych silosach, gromadzących odmiennego typu informacje, są ujmo-wane w trakcie jednego procesu wyszukiwania. Jest to tak zujmo-wane wyszu-kiwanie uniwersalne (Universal Search) [Funk 2009, 71].

Wyszukiwanie uniwersalne jest jednym z rodzajów, które przytacza Funk, aby uporządkować zagadnienie niezwykle bogato reprezentowane i wciąż się rozwijające. Inne, wyróżnione przez niego kategorie to: wyszukiwanie prze-widujące (predictive search), wyszukiwanie pionowe (vertical search engines), wyszukiwanie lokalne (local search), wyszukiwanie społeczne (social search) i sieć głęboka (deep web). Wyszukiwanie przewidujące opiera się na precyzo-waniu wyników wyszukiwania przy użyciu historii aktywności użytkownika, jest stosowane przez Google, Yahoo! i inne irmy. Przydają się w nim wszelkie, dodatkowe rodzaje informacji, takie jak dane demograiczne i behawioralne stosowane w reklamie targetowanej, preferencje językowe, położenie

geogra-iczne odzyskiwane z numeru IP, a także historia wcześniejszych wyszukiwań.

Wyszukiwania pionowe, inaczej też nazywane tematycznymi, obsługują strefy słabiej wykorzystane przez główne wyszukiwarki i koncentrują się na wyspe-cjalizowanych tematach, takich jak dane personalne, nowości, blogi, towary,

69 A Webmaster’s Guide To Search Engines – dane pochodzą ze strony http://searchengine-land.com/author/danny-sullivan (dostęp: 2.09.2012).

70 http://searchengineland.com/ (dostęp: 2.09.2012).

71 http://searchmarketingexpo.com/ (dostęp: 2.09.2012).

72 http://sesconference.com/ (dostęp: 2.09.2012).

73 http://sesconference.com/about.php (dostęp: 2.09.2012).

informacje prawne itp. Wyszukiwanie lokalne jest oparte na pomyśle przenie-sienia w obręb sieci tzw. żółtych stron, zawierających informacje związane z miejscowymi usługami i towarami. Wyszukiwanie społeczne Funk referuje, podkreślając udział danych generowanych przez użytkowników, i włącza tutaj także serwisy reprezentujące tzw. social bookmarking, takie jak Digg czy del.

icio.us. Podając przykład strony Mahalo, przypomina dawny projekt Yahoo!, który polegał na zatrudnieniu żywych ludzi w celu porządkowania i kategory-zowania sieci. Mahalo powtórzyła ten pomysł, bazując na wynikach zwraca-nych przez Google [Stross 2009, 242]. Yahoo!, jak ocenia Stross, sprawniejsza w wykorzystywaniu potencjału społecznego, uruchomiła w 2005 roku zresztą rodzaj kontynuacji swojej początkowej idei74 – Yahoo! Answers – polegające na wzajemnym zadawaniu sobie pytań i udzielaniu odpowiedzi, dla których irma tworzyła jedynie płaszczyznę wymiany i archiwum. Serwis ten odniósł sukces już po roku funkcjonowania, dysponując bazą ponad 60 milionów odpowiedzi.

Ironia tej sytuacji polega na tym, że pomysł pochodził od Google, którego usłu-ga Google Answers ruszyła wprawdzie trzy lata wcześniej, ale z powodu braku zainteresowania została zamknięta w 2006 roku [Stross 2009, 238]. Stross po-daje, że w 2007 roku ruszyło wiele irm, które położyły nacisk na udział wolon-tariuszy w wyszukiwaniu, i że to właśnie wtedy ukuto termin „wyszukiwanie społeczne” oznaczające kolektywną współpracę grupy i odrzucające automa-tyczne algorytmy [Stross 2009, 241].

Tak zwana sieć głęboka to dane, które nie są bezpośrednio dostępne dla wyszukiwarek, znajdujące się de facto poza WWW, na przykład w specjali-stycznych bazach, a także dane zawarte w plikach innego typu niż tekstowe (wideo, obrazach, dźwiękowych itp.). Funk twierdzi, iż zasoby te są oceniane na 550 razy większe niż zawartość samej sieci [Funk 2009, 75]. Wspomina tu-taj na przykład o projekcie Google Books – projekt, który ruszył w 2002 roku i wydawał się w momencie niezwykle drogi; jego koszt szacowano na sumę 1,5 miliarda dolarów [Stross 2009, 128]75. Problemem były także prawa au-torskie wymagające wielu negocjacji. W 2003 roku podobną usługę uruchomił Amazon, któremu udało się zjednać potężną grupę wydawców, wkrótce z po-dobnymi inicjatywami wystąpiły Yahoo! i Microsoft. Przewaga, którą zdobył na tym polu Google, polegała na powiększeniu w 2007 roku swojego kata-logu o książki jeszcze przez niego niezeskanowane, ale na których temat in-formacje znajdowały się w silosach gromadzących dane z sieci – to był krok w stronę pomysłu wyszukiwania uniwersalnego [Stross 2009, 242]. Innym miejscem w wypadku Google, gdzie pojawiły się rozterki dotyczące przeszu-kiwania publicznie niedostępnej zawartości, był Google Mail, o czym świad-czyła intencja nakłonienia użytkownika, aby nie kasował starych wiadomości,

74 Założyciele Yahoo! Jerry Yang i David Filo po raz pierwszy w 1994 roku ręcznie skatalo-gowali zawartość sieci, w następnych latach irma dalej opierała się na ludziach redagujących powiększający się katalog. Inną wyszukiwarką stosującą tę metodę jest DMOZ Open Directory Project [Levene 2010, 150].

75 Obecnie Google Books podlegają przeszukiwaniu.

tak aby ich zawartość pozostała w bazie i nadawała się do analizy [Stross 2009, 213]. Instytucja przechowywania osobistych danych na serwerach irmowych była starsza niż pomysł Google; w 2001 roku taką usługę, zakończoną porażką, udostępnił Microsoft pod nazwą My Services [Stross 2009, 215]. Osobne zasoby posiadają także portale społecznościowe w rodzaju Facebooka: SearchEngine-Watch podało na początku 2012 roku, że irma ta pracuje nad udoskonaleniem własnej wyszukiwarki pozwalającej łatwiej znaleźć materiały współdzielone lub oznaczone jako lubiane. Szefem zespołu przygotowującego produkt jest były inżynier z Google. Od 2010 roku Bing – wyszukiwarka Microsoftu – personali-zowała własne wyniki wyszukiwania, uzupełniając swój algorytm o dane „lubię to!” (like button), pozostając głównym dostarczycielem wyników wyszukiwa-nia dla Facebooka76. Osobny temat to także przeszukiwanie zasobów innych niż tekstowe. Google pracuje nad sposobami identyikacji audio i wideo od momen-tu przejęcia YouTube, czyli od 2007 roku, za czym kryją się kwestie prawa au-torskiego [Stross 2009, 246]. Wyszukiwarka graiki Google posiada już obecnie ograniczone możliwości rozpoznawania zawartości. Levene opisuje rozwój tej techniki i przytacza między innymi rozwiązanie pod nazwą VisualRank autor-stwa dwójki inżynierów z Google, pozwalające na tworzenie grafów podobień-stwa między obrazami na wzór struktur generowanych przez algorytm Page-Rank, a także objęcie nim danych w postaci dźwięku i wideo [Levene 2010, 198].

Pojęcie „wyszukiwanie uniwersalne” pojawia się za sprawą Google i po-zwala na łączenie różnego typu dziedzin. Jego początki sięgają 2001 roku, a do 2006 roku kilkakrotnie pojawiają się próby wyszukiwania integrującego różno-rodne zbiory danych – silosy Google77. Od 2006 roku projekt zostaje podjęty na nowo i w połowie roku następnego pojawia się w sieci w swojej ograniczonej na razie wersji [Stross 2009, 240]. Problemem było przekroczenie granic jed-nego silosa, które oznaczało konieczność zastosowania innych kryteriów rele-wancji; wyszukiwanie uniwersalne przekroczyło granice zasobów sieciowych, a więc praktycznie linki, i objęło inne elementy, takie jak książki, obrazy, mapy itd. Z perspektywy lat okazało się, że pewne obszary dominują. Zgodnie ze sta-tystyką pochodzącą ze strony SearchEngineWatch, na pierwsze miejsce w

wy-76 Danny Goodwin: Facebook Search Engine Overhaul in Works, 2 kwietnia 2012, http://sear-chenginewatch.com/article/2165515/Facebook-Search-Engine-Overhaul-in-Works oraz Douglas MacMillan, Brad Stone: Facebook Delves Deeper Into Search, 29 marca 2012, http://www.business-week.com/articles/2012-03-28/facebook-delves-deeper-into-search (dostęp: 3.09.2012).

77 Pewne wyobrażenie o wielkości danych, jakimi obraca Google, dawałyby liczba ich ser-werów, które jest okryta ścisłą tajemnicą. Jednego z najbardziej wiarygodnych przybliżeń do-starczają obliczenia Jamesa Pearna opublikowane w Google+, który szacuje ją na blisko 1,8 mi-liona w styczniu 2012 roku i prognozuje prawie 2,4 milina z początkiem 2013 roku, https://

plus.Google.com/114250946512808775436/posts/VaQu9sNxJuY (dostęp: 3.09.2012). W in-nym tekście wylicza sumaryczną moc obliczeniową tych maszyn na 40 petalopów (40 biliar-dów operacji zmiennoprzecinkowych na sekundę). Dla porównania: komputer o największej mocy obliczeniowej w czerwcu 2012 roku to Sequoia – BlueGene/Q – 16 petalopów (według Top 500 Supercomputers, http://www.top500.org/, dostęp: 3.09.2012), https://plus.Google.

com/114250946512808775436/posts/gTFgij36o6u (dostęp: 3.09.2012).

nikach wyszukiwania (SERP – Search Engine Results Page) wysuwa się wideo, za nim znajdują się obrazy, zakupy i książki. Ostatnie miejsce zajmują blogi. Te wyniki są także przedmiotem wnikliwej oceny biorącej się z uzasadnionego po-dejrzenia, że Google faworyzuje własne produkty78.

Wyszukiwanie uniwersalne istnieje w ramach szerszego zagadnienia, jakim jest metawyszukiwanie (metasearch), którego początki są znacznie starsze. Le-vene podaje przykłady takich serwisów jak Dogpile, MetaCrawler, SavvySearch czy ProFusion powstające około 1995 roku [Levene 2010, 170]. Łączenie wyni-ków działania różnego typu wyszukiwarek w obrębie jednej, zhierarchizowanej listy jest poważnym problemem technologicznym i konceptualnym, dla którego opracowano ogólnie dwa, przeciwstawne rozwiązania: pierwsze, porównujące wzajemne podobieństwa, i drugie, bazujące na wcześniejszej strukturze, do któ-rej są odnoszone oddzielne wyniki wyszukiwań [Levene 2010, 173].

Kwestia uczciwości wyszukiwarek, z którą zetknęliśmy się przed chwi-lą, omawiając ranking przygotowany przez Google, jest coraz bardziej istotna, zważywszy, że wyszukiwarki odgrywają obecnie rolę strażników dostępu do sieci dla obydwu stron: użytkowników szukających informacji i twórców sta-rających się osiągnąć jak największą popularność. Zwłaszcza wobec faktu, że są to organizacje nastawione na zysk, dla których reklama jest podstawą biznesu, rodzą się głosy wzywające do poddania ich stosownym regulacjom. Opierają się one na przekonaniu, że zawartość sieci jest dobrem publicznym i powinna podlegać normom życia publicznego, a nie zależnościom o charakterze rynko-wym [Levene 2010, 66]. Incydenty związane z tą kwestią zdarzają się ciągle, a ich negatywnym bohaterem jest zazwyczaj Google, co jest zrozumiałe, zwa-żywszy na jego potencjał79. Problem ten staje się palący, gdy dotyczy ochrony prywatności, zwłaszcza w związku z rozwijaniem się udziału elementu perso-nalizacji w wyszukiwaniach80. Shapiro i Varian już w 1999 roku w swojej bar-dzo znanej i wpływowej książce Potęga informacji. Strategiczny przewodnik po gospodarce sieciowej omawiają pozytywne skutki zastosowania technologii in-formacyjnej do starej zasady poznawania własnego klienta za pomocą obser-wowania jego zachowania w sieci [Shapiro 2007, 50]. Ten zabieg jest częścią szerszej idei personalizacji, którą ci autorzy polecają do zróżnicowania ofer-ty cenowej lub oferofer-ty produktowej. Nicholas Carr w swojej dystopijnej wizji nazwanej World Wide Computer podkreśla nie bez racji, że komputery i sieć

78 Rob D. Young: Universal Search: Which Formats Dominate in Google’s Results? [Study], 5 sierpnia 2011, http://searchenginewatch.com/article/2099640/Universal-Search-Which--Formats-Dominate-in-Googles-Results-Study (dostęp: 3.09.2012).

79 Według serwisu eBizMBA Google był w roku 2012 na pierwszym miejscu wśród wyszu-kiwarek z liczbą unikalnych odwiedzin szacowaną na 900 milionów miesięcznie. Na drugim miejscu znalazła się wyszukiwarka Microsoftu Bing (165 mln), na trzecim Yahoo! (160 mln), http://www.ebizmba.com/articles/search-engines (dostęp: 3.09.2012).

80 Google jest wrażliwe na tę problematykę, co tylko potwierdza jej aktualność. Znajduje to wyraz choćby w oicjalnym credo irmy: „dziesięciu prawdach potwierdzonych przez Google”

znajdujących się ich stronie, wśród których szósta brzmi: Możesz dobrze zarabiać, nie czyniąc zła, https://www.Google.pl/intl/pl/about/company/philosophy/ (dostęp: 3.09.2012).

nie tylko uwolniły indywidualną aktywność, lecz także włożyły w ręce rzą-dów i korporacji narzędzia do ich kontroli [Carr 2009, 191], co szeroko oma-wia z właściwym sobie publicystycznym temperamentem. Szczegółowo zaj-mował się tym także omawiany Lawrence Lessig w książce Code. Version 2.0.

Personalizacja wyników wyszukiwania jest osobnym, obszernym polem badań i rozwoju, który omawia Levene [Levene 2010, 178], zwracając uwagę na wiele rozwiązań programistycznych, wśród których znajduje się także nowa wersja algorytmu PageRank. Co ciekawe, jak pisze, taki wariant był postulowany przez jego twórców już w 1998 roku [Levene 2010, 184].

Kontekst komercyjny jest w wypadku wyszukiwarek bardzo istotny. Musiały one znaleźć źródła zysku, aby pozostać na rynku, szczególnie w okresie inter-netowego boomu i związanych z nim oczekiwań irm inwestycyjnych. Główni gracze na tym rynku tacy jak Google, Bing czy Yahoo! uczynili nim reklamę, zwłaszcza że olbrzymia liczba użytkowników predestynuje ich do tego. Leve-ne podaje sposoby wykorzystania w tym celu wyszukiwarki; należy do nich tzw. płatne włączenie (paid inclusion) polegające na przyśpieszeniu procesu umieszczania strony w wynikach wyszukiwania przez częstsze jej odwiedzanie przez „pająka”, zbierającego dane w sieci, czy tradycyjne banery, ciągle pozosta-jące w ofercie irm reklamowych, płatne od ilości wyświetleń (tzw. PPM – pay per M, M to rzymska cyfra oznaczająca tysiąc). Dużo bardziej rentowną formą jest wyszukiwanie sponsorowane (sponsored search) polegające na podawa-niu osobnych strumieni danych w wynikach wyszukiwania: ustalonych przez algorytm i sponsorowanych, których cena jest ustalana w drodze aukcji, opła-canych metodą PPC (pay per click), odbywających się online w czasie rzeczywi-stym. Najbardziej znanym mechanizmem tego rodzaju jest produkt Google pod nazwą AdWords, choć pomysł pochodzi od wyszukiwarki Overture. Następny sposób to targetowanie behawioralne (behavioral targeting), oparte na zacho-waniach wyszukiwawczych użytkownika i jego nawykach dotyczących wyboru oglądanych stron, oraz prostsze targetowanie kontekstualne (contextual tar-geting) odwołujące się jedynie do bieżącego wyszukiwania. Zwłaszcza temu pierwszemu służą intensywnie rozwijające się badania dotyczące postępowa-nia i przyzwyczajeń użytkowników. Ostatnią omawianą przez Levena metodą osiągania zysków jest model PPA (pay per action), który ma ominąć wady sy-stemów PPC i PPM, badające wyłącznie aktywność na stronie, i uzyskać dane dotyczące konwersji, których posiadaczem jest reklamodawca, co zazwyczaj wymaga umieszczenia odpowiedniego skryptu na reklamowanej stronie [Leve-ne 2010, 152].

Obszerny przegląd problematyki wyszukiwania jest z konieczności bardzo skrótowy wobec skali biznesu, jaki za nim stoi. Opiera się ona na stosunkowo prostej wyjściowej supozycji: wyszukiwanie to eksploatacja zasobów stwo-rzonych przez ludzi w sieci, rozumianych jako koherentna całość, na przekór pozorowi bałaganu i chaotycznej heterogeniczności. Istota tkwi w narzędziu zdolnym zinterpretować zasoby w inteligibilny sposób, powodując tym samym dalsze skutki o charakterze społecznym. Z tego punktu widzenia,

stanowiące-go podstawę idei niniejszej książki, nie da się pominąć ostatniej, przywołanej tutaj analizy problematyki wyszukiwania i wyszukiwarek, którą przeprowa-dza Alexander Halavais w tekście Wyszukiwarki internetowe a społeczeństwo [Halavais 2012]. Swą główną tezę opiera on na przekonaniu, że wyszukiwarki przyczyniają się do zniszczenia różnorodności zasobów sieci i prowadzą jed-nocześnie do powstania zjawiska „zwycięzców” i „przegranych” pojawiających się w wyniku swoistego „konkursu o społeczną uwagę” [Halavais 2012, 112].

Zarazem jednak, i to jest główne spostrzeżenie książki, wkraczają one w bar-dzo istotną przestrzeń zagadnień związanych z funkcjonowaniem i krążeniem wiedzy, rozumianej jako pragmatyczny, społeczny zasób. Co więcej, opierając się na immanentnych, wbudowanych rankingach (które opisałem wcześniej), mają skłonność do skupiania uwagi i przekonań wokół wybranych zasobów, a więc na poziomie wiedzy, pewnych typów recepcji czy analizy rzeczywisto-ści. Promując zasadę „zwycięzca bierze wszystko”, jak pisze Halavais, „rankin-gi łączą się z ideą tego, co Lewis Mumford (1964) nazwał «technikami auto-rytarnymi» – owymi narzędziami systemowymi, które centralizowały władzę i kontrolę” [Halavais 2012, 132]. Autor jest daleki od prostego projektowania tego spostrzeżenia na rzeczywisty układ interesów i domyślania się ukrytych celów, choć przyznaje, że brak jawności kryteriów wyszukiwania może takie obawy rodzić [Halavais 2012, 132]. Procesy tego rodzaju raczej wzmacniają się wraz z rozwojem internetowych społeczności i świadczą „o zmianach polega-jących na przejściu od celowego wyszukiwania informacji ku pragnieniu budo-wania zarówno jawnych, jak i ukrytych powiązań międzyludzkich” [Halavais

Zarazem jednak, i to jest główne spostrzeżenie książki, wkraczają one w bar-dzo istotną przestrzeń zagadnień związanych z funkcjonowaniem i krążeniem wiedzy, rozumianej jako pragmatyczny, społeczny zasób. Co więcej, opierając się na immanentnych, wbudowanych rankingach (które opisałem wcześniej), mają skłonność do skupiania uwagi i przekonań wokół wybranych zasobów, a więc na poziomie wiedzy, pewnych typów recepcji czy analizy rzeczywisto-ści. Promując zasadę „zwycięzca bierze wszystko”, jak pisze Halavais, „rankin-gi łączą się z ideą tego, co Lewis Mumford (1964) nazwał «technikami auto-rytarnymi» – owymi narzędziami systemowymi, które centralizowały władzę i kontrolę” [Halavais 2012, 132]. Autor jest daleki od prostego projektowania tego spostrzeżenia na rzeczywisty układ interesów i domyślania się ukrytych celów, choć przyznaje, że brak jawności kryteriów wyszukiwania może takie obawy rodzić [Halavais 2012, 132]. Procesy tego rodzaju raczej wzmacniają się wraz z rozwojem internetowych społeczności i świadczą „o zmianach polega-jących na przejściu od celowego wyszukiwania informacji ku pragnieniu budo-wania zarówno jawnych, jak i ukrytych powiązań międzyludzkich” [Halavais