• Nie Znaleziono Wyników

Notowania, rankingi, PageRank

Zagadnieniem, które bezpośrednio łączy się z kwestią popularności i rządzą-cymi nią prawami, a także w istotny sposób jest włączone w dynamikę zjawi-ska „długiego ogona”, jest dwoiste z natury zagadnienie notowań i rankingów.

Pierwsze zjawisko – notowań (ratings), wiąże się z udziałem użytkowników w tworzeniu systemu ocen, ujętego w mniej lub bardziej sformalizowany, ale zhierarchizowany przegląd towarów, usług lub innych przedmiotów opinii. Dru-gie jest skutkiem wyrainowanych technik informatycznych, tworzących ułożo-ne pod względem trafności (relewantności) katalogi – rankingi (rankings). Ten podział jest wynikiem nieformalnej terminologicznej umowy, którą można za-obserwować w literaturze. Obydwa typy klasyikacji opierają się na preferenc-jach użytkowników sieci, z tym że notowania mają charakter jawnej, zwerbali-zowanej ekspresji sądów, natomiast rankingi są raczej skutkiem rekonstrukcji zachowań mniej świadomych, wyrażanych pośrednio i nieintencjonalnie. Oby-dwa także odgrywają decydującą rolę w obrębie szerszego tematu, jakim jest kolektywna inteligencja, która obejmuje wiele płaszczyzn i może być rozpatry-wana jako koncept ilozoiczny, fenomenem społeczny, narzędzie biznesowe i rozwiązanie technologiczne. Także Tim O’Reilly w omawianym artykule What Is Web 2.0 powołuje się na niego w takim bardzo szerokim kontekście.

Rolę systemów rankingów i rekomendacji, tak istotnych dla efektu „długie-go o„długie-gona”, omawia Tom Funk w książce Web 2.0 and Beyond: Understanding the New Online Business Models, Trends, and Technologies [Funk 2009]. Ich waga wynika z konieczności selekcji wśród 5000 atakujących nas średnio dziennie przekazów reklamowych [Funk 2009, 67]. W tej sytuacji istotnym czynnikiem wyboru stają się informacje od innych konsumentów – reklama „szeptana”

(word-of-mouth – WOM recommendation). Funk przytacza raport Nielsena, z którego wynika, że w rankingu wiarygodności na pierwszym miejscu znajdu-ją się rekomendacje udzielane przez innych konsumentów (78%), a na trzecim – opinie przekazywane online (61%) [Funk 2009, 68]. Jednocześnie przyta-cza wiele innych badań, pochodzących z 2007 roku, potwierdzających wprost wzrost wskaźnika konwersji spowodowany przez przeglądy konsumenckie i rankingi, w których zastosowaniu pionierem był Amazon Jeffa Bezosa, sto-sujący je niemal od samego początku [Funk 2009, 100]. Amazon jest także au-torem pomysłu wyświetlania wyników rankingu w graicznej postaci pięciu gwiazdek, który według Funka ma już charakter przemysłowego standardu [Funk 2009, 11]. Zwraca on także uwagę na interesujący paradoks; choć syste-my notowań wkładają w ręce pojedynczych klientów narzędzia o wielkiej sile oddziaływania rynkowego, tworzą także zupełnie nowe ośrodki kształtowa-nia opinii [Funk 2009, 12]. Ten fakt jest ciekawą ilustracją mechanizmów ko-lektywnej inteligencji61. Co więcej, opinia wyrażona w sieci kreuje dodatkowe

61 A o jego znaczeniu mogliśmy się przekonać, kiedy Google usunęło ze swoich wyników wyszukiwania dominujące na polskim rynku porównywarki cenowe takie jak Ceneo, Nokaut i Skąpiec (tzw. SmartRatings). Choć uzasadnienie wskazywało na nieuczciwe praktyki

zwią-dane dla wyszukiwarek, w bezpośredniej postaci nowych odnośników lub in-formacji tekstowych, co z kolei służy następnej strukturze: rankingom.

Doskonałym, bodajże najsławniejszym, ale na pewno najbardziej wpływo-wym przykładem rankingów jest algorytm pod nazwą PageRank wpływo-wymyślony przez założycieli Google, Larry’ego Page’a i Siergieja Brina62. PageRank opiera się w zasadniczej części na strukturze fundującej sieć w obecnej postaci World Wide Web, czyli na strukturze odnośników – hiperłączy. We wspominanej już tutaj, wpływowej i znanej książce The Big Switch: Rewiring the World, from Edi-son to Google jej autor Nicholas Carr tworzy utopijną wizję, którą nazywa World Wide Computer, parafrazując nazwę wymyśloną przez Tima Bernersa-Lee.

Opiera ją na prostej konstatacji dotyczącej systemu odnośników, który jest two-rzony przez użytkowników i twórców stron, tym samym zawiera konceptualny projekt tych połączeń, które mają w ten sposób inteligibilny, a nie przypadko-wy charakter. „Za każdym razem kiedy wpisujemy link, a nawet kiedy klikamy w niego, karmimy naszą inteligencją system Google” pisze63 i cytuje publicystę Johna Markoffa, który w artykule Entrepreneurs See a Web Guided by Common Sense zamieszczonym w „The New York Times” twierdzi, że „oprogramowanie Google systematycznie eksploatuje ludzką wiedzę”64. Więcej informacji, które prowadzą do tego wniosku, zebranych w mniej publicystycznym stylu, podaje w swojej książce Randall Stross; przytaczając przekonywające argumenty, opi-suje cel Google: „skatalogować wszystkie informacje świata” [Stross 2009, 9].

John Battelle w książce Szukaj. Jak Google i konkurencja wywołali biznesową i kulturową rewolucję opisuje szeroko okoliczności powstania algorytmu, który wstrząsnął siecią, podkreślając znaczenie, jakie przydawał Page odnośnikom, zane z SEO (Search Engine Optimisation – optymalizacją wyników wyszukiwania, które oma-wiam dalej), to jednak za zwróceniem uwagi przez Google na faktyczną konkurencję, korzy-stającą bezpłatnie z technologii rywala, kryła się niewątpliwie także przyczyna biznesowa.

Usunięte irmy zresztą rychło okazały skruchę i wróciły do wyników wyszukiwania. Incydent został opisany w tekstach prasowych, które są dostępne w sieci (np. http://wyborcza.biz/

biznes/1,101562,11064286,Google_wycial_wielkie_porownywarki_cenowe_z_wynikow.html, dostęp: 30.08.2012).

62 Historyczny, źródłowy dokument zawierający opis pomysłu The PageRank Citation Ran-king: Bringing Order to the Web napisała czwórka autorów: Lawrence Page, Sergiej Brin, Ra-jeev Motwani i Terry Winograd w 1998 roku, jego tekst znajduje się na stronie Uniwersytetu Stanforda, gdzie powstał i jest dostępny pod adresem: http://ilpubs.stanford.edu:8090/422/

(dostęp: 28.08.2012), uzupełnia go dokument będący de facto aktem założycielskim Google, napisany przez Brina i Page’a, i wygłoszony z okazji Seventh International World-Wide Web Conference (WWW 1998) w kwietniu 1998 roku w Brisbane w Australii The Anatomy of a Large-Scale Hypertextual Web Search Engine, dostępny pod adresem: http://ilpubs.stanford.

edu:8090/361/ (dostęp: 28.08.2012). Na stronie Google znajduje się także patent dotyczący rankingu stron należący do Lawrence’a Page’a Method for node ranking in a linked database (http://www.Google.com/patents/US6285999, dostęp: 30.08.2012).

63 „Every time we write a link, or even click on one, we are feeding our intelligence into Google‘s system” [Carr 2008, 219].

64 „Google‘s software systematically exploits human knowledge” [Carr 2008, 219]. Artykuł ukazał się 12 listopada 2006 roku i jest dostępny w sieci pod adresem: http://www.nytimes.

com/2006/11/12/business/12web.html?pagewanted=all (dostęp: 30.08.2012).

w których widział odzwierciedlenie struktury grafu – matematycznego koncep-tu [Battelle 2007, 55]. Z drugiej strony Battelle sugeruje, że Page odnosił je tak-że do innej struktury i widział sieć WWW jako zbiór cytatów i adnotacji, z tym że hipertekst w owym czasie miał wyłącznie jednokierunkowy charakter i „nie można było podążać za odsyłaczami w odwrotnym kierunku”. Pomysł Page’a zre-alizowany w algorytmie, który nazwał on BackRub, był prototypem wyszukiwar-ki oraz koncepcji stanowiącej podstawę PageRank i polegał na wprowadzeniu tej możliwości, czyli zebraniu linków w sieci i odwróceniu ich kierunku [Battelle 2007, 58]. Battelle przypomina w tym miejscu źródłowy pomysł Tima Bernersa--Lee, który stworzył WWW, aby umożliwić uporządkowanie informacji o cha-rakterze naukowym tak, aby były łatwo i szybko dostępne. Trzeba dodać, że to właśnie naukowa instytucja, taka jak CERN, stała się miejscem narodzin WWW, a dane o charakterze badawczym stanowiły treść zarządzaną przez systemu.

Ten kontekst był od początku źródłem rozwiązań i projektów Bernersa-Lee i stał się także podstawą jego najbardziej wyrainowanego pomysłu, jakim jest sieć semantyczna, będąca techniczną realizacją zamysłu ogarnięcia strefy znaczeń i sensów, zastrzeżona dotychczas dla człowieka. Jest to doskonale widoczne za-łożenie jego książki, opisującej powstanie WWW, expressis verbis wyrażone w pi-semnej propozycji zawierające jej projekt przeznaczonej dla kierownictwa CERN [Berners-Lee 2000, 211]. Opisane fakty wskazują, że istotnie Carr i Markoff, choć w publicystycznej formie, artykułują jednak istotny aspekt systemów rankingu z jego naczelnym przedstawicielem: algorytmem PageRank. Jest on niewątpliwie narzędziem biznesowym wpisującym się w projekt kolektywnej inteligencji, któ-rej różne interpretacje i aktualizacje tutaj śledzimy.

PageRank powstał jako część projektu naukowego, jaki realizowali Page i Brin jako doktoranci informatyki na Uniwersytecie Stanforda, który był właś-cicielem patentu chroniącego algorytm. Wyłączność na ten patent została wy-kupiona przez Google za 1,8 miliona udziałów w tej irmie. Zostały one następ-nie sprzedane w 2005 roku za sumę 336 milionów dolarów [Ledford 2009, 9].

Termin wyłączności praw Google minął w 2011 roku [Battelle 2007, 98]. Easley i Kleinberg65 w cytowanej przed chwilą książce opisują dokładnie nieskompli-kowaną w pomyśle zasadę wykorzystania odnośników do tworzenia rankingu stron, która, choć później uzupełniono ją o inne mechanizmy, dalej pozostaje podstawowa. Pierwszy krok jest banalny – pozycja wśród wyników wyszuki-wania zostaje ustalona zgodnie z liczbą linków, które kierują do danej strony, odczytanych przez programy skanujące sieć i podążające ślepo za odnośnikami

65 Jon Kleinberg jest ekspertem w tej dziedzinie, autorem systemu do analizowania za-wartości w sieci opracowanego w połowie lat 90. na Uniwersytecie Cornella i zrealizowane-go w IBM Almaden Reserch Center, a także uznanezrealizowane-go za przełomowe rozwiązanie. Odbiera on pierwszeństwo algorytmowi PageRank, jednak to ten ostatni przestał mieć wyłącznie charak-ter laboratoryjny [Stross 2008, 42]. Metoda Kleinberga nosiła nazwę HITS (hyperlink-induced topic search) i opierała się na zasadzie, że dobrej jakości strony główne (authorities) są wska-zywane przez dobre centra (hubs) i na odwrót, precyzyjniejsze wytłumaczenie tego pomysłu podaje Levene [Levene 2010, 117].

od strony do strony. W następnym kroku algorytm korzysta z bardziej

wyra-inowanej procedury, która posługuje się tym samym zestawem linków i wy-korzystuje fakt, że wskazywane przez nie strony nie zawierają zazwyczaj po-jedynczych odsyłaczy, ale ich zestawy. Polega ona na przyporządkowywaniu wagi każdej ze stron, określającej jej „wartość” w procesie wyszukiwania. Od-bywa się to zgodnie z procedurą działającą według tzw. zasady powtórzone-go udoskonalenia (principle of repeated improvement), w której trakcie strona źródłowa, wskazująca na globalnie wysoko notowane strony docelowe, dostaje ocenę będącą sumą notowań tych stron [Easley 2010, 355]. W ten sposób rea-lizuje się opisane przed chwilą odwrócenie kierunku linków, zawarte w pomy-śle Page’a BackRub. Taką procedurę można powtarzać. Istota polega na tym, że podstawą rankingu pozostaje wyłącznie struktura linków, odtworzona z sieci dla potrzeb bieżącego wyszukiwania66.

Praktyczne wykorzystanie tej techniki polega na wprowadzeniu dwóch ka-tegorii stron: tzw. głównych (authorities), czyli będących celami poszukiwań, oraz tzw. centrów (hubs), będących wysoko ocenionymi listami linków. Na po-czątku wszystkie strony mają równą wartość, na przykład 1, następnie każdej, napotkanej w czasie wyszukiwania stronie przydziela się wartość dla obydwu tych kategorii, zależną od bezpośrednich linków. W kolejnym kroku i następ-nych stosuje się procedurę powtórzonego udoskonalenia (czyli przenosi się punktację wstecz na źródło odsyłacza), otrzymując końcowy ranking [Easley 2010, 356]. PageRank w swoim wyjściowym pomyśle, opartym na zasadzie powtórzonego udoskonalenia, wprowadzał pewne ulepszenia, wśród których najważniejsze polegało na wstępnym przydzieleniu równych, ułamkowych wag wszystkim badanym węzłom sieci, sumujących się do liczby jeden, co umożli-wiało kontrolę procesu oraz zapewniało stabilność jego wynikom. Page rozwią-zał także różne, pomniejsze problemy wynikające z nieprzewidzianych koni-guracji węzłów sieci [Easley 2010, 360].

Trzeba dodać, że znaczenie algorytmu Page’a, jak twierdzą Easley i Klein-berg, z czasem spadło, a nawet w latach 2003–2004 pojawiły się inne rozwią-zania, takie jak metoda zwana Hilltop. Samo analizowanie linków zostało także wzbogacone przez inne wskaźniki wyszukiwania, takie jak analiza tekstu lub dane pochodzące z obserwacji zachowań użytkownika [Easley 2010, 364]67. Ważnym aspektem funkcjonowania wyszukiwarek jest gra tocząca się między silnie zainteresowanymi wysokimi miejscami w rankingach podmiotami gospo-darczymi w sieci a algorytmami wyszukującymi, dążącymi do własnych wyni-ków, których szczegółowe rozwiązania są silnie chronioną tajemnicą. Waga tego problemu wzrasta, ponieważ wyszukiwarki „stały się bardzo obiecującym bi-znesem opartym na reklamie”, a uzyskiwanie wysokich wyników w rankingach

66 Precyzyjny opis tej techniki wraz ze stosownymi schematami znajduje się we wspo-mnianej książce.

67 Ledford jako przykłady podaje jeszcze nazwy domen i adresy URL, zawartość i struktu-rę strony, jej użyteczność i dostępność czy tagi z sekcji Meta [Ledford 2009, 10].

jest obecnie przedmiotem osobnego przemysłu – search engine optimiza-tion (SEO – optymalizacja wyszukiwarek) [Easley 2010, 364]. Zrozumiano to względnie szybko. Stross w swojej książce poświęconej Google twierdzi, że w latach 2004–2006 zainwestowano nie mniej niż 350 milionów dolarów w spółki, „które planowały zrealizować jakiś aspekt wyszukiwania w Interne-cie” [Stross 2009, 241].