• Nie Znaleziono Wyników

Gdy już wszystko jest ustalone, ujawnia się naturalna forma popytu, którego nie krępują wąskie gardła dystrybucji i ograniczenia miejsca na półkach

„Długi ogon”

6. Gdy już wszystko jest ustalone, ujawnia się naturalna forma popytu, którego nie krępują wąskie gardła dystrybucji i ograniczenia miejsca na półkach

skle-powych. Co istotne, wpływ przebojów rynkowych na kształt popytu jest dużo mniejszy, niż moglibyśmy podejrzewać. Natomiast różnorodność społeczna znaj-duje odzwierciedlenie w różnorodności form popytu [Anderson 2008, 82].

W tych sześciu punktach pojawiają się wątki o różnego typu charakterze, a ich skutki działają zarówno w obszarze ekonomii, stosunków społecznych, jak i kultury. Dotyczy to szczególnie istotnych w tym miejscu punktów 3 i 6. W tym pierwszym wspomina autor o istnieniu iltrów zdolnych wpływać na popyt, za czym kryje się bardzo złożona i najważniejsza dla Internetu problematyka, której Anderson poświęca wiele stron. Filtry, które ukierunkowują zachowa-nia konsumentów, są liczne i skomplikowane, więc próbuje je uporządkować, dzieląc na te, które odsiewają towary zanim traią one na rynek (nazwane przez niego wstępnymi – pre-ilters), i te, których rolą jest wybieranie produk-tów „zasługujących na uznanie (spełniających kryteria, odpowiadających ocze-kiwaniom, ciekawych, oryginalnych itp.)”, a minimalizowanie lub ignorowanie

„elementów nieodpowiednich” (iltry następne – post-ilters)51. Rolę iltrów wstępnych odgrywają redaktorzy, poszukiwacze talentów, szefowie studiów

49 Modele handlu elektronicznego opisuje Alicja Krzepicka w książce Zarządzanie w wa-runkach gospodarki cyfrowej [Gonciarski 2010, 123].

50 Dynamika wzrostu transakcji kupna dokonywanych za pomocą Internetu przez oso-by prywatne jest bardzo wyraźna. Z tabeli Eurostatu wynika, że dla Unii Europejskiej niemal podwoiła się ona w okresie od 2005 roku(w Polsce wzrosła czterokrotnie w tym okresie), szczegóły na stronie: http://epp.eurostat.ec.europa.eu/tgm/table.do?tab=table&plugin=1&language

=en&pcode=tin00067 (dostęp: 27.08.2012).

51 Zachowuję określenia Andersona, aby pokazać ich nieokreśloność i relatywizm – w istocie badanie takich iltrów jest badaniem ośrodka, w którym są stosowane, nawet w bar-dzo szerokim społecznym czy kulturowym sensie, ale ośrodka w najwyższym stopniu istotne-go, tworzącego otoczenie decyzji producenckich, marketingowych czy konsumenckich.

ilmowych, marketingowcy czy pracownicy branży reklamowej, iltrów następ-nych – blogi, recenzje, rekomendacje czy sami konsumenci.

Choć wydaje się, że przykłady Andersona są nieco przypadkowe (zwłaszcza te pierwsze), to jednak identyikuje on zjawisko o istotnym znaczeniu. Przypi-suje on na przykład znaczącą wagę blogom w systemie iltrów [Anderson 2008, 178]. Wpływ zjawiska rekomendacji natomiast, które Anderson komentuje tak-że w innych miejscach [np. Anderson 2008, 160], aby podkreślić ich znaczenie, wspiera się na innym, identyikowanym przez niego, podstawowym zjawisku.

Jest nim zmiana architektury uczestnictwa, będąca, jak twierdzi Tim O’Reilly w omawianym tutaj artykule What is Web 2.0, tematem jednej z głównych lek-cji udzielanych przez erę Web 2.0, która brzmi: użytkownicy dodają wartość (users add value). Anderson, powołujący się na O’Reilly’ego, formułuje to jako zacieranie się granicy między „światem tworzącym a światem konsumującym twórczość” [Anderson 2008, 123] i pojawienie się różnego typu funkcji miksu-jących obydwa te zadania52. Zatarcie tych ról istotnie zakłóca tradycyjne kana-ły dystrybucji produktów i informacji o nich, mnożąc wielokrotne i skompliko-wane sprzężenia zwrotne. Próbę uporządkowania tej właśnie strefy przynosi wspomniana już książka Easleya i Kleinberga, o czym za chwilę. Anderson od-wołuje się także expressis verbis do pojęcia kolektywnej inteligencji (collective intelligence)53, którą dwaj przywołani autorzy, a także Tim O’Reilly uważają za jedno ze sztandarowych zjawisk Web 2.0. Zwraca uwagę na nieświadomy cha-rakter działań ludzi biorących udział w formowaniu się zbiorowych przeko-nań z nieznaną dotychczas siłą i tworzących de facto rekomendacje [Anderson 2008, 159], co niewątpliwie może być także rozpatrywane w szerszym aspek-cie kulturowym.

Całość omówionej przed chwilą problematyki Anderson łączy z jednym z trzech najważniejszych czynników, sprawiających, iż realizuje się scenariusz

„długiego ogona” w zakresie sześciu jego podstawowych, wymienionych przed chwilą składowych, powodujących, innymi słowy, że jest w stanie pojawić się

„silny bodziec ekonomiczny” w postaci „obniżenia kosztów dotarcia do nisz”.

Jest nim przede wszystkim „łączenie podaży z popytem”, czyli „informowanie konsumentów o pojawieniu się nowych wyrobów” [Anderson 2008, 85], przyj-mujące złożone i wielorakie formy (pozostałe dwa to upowszechnianie się metod wytwarzania, na przykład możliwość produkcji własnych ilmów, i upo-wszechnianie się metod dystrybucji, czego przykładem jest Amazon, iTunes czy eBay). To właśnie trzeci, wspomniany jako główny czynnik, umożliwiony także przez rozwój technologii, „dodatkowo pobudza popyt na towary w sferze

ni-52 Anderson publikuje opracowanie studentów z University of California w Berkeley, na-zwane przez nich mapą twórczości pokazującą krzyżowanie się ról producenta – autora – pro-fesjonalisty i konsumenta – amatora, oraz inne formy pośrednie [Anderson 2008, 124], w ten sposób powstaje kultura „i”, a nie „lub”; kultura koegzystencji mainstreamu i amatorów [An-derson 2008, 258].

53 W polskim tłumaczeniu zastąpionej terminem inteligencji stadnej, ignorującym istnie-jącą w tym względzie tradycję.

szowej i powoduje wypłaszczanie krzywej [popytu – przyp. R.M.] z jednoczes-nym przeniesieniem środka ciężkości w kierunku prawym” [Anderson 2008, 87], czyli w stronę nisz. Jego rola polega na zmniejszeniu „kosztów poszukiwa-nia”, spadających wraz ze wzrostem ilości informacji, do czego przyczyniają się walnie konsumenci.

Pojęcie nisz staje się w tekście Andersona tak ważne, ponieważ otwiera problematykę o charakterze najogólniejszym, której nie sposób z tego powo-du pominąć, zwłaszcza że pojawiają się dzięki niej interesujące nas tutaj blogi.

Poświęca jej rozdział Kultura nisz [Anderson 2008, 252], zawierający analizę możliwych i realizujących się konsekwencji funkcjonowania „długiego ogona”;

są one dalekosiężne i prowadzą do utworzenia stanu, który Anderson nazywa kulturą masowo równoległą, zastępującą jej dotychczasową formę – kulturę masową. Istota tej nowej rzeczywistości polega na jej rozproszeniu na wiele, bardzo różnorodnych i równoległych ścieżek, z których każda jest samodzielna i ważna oraz angażuje różne grupy ludzi. Nie jest to rewolucyjne stwierdzenie, bo podobne konstatacje w obrębie releksji kulturoznawczej i ilozoicznej po-jawiały się znacznie wcześniej i liczniej (na tej idei wspiera swój projekt post-moderna), ale raczej rewolucyjne wzmocnienie tej tendencji, spowodowanej rozwojem technologii informacyjnych. Anderson oddaje jej skutki w metaforze, mówiąc o rozmnożeniu „plemion”, wewnątrz których egzystujemy, choć miesz-kamy ciągle w jednym świecie; śpiąc w jednym łóżku, pisze, śnimy różne sny [Anderson 2008, 261].

Wzmocnienie stanu rozproszenia powoduje, że funkcjonujemy w niespo-tykanej dotychczas na tę skalę epoce mikrokultur54, którą Anderson odnosi do zdania Raymonda Williamsa pochodzącego z jego głośnej książki Culture and Society 1780–1950 z 1958 roku: w rzeczywistości mas nie ma, istnieją je-dynie zwyczaje, dzięki którym oglądamy ludzi jako masy55. Williams zawarł je w końcowym, podsumowującym wykład rozdziale Conclusions (Wnioski). Pod-daje tam krytycznej analizie pojęcie masy na tle zasadniczego wywodu książki, który zmierza do ustabilizowania i wyjaśnienia innego pojęcia: kultury. Jej idea, twierdzi, jest zapisem reakcji na zdarzenia codziennego życia, które stanowią jej naturalny kontekst i są skutkami realizacji naszych wyobrażeń na temat prze-mysłu, demokracji i sztuki. Idea masy, powstała wskutek pewnych społecznych, ustrojowych i gospodarczych konsekwencji rewolucji przemysłowej, jest rów-nież jedynie rodzajem presupozycji, o trudno uchwytnych granicach izycznych,

54 Teza, że Internet jest prawidłową aktualizacją mechanizmów gospodarki kapitali-stycznej, ma swoje źródło w głębokiej i bardzo wpływowej analizie Frederica Jamesona, do-konanej w książce Postmodernizm, czyli logika kulturowa późnego kapitalizmu z 1991 roku (polskie wyd.: Kraków 2011), a detaliczne wprowadzenie zjawia się na przykład w tekście George’a P. Landowa Hypertext 3.0: Critical Theory and New Media in an Era of Globalization, Baltimore 2006. W języku polskim jest dostępny rozdział Hipertekst i teoria krytyczna, zamiesz-czony w antologii Ekrany piśmienności, red. nauk. Andrzej Gwóźdź, Warszawa 2008, s. 213.

55 „There are in fact no masses; there are only ways of seeing people as masses” [Williams 1960, 319].

służącej na przykład do tworzenia negatywnych stereotypów [Williams 1960, 318]. W tym sensie można ją odnieść do opinii Andersona, w której odtwarza on rozproszoną, lecz istotną podmiotowość jednostek czy grup. Zdefragmentowana kultura przynosi obietnicę końca „ortodoksyjnych dogmatów i wiecznych insty-tucji”, dostarczając narzędzi dla realizacji idei zrodzonych jeszcze w latach 60.56 [Anderson 2008, 270], zmuszając do aktywności: weryikacji, kontaktu, pro-wadzących w rezultacie do powiększenia się aktywności społecznej [Anderson 2008, 271], czego doskonałym wyrazem są blogi. Blog jest rodzajem aktualizacji niszy, jest niszą, odsuwającą zresztą w cień media mainstreamowe, noszące cią-gle odium masowości [Anderson 2008, 264].

Bardziej formalną wykładnię nie tylko „długiego ogona”, ale przede wszyst-kim efektów sieciowych, podają David Easley i Jon Kleinberg w podręcznik Net-works, Crowds, and Markets: Reasoning about a Highly Connected World. Badają oni między innymi sytuacje, w których zachowania i decyzje ludzi są uwarun-kowane wyborami dokonywanymi przez innych, przynoszącymi bezpośrednie korzyści lub stającymi się źródłami pożytecznych informacji. Obserwacje te przynoszą spodziewany wniosek, że te typy procesów decyzyjnych, które opie-rają się „zachowaniach skorelowanych w obrębie populacji”, przynoszą skut-ki odmienne od obserwowanych w środowiskach izolowanych [Easley 2010, 479]. Autorzy wybierają kategorię popularności do opisu takich sytuacji i sto-sują ją do analizy stron WWW. Wywód rozpoczynają od prostego i zadawanego sobie od początku dziejów sieci pytania: Jak układa się stosunek liczby stron do liczby linków kierujących na te strony?57 [Easley 2010, 479]. Szukając nań odpowiedzi, zwracają uwagę, iż nie działa w tym wypadku klasyczny model rozkładu normalnego, posiadający udowodnione uzasadnienie matematyczne, ale jak wynika z badań empirycznych, stosunek ten w przybliżeniu wynosi 1/k2 [Easley 2010, 481] i jest zgodny raczej z rozkładami charakterystycznymi dla praw potęgowych (funkcji potęgowych o wykładniku ujemnym). Ich pojawie-nie się wynika ze sprzężenia zwrotnego w sytuacjach wzajempojawie-nie zależnych wy-borów. Ich działanie powoduje pojawienie się modelu popularności opartego na zasadzie „bogactwo czyni bogatszym” (Rich-Get-Richer Model), zwanego tak-że inaczej uprzywilejowanym przyłączaniem (preferential attachment) lub teo-rematem Mateusza, który ilustruje zasadę, że wzrost popularności danej strony internetowej jest wprost proporcjonalny do jej popularności obecnej [Easley 2010, 483].

Osobnym zagadnieniem w tej sytuacji jest stan początkowy lawinowego narastania popularności, który wydaje się wrażliwy i niepewny jednocześnie.

Easley i Kleinberg opisują doświadczenie przeprowadzone przez Matthew Sal-ganika, Petera Doddsa i Duncana Wattsa, którego wyniki zostały opublikowane w tygodniku „Science” w 2006 roku. Polegało ono na uruchomieniu

widoczne-56 Tę problematykę omawiam szczegółowo w rozdziale Utopijne idee Internetu.

57 W oryginale to pytanie brzmi nieco inaczej: „As a function of k, what fraction of pages on the Web have k in-links?”, ale jego sens sprowadza się do przedstawionej tutaj formy.

go w Internecie serwisu pozwalającego na pobieranie utworów muzycznych, zawierającego 48 nieznanych utworów popularnych grup muzycznych o różnej jakości, które można było odsłuchać i ostatecznie pobrać. Po wejściu do serwisu była widoczna tabela zawierająca liczbę dotychczasowych pobrań (czyli popu-larności) poszczególnych utworów. W rzeczywistości istniało osiem identycz-nych stron, a zjawiający się gość był losowo kierowany na jedną z nich. W tych kontrolowanych warunkach można było odtworzyć popularność rynkową po-szczególnych utworów, która jednak różniła się znacznie w zależności od ko-pii strony. Badacze użyli tego przykładu, aby pokazać, że obecność sprzężenia zwrotnego może skutkować poważnymi zaburzeniami w efektach wyjściowych.

Dla Easleya i Kleinberga jest to ilustracja wrażliwości procesów kierowanych prawami potęgowania na nieprzewidziane początkowe luktuacje i tym samym wysoce nieprzewidywalnych skutków tych procesów [Easley 2010, 485].

Te konstatacje mogą mieć duże znaczenie dla internetowego biznesu i ro-dzić pytania, na przykład: Czy bardziej opłaca się sprzedawać niewielki zestaw produktów bardzo popularnych, czy obszerny asortyment mniej atrakcyjnych?

Tym pytaniem zajmuje się Chris Anderson i udziela na nie jednoznacznej od-powiedzi, choć, jak stwierdzają autorzy podręcznika, sprawa nie jest taka pro-sta i wywoływała dyskusje, spośród których wybierają jako przykład polemikę prowadzoną z Andersonem przez Anitę Elberse, profesorkę Harvard Business School, na łamach „Harvard Business Review”58. Twierdzenie Andersona zdają się jednak potwierdzać doświadczenia wielkich irm, takich jak Amazon. Daje się ono sprowadzić do analizy omówionych praw potęgowania, choć nieco zmienia się kąt, pod jakim są stosowane. Pytanie dotyczy wolumenu sprzeda-ży badanego ze względu na malejącą popularność, czyli strefy „długiego ogo-na” za pomocą odmiennej, choć także opartej na prawach potęgowania krzywej o charakterystycznym kształcie, opadającej wolno wraz z malejącym wskaź-nikiem sprzedaży [Easley 2010, 487]. Dyskusja na temat przewagi nisz nad hitami sprowadza się w tej sytuacji do obserwowania dynamiki tej krzywej, która ma długą historię i jest nazywana od nazwiska swego wynalazcy, języko-znawcy George’a Kingsleya Zipfa – krzywą Zipfa, opisaną przez niego w 1949 roku i ilustrującą częstość występowania słów [Easley 2010, 488]59. Podobny-mi krzywyPodobny-mi zajmował się także na gruncie statystyki Vilfredo Pareto, o czym przypomina tekst, na który powołują się Easley i Kleinberg, autorstwa Lady A. Adamic60.

58 Dostępną na stronie: http://hbr.org/2008/07/should-you-invest-in-the-long-tail/ar/1 (dostęp: 28.08.2012).

59 Ciekawie prezentuje się ten problem na tle topologii sieci. Podejmuje go Yochai Benkler, opisując zabiegi analityczne dotyczące rozkładu linków w sieci, których początek datuje się na rok 1999 [Benkler 2008, 256].

60 Dostępny pod adresem: http://www.hpl.hp.com/research/idl/papers/ranking/ran-king.html (dostęp: 28.08.2012).