• Nie Znaleziono Wyników

nowe radio i praktyka komunikacyjna słuchaczy i użytkowników

W dokumencie Radio publiczne w Europie (Stron 164-170)

kontekst technologiczny

5.3. nowe radio i praktyka komunikacyjna słuchaczy i użytkowników

Kiedy w połowie lat 90. pojawiła się, jako jeden z trybów transmisji plików w celu odtworzenia dźwięku „na żywo” lub „na życzenie”, tech-nologia strumieniowania (streaming), komputery zostały tym samym „włączone” do internetu. Sygnał radia na żywo mógł być dostarczany

Radio cyfrowe i sieciowe

Działanie sy stemu (ek onomiczneg o i t echniczne go)

wszędzie tam, gdzie to możliwe, i to w czasie rzeczywistym. W ten spo-sób komputery stały się narzędziem produkcji cyfrowej i konwerterem umożliwiającym przejście od treści analogowej do cyfrowej. Zarazem stały się czymś dużo więcej: źródłem prawdziwego dźwięku w sieci internetu jako nowej platformy dystrybucyjnej.

W tych samych latach weszła na rynek trzecia generacja telefonów komórkowych (3G), zastępując szybko analogowe telefony komór-kowe. Nowa generacja telefonów stworzyła zupełnie nowe możliwości przesyłu tekstów i plików multimedialnych. Jednocześnie rozpiętość sieci szerokopasmowych i uruchomienie – po wielu niepowodzeniach – satelity DTH (bezpośredniego odbioru) przez koncerny Hughes Air-craft, Eutelsat i Astra wytworzyły warunki sprzyjające uruchomieniu cyfrowej telewizji, zawierającej kanały audio, w trybie pay-per-view, z bardzo szybkim przejściem do trybu „na żądanie”.

Wszystkie te procesy zmieniły radykalnie pojęcie słuchania jako aktywności indywidualnej, a zarazem społecznej postawy, co dotyczy w tym samym stopniu radia jak audio. W nowym środowisku techno-logicznym zmieniło się zasadniczo rozumienie takich pojęć jak nagranie muzyczne, koncert na żywo, publiczna wypowiedź (mowa), i to zarówno w sferze publicznej, jak i prywatnej. Zmieniły się relacje między roz-mową czy roz-mową, tekstem, obrazem (w tym filmem). Nowe technologie przyśpieszają te procesy w krajach gospodarczo opóźnionych, generu-jąc szczególną mieszankę globalizacji i lokalności, a więc glokalizacji. Procesy, o których mowa, zmieniają też radykalnie media, szczegól-nie radio. Podczas gdy rodzina i gospodarstwo domowe są nadal naj-odpowiedniejszymi okolicznościami definiującymi telewizję, to jej odbiór odbywa się również w takich publicznych miejscach jak puby, bary, restauracje, kawiarnie (nowa cyfrowa telewizja sportowa), urzędy, dworce kolejowe (tzw. telewizja outdoor, choć bardzo często, tak na-prawdę – indoor) (Briggs, 2010). Widownia korzysta z możliwości oglą-dania TV na ogromnych telebimach, a większy ekran oznacza o wiele przyjemniejszy odbiór.

Tymczasem odbiór radia wyznacza w dalszym ciągu prosty w użyciu, niewielki i lekki, estetyczny odbiornik. Wszystko to stwarza ogromne różnice w odbiorze przekazów telewizyjnych i radiowych. Kiedy bowiem mówimy o cyfrowym radiu, myślimy, jak dotychczas, o osobistym, prze-nośnym systemie dźwięku sprowadzonym do sieci, a więc postaci nie-materialnej, dostarczającej sygnał radiowy.

Na czym jednak przede wszystkim polegają przeobrażenia radia? W połowie lat 90. radio weszło do czwartej i zarazem piątej fazy swojego rozwoju, po bezprzewodowym telegrafie (1895), transmisji AM (1922), FM i radioodbiornikach tranzystorowych (1955). Wszystkie te fazy łączą się jednak nierozerwalnie z rozwojem innych technologii dźwięku. Tabela 5. Fazy rozwoju radia a rozwój innych technologii przenoszenia dźwięku

bezprzewodowe radio telegraf transmisja aM

(fale średnie i długie) nagranie muzyczne, mikrofon transmisja fM

(fale ultrakrótkie) płyta długogrająca lp, magnetofon kasetowy, walkman, telefon transmisja

dab/dab+/drM odtwarzacze cd, Mp3, ipod, ipad

streaming internetowy radio internetowe, aplikacje na urzadzenia mobilne Źródło: Menduni (2007).

Każda faza przyniosła i ugruntowała nowe gatunki radiowe. I nawet jeżeli zmieniła się z czasem społeczna rola radia, to sama idea broad-castingu (rozsiewania przekazu radiowego i telewizyjnego) nie podle-gała nigdy dyskusji, np. w odniesieniu do istnienia „dwóch stron szyby studia radiowego” (po jednej – producent, prezenter, DJ, po drugiej – słuchacze). Niezmienne jest też to, że autor, prezenter, wydawca w stu-diu pozostał rodzajem pełnomocnika zarządzającego stacją czy jej właściciela uprawnionego do upowszechnienia treści przekazu.

Nadawca albo jego „pełnomocnik” w studiu jest w tej sytuacji rodza-jem selekcjonera dokonującego wyboru treści, a zatem jego zadaniem jest intermediacja. Jednocześnie słuchacz, zwłaszcza w trzeciej z wy-mienionych faz – FM, uzyskuje większy wpływ na program, a konku-rencja między różnymi stacjami i między różnymi mediami oznacza tylko jedno: jeszcze więcej władzy audytorium.

Upowszechnienie magnetofonów kasetowych (1963) i walkmanów (1979) pozwoliło na tworzenie osobistego magazynu muzyki i korzy-stanie zeń (choć jeszcze w ograniczonym stopniu) w urządzeniu prze-nośnym używanym w przestrzeni publicznej. Ułożony przez słuchaczy repertuar muzyczny staje się alternatywą wobec oferty nadawców pro-fesjonalnych. W rzeczywistości słuchacz, dokonując wyboru rodzaju

muzyki i utworu, współpracuje z gospodarzem programu. I choć wpro-wadza do programu nowe treści o znaczeniu społecznym (np. dając świadectwo wydarzeniom, przytaczając fakty, dyskutując i polemizując), to jednak pozostaje w sztywnej strukturze programowej, linearnej, ustanowionej przez nadawcę, którego władza polega na możliwości przerwania w każdej chwili kontaktu ze słuchaczami, jeżeli tylko uzna, że informacja zwrotna pochodząca od nich może być dla niego w jakiś sposób zagrażająca lub niekorzystna.

W technologii cyfrowej władza nad programem wyraźnie przesuwa się w kierunku słuchacza-konsumenta. Tutaj po raz pierwszy procesy remediacji, a zatem swoiste zabiegi zmierzające do poprawy działania i oddziaływania radia, wychodzą poza zawartość i społeczne funkcje radia, podając w wątpliwość samo pojęcie broadcastingu. Słuchacz staje się w rzeczywistości tofflerowskim prosumentem – kimś, kto łączy funkcję konsumenta z zadaniami producenta (Toffler, 1980). To prze-sunięcie władzy odbywa się w zasadzie w czterech wymiarach (Men-duni, 2007):

t

t produkcji, gdzie prosument może generować program muzyczny (playlistę) albo program słowny i zarządzać nimi;

t

t transmisji, gdzie nadaje wiele platform technologicznych, pro-sument dokonuje narrowcastingu, ale też „ładuje”, „ściąga”, „wysyła”, „dostarcza” (w tym za pośrednictwem sieci telefonii komórkowej) i większość tych możliwości jest łatwo dostępna;

t

t magazynowania treści, gdyż istnieje łatwo dostępna możliwość gromadzenia i przechowywania muzyki lub słowa, razem z innymi rodzajami multimediów;

t

t ekonomicznym, gdyż w tradycyjnym radiu, a zwłaszcza w tele-wizji, różne operacje techniczne są na ogół drogie.

Społeczna praktyka powszechnego wykorzystania muzycznych nagrań cyfrowych różni się zasadniczo od dotychczasowych praktyk korzystania z treści przekazów audiowizualnych i wideo. Pojawienie się przenośnych gramofonów (w latach 20.), radioodbiorników tran-zystorowych (połowa lat 50.) oraz kasety audio i walkmana/rekordera Sony, często z wbudowanym odbiornikiem radiowym (koniec lat 70.), to kamienie milowe procesu przechodzenia od muzyki wykonywanej na żywo lub zarejestrowanej, przeznaczonej do indywidualnego wyboru – do muzyki słuchanej w trybie przenośnym. Wszystko to do pewnego stopnia reprezentuje poszerzenie sfery prywatnej w sferze publicznej,

co P. Flichy określił jako bańkę komunikacyjną, w której np. człowiek idący ulicą jest całkowicie pochłonięty słuchaniem swojej ulubionej muzyki i wręcz przez nią otoczony (Flichy, 1991).

Magnetofon kasetowy i walkman pozwoliły już słuchaczom-użyt-kow nikom osobiście multiplisłuchaczom-użyt-kować nagrania, nawet jeżeli były one kiepskiej jakości. Umożliwiło to wymienianie się nagraniami, samodzielne kształtowanie własnego, indywidualnego zasobu muzycznego, w sposób niejako ruchomy i nomadyczny, dostępny dla każdego, kto chce korzy-stać codziennie z własnej domowej ścieżki dźwiękowej.

Muzyczne nagrania cyfrowe przedłużają i powiększają możliwości odbioru muzyki, czego początki można było już dostrzec w technologii analogowej. Od 1991 r. cyfrowe pliki muzyczne mogły być odtwarzane dzięki komputerom MacIntosh i pakowane np. z wykorzystaniem opro-gramowania QuickTime. Jednakże jeszcze większe możliwości prze-syłania i odbioru nagrań muzycznych pojawiły się w 1992 r., kiedy to T. Berners-Lee rozwinął w laboratoriach CERN w Genewie sieć WWW, a następnie, dzięki pierwszej przeglądarce sieciowej Mosaic utworzonej na Uniwersytecie Illinois, w latach 1993–1994 pojawiła się Netscape – pierwsza przeglądarka komercyjna, a w 1995 r. MPEG-3 (MP-3) jako implementacja MPEG-1 Audio Layer III. W tym samym roku weszły na rynek Windows 95. Wszystkie te innowacje i wynalazki sprawiły, że pliki audio mogły być teraz generowane przez kompatybilny z dodat-kowym oprogramowaniem PC.

Jednakże legitymizacja internetu w skali masowej dokonała się do-piero dzięki Windows Explorer. W tym samym roku 1995 wprowadzony został Real Audio, dostarczając pierwsze efektywne i powszechnie dostępne oprogramowanie dla streamingu, chociaż chronologicznie pierwsze było tzw. Liquid Audio.

Kiedy już dźwięk mógł być odtwarzany w osobistych komputerach, wytwórcy starali się w produkowanych urządzeniach odbiorczych umieszczać zewnętrzne głośniki przystosowane do emisji stereofo-nicznej. Głównym jednak narzędziem w dziedzinie przetwarzania i generowania dźwięku w PC okazała się powszechnie wykorzystywana możliwość multiplikowania CD, nawet nielegalnie, za pomocą tanich i coraz popularniejszych nagrywarek. Te „wypalane CD” stworzyły liczne problemy dla przemysłu muzycznego. W tym czasie jednak internet rozwinął się wykładniczo i korzystanie z niego stanowi ma-sową praktykę społeczną w krajach rozwiniętych, a MP-3 stał się szeroko stosowaną standardową technologią kompresji plików audio.

Rozpowszechnianie dźwięku w sieci radykalnie zmieniło dystrybucję, ekonomikę i kulturę muzyczną, by nie wspomnieć o związkach z radiem i całym przemysłem muzycznym. Wśród skutków tego procesu wska-zać można m.in. to, że:

t

t niemal każdy może zostać nadawcą. Poprzednio istniał ogromny społeczny i ekonomiczny dystans między nadawcą i słuchaczem. Obecnie dzięki P2P został on – przynajmniej potencjalnie – znacz-nie zmznacz-niejszony;

t

t prawie każda istniejąca stacja radiowa może nadawać w systemie webcastingu (transmisja w sieci), anihilując bariery czasu i prze-strzeni oraz liczne (jeżeli nie wszystkie) formy społecznej kontroli i cenzury;

t

t streaming pozwolił uzyskać dostęp do cyfrowego dźwięku (a póź-niej – wideo) plików wcześpóź-niej załadowanych. Przedtem wymiary plików sprawiały, że czas ich pobierania był tak długi, iż znie-chęcał potencjalnych słuchaczy (WWW tłumaczono powszechnie jako World Wide Wait). Zanim uruchomiono tryb streamingu, praktyki w sieci zostały ograniczone do niewielkich niszy wyko-rzystywanych za pomocą szybkich połączeń przez fanów muzyki. Później, pod koniec lat 90., praktyki te stały się coraz popular-niejsze. Wykorzystanie streamingu stopniowo wzrastało, łamiąc z czasem monopol tradycyjnego radia. Pozwolił on nadawać na żywo (prawie) w masowej skali, a jedynym opóźnieniem był czas buforowania.

Proces, który staram się tu opisać, obejmuje upowszechnienie cyfrowego zapisu i odtwarzania dźwięku oraz społeczne praktyki z tym związane, które łączą się z tzw. remediacją, tworzeniem „mediów za-radczych”, by użyć pojęcia wprowadzonego przez Levinsona (1999) oraz Boltera i Grusina (1999). Proces ten rozpoczął się w praktyce na początku lat 90. Początkowo sprowadzał się do wprowadzenia techno-logii cyfrowej obróbki i transmisji dźwięku. Cyfrowy dźwięk pozwala na wprowadzenie obejmującego cały świat transkodu, dzięki któremu każdy plik może zostać zaprogramowany, zmodyfikowany, skopiowany, dostarczony do innych platform i technologii.

5.4. architektura nowego radia a praktyki komunikacyjne

W dokumencie Radio publiczne w Europie (Stron 164-170)