• Nie Znaleziono Wyników

Pojęcie nowych mediów funkcjonuje w dyskursie od połowy lat 80. XX wieku jako próba zoperacjonalizowania zmian dokonujących się w ob-szarze mediów i komunikowania, dokonujących się pod wpływem

no-Rysunek 2.1. Mapa memów epoki Web 2.0 długiego ogona: Google

AdSense Tagowanie, nie

taksonomia: Flickr, del.icio.us

Aplikacje bogate w funkcjonalności:

Gmail, Google Maps i AJAX

Partycypacja, nie publikowanie: Blogi Opiniotwórczy użytkownik:

PageRank, eBay, recenzje na Amazonie

wych technologii transmitowania i komunikowania. Z reguły termin ten zawężany jest do internetu uważanego za najbardziej reprezentatywne i najdoskonalsze opus magnum nowej ewolucji medialnej. Jak wskazuje Maryla Hopfinger: „Główną cechą nowych mediów (...) jest ich imma-nentny związek z techniką, to, że powstają przy współdziałaniu człowie-ka z maszyną” (Hopfinger 2010, s. 10).

Nie do końca udało się zoperacjonalizować konstytutywne cechy nowych mediów i wyjaśnić, na czym polega istota ich nowości, a w dyskursie naukowym pojawia się już pojęcie ukute przez Levinsona nowych nowych mediów (Levinson 2010), jeszcze mniej precyzyjne niż pojęcie nowych mediów. Wydaje się, że w tym przypadku mamy do czynienia z sytuacją w dyskursie naukowym, o której piszą Graszewicz i Lewiński: „Tu nie chodzi o zmianę społeczną, a o zmianę w dyskursie naukowym – bo nawet jeśli zmiany nie widać, to będziemy ją zaklinać”

(Graszewicz i Lewiński 2010, s. 16). Spróbujmy zatem przywołać owe przypisywane nowym mediom właściwości.

Przegląd definicji, odnoszących się do nowych mediów, pozwala na konstatację, iż jedną z częściej przypisywanych nowym mediom cechą jest interaktywność. Interaktywność, choć traktowana jako immanent-na i immanent-najbardziej reprezentatywimmanent-na cecha nowych mediów, jest pojęciem bardzo nieprecyzyjnie definiowanym w literaturze. Wydaje się w wie-lu wymiarach słowem-kwie-luczem ukazującym nieograniczone możliwości odbiorcy nowych mediów.

Jak słusznie zauważa Espen Aarseth, interaktywność nadaje ma-giczne właściwości przedmiotowi, do którego się ją przypisuje (Aarseth 1997, s. 48), a więc wykazuje silne nacechowanie emotywne. Badacz ten uważa, że interaktywność obudowana jest kłamstwem, gdyż zawsze ograniczeni jesteśmy strukturą, którą ktoś wytworzył i chociaż podej-mujemy się pewnej aktywności, to jednak w obrębie pewnych ram, które twórca interfejsu na nas nałożył. To mocno eksploatowane przez marke-tingowców pojęcie pozwala na prostą konstatację – interaktywny ozna-cza lepszy, nakierowany na użytkownika, oferujący mu większy zakres opcjonalności. Jak słusznie zauważają autorzy Nowych mediów: „Na po-ziomie ideologicznym to właśnie interaktywność świadczy o przewadze nowych mediów nad starymi. (...) Ogólnie termin ten wskazuje na więk-sze zaangażowanie użytkownika w odczytywanie tekstów medialnych, niezależną relację w stosunku do źródeł wiedzy, zindywidualizowane korzystanie z mediów oraz bardziej świadome wybory” (Lister, Dovey, Giddings, i in. 2009, ss. 33-34). Zatem użytkownik nowych mediów sta-je się bardziej producentem, twórcą niż biernym konsumentem.

Zakła-da się aktywną rolę odbiorcy w przekazie medialnym. Ograniczenia ak-tywności użytkownika do kliknięcia w odpowiednią ikonę z pewnością nie można uznać za przejaw jego interaktywności. Jan van Dijk uznaje, że interaktywność jest wielowymiarowa, a pewne jej poziomy pozwalają określić, jak dalece dane medium może zostać uznane za interaktywne.

Pierwszy jej wymiar to przestrzenność, rozumiana jako możliwość nawiązania komunikacji wielostronnej. Kolejny poziom to czasowość, zoperacjonalizowana poprzez potencjalność tworzenia i otrzymywania wiadomości w optymalnym dla siebie czasie. Trzeci etap określa poziom behawioralny pozwalający na zamianę ról nadawcy i odbiorcy, ale także sprawowanie kontroli nad interakcją. Ostatni poziom stanowi wymiar intelektualny, który warunkuje pełną interaktywność, a oznacza on rozumienie znaczeń i kontekstów działań uczestników interakcji (Dijk 2010, ss. 18-19). Ostatni warunek nie tylko ułatwia interaktywność, ale stanowi warunek sine qua non osiągnięcia sukcesu komunikacyjnego.

Choć koncepcja van Dijka rozjaśnia mgliste pojęcie interaktywności, nadal implikuje wiele pytań. Co to naprawdę oznacza sprawowanie kon-troli nad interakcją? Na ile odbiorca w ogóle może ingerować w treść przekazu? Jak rozumieć pełną wymienność ról uczestników procesu ko-munikacji? To tylko nieliczne pytania, które koncepcja van Dijka może generować. Wydaje się, że należałoby zróżnicować poziomy owej interak-tywności – począwszy od poziomu reagującego, gdzie użytkownik ograni-cza się do możliwości generowanych przez program, przez poziom współ-aktywny dający użytkownikowi możliwość kontroli nad następstwem, aż do poziomu proaktywnego, gdzie użytkownik kontroluje jednocze-śnie strukturę i zawartość (Szykowna 2008, s. 30). Choć i ta koncep-cja nie wydaje się w pełni operacjonalizować interaktywności, owo stop-niowanie ułatwia jego ocenę. Być może należy zgodzić się z Derrickiem de Kerckhove, że interaktywność staje się modnym słowem-wytrychem, który pozwala generować firmom wielomiliardowe zyski, stąd robią one wszystko, by móc zaoferować odbiorcy „interaktywne usługi”. Badacz krytycznie odnosi się do koncepcji interaktywności zauważając: „Branże rozrywkowe i kulturalne inwestują w interaktywność traktując ją jako lep na klientów (...) Większość z nich nie zasługuje na to miano, inte-raktywności w nich, bowiem tyle, co kot napłakał, bo ogranicza się do wyświetlenia odpowiedniego obrazka po wciśnięciu przez użytkownika jakiegoś przycisku” (Kerckhove 2001a, s. 31). Dla wielu użytkowników jakakolwiek możliwość aktywności wobec obiektu medialnego stanowi o jej interaktywności. W podobnym tonie o interaktywności pisze Slavoj Žižek: „Bardzo często podkreśla się, że dzięki mediom elektronicznym

skończyła się pasywna konsumpcja tekstu czy dzieła sztuki: już nie tyl-ko patrzę na ekran, coraz częściej bowiem wchodzę z nim w interakcję, wkraczając z nim w dialogiczny stosunek (...) Ci, którzy chwalą demokra-tyczny potencjał nowych mediów, skupiają się zazwyczaj na tych właśnie cechach, na tym, w jaki sposób cyberprzestrzeń otwiera większości lu-dzi możliwość wyrwania się z roli pasywnego obserwatora” (Žižek 2002, ss. 172-173). Okazuje się jednak, że w praktyce interaktywność staje się mrzonką, pustym słowem wytrychem, z trudnością mającym szansę na pełną realizację.

Terminem, który być może lepiej oddaje specyfikę funkcjonowania nowych mediów, nie jest zatem interaktywność, a proponowana przez Aarsetha ergodyczność (kontaminacja greckich terminów: ergon – praca oraz hodos – ścieżka) (Aarseth 1997, s. 51) oraz interpasywność Žižka.

Ergodyczność należy operacjonalizować jako brak jasno zdefiniowanego toku narracji, w miejsce którego pojawia się tzw. pole zdarzeń, zawiera-jące w sobie wszystkie możliwe fabuły. Ów dyskurs ergodyczny odnoszo-ny jest często do powieści hipertekstowych, których odczytanie za każ-dym razem wyłania inną strukturę tekstową, dalece wykraczającą poza ustalony linearnie model czytania. Dominującym sposobem funkcjono-wania online nie jest aktywność, a operowanie gotowymi rozwiązaniami i narzędziami, które minimalizują aktywność i wysiłek twórczy. Inter-pasywność z kolei można definiować jako zastępowanie bezpośredniego uczestnictwa w życiu społecznym za pomocą podmiotów zewnętrznych – urządzeń czy innych ludzi. Jednym z pierwszych, którzy pisali o relego-waniu aktywności na podmioty zewnętrzne był Jacques Lacan, a kon-cepcję tę kontynuował Žižek.

Lacan przy wyjaśnianiu tego terminu odwoływał się do chóru w kla-sycznej tragedii greckiej, który stanowił rolę pośrednika – wyrażał nie-jako w imieniu publiczności emocje, „komentując” odgrywane na scenie wydarzenia. Žižek przenosi tę zapośredniczającą rolę chóru do współcze-sności. Zwraca uwagę na rolę tzw. „zapuszkowanego śmiechu” pojawia-jącego się w odpowiednich momentach w serialach komediowych, co ma implikować śmiech u publiczności, nawet, gdy ta nie uznaje danych scen za specjalnie zabawne. Inna egzemplifikacja pochodzi ze środowiska re-klamy, gdzie hasła reklamowe imitują z wyprzedzeniem zachwyt kon-sumenta nad nimi. O interpasywności świadczy również kompulsywne nagrywanie filmów na wideo, podczas gdy w konsekwencji wielu z nich w ogóle się potem nie ogląda (Žižek 2002, ss. 172-173). Sytuacje te sta-nowią dowód na to, że wprowadzenie elementu zapośredniczającego – sztuczny, zewnętrzny śmiech czy emocjonalność greckiego chóru

zwal-niają jednostkę z refleksyjności i aktywności. Nie trzeba nawet ognisko-wać uwagi na określonym przekazie, bowiem klaka natychmiast podpo-wie, kiedy się śmiać i jakie emocje należy odczuwać. Proces dekodowania przekazu od razu otrzymuje preferowane odczytanie, któremu odbiorca biernie się poddaje. Nadaktywność czy inaczej ujmując, hiperaktywność nadawcy w tym przypadku, przejmując część procesu dekodowania za odbiorcę, skazuje go na pasywność. Žižek tę ułudną aktywność określa mianem fałszywej aktywności: „wydaje ci się, że jesteś aktywny, podczas gdy twoja prawdziwa pozycja (...) jest pasywna” (Žižek 2002, s. 179).

Inną cechą wymienianą jako konstytutywna dla nowych mediów jest cyfrowość, określana czasem jako binarność (van Dijk) lub reprezenta-cja numeryczna (Manovich). Oznacza ona przypisanie zjawiskom war-tości numerycznych. Jakie są zatem konsekwencje digitalizacji? Jedną z nich jest oderwanie tekstów medialnych od swoich materialnych form, po wtóre ułatwiony zostaje dostęp do danych, a także obróbka danych w postaci cyfrowej jest zdecydowanie łatwiejsza niż w przypadku form analogowych. Ważną cechą ucyfrowienia jest możliwość niemal nieogra-niczonego kopiowania, bez utraty jakości właściwej dla mediów w postaci analogowej (Manovich 2006, s. 120). Owo ucyfrowienie implikuje łatwą rekonfigurowalność obiektów medialnych, stanowiąc swoistą zachętę do modyfikacji i eksperymentowania.

Obiekty nowych mediów nie są traktowane jako zamknięte, ich otwarta struktura sprzyja personalizacji i kastomizacji. Nie są to jed-nak pojęcia tożsame. Personalizacja bowiem dokonywana jest wewnątrz organizacji na podstawie danych o kliencie – zarówno danych osobowych dotyczących wieku, płci, miejsca zamieszkania, po jego preferencje, przy-zwyczajenia, nawyki, definiowane na podstawie jego zachowań zaku-powych. Jak słusznie zauważa Edwin Bendyk: „Każdy ruch internauty skutkuje impulsem skrzętnie zbieranym przez serwery” (Bendyk 2012, s. 8), a system „może obecnie szybciej rozpoznać intencje osoby, niż ona sama je sobie uświadomi” (Bendyk 2012, s. 10). W sytuacji oddania pod-stawowych decyzji w ręce konsumenta mówimy o kastomizacji, która oznacza dopasowywanie produktu do klienta wedle jego własnych po-trzeb. Zwraca się uwagę, że nawet najlepsi specjaliści z zakresu marke-tingu produktu czy psychologii społecznej nie są w stanie trafnie i pew-nie ocenić potencjalnych potrzeb użytkownika. Kastomizacja daje szansę na wygenerowanie produktu, który jest idealnie skrojony wedle naszych potrzeb i oczekiwań. Powoduje to bardzo silne przywiązanie i utożsamia-nie się z produktem, który częściowo staje się efektem naszej kreacji.

Jeszcze przed epoką internetową w 1980 roku Alvin Toffler wskazywał,

że granica między producentem a konsumentem stopniowo się zaciera (Toffler 1986, s. 312). Jego zdaniem bezosobowi eksperci przekonani, że wiedzą wszystko najlepiej, tracą pewność swoich autorytatywnych de-cyzji, zmieniają się w nauczycieli i przewodników, którzy współpracują z klientem, którzy raczej słuchają, niż wydają odgórne decyzje.

Powstaje nowy typ kosnumenta – prosument. Termin ten pochodzi od kontaminacji słów: producent (producer) i konsument (consumer). Zwra-ca się jednocześnie uwagę, iż klienci idą o krok dalej, podejmując działa-nia daleko szersze niż dopasowywanie czy kastomizowanie produktów.

Samoorganizują się, tworząc społeczności prosumenckie, w których dzie-lą się informacjami na temat produktów, wymieniają się hakami, przy-datnymi wskazówkami. Don Tapscott i Anthony Williams zauważają:

„Niezmienne, nieruchome i nieedytowalne przedmioty zostaną wyklę-te i trafią na śmietnik historii” (Tapscott i Williams 2008, s. 188). Pro-sumpcja nie oznacza jednakże jedynie aktywnego udziału w tworzeniu produktu, ale także działania, które wykonujemy za sprzedawców i per-sonel pomocniczy – samoobsługa w hipermarkecie, korzystanie z samo-obsługowych punktów typu stacje benzynowe, myjnie etc., tworzenie ha-seł reklamujących jakiś produkt, usługę. Prosumpcję charakteryzuje do-pasowanie produktu do potrzeb użytkowników, co oznacza dodo-pasowanie do specyficznych zastosowań, ale także głębsze zaangażowanie odbiorcy w proces projektowania, wyzbywanie się kontroli, co oznacza, iż produk-ty są traktowane jako platforma innowacji (bez względu na pozwolenie lub jego brak), traktowanie produktów jako podstawy do eksperymen-towania, a także partnerstwo rozumiane jako egalitarne podejście do klienta oraz prawo prosumentów do tego, co stworzyli i mogli na swojej pracy zarabiać (Tapscott i Williams 2008, ss. 215-218).

Na podstawie badań środowiska polskich internautów wymieniono z kolei trzy główne cechy polskich prosumentów10: spotykanie się z niami innych internautów, najczęściej, gdy planowany jest zakup, opi-sywanie marek i produktów w Sieci lub zadawanie pytań na ich te-mat11, uczestniczenie w promocjach, współtworzenie produktów, haseł

10Według badań Gemiusa już 24% polskich internautów brało udział w akcjach o cha-rakterze prosumenckim: 12% tworzyło hasła reklamowe, 7% uczestniczyło w procesie projektowania opakowań i produktów, a 5% współuczestniczyło w projektowaniu mate-riałów reklamowych i promocyjnych – podaję za: Zawadzki i Przewłocka 2008.

11Moc oddziaływania oddolnych, niezależnych społeczności prosumenckich szybko zo-stała dostrzeżona przez działy marketingu profesjonalnych firm. W związku z tym, że większość z nas uodporniła się na nachalny przekaz reklamowy, próbuje się przekazy-wać nam treści reklamowe w sposób zawoalowany. O ile do niedawna mogliśmy wierzyć, że szukając odpowiedzi online mamy do czynienia z niezależnymi opiniami niezależnych

lub kampanii reklamowych (Zawadzki i Przewłocka 2008). Jak wska-zuje Marcin Herrmann, prosument jest osobą lojalną i oddaną marce, chcącą uczestniczyć w tworzeniu oferty, która jest do niego kierowana.

Prosument nagradza markę nie tylko bezpośrednio poprzez jej zakup, ale także pośrednio przekazując informacje na jej temat szerszemu gro-nu potencjalnych konsumentów (Herrmann 2009). Taka gratyfikacja, którą konsument oferuje firmie, działa na jej wizerunek zdecydowanie efektywniej od żmudnie opracowywanych kampanii wizerunkowych.

Jako immanentna cecha nowych mediów traktowana jest również wirtualność. Termin ten stanowi dominujący lejtmotyw dyskursu do-tyczącego wirtualnych środowisk, przestrzeni i obiektów generowanych komputerowo. Początki pojęcia wirtualności pojawiają się w latach 50.

XX wieku. Wiążą się z wizją „teatru wrażeń” amerykańskiego artysty Mortona Heiliga, która doczekała się swojego ucieleśnienia. Stworzona przez niego sensorama była maszyną, stanowiącą jeden z najwcześniej-szych przykładów multisensorycznej technologii. Sensorama oddziały-wała na wiele zmysłów – pozwalała wyświetlać stereoskopowe obrazy 3D, dźwięk stereo, ale także pozwalała generować wiatr i aromaty. Pa-tent Heiliga nie spotkał się z zainteresowaniem i wsparciem finanso-wym, stąd prace nad oddziałującą na wszystkie zmysły Sensoramą zo-stały zatrzymane (Robinett 1994). Co ciekawe, niektórzy autorzy tacy jak Howard Rheingold czy Michael Heim uważają, że początków

rzeczy-konsumentów, dzisiaj jest to sytuacja coraz rzadsza. Coraz częściej w internecie mamy do czynienia z flogami. Flogi to fałszywe blogi, na których flogerzy odgrywają role nie-zależnych konsumentów, podczas gdy są opłacani przez sponsorujące ich firmy. Wpisy na ich blogach de facto reklamują produkty, bądź usługi danej firmy., por. A. Keen, (2007, s. 92.). Po wtóre w internecie coraz częściej mamy do czynienia z astroturfingiem (termin pochodzi od marki sztucznej trawy „astroturf”). Są to pozornie spontaniczne, oddolne akcje poparcia lub sprzeciwu wobec polityka, usługi, produktu, idei czy wyda-rzenia. Celem jest wywołanie wrażenia szerokiego poparcia dla osoby, idei, produktu, podczas gdy wydarzenie to jest sterowane odgórnie. Popularne blogerki modowe tzw.

szafiarki zarabiają na swoich blogach poprzez rekomendowanie określonej marki czy jej produktów. Brak jednoznacznie identyfikowalnej reklamy działa na odbiorów zdecy-dowanie silniej niż czytelny przekaz reklamowy. Innym przykładem tego typu nadużyć mogą być chociażby opłacone wypowiedzi na forach czy marketing wirusowy, którego celem jest wytworzenie sytuacji, dzięki której potencjalni klienci między sobą rozpo-wszechniają informacje dotyczące produktu, usługi czy firmy (filmy czy zdjęcia wyglą-dające jak amatorskie). Przekaz nierozpoznany jako reklamowy zdecydowanie szybciej się rozpowszechnia i zyskuje większą rzeszę zainteresowanych nim odbiorców. Z badań polskiej blogosfery wynika, iż reklamy i płatne linki umieszcza 6% blogerów, a im więcej blog ma czytelników, tym częściej pojawia się na nim reklama. Wśród blogów posiada-jących 1000 czytelników i więcej 25% z nich posiada reklamę. Zob. J. Zając, A. Kustra, P. Janczewski, T. Wierzbowska, (red.) Motywacje, zachowania i poglądy autorów i czy-telników blogów, Raport Blox i Gemius.

wistości wirtualnej można doszukiwać się znacznie wcześniej – w pre-historycznych malowidłach naskalnych, które określają mianem „pod-ziemnych cyberprzestrzeni” (Rheingold 1991, ss. 379-380; Heim 1995, s. 69). Liczni badacze podkreślają, że platońska metafora jaskini jest najstarszą i jedną z najważniejszych pierwocin wirtualnego świata (He-im 1991, s. 64; Hillis 1999, s. 39; Hayles 1996, s. 34).

Nieco później od Heiliga, bo w 1969 roku Myron Krueger na Uni-wersytecie Wisconsin-Madison przedstawił swój projekt wideoinstalacji

„Glowflow”. Dla celów projektu przygotowano pokój z czarnymi ściana-mi, umieszczając na nich cztery przezroczyste rury. Do rur wpompowy-wano zmieniające kolor fluorescencyjne cząsteczki, czemu towarzyszyły różne dźwięki. Każdy ruch osoby znajdującej się w pokoju był interpre-towany przez komputer, który reagował na niego dźwiękiem i światłem (Krueger 1991). Według niektórych autorów proces powstawania wirtu-alności stanowi spełnienie dążeń człowieka do tworzenia rzeczywistości alternatywnej wobec świata realnego (Ostrowicki 2006, s. 16). Niektó-rzy autoNiektó-rzy uważają, że termin ten powinno się rozumieć bardzo szero-ko, uznając za wirtualne sny, wyobraźnię czy nawet język (Poster 1998, ss. 188-189). Termin wirtualność najczęściej jest operacjonalizowany po-przez szeroki wachlarz możliwości, jakie stwarzają nowe media. Często termin ten stawia się w opozycji do realności, bowiem jak zauważa Pier-re Levy, w rozumieniu potocznym wirtualność oznacza niePier-realność, nie-rzeczywistość – jakaś rzecz jest albo rzeczywista, albo wirtualna, nie może posiadać obu tych własności. Odmienny sposób definiowania tego terminu odnajdziemy w dyskursie naukowym. W ujęciu filozoficznym wirtualne jest to, co istnieje potencjalnie, a więc wirtualność jest tym, co poprzedza rzeczywistą lub formalną konkretyzację, czego egzemplifi-kacją jest drzewo wirtualnie obecne w nasieniu (Levy 2010, s. 378).

Wirtualność tak rozumiana nie stanowi zaprzeczenia rzeczywisto-ści, a jedynie aktualności rzeczywistości. Gilles Deleuze zauważa: „to, co wirtualne, nie przeciwstawia się temu, co rzeczywiste, lecz jedynie te-mu, co aktualne” (Deleuze 1997, s. 294). Ciekawie na temat wirtualności wypowiada się Marilyn Strathern zauważając, iż pierwotnie termin ten odnoszono do fizycznych cech rzeczy lub skutków, jakie te rzeczy mogą wywoływać – wirtualne ciepło słońca czy wina (Strathern 2002, s. 305).

Z kolei Avital Ronell uważa, że jedną z pierwszych egzemplifikacji wir-tualnego świata stanowi telefon, gdyż rozmowa odbywa się w miejscu między telefonami (Ronell 1989). W dyskursie dotyczącym wirtualności coraz częściej odchodzi się od prostej dychotomii on-offline. Płaszczy-zny te bowiem traktuje się jako przenikające się, które tworzą

rzeczywi-stość jednostki. Niektórzy autorzy wirtualność traktują nie jako alter-natywę dla świata rzeczywistego (realnego) analogicznie jak w przypad-ku potocznego definiowania tego terminu, lecz ich zdaniem wirtualność stanowi lepszą formę rzeczywistości (Shields 2003). Tę hipotezę stawia wielu badaczy rzeczywistości wirtualnej – Shields czy Krueger, którzy uważają, że sztuczna rzeczywistość nie tylko jest porównywalna do rze-czywistości realnej, ale pod pewnymi względami ją przerasta. Zdaniem Ostrowickiego do realności stanowiącej „przyjemne miejsce do wizyto-wania” powraca człowiek raczej z sentymentu (Ostrowicki 2006, s. 20).

W podobnym tonie o rzeczywistości wirtualnej pisze Michał Ostrowicki, u którego zauważyć można wyraźną fascynację wirtualnością: „realność może przegrywać, gdyż wirtualność fascynuje, pozornie likwidując roz-dźwięk pomiędzy zjawiskowością a realnością” (Ostrowicki 2006, s. 32).

Z kolei badacze amerykańscy uważają, że warunkiem zaistnienia rzeczywistości wirtualnej są 3I, określane mianem I³: interakcja (Inte-raction), zagłębienie (Immersion) oraz wyobraźnia (Imagination) (Bur-dea i Coiffet 2003). W definiowaniu tego terminu najmocniej chyba zako-rzeniło się myślenie stanowiące odprysk popkulturowego definiowania wirtualności. Filmy takie jak „Tron” (1982), „Kosiarz umysłów” (1992) czy „Matrix” (1999), w których to narracja prowadzi widza do odmien-nego, wygenerowanego komputerowo świata, mocno zaciążyły na sposo-bach ujmowania wirtualności. Jakiekolwiek cechy przypisać by wirtual-ności, należy zgodzić się z Markiem Posterem, który wskazuje, iż „wir-tualność jest dla realności niezbędną” (Poster 2001, s. 127). Zdaje się ona bowiem realność potwierdzać, uwiarygodniać, czynić prawdziwą.

Z pojęciem wirtualności bardzo silnie związane jest pojęcie immer-syjności. Termin ten12oznacza sytuację zanurzenia (częściowego lub cał-kowitego13) w wirtualnym środowisku. Sytuacja ta oznacza stan wejścia w świat wyobrażony, wygenerowany przez technologię (najczęściej 3D).

12Warto zwrócić uwagę na pochodzenie tego terminu. Immersja (z łac. immergo zanu-rzam) jest metodą stosowaną do zwiększania rozdzielczości mikroskopu poprzez wypeł-nienie przestrzeni między preparatem a obiektywem przeźroczystą cieczą (często jest to olejek cedrowy), której współczynnik załamania jest zbliżony do współczynnika zała-mania szkła soczewki. Zabieg ten pozwala uniknąć załazała-mania światła przy przejściu ze środowiska optycznie gęstszego (szkła) do środowiska optycznie rzadszego (powietrza), co zaciemnienia pole widzenia, podaję za: Słownik fizyczny, Wydawnictwo Wiedza Po-wszechna, Warszawa, 1984.

13Główną rolę zdaje się tutaj odgrywać zmienna, którą określamy jako bogactwo

13Główną rolę zdaje się tutaj odgrywać zmienna, którą określamy jako bogactwo