• Nie Znaleziono Wyników

Od liczydła do Globalnej Sieci. Historia i funkcjonowanie komputerów i Internetu komputerów i Internetu

W dokumencie Media w analogowym i CYFROWYM świecie (Stron 30-34)

1 Internet i komputery

1.1. Od liczydła do Globalnej Sieci. Historia i funkcjonowanie komputerów i Internetu komputerów i Internetu

Nie byłoby nowych mediów, gdyby nie Internet. Nie byłoby Internetu, gdyby wpierw nie wynaleziono komputera. Te stwierdzenia wydają się truizmami, kiedy jednak zastanowimy się nad procesem dochodzenia do obecnego stanu medialnej konwergencji, widzimy, że początkowo historia mediów i historia komputera bie-gły równolegle i nic nie wskazywało, by komputer miał w przyszłości przejąć funk-cje nowego środowiska funkcjonowania mediów. Początki komputerów bowiem to raczej kwestia poszukiwania urządzeń, które mogłyby efektywnie wspomagać skomplikowane obliczenia matematyczne. Swojskie liczydło, suwak logarytmicz-ny czy też maszyna różnicowa angielskiego matematyka, mechanika i astronoma Charlesa Babbage’a są w istocie mniej lub bardziej skomplikowanymi urządzenia-mi do liczenia. Dopiero maszyna analityczna, zaprojektowana przez Babbage’a, zdolna do wykonywania dowolnych ciągów poleceń oraz operowania na danych, uznawana jest za pierwszy w historii projekt komputera7. Jednak projekt Babba-ge’a pozostał jedynie projektem… dlatego też za pierwszy elektroniczny i progra-mowalny komputer uważa się brytyjski Collossus (1943 r.). Był on używany do łamania kodów. Natomiast (co, jak widać, nie jest zgodne z prawdą) w powszech-nej świadomości pierwszym funkcjonującym komputerem na świecie był oparty na technologii lampowej i pracujący w systemie dziesiętnym ENIAC (Electronic Nu-merical Integrator And Computer) (1946 r.). Kolejne etapy rozwoju komputera były związane z wynalezieniem tranzystora (1947 r.), stosowaniem układów scalonych o coraz wyższej skali integracji oraz coraz bardziej pojemnych pamięci i nośników danych. Rozwój komputerów nabrał tempa z chwilą zastosowania mikroproceso-rów, co umożliwiło stworzenie komputera osobistego fi rmy IBM (1981)8.

Można zgodzić się ze stwierdzeniem, że „komputer jest technologią, która bar-dziej niż jakakolwiek inna defi niuje nasze czasy. Bezwzględnie praktyczny i wy-dajny, komputer jest czymś fantastycznym”9. Z drugiej jednak strony, nie sposób odmówić racji N. Postmanowi, który zwraca uwagę, że komputery kładą ogromny nacisk na techniczny proces komunikacji, ale same z siebie mają bardzo mało do zaoferowania, jeśli chodzi o treść: tu wymagają ingerencji człowieka. Nie istnieją

„wielkie komputery”, choć istnieją wielcy artyści. W przypadku komputerów

moż-7 Por. Z. Bajka, Historia mediów, Kraków 2008, s. 209.

8 Por. Komputer, w: W. Pisarek (red.), Słownik terminologii medialnej, Kraków 2006, s. 98.

9 J.D. Bolter, Komputer: maszyna i narzędzie, tł. T. Goban-Klas, w: M. Hopfi nger (red.), Nowe media w komunikacji społecznej XX wieku. Antologia, Warszawa 2002, s. 358.

na co najwyżej mówić o „wielkich programistach” – ale są to ludzie, którzy lepiej od innych potrafi ą „wycisnąć” z komputera jego możliwości10.

Osobną kwestią jest komunikacja między człowiekiem a komputerem, która jest zjawiskiem bardzo złożonym i wieloaspektowym. Do przeszłości należą już czasy, gdy odbywała się ona za pomocą przycisków na pulpicie maszyny (nie należy ich by-najmniej utożsamiać z używaną dziś klawiaturą!). Pierwsze komputery nie miały mo-nitora, swoje odpowiedzi sygnalizowały zapalaniem i gaszeniem różnokolorowych lampek. Komunikacja przy pomocy elektronicznej maszyny do pisania była kolejnym krokiem, ale nadal obsługa komputera pozostawała o wiele bardziej skomplikowa-na niż obecnie. Niewątpliwym przełomem w tej komunikacji było wprowadzenie tzw. interfejsu grafi cznego (GUI – Grafi cal User Interface), co nastąpiło po wzboga-ceniu komputera o monitor ekranowy. Dużą rolę zaczęła odgrywać wówczas rów-nież komputerowa mysz. Obecnie komunikacja za pomocą interfejsów grafi cznych stale się rozwija (np. poprzez stosowanie tzw. widgetów, interaktywnych rozwijanych menu użytkownika i innych udogodnień). Stale udoskonalane funkcje myszki po-zwalają na to, by komputer odczytywał już nie tylko kliknięcia myszką w określoną ikonę na pulpicie, ale również gesty użytkownika wykonywane przy pomocy myszki (StrokeIT) – zresztą funkcję tę zaczynają wykorzystywać również telefony komórko-we. Rozwija się technologia tzw. ekranów dotykowych. Komputery są wzbogacane o funkcje rozpoznawania obrazów i mowy ludzkiej, a nawet komunikacji niewerbal-nej: gestów, mimiki, tembru ludzkiego głosu, postawy ciała (technologie haptic i Wii, wykorzystywane m.in. konsolach gier), czy posługiwaniem się przestrzenią między człowiekiem a maszyną – aż do technologii BrainGate, umożliwiającej komunika-cję ponadniewerbalną, czyli odczytywanie przez komputer informacji bezpośrednio z ludzkiego mózgu. Jednym słowem, współczesne technologie wydają się zmierzać do jak najpełniejszej integracji potencjału maszyn z ludzkim organizmem11.

To jednak tylko pierwszy technologiczny poziom komunikacji sieciowej, nazywa-ny interfejsem użytkownika. Kolejnazywa-ny poziom to poziom funkcjonalnazywa-ny. Integruje on wspomniane rozwiązania technologiczne spolegliwej komunikacji człowieka i ma-szyny z pełną gamą usług sieciowych (chodzi o semiinteligentne zachowania maszyn wobec komunikujących się z nimi ludzi – KODI, czyli komputerowy dialog). Dzięki temu stało się możliwe skuteczne symulowanie przez komputer niektórych, dotych-czas wyłącznie ludzkich, zachowań komunikacyjnych12.

10 Por. N. Postman, Ideologia maszyn: technika komputerowa, tł. A. Tanalska-Dulęba, w: M. Hopfi n-ger (red.), Nowe media w komunikacji społecznej XX wieku. Antologia, Warszawa 2002, s. 647.

11 Por. W. Gogołek, Komunikacja sieciowa. Uwarunkowania, kategorie i paradoksy, Warszawa 2010, s. 40–52.

12 Por. tamże, s. 52. W tym miejscu należy również wspomnieć o tzw. teście Turinga – czyli sposobie określania zdolności maszyny do prowadzenia konwersacji z człowiekiem, tak by człowiek nie był w stanie odróżnić, czy rozmawia z drugim człowiekiem, czy z maszyną. Test został zaproponowany

Historia powstawania kolejnych mediów biegła początkowo równolegle do prac nad komputerami; te działania nie krzyżowały się13. W końcu jednak „dwa – odizolo-wane od siebie – procesy historyczne w końcu się spotykają. Media i komputer – da-gerotyp Daguerre’a i maszyna analityczna Babbage’a, kinematograf braci Lumière i tabulator Holleritha – łączą się. Wszystkie istniejące media zostają zamienione w dane numeryczne zrozumiałe dla komputera. W rezultacie grafi ka, ruchome obra-zy, dźwięki, kształty, przestrzenie i teksty stają się danymi komputerowymi, na których można dokonywać obliczeń. Krótko mówiąc – media stają się nowymi mediami”14.

Jeśli z kolei chodzi o Internet, to jego początki sięgają lat 60. XX w., choć pewne idee, związane z upowszechnianiem wiedzy, zawartej na różnego rodzaju nośnikach, które byłyby obsługiwane przez urządzenia elektromechaniczne, poja-wiły się już w 1945 r.15

w 1950 roku przez Alana Turinga. Istnieją kontrowersje, co do tego, czy test ów jest rzeczywiście w stanie wykazać inteligencję komputerów, czy też tylko ich zdolność do prowadzenia konwersa-cji (tzw. argument Chińskiego Pokoju). Jak dotąd, żaden komputer nie przeszedł testu Turinga (choć niektórzy uważają, że we wrześniu 2011 r. dokonał tego program Cleverbot, który w 59,3%

przypadków przekonał swych rozmówców, że jest człowiekiem – zaś w przypadku konwersacji z prawdziwym człowiekiem 63,3% badanych uznało, że rozmawia z osobą ludzką). Kontrowersje wynikają z metodologii oceniania wyników testu: jedni uważają, że wynik ponad 50% oznacza jego zaliczenie, inni zaś – że test będzie zaliczony, gdy komputer uzyska taki sam lub wyższy odsetek uznania go za człowieka, jak w wypadku, gdy rozmówcą będzie prawdziwy człowiek. Por. A.  Turing, Computing Machinery and Intelligence, „Mind”, vol. LIX, nr 236, October 1950, s. 433–460, [on-line] http://orium.homelinux.org/paper/turingai.pdf (dostęp 17 marca 2012 r.); P. Łupkowski, Test Turinga. Perspektywa sędziego, Poznań 2010, s. 11–77; M. Kaczmarek, Co to jest test Turinga, co ma udowodnić i co do tego ma Cleverbot?, „Nauka i Postęp” z 30 września 2011 r., [online] http://

www.naukaipostep.pl/wiadomosci/technologie/co-to-jest-test-turinga-co-ma-udowodnic-i-co-do-tego-ma-cleverbot/ (dostęp 17 marca 2012 r.); K. Lech, Stało się! Test Turinga „zaliczony” przez program komputerowy Cleverbot, „PC World” z 15 września 2011 r., [online] http://www.pcworld.

pl/news/375039/Stalo.sie.Test.Turinga.zaliczony.przez.program.komputerowy.Cleverbot.html (do-stęp 17 marca 2012 r.); M. Kaczmarek, W jaki sposób Chiński Pokój podważa sensowność Testu Turin-ga?, „Nauka i Postęp” z 27 października 2011 r., [online] http://www.naukaipostep.pl/wiadomosci/

nauka/w-jaki-sposob-chinski-pokoj-podwaza-sensownosc-testu-turinga/ (dostęp 17 marca 2012 r.).

13 Jak jednak zauważa H. Jenkins: „Nie powinno nas dziwić, że obydwa procesy – rozwój nowocze-snych mediów oraz rozwój komputerów – zaczynają się w tym samym czasie. Maszyny medialne i  maszyny obliczeniowe były niezbędne do funkcjonowania współczesnych społeczeństw maso-wych. Możliwość rozpowszechniania tych samych tekstów, obrazów i dźwięków wśród milionów obywateli, a tym samym sprawowanie ideologicznej kontroli jest tak samo ważne jak możliwość zbierania i przechowywania informacji – rejestrów urzędów zatrudnienia lub stanu cywilnego, kar-totek medycznych lub policyjnych. Fotografi a, fi lm, druk offsetowy, radio i telewizja posłużyły do realizacji pierwszego zadania, komputery – drugiego. Masowe środki przekazu i przetwarzanie danych to technologie komplementarne, pojawiają się w tym samym czasie i rozwijają równolegle, warunkując powstanie nowoczesnych społeczeństw”. H. Jenkins, Kultura konwergencji. Zderzenie starych i nowych mediów, tł. M. Bernatowicz, M. Filiciak, Warszawa 2007, s. 86.

14 Tamże, s. 89–90.

15 Por. J. Frankiewicz, Historia Internetu 1945–2008, [online] „Wiedza i Edukacja”, http://wiedzaie-dukacja.eu/archives/47062 (dostęp 21 listopada 2011 r.). Wprawdzie można spotkać poglądy, że

Właściwa idea Internetu – takiego, jaki znamy dziś – była związana z wojsko-wymi projektami sieci komputerowych, które miały być odporne na skutki ataku nuklearnego i mogłyby działać pomimo zniszczenia nawet znacznej liczby węzłów sieci16. Problem z dotychczasowymi sieciami polegał na tym, że wszystkie one mia-ły swój „mózg” – jeden główny, sterujący ich pracą komputer. Logicznym było zatem przypuszczenie, że w razie działań wojennych wróg próbowałby zniszczyć przede wszystkim owe kluczowe węzły sieci. W tym założeniu widać ślady lęku przed atakiem atomowym ze strony Związku Radzieckiego podczas zimnej wojny – albowiem istnienie takiego właśnie centrum komunikacji w szczególny sposób narażałoby je na atak i zniszczenie. Stąd zrodził się pomysł sieci, która nie miałaby swego centrum, w której żaden element nie byłby nadrzędny wobec pozostałych.

Może pierwsza próba nie była olśniewającym sukcesem (po przesłaniu zaledwie dwóch liter system się zawiesił)17, tym niemniej pierwszy krok został zrobiony.

Wiadomo było, że da się stworzyć sieć komputerową, która będzie zdolna prze-trwać nawet ewentualny radziecki atak jądrowy18.

A zatem u podstaw idei Internetu leży zasada decentralizacji (równorzędności wszystkich węzłów) oraz redundancji funkcji sieci – dzielenia przesyłanych danych na drobne fragmenty (pakiety), które są przekazywane najszybszą możliwą trasą do odbiorcy i tam na powrót scalane19. Decentralizacja zakłada, że system nie ma komunikacyjnego centrum, przez które miałyby przepływać wszystkie informacje i które kieruje działaniem wszystkich pozostałych części. Kolejną zasadą jest roz-proszona moc obliczeniowa, tak aby elementy systemu mogły ze sobą współpraco-wać, a poszczególne składniki systemu – sumować się. Redundancja funkcji sieci powoduje, że jest możliwych wiele równorzędnych dróg przesyłu pakietów danych.

Dzięki temu w przypadku awarii części systemu, komunikacja może omijać uszko-dzone węzły20.

pewnym pierwowzorem Internetu była już stworzona przez starożytnych Rzymian, służąca szybkie-mu przekazywaniu informacji, rozbudowana sieć posłańców (cursus publicus), wydaje się jednak, że to nieco zbyt daleko idące stwierdzenie. Por. A. Zwoliński, Obraz w relacjach…, dz. cyt., s. 421.

16 Por. Internet, w: W. Pisarek (red.), Słownik terminologii medialnej, Kraków 2006.

17 Człowiek, który przesyłał te dane nazywał się Charley Kline, pierwszym przesyłanym słowem był wyraz „LOGIN”. System zawiesił się na literze ‘G’. Por. W. Howe, An anecdotal history of the peo-ple and communities that brought about the Internet and the Web, „Walt Howe’s Home Page”, ostat-nia aktualizacja 24 marca 2010 r., [online] http://www.walthowe.com/navnet/history.html (dostęp 30 stycznia 2012 r.).

18 Por. A. Miełżyńska, Narodziny i rozwój Internetu na świecie. Powstanie internetowych form dzienni-karskiej ekspresji, w: G. Habrajska, J. Mikosz (red.), Dziennikarstwo internetowe – teoria i praktyka, Łódź 2010, s. 9–10.

19 Por. Internet, w: W. Pisarek (red.), Słownik…, dz. cyt., s. 84.

20 Por. M. Podgórski, Wirtualne społeczności i ich mieszkańcy. Próba e-tnografi i, w: J. Kurczewski (red.). Wielka sieć. E-seje z socjologii Internetu, Warszawa 2006, s. 81. Zob. także niżej, przy opisie powstania protokołu TCP/IP.

Sama historia Internetu jest dość dobrze opracowana, zatem warto ograniczyć się tylko do hasłowego przypomnienia najważniejszych momentów (kamieni milo-wych) jego historii21, jak choćby:

1. Utworzenie w 1969 roku przez amerykańską agencję rządową ARPA sieci

W dokumencie Media w analogowym i CYFROWYM świecie (Stron 30-34)