• Nie Znaleziono Wyników

Rozdział 2. Uwarunkowania regionalnych bibliotek cyfrowych

2.4. Sieciowe (internetowe) środowisko działania BC

2.4.1. Sieć globalna jako system komunikacyjny

Istotnym rysem Internetu, związanym z jego wojskową genezą, był wymóg zaprojektowania i wdrożenia „niezawodnej sieci komunikacyjnej opartej na zawodnych węzłach”329. Komuni-kacja bazująca na łączach telefonicznych, działająca w modelu komutacji łączy zestawianych w fizyczne połączenia przez centrale telefoniczne, była systemem zawodnym, zależnym od sprawnego funkcjonowania pojedynczego węzła-centrali. Zniszczenie tego węzła (np. w ataku jądrowym) przerywało połączenie. Przełomowy pomysł zastosowania alternatywnego systemu łączności polegał na podziale całości nadawanego komunikatu na pakiety oraz utworzeniu wielu potencjalnych dróg ich transferu. Każdy z pakietów zawiera dane m.in. o nadawcy i adresacie oraz może być kierowany przez różne równoprawne węzły sieci (zwane routerami, czyli komputerami wyznaczającymi trasę), różnymi fizycznymi mediami, niezależnie od innych pakietów. Dopiero węzeł docelowy składa komunikat w całość, spraw-dza jego kompletność na podstawie numeru pakietu, żądając ponowienia transmisji od nadawcy w wypadku jego zagubienia. Trasy wędrówki pakietów są cały czas negocjowane przez routery, wybierające optymalną drogę komunikacji, wykluczające przy tym z własnych tzw. tablic trasowania połączeń węzły przeciążone lub uszkodzone. Cechę elastyczności i niezawodności wzmocniono, stosując nadmiarowość możliwych dróg doręczania pakietów, decentralizację sprzętowej infrastruktury komunikacyjnej oraz algorytmy programowe, dzięki którym każdy węzeł trasujący może uzyskać informację o stanie węzłów sąsiednich. Umożli-wia mu to samodzielne wyznaczanie dalszego etapu wędrówki pakietów, bez konieczności odwoływania się do jakiegoś centralnego ośrodka.

Koncepcja rozległej sieci komunikacyjnej wyróżnia 4 logiczne warstwy, z których dwie: tzw.

warstwa transportowa oparta na specyfikacji technicznej zwanej Internet Protocol (IP) oraz kontrolna utworzona zgodnie z Transport Control Protocol (TCP) stały się wyróżnikiem standardu globalnej sieci łączności – TCP/IP330. Nadmiarowość, brak centralnej kontroli komunikacji i rozproszenie (decentralizacja) węzłów trasujących, wsparte inteligentnymi algorytmami trasującymi i kontrolnymi zapewniły pożądane cechy systemu komunikacyj-nego, którego każdy element mógł przejąć funkcje elementów uszkodzonych.

329P. Baran: Reliable Digital Communications Systems Using Unreliable Network Repeater Nodes. Mathematic Division, RAND Corporation, 1960. [Dostęp 24 maja 2020]. Dostępny w Internecie: https://www.rand.org/

content/dam/rand/pubs/papers/2008/P1995.pdf

330T. Socolofsky, C. Kale: A TCP/IP Tutorial. 1991. [Dostęp 24 maja 2020]. Dostępny w Internecie: https://

www.ietf.org/rfc/rfc1180.txt

Wydzielenie wojskowej części Internetu (Milnet) w 1983 roku331, „demobilizacja” technologii sieciowej komunikacji oraz rozwój techniki łączy (telefoniczne, koncentryczne, światłowo-dowe, radiowe) sprawił, że sieci oparte na standardzie TCP/IP zyskiwały coraz szersze zasto-sowanie w różnych dziedzinach życia naukowego, gospodarczego i społecznego. Otwartość protokołów TCP/IP i jawność specyfikacji technicznych poszczególnych warstw umożliwiała ponadto projektowanie oraz opracowanie przez programistów z całego świata kolejnych inter-netowych usług wyższych poziomów, pracujących w modelu klient-serwer.

Sieć internetowa dzięki swoim technologicznym właściwościom cechuje się wysoką konek-tywnością, czyli zdolnością do tworzenia i podtrzymywania kanałów komunikacji o różnorod-nej charakterystyce. Może być ona zbliżona do mediów masowych (statyczne strony WWW), umożliwiać dwukierunkową łączność „prywatną” (e-mail, komunikatory), jak i też komunika-cję w pełni symetryczną, sprzyjającą kulturze zbiorowego uczestnictwa (grupy dyskusyjne, fora internetowe, otwarte na komentarze blogi).

Współczesne statystyczne badania użytkowników Internetu wskazują intensywny, coroczny wzrost liczby użytkowników sieci, serwisów internetowych i całkowitego wolumenu wytwa-rzanej cyfrowej informacji. Dane w czasie rzeczywistym dotyczące rozrostu Internetu dostępne są dzięki serwisowi Internet Live Stats332, stanowiącego część projektu Real Time Statistics Project, rozwijanego przez międzynarodowy zespół badaczy, programistów i anali-tyków-specjalistów od wizualizacji danych.

Rysunek 25 ilustruje w kolumnie „Penetration” szacowany, procentowy poziom rozpowszech-nienia i dostępu do Internetu w populacji świata, odnotowując stały, wynoszący ok. 3%

rocznie przyrost użytkowników sieci:

331MILNET. W: Wikipedia. 2019, 24 października. [Dostęp 24 maja 2020]. Dostępny w Internecie: https://en.wi-kipedia.org/wiki/MILNET

332About. W: Internet Live Stats. [Dostęp 24 maja 2020]. Dostępny w Internecie: https://www.internetlive-stats.com/about

Źródło: Internet Users. W: Internet Live Stats. 2016. [Dostęp 24 maja 2020]. Dostępny w Internecie: https://

www.internetlivestats.com/internet-users/

Podobnie jak w przypadku rozwoju infrastruktury informatycznej, także w obszarze sieci globalnej zaobserwowano pewne prawidłowości i trendy zwane niekiedy prawami. Jedną z takich prawidłowości jest reguła określająca wartość sieci (telefonicznej, komputerowej).

Jest ona rozumiana jako zdolność wzajemnego komunikowania się jej węzłów i określana ilością możliwych połączeń (urządzeń końcowych, użytkowników). Łatwo wykazać, że tak ujęta wartość wzrasta teoretycznie wraz z przyłączaniem do niej kolejnych węzłów, ponieważ rośnie wykładniczo liczba możliwych połączeń między węzłami. Reguła ta zwana jest

„prawem Metcalfe’a” i prezentuje zależność o idealnym przebiegu.333 W rzeczywistości, tak określona wartość sieci zależy także od faktycznego wykorzystywania potencjału jej połączeń przez użytkowników, a nie dla wszystkich użytkowników połączenia mają taką samą lub jakąkolwiek wartość334. Tę teoretyczną zależność ilustruje Rysunek 26:

333S. Wrycza S.: Informatyka ekonomiczna: podręcznik akademicki. Warszawa: Polskie Wydawnictwo Ekono-miczne, 2010, s. 123.

334J. Rohlfs: Bandwagon Effects in High Technology Industries. Cambridge: MIT Press, 2001, s. 29.

Rysunek 25: Wzrost liczby użytkowników Internetu – lata 2000-2016

Źródło: Bebber R.: Information War and Rethinking Phase 0. „Journal of Information Warfare” 2016, vol. 15, iss. 2, s. 41. [Dostęp 24 maja 2020]. Dostępny w Internecie: https://www.researchgate.net/profile/

Robert_Bebber/publication/305479256_Information_War_and_Rethinking_Phase_0/links/5790c65208ae4e-917d046151/Information-War-and-Rethinking-Phase-0.pdf?origin=publication_detail

Na przełomie wieków obawiano się, że przepustowość globalnej sieci nie będzie nadążać za możliwościami przetwarzania i przesyłu danych przez komputery. Na bazie empirycznych obserwacji wizjoner i futurolog Georg Gilder opublikował w roku 2000 regułę (nazwaną prawem od jego nazwiska) stanowiącą, iż przepustowość pasma sieci rośnie trzy razy szybciej, niż moc komputerów335 prognozowana według prawa Moore’a. Według obserwacji od roku 2010 tempo przyrostu przepustowości zmalało, lecz i tak podwaja się co 2-3 lata.

Tym samym koszt przesłania bitu informacji przez sieć zbliża się asymptotycznie do zera336.

Reguły „świata Moore’a i Metcalfe’a” sprawiały (w roku 2016), że w ciągu jednej sekundy przesyłano przez Internet więcej danych, niż obejmował cały zasób Internetu 20 lat wcześniej, a co dwa dni użytkownicy Internetu tworzyli więcej informacji, niż powstało od początku istnienia Internetu do roku 2003. W 1990 roku koszt jednego miliona tranzystorów wynosił 527 dolarów, w 2012 było to 0,05 dolara. Odpowiednio w 1992 roku zachowanie informacji kosztowało 569 dolarów za gigabajt, a w 2012 wyniosło 0,02 dolara337.

Zatem podobnie jak w przypadku dostępności informatycznej infrastruktury obliczeniowej, przepustowość sieci koniecznych do transferu danych (zarówno w sieciach lokalnych, jak i w sieci rozległej) przestaje być przeszkodą do tworzenia spójnego i wydajnego środowiska dla procesów bibliotecznych BC. Odnosi się to szczególnie do RBC, których podmioty są

335G. Gilder: Telecosm: How Infinite Bandwidth Will Revolutionize Our World. New York: The Free Press, 2000, s. 264.

336S. Lachowski: Droga innowacji. Pracuj ciężko, baw się, zmieniaj świat. Warszawa: Studio EMKA, 2010, s. 25-26.

337R. Bebber: Information War and Rethinking Phase 0. „Journal of Information Warfare” 2016, vol. 15, iss. 2, s. 40-41. [Dostęp 24 maja 2020]. Dostępny w Internecie: https://www.jinfowar.com/journal/volume-15-issue-2/

information-war-rethinking-phase-0

Rysunek 26: Wykładniczy wzrost wartość sieci według prawa Metcalfe'a

rozlokowane na większym obszarze geograficznym i tworzą wspólne zasoby RBC, przesyła-jąc treści na jej platformę przez sieć. Tworzenie kompletnej RBC, czyli takiej, która jednocze-śnie zapewniałaby spójny i bezpieczny sposób przechowywania danych archiwalnych, obecnie jest utrudnione ze względu na słabość sieciowych łączy. Pozwalają one jedynie na operacyjne przesyłanie zasobu prezentacyjnego (np. pliki typu DjVu, PDF, JPEG), natomiast transfer zasobu archiwalnego idącego w terabajty jest trudny do wykonania. Dlatego w praktyce stosuje się transfer „mieszany”. Pliki prezentacyjne przysyłane są siecią w proce-sie publikowania, natomiast zasób archiwalny przekazywany jest ewentualnie pocztą zwykłą na dyskach twardych. Takie rozwiązania stosują także do dziś repozytoria danych przy centrach kompetencji digitalizacji, przechowujące na mocy regulaminów programów finansu-jących zasoby archiwalne projektów realizowanych z funduszy państwowych. Utrudnia to standaryzację procedur tworzenia zasobów archiwalnych, które mogłyby być zapewnione przez mechanizmy przesyłu tych danych na platformę RBC w trybie online. W rzeczywistości wiele RBC stosuje rozproszoną archiwizację, gdzie podmioty przechowują lokalnie własne archiwalne pliki. Wówczas RBC jest zasadniczo zautomatyzowanym systemem prezentacyj-nym z rozproszoprezentacyj-nym, niezautomatyzowaprezentacyj-nym zasobem archiwalprezentacyj-nym.