• Nie Znaleziono Wyników

Kierunki rozwoju rozproszonych systemów przetwarzania informacji

N/A
N/A
Protected

Academic year: 2021

Share "Kierunki rozwoju rozproszonych systemów przetwarzania informacji"

Copied!
14
0
0

Pełen tekst

(1)Zeszyty Naukowe nr 764. 2007. Uniwersytetu Ekonomicznego w Krakowie. Mariusz Grabowski Katedra Informatyki. Kierunki rozwoju rozproszonych systemów przetwarzania informacji Streszczenie: W ostatnim dziesięcioleciu obserwujemy dynamiczny rozwój Internetu. Doprowadził on do powstania nowego modelu przetwarzania informacji1 stanowiącego swoisty kompromis pomiędzy przetwarzaniem rozproszonym a scentralizowanym – scentralizowanego przetwarzania internetowego. Niniejszy artykuł ma na celu zarysowanie uwarunkowań oraz kierunków rozwoju rozproszonych systemów informacyjnych bazujących na publicznej sieci wymiany informacji, jaką jest Internet. Słowa kluczowe: systemy informacyjne, przetwarzanie informacji, systemy scentralizowane, systemy rozproszone, TCO.. 1. Wst´p Obserwowany obecnie dynamiczny rozwój techniki informacyjnej (TI) wprowadza nowy paradygmat przetwarzania informacji. Rewolucja internetowa, związana z wykorzystaniem internetu do prowadzenia działalności komercyjnej, zapoczątkowana w połowie lat 90. zmienia granice gospodarowania, pozwala na definiowanie nowych produktów i usług, przenosząc je w dużej części do przestrzeni wirtualnej.. 1 Według jakościowej teorii informacji [Langefors 1973] o informacji możemy mówić jedynie w kontekście interpretacji danych przez człowieka. Z tego punktu widzenia zamiast pojęcia „systemy przetwarzania informacji” powinno się używać pojęcia „systemy przetwarzania danych” i tak ono jest rozumiane przez autora niniejszego artykułu. Jednak względy powszechności użycia terminu „systemy przetwarzania informacji”, również w aspekcie technologicznym, zadecydowały o użyciu tego terminu w niniejszym artykule..

(2) 176. Mariusz Grabowski. W pracy [McNurlin i Sprague 2002] zdefiniowano następujące aspekty, w których zastosowanie TI ma wymiar strategiczny, czyli taki „(…) który ma znaczący, długotrwały wpływ na wskaźnik wzrostu oraz przychody firmy i gałęzi”. Historycznie użycie TI do wspomagania procesów organizacji przechodziło następujące fazy: – aspekt wewnętrzny – koncentrujący się na usprawnieniu wewnętrznej struktury organizacji i procesów biznesowych, – aspekt integrujący – mający na celu połączenie organizacji z innymi partnerami gospodarczymi w celu usprawnienia procesów biznesowych oraz wymiany informacji, – aspekt zewnętrzny – włączenie TI w produkty i usługi, czyli przeniesienie lub dodanie pewnych cech produktów do cyberprzestrzeni. Zarówno aspekt integrujący, jak i zewnętrzny wymaga stworzenia infrastruktury pozwalającej na połączenie rozproszonych systemów wymiany informacji. McNurlin i Sprague [2002] podają, że w erze przedinternetowej aż 95% firm z listy największych firm działających w Stanach Zjednoczonych – Fortune 500 – korzystało z możliwości elektronicznej wymiany danych (EDI), podczas gdy w całej gospodarce amerykańskiej zaledwie 2%. Z powyższej statystyki można wyciągnąć następujące wnioski dotyczące ery przedinternetowej: – infrastruktura służąca do wymiany informacji była bardzo droga, – elektroniczna wymiana danych była w dużej mierze wyznacznikiem sukcesu najlepiej prosperujących firm w USA. Wydaje się zatem, że jedną z największych korzyści z Internetu jest stworzenie taniej infrastruktury wymiany informacji, która pozwala nie tylko czerpać korzyści podmiotom gospodarczym, ale przede wszystkim klientom indywidualnym. Jest to warunkiem koniecznym do realizacji aspektu zewnętrznego z przytoczonej wyżej typologii. Do innych ważnych elementów rewolucji internetowej warunkującej i umożliwiającej efektywne tworzenie rozproszonych systemów wymiany informacji należy zaliczyć: – upowszechnienie usługi www. Jak wiadomo, Internet nie jest tworem nowym, gdyż liczy sobie podobnie jak komercyjne zastosowania TI około 40 lat. Jednak dopiero lata 90. przyniosły jego komercyjne wykorzystanie. Stało się to za sprawą opracowania pierwszej graficznej przeglądarki internetowej NCSA Mosaic, a następnie jej rozwoju przez firmę Netscape i Microsoft. Pozwoliło to na umożliwienie korzystania z Internetu osobom nie będącym specjalistami z dziedziny TI. Obecnie przeglądarka internetowa stanowi podstawową aplikację udostępniającą zasoby Internetu;.

(3) Kierunki rozwoju rozproszonych systemów…. 177. – szybki przekaz informacji. Rozproszenie przetwarzania z jednej strony a wymagania co do omówionego w poprzednim akapicie multimedialnego przekazu informacji z drugiej nakładają na infrastrukturę związaną z przesyłaniem informacji znaczne wymagania co do przepustowości i szybkości. Realizowane obecnie projekty badawcze związane z tzw. Internetem drugiej generacji akcentują właśnie te czynniki, które stworzą platformę do bardzo szybkiej wymiany informacji. Ma to pozwolić na odtwarzanie informacji ruchomej (filmów) w czasie rzeczywistym, w zadowalającej jakości, w aspekcie globalnym i po ekonomicznym koszcie (video on demand); – konwergencja cyfrowa. Urządzenia do cyfrowego przechowywania informacji, takie jak dyski twarde, dyski CD-ROM, dyski DVD i inne stają się coraz tańsze i bardziej dostępne. W skali świata prowadzi to nagromadzenia ogromnej ilości informacji. Naturalnym trendem jest w związku z powyższym umożliwienie dostępu do tej informacji oraz jej dzielenia pomiędzy innych użytkowników. Poza samym Internetem, czynnikiem technologicznym, który w ostatnich latach zmienił w dużej mierze sposób komunikacji jest lawinowo narastająca popularność bezprzewodowych urządzeń komunikacyjnych, do których przede wszystkim należy zaliczyć telefony komórkowe. Co więcej, zauważa się wyraźny trend unifikacji tych urządzeń z innymi rozproszonymi systemami przetwarzania informacji właśnie za pośrednictwem Internetu. Rozwijane są takie technologie, jak WAP, GPRS, Java, sprawiające że telefony komórkowe coraz bardziej upodabniają się do komputerów. Jednym z wyzwań technologicznych obecnych czasów jest opracowanie zadowalającego, co do szybkości transferu i wygody korzystania, połączenia bezprzewodowych urządzeń telekomunikacyjnych z Internetem. Możliwości technologiczne współczesnych systemów komputerowych sprawiają, że ich warstwa prezentacyjna pozwala na budowanie interfejsów komunikacyjnych znacznie zbliżonych do naturalnych właściwości percepcyjnych człowieka. Dzięki interfejsom graficznym wyposażonym dodatkowo w elementy przetwarzania dźwięku i obrazu, sposób komunikacji z systemami komputerowymi stał się intuicyjny i przyjazny. Czas, w którym komunikowano się z komputerem w formie hermetycznych, znakowo wydawanych komend raczej minął bezpowrotnie. Podobnie jak funkcje telefonów komórkowych upodabniają się do funkcji systemów komputerowych, zaciera się różnica pomiędzy systemem komputerowym a innymi urządzeniami domowymi, takimi jak telefon, magnetofon, odtwarzacz CD, wideo czy radio i odbiornik telewizyjny. Zjawisko to nosi nazwę konwergencji cyfrowej [Digital 1999]. Omówione wyżej czynniki sprawiają, że oferowana obecnie technologia pozwala na efektywne tworzenie rozproszonych systemów wymiany informacji. Z uwagi na ogromną powszechność i popularność tych systemów, ich wydajne połączenie staje się dużym wyzwaniem dla twórców systemów informacyjnych, i to wyzwaniem nie tyle technologicznym, co organizacyjnym..

(4) 178. Mariusz Grabowski. Właśnie aspekty organizacyjne systemów rozproszonego przetwarzania informacji będą głównym tematem następnych punktów niniejszego rozdziału. 2. Definicja i uwarunkowania rozproszonych systemów informacyjnych Rozproszony system informacyjny można zdefiniować jako zbiór wzajemnie połączonych inteligentnych komponentów zdolnych do przetwarzania informacji i dzielenia zasobów. Ogólnym postulatem systemów rozproszonych jest delegowanie odpowiedzialności za tworzenie i utrzymanie zasobów informacyjnych do miejsc ich powstawania. Trzeba jednak zdawać sobie sprawę z faktu, że system rozproszony stwarza znacznie większe wymagania odnośnie do utrzymania i administracji całego systemu w stosunku do systemu scentralizowanego. Oznacza to, że nie każdy system należy decentralizować tylko z tego powodu, że jest to technologicznie możliwe i zgodne z obowiązującymi trendami. J.C. Wetherbe [1987] wymienia trzy powody decentralizacji przetwarzania. Są nimi: niezależność operacji biznesowych, homogeniczność działalności oraz kultura organizacyjna wspierająca decentralizację. Z kolei, McNurlin i Sprague [2002] wskazują na następujące cztery aspekty systemów rozproszonych: – miejsce przetwarzania. Przetwarzanie informacji może być prowadzone przez procesory (komputery) nawet znacznie od siebie oddalone geograficznie. Odległość geograficzna odgrywa jednak coraz mniejszą rolę. Traci również na znaczeniu podział na sieci lokalne i rozległe. Jedynym istotnym kryterium tego podziału jest problem zabezpieczenia sieci przed niepowołanym dostępem; – sposób połączenia procesorów. Systemy mogą być ze sobą powiązane na wiele sposobów. Mogą stanowić struktury mniej lub bardziej zhierarchizowane oraz mniej lub bardziej zróżnicowane technologicznie. Bardziej szczegółowy opis rodzajów topologii systemów rozproszonych znajduje się w ostatnim punkcie niniejszego rozdziału; – miejsce przechowywania informacji. Zasoby informacyjne mogą być przechowywane centralnie lub w wielu miejscach. Oczywiście ten drugi przypadek znacznie zwiększa stopień rozproszenia systemu. Należy jednak pamiętać, że dane o dużym stopniu rozproszenia są znacznie trudniejsze w utrzymaniu i administracji; – stosowane reguły i standardy. Trzeba pamiętać, że komputery przetwarzające informację mogą być realizowane w różnych technologiach i działać na różnych platformach systemowych i aplikacyjnych. Aby umożliwić ramy współpracy tak różnorodnych systemów, konieczne jest stosowanie się do powszechnie obowiązujących reguł przetwarzania i standardów, które ogólnie streszczają się do pojęcia systemów otwartych..

(5) Kierunki rozwoju rozproszonych systemów…. 179. Szansą na rozwój rozproszonych systemów informacyjnych jest tworzenie tych systemów w architekturze otwartej. Systemy otwarte to takie, które oparte są na publicznie znanych i dostępnych rozwiązaniach. Można je rozpatrywać w następujących płaszczyznach; – otwarte standardy komunikacyjne. Powszechnie uznanym obecnie standardem komunikacyjnym jest warstwowy model odniesienia OSI/ISO. Jest to uporządkowany zbiór siedmiu warstw i odpowiadających im protokołów komunikacyjnych pozwalający na wymianę informacji różnorodnych systemów komputerowych. Implementacją warstwy 3 (sieciowej) i 4 (transportowej) tego modelu jest protokół TCP/IP, który obecnie stał się powszechnie uznanym i stosowanym standardem komunikacyjnym na poziomie tych warstw. Warty odnotowania jest fakt, że wyparł on rodzime protokoły komunikacyjne komercyjnych dostawców oprogramowania systemowego, takich jak choćby Microsoft i Novell. Powszechnie obowiązującymi standardami komunikacyjnymi również są protokoły wyższych warstw modelu OSI/ISO, takie jak: http, https, ftp, ssh. Stwarzają one platformę do efektywnego budowania niezależnych od platformy systemowej rozproszonych systemów informacyjnych. Wielu uważa, że właśnie publiczna dostępność standardów: TCP/IP i http była bezpośrednim powodem omawianego dynamicznego rozwoju Internetu [Hamel 2000]; – otwarte języki manipulowania danymi. Podstawą większości systemów informacyjnych jest relacyjna baza danych (RDBMS – Relational Data Base Management System). Powszechnie stosowanym standardem dostępu do danych w tego typu bazach danych jest język SQL (Sequential Query Language). Wszyscy dostawcy komercyjnych implementacji RDBMS wyposażają swe systemy w interfejs zapewniający dostęp do danych z poziomu języka SQL; – otwarty kod źródłowy programów i przenośność oprogramowania. Kolejnym stopniem otwartości systemu jest jawność kodu źródłowego, w którym napisano zarówno oprogramowanie systemowe, jak i aplikacyjne. Jawność kodu źródłowego pozwala z jednej strony na dokonywanie w nim modyfikacji a z drugiej pozwala na przenoszenie aplikacji pomiędzy różnymi platformami systemowymi. Doskonałym przykładem na realizację tego postulatu jest idea Open Source. Pozwala ona na nieodpłatne wykorzystanie jak również ewentualną zmianę kodu źródłowego wielu programów zarówno aplikacyjnych, jak i systemowych. Należy do nich zaliczyć przede wszystkim system operacyjny Linux, serwer WWW Apache, systemy RDBMS MySQL i Postgres. Choć platforma systemowa Linux zyskuje obecnie wsparcie wśród komercyjnych twórców oprogramowania, takich jak choćby IBM czy Oracle, to trzeba wyraźnie zaznaczyć, że otwartość kodu źródłowego wśród komercyjnych twórców oprogramowania ze zrozumiałych względów nie znajduje tak szerokiego poparcia jak dwa poprzednie postulaty. Ideą pozwalającą na przenaszalność aplikacji bez konieczności ujawniania kodu źródłowego jest język.

(6) 180. Mariusz Grabowski. Java opracowany przez firmę SUN Microsystems. Pozwala on na uruchamianie skompilowanych aplikacji na platformie tzw. wirtualnej maszyny jawy (VJM). VJM realizowana jest najczęściej na platformie przeglądarki internetowej. Niestety implementacja VJM w najczęściej stosowanej obecnie przeglądarce internetowej Microsoft Internet Explorer odbiega nieco od standardu zdefiniowanego przez SUN Microsystems, a stosowanego w przeglądarce Netscape czy Opera, co w dużej mierze niweczy starania o stworzenie przenośnej platformy aplikacyjnej. 3. Model Nolana i Gibsona oraz jego wykorzystanie w identyfikacji i ocenie trendów technologicznych Model faz rozwoju (stages of growth) zaproponowany przez R. Nolana [1973] i zmodyfikowany w 1979 jest powszechnie uznawany jako wzorzec pozwalający na ocenę stanu zastosowań techniki informacyjnej (TI) w organizacji. Autor wyróżnia sześć kolejno po sobie następujących faz rozwoju organizacji w kontekście zastosowań TI do wspomagania procesów biznesowych (IT/IS). Model ten odpowiada rozwojowi IT/IS w ujęciu historycznym, począwszy od lat 60. ubiegłego stulecia wśród organizacji będących światowymi liderami. Faza I – inicjalizacja (initialization) – charakteryzuje się wstępnym zainteresowaniem techniką informacyjną. Zainteresowanie to potwierdzone jest jej pierwszym pomyślnym zastosowaniem prowadzącym do jej coraz szerszego wdrażania. Faza II – rozprzestrzenienie (contagion) – charakteryzuje się fascynacją technika informacyjną. Fascynacja ta częstokroć prowadzi do kosztownego rozprzestrzenienia się TI po organizacji. Rozprzestrzenienie to ma charakter spontaniczny i bywa prowadzone bez należytego zaplanowania oraz powoduje znaczący wzrost nieuzasadnionych kosztów. Faza III – sterowanie (control) – po raz pierwszy formalizuje proces planowania TI wprowadzając elementy kontroli. Celowo spowalnia się wzrost zastosowań TI, wprowadza budżetowanie i egzekwuje odpowiedzialność. Faza IV – integracja (integration) – ma na celu połączenie powstałych w fazie rozprzestrzenienia oraz zobiektywizowanych w fazie sterowania rozłącznych systemów w system o charakterze globalnym w skali przedsiębiorstwa. Po raz pierwszy pojawiają się systemy informowania kierownictwa (SIK). Faza V – administrowanie danymi (data administration) – ma na celu dostrzeżenie znaczenia informacji jako zasobu organizacyjnego, który posiada swoją cenę ale również potencjał do generowania wartości. Ma miejsce szerokie zintegrowanie wszelkich zasobów informacyjnych organizacji. Faza VI – dojrzałość (maturity) – jest fazą docelową modelu. W fazie tej TI stanowi wsparcie strategii organizacji. Innymi słowy, system informacyjny wsparty.

(7) Kierunki rozwoju rozproszonych systemów…. 181. techniką informacyjną w pełni odzwierciedla i wspiera potrzeby informacyjne organizacji. Analizując charakterystyki powyższych faz, można zauważyć, że cztery pierwsze fazy bardziej akcentują aspekty technologiczne, a dwie ostatnie organizacyjne. Znajduje to odzwierciedlenie w użyciu przez R. Nolana [2000] czterofazowego modelu, po raz pierwszy zaproponowanego przez Nolana i Gibsona [1974], do opisu historycznej ewolucji dominujących technologii przetwarzania wspomagających zastosowania TI. W dotychczasowej historii zastosowań TI przypadającej na lata 1960–2000 R. Nolan wyróżnia trzy okresy dominacji określonej technologii (rys. 1). Okresy te nieznacznie na siebie zachodzą, a miejsce ich styku to tzw. okres braku ciągłości technologicznej, czyli moment, w którym następuje zastąpienie starej technologii technologią nową. Podane daty graniczne poszczególnych okresów mają zatem charakter umowny i są określone z marginesem około 5 lat. Era przetwarzania danych (1960–1980) – to okres dominacji przetwarzania scentralizowanego. Wzorcem technologicznym jest komputer typu mainframe, do którego podłączone są terminale znakowe nie posiadające żadnej mocy obliczeniowej. Na zastosowania IT/IS pozwalają sobie jedynie nieliczne i bogate firmy. Era mikrokomputerowa (1980–1995) – to okres, w którym przetwarzanie informacji zaczyna ulegać rozproszeniu. Okres rozpoczyna wprowadzenie do masowej produkcji komputerów osobistych (PC), co jest przede wszystkim zasługą firm IBM, Intel, Microsoft, Apple i Motorola. Wzorcem technologicznym jest komputer osobisty lub serwer oparty przede wszystkim na architekturze Intela. Zastosowania IT/IS są domeną większości organizacji gospodarczych. W okresie tym powstają już sieci komputerowe (liderem jest tutaj firma Novell) jednak mają one charakter lokalny. Era sieciowa (1995–2015) – to okres, który został zapoczątkowany przez pierwsze próby komercyjnego wykorzystania Internetu podjęte przez firmę Digital Equipment. Powstaje możliwość taniego, bo w dużej mierze sponsorowanego przez państwo, połączenia oddzielonych dotychczas systemów komputerowych w system globalny w najszerszym znaczeniu tego słowa. Zastosowania TI stają się nieodłączną częścią życia dla dużej grupy klientów indywidualnych na całym świecie. W każdym okresie stosowania określonego wzorca technologicznego ma miejsce proces uczenia organizacyjnego. Krzywa uczenia ma charakter sigmoidalny. Poszczególne pola pod krzywą związane są z kolejnymi fazami modelu Nolana i Gibsona. Krzywa związana z następnym wzorcem technologicznym w jej początkowym okresie braku ciagłości technologicznej nie gwarantuje tak wysokiej efektywności jak krzywa związana z wciąż obowiązującym wzorcem technolo-.

(8) Mariusz Grabowski. 182. gicznym. Jednak w późniejszym okresie, który staje się wzorcem dominującym, pozawala na wspięcie się na wyższy szczebel rozwoju.. Rozwój technologii. Era sieciowa Era mikrokomputerowa Era przetwarzania danych II II II. 1960. III. III. III. IV. IV. IV. 1980. 1995. 2010 Czas. Rys. 1. Fazy rozwoju zastosowań techniki informacyjnej Źródło: opracowano na podstawie [Nolan 2000].. Zaprezentowany powyżej model Nolana i Gibsona wskazuje na tendencję, z której wynika, że informacyjne systemy rozproszone będą dominować w gospodarce światowej najprawdopodobniej przez najbliższe kilkanaście lat. 4. Typologia systemów rozproszonych W cytowanej już wcześniej pracy [McNurlin, Sprague 2002] zaprezentowano typologię, zawierającą sześć klas rozproszonych systemów przetwarzania danych. Omówione poniżej poszczególne klasy systemów odnoszą się w dużej mierze do opisanych w poprzednim punkcie uwarunkowań historycznych i stanowią swoisty kompromis pomiędzy potrzebami a możliwościami, jakie oferowała ówczesna technologia. Zdecentralizowane systemy autonomiczne. Zdecentralizowane systemy autonomiczne stanowią najstarszą formę rozproszonego przetwarzania. Są one dziedzictwem odzwierciedlającym wydziałową strukturę organizacji, w której każdy wydział posiadał swój minikomputer lub komputer typu mainframe. Stanowią one swoiste „wyspy przetwarzania”, które przetrwały do czasów obecnych. Dzisiaj łączy się te systemy w celu raczej symbolicznej wymiany danych nie stanowiącej jednak istoty ich działania. W większości przypadków integracja tych systemów nie jest możliwa z uwagi na różnorodną technologię zastosowaną w ich.

(9) Kierunki rozwoju rozproszonych systemów…. 183. poszczególnych realizacjach. Niemniej w niektórych przypadkach taka integracja jest możliwa w oparciu o tzw. oprogramowanie warstwy pośredniej (middleware). Jednym z częstych powodów wdrażania systemów klasy ERP [Lech 2003] jest zastąpienie pewnej liczby zdecentralizowanych systemów autonomicznych jednolitym rozwiązaniem o charakterze globalnym. Scentralizowane systemy hierarchiczne. Scentralizowany system hierarchiczny stanowi wzorcowe rozwiązanie przetwarzania informacji ery przetwarzania danych. Na szczycie hierarchii znajduje się komputer główny typu mainframe o największej mocy obliczeniowej spośród wszystkich komputerów organizacji. Kolejne szczeble hierarchii (może ich być kilka) zajmują minikomputery o proporcjonalnie mniejszej mocy obliczeniowej, do których podłączone są nie posiadające żadnej mocy obliczeniowej terminale. Nadzór nad całością przetwarzania sprawuje komputer główny. Jego zadaniem jest również delegacja zadań przetwarzania informacji do minikomputerów niższych szczebli. Zaletą scentralizowanych systemów hierarchicznych jest jasny podział zadań przetwarzania informacji pomiędzy elementy składowe oraz łatwość i niski koszt utrzymania systemu. Do wad należy duży koszt początkowy systemu oraz ograniczenie możliwości prezentacyjnych głównie do raportów i formatek w postaci znakowej. Lokalne systemy równorzędne. Lokalne systemy równorzędne są architekturą systemu rozproszonego ery mikrokomputerowej. Składają się z pewnej liczby mikrokomputerów, tzn. takich, z których żaden nie pełni jakiejś nadrzędnej lub uprzywilejowanej roli. Są często stosowane jako systemy wspomagające pracę biurową. Połączone są za pomocą lokalnych sieci komputerowych, a ich głównym celem jest możliwość współdzielenia zasobów, takich jak przestrzeń dyskowa, drukarki, skanery czy usługi dostępowe do sieci rozległych – zwykle Internet. Lokalne systemy równorzędne należą do najczęściej spotykanych systemów rozporszonych. Ich zaletą jest niski koszt zakupu, wadą natomiast wysokie koszty utrzymania i ograniczenie do dość wąskiej klasy zastosowań biurowych. Systemy typu klient–serwer. Systemy typu klient-serwer zyskały na popularności pod koniec lat 80. Wtedy to moc wydajność mikrokomputerów opartych na architekturze Intela zaczęła w dużej mierze dorównywać wydajności minikomputerów ery przetwarzania danych. Zaczęto więc przeznaczać je do pełnienia zadań przetwarzania i udostępniania informacji krytycznej dla działalności. Ponieważ najczęściej łączone z nimi komputery osobiste w przeciwieństwie do terminali znakowych posiadały zdolności obliczeniowe możliwa była rezygnacja z konieczności realizacji funkcji prezentacji danych. Zrodziła się zatem idea przetwarzania rozproszonego, w której pewne komputery (serwery) pełniły szczególną rolę zapewniania danych lub innych usług, a inne (klienci) z tych usług korzystały. Ponieważ zarówno stacje klienckie, jak i serwery były jednostkami inteligentnymi.

(10) Mariusz Grabowski. 184. (posiadały mikroprocesory) przetwarzanie informacji mogło być pomiędzy nimi dzielone. W zależności od zadań pełnionych w systemie serwery można podzielić na następujące klasy: serwery plików, serwery wydruków, serwery dostępu, serwery aplikacji. W zależności od stopnia podziału przetwarzania pomiędzy warstwami zarządzania danymi, aplikacji i prezentacji systemy typu klient–serwer można podzielić na następujące grupy [Woolfe 1995]: systemy o dzielonej warstwie prezentacji, systemy o zdalnej warstwie prezentacji, systemy o dzielonej warstwie aplikacji, systemy o zdalnej warstwie aplikacji, systemy o dzielonej warstwie zarządzania danymi. Granice podziału są zaprezentowane w tabeli 1. Tabela 1. Rodzaje przetwarzania typu klient–serwer Dzielona warstwa prezentacji. Zdalna warstwa prezentacji. Dzielona warstwa aplikacji. Warstwa zarząWarstwa zarząWarstwa zarządzania danymi dzania danymi dzania danymi Warstwa aplikacji Warstwa aplikacji Warstwa aplikacji Warstwa prezentacji. Warstwa prezentacji. Zdalna warstwa aplikacji. Dzielona warstwa zarządzania danymi. Warstwa zarządzania danymi. Warstwa zarządzania danymi. Warstwa zarządzania danymi Warstwa aplikacji Warstwa aplikacji Warstwa aplikacji Warstwa prezen- Warstwa prezen- Warstwa prezenWarstwa prezentacji tacji tacji tacji. Źródło: opracowano na podstawie [Woolfe 1995].. Korporacyjne systemy hybrydowe. Wiele spośród globalnych organizacji gospodarczych nie posiada jednolitej struktury technologicznej poszczególnych elementów składowych infrastruktury przetwarzania. Często jednak powody biznesowe wymagają połączenia tych systemów, zwłaszcza wtedy, gdy wymiana danych stanowi integralną część działalności. Zachodzi wtedy konieczność stworzenia systemu hybrydowego, w którym poszczególne części składowe łączy się w jedną całość. Wykorzystuje się tutaj różne media transmisyjne, takie jak łączność telefoniczną, satelitarną, prywatne sieci typu VAN (Value added networks) czy sieć Internet. Oczywiście koniecznością jest zapewnienie mechanizmów dostosowujących poszczególne architektury. Mechanizmy te mają za zadanie dokonywać translacji protokołów sieciowych oraz definiować zasady komunikacji między aplikacjami i systemami baz danych..

(11) Kierunki rozwoju rozproszonych systemów…. 185. Scentralizowane przetwarzanie Internetowe. Nastanie ery internetowej sprawiło, że przeszkody natury technologicznej w połączeniu systemów rozproszonych zanikły. Praktycznie każdy dowolny system komputerowy można podłączyć do Internetu. Zostaje mu wtedy nadany unikalny numer jednoznacznie identyfikujący go w sieci globalnej. Jednocześnie protokoły sieci lokalnych związane z poszczególnymi dostawcami usług sieciowych zaczęły być wypierane przez otwarty protokół internetowy TCP/IP. Doprowadziło to do sytuacji, w której granica pomiędzy siecią lokalną a rozległą przestała być zauważalna. Idea scentralizowanego przetwarzania internetowego ([Scott, Storey 1997] [Weiderman i in. 1997]) polega na tym, że sieć internetowa jest przez potencjalnego użytkownika (klienta) traktowana jak komputer główny udostępniający szereg zasobów informacyjnych. W rzeczywistości jest to ogromna liczba serwerów, które jednak udostępniają swe zasoby w sposób zgodny z powszechnie uznawanym standardem. 5. Rozwój systemów przetwarzania informacji Zaprezentowane w poprzednich punktach historyczne uwarunkowania rozwoju korporacyjnych systemów informacyjnych, standaryzacja protokółów i usług sieciowych oraz prognostyczna interpretacja modelu Nolana i Gibsona (rys. 1) skłaniają do podjęcia następujących wniosków co do dalszych kierunków rozwoju systemów przetwarzania informacji. Wydaje się, że w świetle zaprezentowanych wcześniej rozważań szczególnie interesujące z punktu widzenia znaczenia dla gospodarki światowej będą dwie klasy systemów przetwarzania danych. Pierwszą z nich, niewątpliwie istotniejszą, stanowią systemy korporacyjne – odwzorowujące procesy biznesowe organizacji. Druga to systemy klientów końcowych – użytkowników indywidualnych. Coraz większa dostępność rozwiązań TI i rozwój publicznej sieci informacyjnej sprawia, że są również ważnym ogniwem w gospodarce. Warunkują one bowiem realizację aspektu zewnętrznego strategicznego rozwoju TI. W niniejszym punkcie zostanie podjęta próba określenia tendencji rozwojowych tych dwóch klas systemów. Wraz z rozwojem zastosowań znacząco wzrastają korporacyjne wydatki na technikę informacyjną. W Stanach Zjednoczonych w 1965 r. wynosiły one mniej niż 5% ogólnych wydatków korporacyjnych organizacji, po wprowadzeniu komputerów osobistych (początek lat 80.) wzrosły trzykrotnie – do 15%. We wczesnych latach 90. wartość ta wzrosła do 30%, a obecnie wynosi 50% [Carr 2003]. Ocenia się, że aż 80% tych wydatków to wydatki związane z utrzymaniem istniejącej infrastruktury, a tylko 20% stanowią wydatki na tworzenie nowych systemów. Sytuacja ta sprawia, że organizacje coraz częściej i usilniej starają się redukować swoje wydatki na TI [Gallegos i in. 2004]. Powszechnie stosowanym modelem pojęciowym związanym z zarządzaniem kosztami w sferze TI jest zapropono-.

(12) Mariusz Grabowski. 186. wany przez Gartner Group2 całkowity koszt posiadania systemu komputerowego (TCO – total cost of ownership). Na TCO składają się następujące kategorie: koszt zakupu systemu komputerowego, koszt zakupu oprogramowania systemowego, koszt instalacji, koszt szkoleń, koszt wsparcia, koszt utrzymania (aktualizacji), koszt zapewnienia infrastruktury. W przypadku lokalnych systemów równorzędnych TCO może wzrosnąć nawet do 3-krotności początkowej ceny zakupu sprzętu i oprogramowania systemowego. Z kolei utrzymanie w długim horyzoncie czasowym systemu rozproszonego może być średnio dwukrotnie droższe od systemu scentralizowanego [Paul 1998]. Dlatego wskaźnik TCO wyraźnie preferuje systemy o scentralizowanym zarządzaniu. Jednak te, znane z przeszłości, nie posiadały satysfakcjonującej współczesnego użytkownika warstwy prezentacyjnej. W ewolucji systemów korporacyjnych zauważa się zatem obecnie tendencję łączącą zalety przetwarzania scentralizowanego, które zapewnia niski koszt administracji systemu, z rozproszonym, które zapewnia satysfakcjonującą warstwę prezentacyjną. Wydaje się zatem, że preferowanym w przyszłości rozwiązaniem jest scentralizowane przetwarzanie internetowe, w którym rolę stacji klienckich będą pełnić komputery sieciowe (network computers – NC) lub komputery osobiste typu thin client czyli takie, w których jedyną zainstalowaną aplikacją będzie przeglądarka internetowa z wbudowaną wirtualną maszyną języka Java. Aplikacja ta pozwala na dostęp do dowolnych rozproszonych danych i uruchamiania dowolnych rozproszonych aplikacji znajdujących się w Internecie. Dodatkowo taki model przetwarzania pozwala na budowanie stosunkowo tanim kosztem aplikacji integrujących heterogeniczne systemy spadkowe (legacy systems) w jeden spójny model przetwarzania [Weiderman i in. 1997]. Rozwój szybkiej i taniej infrastruktury wymiany informacji sprawia bowiem, że wymienione w punkcie 2 niniejszego opracowania przesłanki decentralizacji przetwarzania tracą na znaczeniu. Główną zaletą systemów budowanych w architekturze scentralizowanego przetwarzania jest znaczące ułatwienie procesu zarządzania systemem. Systemy te co prawda nie są tak elastyczne i łatwe w konfiguracji jak systemy o zasobach lokalnych, ale funkcjonalność taka w systemach korporacyjnych nie jest pożądana, a nawet wręcz szkodliwa. Z kolei w przypadku systemów użytkowników indywidualnych centralizacja przetwarzania nie jest tak krytyczna jak w przypadku systemów korporacyjnych – użytkownik końcowy z jednej strony nie jest bowiem świadom kosztów zarządzania systemem, a z drugiej oczekuje znacznie większej elastyczności środowiska systemowego. Dlatego zjawisko centralizacji przetwarzania nie będzie tutaj następować w tak szybkim tempie jak w przypadku rozwiązań korporacyjnych, ale będzie się dość wyraźnie zaznaczać. Konieczne jest bowiem już w obecnym czasie 2. http://www.gartner.com/.

(13) Kierunki rozwoju rozproszonych systemów…. 187. choćby zapewnienie dostępu do systemów korporacyjnych (sklepy elektroniczne, systemy CRM itd.). Do czynników spowalniających centralizację systemów użytkowników końcowych należy zaliczyć specyfikę zastosowań zaznaczającą się wzrastającą liczbą zastosowań o charakterze multimedialnym, potrzebę znacznie większej elastyczności systemu, które wymagają znacznych zasobów lokalnych, oraz niską odporność klientów indywidualnych na działania promocyjne producentów sprzętu komputerowego. Należy jednak zaznaczyć, że wraz z rozwojem infrastruktury wymiany informacji zalety lokalnego przetwarzania (tzn. jego szybkość i elastyczność) będzie coraz bardziej tracić na znaczeniu i z czasem również systemy użytkowników końcowych również będą ulegać centralizacji. Wydaje się, że zaproponowany przez Nolana rok 2015 jest ostateczną cezurą dla zmiany obecnego paradygmatu przetwarzania również w przypadku systemów użytkowników indywidualnych. 6. Zakoƒczenie W artykule zarysowano problematykę ewolucji rozproszonych systemów przetwarzania informacji. Określono dwie grupy systemów mających istotne znaczenie dla gospodarki światowej w najbliższej przyszłości: systemy korporacyjne oraz systemy klientów indywidualnych. Zaznaczono, że tendencją rozwojową obydwu z wymienionych grup jest migracja w kierunku systemów o architekturze scentralizowanego przetwarzania internetowego. Wykorzystując model Nolana i Gibsona dokonano próby określenia cezury czasowej upowszechnienia się modelu scentralizowanego przetwarzania internetowego. Wydaje się, że o ile w przypadku systemów korporacyjnych migracja te już wyraźnie się zaznacza i nastąpi znacznie wcześniej to w przypadku systemów klientów indywidualnych zaproponowany przez Nolana rok 2015 wydaje się być trafną prognozą. Literatura Carr N.G. [2003], IT Doesn’t Matter, Harvard Business Review, May. Digital Convergence: The Information Revolution [1999], (eds.) J. Vince, R. Earnshaw, Springer-Verlag, Heidelberg-Berlin, Gallageos F., Senft S, Manson D.P., Gonzales C. [2004], Information Technology Control and Audit, Auerbach Publications, Boca Raton, London. Hamel G. [2000], Leading The Revolution, Harvard Business School Press, Boston, Massachusetts. McNurlin B.C., Sprague, R.H.Jr. [2002], Information Systems Management in Practice, 5-th Edition, Prentice Hall, Upper Saddle River, New Jersey. Langefors B. [1973], Theoretical Analysis of Information Systems, Studentlitteratur, Laund, Sweden, Auerbach Publishers Inc. Philadelphia..

(14) 188. Mariusz Grabowski. Lech P. [2003], Zintegrowane systemy zarządzania ERP/ERPII , Difin, Warszawa. Nolan R.L. [1973], Managing the Computer Resource: a Stage Hypothesis, Communication of the ACM, v. 16, no. 7, July. Nolan R.L. [1979], Managing the Crisis in Data Processing, Harvard Business Review, March/April. Nolan R.L. [2000], Information Technology Management from 1960–2000, Chapter 7 in A Nation Transformad by Information in: A.D. Chandler, J.W. Cortad (eds.), Oxford Press, Cambridge. Nolan R.L., Gibson C.F. [1973], Managing the Four Stages of EDP Growth, Harvard Business Review, January/February. Paul L.G. [1998], What Price Ownership? Datamation, December/January, Scott R.T. Storey M.A.D. [1997], Report of the STEPʼ97 Workshop on Net-Centric Competing Special Report, CMU/SE I-97-SR-016, Software Engineering Institute, Pitsburg. Tilley S.R., Storey M.-A.D [1997], Report of the STEP’97 Workshop on Net-Centric Computing, Special Report, CMU/SEI-97-SR-014, ESC-TR-97-014, Software Engineering Institute, Pittsburgh. Weiderman N.H., Bergey J.K., Smith D.B., Tilley S.R. [1997], Approaches to Legacy System Evolution, Special Report, CMU/SEI-97-SR-016, Software Engineering Institute, Pittsburgh. Wetherbe J.C. [1987], IS: To Centralize or to Decentralize, SIM Network, Society for Information Management, Chicago. Woolfe R. [1995], Managing the Move to Client-Server, Wentwoth Research Program (now part of Gartner Executive Programs, 56 Top Gallant, Stanford, CT 06094), January. The Directions of Development of Distributed Information Processing Systems A dynamic Internet development, which has been observed during last decade, has led to the creation of a new information processing model that has constituted a kind of compromise between distributed and centralized processing, i.e. the model of internet centralized processing. The paper intends outlining the conditions and the directions for development of distributed information systems that are based on the public information exchange net – the Internet. Key words: information systems, information processing, centralized systems, distributed systems, TCO..

(15)

Cytaty

Powiązane dokumenty

Analiza działania przerzutnika RS pozwa- la zauważyć, że stan jego wyjść nie zawsze jest określony przez stany logiczne jego wejść.. Jest to istotna cecha tego układu

The resonance-like peak in the tracking magnitude at 3.1 Hz and the increase in phase lag above 2.5 Hz is due to the finite stiffness of the tracking controller,

Jest to dodatek, który ułatwia przeprowadzanie obliczeń rozproszonych przez przydzielenie typu komputera (klient – master – slave) do odpowiedniej instancji Blendera.. Po

W proponowanym ujęciu krajobrazu, którego podstawą jest koncepcja informacji obrazowej, mieszczą się zarówno fizyczne elementy przestrzeni, relacje między nimi, jak i sposób

Trudno jest odnieść się i porównać wyniki testów w momencie, kiedy zostały one przeprowadzone w wirtualnych systemach operacyjnych, często niemających bezpośredniego dostępu

Napisem nazywać będę dowolną sekwencją znaków (liter, cyfr), być może zawierającą dywiz, która stanowi samodzielny fragment tekstu, to jest zarówno przed nią, jak i po niej

Zdefiniowano parametry heterogenicznej implementacji systemu wbudowanego: zużycie pamięci ROM, zużycie pamięci RAM, zużycie zasobów sprzętowych, czas wykonania oraz

W obu okresach badawczych do metod dzielenia się wiedzą stosowanych przez więcej niż 50% badanych firm należały przekazywanie wiedzy przez pracowników uczestniczących w