• Nie Znaleziono Wyników

Strategie informatyzacji

N/A
N/A
Protected

Academic year: 2022

Share "Strategie informatyzacji"

Copied!
295
0
0

Pełen tekst

(1)

P o l s k i e T o w a r z y s t w o I n f o r m a t y c z n e

Strategie informatyzacji |

R e d a k c ja n au k o w a:

Zdzisław Szyjewski

Jerzy S. Nowak

Janusz K. Grabara

(2)

Strategie

informatyzacji

(3)
(4)

Strategie informatyzacji

Redakcja naukowa:

Zdzisław Szyjewski Jerzy S. Nowak Janusz K. Grabara

P olskie Tow arzystw o In fo rm a ty c z n e -O d d z ia ł G órnośląski K atow ice 2006

(5)

Recenzenci:

Prof. dr hab. Aleksander Katkow Prof. dr hab. Maria Nowicka-Skowron

Prof. P.Cz. dr hab. Henryk Piech Prof. PW, dr hab. Inż. Kazimierz Waćkowski

Copyright © 2006 Polskie Towarzystwo Informatyczne

ISBN 10: 83-60810-01-X ISBN 13: 978-83-60810-01-9

Redakcja techniczna mgr inż. Tomasz Lis, mgr inż. Renata Nowak Projekt okładki Marek J. Piwko

Utwór w całości ani we fragmentach nie może być powielany ani rozpowszechniany za pomocą urządzeń elektronicznych, mechanicznych, kopiujących, nagrywających i innych, w tym również nie może być umieszczany ani rozpowszechniany w postaci

cyfrowej zarówno w Internecie, jak i w sieciach lokalnych bez pisemnej zgody posiadacza praw autorskich.

Polskie Towarzystwo Informatyczne Oddział Górnośląski

40-074 Katowice, ul. Raciborska 3

tel. (0 32 251 9811 ) , e-mail: Katowice@pti.org.pl www.pti.katowice.pl

Fotokopie, druk i oprawę

Wykonano w Zakładzie Graficznym Politechniki Śląskiej w Gliwicach zam.402/06

(6)

SPIS TREŚCI

CZĘŚĆ 1

I Podstawy teoretyczne strategii informatyzacji 11

Wiesław Byrski

II Systemy Computer Aided Facility Management w strategii

informatyzacj i organizacji 19

Dariusz T. Dziuba, Kamil Kucharski

III Zarządzanie inform acją-od bazy danych do decyzji 27 Jacek Barańczuk, Andrzej Maciej Wierzba

IV Rola i znaczenie technologii informatycznej we wspomaganiu

działalności przedsiębiorstw 37

Dominika Biniasz, Piotr Chwastyk

V Integracja systemów informatycznych. Studium przypadku 47 Marek Wierzbicki

VI Informatyczne wspomaganie procesów informacyjnych

a optymalizacja zarządzania przedsiębiorstwem 57 Tomasz Lis, Wojciech Igras

VII Czynniki wyboru systemu informatycznego dla przedsiębiorstwa

energetycznego 65

Jerzy Stanisław Nowak

CZĘŚĆ 2

VIII Plan Informatyzacji Państwa - metodyka pomiaru spójności

i skuteczności 73

Zbigniew Olejniczak

IX Mechanizmy koncentracji przestrzennej firm informatycznych

w Polsce 87

Grzegorz Micek

(7)

X Aspekty realnej zdolności właściciela procesu gospodarczego do jego optymalizacji w warunkach outsourcingu

Ewa Szkic-Czech

XI O użyteczności metod wymiarowania funkcjonalnego informatycznych przedsięwzięć projektowych Beata Czarnacka-Chrobot

CZĘŚĆ 3

XII Modelowanie biznesowe w procesie projektowania baz danych wspierających rozproszone systemy pracy grupowej

Dorota Nikiporczyk, Zbigniew Szpunar

XIII Notacja modelowania procesów biznesowych - Business Process Modeling Notation (BPMN)

Mirosława Lasek, Bartosz Otmianowski, Marek Pączkowski XIV Badanie skuteczności strategii na modelu w warunkach zmiennego

środowiska o różnym stopniu losowości Wiesław Byrski, Przemysław Wasylko

XV Rozwiązania referencyjne - konstrukcje i zastosowania w modelowaniu procesów biznesu

Renata Gabryelczyk

XVI Modelowanie procesów wytwarzania oprogramowania dla potrzeb zintegrowanego systemu zarządzania projektami informatycznymi Marek Sujdak, Jan Werewka, Dawid Pytka

XVII Technologia mobilna

Tomasz Rabong, Andrzej Maciej Wierzba

XVIII Funkcjonalność oraz architektura telekomunikacyjnych systemów bilingowych

Michał Ratal

XIX Korzyści i koszty wdrożenia metodyk wytwarzania oprogramowania Leszek Grocholski, Andrzej Niemiec

CZĘŚĆ 4

XX Komputery Odra-1300 Marek J. Greniewski

XXI Wykorzystanie transformaty homomorficznej sygnału

wibroakustycznego do określenia stanu procesu technologicznego Jerzy Lipski

(8)

XXII

XXIII XXIV

Serwer typu "Blade" jako element kostrukcyjny systemu informatycznego

Andrzej M. Michalski

Satelitarne systemy informatyczne Zbigniew Frąckiewicz

Technologie tworzenia dynamicznych stron internetowych z zastosowaniem języka PHP

Iwona Iskierka

277

287 267

(9)

i‘Â î;a> -- « v ^ í - i s t

V. ^iïî'niiïï^s^ sífe.^2- /rwrííííí t ¿ís-W

:"". . ï 4 . j i Î ^ «{«;,:,Ä.

:

:î., ■■■ ■■ ", -vv:.- '

û m : v l m

(10)

CZĘŚĆ 1

(11)
(12)

R O Z D Z IA Ł I

PO D ST A W Y T E O R E T Y C Z N E ST R A T E G II IN F O R M A T Y Z A C JI

Wiesław BYRSKI

Wstęp

Alice: Which way should I go?

Cat: That depends on where you are going.

Alice: I don't know where I'm going!

Cat: Then it doesn't matter which way you go!!

Ten cytat z powieści Lewisa Carolla wielokrotnie był mottem wprowadzającym do problemu zarządzania strategicznego. Powieść Z drugiej strony lustra była również kilkakrotnie tłumaczona na język polski.

Charakterystycznym zjawiskiem jest to, że wierne tłumaczenie, któremu nic nie można zarzucić pod względem językowym, literackim, odwzorowaniu ducha itp.

w jednym wymiarze gubiło wydźwięk, który czytelnik znający zagadnienia zarządzania strategicznego widział wyraźnie. Na końcu artykułu autor zamieścił wyjaśnienie tego fenomenu, również charakterystyczne - tym razem dla teoretyków i zwolenników swojej szkoły naukowej.

W powyższym cytacie znajdujemy wyraźnie dwa główne nurty przebijające się w teorii zarządzania: operacyjny, czyli konieczności podejmowania decyzji w czasie rzeczywistym, tu-i-teraz, i strategicznym, czyli konieczności ujęcia tych decyzji w ciąg, który realizuje zamiar z dalekiej przyszłości. W procesie podejmowania decyzji operacyjnej obydwa te wymiary decyzji są obecne, kot reprezentował strategiczny punkt widzenia1, Alicję interesował wątek operacyjny. W analogiczny sposób możemy i powinniśmy patrzeć na wszystkie decyzje podejmowane w organizacji, a już na pewno na decyzje o znaczeniu strategicznym.

Teorie zarządzania strategicznego, których jest wiele, z różnych przesłanek próbują wyprowadzić swoje aprioryczne sądy. W tym artykule na zagadnienie zarządzania strategicznego patrzeć będziemy z punktu widzenia menedżera- praktyka odpowiedzialnego za informatykę w swojej organizacji. Z jego punktu widzenia zagadnienie wyboru właściwych decyzji strategicznych, czyli dotyczących ważkich spraw z dziedziny informatyki, powinno dać się wyprowadzić jeśli nie z dominującej teorii, jak to odbywa się w naukach ścisłych ,

1 kot trochę udaje, że nie rozumie problemów Alicji, czyli udaje, że nie rozumie intencji pytań.

2 Oczywiście to stwierdzenie oznacza wyłącznie tyle, że mniej więcej wiadomo, która teoria aktualnie jest uważana za słuszną, a które teorie są wątpliwe, lub obalone (też na dziś)

(13)

to przynajmniej powinny istnieć teoretyczne przesłanki, którą teorię, kiedy należy stosować i pod jakimi warunkami.

1. Historia informatyki gospodarczej

W informatyce, jak i w innych naukach, funkcjonuje paradygmat pierwszego (poprawnego) rozwiązania. Oznacza to forsowną eksploatację napotkanego - najczęściej przypadkowo - odkrycia. Oczywiście równolegle szuka się lepszego, ale zwykle intensywnie rozwijany pierwszy pomysł długo uzyskuje dominującą przewagę, często również poszukiwania alternatywnego rozwiązania są blokowane przez lobby aktualnego pomysłu.

Spójrzmy na kilka przykładów:

a) Karty perforowane jako nośniki danych - odziedziczone od maszyn tkackich, ale ile lat trwało, zanim znaleziono alternatywę;

b) Taśmy magnetyczne jako nośnik pamięci zewnętrznej - dziedzictwo technologii zapisu dźwięku;

c) Dalekopisy jako urządzenia wejścia wyjścia i dziurkowana taśma papierowa - przejęta od telegrafii;

d) Bardzo charakterystyczny przypadek wynalazku lamp elektronowych, zwłaszcza że start radiofonii odbył się na bazie kryształków półprzewodzących;

e) Pierwszym rozwiązaniem była telefonia przewodowa, a telewizja bezprzewodowa, podczas gdy powinno być na odwrót: telewizję oglądamy siedząc w miejscu, a komunikacja powinna być mobilna;

W wyniku wprowadzania nowych technologii zmieniają się również - muszą się zmienić - procesy zarówno technologiczne jak i organizacyjne (zarządzania). Zmiany te również odbywają się na zasadzie szukania linii najmniejszego oporu. Można mnożyć przykłady, każdy informatyk (praktyk) zna ich dziesiątki ze swojej praktyki, dajmy tylko jeden, najpospolitszy: komputer na jednym stanowisku przetwarza dane i wyniki drukuje, a drugi na innym stanowisku, te dane wprowadza. Czasem to wprowadzanie odbywa się z użyciem nowoczesnych technologii np. za pomocą skanera3.

Często tak wygląda, jakbyśmy używali elektronicznego bata, hydraulicznych resorów, hamulców z ABS i czujnika parkowania do prowadzenia wozu ciągnionego przez konie.

Można przytaczać dziesiątki takich ewolucyjnie ślepych ścieżek rozwoju.

Czy wiedza o nieprzewidywalnym kierunku zmian może się przydać przy określaniu strategii rozwoju informatyki w firmie i, szerzej, technologii? Wydaje się, że do niedawna zagrożenie „spóźnienia się” nie było zbyt istotne. Na przykład z technologii maszyn parowych na technologię elektryczną użytkownicy mogli przejść bez większych wstrząsów, wprawdzie producenci starej technologii byli

3 Inna sprawa, że pozbywamy się w ten sposób najróżniejszych wirusów - analogia do oddzielania galwanicznego obwodów elektronicznych

(14)

w znacznie gorszej sytuacji, ale ju ż serwisanci potrafili się zaadoptować.

Przechodzenie użytkowników na systematycznie informatyzowane metody funkcjonowania również nie wywoływały zbyt wielkich wstrząsów, z pewnymi pouczającymi przykładami. Jako przykład przypomnijmy sobie historię nieistniejącej już firmy Polaroid, która wprowadziła „momentalną fotografię”. Na pewno stratedzy tej firmy wiedzieli, że jeszcze bardziej „momentalna” będzie fotografia cyfrowa, wybrali jednak złą strategię przejścia na nową technologię.

Lepiej, choć nie do końca jeszcze z sukcesem radzi sobie inna firma z branży fotograficznej Kodak. Czy jednak cała branża nie zniknie, stając się branżą niszową w związku z rozpowszechnieniem się zupełnie niespodziewanego rozszerzenia funkcjonalności telefonu komórkowego o fotografowanie, nikt dzisiaj nie jest w stanie przewidzieć.

Jak zatem w takim turbulentnym otoczeniu można planować strategicznie4 informatykę w organizacji? Spróbujmy odpowiedzieć na to pytanie z punktu widzenia dwóch menedżerów: menedżera biznesu, odpowiedzialnego za całość firmy i menedżera IT odpowiedzialnego za informatykę.

a) Problemem menedżerów IT jest wytyczenie strategii rozwoju informatyki, którą dałoby się wywieść z ogólnej strategii rozwoju firmy.

b) Problemem menedżerów biznesu jest stworzenie strategii firmy, która sensownie wykorzystywałaby wszystkie aktualne możliwości IT

2. Rola informatyki obecnie - związek ze strategia

Gdyby spojrzeć na historię informatyzacji z punktu widzenia inżyniera informatyka, to informatyzowano firmę w następujący sposób:

a) Najpierw tego, co się da.

b) Potem to, co się opłaca.

c) Teraz z przymusu, bo inaczej się nie da funkcjonować.

cały czas mając na uwadze paradygmat pierwszego rozwiązania.

Pamiętamy odważne próby informatyzacji firm z użyciem prakomputerów personalnych marki Sincler, informatyzację szkolnictwa z użyciem komputerów Elwro Junior itp.

ad a) Najpierw informatyzowano, co się dawało.

Łatwo, bo z minimalnymi zmianami organizacyjnym informatyzowano kadry, płace, potem inne działy biurokracji i dobrze zdefiniowane procesy technologiczne. Generalnie obszarem informatyzacji były różnorakie działania operacyjne, do czego była przygotowana teoria. Sama teoria również doznała silnego impulsu poprzez umożliwienie realizacji algorytmów do tej pory niedostępnych obliczeniowo.

Strategia informatyzacji polegała na znalezieniu tego, co się da wspomóc informatyką, a kluczową rolę pełnili kierownicy działów informatyki.

4 Byrski W., Zarządzanie strategiczne organizacją w czasach burzliwych w Informatyka w gospodarce globalnej. Problemy i metody red. J. Kisielnicki, J. Grabara, S. Nowak, WNT, Warszawa-Szczyrk 2003, str. 229-239

(15)

ad b) Potem co się opłaca

Szybko minął okres, kiedy ograniczenia były w otoczeniu i możliwości informatyzacji poszczególnych czynności bardzo się poszerzyły. Należało zacząć dokonywać wyborów wśród potencjalnych możliwości. Najprostszą metodą było policzenie co i czy się opłaca w klasycznej kalkulacji inwestycji. Inna sprawa, że aż do dzisiaj nie ma sensownych metod liczenia korzyści z informatyki i w praktyce stosuje się różne heurystyczne metody szacowania.

Strategię w tym okresie tworzyły zespoły ekspertów, którzy reprezentowali różnorakie doświadczenie i posiadali różnorakie wpływy w organizacji. Strategią informatyzacji była informatyzacja działań operacyjnych z wsparciem odpowiednich teorii zarządzania operacyjnego, jak zarządzania jakością, zarządzania logistyką itp. oraz szczególnie silnie oddziaływującą na organizację w jej wymiarze operacyjnym koncepcję reinżynierii.

ad c) Teraz z konieczności, bo inaczej się nie da

U zarania informatyki Edward Yourdon stwierdził, że komputery stosuje w dwóch przypadkach: kiedy się opłaca i kiedy bez komputerów nie da się działać.

Był taki okres w rozwoju informatyki gospodarczej, że samo zastosowanie nowoczesnych rozwiązań informatycznych dawało przewagę strategiczną nad konkurencją. Słynny artykuł N. Cara5 i wywołana dyskusja spowodowała, że większość teoretyków nie ma obecnie wątpliwości, że informatyka jest narzędziem uprawiania biznesu i że strategia informatyzacji nie różni się od innych strategii funkcjonalnych takich jak pokazano w tab. 1.

tablica 1 Strategie funkcjonalne w typowej organizacji

strategia Marketingowa strategia Finansowa strategia Szkoleń strategia Sprzedaży strategia Z. ludzkich strategia Obsługi Klienta strategia Produkcji strategia Zaopatrzenia strategia Badań i Rozwoju strategia Dystrybucji

Uzasadnienie Carra bazowało na „teorii”, skrótowo brzmi ona: nowe technologie zmieniając świat, dokonują przewartościowania, nowe środowisko staje się infrastrukturą, i innego środowiska już nie ma, i nie można konkurować 0 korzyści uzyskiwane w starej infrastrukturze dzięki nowościom, które już nimi nie są. Spory jakie zaczęły się toczyć wokół tej wypowiedzi dotyczyły właściwie stwierdzenia czy już stworzyliśmy infosferę i świat informatyki stał się oczywistą 1 konieczną infrastrukturą, czy jeszcze nie. Nawet nie zajmując stanowiska w tym sporze, nie da się zauważyć, że cytowane powiedzenie Yourdona powinno brzmieć inaczej: bez informatyki nie da się działać, ale musi ona jak najmniej kosztować.

Tak jak musi być w firmie marketing, ale nie może za dużo kosztować, musi być księgowość, ale ... etc.

5 N. Car, Why IT doesn’t matter any more, Harvard Business Review, may 2003

(16)

Każdy z tych działów funkcjonalnych musi mieć swoją strategię, rozumianą jako określenie metody dokonywania wyboru ważkich decyzji.

Logiczne jest, aby strategia funkcjonalna wynikała ze strategii ogólnej biznesu.

3. Co to jest strategia

Zatem zadaniem podstawowym dla menedżerów IT staje się wyznaczenie strategii rozwoju informatyki, którą dałoby się wywieść z ogólnej strategii rozwoju firmy. Autor kilka lat temu6 podjął próbę uporządkowania procesu opracowania strategii firmy bazując na przyjętej definicji strategii jako uporządkowanej trójki:

S=(P, C, D) gdzie P - potencjał (względny) firmy C - zbiór celów strategicznych D - zbiór dróg osiągania tych celów

Tworzenie strategii polegało według tego podejścia na l°ustaleniu P - potencjału względnego firmy wg. określonego algorytmu, 2°wybraniu C - celów strategicznych, najlepiej pasujących dla tego potencjału, 3“wyborze D - najwłaściwszych dla tych celów dróg dojścia. Model ten wydawał się doskonale pasować do możliwości informatyki, która nie polega tylko na zakupie technologii, ale również na żmudnej pracy opracowania nowych procedur fiinkcjonowania i gruntownemu opanowaniu nowych możliwości przez całą organizację, a zatem wymaga czasu i długofalowego planu działania.

Niestety, jak się okazało, model ten nie funkcjonuje prawidłowo.

Zmienność otoczenia i bezprecedensowa niepewność powoduje że teorie zarządzania strategicznego polegające na określaniu dalekosiężnych celów są zbyt ryzykowne do stosowania. Inna sprawa, że firmy nie potrafią inaczej działać - większość działań organizacji musi zajmować wiele czasu i musi angażować znaczne zasoby, zatem jakieś cele muszą być stawiane. Na czoło wśród wielu równolegle funkcjonujących teorii wysunęła się, znana od dawna, ale niezbyt popularna, teoria określana jako RBV Resource Based Value. W tej teorii przewagę strategiczną uzyskuje się drogą rozwijania wyjątkowych umiejętności zdobytych przez organizację. Abstrahując od tego, że jeszcze nie jest to w pełni dojrzała teoria, spełniająca podstawowe kryteria poprawności, oferowane przez nią podejście jest bliskie informatyce.

Przyjrzyjmy się podstawowemu pojęciu tej teorii jaki jest zasób.

„Wszystko, co może być uznane za siłę lub słabość konkretnej organizacji”

i bardziej formalnie:

„Zasoby firmy w określonym czasie definiujemy jako te aktywa (materialne i niematerialne), które są związane z firmą”

Jak widać, nie są to zbyt ostre definicje, ale jest nadzieja, że wyłoni się z tych

6 Byrski W, Gambin R„ Algorytmiczne podejście do tworzenia strategii firmy, Konferencja PLOUG'98, 3 - 7 listopada 1998 http://www.ploug.org.p1/gazetka/7/tekst73.htm

(17)

koncepcji dobrze ukształtowana teoria.

RBV (resurce-based view) jest obecnie dominującym paradygmatem teoretycznym w literaturze poświęconej teorii zarządzania strategicznego. RBV jest spojrzeniem z wnętrza firmy na otoczenie. Organizacja powinna szukać swojego sukcesu strategicznego w pozyskiwaniu, tworzeniu i rozwijaniu rzadkich zasobów i umiejętności, które są wyjątkowe jako takie, albo ich kombinacja okazuje się być unikatowa. RBV wywodzi swoje idee z klasycznej mikroekonomii7. Intuicja i doświadczenie menedżerów pozwala im uzyskiwać unikatową przewagę na rynku, która jest trudna, o ile nie niemożliwa, dla innych firm do skopiowania lub naśladowania, a która daje podstawy do utrwalenia przewagi trwałej konkurencyjnej. Takie podejście wydaje się dobrze wpisywać się w rolę informatyki rozumianą współcześnie jako wspomaganie procesów technicznych i organizacyjnych. Jest zatem informatyka klasycznym zasobem, który może być unikatowy sam z siebie, albo w powiązaniu z innymi czynnikami tworzyć unikatową umiejętność organizacji.

Strategiczny wymiar informatyki, bo operacyjny jest już warunkiem sine qua non, dobrze komponuje się z postulatami teorii RBV: osiągnięcie unikatowych umiejętności dzięki właściwemu opanowania oferowanych przez informatykę możliwości. W pewnym sensie wróciliśmy do początków historii strategii informatyzacji na nowym poziomie: kiedyś staraliśmy się określić właściwą ścieżkę rozwoju informatyki w organizacji poprzez informatyzowanie wszystkiego co się dało; teraz informatyzować będzie się to, czego nie potrafi konkurencja, co najlepiej „pasuje” do już posiadanych przez organizację umiejętności.

4. Zakończenie

Teorie zarządzania opracowane przez teoretyków powinny mieć praktyczną wartość dla menedżerów, w przeciwnym wypadku mają one ograniczoną wartość i stosowalność8. W szczególności teorie powinny dostarczać idei do tworzenia narzędzi wspomagających zarządzania. Narzędzia takie powinny bazować na informatyce, a zatem oczekujemy od teorii dostarczania wystarczająco precyzyjnych (z uwzględnieniem różnic w opisie naukowym świata) algorytmów dających się implementować i używać. Ograniczoną stosowalność w zinformatyzowanym środowisku zarządzania (aplikowalność) mają teorie posługujące się nieostrymi pojęciami i niejasnymi regułami dobieranymi intuicyjnie. RBV wydaje się zatem być dobrą teoretyczną podstawą strategii informatyzacji, warto więc przyjrzeć się pojęciom i założeniom tej teorii. RBV nie jest jeszcze dobrą konstrukcją teoretyczną9 i wymaga uściślenia używanych pojęć,

7 Connor, T. The resource-based view of strategy and its value to practising managers, Strategic Change 11, str. 307-316 str. 307

8 Hartmann J.C.M., Why is it so difficult to combine experience and theoiy in business decisions? Hydrocarbon Processing, November 2002,pp.81

9 Priem R.L., Butler J. E., Is the resource-based „view” a useful perspective for strategic management research? Academy of Management Review 2001, Vol 26, No 1. 22-40

16

(18)

niemniej wydaje się być najlepiej pasującą do warunków jakie dzisiaj panują.

Zupełnie na koniec przytoczymy dialog Alicji z Kotem w wersji niespreparowanej:

'W ould you tell me, please, which way I ought to go from here?'

’That depends a good deal on where you want to get to,' said the Cat.

'I don’t much care where—' said Alice.

'Then it doesn't matter which way you go,' said the Cat.

' —so long as I get SOMEWHERE,' Alice added as an explanation.

'Oh, you're sure to do that,' said the Cat, 'if you only walk long enough.'

Jak zwykle wersja pełna (jeszcze nie obrobiona dla określonych celów) tylko częściowo spełnia pokładane w niej nadzieje, niezbędne jest twórcze uproszczenie. Tak funkcjonują wszystkie teorie i tak też robione są wszystkie modele. Toteż nie należy się dziwić, że rzeczywistość jest znacznie bogatsza, niż jej odpowiedniki i często trafiamy na pominięte szczegóły w trakcie upraszczania.

Literatura

1. Byrski W., Zarządzanie strategiczne organizacją w czasach burzliwych w Informatyka w gospodarce globalnej. Problemy i metody red. J. Kisielnicki, J. Grabara, S. Nowak, WNT, Warszawa-Szczyrk 2003, str. 229-239

2. Byrski W, Gambin R., Algorytmiczne podejście do tworzenia strategii firmy, Konferencja PLOUG'98, 3 - 7 listopada 1998

http://www.ploug.org.p1/gazetka/7/tekst73.htm

3. Car N., Why IT doesn’t matter any more, Harvard Business Review, may 2003 4. Connor, T. The resource-based view of strategy and its value to practising

managers, Strategic Change 11, pp. 307-316

5. Hartmann J.C.M., Why is it so difficult to combine experience and theory in business decisions? Hydrocarbon Processing, November 2002,pp.81

6. Hoskisonn R.E., Hitt M.A., Wan W.P., Yiu D., Theory and research in

strategic management: Swigs o f pendulum, Journal o f Management 1999, Vol.

25, No3, 417-456

7. Priem R.L., Butler J. E., Is the resource-based „view” a useful perspective for strategic management research? Academy of Management Review 2001, Vol 26, No 1, pp. 22-40

(19)

f t ? a . v " x - * Ä * ä - - ' . *«. 'ï i-r Hfc'j '

?dV;íafg;í:i: Ą;ft: f?í>V- , -v/. Tdd'd. SftS)d?í ® ;ïffëfy

;:; :^V':'’:.y 5 :'» v ;, 'V' T ¿ ?' d ' :' ::'.í:'.;'d ’AV.: vY : ''.íj;:d ■..': i.'.? viVi O ÿ d î‘ d 'í; ■ ■'

;V , O v - ' ' : . \ - ■' ić i :';-W- i, v/;; ; : ^ i;;;.:.Ç., W .;.,í d;WV;śf Pi'.; ■ í

. Í..A : W -Z-V ,- ' ■ :■:'. , , :.v;-:¡; ;■.::■■■ . ^ -.;Z’ . =;í-;:v v'r . ;

V'ffnT •;- •

;v- jí ■ ' 1 tZ w , t «i* K? ■ ■. „ 4 Ä W

(20)

R O Z D Z IA Ł II

SY ST E M Y C O M PU T E R A ID E D FA C IL IT Y M A N A G E M E N T W ST R A T E G II IN F O R M A T Y Z A C JI O R G A N IZ A C JI

Dariusz T. DZIUBA, Kamil KUCHARSKI

Wstęp

Facility Management (FM), jako odrębna dyscyplina badań, została zdefiniowana w latach 1970. przez Facilities Management Institute, jako

„zarządzanie ludźmi, procesami oraz miejscem (people, process and place).

Wkrótce tę definicję przejęło międzynarodowe stowarzyszenie IFMA,1 określając „zarządzanie nieruchomościami” procesem integrującym triadę elementów „ludzie - procesy - miejsca (pracy)”, w danym kontekście organizacyjnym.

Sfera nieruchomości uznawana jest za drugie, po personelu, największe źródło (miejsce tworzenia) kosztów dla przedsiębiorstwa.

Organizacje ponoszą ogromne koszty związane z utrzymaniem budynków / pomieszczeń. Na przykład w USA [5], koszt ogrzewania, wentylacji i oświetlenia budynków wykorzystywanych przez ludzi corocznie wynosi ok.

250 miliardów USD (250,000,000,000), więc aż ćwierć biliona (sic!); z tej kwoty potencjalnie możliwe jest zaoszczędzenie nawet 50% (w długim okresie czasu), używając dziś dostępnych technologii informatycznych. Nic więc dziwnego, że technologia CAFM pełni istotną rolę w strategii informatyzacji organizacji.

1. Komputerowe systemy zarządzania nieruchomościami

Dziś dostępne są różnorodne typy systemów informatycznych w sferze zarządzania nieruchomościami, określane różnymi akronimami, jak CAFM, CMMS, EAM, CFMS, CAFI, FIMS2, czy nazwami - Real Estate Systems, Property Management Systems itp.

Przedmiotem rozważań są komputerowe systemy wspomagania zarządzania nieruchomościami - CAFM (Computer Aided Facility

1 International Facility Management Association.

2 CMMS - Computerized Maintenance Management Systems, EAM - Enterprise Asset Management, CFMS - Computerized Facility Management Systems, CAFMI - Computer Aided Facility (Management) Information, FIMS - Facility Integrated Management Systems.

(21)

Management)} Dla potrzeb tego opracowania wprowadzono następującą definicję: CAFM to zintegrowany skomputeryzowany system informacyjny, który automatyzuje specyficzne funkcje zarządzania nieruchomością.

Można wydzielić trzy główne funkcje systemów CAFM [7, s. 563]:

zarządzanie infrastrukturą (Jnfrastructural Management),

zarządzanie techniczne (Technical Management),

zarządzanie biznesowe (Business Management).

Funkcje infrastrukturalne, związane są m.in. z Zarządzaniem kontraktami (Contract Mgmt.), Planami wykorzystania ( Utilization Planning), Zarządzaniem dostępem {Access Mgmt.), Przemieszaniem korporacji {Moving) - zmianami jej lokalizacji, Zarządzaniem własnością {Property Mgmt.) itp. Większość z obecnych systemów CAFM obsługuje takie funkcje. Techniczne FM dotyczy takich działań jak: utrzymanie, obsługa, konserwacja {maintenance), zarządzanie bezpieczeństwem, zarządzanie energią, w sensie optymalizacji kosztowej. Biznesowe FM - trzecia grupa zadań związana jest z działalnością departamentu biznesowego, który m.in. optymalizuje koszty funkcjonowania organizacji (nieruchomości), stosując moduły controllingu, zarządzania budżetem itp.

Często ma to miejsce w oparciu o zintegrowany system klasy ERP, np. SAP R/3. „Jądrem” systemu jest baza danych (np. obiektowo-relacyjna), gromadząca wszystkie obiekty.

2. CAFM - obszary i specyfika zastosowań

Z systemami CAFM związane są różnorodne zasoby (facility assets), możliwe do nadzorowania [3]:

• własność - działki ziemi i inne zasoby naturalne tam tkwiące,

• budynki - pomieszczenia będące własnością, wynajmowane, ofiarowane itp.,

• infrastruktura - drogi, mosty, tunele itp.,

• wyposażenie budynków - m.in. systemy zasileniowe (energia), oświetlenia, windy, schody ruchome itp.,

• sprzęt biurowy - komputery, meble etc.,

• pojazdy - np. samochody,

• wyposażenie terenu - drzewa, elementy krajobrazu,

• ludzie - pracownicy, konsultanci, partnerzy biznesowi i klienci.

Technologia CAFM integruje w s z y s t k i e wymienione rodzaje informacji nt. budynków i nieruchomości. Upowszechniana jest dziś w wielu typach organizacji, których celem jest zarządzanie posiadanymi / dysponowanymi nieruchomościami. Są to m.in. transgraniczne korporacje,

3 W rozwinięciu skrótu występuje termin „Aided” („Assisted”) - „wspomaganie”.

Nie jest jednak doprecyzowany zakres tego wspomagania - od wybranych funkcji FM, prostych funkcji, złożonych, aż do obsługi całej tej sfery.

(22)

centra finansowe, ośrodki badawcze, uniwersytety,4 szpitale, duże firmy komputerowe (dostawcy sprzętu i oprogramowania), także administracja publiczna itp. Gwałtownie wzrasta liczba korporacji, w których wdrożono taką technologię:5 8% w roku 1988, a 63% (1991). Rynek oprogramowania CAFM rozwijał się dynamicznie zwłaszcza w latach 1999-2001 i skoncentrowało się na nim kilku dostawców. Główne obszary zastosowań CAFM są następujące [2, s. 4]: utrzymanie i konserwacja nieruchomości, budżetowanie nieruchomości i różnorodne kalkulacje, zarządzanie konstruowaniem i projektowaniem, inwentaryzacja zasobów przestrzeni, planowanie architektoniczne, prognozowanie wykorzystania przestrzeni, zarządzanie telekomunikacją, zarządzanie własnością i leasingiem, zarządzanie wyposażeniem pomieszczeń itp.

Idea systemów CAFM nie jest niczym nowym.6 Wszystkie budynki na świecie dziś w jakimś stopniu są zarządzane. Jednak to zarządzanie nie zawsze jest efektywne i transparentne. We współczesnych organizacjach (zwłaszcza dużych) zauważa się daleko posuniętą odpowiedzialność za różne aspekty budynków, a więc np. [6, s. 16]:

• np. departament finansowy jest odpowiedzialny za całą problematykę finansową (pieniężną); z kolei nadzór systemów wentylacyjnych realizowany jest przez inny departament;

zarządzanie przestrzenią pomieszczeń leży w czyjejś innej gestii;

• można dalej wyliczać niemal wszystkie departamenty, które mają coś wspólnego z zarządzaniem budynkiem;

• każdy departament musi mieć plany i dane alfanumeryczne z tym związane; ponadto, każdy departament ma swoje własne plany;

• te plany są zwykle papierowe, kopiowane z oryginalnych planów budynku; często te plany są już nieaktualne; jeśli budynek ma np. 10 lat, to wiek tych planów to 10 lat, czy nawet 11 lat;

• na każdym z tych planów rożne tematycznie informacje są

„pokolorowane”, zaznaczone; kolory (o różnych wzorcach) pokazują np. pokoje, specyficzne instalacje na każdym z pięter;

• aby dotrzeć do całości informacji zapisanej graficznie, konieczne byłoby szukanie jej np. na minimum 10 różnych papierowych planach;

• te plany pochodzą z różnych źródeł (planów architektonicznych, planów różnych analiz, planów systemu ogrzewania, wentylacji;

• ponadto, są różne dane, związane z różnym czasem konstruowania, używania budynku (tj. czasem jego życia).

4 M.in. University of Virginia, Cornell University, Stanford University, MIT; ostatni z wymienionych ośrodek wykorzystuje tu system INSITE (Institutional Space Inventory Techniques). Por. [2, s. 9].

5 Dane (Hubbard, November 1992), za: [2, s. 9].

6 Za pracą: [6, s. 16].

21

(23)

Ten przykład pokazuje [tamże], że większość graficznej informacji nt.

organizacji n i e jest jednorodna, n i e jest aktualna; a ponadto, różne departamenty, które są odpowiedzialne za zarządzanie budynkiem, decydują na podstawie różnych zasobów informacji. Konsekwencją tego jest znaczny c h a o s informacyjny, więc błędnie podejmowane decyzje, problemy komunikacyjne wewnątrz departamentów i pomiędzy nimi. Ideą CAFM jest i n t e g r a c j a wszystkich zasobów informacyjnych w jednym systemie i efektywne nimi zarządzanie. Celem jest optymalizacja zarządzania zasobami informacji i infrastrukturą.

3. Ewolucja technologii CAFM

CAFM jest technologią rozwijaną od połowy lat 80. W ponad dwudziestoletniej historii wdrożeń systemów CAFM można wyodrębnić kilka faz rozwojowych [8]:

1 Systemy scentralizowane, oparte na komputerach main-frame, 2 Aplikacje PC,

3 Zintegrowane systemy PC,

4 Systemy środowiska internetowego (internet-based CAFM).

Ad. 1. Pierwsza generacja systemów CAFM (lata 80.) wdrażana była na kosztownych komputerach main-frame,7 a więc i dość awaryjnych. Był to scentralizowany model zarządzania nieruchomościami. Takie rozwiązania oferowali m.in. IBM czy Intergraph - w tym systemy inwentaryzacyjne (facility inventory management), CMMS (computerized maintenance management systems), programowania wymagań {requirements programming), lokalizacji i rozplanowania {location & layout planning) itp.

Ad. 2. Drugą fazę rozwojową CAFM stanowiły aplikacje na komputerach PC. Tworzono je wokół systemów automatyzacji prac biurowych, jak np.

arkuszy kalkulacyjnych, czy systemów obsługi baz danych. Nie dopracowano się wówczas standardów dla graficznych i nie-graficznych baz danych, a istniejące wdrożenia miały charakter „wyspowy”.

Ad. 3. Trzecią generację systemów CAFM rozwijano od początku lat 90.

Były to systemy oparte na platformach PC, jednak silnie integrujące różnorodne aplikacje graficzne i nie-graficzne. Narzędziem integracji stała się technologia systemów zarządzania baz danych (Oracle, Sybase).

Technologia umożliwiła tworzenie raportów nt. przestrzennej informacji, w trybie rzeczywistym. Możliwa stała się analiza kosztów wykorzystywania zasobów. Organizacje rozpoczęły zatem stałe monitorowanie, śledzenie kosztów, związanych z zasobami informacji przestrzennej.

7 W dużych organizacjach, a zwłaszcza w fazach I - III, powszechnie stosowane były komputery main-frame, początkowo odrębnie, później wraz z platformami PC.

(24)

Ad. 4. Czwarta generacja systemów CAFM, od połowy lat 90., związana jest z dynamicznym rozwojem Internetu. Systemy internetowe integrują rożne kategorie oprogramowania, w tym m.in. przepływu zadań i dokumentów (workflow), zarządzania dokumentami (technicznymi), systemów extranet do zarządzania projektowaniem i konstruowaniem, jak i systemów e-commerce do automatycznego zaopatrywania departamentów FM w dobra i usługi.

4. Strategie dostawców oprogramowania

W aspektach technologicznych, najpierw wdrażano je w oparciu o systemy CAD i relacyjne bazy danych. Rozwinięcia technologii pozwoliły wkrótce przetwarzać trójwymiarowe modele danych (3D). Dziś perspektywiczne wydaje się stosowanie czterowymiarowych modeli obrazowania danych (4D) - tj. włączenie do rozważań kategorii c z a s u , istotnego np. do opisu zużycia zasobów w czasie, czy zmian lokalizacji organizacji. Przykładowo [7], w systemie wdrożonym na Uniwersytecie w Stuttgarcie ta funkcja jest szczególnie istotna dla dziennych planów wykładów, planów sesji egzaminacyjnej, czy planowania wykorzystania pomieszczeń na terenie całej uczelni. Kategoria czasu jest również istotna dlatego, że niektóre budynki (pokoje) są wynajmowane, bądź będą wynajmowane tuż po wybudowaniu.

CAFM czerpią dane z różnych źródeł: systemów CAD, GIS, ERP, specjalistycznych systemów (np. optymalizacyjnych), łącząc je poprzez jeden interfejs, w czasie rzeczywistym lub zbliżonym do rzeczywistego.

Główne cechy oprogramowania są następujące [2, s. 2 i 9]:

• Obsługa ogromnych pamięciowo baz danych - np. średniej wielkości nieruchomość zawiera do 500 tysięcy pojedynczych komponentów fizycznych, a z każdym z tych elementów związanych jest wiele atrybutów;

• Zarządzanie różnych form danych (graficzne i alfanumeryczne);

• Dostęp do sieci komputerowych (networking);

• Silne możliwości graficzne i wbudowana grafika (2D, 3D);

możliwość odwzorowywania dowolnych obiektów;

• Duże możliwości raportowania.

Na rynku jest dziś kilkuset dostawców oprogramowania. Jednak zauważa się b r a k standaryzacji w oprogramowaniu CAFM [7, s. 567] - na rynku spotyka się różne ich grupy, technologie, nazewnictwo - powoduje to utrudnienia w ewaluacji systemów. Według stosowanej technologii spotyka się kilka typów systemów CAFM:

zorientowane na technologię CAD (CAD-oriented),

zorientowane na technologię GIS (GIS-oriented),

• rozwiązania mieszane.

System ARCHIBUS/FM, oparty o technologię AutoCAD, od II połowy lat 80. stał się światowym standardem. W roku 1987 obejmował

23

(25)

ponad dwie trzecie światowych wdrożeń, a w połowie lat 90. było to typowe oprogramowanie dla dużych organizacji. Zbliżone rozwiązania oferują i inne systemy: Space Management, DrawBase, czy ArchiFM, oparte o ArchiCAD - trójwymiarowe modele rzeczywistości. Alternatywnym podejściem jest stosowanie w CAFM technologii8 GIS - m.in. ArcView GIS (ESRI).

Większość systemów obsługuje dostępne na rynku bazy danych.

Wydziela się również inne grupy systemów [2, s. 8]:

„ukierunkowane na przestrzeń” (space accounting based systems), np. FACMAN, FM:Space Management, AEC FM;

specjalistyczne aplikacje {facilities applications based systems), np.

SARA FMS, DrawBase, ARGOS, FMS Legend, Accugraph;

• kompleksowe systemy zarządzania nieruchomościami {comprehensive F M systems), służące do podejmowania

różnorodnych decyzji - Archibus/FM, SPAN, Intergraph Project Series, CapSpex + CapSpacetek.

5. CAFM - korzyści ekonomiczne i koszty wdrożeń

Podstawową korzyścią ekonomiczną związaną z implementacją CAFM jest możliwość kontroli kosztów oraz istotna ich redukcja. Wynika to m.in. ze standaryzacji - każdy z zasobów nieruchomości (np. krzesło, komputer PC, budynek, czy człowiek tam pracujący) może być przetwarzany/reprezentowany taką samą technologią.

Według Abela i Lennertsa (2004), systemy CAFM pozwalają ograniczyć koszty związane z utrzymaniem budynków w czasie ich c y k l u ż y c i a (projektowanie, planowanie, konstruowanie, wykorzystanie i realizacja). Te koszty mogą być optymalizowane, gdyż składają się na nie m.in. ubezpieczenia, podatki, płatności, wydatki na energię, utrzymanie, naprawy, czyszczenie, usługi ochrony itp. Szereg badań wskazuje, że wdrażając CAFM organizacja może ograniczyć koszty o 20 - 30%, w długim terminie.

Potencjalne korzyści z wdrożenia CAFM są m.in. następujące [1]:

• Transparentność informacji i bezpośredni dostęp do danych,

• Bardziej skuteczne planowanie działań i ich lepsza jakość,

• Redukcja kosztów utrzymania budynku,

• Korzyści natury prawnej - uwarunkowania dotyczące środowiska naturalnego, a z tym związanej dokumentacji.

8 CAFM nie skupia się wyłącznie (jak GIS) na danych przestrzennych. W przypadku CAFM aspekt zarządzania jest bardziej istotnym czynnikiem. Np. w systemach GIS nie są zwykle uszczegółowiane takie kategorie zarządzania, jak zarządzanie dokumentami, bezpieczeństwem, dostępem itp. Ponadto, CAFM rozszerza koncepcję GIS o system zarządzania c a ł y m przedsiębiorstwem, a nie tylko dla potrzeb informacji przestrzennej. Szerzej na ten temat w pracy [7, s. 564-565],

(26)

Jednak aby pozyskać te oszczędności kosztów, oprogramowanie musi efektywnie wspomagać wprowadzanie danych i system musi być właściwie zarządzany. Żadne z tych korzyści nie mogą być precyzyjnie udowodnione. Ale potencjalne oszczędności są na tyle ogromne (jak wskazano we wstępie do tego opracowania), warte do zagospodarowania.

Jednak koszty wdrożeń systemów CAFM mogą być dla organizacji znaczące. Jak można przypuszczać, największa grupa kosztów wiąże się z pozyskiwaniem danych.

Tablica 1. CAFM-koszty implementacji

Grupa kosztów Udział procentowy / według

badań J. N avy'ego (2000)

Hardware 10%

Software 20%

Pozyskiwanie danych 50%

Szkolenia 5%

Konsultacje 10%

Modyfikacje w oprogramowaniu 5 %

Źródło: [l,s. 588].

Pozyskiwanie danych i oprogramowanie stanowią ok. 75 % kosztów implementacji systemów CAFM. Koszty sprzętu komputerowego czy konsultacji są tu relatywnie niewielkie.

Zakończenie

Internet znacząco zmienia funkcjonowanie dzisiejszych przedsiębiorstw, w różnorodnych sferach gospodarki. Takim zmianom podlega również sfera Facility Management. Rozwój technologii e- commerce w tej sferze niekiedy określany jest mianem „e-FM” bądź „e-RE”

(e-Real Estate). Internet wydaje się idealnym medium do zdalnego monitoringu, kontroli nad obiektami.

Nową tendencją na rynku nieruchomości jest outsourcing systemów CAFM. Na przykład w Wielkiej Brytanii (2005) ok. 40-50% nieruchomości jest obsługiwane przez zewnętrznych providerow [4], Obecnie systemy internetowe coraz częściej są udostępniane w modelu biznesowym ASP (Application Software Providers). Typową formą opłaty za zdalny dostęp do CAFM jest licencjonowanie - miesięczna opłata, płacona providerowi.

Pozwala to na znaczną redukcję kosztów i upowszechnienie różnorodnych technologii dla mniejszych przedsiębiorstw.

25

(27)

Literatura

1. Abel J., Lennerts K., Where does CAFM really help? Current fields of application and future trends according to system users. University Karlsruhe, Facility Management (TMB);

2. Computer Aided Facilities Management (CAFM);

www.andrew.cmu.edu/user/oa04/Papers/Zebra.pdf (2004);

3. Edgar A., Teicholz E., Accomplishing Total Asset Management;

www.graphicsystems.biz/gsi/articles/TAM-IFMAEdit-112502.pdf 4. Forbes B.K., Bruce Forbes, and the Case for Rebranding. Software

Profile FM, December / January 2005;

5. The LaiserinLetter ™ nr. 8, July 22, 2002;

http://www.laiserin.com/features/issue08/index.php;

6. Schiirle T., Computer Aided Facility Management (CAFM) interface between photogrammetry, civil engineering and architecture.

Photogrammetric Week '99, D. Fritsch & R. Spiller, eds. Wichmann Verlag, Heidelberg, 1999; www.ifp.uni-

stuttgart.de/publications/phowo99/schuerle.pdf;

7. Schürle T., Boy A., Fritsch D., Geographic Information Systems and Facility Management; [w:] Fritsch D., Englisch M., Sester M. eds.,

“IAPRS”, vol. 32/4; ISPRS Commission IV Symposium on GIS - Between Visions and Applications, Stuttgart;

8. Teicholz E., Infrastructure Management, [w:] ArchitectureWeek, 1 August 2001; http://www.architectureweek.com/2001/0801/tools_l- 2.html; z pracy: Teicholz E., Facility Design and Management Handbook; The McGraw-Hill Companies, 2001.

(28)

R O Z D Z IA Ł III

Z A R Z Ą D Z A N IE IN F O R M A C JĄ - OD B A Z Y D A N Y C H DO D E C Y Z JI

Jacek BARAŃCZUK, Andrzej Maciej WIERZBA

W szerokim wachlarzu współczesnych technik, które wyraźnie wpływają na przekształcanie warunków życia szczególne ważne są techniki informacyjne i komunikacyjne. Wiadomo bowiem, że to właśnie komunikacja i sprawny przepływ informacji i danych jest współczesnym gwarantem sukcesu na rynku.

Zarządzanie danymi nabrało nowego wymiaru wraz z pojawieniem się nowoczesnych technik umożliwiających gromadzenie, przetwarzanie i wykorzystywanie danych w systemach bazodanowych i wspomagających podejmowanie decyzji.

Dane i informacje - ewolucja zarządzania

Definicji pojęcia informacji jest wiele, niektóre z nich odwołują się do samej istoty informacji a inne precyzują ją jako konkretną wartość.

Ogólnie informacja to coś co w jakiś sposób porządkuje różnorodne rzeczy, fakty, zjawiska i procesy. Jest czymś co wszelkim danym przydaje treści znaczeniowej.1

Informacja jest dzisiaj jednym z najbardziej wartościowych i poszukiwanych towarów na świecie. Sama informacja jest efektem komunikowania się a dzisiejsze społeczeństwo informacyjne ceni informację w każdej postaci.

Zarządzanie danymi zmieniło się znacząco na przestrzeni ostatnich 40 lat.

W odległych czasach mieliśmy do czynienia ze zjawiskiem integracji danych z aplikacjami. Każda aplikacja miała wewnętrzną definicję danych i wykonywała wszystkie funkcje zarządzania danymi. Dane związane z konkretną aplikacją były niezależne od danych innych aplikacji. W czasie pomiędzy uruchomieniami aplikacji, dane były przechowywane na mediach typu „zapisz raz, czytaj często”

(taśmy papierowe i karty perforowane). W późniejszych czasach rolę tych nośników zaczęły przejmować taśmy magnetyczne oraz nośniki typu DASD (direct access storage device), potocznie nazywanymi dyskami. Te pierwsze nośniki danych miały ograniczoną pojemność, jednakże w latach 60-tych była ona wystarczająca.

Kolejne podejście do zarządzania danymi polegało na przechowywaniu danych w plikach zależnych od aplikacji. Stało się ono możliwe w momencie, gdy technologie dyskowe oraz systemy operacyjne dojrzały na tyle, że dostęp do zewnętrznych pamięci stał się prostszy. Pojawiły się systemy plików i chociaż

1 Zob: J. Oleński, Ekonomika informacji, Warszawa 2003, s. 39

(29)

aplikacje oraz dane nadal były silnie powiązane, pliki rozpoczęły ich rozdzielanie.

Poprzez współdzielenie definicji plików, aplikacje mogły współdzielić dane.

Współdzielenie danych zredukowało ich duplikację, upraszczając wytwarzanie aplikacji. Pojawiło się nowe wyzwanie, związane z synchronizowaniem modyfikacji danych.

Wychodząc naprzeciwko powstałym problemom zaczęto przechowywać dane w niezależnych od aplikacji, własnych bazach danych. Pojawiły się pierwsze systemy zarządzania bazami danych. Uzupełniały one podział pomiędzy aplikacjami i danymi, pozwalając jednocześnie na niezależność danych od aplikacji. Wyeliminowały one między innymi nadmiarowości danych dzięki temu, że jedna baza danych mogła dostarczać dane dla wielu aplikacji. Te bazy wspierały już transakcyjność i typowe własności transakcji, takie jak atomowość, spójność, integralność i trwałość (tzw. ACID). Przeważały wówczas dwie struktury (typy relacji pomiędzy elementami danych, wspieranych przez DBMS) baz danych:

hierarchiczna i sieciowa. Takie wczesne systemy zarządzania bazami nie opierały się o standardy dla struktur danych czy też dostępu do danych, implementując własną strukturę i język. Niektóre z nich przetrwały do dzisiaj.

Ewolucja podejścia do zarządzania danymi doprowadziła w kolejnym etapie do tego, że dane zaczęto przechowywać w niezależnych od aplikacji, standardowych bazach danych. Zaczęły się pojawiać pierwsze systemy zarządzania bazami, oparte o technologię relacyjną. Technologia ta wprowadzała już standaryzację do projektowania struktur danych oraz do dostępu do danych przechowywanych w tych strukturach. W połowie lat osiemdziesiątych, zaczęły się pojawiać systemy zarządzania relacyjnymi bazami danych takich firm jak DEC, Informix, Ingres, Oracle, Sybase i IBM. Firmy, które nie ruszyły w kierunku technologii relacyjnej zaczęły powoli odchodzić w niepamięć. Najważniejszym aspektem systemów relacyjnych, które wprowadziły pełną separację aplikacji od danych, było użycie przez nie standardowych interfejsów i języków dla projektowania (DDL) i dostępu do danych (DML - SQL jako standardowy język).

Te bazy danych uległy standaryzacji na przełomie lat 80-90. Pojawiły się specyfikacje języka DML - SQL89, potem SQL92. Kolejne produkty stosowały się do tych standardów.

Kolejna faza ewolucji w zarządzaniu danymi doprowadziła do tego, że dane składowane są w niezależnych od aplikacji bazach danych. Wykształcili się czołowi gracze na rynku systemów zarządzania relacyjnymi bazami danych, zaczęły również powstawać bazy specjalizowane do konkretnych zastosowań.

Współczesny świat nie może funkcjonować bez przetwarzania i przesyłania informacji na duże odległości i miedzy różnymi podmiotami na całym świecie. W dzisiejszych czasach informacja jest również towarem i to towarem bardzo drogim a zarazem szybko dezaktualizującym się. Dlatego tak ważne jest, by po pozyskaniu informacji dobrze ja wykorzystać. Aby profesjonalnie to zrobić niezbędne są odpowiednie do tego narzędzia.

(30)

Współczesne zarządzanie danymi - eksplozja danych jako wyzwanie współczesnego biznesu

Najsilniejszym efektem długoletnich procesów rozwoju technologicznego jest niewątpliwie wykształcenie współczesnych form komunikacji z użyciem

nowoczesnej technologii telekomunikacyjnej.

Z punktu widzenia technicznego przez proces informacyjny rozumie się proces znakowy, ekonomiczny i techniczny, który realizuje co najmniej jedną z następujących funkcji2:

• generowanie (produkcja) informacji,

• gromadzenie (zbieranie) informacji,

• przechowywanie (pamiętanie, magazynowanie, archiwowanie) informacji,

• przekazywanie (transmisja) informacji,

• przetwarzanie (przekształcanie, transformacja, translacja) informacji,

• udostępnianie (upowszechnianie) informacji,

• interpretacja (translacja na język użytkownika) informacji,

• wykorzystywanie (użytkowanie) informacji.

Tym samym również rynek informatyczny utożsamiany jest z obszarem ciągłej komunikacji i wzrostu znaczenia rozwoju technologii transmisji danych z zachowaniem wysokiego poziomu jakości i bezpieczeństwa informacji.

Równolegle ze zmianami podejścia do zarządzania danymi rozwijały się udoskonalenia w wydajności systemów komputerowych. Coraz wyraźniejsze były znaczące zmiany cenowe w stosunku do możliwości. Zaczęła rosnąć moc obliczeniowa procesora, pojemność pamięci, pojemność urządzeń dyskowych, szybkość zapisu na dyski itp. Jednocześnie spadały ceny pamięci i dysków. Ten rozwój technologiczny pociągnął za sobą wyzwania, jakim muszą stawiać czoła dzisiejsze organizacje.

Ogromne możliwości składowania danych oraz różnorodne aplikacje stworzone po to, aby przechwytywać dane ze standardowych, rutynowych procesów biznesowych, przetwarzać je, zapisywać w magazynach danych i udostępniać użytkownikom - wszystko to sprawiło, że organizacje zaczęły produkować ogromne ich ilości.

Dane składowane w silosach informacyjnych stały się cennym nabytkiem każdego przedsiębiorstwa i były jednocześnie kluczem do jego sukcesu. Aby go rzeczywiście osiągnąć, firmy muszą umieć jak najlepiej rozumieć i odpowiadać na potrzeby klienta, korzystając ze zgromadzaonych danych.

W przypadku terabajtów danych, sprawność biznesowa jest warunkowana optymalnym dostępem do nich w momencie podejmowania decyzję. Kluczowe jest teraz nie tylko gromadzenie danych, ale zapewnienie, aby były właściwe, a dostęp do nich był jak najlepszy.

Zadaniem dostawców oprogramowania jest podążanie za wyzwaniami,

2 J. Oleński, Ekonomika Informacji, Warszawa 2003, s. 39

(31)

jakie niosą za sobą takie ilości danych i dostarczanie odpowiedniego oprogramowania już nie tylko do składowania danych, ale także do ich wykorzystania oraz archiwizowania. Organizacje muszą radzić sobie z krytycznymi danymi biznesowymi i analityką biznesową i to m.in. powoduje, że zaobserwować dziś można pewne kluczowe trendy w zarządzaniu informacją oraz liczne narzędzia wspierające ten proces.

W dzisiejszych przedsiębiorstwach na zarządzanie danymi składa się szereg powiązanych procesów, wśród których możemy wymienić m.in.: dbanie o zapewnienie jakości danych, poprawę ich jakości, dokładności i integralności, integracja danych, ochrona danych, audytowanie danych, tworzenie hurtowni danych i usprawnienie możliwości podejmowania decyzji wraz dostępem do informacji w czasie rzeczywistym.

W ym agania biznesow e

Potrzebuję informacji natychmiast!

Nie m ogę przewidzieć o co b ę d ę chciał zapytać.

Potrzebuję

kom pleksowej analizy a nie tylko raportów

Inform atyczna realizacja

Potrzebuję informacji natychmiast!

Nie m ogę przewidzieć o co b ę d ę chciał zapytać.

Potrzeb uję

kom pleksow ej analizy a nie tylko raportów DAN E

HUR TOW NIA DANYCH

Rys. 1. Wymagania i dylematy biznesowe w zarządzaniu informacją

Skupmy się na chwilę na jakości danych. Firmy wykrywają problemy z tym związane (czy to świadomie ich poszukując, czy też na skutek przypadkowych odkryć dokonywanych przez klientów) i uruchamiają określone działania.

Programy poprawiania jakości danych obejmują także ich analizę, profilowanie, data governance, zarządzanie głównymi danymi (MDM), zarządzanie metadanymi, certyfikację danych oraz ochronę danych.

W zarządzaniu danymi ogromną rolę odgrywają systemy Business Intelligence. W naszym kraju rynek ten dopiero się rozwija. Cała ta dziedzina ma na celu konwersję surowych danych na informację umożliwiającą głęboki wgląd w działanie biznesu i jego środowiska, wspomaga procesy podejmowania decyzji, pozwala na eksplorację tego, co zgromadziliśmy, wykrywanie trendów oraz istotnych zdarzeń. Narzędzia BI są ściśle związane z hurtowniami danych (to serca systemów BI). Są to bazy danych, będące centralnym repozytorium wszystkich istotnych danych zaczerpniętych z innych baz danych, podłączonych do różnych

(32)

systemów biznesowych przedsiębiorstwa. Rolą hurtowni jest przede wszystkim integracja danych w jednym miejscu. Integralny element BI stanowią narzędzia klasy ETL (Extraction, Transformation, Loading). Służą one do tego, aby zgromadzić dane z wielu źródeł, przekształcić, zintegrować i przechowywać w jednym miejscu.

Patrząc na dzisiejsze firmy pod kątem tego, jak wykorzystują rozwiązania dla zarządzania krytycznymi danymi, mając na uwadze to, jak rozwiązania BI są w nich rozmieszczone, zauważylibyśmy, że najczęściej nie są one wykorzystywane właściwie czy też w pełni ich możliwości. Stosuje się je najczęściej dla rozwiązywania specyficznych problemów, w pewnych tylko działach i wybranych zastosowaniach, a nie równomiernie na przestrzeni całego przedsiębiorstwa i wszędzie tam, gdzie rzeczywiście mogłyby być przydatne. Brakuje jednego spójnego systemu BI - zazwyczaj poszczególne działy mają swoje własne systemy.

Wykorzystuje się je do podstawowych raportów. Rola rozwiązań BI ciągle nie jest zrozumiała przez wszystkich i nadal organizacje nie czerpią z nich pełnych korzyści dla swoich potrzeb biznesowych. Organizacje mają jeszcze długą drogę do przejścia, zanim narzędzia BI zaczną odgrywać w nich właściwą rolę w szerokim podejmowaniu decyzji.

W skrócie, można by stwierdzić, że najważniejszymi korzyściami wynikającymi z wdrożenia rozwiązań BI są: szybszy dostęp do danych, zwiększone możliwości ich składowania oraz szybsze ładowanie danych; narzędzia BI, w zarządzaniu danymi w dzisiejszym dynamicznym i wymagającym środowisku biznesowym, stają się szczególnie istotnymi i krytycznymi aspektami łączenia technologii IT z potrzebami biznesowymi.

Typowe cechy systemów zarządzania danymi

Patrząc na tempo przyrostu danych możemy śmiało mówić o ich eksplozji.

Firmy i agencje rządowe odnotowują przyrost rzędu 125% rocznie. Powoduje to, że wzrastają wymagania w zakresie rozwiązań do przechowywania danych i zarządzania nimi. Coraz to nowe technologie, takie jak RFID zwiększają liczbę informacji.

Taki wzrost danych oraz to, że dane, które można by było śmiało określić jako historyczne, muszą być dostępne (zarówno ze względów biznesowych jak i różnych regulacji - polityka firmy, regulacje rządowe itp.), powodują nadwerężenie przepustowości systemów informatycznych. Składowanie danych staje się głównym wydatkiem w budżecie IT.

Obserwując wykorzystanie danych, okazuje się, że większość (około 80%) pozostaje nieaktywna przez znaczny czas, pomimo tego, że składowane są w systemach produkcyjnych.

Rozrost baz danych obniża wydajność oraz ogranicza dostępność krytycznych aplikacji i hurtowni danych. Dzisiejsi specjaliści IT opracowują nowe strategie zarządzania danymi, aby udoskonalić efektywność bieżących systemów i przygotować je na późniejsze eskalacje w wymaganiach składowania. Duże bazy

31

(33)

danych oznaczają również dłuższy czas ich ładowania, wyładowywania, przeszukiwania i reorganizacji. Czas odpowiedzi tak się wydłuża, że wykonywanie standardowych czynności serwisowych staje się niemożliwe.

Powoduje to, że firmy stają przed koniecznością wprowadzenia mechanizmów archiwizacji danych historycznych, co jednakże pomimo możliwości rozwiązania wyżej wspomnianych problemów nie jest popularnym rozwiązaniem - przypadkowe usuwanie niezbędnych danych może nawet doprowadzić systemy do zatrzymania. Jest to jak najbardziej rzeczywisty scenariusz, dla danych składowanych w relacyjnych bazach danych, gdzie są one rozdzielane na setki tabel, połączonych przez setki relacji.

Wiele organizacji może potrzebować szybkiego dostępu do danych, które zostały oddzielone od bazy produkcyjnej, trafiając do archiwum. O ile sama archiwizacja nie stanowi problemu, o tyle dostęp czy też przywrócenie danych zarchiwizowanych jest wyzwaniem. Dzięki dostępnym na rynku rozwiązaniom, organizacje mogą inteligentnie i automatycznie zarządzać biznesowymi danymi transakcyjnymi, po ich cyklu życia, poprzez wydzielenie nieaktywnych danych z systemu produkcyjnego, podczas gdy dane archiwalne są w pełni dostępne.

Zastanawiając się nad korzyściami, jakie niesie za sobą zarządzanie informacją, stosowanie narzędzi dla zarządzania krytycznymi danymi oraz dostarczanie dostępu do danych dla podejmowania decyzji biznesowych, warto by było wymienić cechy dzisiejszych systemów zarządzania relacyjnymi bazami danych, z uwzględnieniem tych, które są najbardziej istotne dla organizacji. Oto, co można by było wyróżnić:

• utrzymanie wysokiego stopnia bezpieczeństwa i standardów zgodności;

• minimalizacja czasu wyłączenia dla zadań administracyjnych i modyfikacji;

• zapewnienie wysokiej wydajności w skomplikowanych środowiskach zapytań;

• łatwość użycia;

• szybkość i prostota instalacji oraz zarządzania;

• raportowanie w czasie rzeczywistym;

• możliwości zastosowań analitycznych (drążenie danych itp.);

• możliwości zastosowań jako hurtowni danych;

• niski współczynnik cena/wydajność;

• jednoczesny, wydajny dostęp do danych historycznych i rzeczywistych.

A więc wśród podstawowych narzędzi zapewniających funkcjonowanie informacji w obiegu elektronicznym, dynamicznym i statycznym, jest baza danych. Baza danych jest podstawowym urządzeniem przechowywania i udostępniania informacji.

Nadal jeszcze mało akcentowane jest zarządzanie danymi niestrukturalnymi (tj. e-mail, video, obrazy, dźwięk itp.), chociaż dzisiejsze systemy sąju ż na to przygotowane.

Na rynku istnieje cała gama produktów do zarządzania informacją, które pomagają zarządzać skomplikowaną strukturą informacji i łamać wewnętrzne

(34)

bariery, by zapewnić, że informacja jest w pełni użyteczna, istotna i gotowa do dostarczania wartości ekonomicznej użytkownikowi biznesowemu. Patrząc na produkty, można wymienić wiele kategorii. Mogą być to serwery bazodanowe, oprogramowanie odpowiedzialne za synchronizację, przenoszenie i dostęp do informacji, modelowanie, dostarczanie informacji, a także tzw. middleware do integracji danych.

Dostarczane oprogramowanie pozwala na to, aby informacja docierała do użytkowników niezależnie od tego, czy pracują oni w typowych warunkach w biurze, czy też poza nim. Niezawodne rozwiązania tego rodzaju dostarczane są między innymi od ponad 20 lat przez Sybase i mają za zadanie „uwolnić”

przedsiębiorstwo, przekładając informację na rzeczywistą wartość ekonomiczną.

Nowoczesne aplikacje hurtow ni danych w spierające podejmowanie decyzji Prawdziwa wartość informacji dla pracowników, klientów i partnerów wynika z jej dostępności uzyskiwanej na wiele różnych sposobów. W innym wypadku informacja jest po prostu bezużyteczna.

Organizacje potrzebują:

• sprawnego rozwiązania, które przetworzy dużą ilość zapytań i raportów;

• wysoko wydajnych pamięci masowych, zdolnych pomieścić ogromne ilości danych;

• szybszych i bardziej dokładnych decyzji opartych na informacjach w czasie rzeczywistym.

Jednym z tego rodzaju rozwiązań dostępnych na rynku, gwarantujących wykonywanie zapytań do bazy danych do 100 razy szybciej niż systemy tradycyjne jest Sybase IQ.

Jest on przeznaczony do wydajnej analizy dużych ilości danych dzięki połączeniu technologii przetwarzania zapytań, indeksowania w oparciu o kolumny danych oraz algorytmów zoptymalizowanych pod względem wydajności. Serwer zapewnia przetwarzanie nieplanowanych zapytań (ad-hoc) do 100 razy szybciej niż tradycyjne RDBMS oraz utrzymuje wysoką wydajność mimo dodawania do systemu nowych użytkowników lub zmiany profilu zapytań w wyniku zmiany wymagań biznesowych.

Sybase IQ zawiera wiele innowacyjnych rozwiązań, dzięki temu pokonał ograniczenia tradycyjnych technologii i umożliwia wydajną, interaktywną analizę danych w środowiskach wielodostępnych.

• V ertical Partitioning - w odróżnieniu od dotychczasowych systemów, dostęp do informacji oparty został na kolumnach danych, a nie wierszach. Większość zapytań wspomagających podejmowanie decyzji operuje na stosunkowo małej liczbie kolumn w porównaniu do liczby wierszy, taka strategia eliminuje dużą ilość niepotrzebnych operacji wejścia/wyjścia.

• Duży blok wejścia/wyjścia - rozmiar bloku wejścia/wyjścia może być od 64 KB do 512 KB, dzięki czemu w pojedynczym procesie wejścia/wyjścia może być odczytane ponad pół miliona rekordów.

33

(35)

Windows NT

Windows

UNIX NT UNIX

Us.er User Us er

U pdate Applications U ser User U ser User User

1 • ...f... ~ r ... r

!Q R e a d -O n ly I IQ R e a d -O n ly 1 IQ R e ad -O n ly 1 IQ W rite Instance I Instan ce 8 Instan ce | Instance

Rys. 1. Architektura systemu Sybase IQ

Tym samym technologia ta zyskała znaczny udział w zastosowaniach zarówno komercyjnych jak i publicznych baz danych.

Innowacyjne metody dostępu do bazy danych - Sybase IQ tworzy w każdej kolumnie dodatkowe, zwarte struktury, które efektywnie przyspieszają dostęp i filtrowanie informacji. Struktury te stanowią połączenie mechanizmów indeksowania bit-map, B-drzew i opatentowanej technologii Bit-Wise. Są zoptymalizowane do charakteru danych i operacji typowych dla zapytań wspomagających podejmowanie decyzji.

Równoległość przetwarzania na poziomie systemu operacyjnego - Sybase IQ dzieli operacje niskiego poziomu jak sortowanie, manipulacje bitmapami, wejście/ wyjście, na operacje, które system operacyjny może wykonywać niezależnie. Zapewnia to doskonałą skalowalność w przypadku dołączania nowych użytkowników lub wprowadzania nowych danych. Sybase IQ umożliwia ponadto pełne wykorzystanie dostępnych procesorów poprzez zrównoleglenie procesów dodawania danych.

Prejoin, hash-join, ad hoc join - Sybase IQ pozwala wykorzystać znajomość zależności występujących pomiędzy tabelami przez wcześniejsze definiowanie i budowanie indeksów pomiędzy tabelami. Takie dodatkowe indeksy redukują liczbę procesów niezbędnych do obsługi zapytania.

DSS Query Processor - procesor zapytań automatycznie wybiera najlepszą metodę dostępu i algorytmy wyszukiwania dla każdego zapytania.

Poniżej na rysunku zilustrowano architekturę systemu Sybase IQ

Cytaty

Powiązane dokumenty

Prasa jest zobowiązana do prawdziwego przedstawiania omawianych zjawisk (art. deklaruje zasadę wolności prasy, widząc w niej realizację praw obywatela do rze- telniej,

• Metabazę – jako instrument zarządzania spójnością informacji, traktuje się strukturalnie jako zbiór zdań opisujących systemy badane pod względem ich spójności; zaś

wielkich danych w systemach opartych o rozwiązania AI (Divya & Singh, 2015) oraz Future progress in artificial intelligence: A survey of expert opinion (Müller & Bostrom,

Ostatni z analizowanych obrazów misterium jest też powtórzeniem miste- rium nowotestamentowego oraz tego pierwszego, które odbyło się w Górce Klasztornej.. Każde kolejne

Wydaje się, że metody bibliometryczne i informetryczne mogą zarówno odegrać znaczącą rolę w badaniu samego przedmiotu zarządzania informacją, jak i stanowić zaplecze metodyczne

to pytanie nie stanowi wprawdzie kryterium minimum przy przyjęciu czasopisma do DoAJ (nie jest zatem bezwzględnie wymagane zastosowanie przez czasopismo polityki

Obecnie trwają prace nad wdrożeniem Zintegrowanego Wieloszczeblowego Systemu Informatycznego Logistyki, Finansów i Kadr oraz systemów dowodzenia i kierowania

Prawie 8 tysięcy dzieci w Polsce leczy się na depresję. wynika z danych Narodowego Funduszu Zdrowia (za