• Nie Znaleziono Wyników

M etody oceny efektów przedsięwzięć informatycznych

Nie istnieje obecnie jedna, uznawana za najlepszą, m etodyka analizy opłacalności inwestycji informatycznych i innych ich efektów. Liczba stosowanych metod jest znaczna, jednak niektóre z nich są w istocie odm ienną realizacją tej samej metodyki.

Każda z tych metod zakłada jakiś sposób wykonywania pomiarów, których wyniki, po odpowiednim przetworzeniu, dają obraz i pozwalają na ocenę konkretnego zamierzenia. Nie oznacza to jednak, że każda metoda nadaje się do każdego przedsięwzięcia, które ma być oceniane.

Podstawy teoretyczne i naukowe tych metod są różnorodne i złożone, i w części zapożyczone z innych dziedzin. M etodologię z tego zakresu przedstawiają m.in. prace [HiBr 1995,TKG 1997, TKG1999, TK1999, TK2000].

Podstawową charakterystykę wybranych metod, zachowując ich oryginalne nazwy przedstawiono w tabeli 1.

Tabela 1. W ybrane metody oceny wartości przedsięwzięć informatycznych

Opracowana przez Douglasa Hubbarda (szefa firmy Hubbard Ross). Uważana za metodę, w której w szczególny sposób uwzględniono wyniki badań naukowych w tym zakresie). W metodzie tej nadaje się miary wartościom tradycyjnie uważanym za niewymierne, takim jak zadowolenie klientów i zgodność z założeniami strategicznymi, po czym poddaje je obróbce przy pomocy narzędzi zapożyczonych z dziedziny analizy ryzyka ubezpieczeniowego, teorii zarządzania pakietami akcji i statystyki. W ten sposób powstaje wycena wartości informacji. Całość sprowadza się do stosowania wybranych założeń teorii podejmowania decyzji, gdzie występuje wiele strategii o niepewnym wyniku, co dopowiada sytuacjom zdarzającym się przy inwestycjach informatycznych.

Stworzona w latach 80-tych przez Davida Nortona i Roberta Kapłana. Występuje w odmianach dla dziedzin: finansów, kadr, informatyki, umiejętności pracowniczych i gospodarki elektronicznej. Sprowadza się do poszukiwania bezpośredniego związku między strategią biznesową a wynikami finansowymi, drogą analizy czterech odrębnych obszarów działania.

Klasyczne, stabilne wskaźniki finansowe są

“równoważone” przez trzy, bardziej zmienne, czynniki: stosunki z klientami, jakość działania i umiejętność doskonalenia.

Związek między strategią biznesową a techniką informatyczną jest zacieśniany poprzez wymóg odniesienia każdego przedsięwzięcia informatycznego do istniejącego celu strategicznego organizacji.

Xu

T3R

U3

Opracowana przez Accenture (dawniej Andersen Consulting), początkowo na potrzeby bankowości, kredytów hipotecznych i innych usług finansowych. Celem oryginalnej metody jest przypisanie wartości poszczególnym klientom, poprzez śledzenie obrotów, kosztów i zysków z nimi związanych. Ponieważ nie zawsze można w prosty sposób określić zależność między inwestycjami informatycznymi a pozyskaniem lub utrzymaniem danego klienta, stosuje się uśrednione dane statystyczne. Powoduje to, że metoda ta nie nadaje się dla organizacji mających niewielu klientów (np. duże firmy budownictwa przemysłowego), a sprawdza się w przypadku

Metoda o klasycznym podejściu ekonomicznym:

zysk wyznacza się odejmując od przychodu koszty, włączając w to jednak także koszty pozyskania kapitału. Jeżeli służby informatyczne angażują kapitał, to muszą zań zapłacić. Podejście takie stawia służby informatyczne na tym samym poziomie, co inne służby w organizacji, mobilizując je wszystkie do oszczędności na środkach trwałych, bieżących kosztach eksploatacyjnych i innych kosztach.

W modelu tym informatyka stanowi wartość, a nie tylko miejsce powstawania kosztów, co zmusza służby informatyczne do oferowania wewnętrznie swych usług po konkurencyjnych cenach, co sprzyja ocenie i podkreślaniu wartości tych służb, jako części organizacji. Podejście takie umożliwia wyliczenie konkretnych zysków, przynoszonych przez informatykę.

Informatyka może tworzyć w organizacji wartość tylko na cztery sposoby: przez zwiększanie przychodów, zwiększanie wydajności, przyspieszanie cyrkulacji środków i obniżanie poziomu ryzyka. Metoda ta, próbując określić informatykę w kategoriach ekonomicznych, posługuje się takimi narzędziami, jak wewnętrzna stopa zwrotu, i zysk z inwestycji. Sięga ona jednak również dalej, próbując przypisać wartość takim kategoriom, jak czas i ryzyko, po ty by także uwzględnić je w rachunku. Szczególną wagę przyznaje się w tej metodzie czynnikowi ryzyka, który - zdaniem autorów tej metody - jest powszechnie niedoceniany i nieprawidłowo szacowany.

Sugeruje, aby środki inwestowane w informatykę traktować w kategoriach inwestycji giełdowych, z głównym informatykiem (lub innym wysokim przedstawicielem kierownictwa) pełniącym rolę zarządzającego funduszem. Każda oddzielna inwestycja winna być oceniana przy pomocy kryteriów, jakie stosuje się wobec inwestycji giełdowych.

Podobnie jak w metodzie Portfolio Management, podstawą jest traktowanie nakładów na informatykę, jak inwestycji giełdowych. Różnica polega na tym, że metoda ROV zakłada znacznie większy stopień szczegółowości, przez podział całości informatyki na dające się wydzielić obszary (tradycyjnie traktowane jako miejsca powstawania kosztów). Większy nacisk kładzie się na ocenę potencjalnych, przyszłych dróg rozwoju poszczególnych obszarów, co - w kategoriach giełdowych - zbliża tę koncepcję do zasad stosowanych na rynkach opcji. Celem metody jest uzyskanie możliwie największej elastyczności, pozwalającej na możliwie szybkie dokonywanie korekt.

bódlo: opracowanie własne na podst. [May2000] i mat. firmowych

Metodyki przedstawione w tabeli 1 nie są jedynym i, jakie się obecnie próbuje stosować. Stanowią one raczej przykłady głównych nurtów, jakie w tym zakresie występują. W praktyce najczęściej stosuje się rozwiązania hybrydowe, pozwalające lepiej dopasować je do występujących realiów.

Przykładowo - w dużych organizacjach, a szczególnie w bankach, z różnych przyczyn wykształcił się model informatyki rozproszonej, z wielom a centrami zarządzania, których działania nie zawsze i nie w pełni są koordynowane. Związana z tym rozmaitość modeli inwestowania, zarządzania i oceny nie pozwala na ocenę całości z użyciem jednej metody. Istotną w tym przeszkodą są również partykularne interes' poszczególnych służb, często pozostające w sprzeczności, uświadamianej i tolerowane przez zarządy.

Obraz dostępnych metodologii i metodyk ustalania wartości i efektów zastosowań informatyki byłby niepełny, gdyby nie wskazać, chociażby na kilku przykładach, występujące w nich sprzeczności metodyczne. I tak - m etoda EVS z tabeli 1 postuluje m.in. posługiwanie się w rachunkach wskaźnikiem wewnętrznej stopy zwrotu.

Sprzeciwia się temu kategorycznie I.Campbell, który uważa ten wskaźnik za wyjątkowo mylący w przypadku inwestycji informatycznych i zaleca jego unikanie.

Jeżeli jego użycie zostanie mimo wszystko uznane w konkretnym przypadku konieczne, opowiada się on za uśrednieniem tego wskaźnika w czasie.[Campl998]

J.Cummings, z kolei, za właściwe rozwiązanie uważa przyjęcie modelu wewnętrznej

sprzedaży usług informatycznych (podobnego do wewnętrznej sprzedaży pieniądza bankach), który pozwala przenieść część kosztów tradycyjnej informatyki « korzystające z jej usług kanały elektroniczne. Nie sposób nie zauważyć jednak, że pociąga to za sobą dodatkowe koszty samego prowadzenia takiego rachunku

[Cumm2001]

Obfitość metod i dzielące je, nieraz w istotny sposób, różnice wskazują, że uzysk®

wyniki, a więc ocena efektów stosowania informatyki bądź zamierzeń w tym zakresie, m ogą się różnić. Nieuniknione w tym przypadku różnice nie tyle będą różną oceną tego samego, ale próbą oceny tego samego z odmiennych punktów widzenia. Wniosę

z tego, że najkorzystniej byłoby dysponować wynikami uzyskanymi z zastosowanie-

więcej niż jednej metody. Biorąc jednak pod uwagę wspom niane ju ż tu, związane z tym koszty, trudno dostrzec taką możliwość w praktyce.

Znacznie bardziej prawdopodobny jest scenariusz, w którym o wyborze met<$

decydują wewnętrzne czynniki polityczne danej organizacji. Silne służ.

informatyczne m ogą próbować umocnić tą drogą sw ą pozycję, wnioskując o oc®

według wybranej przez siebie, najbardziej korzystnej metodyki. Z kolei żart-.

organizacji, dopatrując się (shisznie, czy nie) nadmiernych, w stosunku do efektów, nakładów na informatykę, może próbować znaleźć tą drogą oręż do osłabienia pozycji służb informatycznych, jako przygotowania taktycznego do ataku na ich budżet.

Nie można również lekceważyć takiego czynnika, jak źródło finansowania badań, o których mowa. Badania efektywności informatyki wymagają wysokiej specjalizacji i szerokiej praktyki, z których to powodów zleca się je firmom zewnętrznym. Firmy takie są zawsze w jakim ś stopniu uzależnione od strony zlecającej badanie, bądź skłaniane do stanowiska przychylnego zamawiającemu, w oczekiwaniu na kolejne zlecenie czy poszerzenie zakresu bieżąco wykonywanych prac. Nie bez znaczenia są w tym przypadku również przekonania, które można zaliczyć do kategorii “religii informatycznych”, [por. np. A ndrl999]

W dużej organizacji, gdzie funkcjonują liczne centra informatyki, zawsze występuje między nimi konkurencja. Pozostawiona bez odgórnej kontroli przeradza się ona w długotrwałą podjazdow ą wojnę, z budowaniem złożonych, wewnętrznych lobbies. W wielu przypadkach stan ten nie przechodzi w otwartą wojnę tylko dlatego, że centra te jednak w jakim ś stopniu m uszą ze sobą współpracować.

Te same sukcesy są często “zawłaszczane” przez różne, nie tylko informatyczne, służby organizacji, które uczestniczyły w przedsięwzięciu, które te sukcesy przyniosło.

Dobrym tego przykładem z dziedziny finansów są tzw. instrumenty pochodne. Udany obrót nimi wym aga silnego wsparcia wyrafinowanych narzędzi informatycznych, ale jednocześnie, z samej swej istoty, na rynkach finansowych należy do działań wysokiego ryzyka. Um iejętne zarządzanie tym ryzykiem wymaga wiedzy, praktyki i szczególnego-wyczucia, ale jest zupełnie niemożliwe bez pomocy informatyki.

Innym źródłem napięć są spory o podział efektów między różne służby - zarówno informatyczne jak i biznesowe, ale także - występujące coraz częściej - z pogranicza tych dwóch dziedzin. Przykład z tego zakresu przytacza J.Campbell. Organizacje najczęściej nie w ie d z ą ile przychodów tworzą ich strony internetowe. Historyczne zakwalifikowanie kosztów informatyki do kosztów ogólnych bądź administracyjnych uniemożliwia właściwy ich rachunek i powoduje, że działalność w tzw. kanałach elektronicznych wykazuje sztucznie zawyżaną zyskowność. Również i to jest źródłem napięć, gdyż kanały te są intensywnie wspierane przez informatykę “tradycyjną”, która Ponosi w związku z tym znaczne nakłady, nie mogąc wykazać się efektami. Powoduje t°, że liczne organizacje, które początkowo wydzieliły kanały działalności elektronicznej jako jednostki biznesowe, utrzymując ich autonomię operacyjną oddają jepod kontrolę szefów informatyki w zakresie rachunku kosztów i przychodów.

Jest jeszcze inny problem dotyczący dużych przedsięwzięć informatycznych, którego występowania nie da się w łatwy sposób wykryć m etodą oceny wartości, a który w zasadniczy sposób wpływa późniejsze efekty tych przedsięwzięć. Liczne duże i bardzo duże projekty dobiegają końca z opóźnieniem i ze znacznymi przekroczeniami budżetów. W celu zamaskowania przekroczeń budżetowych i ratowania budżetów poszukuje się tam często rozwiązań prostszych i gorszych niż pierwotnie zakładano, ale za to tańszych.

Całość analizy opłacalności inwestycji informatycznych, niezależnie od tego czy przeprowadza się j ą e x post czy ex ante w stosunku do ocenianych przedsięwzięć, jest niemożliwa, jeżeli w danej organizacji nie istnieje środowisko, w którym możliwa jest kontrola finansowania zadań z tego zakresu. [S to k i999] Brak odpowiednio prowadzonej ewidencji analitycznej może spowodować, że analiza taka albo w ogóle nie będzie możliwa, albo będzie powierzchowna i wniesie niewiele do już znanych faktów i zależności.