• Nie Znaleziono Wyników

Napięcie między rozliczalnością a uczeniem się

1. Rola organizacyjnego uczenia się we współczesnym zarządzaniu

1.5. Wyzwania zastosowania wiedzy i uczenia się w praktyce zarządzania

1.5.4. Napięcie między rozliczalnością a uczeniem się

W  poprzednich rozdziałach pisaliśmy, że interwencje publiczne to zwykle eks-perymenty (ich efekty nie są przewidywalne), a także, iż uczenie się i wykorzystanie wiedzy w procesie polityk publicznych jest procesem kumulatywnym, rozciągniętym w czasie. Takie ujęcie wskazuje, że organizacje publiczne powinny mieć pewną ela-styczność w eksperymentowaniu i podejmowaniu ryzyka, jak również powinny mieć dłuższą perspektywę czasową na zweryfikowanie efektów działań.

Jednocześnie działania organizacji sektora publicznego, co zrozumiałe, są pod-dane silnej presji rozliczalności zarówno ze strony polityków, jak i opinii publicznej

36 Wynika to z  dwóch kwestii. Pierwszą jest deliberatywna natura procesów decyzyjnych i  fakt, że decyzje są wypadkową wielu interesów. Raz podjęte mają tendencję do usztywniania się, ciągłości (trud-no podważyć wypracowany konsensus). Zmiany uruchomionych i  zinstytucjonalizowanych procesów rzadko mają więc charakter rewolucyjny, częściej inkrementalny, wymagają też nagromadzenia odpo-wiedniej „masy krytycznej” w  formie dowodów, ekspertyz i  politycznych argumentów oraz interesów, które uruchomią proces naruszania status quo. Drugą kwestią, w odniesieniu do konkretnych programów i ewaluacji ich wyników, jest wyraźne przesunięcie w czasie. Programy są wdrażane zwykle w cyklu kilku-letnim. Ewaluacje podsumowujące (ex post) wykonuje się zwykle w rok po zamknięciu programu. Polityki publiczne są jednak ciągłe i planowanie kolejnej edycji programu rozpoczyna się jeszcze w trakcie trwania poprzedniego. Tak więc wnioski z oceny starego programu przychodzą, gdy trwa już jego druga edycja.

Wnioski z pierwszej mogą być wykorzystane dopiero przy planowaniu kolejnej, trzeciej edycji.

(Finger, Brand 1999). Rozliczalność (accountability) jest współcześnie rozumiana jako zobowiązania, z których rząd i jego administracja mają się wywiązać przed społeczeń-stwem (Dubnick, Frederickson 2011, s. 3–4).

Organizacje publiczne starają się sprostać zarówno potrzebie uczenia się, jak i wy-mogowi rozliczalności. Jest to trudnym wyzwaniem, bo w praktyce pojawiają się dwa potencjalnie pola konfliktu – perspektywa czasowa oraz orientacja kryteriów sto-sowanych do rozliczania. Przyjrzyjmy się więc bliżej naturze tego konfliktu między uczeniem się a rozliczalnością.

Pierwszym polem potencjalnego napięcia jest perspektywa czasowa. W literaturze na temat zarządzania zorientowanego na wyniki możemy znaleźć dobre podsumowa-nie tej kwestii – przedstawiliśmy je w poniższej tabeli.

Tabela 12. Trzy grupy praktyk zorientowanych na wyniki

Uczenie się Sterowanie i kontrola Rozliczalność Kluczowe

Źródło: van Dooren i in. 2010, rozdz. 3.

Widzimy wyraźnie, że rozliczalność skupia się na podsumowaniu działań, a więc podsumowaniu przeszłości i uzasadnieniu przed interesariuszami utrzymania istnie-jącego stanu rzeczy. Natomiast uczenie się, bazując na przeszłych doświadczeniach, skierowane jest ku przyszłości, ku zmianom koniecznym do sprostania nowym wyzwaniom.

Problemem drugim jest kwestia kryteriów, według których następuje rozliczal-ność (z czego rozliczana jest organizacja). Rozliczalrozliczal-ność może następować na podsta-wie rozmaitych wartości i odzpodsta-wierciedlających je kryteriów. Podstawowe, najczęściej stosowane kryteria przedstawiliśmy w tabeli 13.

Gama kryteriów rozciąga się od oceny przebiegu procesu do oceny efektów dzia-łań. Kryteria te mają więc jasne powiązanie z modelem logicznym, który przedstawi-liśmy w podrozdziale 1.5.1. Prezentujemy to na poniższej rycinie.

Tradycyjna administracja, której charakterystykę omówiliśmy w  rozdziale 1.2, rozlicza się przede wszystkim z poprawności proceduralnej. Uwaga jest więc skon-centrowana wyłącznie na procesie. Paradygmat Nowego Zarządzania Publicznego wprowadził rewolucyjną zmianę, przesuwając uwagę z procesu na efekty – jego racjo-nalność ekonomiczną (wydajność) i zgodność z planami wyjściowymi (skuteczność).

W bieżącej praktyce systemów administracji, szczególnie w Polsce, istnieje tendencja do koncentrowania się na właśnie tych trzech wybranych kryteriach rozliczal ności.

Ta triada opiera się na założeniu całkowitej przewidywalności zarówno procesu, jak i  otoczenia, w  którym realizowane jest działanie. Kryterium poprawności pro-ceduralnej przyjmuje, że obowiązująca procedura przewiduje wszystkie możliwości i sytuacje, jakie mogą wystąpić podczas wdrożenia. Kryterium wydajności zakłada, że zarówno cały proces, jak i jego efekty można dokładnie wycenić37. Wreszcie kry-terium skuteczności przyjmuje, że cel zaplanowany przed rozpoczęciem działań był sformułowany jednoznacznie, był trafny, a co najważniejsze, zachowywał aktualność niezależnie od zmian otoczenia. Ignoruje całą, często bardzo szeroką, gamę efektów, które pojawiły się, mimo iż nie były przewidziane w planie wyjściowym38.

Tabela 13. Kryteria rozliczalności działań publicznych

Kryterium Oceniane zagadnienie

Poprawność proceduralna (Legality)

Na ile prowadzone działania są zgodne z obowiązującymi procedurami.

Przejrzystość (Transparency)

Czy proces prowadzenia danego działania jest jasny, zrozumiały, transparentny dla opinii publicznej.

Wydajność (Efficiency)

Jakie są proporcje między kosztami działania (zainwestowanymi nakładami, zasobami – finansowymi, ludzkimi, administracyjnymi) a osiągniętymi produktami i efektami działania.

Skuteczność (Effectiveness)

W jakim stopniu dane działanie zrealizowało formalne cele, które zostały dla niego zaplanowane.

Użyteczność (Utility)

W jakim stopniu całościowe, rzeczywiste efekty działania (zarówno te planowane, jak i nieplanowane, tzw. uboczne) poprawiły sytuację beneficjentów działania oraz wszelkich grup, które odczuwają jego efekty.

Trwałość (Sustainability)

Jaka długo po zakończeniu działania są odczuwalne jego efekty (przede wszystkim pozytywne).

Źródło: opracowanie własne (K. Olejniczak).

Sprzężenie tak interpretowanych trzech kryteriów zmusza administrację do okre-ślonych zachowań. Po pierwsze, przy zdefiniowanych w  ten sposób kryteriach

roz-37 W polskim wydaniu „wydajność” zyskała kuriozalną formę „taniego państwa” bazującego na dość absurdalnym przeświadczeniu, że najbardziej wydajnym działaniem jest działanie najtańsze, zupełnie ignorując kwestię stosunku jakości do ceny.

38 Dobrym przykładem takiej ułomności stosowania kryterium skuteczności są programy współpracy przygranicznej Polska–Niemcy, realizowane w latach 1994–2001. Ogólnym celem był rozwój regionalny i transgraniczny obszaru przygranicznego (trzech województw). Cel ten nakreślono jednak zbyt ambitnie.

W rzeczywistości – odnosząc skalę środków, jakimi dysponował program, do skali problemów rozwojo-wych – efekty miały charakter lokalny i przygraniczny (często bardzo pozytywny i znaczący, ale w skali lokalnej). Używając wyłącznie kryterium skuteczności, program uznano by za niepowodzenie (bo nie zrealizowano nierealnego planu). W praktyce był on jednak bardzo użyteczną inicjatywą, patrząc z per-spektywy lokalnych i powiatowych układów przestrzennych (Olejniczak, Ledzion, Pander 2008).

Rycina 3. Logika interwencji a kryteria rozliczalności

Źródło: opracowanie własne (K. Olejniczak) na podstawie European Commission 1999.

liczalności dla administracji liczy się zgodność z  procedurami, trzymanie się celu i wybór najtańszej opcji. W tak sztywnym ujęciu nie ma oczywiście miejsca na adapta-cję i uczenie się. Jakiekolwiek niepowodzenie wynikające z eksperymentowania z nie-znanym jest interpretowane jako niekompetencja, każde niepowodzenie jest błędem.

Po drugie, pomiar sukcesu (lub niepowodzenia) oparty tylko na tych trzech kryteriach abstrahuje od rzeczywistej zmiany społeczno-ekonomicznej – nie tylko tej zaplanowa-nej, lecz i tej faktycznie spowodowanej działaniem publicznym. Uwaga administracji jest skoncentrowana na kwestiach operacyjnych (jak działamy), a oderwana od clue sprawy (po co to robimy). Perspektywa urzędników pozostaje więc zawężona.

Tymczasem opinia publiczna, społeczeństwo, któremu dana administracja po-winna służyć (przypomnijmy, że polskim, ale i angielskim, formalnym terminem jest

„służba publiczna”), wykazuje małe zainteresowanie kryteriami operacyjnymi oce-niającymi proces. Społeczeństwo chce znać użyteczność i  trwałość realizowanych działań. Dodatkowo interesuje je też przejrzystość i  legalność, ale w  wysoce utyli-tarnym ujęciu – zagwarantowanie, że zawiłość procedur nie utrudnia życia obywa-telom, nie prowadzi do nierównego traktowania (np. faworyzowania lepiej poinfor-mowanych grup), straty czasu czy zagubienia sensu działań. Widzimy więc, że wąsko interpretowane i  wybiórcze kryteria rozliczalności kierują ją do wewnątrz systemu administracji (rozliczalność jest ważna dla samych urzędników, dla konkurujących ze sobą o wpływy organizacji). Podczas gdy szerzej interpretowane kryteria i akcent położony na kryterium użyteczności kierują rozliczalność na zewnątrz – ku relacji administracja–społeczeństwo.

Tabela 14. Wypaczenia sztywnego systemu wskaźników

Smith identyfikuje siedem negatywnych zachowań menedżerów publicznych, które mogą być wywołane zbyt sztywnym stosowaniem systemów pomiaru procesów i wyników.

1. Koncentrowanie uwagi wyłącznie na tych aspektach pracy programu, które są opisane wskaźnikami (zwykle skwantyfikowanych ilościowo produktach), a ignorowanie trudno mierzalnych, jakościowych efektów programów, w tym efektów ubocznych (Tunnel Vision).

2. Koncentrowanie się na wąskich technicznych celach kosztem celów strategicznych i koordynacji działań służących całościowemu rozwiązaniu danej kwestii społeczno--gospodarczej (Suboptimization).

3. Koncentrowanie się na działaniach i wskaźnikach krótkookresowych, kosztem efektów strukturalnych, które będą widoczne dopiero w dłuższej perspektywie czasowej (Myopia).

4. Przykładanie wagi tylko do tego, by w zestawieniach wskaźniki organizacji nie rzucały się w oczy przełożonym i decydentom, czyli równanie do średniej, zamiast staranie się o ponadprzeciętne wyniki (Convergence)

5. Zabijanie innowacji poprzez sztywny system wskaźników i pomiarów, niedopuszczanie do jakichkolwiek eksperymentów i modyfikacji, które nie dają się opisać bieżącym systemem wskaźników (Ossification).

6. Błędne interpretowanie danych kontekstowych i w rezultacie budowanie błędnych założeń programu i ocen sytuacji (Misinterpretation).

7. Manipulowanie danymi tak, by pokazać na papierze efekty programu różne od rzeczywistości, prowokowanie sytuacji, które podbiją – tylko chwilowo – wyniki (Gaming & Misrepresentation).

Źródło: Smith 1993, s. 140–149.

To napięcie między rozliczalnością a uczeniem się przekładają się też na kwestię natury technicznej – wskaźniki. Jak zwracaliśmy już uwagę przy okazji opisywania koncepcji modeli logicznych, elementy modelu muszą być zdefiniowane, to znaczy zarówno oczekiwana zmiana społeczno-ekonomiczna, proces dochodzenia do tej zmiany, jak i  kryteria, którymi oceniany jest program – wszystko to powinno być wyrażone w mierzalnej formie. Do tego służą wskaźniki. Za ich pomocą menedżero-wie publiczni wdrażają programy, monitorują przebieg owego wdrażania, ale również są rozliczani z efektów tychże programów. Tak więc zestaw wskaźników oraz anali-za ich wartości są anali-zarówno narzędziem pracy menedżerów, jak i ich kontroli przez zwierzchników. I  właśnie forma egzekwowania planowanych wartości wskaźników

może tworzyć napięcie dla uczenia się. W czasach NPM wiele administracji publicz-nych wprowadziło sztywne rozliczanie z osiągania docelowych wartości wskaźników i powiązanie tego z decyzjami budżetowymi (np. w USA agencje, które nie osiągnęły danego wskaźnika, były karane redukcją budżetu). Okazało się jednak, że takie me-chanistyczne podejście prowadzi do manipulowania wskaźnikami przez menedżerów.

Już na początku lat dziewięćdziesiątych XX wieku zidentyfikowano siedem głównych wypaczeń sztywnego systemu wskaźników. Przedstawiamy je w tabeli 14.

W literaturze poświęconej problematyce polityk publicznych pojawiają się oczy-wiście postulaty reform (Barrados, Mayne 2003; Leeuw i in. 1994). Proponuje się, by zniwelować to napięcie poprzez koncentrację nie na procesie, a na jego użyteczności dla obywateli, odbiorców działań. A  także, by tworzyć kulturę bardziej otwartą na eksperymentowanie i  ewentualne błędy (tzw. error-embracing culture), aby oceniać organizacje nie punktowo, lecz w perspektywie, z postępów robionych w czasie (roz-liczalność z uczenia się). Odnośnie wskaźników – pojawiają się postulaty (a również eksperymenty praktyczne, które opisaliśmy w rozdziale 4.3.2) dotyczące bardziej ela-stycznego podejścia, traktowania ich jako narzędzia menedżerskiego, danych zasila-jących konstruktywną, opartą na faktach dyskusję, a nie mechaniczny system karania.

Te postulaty jak na razie mają ograniczony wpływ na praktykę. Na co dzień każdy z urzędników i każda organizacja wciąż zmaga się z napięciem między zawężającymi kryteriami rozliczalności, sztywnymi wartościami wskaźników a presją na uczenie się i adaptację.

Powiązane dokumenty