• Nie Znaleziono Wyników

1. Rola organizacyjnego uczenia się we współczesnym zarządzaniu

1.5. Wyzwania zastosowania wiedzy i uczenia się w praktyce zarządzania

1.5.3. Wyzwanie wykorzystania wiedzy w praktyce

Dysponowanie dowodami, w tym wynikami badań naukowych, nie jest równo-znaczne z ich wykorzystaniem w procesie decyzyjnym. Taka konstatacja płynie z ana-liz nad wykorzystaniem ewaluacji w procesach decyzyjnych (Rich 1977; Weiss 1988), jak również ze studiów nad wykorzystywaniem przez menedżerów publicznych in-formacji o rezultatach (Moynihan, Pandey 2010). Tak więc kolejnym wyzwaniem sto-jącym przed praktykami zarządzania publicznego jest wykorzystywanie dostarczonej wiedzy i informacji.

30 Coraz większą popularność zdobywa stosowanie mieszanych podejść badawczych (Greene 2007;

Pinto 2010).

31 Używając terminu „krytyczne myślenie” (critical thinking), chcemy zwrócić uwagę na zestaw kon-kretnych umiejętności: formułowanie problemów i tez do dyskusji, identyfikowanie i ocenę przesłanek, łączenie przesłanek i  wspierających je dowodów, dostrzeganie i  analizowanie różnych aspektów spraw, usystematyzowane badanie cudzej i prowadzenie własnej argumentacji (Barnet, Bedau 2010, s. 3).

To wyzwanie jest tym większe, jeśli weźmiemy pod uwagę bogactwo, a  wręcz zalew danych i informacji, którego każdego dnia doświadczamy my i nasze instytu-cje32. Z tej powodzi coraz trudniej wyłowić to, co wartościowe33. Jeden z autorów ba-dających zjawisko zalewu danych i informacji stwierdził: „Toniemy w informacjach, a umieramy z pragnienia wiedzy” (Spira 2011, s. 93). Ta konstatacja jest zbieżna ze spostrzeżeniami polskich naukowców na temat nadmiaru danych i informacji w pol-skiej administracji publicznej (Mazur 2008).

W literaturze tematu wyróżniane są dwa podstawowe rodzaje użycia wiedzy (Cou-sins, Leithwood 1986, s. 332):

• instrumentalne – stosowanie wyników konkretnych badań do kwestii operacyj-nych danej interwencji;

• koncepcyjne – mające szerszy wpływ na kierunki programów i polityk publicz-nych, sposób myślenia decydentów o danych działaniach publicznych.

Na determinanty wykorzystania wiedzy możemy patrzeć z perspektywy pojedyn-czego źródła danych – np. raportu lub z perspektywy całej organizacji, czy polityki publicznej. W tabeli podsumowaliśmy wyniki różnych badań nad czynnikami wyko-rzystania badań w procesach decyzyjnych.

Powyższa lista pokazuje, jak duże znaczenie ma czynnik ludzki, a przede wszyst-kim kadry ministerstw. Kształt pytań zależy od umiejętności urzędników zlecających dane badanie34. Kompetencje ewaluatorów są oczywistą pochodną ich edukacji, do-świadczenia, cech osobistych. Polskie badania pokazują też, że wymagający urzędnicy – zdolni do krytycznej oceny ofert badawczych – mają bardzo znaczący wpływ na dobór dobrych wykonawców (Ledzion i in. 2010; Olejniczak, Ledzion, Pander 2008).

Wiarygodność badania to w dużej mierze wypadkowa profesjonalizmu ewaluatorów oraz urzędników nadzorujących badanie. Forma prezentacji i język również zależy od przymiotów jednostek35. Fakt, że u  podstaw wykorzystania wyników pojedynczych

32 W Polsce dotychczas nie prowadzono badań na ten temat, odwołujemy się więc do analiz amery-kańskich. Spira (2011, s. 70) podaje, że w 2008 r. przeciętne amerykańskie gospodarstwo domowe otrzy-mywało 3,6 zetta bajtów informacji, czyli 34 gigabajty na osobę dziennie. Większość informacji miała formę przekazów wizualnych. Tekst stanowił mniej niż 0,1% całości danych. Co więcej, ponad 80% infor-macji, które do nas napływają, mają formę danych nieustrukturyzowanych (e-maile, obrazy, audio, pod-casty). Amerykańska biblioteka Kongresu, mająca obowiązek katalogować wszelkie informacje związane z procesem decyzyjnym, zwyczajnie nie jest w stanie przyjąć tak dużej liczby informacji. Co więcej, te, które zostały zapisane, są w dużej mierze bezużyteczne – zarówno ich sposób katalogowania, jak i nośniki (zmiany technologii zapisu) w praktyce uniemożliwiają dotarcie do nich po kilku latach.

33 Analitycy z  Basex wyliczyli, że w  latach 2004–2010 przeciętny amerykański pracownik wiedzy stracił między 25 a 30% swojego dnia z powodu przeładowania informacjami i rozpraszania nimi uwagi (Spira 2011, s. 95).

34 Urzędnicy często przejawiają nieumiejętność jasnego formułowania potrzeb informacyjnych. Po pierwsze, zlecający mają problem z ustaleniem priorytetów i zawężeniem listy pytań (odróżnieniem nice to know od need to know). W efekcie długa lista pytań prowadzi do rozproszenia uwagi badaczy i rozmycia tematu. Po drugie, często jednostki administracyjne zlecające badanie nie są tymi, które później korzystają z jego wyników. Pozostają tylko pośrednikiem między badaczami a wydziałem, który zajmuje się wdraża-niem danej interwencji.

35 Analizy polskich ewaluacji pokazują dwie ciekawe kwestie. Po pierwsze, język jest emanacją po-rządku koncepcyjnego. Nieumiejętność postawienia jasnego problemu badawczego (pytań) skutkuje nie-jasnym językiem, przeładowanymi, technicznymi raportami, których nikt nie czyta. Po drugie, język jest

badań leżą umiejętności i determinacja ludzi, dowcipnie podsumował jeden z klasy-ków ewaluacji Michael Quinn Patton: „Istnieje pięć czynniz klasy-ków absolutnie niezbęd-nych do wykorzystania ewaluacji. Są to, wymieniając według wagi ich znaczenia: lu-dzie, lulu-dzie, lulu-dzie, lulu-dzie, ludzie” (Patton 2004, s. 291).

Tabela 11. Czynniki wpływające na wykorzystanie badań w procesach decyzyjnych

Czynnik Opis czynnika

Poziom indywidualnych badań Przystawanie pytań

badawczych do potrzeb informacyjnych odbiorców

To, w jakim stopniu pytania, na które odpowiada raport, przystają do potrzeb informacyjnych odbiorców raportu w momencie publikacji. Tutaj mieści się również kwestia, na ile rekomendacje z raportu mają praktyczny i utylitarny charakter.

Kompetencje kadr Umiejętności i zdolności osób realizujących badanie. Chodzi zarówno o kompetencje wykonawców ekspertyz, jak i motywację oraz wiedzę merytoryczną personelu ministerstw wykorzystującego badania.

Wiarygodność badania Dobór podejścia i metod adekwatny do problemu badawczego, kontekstu oraz ograniczeń praktycznych; wnioski i analizy oparte na triangulacji danych, rzetelność standardów metodycznych, systematyczność i przejrzystość procesu badawczego, autorefleksyjność.

Przystępność wyników Forma komunikacji wyników, jasność wniosków, przystępność języka prezentowanych materiałów (w tym obecność dobrego streszczenia)

Zaangażowanie interesariuszy

Zaangażowanie interesariuszy badania w formułowanie pytań badawczych, w sam proces badawczy, jak również w dyskusję o wnioskach i strategię rozpowszechniania tychże (tzw. podejście partycypacyjne). Także personalne zaangażowanie osób nadzorujących badanie (tzw. patron badania).

Poziom organizacji i systemu polityk publicznych

Akumulacja wiedzy Synteza różnych źródeł, stopniowa akumulacja argumentów, zbieżnych wniosków z różnych badań i źródeł wskazujących na zasadność danej tezy, kierunku rozwoju etc.

Praktyki organizacyjnego uczenia się

Praktyka danej instytucji i jej przedstawicieli – w tym liderów – w polu pozyskiwania informacji zwrotnych, dyskutowania wyników różnych badań i uwzględniania ich podczas modyfikowania działań i decyzji.

Źródło: opracowanie własne (K. Olejniczak) na podstawie Johnson i in. 2009; Moynihan, Pandey 2010; Olejniczak, Kozak, Ledzion i in. 2008, s. 39–64.

emanacją kultury organizacyjnej. Polskie raporty ewaluacyjne pisane są mieszanką technicznego języka urzędniczego z żargonem naukowym. W rezultacie przystępność tekstu, mierzona wskaźnikiem mglisto-ści języka (FOG), pozostaje na poziomie skomplikowania ekonomicznych tekstów naukowych i  praw-nych. Co ciekawe, streszczenia i rekomendacje raportów są równie trudno zrozumiałe co główna treść (Broda i in. 2011, s. 8–10).

Patrząc na czynniki systemowe (wykorzystanie wiedzy z perspektywy organizacji i konkretnych polityk publicznych), trzeba zwrócić uwagę, że to proces kumulatywny, stopniowy (inkrementalny) i  rozciągnięty w  czasie36. Wnioski z  różnych raportów, różnych rodzajów wiedzy i różnych źródeł sprzęgają się, wzajemnie się wzmacniają (lub sobie przeczą) i stopniowo tworzą masę krytyczną, która prowadzi do modyfika-cji danej polityki. Nadzwyczaj trafnie oddaje to cytat otwierający jeden z artykułów poświęconych wykorzystaniu ewaluacji (Weiss i in. 2005, s. 13): „Ewaluacja jest tylko jednym ze źródeł dowodów, dowody są tylko jednym z wkładów w politykę, polityka jest tylko jednym z czynników wpływających na praktykę, a praktyka tylko jednym z czynników decydujących o efektach”.

Badania pokazują, że dla płynnego przebiegu tego stopniowego procesu kluczo-we są dwie kkluczo-westie. Pierwsza to pamięć instytucjonalna danej polityki publicznej, co w  praktyce oznacza stabilność instytucji i  ciągłość kadry urzędniczej zajmującej się danym tematem. To organizacje i  ludzie kumulują i  zapamiętują wiedzę (Ferry, Olejniczak 2008). Stabilność oznacza też sumienność i  ciągłość używania tych sa-mych form kategoryzowania i indeksowania danych i informacji.

Drugą kwestią są ogólne praktyki organizacyjnego uczenia się i zarządzania wie-dzą w danej organizacji publicznej. Ich katalog obejmuje praktyki wymiany informacji między pracownikami, zespołowych refleksji, umiejętności kierownictwa (średniego i wyższego szczebla) w zakresie prowadzenia dyskusji o jakości i efektach działań or-ganizacji na podstawie faktów i danych (Lipshitz i in. 2007).

Podsumowując wyzwanie wykorzystania wiedzy – widzimy wyraźnie, że i w tym wypadku organizacje publiczne i ich kadry wydają się ważnym gwarantem sukcesu.

Powiązane dokumenty