• Nie Znaleziono Wyników

1. Teoretyczne aspekty zarządzania jakością na studiach doktoranckich

1.3 Jakość kształcenia w szkolnictwie wyższym i jej pomiar

1.3.3 Rankingi jako narzędzie pomiaru jakości kształcenia

Istotnym narzędziem pomiaru jakości kształcenia w ostatnich latach stały się rankingi uczelni.

Wzrost ich znaczenia jako prostego narzędzia służącego porównaniu uczelni spowodował zwiększanie się ich liczby, zarówno w ujęciu międzynarodowym, jak i krajowym. C. Morphew i C.

Swanson wskazują, że popularność rankingów wynika z dwóch powodów. Po pierwsze, zarówno ostateczny produkt, jak i proces kształcenia wydają się trudne do zmierzenia, rankingi zaś zapewniają dane wejściowe do pozornie zobiektywizowanej dyskusji lub oceny o tym, czym jest jakość kształcenia w szkolnictwie wyższym. Drugim powodem wskazanym przez autorów jest trudność w ocenie instytucji edukacyjnych przez inne zinstytucjonalizowane podmioty109. Rankingi stanowią więc ułatwienie w ocenie jakości kształcenia, co ma szczególne znaczenie w czasach globalizacji oraz społeczeństwa opartego na wiedzy. E. Hazelkorn wskazuje, że popularność rankingów leży w ich prostocie, co jest jednocześnie głównym źródłem ich krytyki110. Globalizacja powoduje, że proste sposoby międzynarodowych porównań stają się stałym elementem porównań uczelni. K. Mazurek-Łopacińska zaznacza, że liczba rankingów nie tylko wzrasta, ale także „doskonalona jest metodologia budowy rankingów poprzez wprowadzanie kryteriów lepiej wyrażających działalność oraz ofertę uczelni”111. Nie zmienia to faktu, że rankingi generalnie przybierają formę tabeli ligowej, która spłaszcza wielowymiarowość działalności akademickiej. „Tabela ligowa w ostateczności jest jedną, zwyczajną listą uszeregowaną od najlepszych do najgorszych”112, co wskazuje na znaczne uproszczenie i nierzadko powielanie opinii o dobrych i złych ośrodkach akademickich. Wszak w samych rankingach pojawia się kryterium opinii środowiskowej, która jest w pewnym stopniu kształtowana przez rankingi.

W raportach Europejskiego Stowarzyszenia Uniwersytetów (ang, European University Association – EUA) podkreśla się, że metody stosowane przy tworzeniu najważniejszych światowych rankingów nie są dostosowane do objęcia dużej liczby szkół wyższych, a zatem nie mogą stanowić solidnej podstawy do całościowej analizy szkolnictwa wyższego113. Jednocześnie mnogość rankingów powoduje, że pojawiają się także próby ich uporządkowania. Potrzeba taka została wyraźnie zasygnalizowana w literaturze. W 2006 roku grupa ekspertów reprezentujących uczelnie, organizacje pozarządowe, instytucje badawcze z Azji, Europy i Ameryki Północnej ustaliła w Berlinie zestaw zasad

109 Morphew C.C. Swanson C., On the Efficacy of Raising Your University’s Rankings, [w:] Shin J.C., Toutkoushian R.K., Teichler U. (red.), University Rankings. Theoretical Basis, Methodology and Impacts on Global Higher Education, Springer Science+Business Media B.V., Dordrecht – Heidelberg – London – New York 2011, s. 186–187

110 Hazelkorn E., How Rankings are Reshaping Higher Education, [w:] Climent V., Michavila F., Ripolles M. (red.), Los Rankings Univeritarios: Mitos y Realidades, Ed. Tecnos, Madrid 2013, s. 3

111 Mazurek-Łopacińska K., Rankingi szkół wyższych jako narzędzia pomiaru jakości kształcenia, „Nauki o zarządzaniu. Management Sciences” 2(11), 2012, Wydawnictwo UE Wrocław 2012, s. 9

112 van Vught F.A., Westerheijden D.F., Transparency, Quality and Accountability, [w:] van Vught F.A., Ziegele F.

(red.), Multidimensional Ranking: The Design and Development of U-Multirank, Higher Education Dynamics 37, Springer Science+Business Media B.V., Dordrecht – Heidelberg – London – New York 2012, s. 14

113 Rauhvargers A., Global University Rankings And their Impact – Report II, European University Association, Brussels 2013, s. 17

jakości i dobrych praktyk w celu doskonalenia metod tworzenia rankingów114. Zasady te, znane jako zasady berlińskie, to:

Zasady te opracowała International Ranking Expert Group (IREG). Początkowo była to nieformalna grupa stworzona z inicjatywy m.in. UNESCO European Centre for Higher Education (UNESCO-CEPES) w 2002 roku. Od 2009 roku grupa ta przyjęła postać formalną jako organizacja pozarządowa (ang. Non-Governmental Organization – NGO) pod nazwą IREG Observatory on Academic Ranking and Excellence. Jej celem jest wzmacnianie świadomości społecznej i zrozumienia różnych zagadnień związanych z rankingami uczelni wyższych oraz doskonałości akademickiej. Na marginesie rozważań warto zauważyć, że sekretariat organizacji zlokalizowany jest w Warszawie, w pracach IREG zaś aktywnie uczestniczą eksperci z Polski.

Do najważniejszych rankingów uczelni w skali globalnej należą:

114 Stolz I., Hendel D.D., Horn A.S, Ranking of rankings: benchmarking twenty-five higher education ranking systems in Europe, „Higher education”, 60, Springer Science+Business Media B.V. 2010, s. 509

115 Mazurek-Łopacińska K., op. cit., s. 10

116 Mazurek-Łopacińska K., op. cit., s. 16–20

117 Thieme J. K., Szkolnictwo wyższe. Wyzwania XXI wieku. Polska–Europa–USA, Difin, Warszawa 2009, s. 30

Inne rankingi osiągające znaczenie międzynarodowe to m.in. QS Rank, Ranking Ecole des Mines de Paris, CHE Ranking of Excellence czy ranking Uniwersytetu w Lejdzie. Warto podkreślić, że z jednej strony najważniejsze rankingi tworzone są w skali globalnej, co powoduje pomijanie lokalnych uwarunkowań, modelu funkcjonowania szkolnictwa wyższego, np. struktury finansowania uczelni lub kultury organizacyjnej. Z drugiej strony trudno odmówić głównym rankingom pewnego ogólnego informacyjnego waloru – przecież wszystkie wskazują na ten sam zestaw uczelni (Harvard, Stanford, MIT itp.) jako na najlepsze akademickie ośrodki w skali globalnej.

1.3.4 „Perspektywy” jako wiodący ranking uczelni wyższych w Polsce

W Polsce najważniejszym rankingiem szkół wyższych jest prowadzony od 15 lat ranking

„Perspektyw”121. Zestawienie opiera się na 33 szczegółowych kryteriach, tworzących sześć grup:

prestiż, potencjał naukowy, efektywność naukowa, innowacyjność, warunki kształcenia oraz umiędzynarodowienie. Kryteria rankingów są odpowiednio ważone, w zależności od rodzaju zestawianych uczelni. Osobny ranking obejmuje uczelnie mające uprawnienia akademickie (Ranking Uczelni Akademickich – RUA), niepubliczne uczelnie prowadzące studia stopnia magisterskiego oraz Państwowe Wyższe Szkoły Zawodowe (PWSZ). Na rysunku 1.8 zaprezentowano kryteria rankingu i wagi punktów.

118 Na podstawie http://www.webometrics.info/en/Methodology, dostęp 2014-03-03

119 Komunikat Komisji, Działania na rzecz wzrostu gospodarczego i zatrudnienia – plan modernizacji europejskich systemów szkolnictwa wyższego, KOM(2011) 567, Komisja Europejska, Bruksela 2011

120 Federkeil G., Kaiser F. i in., U-multirank. Background and design, [w:] van Vught F.A., Ziegele F. (red.), Multidimensional Ranking..., s. 90

121 Do 2013 roku ranking był przygotowywany wspólnie z dziennikiem „Rzeczpospolita”, od 2014 jest przygotowywany we współpracy z „Dziennikiem Gazetą Prawną”.

Rysunek 1.8 Kryteria rankingu „Perspektyw” i ich wagi

Źródło: http://www.perspektywy.pl/portal/index.php?option=com_content&view=article&id=1609:metodologia-rankingu-akademickich-szkol-wyzszych-2014&catid=140&Itemid=293 ; dostęp 2014-06-14

Największą wagę przywiązuje się do efektywności naukowej oraz prestiżu uczelni – oba kryteria stanowią łącznie 50% punktów. Umiędzynarodowienie oraz potencjał naukowy stanowią 30%

punktacji, zaś – 20% warunki kształcenia i innowacyjność. W RUA brane są pod uwagę szkoły mające co najmniej 2 roczniki absolwentów. Zbieranie danych odbywa się na zasadzie wypełniania ankiet.

W ramach punktacji kryteriów, 100 punktów oznacza wynik najlepszy danego kryterium, wyniki niższe zaś stanowią wartości względne odniesione do najlepszego wyniku.

Ze względu na akceptację RUA jako najważniejszego polskiego rankingu uczelni, można uznać, że jest to najbardziej rozpowszechnione narzędzie pomiaru czy też oceny jakości w polskim systemie szkolnictwa wyższego. Stąd przyjmuje się, że zasadna jest analiza wpływu realizacji projektów współfinansowanych ze środków UE na pozycję w RUA. Części składowe kryteriów omówiono w części badawczej pracy (rozdział 3.4), gdzie analizowano korelację między pozyskiwanymi środkami w ramach polityki strukturalnej oraz pozycja w RUA.