polityka naukowa - słownik encyklopedyczny

advertisement
POLITYKA NAUKOWA –
SŁOWNIK ENCYKLOPEDYCZNY
(wersja robocza)
Opr. Jan Kozłowski, Departament Innowacji i Rozwoju,
[email protected]
SPIS TREŚCI
PROCES POLITYKI
6
AGENDA POLITYKI ............................................................................................................................................................6
ANALIZA POLITYKI ...........................................................................................................................................................6
BUDŻET NAUKI ................................................................................................................................................................ 10
BUDŻET ZADANIOWY ................................................................................................................................................... 10
CELE, ZADANIA I INSTRUMENTY POLITYKI ....................................................................................................... 14
CYKL POLITYKI ................................................................................................................................................................ 17
DEBATA PUBLICZNA NAD PROBLEMAMI NAUKI I INNOWACJI W POLITYCE ..................................... 18
DYLEMATY POLITYKI NAUKOWEJ I INNOWACYJNEJ ..................................................................................... 20
FORMUŁOWANIE POLITYKI....................................................................................................................................... 24
GLOBALNE (WIELKIE, SPOŁECZNE) WYZWANIA ............................................................................................ 25
HIERARCHIA DOKUMENTÓW POLITYCZNYCH ................................................................................................. 28
HOROZONT ANALIZY W POLITYCE ........................................................................................................................ 29
KLUCZOWE WYZWANIA POLITYKI NAUKOWEJ I INNOWACYJNEJ .......................................................... 30
KONTEKST TWORZENIA POLITYKI ........................................................................................................................ 31
KRYTERIA DECYZJI W NAUCE ................................................................................................................................... 31
KSZTAŁTOWANIE POLITYKI...................................................................................................................................... 44
LOGIKA INTERWENCJI ................................................................................................................................................. 44
MAPA DROGOWA WIELKIEJ INFRASTRUKTURY BADAWCZEJ................................................................... 47
PARTYCYPACYJNE TWORZENIE POLITYKI NAUKOWEJ................................................................................ 50
POLICY MIX W DZIEDZNIE B+R I INNOWACJI.................................................................................................... 58
POLITYKA PUBLICZNA ................................................................................................................................................. 64
POMIAR I EWALUACJA W POLITYCE NAUKOWEJ I INNOWACYJNEJ ....................................................... 65
PRIORYTETY W POLITYCE NAUKOWEJ I INNOWACYJNEJ ........................................................................... 66
PROBLEM POLITYCZNY ............................................................................................................................................... 69
PROCES POLITYKI .......................................................................................................................................................... 73
1
RAMY ANALIZY POLITYKI NAUKOWEJ I INNOWACYJNEJ ............................................................................ 80
RAMY POLITYKI .............................................................................................................................................................. 82
REFORMY BUDŻETU PAŃSTWA ............................................................................................................................... 84
RETORYKA POLITYCZNA............................................................................................................................................. 90
ROLA WIEDZY W PROCESIE POLITYCZNYM....................................................................................................... 93
SKŁADNIKI POLITYK NAUKOWEJ I INNOWACYJNEJ ....................................................................................... 97
SPÓJNOŚĆ POLITYKI ...................................................................................................................................................... 98
TWÓRCZA SWOBODA CZY STEROWANIE NAUKĄ ........................................................................................ 101
UMIĘDZYNARODOWIENIE POLITYKI ................................................................................................................. 108
UZASADNIENIA POLITYKI NAUKOWEJ I INNOWACYJNEJ ......................................................................... 109
WDRAŻANIE POLITYKI ............................................................................................................................................. 111
WDRAŻANIE REFORMY SZKOLNICTWA WYŻSZEGO ................................................................................... 112
ZAŁOŻENIA I RAMY KONCEPCYJNE POLITYK ................................................................................................. 117
ZARZĄDZANIE WIEDZĄ W ORGANIZACJACH RZĄDOWYCH..................................................................... 117
ZASADA OSTROŻNOŚCI ............................................................................................................................................. 118
FINANSOWANIE B+R I INNOWACJI
120
FINANSOWANIE BADAŃ W SEKTORZE PUBLICZNYM ................................................................................ 120
FINANSOWANIE BUDŻETOWE BADAŃ W SEKTORZE SZKÓŁ WYŻSZYCH ........................................ 121
FINANSOWANIE INSTYTUCJONALNE ................................................................................................................. 124
FINANSOWANIE PROJEKTÓW ............................................................................................................................... 125
FINANSOWE INSTRUMENTY WSPIERANIA B+R I INNOWACJI W PRZEDSIĘBIORSTWACH ...... 126
POMOC PUBLICZNA DLA B+R I INNOWACJI .................................................................................................... 133
EWALUACJA
134
EWALUACJA ................................................................................................................................................................... 134
ROZLICZALNOŚĆ .......................................................................................................................................................... 143
OCENA SKUTKÓW REGULACJI ............................................................................................................................... 145
KRAJOWE SYSTEMY EWALUACJI BADAŃ ......................................................................................................... 150
EWALUACJA KRAJOWEGO SYSTEMU BADAŃ I INNOWACJI ..................................................................... 156
OCENA WPŁYWU BADAŃ ......................................................................................................................................... 161
BENCHMARKING POLITYK ...................................................................................................................................... 185
EWALUACJA POLICY MIX ......................................................................................................................................... 197
EWALUACJA POLITYKI NAUKOWEJ I INNOWACYJNEJ ................................................................................ 198
EWALUACJA PROGRAMÓW NAUKOWYCH I TECHNOLOGICZNYCH...................................................... 213
EWALUACJA DYSCYPLIN NAUKOWYCH ............................................................................................................ 215
EWALUACJA INSTYTUCJI I GRUP BADAWCZYCH .......................................................................................... 217
2
EWALUACJA INSTYTUCJI PUBLICZNEGO SEKTORA NAUKI OPARTA NA POMIARZE DOKONAŃ ..... 220
ORGANIZACJA EWALUACJI INSTYTUCJONALNEJ .......................................................................................... 232
FAZY EWALUACJI INSTYTUCJONALNEJ ............................................................................................................. 237
EWALUACJA POZA-UCZELNIANYCH PUBLICZNYCH INSTYTUCJI NAUKOWYCH (PPIN) ............. 242
EWALUACJA EX-POST AGENCJI FINANSUJĄCYCH BADANIA NAUKOWE I TECHNOLOGICZNE 246
EWALUACJA APARATURY I INFRASTRUKTURY BADAWCZEJ ................................................................. 252
PEER REVIEW................................................................................................................................................................ 254
EWALUACJA EX ANTE WNIOSKÓW GRANTOWYCH..................................................................................... 273
EWALUACJA EX POST GRANTÓW BADAWCZYCH ......................................................................................... 273
EWALUACJA POLICY INTELLIGENCE – FORM WSPARCIA INFORMACYJNO-ANALITYCZNEGO
POLITYKI NAUKOWEJ I INNOWACYJNEJ ........................................................................................................... 274
EWALUACJA PROGRAMU RAMOWEGO ORAZ „HORYZONTU 2020”...................................................... 275
EWALUACJA ZACHĘT PODATKOWYCH.............................................................................................................. 278
IMPACT FACTOR .......................................................................................................................................................... 279
METODY EWALUACJI B+R FINANSOWANYCH ZE ŹRÓDEŁ PUBLICZNYCH ....................................... 280
METODY STOSOWANE W EWALUACJI INSTYTUCJONALNEJ ................................................................... 294
PYTANIA I KRYTERIA W EWALUACJI INSTYTUCJONALNEJ...................................................................... 301
PROBLEM BEZSTRONNOŚCI EWALUATORA ................................................................................................... 310
KONCEPCJE DLA POLITYKI NAUKOWEJ
313
BAZA NAUKOWA .......................................................................................................................................................... 313
BIG DATA ......................................................................................................................................................................... 313
DOSKONAŁOŚĆ BADAWCZA ................................................................................................................................... 315
FAZY POLITYKI NAUKOWEJ .................................................................................................................................... 322
FAZY ROZWOJU GOSPODARCZEGO ...................................................................................................................... 332
GOSPODARKA OPARTA NA WIEDZY ................................................................................................................... 337
GOSPODARKA UCZĄCA SIĘ ...................................................................................................................................... 337
INTELIGENCJA ROZPROSZONA ............................................................................................................................. 341
INTELIGENTNA SPECJALIZACJA............................................................................................................................ 342
INTELIGENTNE MIASTO ........................................................................................................................................... 344
INTERES PUBLICZNY ................................................................................................................................................. 345
INTERESARIUSZE POLITYKI NAUKOWEJ.......................................................................................................... 346
KAPITAŁ INTELEKTUALNY ..................................................................................................................................... 347
KONWERGENCJA.......................................................................................................................................................... 350
KOREA JAKO KRAJ GONIĄCY CZOŁÓWKĘ ......................................................................................................... 350
KRAJOWY KONTEKST POLITYKI NAUKOWEJ I INNOWACYJNEJ............................................................. 354
TWÓRCZOŚĆ, INNOWACJE, BADANIA NAUKOWE, KSZTAŁCENIE I POLITYKA................................ 356
3
MĄDROŚĆ TŁUMU ....................................................................................................................................................... 360
N+T DLA ROZWOJU ..................................................................................................................................................... 360
NAUKA W SPOŁECZEŃSTWIE ................................................................................................................................ 361
NOWA REWOLUCJA PRZEMYSŁOWA .................................................................................................................. 362
ODPOWIEDZIALNE BADANIA I INNOWACJE ................................................................................................... 362
POJĘCIA POLITYKI NAUKOWEJ ............................................................................................................................. 366
POTRÓJNA SPIRALA ................................................................................................................................................... 367
PUŁAPKA NISKIEGO DOCHODU............................................................................................................................. 367
PUŁAPKA ŚREDNIEGO DOCHODU ........................................................................................................................ 368
REFLEKSYJNOŚĆ........................................................................................................................................................... 371
REWOLUCJA 3D ............................................................................................................................................................ 374
ROLA RZĄDU W BADANIACH I INNOWACJACH ............................................................................................. 376
ROZLICZALNOŚĆ .......................................................................................................................................................... 378
SKUMULOWANE KORZYŚCI .................................................................................................................................... 380
SPOŁECZEŃSTWO INFORMACYJNE ..................................................................................................................... 382
WIEDZA JAKO DOBRO PUBLICZNE ...................................................................................................................... 385
ORGANIZACJA I MECHANIZMY
387
AGENCYFIKACJA........................................................................................................................................................... 387
EUROPEIZACJA.............................................................................................................................................................. 387
GOVERNANCE................................................................................................................................................................ 388
KOORDYNACJA POLITYCZNA A ROZWÓJ NAUKOWY I TECHNOLOGICZNY JAPONII ..................... 392
NOWE ZARZĄDZANIE PUBLICZNE ....................................................................................................................... 394
STRATEGICZNE PLANY ROZWOJU NAUKI I TECHNIKI ............................................................................... 396
POLITYKA MIĘDZY SFERĄ RYNKU I INSTYTUCJI SPOŁECZNYCH .......................................................... 400
PRYNCYPAŁ-AGENT ................................................................................................................................................... 403
STYLE POLITYKI ........................................................................................................................................................... 404
POLITYKA „UCZĄCA SIĘ” - UCZENIE SIĘ POLITYKI....................................................................................... 406
TYPY POLITYK
412
POLITYKA INNOWACYJNA ....................................................................................................................................... 412
POLITYKA NAUKOWA................................................................................................................................................ 421
POLITYKA NAUKOWA UNII EUROPEJSKIEJ...................................................................................................... 423
POLITYKA OPARTA NA DOWODACH .................................................................................................................. 425
POLITYKA TECHNOLOGICZNA ............................................................................................................................... 427
4
BADANIA NAUKOWE I ANALIZY NA RZECZ POLITYKI NAUKOWEJ
429
ANALIZA KOSZTÓW I KORZYŚCI ........................................................................................................................... 429
BADANIA NA RZECZ POLITYKI .............................................................................................................................. 429
BADANIA NAD POLITYKĄ NAUKOWĄ I INNOWACYJNĄ ............................................................................ 431
DORADZTWO NA RZECZ POLITYKI NAUKOWEJ ............................................................................................ 442
EKSPLORACJA TEKSTU ............................................................................................................................................. 447
METODY GRUPOWANIA SŁUŻĄCE OKREŚLANIU KLUCZOWYCH KOMPETENCJI KRAJU............ 451
NAUKI SPOŁECZNE A POLITYKA RZĄDOWA ................................................................................................... 451
OTWARTA NAUKA
460
E-INFRASTRUKTURA OTWARTEGO DOSTĘPU............................................................................................... 460
NAUKA OBYWATELSKA ............................................................................................................................................ 467
OTWARTA NAUKA....................................................................................................................................................... 472
OTWARTE DANE .......................................................................................................................................................... 479
OTWARTE OPROGRAMOWANIA ........................................................................................................................... 482
OTWARTE PEER REVIEW ........................................................................................................................................ 482
OTWARTE ZASOBY EDUKACYJNE ........................................................................................................................ 483
OTWARTY DOSTĘP ..................................................................................................................................................... 483
OTWARTY MANDAT ................................................................................................................................................... 491
OTWARTY NOTATNIK BADAWCZY...................................................................................................................... 492
OTWARTY PODRĘCZNIK .......................................................................................................................................... 493
OTWARTY SPRZĘT BADAWCZY ............................................................................................................................ 494
5
PROCES POLITYKI
AGENDA POLITYKI
(Policy Agenda, research policy portfolio)
Agenda polityki naukowej to zbiór kluczowych problemów (a także żądań i propozycji)
które decydenci i ich doradcy uznają za ważne dla >kształtowania polityki. Problemy
zgłaszane są przez interesariuszy, uczestników >debaty politycznej i >konsultacji, analityków i badaczy polityki, media i obywateli. Wkład to budowy agendy wnoszą także
>ewaluacje wdrożonych wcześniej polityk.
Agenda polityki jest częścią >procesu polityki i >cyklu polityki, do którego (w porządku
chrono-logicznym) zalicza się także >formułowanie polityki, >podejmowanie decyzji,
>wdrażanie polityki oraz jej >ewaluację.
Często zbiór kluczowych problemów uznanych za ważne rząd przedstawia w formie
>dokumentu politycznego (np. „Zielonej Księgi”). Agendę polityki wykorzystuje się jako
punkt wyjścia dla opracowania bardziej szczegółowych definicji problemów oraz propozycji rozwiązań.
>Problemy polityki muszą być określone w sposób uznający potrzebę podjęcia >interwencji publicznej. Spośród zgłaszanych problemów decydenci i ich doradcy wybierają
ważniejsze i/lub możliwe do przekształcenia w >politykę, >program lub w >instrument
polityki. O wyborze decydują m.in. możliwości finansowe rządu, panujące koncepcje
ekonomiczne i polityczne, siła nacisku interesariuszy i mediów, skala spodziewanego
oporu przeciwników interwencji itd.
Termin w języku angielskim wprowadzony w życie w pod koniec lat 1970., upowszechniony w latach 1990.
Bibliografia
Handbook of Public Policy Analysis. Theory, politics and methods. Ed. By Frank Fischer, Gerald Miller and
Mara S. Sidney, CRC Press, 2007, ss. 45-48.
ANALIZA POLITYKI
(Policy analysis)
Analiza polityki to ocena bieżącej polityki w porównaniu z możliwymi alternatywami.
Produkt analizy politycznej to porada wskazująca na prawdopodobne skutki proponowanych działań: wprowadzenie interwencji A spowoduje takie to a takie konsekwencje.
Mówiąc bardzie szczegółowo, celem analizy polityki jest określenie, które z różnych alternatywnych polityk pozwolą najlepiej osiągnąć dany zestaw celów. Analizę polityk
dzieli się na opisową i normatywną [Wikipedia 2013]. Analiza polityki uznaje się nieraz
za jedną z faz >cyklu polityki i jeden z dwóch głównych podejść w >procesie politycznym
(obok podejścia menedżerskiego).
6
Analityk polityki powinien wiedzieć jak zbierać, organizować i przekazywać informacje
w sytuacjach ścisłych deadlinów i presji czasu. Musi umieć szybko rozumieć naturę problemów i umieć rozwijać strategię polityczną. Musi umieć określać (przynajmniej jakościowo, o ile tylko możliwe także ilościowo) spodziewane efekty polityk i przekazywać
swoje ustalenia politykom [Dunn 1994; Weimer 1998].
Wg jednego z modeli analiza polityki składa się z czterech kroków: 1) weryfikacji, definiowania i uszczegółowienia problemu polityki, 2) ustalenia kryteriów oceny zgodnych
z założonymi celami, 3) identyfikacji alternatywnych polityk, 4) oceny alternatywnych
polityk [Por. Patton 1993].
Termin “analiza polityki” powstał w Stanach Zjednoczonych w latach 1950-tych. Analiza
polityki wspiera definiowanie problemów politycznych, identyfikowanie „interesariuszy” i ich interesów, ustalanie priorytetów oraz budowę strategii politycznych. Określa
się ją jako stosowaną naukę społeczną sięgającą po wiele metod badawczych w celu
przygotowania informacji i analiz, które mogą zostać wykorzystane przez organa polityczne dla rozwiązywania problemów. Powstanie nowego terminu oznaczało, że informacje i analizy – nieodłączny składnik decyzji politycznych od starożytności – zaczęły
być wytwarzane nie ad hoc na potrzeby konkretnych decyzji, tylko w sposób ciągły, systematyczny, wyprzedzający.
Analiza polityki jest dziś nieodłączną częścią polityki definiowanej przez Michaela Oekshotta jako działalność dialektyczna oparta na refleksji > hipotezie > działaniu jako teście
> refleksji itd. [Oekshott 1999]. Jako taka bywa ona zaliczana do szerszego pojęcia mechanizmów opartych na sprzężeniu zwrotnym, takich jak ewaluacja polityczna, audyt
lub też pomiar dokonań (performance measurement). Analizę polityczną określa się nieraz jako ewaluację ex ante w badaniu przyszłych opcji politycznych [OECD 1999].
W Europie w latach 1990-tych upowszechnił się inny zbliżony termin, „strategic intelligence” lub też „strategic policy intelligence” (brak zręcznego polskiego odpowiednika,
zob. >Wsparcie informacyjne i analityczne polityki). Nawet specjaliści mają kłopot ze
wskazaniem różnic pomiędzy oboma terminami. Analiza polityki wydaje się odnosić raczej do jednej z funkcji >procesu politycznego, a „strategic policy intelligence” – raczej
do zbioru określonych metod zbierania i przetwarzania informacji, takich jak m.in. >foresight, >ewaluacja polityk (policy evaluation), >wartościowanie technologii (techology
assessment), >skanowanie widnokręgu (horizon scanning) oraz prognozowanie rozwoju
technologii (technology forecasting). Każda z tych metod z kolei sięga po rozmaite techniki, takie jak np. technika delficka lub budowa scenariuszy. Granice każdej z tych metod
nie są wyraźnie określone. Metody te odpowiadają nieraz na podobne pytania i służą
podobnym celom, takim jak np. wkład w ustalenie >priorytetów w nauce i technice.
Zasadą we współczesnej analizie politycznej jest stosowanie „pakietu” różnych metod.
Zdaniem Ruuda Smitha czterema kanonami współczesnej analizy są partycypacja (oparta na założeniu, że nikt, nawet eksperci, nie są posiadaczami „jedynej prawdy”, a włączanie różnych interesariuszy zwiększa szanse sukcesu poznawczego i realizacyjnego metody), mediacja (poznawanie różnych punktów widzenia i wzajemne uczenie się ułatwia
znalezienie konsensusu), obiektywizacja (ograniczenie subiektywizmu przez uwzględ7
nianie statystyk i analiz) oraz wspieranie decyzji (analiza wspiera nie tylko podejmowanie, ale także realizację decyzji) [Smith 2001].
W miarę zacieśniania więzi pomiędzy państwami, analiza polityki nabiera coraz bardziej
międzynarodowego charakteru (OECD, EU).
Koncepcja analizy polityki Giandomenico Majone. Najważniejsze składniki analizy
politycznej to dane, informacje, dowody, argumenty i wnioski.
Składnik analityczny
Kryteria adekwatności
Dane
Rzetelność, odtwarzalność, wiarygodność
Informacje
Związek z zagadnieniem, wystarczalność, odpowiedniość, solidność
Dowody
Rzetelność, dopuszczalność, siła
Argument
Trafność, siła przekonywania, przejrzystość
Wniosek
Wiarygodność, wykonalność, dopuszczalność
„Analiza zwykle zaczyna się od czegoś mniej zorganizowanego niż problem, mianowicie
od sytuacji problemowej. Jest to świadomość, że powinno być inaczej, ale bez jasnego
wyobrażenia o działaniach naprawczych. Przedstawienie problemu jest procesem przełożenia sytuacji problemowej na faktyczny problem polityki, określający cele, które mają
być osiągnięte, oraz strategię ich realizacji.
Ilość szczegółowych informacji, które przydają się na etapie określania problemu, jest
inna niż w przypadku poszukiwania rozwiązań przy danym sformułowaniu. Właściwe
sposoby analizy będą się odpowiednio różnić w tych dwóch sytuacjach. Ze względu na
niezorganizowany charakter sytuacji problemowej wyobraźnia, oceny sytuacji oraz myślenie poprzez analogie s skojarzenia odgrywają w określeniu problemu większą rolę niż
dyscyplina i umiejętności techniczne”.
„Dane są (…) surowcem niezbędnym do zbadania problemu lub być może wynikiem
pierwszej obróbki takich surowców. W analizie polityki dane często się „znajduje”, a nie
„wytwarza”: to znaczy, że uzyskuje się je poprzez nieplanowane obserwacje (jak w przypadku szeregów czasowych), a nie na podstawie zaplanowanych eksperymentów. Ten
fakt (…) wymaga umiejętności rzemieślniczych innych i pod wieloma względami trudniejszych do zdobycia niż te, które są potrzebne do analizy danych doświadczalnych. (…)
dane są zwykle zbierane według kategorii, które rzadko idealnie pasują do celów konkretnej analizy.”
„Zanim dane zostaną użyte jako argument, trzeba im zwykle nadać bardziej użyteczną i
wiarygodną formę. To przekształcenie danych wymaga nowego zestawu umiejętności
rzemieślniczych, zastosowania nowych narzędzi (często o charakterze statystycznym
lub matematycznym) oraz dokonania nowych ocen. Tę nową fazę pracy analityka, wytwarzanie informacji, można zilustrować wieloma przykładami: obliczanie średnich oraz
innych wskaźników i parametrów statystycznych, dopasowanie krzywej do zbioru
8
punktów, redukcja danych za pomocą jakiejś statystycznej metody analizy wielu zmiennych.”
„Dowody nie są synonimem danych ani informacji. Są to informacje wyselekcjonowane z
dostępnego zbioru i wprowadzone w konkretnym punkcie argumentu, aby przekonać
określonych odbiorców o prawdziwości lub fałszywości pewnego stwierdzenia. Dobór
nieodpowiednich danych lub modeli, umieszczenie ich w niewłaściwym miejscu argumentu albo wybór stylu prezentacji, który nie pasuje do docelowych odbiorców, może
osłabić skuteczność informacji wykorzystywanych jako dowody, niezależnie od ich rzeczywistej wartości poznawczej. Dlatego kryteria oceny dowodów są inne niż kryteria
stosowane do ewaluacji faktów. Fakty można osądzać w kategoriach mniej lub bardziej
obiektywnych kanonów, lecz dowody muszą być oceniane stosowanie do wielu czynników właściwych danej sytuacji, takich jak swoisty charakter sprawy, rodzaj odbiorców,
panujące zasady przedstawiania dowodów lub wiarygodność analityka.”
„Wniosek analizy polityki może być prognozą, zleceniem, ewaluacją funkcjonujących
programów, nową propozycją lub innym spojrzeniem na stary problem. Niezależnie od
swojego charakteru, wniosek zależy zawsze od wielu założeń i wyborów metodologicznych. Inne określenie problemu, inne narzędzia i modele lub kilka odmiennych ocen sytuacji dokonanych w zasadniczych punktach argumentacji mogłyby doprowadzić do zupełnie różnych wniosków.”
„Narzędzia analizy polityki można z grubsza sklasyfikować według ich funkcji w określaniu problemu, w generowaniu danych i wykonywaniu na nich operacji, a także w interpretacji. Kategoria narzędzi pojęciowych i interpretacyjnych obejmuje takie dyscypliny, jak matematyka, ekonomia, nauki polityczne i behawioralne, które analityk musi
w pewnym stopniu opanować, aby być kompetentny w swojej pracy [Majone 2007].”
Por. też >RETORYKA POLITYKI, PROBLEM POLITYCZNY I JEGO DEFINIOWANIE.
Bibliografia
OECD Improving evaluation practices: best practice guidelines for evaluation and background paper, OECD
Working Papers, v. 7, no. 11, Paris 1999.
Daniël Tijink, http://www.deruijter.net/ocv.htm
Alexander Tübke, Executive Summary, w: Strategic Policy Intelligence: Current Trends, the State of Play and
Perspectives, ed. by: Alexander Tübke, Ken Ducatel, James P. Gavigan, Pietro Moncada-Paternò-Castello,
IPTS 2001.
Ruud Smith, The New Role of Strategic Intelligence w: Strategic Policy Intelligence: Current Trends, the State
of Play and Perspectives, ed. by: Alexander Tübke, Ken Ducatel, James P. Gavigan, Pietro Moncada-PaternòCastello, IPTS 2001
Robert Hoppe, Policy analysis, science and politics: from `speaking truth to power` to `making sense together`, “Science and Public Policy” vol. 26, nr 3, 1999.
Michael Oakeshott 1991. Rationalism in Politics and Other Essays. Indianapolis: Liberty Press
Wikipedia Policy analysis 2013.
Handbook of Public Policy Analysis. Theory, politics and methods. Ed. By Frank Fischer, Gerald Miller and
Mara S. Sidney, CRC Press, 2007.
9
Jac. L.A. Geurts, Cisca Joldersma, Methodology for participatory policy analysis, “European Journal of Operational Research” 128 2001 ss. 300-310.
William N. Dunn, Public policy analysis: An introduction, Prentice Hall 1994.
David L. Weimer, Aidan R. Vining, Policy Analysis. Concept and Practice, Prentice Hall 1998.
Carl. V. Patton, David S. Sawicki, Basic Methods of Policy Alaysis and Planning, Prentice Hall 1993.
Giandomenico Majone, Dowody, argumenty i perswazja w procesie politycznym, Wyd. Nauk. Scholar, Warszawa 2004.
BUDŻET NAUKI
Popularna nazwa określająca część 28 budżetu państwa W Polsce oraz wydatki na naukę zapisane w innych częściach budżetu. Ministerstwo Nauki i Szkolnictwa Wyższego
publikuje rokrocznie Sprawozdanie z realizacji zadań i budżetu w 2001 r. w zakresie Nauki oraz realizacji budżetu w części 28 – Nauka. Sprawozdanie obejmuje dochody i wydatki z działów: 730 – Nauka, 750 – Administracja publiczna, 752 – Obrona narodowa,
921 – Kultura i Ochrona Dziedzictwa Narodowego.
Sprawozdanie zawiera także tablice >budżetu zadaniowego.
BUDŻET ZADANIOWY
(Performance budget)
Budżet zadaniowy to „metoda zarządzania finansami publicznymi, ukierunkowana na
osiąganie większej skuteczności oraz efektywności i przejrzystości wydatkowania środków publicznych, polegająca na:
1. opracowywaniu budżetu państwa w oparciu o cele budżetu zadaniowego, zgodne
ze wskazaniami zawartymi w dokumentach strategicznych i programowych rządu, w ramach których to celów, umieszczane są - właściwe przedmiotowo tym celom - zadania, wraz z adekwatnymi miernikami informującymi o rezultatach/wynikach realizacji tych zadań - a także o rezultatach/wynikach realizacji
ich części składowych (a zarazem - o stopniu osiągania celów budżetowych zadań
w aspekcie skuteczności oraz efektywności),
2. monitorowaniu oraz ewaluacji poszczególnych zadań budżetu zadaniowego za
pomocą mierników, dzięki czemu wytwarzane są informacje efektywnościowe
(ang. performance information) służące podnoszeniu jakości alokacji w planowaniu budżetu w kolejnych latach/okresach planowania budżetowego,
3. praktycznym stosowaniu informacji efektywnościowych w procesie planowania
budżetu przez rząd, a także wykorzystaniu ich podczas prac parlamentarnych
nad uchwalaniem ustawy budżetowej (najczęściej jako tzw.: performanceinformed budgeting) [Wikipedia 2013]”
Polski odpowiednik ang. performance budget kładzie nacisk na inne elementy procesu
budżetowego, nie na wyniki i wykonawstwo, tylko na zadania.
Geneza. Rozrost sektora publicznego, zmiana struktury wydatków publicznych (np.
zwiększenie udziału „twardych” wydatków na służbę zdrowia, spowodowanych starzeniem się społeczeństw), zaniepokojenie wzrostem zadłużenia budżetowego oraz skut10
kami nierównowagi budżetowej wpłynęły na zmianę w podejściu rządów do wydatków
publicznych. W późnych latach 1970-tych i we wczesnych latach 1980-tych, po załamaniu się powojennej prosperity, zrozumiano potrzebę wprowadzenia nowego systemu
budżetu, który pozwalałby na lepsze równoważenie celów w stosunku do możliwości
finansowych rządów i lepiej łączyłby proces budżetowy z innymi funkcjami kierowniczymi.
Tradycyjny roczny budżet faworyzuje wydatki krótko-terminowe. Skłania do tego, by
brać pod uwagę wyłącznie skutki finansowe decyzji alokacyjnych. Środki przydziela nie
ze względu na wagę celów i zadań oraz nie ze względu na wnioski płynące z analizy politycznej i ewaluacji, tylko z punktu widzenia organizacji wykonawczych. Decyzje co do
podziału funduszy opierają się nie na np. ocenie krańcowej użyteczności (marginal utility) alternatywnych opcji ich wykorzystania, co na historycznych podziałach kwot oraz
na presji interesariuszy. Organizacje wykonawcze wywierają nieustanny nacisk na budżet, dyktowany bardziej potrzebą zwiększenia ich własnego znaczenia niż koniecznością realizacji ważnych zadań [OECD 1998]. Sama tylko konstrukcja budżetu wystarczy
np. do wytłumaczenia, dlaczego instytucje naukowe wyciągają stale ręce pod dodatkowe
środki. Dzieje się tak m.in. dlatego, że szansa stworzenia czegoś nowego zależy od nowych funduszy, gdyż budżet tradycyjny tylko z trudem znosi redystrybucję funduszy
rozdzielonych w przeszłości [Vessuri 2003]. Także sama tylko konstrukcja tradycyjnego
budżetu wyjaśnia, dlaczego w krajach słabiej rozwiniętych instrumenty polityczne (np.
stosowane dla rozwoju nauki) są z reguły proste, niezróżnicowane, statyczne oraz pasywne [Sagasti 1979]. Tworząc tradycyjny budżet zakłada się, że każdy dotychczasowy
wysiłek powinien być kontynuowany, a organizacja utrzymana (jeśli tylko formalnie pozostaje w zgodzie z przepisami księgowania). Gdy brakuje celów jako punktów odniesienia, nie sposób w praktyce proponować alternatywnych rozwiązań podziału środków. W takiej sytuacji zapisy budżetowe to z reguły repetycja rozwiązań przyjętych w
przeszłości. Kontrola realizacji konwencjonalnego budżetu ma wyłącznie formę audytu
księgowości. Jest to związane z faktem, że >agencje wykonawcze i sami wykonawcy nie
są w stanie odnieść swoich wydatków do żadnego celu. W tych warunkach, możliwa jest
tylko wąsko księgowo-prawnicza ocena wyników. Rząd nie jest zatem w stanie utrzymywać merytorycznej (a nie czysto formalnej) kontroli nad wydatkami. Sztywność budżetu w zderzeniu ze złożonymi i szybko zmieniającymi się problemami rodzi pokusę
tworzenia procedur koordynacyjnych oraz funduszy specjalnych. Jednak często systemy
koordynacji są zbyt słabe by oprzeć się naciskowi wykonawców, a fundusze specjalne
stwarzają szerokie pole do nadużyć oraz do niekontrolowanego wypływu pieniędzy budżetowych [UNESCO 1984].
Budżet zadaniowy a budżet tradycyjny. Tradycyjny proces budżetowy ukierunkowany na wkład (input-focused management and budgeting) kładzie nacisk na zasoby, personel, sprzęt i urządzenia. Wielkość funduszy to zazwyczaj główna miara wykonania. Nie
przeprowadza się ewaluacji wyników.
Jednak skoro ministerstwa i agencje rządowe mają wydawać środki dla osiągania celów,
należy wymagać od nich, aby opisały i określiły ilościowo, co chcą osiągnąć lub co osią11
gnęły za pieniądze podatnika. Budżetowy zadaniowy wprowadza zatem kontrolę wydatków, której elementami są:
Produkty (outcomes)
Wartość za pieniądze (value for
money)
Efekty (outputs)
Efektywność (effectiveness)
Proces (process)
Wydajność (efficiency)
Wkłady (inputs)
Koszty (costs)
Ekonomiczność (economy)
Źródło: Kristensen 2002.
W budżecie zadaniowym oblicza się, ile dostarczono usług lub wytworzono wyrobów.
Wyniki definiuje się jako dobra lub usługi (zazwyczaj te ostatnie), które agencje rządowe
dostarczają obywatelom, biznesowi lub innym agencjom rządowym. W budżecie zadaniowym określa się, co poszczególny program ma osiągnąć w kategoriach dobra publicznego, dobrobytu, lub bezpieczeństwa. Np. obniżyć śmiertelność wypadków drogowych o 20% w następnych 5 latach, zmniejszyć liczbę zachorowań na określoną chorobę
lub zapewnić większości studentów pewien poziom osiągnięć edukacyjnych w kolejnych
3 latach. Po zdefiniowaniu efektów rząd ocenia, czy programy, jakie wprowadził, zapewniają ich osiągnięcie [OECD 1998].
Uznaje się, że budżet zadaniowy stanowi dobrą platformę integracji planowania, zarzą-
dzania, monitoringu i ewaluacji (wraz z jednostkami odpowiedzialnymi za te funkcje).
Jego zaletą jest fakt, że uczy myśleć w ciągu: „pożądane rezultaty > konieczne wydatki,
aby je osiągnąć”, lub „uzyskane rezultaty > informacja, czy uzasadniają one kontynuowanie wydatków”, zamiast ciągu myślenia: „zasoby > rezultaty, które należy wyszukać,
aby uzasadnić wydatki”. Podejście to przesuwa nacisk z wielkości zużytych zasobów na
zakres i jakość osiągniętych krótko-i-długofalowych rezultatów. Łączy koszty z rezultatami programu. Dostarcza porównawczej oceny efektywności, skuteczności i sprawności
programów [Kristensen 2002].
Metody podejmowania decyzji budżetowych. W procesach decyzyjnych, dotyczących
np. projektu budżetu, ustaw lub programów rządowych, stosuje się wiele trybów podejmowania decyzji. Należą do nich np. metoda ekspercka (decyzję podejmują zaufani
eksperci, ministerialni lub kontraktowi), negocjacje (decyzję podejmują grupy interesariuszy), polityczna (politycy), benchmarking (decyzja oparta na wzorcowych praktykach), empiryczna (decyzja oparta na zastosowaniu metod analizy danych). W procesie
budżetowym stosuje się zwykle wszystkie opisane tu tryby, choć w różnych formach i
proporcjach. Do metod najważniejszych należą: ekonometryczne (kryteria określane jako stopień zysku, cost/benefit, ogólne koszty finansowe, itd.), metoda wielo-kryterialna
(bierze pod uwagę niewspółmierne kryteria i punkty widzenia), analiza kosztu i efektywności, symulacje i scenariusze, program budgeting, zero-base budgeting, relevance
graphs, badania rynkowe, badania prognostyczne itd. Negocjacje ważne są w pewnych
kulturach administracyjnych (jak np. w Niderlandach) i mniej ważne w innych. Konsensus uzgadniany jest pomiędzy różnymi interesariuszami, takimi jak obywatele, lokalne
społeczności, przemysł, ministerstwa itd. Każdy z trybów podejmowania decyzji wyróż12
nia inny typ osoby odpowiedzialnej za proces: metoda ekonometryczna – ekonomistę;
metoda wielo-kryterialna – analityka; negocjacje – mediatora, prawnika, negocjatora
[UNESCO 1984].
Ważnym środkiem pomocniczym w tworzeniu budżetu jest >analiza wpływu regulacji
(Regulatory Impact Analysis).
Poziomy decyzji budżetowych. Decyzje budżetowe podejmowane są na wielu poziomach. Zazwyczaj wyróżnia się następujące:
a. Ustalenie wielkości publicznych wydatków. (Poziom zagregowanych decyzji politycznych, aggregate policy-making).
b. Podział pomiędzy główne sektory, takie jak obrona, bezpieczeństwo publiczne,
edukacja, nauka, i inne. (Poziom podziału między-sektorowego).
c. Przydział zasobów do poszczególnych programów wewnątrz sektorów, np. edukacja pielęgniarek, szkolnictwo średnie, oraz uniwersytety, wewnątrz budżetu
edukacji. (Poziom między-sektorowej strategii politycznej).
d. Przydział zasobów do poszczególnych działań lub organizacji w ramach poszczególnego programu, np. przydzielenie większych funduszy uniwersytetowi X niż
uniwersytetowi Y, gdyż X ma lepsze wyniki w badaniach naukowych lub też szybciej wzrosła w nim liczba studentów w kierunkach uznawanych przez rząd z
priorytetowe. (Poziom zarządzania priorytetami programowymi).
e. Przydział pieniędzy wewnątrz poszczególnych instytucji lub typów działań (np.
gdy uniwersytet zdecyduje przesunąć zasoby z budżetu wynagrodzeń do budżetu
podróży).
Rzeczywisty proces budżetowy i finansowy nie zawsze aranżowany jest w tak prosty
sposób. Linia podziału pomiędzy tworzeniem (ustalaniem) budżetu a jego realizacją
przedstawia się różnie, w zależności od poziomu, na który się na to patrzy. Z punktu widzenia ministra, punkty d. i e. to nie tworzenie, lecz realizacja budżetu. Jednak z punktu
widzenia osób decydujących o podziale funduszy publicznych na tych szczeblach, to nadal tworzenie budżetu (dostępne zasoby są przydzielane pomiędzy konkurującymi ze
sobą celami) [OECD 1998]. Przejście z budżetu tradycyjnego na budżet oparty na wynikach angażuje wszystkie kolejne piętra jego tworzenia i realizacji. Tą drogą także ewaluacja „schodzi” ze szczebla rządowego na szczeble wykonawcze.
Próby integracji procesu budżetowego, audytu i ewaluacji. Jak dotąd jednak proces
budżetowy, audyt i ewaluacja rzadko tylko są w pełni zintegrowane. W przeszłości podejmowano wiele prób integracji projektowania budżetu, audytu i ewaluacji. Powiązania
te nie były jednak pełne lub nie zawsze kończyły się sukcesem. Za pierwszą próbę łączenia ewaluacji i procesu budżetowego uznaje się system PPBS (Planning-ProgrammingBudgeting) wprowadzony przez Roberta McNamarę w amerykańskim Departamencie
Obrony w początkach lat 1960-tych. PPBS miało być super-racjonalną teorią podejmowania decyzji, w której wybory będą opierane na systematycznej ilościowej analizie
[OECD 1993]. W Australii (proces budżetowy 1995/96) rezultaty ewaluacji wspierały
77% nowych propozycji politycznych i 65% propozycji dotyczących oszczędności. Proces łączenia procesu budżetu z ewaluacją był kierowany przez Ministerstwo Finansów
[OECD 1997].
13
Ocena budżetu zadaniowego. Mimo swej popularności, budżet zadaniowy nie został
wprowadzony we wszystkich krajach rozwiniętych. Kraje, które nadal stosują budżet
tradycyjny (np. Norwegia) osiągają cele stawiane przed budżetem zadaniowym za pomocą innych narzędzi, takich jak audyt, ewaluacje i planowanie.
Budżet zadaniowy lepiej nadaje się do zarządzania pewnych dziedzin (np. inwestycji
drogowych), a gorzej innych (np. inwestycji w badania podstawowe). Szczególne trudno
w jego ramach oceniać programy, które posiadają długi horyzont czasowy (np. odnowy
środowiska, rozwoju broni lub badań podstawowych) lub mają charakter chroniczny
(zmniejszenie przestępczości lub likwidacja ubóstwa). Często zdarza się, że sukces lub
porażka takiego programu zależą w mniejszym stopniu od podjętych działań, co od
przypadkowej koincydencji z warunkującymi je zjawiskami leżącymi poza zasięgiem interwencji publicznej (np. spadek przestępczości w mieście wskutek zmian demograficznych) [UNESCO 1998].
Bibliografia
H. Vessuri, Science, politics, and democratic participation in policy-making: a Latin American view, “Technology in Society”, Volume 25, Number 2 (2003), pp. 265-266.
Jens Kromann Kristensen, Walter S. Groszyk and Bernd Bühler, Outcome focused management and budgeting OECD 2002.
Jens Kromann Kristensen, Walter S. Groszyk and Bernd Bühler, Outcome focused management and budgeting OECD 2002
Katherine G. Willoughby and Julia E. Melkers, Performance Budgeting in the States, Internet.
OECD In Search Of Results: Performance Management Practices, Paris 1997, ss. 140.
OECD Integrating financial and performance management: a concept paper 1998
OECD Linking evaluation with budget, PUMA/SBO(97)7
OECD Using evaluation PUMA/SBO/RD(93)1
UNESCO Manual on the national budgeting of scientific and technological activities : integration of the "science and technology" function in the general State budget. Paris 1984.
CELE, ZADANIA I INSTRUMENTY POLITYKI
Cele i zadania polityki to „zamierzone infrastrukturowe, finansowe, instytucjonalne, społeczne, środowiskowe, lub inne rezultaty, do których polityka ma się przyczynić”, „opis
pożądanego stanu przyszłego systemu”. „Nie ma absolutnego kryterium rozróżnienia celów i zadań (...)” Cele wydają się być zdefiniowane jako oświadczenia, zwykle ogólne i
abstrakcyjne, o pożądanym stanie, ku któremu skierowana jest polityka, podczas gdy zadania to konkretne, zoperacjonalizowane oświadczenia o szczegółowych pożądanych rezultatach. Zadania, zintegrowane w ramach procesu planowania programu zapewniają
pomost między celami i etapem realizacji interwencji [Glossary 2002; Yolles; Preparing
2003].
Polityka jest, z definicji, zorientowana na cele. Zakres celów jest bardzo szeroki, od np.
poprawy umiejętności pracowników do np. zwiększenia liczby kobiet absolwentów w
szkołach technicznych (bardziej szczegółowe cele określa się często jako zadania). Cele
14
wyłaniają się z >AGENDY POLITYKI i są częścią >CYKLU POLITYKI. Są one kształtowane
przez interesy, poglądy, przekonania i modele koncepcyjnych osób uczestniczących w
>PROCESIE POLITYCZNYM. W ustalaniu celów dużą rolę odgrywa >ZALEŻNOŚĆ OD
SZLAKU.
W oparciu o cele wysokiego szczebla oraz uzasadnienia dla interwencji politycznej (zob.
>UZASADNIENIA DLA POLITYKI), formułuje się bardziej konkretne cele polityczne. Cele
mogą być bardzo zróżnicowane pod względem podmiotów, którymi się zajmują i rezultatów, jakie starają się osiągnąć. Cele różnią się również pod względem szczebla artykulacji - niektóre z nich są bardzo ogólne, np. zwiększenie działalności komercjalizacyjnej
uczelni, podczas gdy bardziej szczegółowe, np. powoływanie biur transferu technologii.
Rzeczą użyteczną jest budowa hierarchii celów.
Instrumenty polityki są zróżnicowane. Można je podzielić w różny sposób,
•
wg dominujących mechanizmów zastosowania, np. zachęty finansowe, regulacje i
informacje (czasami określane jako „marchew, kij i kazanie”),
•
•
wg grup docelowych celów, np. firm, uczelni itp.,
celów, które mają one dotyczyć.
Z reguły poszczególne kraje mają pełny zestaw instrumentów polityki naukowej i innowacyjnej, ale sposoby ich opracowania i wdrażania mogą być bardzo różne [IPP 2014].
Sukces polityki zależy od określenia jasnych celów. Jeśli istnieje ich wiele, muszą być ze
sobą zgodne. Muszą także być na tyle elastyczne, aby zmieniać się w miarę okoliczności.
Cele muszą:
• Opisywać obecną sytuację.
• Wskazać kierunki działań.
• Określać bariery w realizacji celów.
• Określić sposób rezultaty zostaną oceniane i zmierzone.
• Określać kroki konieczne dla osiągnięcia sukcesu [Slack].
Wzajemną zależność pomiędzy obszarami polityki, jej celami i środkami przedstawia
następująca tabela:
POLITYKA NAUKOWA I INNOWACYJNA
– OBSZARY, CELE , ŚRODKI I PRZYKŁADY
Obszar
Cel polityki
Środki
Przykłady z poszczególnych krajów
Zabezpieczanie
właściwych
warunków ramowych
Rozwijanie zasobów
ludzkich w B+R
Zachęcanie rynku do finansowania innowacji
Reformy edukacji na poziomie
wyższym
Wspieranie przez rządy i
przemysł edukacji zawodowej
Ustanowienie ram prawnych
dla kapitału ryzyka
Austria – kursy zawodowe
Finlandia – program
partnerstwa publiczno-prywatnego
Węgry – ustawa o kapitale ryzyka
Tworzenie kul-
Obniżenie asymetrii in-
Oparta na Internecie sieć in-
Kanada – Inicjatywa
15
tury
innowacyjnej
formacyjnej
Upowszechnienie najlepszych praktyk w zarządzaniu innowacjami
Wspieranie tworzenia
innowacyjnych firm
formacji biznesowych
Finansowanie dyfuzji narzędzi benchmarkingu i diagnostyki
Publiczne inwestycje w kapitał ryzyka
Strategiczna
Norwegia – program
BUNT
Hiszpania – program
MINER
USA – program SBIC
Pobudzanie
dyfuzji
technologii
Pobudzanie zdolności
absorpcyjnych firm
Ulepszenie powiązań
mię-dzy MSP i badaniami publicznymi
Współfinansowanie konsultantów dla podnoszenia poziomu kompetencji organizacyjnych firm
Współfinansowanie awansu
tech-nologicznego firm via
programy publiczno-prywatnego partnerstwa
Norwegia – program
BUNT
Hiszpania – Centra
CDTI
Wspieranie
tworzenia sieci
i klastrów
Pobudzanie tworzenia
kla-strów innowacyjnych firm
Zapewnianie lepszej
harmo-nizacji pomiędzy
infrastru-kturą N+T i
potrzebami przemysłu
Polityki zamówień i pośrednictwa
Współzawodnictwo pomiędzy
regionami o finansowanie inicjatyw klastrowych
Współfinansowanie ośrodków doskonałości dla wsparcia powiązań między uniwersytetami a przemysłem
Niderlandy – polityki
tworzenia klastrów
Niemcy – Inicjatywa
BioRegio
Szwecja – Program
Centrum Kompetencji
NUTEK
Francja – Réseaux Nationaux de la Reherche (RNS)
Wspieranie
B+R
Podtrzymywanie długofalo-wych szans technolo-gicznych
Wzrost wydatków rządowych
na badania podstawowe
Partnerstwo publiczno-prywatne
Australia – Program
CRC
Austria – Program CD
Społeczeństwo i Laboratoria
Odpowiedź na
globalizację
Wzrost powiązań między firmami o kapitale
krajowym i zagranicznym
Tworzenie sieci krajowych
konkurencyjnych firm technologicznych
Irlandia - Program
Narodowych Powiązań
Ulepszenie
tworzenia polityk
Wspieranie koordynacji
politycznej
Ulepszanie ewaluacji
polityk
Podnoszenie funkcji koordynacyjnych na najwyższy
szczebel polityczny
Korea – Narodowa
Rada Nauki i Technologii
Wielka Brytania –
ROAME
OECD, 1999.
Bibliografia
Brian Slack, The Policy Process.
Glossary of Key Terms in Evaluation and Results Based Management (OECD, 2002).
IPP, Innovation Policy Platform, Policy goals and means, 2014-01-13
J. S. Metcalfe, Science, Technology and Innovation Policy in Developing Economies, 2000. Paper prepared for
the workshop on Enterprise Competitiveness and Public Policies, Barbados 22nd – 25th November 1999.
16
Maurice Yolles, Organization as a Complex Systems: Social cybernetics and knowledge in theory and practice.
Michael Quinn Patton, Qualitative Research and Evaluation Methods. Sage Publications, California 1990.
OECD, Managing Innovation Systems: overview, 1999.
Preparing Program Objectives. Theory and Practice, prepared by Alex Iverson for the Evaluation Unit, The
International Development Research Centre, 2003, Toronto.
Slavo Radosevic, Strategic Technology Policy for Eastern Europe, "Economic Systems", Vol. 18, No. 2, June 1994.
CYKL POLITYKI
(Policy cycle)
W naukach politycznych cykl polityki to narzędzie stosowane w analizie rozwoju polityki. Najczęściej w ramach cyklu polityki wyróżnia się cztery fazy: ustalania >agendy polityki, >formułowania polityki, >wdrażania oraz >ewaluacji. W pierwszej fazie następuje
rozpoznanie kwestii wymagających uwagi rządu. W drugiej fazie kwestie te przekształca
się w >problemy polityczne, dokonuje się oceny możliwych opcji ich rozwiązania oraz
ustala ostateczny kształt >polityki, >programu lub >instrumentu polityki. W trzeciej fazie wprowadza się w życie podjęte decyzje. W fazie czwartej – ocenia efektywność polityki (polityk) w kategoriach zamierzeń i rezultatów [Nakamura 1987].
Narzędziami stosowanymi w czasie Cyklu Polityki są m.in. >Definiownie Problemu, >Logika Interwencji, >Analiza Polityki, >Ocena Wpływu (ex ante i ex post), >Monitoring, >Ewaluacja
Polityki (ex ante, mid-term i ex post).
Niektóre >agencje stosują sformalizowany zestaw Logiki Interwencji, Monitoringu, Ewaluacji i Oceny Wpływu, np. szwedzka Vinnova [Delanghe 2013].
Warren E. Walker [2003] proponuje podział cyklu na osiem faz:
1. Identyfikacja problemów
2. Określenie celów
3. (Wstępny) wybór środków
4. Identyfikacja alternatywnych polityk
5. „Badania przesiewowe” (screening) alternatywnych polityk oraz szczegółowa analiza
obiecujących polityk (ocena wpływu, impast assessment)
6. Wybór polityki
7. Wdrożenie wybranej polityki
8. Monitoring i ewaluacja rezultatów.
Fazy 4-6 zalicza się do >analizy polityki.
Australijski podręcznik polityki [Bridgman 2004] także proponuje podział na osiem faz:
1. Identyfikacja problemów
2. Analiza polityki
3. Rozwój instrumentu polityki
4. Konsultacje (które powinny przenikać przez cały >proces polityki)
17
5. Koordynacja
6. Decyzje
7. Wdrażanie
8. Ewaluacja
Perspektywa cyklu podkreśla zwrotność (pętlę) poszczególnymi cyklami polityki (ewaluacja jako wkład do budowy agendy), co prowadzi do ciągłego utrwalania procesu politycznego.
Podział procesu polityki na fazy zaproponował jako pierwszy Harold Laswell (1956). Cykl polityki jest idealizacją. Jednak pomimo swych ograniczeń, koncepcja cyklu polityki jest jedną z najczęściej stosowanych w naukach politycznych.
Zwraca się uwagę na dwa problemy związane z modelem cyklu polityki.
Po pierwsze, stwarza on wrażenie racjonalnego procesu składającego się z wyraźnie wyodrębnionych faz. Jednak proces polityczny rzadko ma jednoznaczny początek i koniec. Cechuje go stałe dostosowywanie się do zmieniających okoliczności. Agenda polityki to w rzeczywistości ciągła
działalność. Poszczególne etapy cyklu polityki zazębiają się ze sobą.
Po drugie, jest on wizją odgórnej realizacji polityki. Rzeczywista polityka coraz częściej łączy podejście odgórne z oddolnym.
Podkreśla się też, że w warunkach rzeczywistych polityki rzadko są przedmiotem całościowych
ewaluacji. Z reguły polityka jest stale monitorowana, kontrolowana i modyfikowana w trakcie jej
realizacji [OECD 2009].
Bibliografia
Robert T. Nakamura, The Textbook Policy Process And Implementation Research, “Review of Policy Research”, Vol. 7, Issue 1, pages 142–154, September 1987.
Bridgman and Glyn Davis, The Australian Policy Handbook, Allen & Unwin, 2004.
Handbook of Public Policy Analysis. Theory, politics and methods. Ed. By Frank Fischer, Gerald Miller and
Mara S. Sidney, CRC Press, 2007, ss. 43-53.
Warren E. Walker, The Use of Screening in Policy Analysis, Management Science, Vol. 32, No. 4. Apr., 1986,
ss. 389-402.
Henri Delanghe, Peter Teirlinck, Optimizing the Policy Mix by the Development of a Common Methodology
for the Assessment of (Socio-)Economic Impacts of RTDI Public Funding. Literature Review, December 2013.
OECD Country Reviews Of Innovation Policy, 2009.
DEBATA PUBLICZNA NAD PROBLEMAMI NAUKI I INNOWACJI W POLITYCE
[Public debate on science and innovation issues]
Debata publiczna nad problemami nauki i innowacji w polityce, to dyskusja połączona z
przedstawianiem przeciwstawnych punktów widzenia w sprawach istotnych dla interesu publicznego, prowadzona w mediach komercyjnych i społecznych, angażująca naukowców, decydentów, dziennikarzy, czasem także obywateli. Debata odbywa się bądź
wewnątrz środowiska akademickiego lub politycznego, bądź też ma charakter ogólnokrajowy i angażuje szerszą opinię publiczną.
18
Jeśli chodzi o debatę publiczną na temat nauki i innowacji, można wyróżnić trzy poziomy:
• narodowy (ogólnopolskie gazety, telewizja i radio);
• debaty naukowców (np. w miesięczniku "Forum Akademickie", czytanym przez menedżerów, decydentów i administratorów nauki, kilka tysięcy czytelników);
• debaty ekspertów i zainteresowanych stron (np. w kwartalniku "Nauki i Szkolnictwa
Wyższego" lub w trakcie Kongresów Instytutu Gospodarką Rynkową), kilkuset czytelników i uczestników.
W krajach EU oraz krajach stowarzyszonych przeprowadzono w ostatnich latach ok. 150
debat publicznych nt. zagadnień nauki i innowacji w polityce. Pięć najważniejszych grup
tematycznych to:
•
•
•
•
•
•
•
Zmiana klimatu, polityka energetyczna i ochrona środowiska, związana z rolą nauki
w redukcji emisji CO2, a także (w mniejszym stopniu) sprawy zrównoważonego
rozwoju (różnorodności biologicznej, gospodarki odpadami i recyklingu, zanieczyszczenia wody i powietrza).
Reforma szkół wyższych, nowe ustawy, fuzje uczelni, koncentracja wysiłków w szkołach wyższych na obszarach strategicznych, w szczególności sprawa wiązania strategii uczelni z potrzebami społecznymi.
Krajowe strategie B+R, sposób ustalania krajowych celów i priorytetów.
Gospodarka oparta na wiedzy, ze szczególnym uwzględnieniem roli nauki w rozwoju gospodarczym oraz rozpoznania i wzmocnienia krajowych przewag konkurencyjnych na rynkach
międzynarodowych.
Dyskusje dotyczące technologii, w szczególności biotechnologii, ale także nanotechnologii oraz technologii związanych ze zdrowiem i bezpieczeństwem.
Autonomia uniwersytecka, zawód nauczyciela akademickiego.
Finansowanie publicznego sektora nauki, ewaluacja badań [MASIS 2010].
W Polsce następujące kwestie związane z nauką i innowacjami były w ostatnich latach
przedmiotem ogólnokrajowych debat:
•
•
•
•
In vitro jako metody leczenia niepłodności (głównie w kontekście społecznym i religijnym). Czy in vitro powinno być dozwolone czy zabronione? Jeśli dozwolone, w jakim zakresie i na jakich warunkach?
Zmiany klimatu (głównie w kontekście skutków propozycji Komisji Europejskiej dotyczących bilansu energetycznego). Czy nowe wymagania unijne mogą spowolnić
wzrost gospodarczy Polski i czy Polska może uzyskać ich czasowe odroczenie?
Strategia innowacji. Czy w Polsce jako kraju goniącym europejską czołówkę instrumenty polityki innowacyjnej przejęte z krajów rozwiniętych są skuteczne? Jak podnosić świadomość znaczenia innowacji wśród przedsiębiorców?
Nowa reforma nauki i szkolnictwa wyższego (od 2008 r.), a w szczególności
o Koncepcja "flagowych" uniwersytetów badawczych (Krajowe Naukowe
Ośrodki Wiodące). Czy KNOW poprawi jakość polskiej nauki?
19
o Nowy model uczelni, ich autonomii i kontroli rządowej, relacje między
szkołami publicznymi i prywatnymi, opłaty za studia. Jak pogodzić odgórną reformę z zachowaniem tradycyjnej autonomii akademickiej?
o Nowy model kariery akademickiej, a zwłaszcza przyszłość habilitacji. Jak
poprawić i usprawnić przebieg studiów bez utraty mechanizmów kontroli
jakości?
Bibliografia
MASIS Final synthesis report 2012.
MASIS, Niels Mejlgaard, Tine Ravn, Lise Degn, Common Issues and Research Priorities, Preliminary report,
December 2010.
MASIS, National Report, Poland, October 2011.
DYLEMATY POLITYKI NAUKOWEJ I INNOWACYJNEJ
Przed polityką staje m.in. zadanie określenia strategicznych celów nauki i techniki.
•
W jakiej mierze nauka i technika winny służyć celom czysto ekonomicznym, a w jakim
powinny one budować tożsamość narodową i prestiż kultury narodowej w świecie?
•
W jakich dziedzinach kraj powinien znaleźć się na (światowym) froncie badawczym? W
jakim zakresie powinien przejmować i wykorzystywać dokonane za granicą odkrycia i
wynalazki?
•
Do jakiego stopnia powinien wspierać adaptację stworzonych i wyprodukowanych za
granicą urządzeń, maszyn i technologii?
•
Jak określić społecznie optymalny poziom inwestycji w B+R?
•
Jak dokonać społecznie optymalnego podziału pieniędzy na B+R spośród różnych opcji?
•
Co zrobić, aby szczupłe środki na B+R były wydajnie wykorzystywane?
•
Jak uniknąć dublowania badań bez gaszenia konkurencji i tworzenia monopoli?
•
Jak wynagradzać innowatorów pobudzając jednocześnie dyfuzję innowacji (np. patenty
wynagradzając wynalazców często hamują upowszechnianie wynalazków).
Łatwiej odpowiedzieć na te pytania „w zasadzie”, niż w praktyce.
Problem zasad finansowania B+R zogniskowany jest wokół pytania, jaki poziom oraz
ukierunkowanie tematyczne i geograficzne B+R finansowanych ze źródeł publicznych
byłyby optymalne z punktu widzenia zapewnienia maksymalnego zwrotu (ekonomicznego i społecznego). Rozstrzygnięcie tego problemu jest trudne i wymaga uwzględnienia
wielu dylematów związanych z ekonomicznym aspektem prowadzenia działalności B+R.
Np. konfliktu interesu pomiędzy wynalazcą a społeczeństwem: wynalazcy zależy na wynagrodzeniu za wynalazek, społeczeństwie na jego upowszechnieniu.
Trudność rozstrzygnięcia problemu optymalnego poziomu finansowania B+R wynika z
samego charakteru B+R. B+R jest kosztowne. Co gorsza, często jego koszty nie mają końca (nigdy dokładnie nie wiadomo, jak wiele czasu zabierze odkrycie tego, czego się szu20
ka) oraz są jak studnia bez dna (jeśli nie znalazło się tego, czego się szukało, nie ma wielu szans na odzyskanie zainwestowanych pieniędzy). B+R z reguły jest ryzykowne, gdyż
(pomijając jego bardziej rutynową część, bliską pomiarom i testowaniu) leży ono w sferze niepewności: niepewności badawczej, technologicznej, rynkowej, niepewności co do
rezultatu pojedynku z konkurencją, czy też niepewności co do tego, czy uda się ochronić
własność intelektualną uzyskaną dzięki badaniom. Wszystko to czyni B+R działalnością,
która niezwykle trudno ocenić. To z kolei powoduje, że niełatwo znaleźć inwestora
chętnego do podjęcia ryzyka inwestycji.
Ale B+R nie tylko trudno finansować, ale także trudno nim zarządzać. Działalność innowacyjna to zajęcie dla wielu różnych grup ekspertów: naukowców, projektantów, specjalistów od marketingu, inżynierów produkcji, dostawców, klientów, szkoleniowców.
Skuteczna koordynacja jest konieczna, ale trudna i kosztowna. Do tego dochodzą jeszcze
trudności z komórkami B+R w przedsiębiorstwach (określenie właściwych zadań, ustalenie kontraktów, monitoring prac).
Jednym z kluczowych problemów zarówno finansowania, jak i zarządzania B+R są trudności transakcji spowodowane asymetrią informacji. Asymetria informacji to sytuacja,
gdy jedna ze stron transakcji wie więcej od innej. Badacz wie zwykle więcej o rzeczywistych technicznych i rynkowych perspektywach B+R niż bankier, a menedżer – od kierownictwa przedsiębiorstwa. W jaki sposób bankier lub też dyrektor firmy mieliby lepiej
wiedzieć od badacza, czy pieniądze na B+R są wykorzystywane z pożytkiem dla przedsiębiorstwa, czy też dla pomnożenia sławy naukowej? Ocena zewnętrzna jest możliwa,
ale wymaga monitoringu i negocjacji.
Nieraz trudno wyciągnąć korzyści nawet z inwestycji zakończonych sukcesem. Nie tylko
z powodu problemów związanych z ochroną własności intelektualnej (jak zabezpieczyć
produkt przed łatwym skopiowaniem i uzyskać za niego zysk przekraczający koszty
wprowadzenia go na rynek), ale i z tego powodu, że często przedsiębiorstwom brakuje
aktywów uzupełniających, takich jak umiejętności produkcyjne lub nawet marketingowe.
Każda państwowa polityka N+T oraz indywidualne strategie przedsiębiorstw muszą
brać pod uwagę i rozstrzygać zarysowane tu dylematy, m.in. dylemat zabezpieczenia i
upowszechnienia wynalazku, dylemat niepewności i ryzyka, dylemat asymetrii informacji, dylemat zarządzania i koordynacji [Strahlcyde], nie mówiąc już o takich dylematach,
jak
•
Zasad podziału funduszy pomiędzy różnymi, często nieporównywalnymi dyscyplinami
(np. biologią molekularną a fizyką wysokich energii), a zwłaszcza pomiędzy różnymi gałęziami dyscyplin, a także pomiędzy różnymi sektorami nauki (instytuty państwowe,
uczelnie i przemysł)?
•
Ustalenia odpowiednich proporcji pomiędzy finansowaniem badań podstawowych i
stosowanych oraz prac rozwojowych, a dokładniej, badań, które rozwija się nie dla
określonego zleceniodawcy, tylko w celach czysto poznawczych, badań które uprawia
się dla ściśle określonego celu gospodarczego oraz badań które rozwija się nie dla bezpośredniego celu gospodarczego, tylko dla "ulepszenia jakości życia społeczeństwa"
21
(wskutek czego nie mogą one być finansowane przez gospodarkę). Doświadczenie pokazuje, że takie kraje, jak Szwecja, które zaniedbały budżetowego finansowania badań
podstawowych, zapłaciły za to słono w następnych dziesięcioleciach; uprawa ich działa
bowiem ożywczo na rozwój nauk stosowanych [OECD 1992].
•
Dylematu: wspierać rozwój czy zastosowania technologii; wspierać technikę jako wiedzę, jako umiejętności czy jako urządzenia; wspierać B+R, usługi naukowo-techniczne
czy uczenie się; rozwój technologii w kraju czy międzynarodowy [Metcalfe 1995].
•
Swobody i kierowania: w jakiej mierze w nauce powinna nadal obowiązywać tradycyjna europejska idea wolności badań, a w jakiej nauka powinna być rządzona przez
priorytety i zadania, służące interesom społeczeństwa i gospodarki? Jaki zakres niezależności powinni mieć poszczególni uczestnicy systemu nauki i techniki? Jaką rolę powinno odgrywać planowanie?
•
Wszechstronnego rozwoju lub specjalizacji. Żaden kraj, nawet Stany Zjednoczone, nie
powinien rozwijać wszystkich dziedzin nauki i techniki; winien szukać "nisz badawczych", w których mógłby odnieść największe - z punktu widzenia nauki, techniki i gospodarki - sukcesy; obok (niewielu) priorytetów badawczych powinien ustalać posteriorytety, tj. listę pól lub dyscyplin nie zasługujących na wsparcie finansowe z budżetu
państwa [OECD 1992].
•
Wyboru jednego z dwóch podejść co do określania rozmiarów krajowego wysiłku B+R:
„podażowego” i „popytowego”. Wg pierwszego, powinno się utrzymywać sporą nadwyżkę badań nad aktualnymi potrzebami, biorąc pod uwagę możliwość wystąpienia nieoczekiwanych „fuzji”,. „przecięć”, „odprysków”, zmian trendów rozwojowych nauki i techniki itd.. Wg drugiego, zakres wysiłku powinien być (w zasadzie) dostosowany do aktualnych potrzeb. (W okresie komunistycznym rozmiary B+R wykraczały znacznie poza
potrzeby gospodarcze i społeczne. Jest zatem zdrowiej, gdy dopuści się obecnie do głosu
podejście „popytowe”) [Andreff 1997].
•
Określenia optymalnych relacji pomiędzy priorytetami ustalanymi na różnych szczeblach: a) poszczególnych uczonych oraz kierowników zespołów; b) dyscyplin lub regionów; c) rządu.
•
Określania optymalnych proporcji pomiędzy nakładami na prace badawczo-rozwojowe
oraz nakładami na obsługę nauki (tj. na transfer technologii, informację naukową i
techniczną, kształcenie naukowców i inżynierów i in.)
•
Określania optymalnych dla danego typu badań struktur organizacyjnych.
•
Ustalania najwłaściwszych proporcji między finansowaniem badań z budżetu nauki i
techniki oraz z budżetu innych resortów (zdrowia, edukacji i in.).
•
Określenia proporcji między bezpośrednimi (fundusze na działalność naukową i techniczną z budżetu państwa) a pośrednimi środkami polityki naukowej i technicznej (polityki: kredytowa, podatkowa, patentowa i licencyjna, zachęcające przemysł do finansowania prac badawczych i rozwojowych).
•
Ustalania proporcji między działaniami krótko-terminowymi a długofalowymi.
Kolejne dylematy dotyczą wyboru najlepszych rozwiązań instrumentów politycznych. Np. czy
proponowane instrumenty dotykają rzeczywistych potrzeb innowacyjnych firm? Jaka jest ich
22
efektywność mierzona stosunkiem kosztów do korzyści? Jakie są ich efekty i wpływ? Jak są one
koordynowane z pozostałą częścią systemu politycznego? [Nauwelaers 2002].
Żaden z dylematów nie jest łatwy do rozwiązania.
Istnieją rozmaite sposoby ich rozwiązywania. Jedne z nich polegają na takim rozgraniczeniu sfer, dzięki której z dwóch konfliktowych opcji każda obowiązywałaby na innym
poziomie albo obszarze. Np. dylemat swobody i sterowania w nauce rozwiązywany jest
w taki sposób, że kryteria decyzji o projektach badawczych opiera się na zasadach swobody (peer review), a kryteria decyzji o podziale pieniędzy dyscyplinami na priorytetach
rządowych.
Inny sposób rozwiązania, to twórcza fuzja obu opcji. Np.
•
dylemat „import technologii zagranicznych albo tworzenie ich w kraju” rozwiązywany
bywa przez tworzenie zachęt dla ulepszania zakupionych technologii zagranicznych (I
tak, Korea preferowała własne B+R, podczas gdy Irlandia, Singapur i Hong Kong ukierunkowały swoje polityki na wzrost działalności innowacyjnej podejmowanej przez
trans-narodowe korporacje. Jeszcze inne kraje po prostu pozostawiły sprawę upgradingu technologii siłom rynkowym) [UNIDO 2002/03];
•
dylemat wyboru formy procesu politycznego (analiza polityczna ekspertów albo negocjacje i konsultacje ze wszystkimi interesariuszami) rozwiązywany jest np. przez realizację foresight`u.
Kolejny sposób to znajdowanie nowej formuły instrumentu politycznego. Dylemat „czy
dla pobudzania rozwoju technologii stosować ulgi podatkowe, które stwarzają pokusę
nadużycia firm, czy też dotacje dla firm, które stwarzają pokusę nadużycia agencji rządowych” rozwiązywany jest coraz częściej przez dofinansowanie realizacji projektów
technologicznych konsorcjów opartych na partnerstwie publiczno-prywatnym, w którym każdy z udziałowców (np. uniwersytety, laboratoria rządowe i przedsiębiorstwa
prywatne) nie tylko dzieli się z pozostałymi kosztami, ryzykiem i (ewentualnymi) korzyściami, ale także ich kontroluje.
Jeszcze inny sposób to znalezienie „optymalnego punktu równowagi” (np. dla rozwiązania dylematu interesu wynalazcy i interesu społeczeństwa - takiej poprawy własności
intelektualnej, która nie blokowałaby dyfuzji innowacji oraz takiej dyfuzji, która zabezpieczałaby prawa innowatora; redukcji niepotrzebnego dublowania B+R z jednoczesnym zachowaniem pożądanego poziomu współzawodnictwa w B+R) [Strahlcyde].
Nieraz rozwiązanie dylematu zależy od osiągniętego poziomu gospodarczego. Np. dylemat czy finansować projekty badawcze i technologiczne stosunkowo tanie i mało ryzykowne (których efekty w sensie naukowym lub ekonomicznym będą miały ograniczoną
wartość), czy też projekty kosztowne i ryzykowne, ale obiecujące znaczną „wypłatę” w
wypadku wygranej, rozwiązywany jest w ten sposób, że w miarę wzrostu dobrobytu finansuje się coraz więcej projektów tej drugiej grupy.
Bez pewnej swobody w ustalaniu priorytetów na niższych szczeblach, priorytety wyższego szczebla nie spełnią swego zadania, np. bez puli badań i projektów badawczych
instytutów rolniczych trudno dokonać właściwego wyboru celów wielkich programów
23
badań rolniczych; bez zdobycia umiejętności naukowych i menedżerskich w realizacji
małych projektów, trudno kierować wielkimi programami, itd. [OECD 1992].
Nakreślone wyżej dylematy polityki N+T i innowacji nie są bynajmniej dane „raz na zawsze”; tajemnica pomyślnej polityki polega też nieraz na trafnym i szybkim odczytaniu
zmian otoczenia, które powodują konieczność modyfikacji pola sensownych wyborów, a
nawet zmianę kategorii pojęciowych stosowanych w podejmowaniu decyzji. Np. zwraca
się uwagę, że problem decydentów polega dziś nie tyle na wyborze pomiędzy badaniami
podstawowymi a stosowanymi, ale m.in. na formułowaniu priorytetów w taki sposób,
aby podkreślały one bezpośrednie powiązanie pomiędzy badaniami podstawowymi i
przełomami teoretycznymi z jednej strony, a badaniami stosowanymi i pracami rozwojowymi z drugiej strony; aby służyły one mobilizacji dodatkowych zasobów finansowych, zarówno publicznych, jak i prywatnych, na rzecz badań podstawowych i stosowanych [Rodrigues 2003].
Różnice w rozwiązaniach dylematów mogą wynikać z takich zmiennych jak: wielkość
rynku, położenie geograficzne, zasoby naturalne, zewnętrzne presje, historia, początkowa, baza kompetencji, itd.
Bibliografia
C. Nauwelaers, and R. Wintjes, Innovating SMEs and regions: the need for policy intelligence and interactive
policies, “Technology Analysis and Strategic Management”, (2002) 14 (2), 201-215.
Industrial Development Report 2002/2003. Competing through Innovation and Learning, UNIDO.
J.S. Metcalfe, Technology systems and technology policy in a evolutionary framework, “Cambridge Journal of
Economics” 1995, 19, s. 25-46.
Maria João Rodrigues, European Policies for a Knowledge Economy, Edward Elgar, 2003.
Public Funding Of R&D: Emerging Policy Issues 13-14 March 2001.
Reviews of National Science and Technology Policy: Czech and Slovak Republic, OECD 1992.
Reviews of National Science and Technology Policy: Czech and Slovak Republic, OECD 1992.
University of Strathclyde Business School, http://www.economics.strath.ac.uk/Teaching/3rd_Year/
31_341_ Econ_Org_and_Econ_Perf/ PDF/341~prod.doc
Wladimir Andreff, wypowiedź na konferencji NATO „Institutional Transformation of S&T Systems and
S&T Policy in Economies in Transitions”, Budapeszt, 28-30 sierpnia 1997.
FORMUŁOWANIE POLITYKI
[Policy formulation]
Formułowanie polityki to druga faza >cyklu polityki, podczas której żądania, problemy i
propozycje zgłaszane zarówno z kręgu ministerstwa i/lub agencji wykonawczych
(urzędnicy, doradcy polityczni, analitycy polityki), jak i z zewnątrz ministerstwa (>sieci
polityki, media, badacze polityki, obywatele) są przekształcane w >polityki, >programy
oraz >instrumenty rządowe (cele, zadania, środki realizacji, mierniki wykonania, harmonogram). W fazie formułowania kwestie przeformułowuje się w >problemy polityczne oraz dokonuje się oceny możliwych opcji ich rozwiązania.
24
Od lat 1960. w fazie formułowania polityk administracje rządowe często korzystają z
pomocy >analizy polityki, >doradztwa na rzecz polityki, >badań na rzecz polityki,
wspomaganych przez różne techniki, takie jak analiza kosztów i korzyści, analiza systemowa, badania operacyjne i inne. W fazie formułowania opracowuje się często >logikę
interwencji oraz rozpatruje planowane działania w kontekście wcześniej wdrożonych i
planowanych (tzw. >mieszanka polityk).
Niektórzy teoretycy oprócz fazy formułowania polityki wyróżniają także fazę podejmowania decyzji.
Dominujące przekonanie dotyczące relacji ministerstwo-agencje w demokracjach parlamentarnych głosi, że ministerstwa są odpowiedzialne za formułowanie polityki i bezpośrednie wsparcie polityczne, natomiast agencje wdrażają polityki. Oddzielenie polityki i działań jest głównym postulatem >Nowego Zarządzania Publicznego, wysuwanym w
celu poprawy wydajności sektora publicznego [Döhler 2007]. Jednak, w rzeczywistości,
agencje cieszą się, mniejszą lub większą autonomią oraz udziałem w formułowaniu polityk. Badania niemieckich agencji pokazały, że zakres autonomii zależy bardziej od charakteru zadań niż od kulturowych lub organizacyjnych cech agencji [Bach 2012].
Bibliografia
Handbook of Public Policy Analysis. Theory, politics and methods. Ed. By Frank Fischer, Gerald Miller and
Mara S. Sidney, CRC Press, 2007, ss. 45-51.
Jack Barkenbus, Expertise and the Policy Cycle, Energy, Environment, and Resources Center, The University
of Tennessee, 1998.
Tobias Bach, The involvement of agencies in policy formulation: Explaining variation in policy autonomy of
federal agencies in Germany, „Policy and Society” Vol. 31, Issue 3, September 2012, ss. 211–222.
M. Döhler, Die politische Steuerung der Verwaltung, Nomos, Baden-Baden 2007.
GLOBALNE (WIELKIE, SPOŁECZNE) WYZWANIA
[Global challenges]
Globalne Wyzwania – hasło w polityce popularne od II poł. I dekady XXI wieku, sformalizowane w ramach The Millenium Project ONZ, obecne w retoryce politycznej Unii Europejskiej (np . w strategii Europa 2020 [EC 2010]). Podkreśla się, że wyzwania te
•
•
•
•
•
•
•
•
wykraczają poza misją jednego ministerstwa i jednego kraju,
są problemem intelektualnym,
są problemem praktycznym,
są problemem o dużej skali,
wymagają badań interdyscyplinarnych, zarówno podstawowych, jak i stosowanych;
wymagają prac komitetów i debat publicznych,
wymagają użycia znacznych zasobów,
są problemem rozwiązywalnym [OECD 2014].
Globalne Wyzwania stały się ważnym punktem odniesienia w rozwoju międzynarodowej polityki naukowej i innowacyjnej. Podkreśla się, że zmiana klimatu, globalne zdrowie, bezpieczeństwo żywności i wiele innych globalnych wyzwań przekracza granice
25
państw. Jednak najczęściej poszczególne rządy nie może dostarczyć skutecznych rozwiązań. Globalne wyzwania wymagają współpracy w skali globalnej zarówno na poziomie krajowym i międzynarodowym. Międzynarodowo skoordynowane lub zbiorowe
wysiłki N+T+I mogą wytworzyć korzyści skali. Jest to szczególnie cenne w odniesieniu
do inicjatyw badawczych wymagających inwestycji wykraczających poza możliwości
krajowych budżetów nauki.
Świat zawsze stał w obliczu ogromnych wyzwań. Kryzysy żywnościowe wielokrotnie
prowadziły do głodu i emigracji. W dzisiejszym bardziej zglobalizowanym świecie
wzrósł zasięg takich wyzwań. Globalne ocieplenie i zmiany klimatyczne wpływają na całą planetę. Swobodny przepływ osób i towarów oznacza niebezpieczeństwo rozprzestrzeniania się chorób zakaźnych. Istnieją globalne wyzwania bezpieczeństwa i stabilności dostaw energii i żywności, zagrożenia chorami zakaźnymi, zmiany klimatu i utraty
różnorodności biologicznej. Jednocześnie poziom wiedzy naukowej potrzebnych aby
zrozumieć genezę globalnych wyzwań oraz aby opracować odpowiednie strategie i
technologie nie ma precedensu. Walka z globalnymi wyzwaniami wymaga zdecydowanych działań w różnych dziedzinach polityki publicznej, często w ścisłej współpracy z
sektorem prywatnym i społeczeństwem obywatelskim. Nauka, technologia i innowacje
odgrywają kluczową rolę w zrozumieniu współdziałania istotnych czynników środowiskowych, technologicznych i społecznych, w ocenie ryzyka i ewentualnych niezamierzonych negatywnych skutków strategii, w tworzeniu rozwiązań. Mechanizmy międzynarodowego zarządzania dla rozwiązania globalnych problemów zależą od cech specyficznych wyzwań, ich pilności, czynników sprawczych, zaangażowanych podmiotów i ich
specyficznych interesów, problemów władzy, itp. Nie ma tu prostej formuły. W przeszłości badania naukowe pozwoliły na rozumienie relacji między działaniem (np. stosowaniem freonów) a jego wpływem na środowisko (zmniejszenie grubości warstwy ozonowej) i zdrowie (zwiększenie liczby nowotworów skóry).
Pięć najważniejszych problemów związanych z międzynarodowa współpracą w dziedzinie walki z globalnymi wyzwaniami określa się następująco::
• Ustalanie priorytetów. Jakie są mechanizmy określania programów i priorytetów współpracy
międzynarodowej w dziedzinie N+T+I?
• Finansowanie i wydatki. Jak są finansowane istniejące międzynarodowe programy N+T+I? Jakie wnioski można wyciągnąć dla przyszłej współpracy, być może na większą skalę niż w programach obecnie realizowanych?
• Dzielenie się wiedzą i własność intelektualna. Jakie podejście mają organizacje międzynarodowe w kwestiach własności wiedzy gromadzonej przez międzynarodowe badania naukowe i technologiczne? Jakie są mechanizmy dzielenia się wiedzą i korzyściami?
• Przenoszenie wiedzy do praktyki. Jakie mechanizmy ułatwiają szybką aplikację
nowej wiedzy naukowej i technologicznej, wytworzonej dzięki wspólnym wysiłkom międzynarodowym?
• Budowanie potencjału w zakresie badań i innowacji. W jakim stopniu organizacje międzynarodowe podchodzą do zadania podnoszenia potencjału N+T+I w słabszych krajach partnerskich?
26
Koordynacją badań służących walce z globalnymi wyzwaniami zajmuje się wiele organizacji międzynarodowych, np. Grupa Konsultacyjna ds. Międzynarodowych Badań Rolniczych (CGIAR), Fundacja Billa i Melindy Gates`ów, Grupa ds. Obserwacji Ziemi (GEO),
Amerykański Instytut Badań nad Globalną Zmianą (IAI), Międzynarodowa Agencja
Energii Atomowej (MAEA), Wspólne Inicjatywy Programowania UE, Globalny Instytut
Przechwytywania i Magazynowania Węgla (Global CCS Institute).
Nie zawsze rozwiązania dla globalnych wyzwań wychodziły ze współpracy międzynarodowej. Niejednokrotnie ważne odkrycia powstały w pojedynczych laboratoriach, np.
tzw. złoty ryż (ryż zmodyfikowany genetycznie celem poprawy stanu odżywiania w krajach rozwijających się) był głównie owocem współpracy szwajcarskiego instytutu badawczego i niemieckiego uniwersytetu we Freiburgu [OECD 2012].
Wyzwania określone w Programie „Horyzont 2020”
• Zdrowie, zmiany demograficzne i dobrostan;
• Bezpieczeństwo żywnościowe, zrównoważone rolnictwo, badania morskie i morskie oraz gospodarka ekologiczna;
• Inteligentny, zielony i zintegrowany transport;
• działania w dziedzinie klimatu, efektywna gospodarka zasobami i surowcami;
• Integracyjne, innowacyjne i bezpieczne społeczeństwa.
15 Globalnych Wyzwań ONZ
ONZ-owskie 15 Globalnych Wyzwań tworzy ramy oceny globalnych i lokalnych perspektyw dla ludzkości. Ich opis wyzwań jest aktualizowany corocznie od 1996 roku:
1 . W jaki sposób można osiągnąć zrównoważony rozwój dla wszystkich z jednoczesnym przeciwdziałaniem zmianom klimatycznym?
2 . Jak każdy może mieć wystarczającą ilość czystej wody bez konfliktów?
3 . Jak można uzyskać równowagę wzrostu ludności i zasobów?
4 . Jak może prawdziwa demokracja wyłonić się z autorytarnych reżimów?
5. Jak polityki mogą w większym uwzględniać długofalowe globalne perspektywy?
6. Jak można globalna konwergencja technologii informacyjnych i komunikacyjnych służyć
wszystkim?
7. Jak można wspierać etyczne gospodarki rynkowe w celu zmniejszenia przepaści między bogatymi i biednymi ?
8. Jak można zmniejszyć groźbę nowych i pojawiających się na nowo chorób i mikro-organizmów?
9. Jak można ulepszyć kompetencje decyzyjne w miarę jak zmienia się charakter pracy i instytucji?
10. Jak wspólne wartości i nowe strategie bezpieczeństwa mogą ograniczyć konflikty etniczne,
terroryzm, oraz użycie broni masowego rażenia?
11. Jak można zmieniając status kobiet przyczynić się do poprawy kondycji ludzkiej?
12 . Jak można powstrzymać ponadnarodowe sieci przestępczości zorganizowanej przed przekształceniem się w coraz bardziej potężne i wyrafinowane przedsiębiorstwa globalne?
27
13. Jak można rosnące zapotrzebowanie na energię zaspokoić bezpiecznie i skutecznie?
14. Jak można przyśpieszyć dokonywanie odkryć naukowych i technologicznych, aby poprawić
kondycję ludzką?
15. Jak względy etyczne mogą być bardziej rutynowo uwzględniane w decyzjach globalnych?
[ONZ]
Bibliografia
EC, Communication From The Commission, Europe 2020. A European strategy for smart, sustainable and
inclusive growth, Brussels, 3.3.2010 COM(2010) 2020
OECD 2012 Meeting Global Challenges through Better Governance. International Co-operation In Science,
OECD 2014, Assessing The Impact Of State Interventions In Research – Techniques, Issues And Solutions
DSTI/STP(2014)24
ONZ The Millenium Project, http://www.millennium-project.org/millennium/challenges.html
HIERARCHIA DOKUMENTÓW POLITYCZNYCH
Przez hierarchię dokumentów politycznych rozumie się różnice i zależności pomiędzy
dokumentami wynikające z różnic:
•
•
•
•
•
w pozycji w hierarchii prawa (prawo międzynarodowe, >Konstytucja, >ustawy rządowe,
>rozporządzenia ministerstw, >zarządzenia ministerstw, >decyzje administracyjne),
szczebli formułowania i realizacji polityk (np. polityka unijna>polityki narodowe>polityki regionalne>polityki lokalne),
zakresu merytorycznym polityk (ogólna polityka rządowa; polityki sektorowe i horyzontalne; polityki w ramach polityk sektorowych i horyzontalnych),
horyzontu czasowego strategii (np. Długookresowa Strategia Rozwoju Kraju. Główne
Trendy i Wyzwania – do 2030, >Strategia Rozwoju Kraju do 2020),
zakresu i szczebla strategii rządowych (np. w Polsce Długookresowa Strategia Rozwoju
Kraju do roku 2030> Strategia Rozwoju Kraju do roku 2020 (jako odpowiedź na unijną
Strategię Europa 2020) >dziewięć strategii sektorowych, > Koncepcja Przestrzennego
Zagospodarowania Kraju do roku 2013; >strategie rozwoju województw; >strategie
rozwoju lokalnego; >strategie rozwoju powiatów i gmin).
28
Ministerstwo Infrastruktury i Rozwoju 2013
Por. też >RAMY POLITYKI; HORYZONT ANALIZY.
Bibliografia
Ministerstwo Infrastruktury i Rozwoju, Programowanie perspektywy finansowej 2014 -2020 Umowa Partnerstwa, grudzień 2013 r.
Yinglie Zhou, Cunkuan Bao, Hierarchical methodological framework to improve Policy Environmental Assessment: Based on policy layer research, “Front. Environ. Sci. Engin. China” 2010, 4(1): 82–90.
HOROZONT ANALIZY W POLITYCE
Zwraca się uwagę na konieczność jednoczesnego uwzględniania różnych horyzontów
czasowych w >FORMUŁOWANIU POLITYKI:
Potrzeby analityczne
Charakterystyka
Wymagania
Przykłady
Foresight (długofalowy >10-30 lat)
Antycypacja i przygotowanie na tak przewidywalne jak i niszczące trendy; wliczając
przyszłe koszty dzisiejszych decyzji
Stałe
skanowanie
(zbieranie informacji) i
konsultacje;
rozpoznawanie
wzorów;
analiza „słabych sygnałów”; badania prognostyczne
Skanowanie
widnokręgu;
długofalowe
szacunki budżetowe;
planowanie scenariuszy
Planowanie strategiczne (średnio-okresowe: 3-10 lat)
Antycypacja i przygotowanie na przewidywalne trendy; priotetyzacja;
wliczając
przyszłe koszty dzi-
Analiza historycznych
danych; analiza trendów; informacje i analizy rządowe; konsultacje dotyczące warto-
Programy
rządowe;
średniookresowe ramy
budżetowe; planowanie siły roboczej; planowanie przestrzenne
29
Podejmowanie decyzji (krótkoterminowe: 1-2 lata)
siejszych decyzji; zarządzanie ryzykiem
ści i wyborów
i inwestycyjne; strategie innowacji
Szybkość reakcji; rozliczalność;
zdolność
określenie szczebla, na
którym należy podjąć
decyzję
Szybki dostęp do odpowiednich informacji
i analiz; umiejętność
relokacji; znajomość
preferencji interesariuszy
Działania; roczne i
średniookresowe budżety; reakcje na kryzys
Internet
Cykl 10-30 lat foresight
Cykl 3-10 lat –
strategia
Cykl 5 lat –
priorytety
Cykl 1-2 lata –
decyzje
Cykl roczny –
budżet
państwa na
naukę
KLUCZOWE WYZWANIA POLITYKI NAUKOWEJ I INNOWACYJNEJ
Pojęcie stosowane dla opisu konfrontacji decydentów z palącymi i zawikłanymi problemami, takimi np. jak pogodzić rosnące wymagania konkurencyjności opartej na wiedzy z
zapewnieniem bezpieczeństwa socjalnego dla wszystkich obywateli (na szczeblu rządów krajowych) lub też jak jednocześnie otworzyć narodowe programy badawcze oraz
traktować badania naukowe jako źródło krajowej konkurencyjności. Zazwyczaj kluczowe wyzwania wynikają z (narastających stopniowo lub radykalnych) zmian sceny geopolitycznej lub paradygmatów techno-gospodarczych. Kluczowe wyzwania różnią się od
innych problemów polityki, zazwyczaj określanych w terminach „luk”, „barier”, lub
„dysproporcji”, tym, że są one bardziej pilne i mają szersze konsekwencje. Kluczowe wyzwania są rozpoznawane przez >ANALIZĘ POLITYKI oraz przez narzędzia >INFORMACYJNEGO I ANALITYCZNEGO WSPARCIA POLITYKI, takie jak >FORESIGHT i >SKANOWANIE WIDNOKRĘGU, oraz uwzględniane przez >INTERWENCJĘ PUBLICZNĄ.
30
Polityka naukowa i innowacyjna mogą odegrać ważną rolę w radzeniu sobie z takimi
wyzwaniami, jak:
•
•
•
Wzrost gospodarczy i zatrudnienie,
Wyzwania ochrony środowiska, takich jak ograniczenie zmian klimatu i globalnej
emisji gazów cieplarnianych oraz zachowanie różnorodności biologicznej
Wyzwania społeczne, takie jak np. starzenie się społeczeństw, zdrowie,
wykluczenie i nierówności społeczne.
Por. >GLOBALNE WYZWANIA.
Bibliografia
IPP, Contributions to socio-economic objectives, 2014.
KONTEKST TWORZENIA POLITYKI
Kontekst kształtowania polityki odnosi się do zbioru czynników politycznych, społecznych, gospodarczych i kulturowych, które kształtują >PROCES POLITYCZNY . Obejmują
one, między innymi, wpływ interesów; profesjonalizm i kompetencje administracji publicznej, w tym poziom korupcji; dostępność środków pieniężnych, a także ideologie i
przekonania, które sprawiają, że niektóre typy interwencji uznaje się za właściwe a inne
za niemożliwe. Czynniki te różnią się w poszczególnych krajach, gdyż zostały ukształtowane przez historię, oraz zmieniają się w czasie - jako takie , stanowią one wyzwanie dla
polityki międzynarodowej analizy porównawczej i transferu polityki. Są one istotne w
fazie >ANALIZY POLITYKI (wyjaśnianie czynników sukcesu i porażki polityki) i >FORMUŁOWANIA POLITYKI (uwzględnianie barier lub czynników ułatwiających realizację
określonych celów politycznych oraz stosowanie określonych środków) [IPP 2014].
Bibliografia
IPP Innovation Policy Platform, Policy making contexts, 2014-01-16
KRYTERIA DECYZJI W NAUCE
Problem kryteriów decyzji finansowania badań i prac rozwojowych na ich różnych
szczeblach (rządu, przemysłu, uczelni, pojedynczych firm, placówek naukowych oraz
samych badaczy) jest bardzo złożony. Decyzje o podziale funduszy pomiędzy rywalizującymi politykami, programami i projektami badawczymi to kamień węgielny polityki
naukowej. Problem wyboru wyłania się na każdym szczeblu nauki. Czy powinno się
zbudować akcelerator elektronów czy też akcelerator protonów? Czy walcząc z rakiem
powinniśmy w większym stopniu finansować badania nad wirusami czy też badania
nad środowiskowymi substancjami rakotwórczymi? [Ziman 1992]
Unika się podawania reguł ważnych dla różnych krajów i okresów, dyscyplin i sektorów przemysłu. Niemniej, zwraca się m.in. uwagę na następujące problemy.
31
•
•
•
Problem skali podejmowanej działalności. Planując podjęcie realizacji jakiegokolwiek projektu badawczego należy przede wszystkim ustalić, czy istnieje w nim „poziom krytyczny”
zasobów koniecznych dla jego powodzenia.
Problem organizacji badań i prac rozwojowych. Gdy badania mają służyć określonym celom
i użytkownikom, winny one być zorganizowane i prowadzone zgodnie z (zewnętrznymi) celami i w stałej łączności z (przyszłymi) użytkownikami. Udział menadżerów marketingu
w różnych fazach prac B+R znacznie zwiększa prawdopodobieństwo sukcesu projektu.
Problem związku projektu z już istniejącą i dostępną wiedzą. Każdy menadżer powinien
ustalić, czy nie zdobędzie potrzebnej wiedzy szybciej i taniej przeprowadzając text mining
lub nabywając ją od firm konsultingowych, względnie też kupując inną firmę, know-how albo
licencję (praktyki „otwartej innowacji”) [Freeman 1992; Ziman 1992].
Zwraca się uwagę, że, w uproszczeniu, podziałem pieniędzy rządzą trzy zasady. Pierwsza z nich, to inercja. Bardzo trudno zmienić podział pieniędzy na pola badań. System
badań ma w sobie mnóstwo oporu przeciwko zmianom. Istnieje zjawisko inercji systemu
finansowania. Zmiana polegająca na przesunięciu pieniędzy pomiędzy dyscyplinami na
ogół możliwa jest jedynie gdy nowy minister podeprze się wiarygodnym raportem na
początku swego rządu. Radom ds. badań niesłychanie trudno zmienić proporcje między
różnymi dyscyplinami. Druga zasada to „prawo proporcjonalności”, które mówi, że popyt na pieniądze rośnie wraz z liczbą badaczy. Trzecia zasada, równości, głosi, że badacze oczekują równego finansowania nawet gdy potrzeby finansowe ich dyscyplin są nieporównywalne. [Por. van Duinen 2002].
Podkreśla się, że szczególnie trudno oceniać projekty badawcze. Choć na papierze
brzmią one przekonywująco, są z istoty swojej niepewne: bardziej przypominają loterię
niż bezpieczną inwestycję. Wybór pomiędzy nimi jest trudny, gdyż każdy z nich może
wydawać się równie atrakcyjny, a projekt, który nie niesie z sobą ryzyka porażki, nie
jest w ogóle godny poparcia.
Jednym z głównych zagadnień polityki naukowej jest pytanie, czy istnieją ogólne kryteria podejmowania decyzji przy podziale funduszy.
Kryteria ekonomiczne mają zastosowanie jedynie w końcowych stadiach prac rozwojowych; obliczenia kosztów i nakładów dają natomiast tylko niewielką pomoc w badaniach nastawionych na określony cel (mission-oriented R&D) oraz są całkowicie
niewiarygodne w odniesieniu do badań podstawowych i strategicznych (tj. badań podstawowych podejmowanych w nadziei na pomoc w stworzeniu nowego produktu rynkowego). Czy zatem istnieją jakieś jakościowe, racjonalnie uporządkowane
zasady wyboru pomiędzy porównywalnymi projektami badawczymi? Kryteria takie zaproponował w roku 1963 Alvin Weinberg.
Podzielił je na zewnętrzne i wewnętrzne.
Kryteria zewnętrzne odpowiadają na następujące pytania: Czy proponowane badania mają potencjalne zastosowania o dużej wartości społecznej? Czy badania te prowadzą do naprawdę
istotnych ulepszeń istniejących lub przyszłych technik? Czy rozwój pola badawczego, w którym
mieści się projekt, ma istotne następstwa dla rozwoju innych pól i dyscyplin naukowych?
32
Kryteria wewnętrzne odpowiadają na pytania: Czy temat dojrzał do opracowania? Czy jest coś
sensownego do roboty na polu badawczym, z którym się ten temat wiąże? Czy przedmiot pracy
nie jest zbyt banalny lub zbyt wyeksploatowany? Czy proponowany zespół badawczy ma
wystarczające kompetencje?
Kryteria Weinberga, choć bardzo ogólne, dają jednak wartościowe wytyczne dla polityki naukowej.
Dwa pierwsze kryteria zewnętrzne – wartości społecznej i technologicznej – mają największe zastosowanie przy ocenie prac rozwojowych oraz w badaniach nastawionych
na określony cel (mission-oriented R&D). Są one przekonywujące i zrozumiałe dla osób
spoza środowiska naukowego. Mają jednak bardzo ograniczone zastosowanie
przy
ocenie badań podstawowych oraz strategicznych.
Trzecie kryterium zewnętrzne – wartości naukowej – kładzie nacisk na postęp nauki
jako takiej i nie bierze pod uwagę kwestii pożytku badań dla gospodarki i społeczeństwa. Kryterium to wprowadza jednak ważną korektę do – dominującej do lat 1960. –
postawy indywidualizmu uczonych, którzy ograniczali pole swoich zainteresowań do
zakresu swoich ścisłych kompetencji, inne pola badawcze traktując jako "zewnętrzne" i pozbawione znaczenia dla ich własnych badań. Ponieważ rozwój nauki zależy od
krzyżujących się powiązań pomiędzy różnymi specjalnościami badawczymi, kryterium
wartości naukowej jest ważną wskazówką dla strategii rozwoju badań podstawowych.
Kryteria wewnętrzne stosują od dawna recenzenci indywidualnych projektów
badawczych. W przeciwieństwie do kryteriów wewnętrznych, przeznaczonych jedynie
dla znawców danej specjalności, kryteria zewnętrzne opracowano dla grup recenzentów złożonych nie tylko ze specjalistów ocenianej problematyki, ale także z ekspertów sąsiednich pól badawczych oraz z przedstawicieli użytkowników.
Criteria for Scientific Choice. Criteria for Scientific Choice to tytuł artykułu Alvina Weinberga (“Minerva” 1:1963, z. 2, ss. 159-171), uznawanego za klasyczną i najczęściej cytowaną pozycję z badań nad polityką naukową, nazwa debaty sprowokowanej przez ten
artykuł, nazwa publikacji zbierającej głosy w dyskusji, oraz tytuły innych artykułów –
Weinberga i innych uczonych – nawiązujących do jego tez.
Oddziaływanie tez Weinberga (wygłoszonych po raz pierwszy w formie wykładu w roku 1961) było bardzo duże; wywołały one dyskusję prowadzoną na łamach „Minerwy”;
dyskusję tę opublikował w formie książkowej w roku 1968 redaktor naczelny „Minerwy” Edward Shils. Dyskusja o kryteriach nie ograniczyła się do łamów „Minerwy”;
pod wpływem impulsu, jakim był artykuł Weinberga, podjęto ją w wielu krajach na
łamach różnych czasopism. Zasięg dyskusji był tak duży, że doczekała się ona osobnej
bibliografii [Vlachy 1982]. Co więcej, oddziałała silnie na praktykę administracyjną w
różnych krajach; jako przykład bezpośredniego wpływu inicjującego artykułu Weinberga można przytoczyć Information for Reviewers amerykańskiej National Science Foundation. Kryteria Weinberga, które doczekały się kilku przedruków, rozwijano i modyfikowano, a także poddawano formalizacji; dość wspomnieć tu podręcznik UNESCO
Method for priority determination in science and technology (Paryż 1968). Wielokrotnie
do dyskusji włączał się sam jej inicjator, rozszerzając lub komentując swoje propozycje.
33
Dziś kryteria Weinberga stały się dobrem publicznym, weszły do krwiobiegu polityki
naukowej [Weinberg 1991].
Dlaczego sformułowanie kryteriów jest ważne. Aby uzasadnić znaczenie kryteriów Weinberg sięga po kilka argumentów.
Pierwszy argument dotyczy zawodności wyborów dokonywanych przez panele ekspertów.
Raporty dotyczące stanu dyscypliny dokonywane przez uczonych uprawiających tę
dyscyplinę są zawsze do siebie podobne, bez względu na kraj i rodzaj specjalności: dyscyplina jest bardzo obiecująca; jej znaczenie dla kultury, gospodarki, społeczeństwa nie do przecenienia; badacze - wybitni; potrzeby - wielkie; sumy konieczne dla zaspokojenia potrzeb - wysokie; odmowa spełnienia żądań - szkodliwa dla nauki i kraju.
Raporty takie są sygnowane przez czołowe autorytety dyscypliny, co ma być gwarancją
ich wiarygodności oraz zabezpieczeniem przed krytyką: kwestionowanie zawartych w
nich wniosków, mówią autorzy, dowodzi niekompetencji krytyków - tylko uznane autorytety mają dostateczny zakres wiedzy, by ocenić stan i perspektywy dyscypliny, jaką
uprawiają; każda dyscyplina tworzy własny świat, trudny do przeniknięcia dla osób z
zewnątrz.
Choć trzeba się zgodzić, że uznanie prawa do formułowania oceny przez niespecjalistów mogłoby obniżyć obowiązujące w dyscyplinie standardy metodologiczne,
to z drugiej jednak strony opinie ekspertów stają się w ten sposób nieweryfikowalne.
Uczeni stają się świadkami i sędziami w swojej sprawie, co jest niezgodne z zasadami
regulującymi życie publiczne.
Dyscyplina (pole badawcze) może mieć charakter schyłkowy, a liczba publikacji (na
świecie) kurczyć się; badacze mogą być przeciętni; problemy, jakie stawiają - wtórne, a
stosowane koncepcje - zapożyczone; fundusze przeznaczone na jej rozwój (w dużym
stopniu) marnotrawione; odmowa spełnienia żądań - korzystna dla nauki jako całości,
gdyż umożliwiająca skierowanie funduszy na rozwój dyscyplin o większym potencjale
badawczym i lepszych perspektywach.
Opinie uczonych o poziomie, potrzebach i perspektywach dyscypliny, jaką uprawiają,
mogą być weryfikowane za pomocą metod ilościowych (badania bibliometryczne), jak i
jakościowych (przegląd dokonany przez zagranicznych ekspertów).
Nawet jednak łączne zastosowanie obu metod (co pozwoliłoby usunąć "skrzywienia",
jakie każda z nich powoduje) nie dostarczy przesłanek dla decyzji o podziale funduszy
na naukę w skali całego kraju, gdyż w dobie „wielkiej nauki” jakość badań w danej dyscyplinie jest wprawdzie kryterium koniecznym, ale nie wystarczającym.
Modele zarządzania nauką: leseferyzm a sterowanie przez centrum decyzyjne. Drugi argument Weinberga dotyczy zmian charakteru badań naukowych.
Dopóki (tak jak przed II Wojną Światową) posad w nauce było stosunkowo niewiele,
kryteria rekrutacji do zawodu były ostre, potrzeby poszczególnych dyscyplin (w porównaniu z kosztami uprawiania "wielkiej nauki") - umiarkowane, opinie pochodzące od
34
uczonych o potrzebach finansowych uprawianych przez nich dyscyplin miały często moc
wiążącą.
Jak pisze Alvin Weinberg, w „małej nauce” obowiązywał opisany przez Michaela Polanyi`ego [Polanyi 1962] model "rzeczpospolitej uczonych", w której nauką rządzi intelektualny "wolny rynek", polityka naukowa zależy od współgrania tysięcy niezależnych decyzji naukowców, a badania naukowe są prowadzone na zasadach nieplanowanej rywalizacji pomiędzy różnymi rodzajami projektów badawczych, z których każdy domaga
się uznania środowiska naukowego według standardów metodologii nauk.
Opisane tu zasady "rzeczpospolitej uczonych" mogłyby nadal obowiązywać w "małej
nauce" i na poziomie indywidualnych projektów badawczych, pisze Weinberg, a jej regulatorem mogłoby być nadal peer review. Odkąd jednak o wiele więcej funduszy płynie
na finansowanie "wielkiej" niż "małej" nauki, strategiczne decyzje nie powinny zależeć
jedynie od kryterium jakości uprawiania nauki oraz od opinii peers (ekspertów z tej
samej dziedziny). Model leseferyzmu traci tutaj rację bytu; nieodzowne stają się elementy zarządzania przez centrum decyzyjne.
Aby lepiej objaśnić tę kwestię, wprowadza Weinberg rozróżnienie pomiędzy uprawianiem nauki a zarządzaniem nauką.
Uprawianie nauki a zarządzanie nauką. Działalność naukowa obejmuje zarówno uprawianie nauki, jak i zarządzanie nią. Przez uprawianie nauki Weinberg rozumie prowadzenie badań: dokonywanie pomiaru i obserwacji, układanie teorii, interpretowanie i
przekazywanie wyników badań; przez zarządzanie - sztukę wybierania zagadnień wartych zbadania. Inaczej mówiąc, zarządzanie dotyczy kwestii co, uprawianie nauki - jak
badać; administrowanie jest rodzajem strategii, uprawianie nauki - taktyki.
Rozróżnienie pomiędzy administrowaniem a uprawianiem nauki ma zastosowanie na
każdym szczeblu nauki. Każdy uczony musi na własną rękę decydować, jakie badania
powinien podjąć; następnie, musi te badania przeprowadzać. Jest zatem zarówno "praktykiem", jak i "administratorem nauki" w jednej osobie. Suma jego indywidualnych decyzji świadczy o jego naukowym smaku. Dyrektor badań musi decydować, jakie projekty skierować do realizacji, a jakie utrącić. Przedstawiciel rządowej administracji musi
decydować nie tylko, jakie programy wspierać, ale i komu je powierzyć: uniwersytetowi, laboratorium rządowemu czy laboratorium przemysłowemu. Suma oddzielnych
decyzji naukowców, dyrektorów oraz urzędników rządowych określa krajową politykę
naukową.
Rozdział między uprawianiem a administrowaniem nauki powiększa się w miarę:
•
przechodzenia na coraz wyższe szczeble decyzyjne (gdy rozważamy hierarchię
decyzji o nauce);
•
postępu transformacji (od końca II Wojny Światowej) „małej nauki” w „wielką
naukę” (gdy rozważamy historyczny rozwój organizacji nauki).
Typy decyzji o nauce. Decyzje administratorów nauki na szczeblu rządowym Weinberg
dzieli na naukowe i instytucjonalne.
35
Pierwsze polegają na odpowiedzi na pytanie: jak rząd powinien dzielić środki pomiędzy różnymi, często nieporównywalnymi dyscyplinami (np. biologią molekularną a fizyką wysokich energii), a zwłaszcza pomiędzy różnymi gałęziami dyscyplin?
Drugie polegają na odpowiedzi: jak rząd powinien dzielić swoje fundusze pomiędzy
instytuty państwowe, uczelnie i przemysł, tj. pomiędzy różne sektory nauki?
Oprócz administratorów nauki decyzje o nauce podejmuje też społeczeństwo (reprezentowane przez rząd i parlament). Decyzje te dotyczą przede wszystkim wielkości
państwowego budżetu na naukę.
Propozycje Weinberga. Odpowiednio do tych trzech postawionych tutaj pytań Weinberg rozwija najogólniejsze kryteria pomocne w ustaleniu na nie odpowiedzi.
Problem decyzji naukowych podejmuje w artykule Criteria for Scientific Choice, "Minerva" 1:1963, z. 2, s. 159-171.
Problem decyzji instytucjonalnych - w artykule Criteria for Scientific Choice II: The Two
Cultures, "Minerva" 3:1964, z. 1, s. 3-14.
Problem decyzji dotyczących nakładów na naukę z budżtu państwa - w artykule The
Philosophy and the Practice of National Science Policy [w:] Decision Making in National
Science Policy, ed. A. de Reuck, M. Goldsmith, J. Knight, Londyn 1968, s. 26-43.
Celem artykułów Weinberga jest pomoc w konceptualizacji debaty nad postawionymi
tu pytaniami, a nawet więcej, próba sformułowania kryteriów służących ustaleniu na
nie odpowiedzi.
Autor problem zasad podziału państwowych funduszy na naukę rozpatruje z filozoficznego punktu widzenia: szuka ogólnych, czysto racjonalnych kryteriów, które mogłyby być stosowane we wszystkich krajach. Zdaje sobie przy tym sprawę, że oprócz logiki na decyzje o nauce wielki wpływ ma też historia (ciążenie tradycji) i polityka
(układ sił i gry interesów, w środowisku naukowym i poza nim).
Kryteria naukowe (dotyczące podziału funduszy pomiędzy dyscyplinami naukowymi).
Często w sytuacji wymagającej wyboru administrator nie zna wszystkich opcji i przez
to nie może dokonać wyboru w sposób przemyślany. Inaczej jest z decyzjami o nauce,
które najczęściej podejmuje się znając wszystkie opcje. Zobowiązuje to do dokonania
wyboru w sposób systematyczny.
Ponieważ tak wiele dyscyplin - pisze autor - zalicza się obecnie do "wielkiej nauki" (a
zatem wymagają one wysokich nakładów, skomplikowanych urządzeń oraz wielkich
zespołów badawczych), strategiczne wybory pomiędzy dyscyplinami powinny być
przeprowadzane w sposób możliwie świadomy oraz oparty na wyraźnie wyeksplikowanych przesłankach.
Weinberg proponuje dwa kryteria administracyjnych decyzji o podziale funduszy na
naukę - wewnętrzne i zewnętrzne (te ostatnie dzieli jeszcze na kryteria wartości technologicznej, znaczenia społecznego oraz znaczenia naukowego).
Kryteria wewnętrzne odpowiadają na pytania:
- czy pole badawcze jest dojrzałe?
36
- czy naukowcy są rzeczywiście kompetentni?
Na oba te pytania mogą odpowiedzieć jedynie eksperci, którzy bezpośrednio znają
swoje pole badawcze oraz pracujących na nim badaczy. Kryteria wewnętrzne stosują
najczęściej panele decydujące o grantach; pierwsze pytanie, jakie sobie zadają, brzmi:
jak kompetentnym uczonym jest wnioskodawca?
Gdy te kryteria wewnętrzne nie są spełnione, nie ma sensu stosować następnych, gdyż
wysiłek badawczy będzie prawdopodobnie bezowocny.
Kryteria zewnętrzne wyrastają spoza nauki lub spoza poddawanego ocenie pola badawczego. Podczas gdy intencją kryteriów wewnętrznych jest ocena, czy prowadzona
działalność naukowa jest efektywna pod względem naukowym, intencją kryteriów zewnętrznych jest ocena, czy dane badania, jeśli zakończą się powodzeniem, będą użyteczne.
Kryteria zewnętrzne: znaczenie technologiczne
Kwestia, czy cel technologiczny jest sam w sobie wartościowy, musi być rozstrzygnięta
częściowo dzięki ocenie danej technologii:
- czy dana technologia jest dojrzała do eksploatacji?
- czy badacze, którzy ją rozwijają, są kompetentni?,
częściowo zaś dzięki odpowiedzi na pytanie:
- czy cele społeczne, którym ma służyć technologia, są same w sobie wartościowe?
Przykładowo, badania nad plazmą wysokich temperatur miały wielkie znaczenie
technologiczne, odkąd mogły prowadzić do kontrolowanego połączenia energii.
Bardzo często na pytania te trudno odpowiedzieć, pisze Weinberg, a czasami odpowiada
się na nie niewłaściwie.
Kryteria zewnętrzne: znaczenie społeczne
Innym zewnętrznym kryterium jest znaczenie społeczne, czyli zastosowanie badań w
działaniach służących rozwojowi gospodarczemu i społecznemu lub pomnażaniu wartości cenionych przez społeczeństwo.
Przykładowo, ekonomia może być wysoko ceniona, gdy proponuje środki zaradcze pozwalające osiągnąć pełne zatrudnienie, wzrost gospodarczy oraz stabilne ceny.
Kryteria zewnętrzne: znaczenie dla nauki
Oba wymienione wyżej kryteria zewnętrzne - znaczenia technologicznego oraz znaczenia społecznego - pochodzą spoza nauki; odnoszą się one do nauk stosowanych, oraz do
tych badań podstawowych, które są zorientowane (przynajmniej ogólnie) na pewien
cel technologiczny lub społeczny. U ich podstaw leży praktyczna użyteczność; stosując
te kryteria, wspieramy projekty badawcze o społecznej lub technologicznej użyteczności.
W przeciwieństwie do nich, trzecie kryterium wyrasta wewnątrz nauki, ale na zewnątrz ocenianego pola badawczego; tylko to kryterium stosuje się jedynie do nauk
37
podstawowych. Miarą wartości naukowej pracy badawczej w naukach podstawowych
winien być zakres, w jakim wpływa ona i oświetla sąsiednie dyscypliny naukowe.
Aby lepiej uzasadnić swoje propozycje, Weinberg powołuje się na opinię Johna von
Neumanna:
„W miarę jak matematyka odpływa daleko od swych empirycznych źródeł, lub więcej,
jeśli jest ona drugim lub trzecim pokoleniem tylko pośrednio inspirowanym przez
idee pochodzące z rzeczywistości, narażona jest na bardzo poważne niebezpieczeństwo. Staje się ona coraz bardziej i bardziej czystą "sztuką dla sztuki". Nie musi to być
złe, jeśli tylko dyscyplina jest otoczona przez współzależne tematy, posiadające nadal
bliższe empiryczne powiązania lub jeśli dyscyplina pozostaje pod wpływem człowieka
o nadzwyczajnie rozwiniętym smaku. Istnieje jednak wielkie niebezpieczeństwo, że
przedmiot będzie rozwijany po linii najmniejszego oporu, strumień, daleko od swego
źródła, będzie się dzielił na niezliczoną ilość mało znaczących strumyczków, i w rezultacie dyscyplina stanie się niezorganizowaną masą szczegółów i zagmatwań. Innymi
słowy, daleko od swych empirycznych źródeł lub po usilnym hodowaniu abstraktów,
przedmiotowi matematyki zagraża degeneracja. W fazie narodzin styl jest zwykle klasyczny; oznaki przechodzenia w barok są objawem nadchodzącego niebezpieczeństwa
[Von Neumann 1946].”
Bardzo wiele przykładów świadczy, pisze Weinberg, że uwagi von Neumanna o matematyce mogą odnosić się także do nauk empirycznych. Podstawowe nauki empiryczne,
które zbytnio oddalają się od sąsiednich nauk, w których są osadzone, mają tendencję do
barokizacji. Odpowiedniość (relevance) w stosunku do innych nauk jest przeto ważną
miarą naukowej wartości każdego pola nauk podstawowych. Trzeba przy tym stwierdzić, że pewne specjalności dają większy wkład w zrozumienie świata niż inne. Pole
badawcze, które pełni rolę „wąskiego gardła” w zrozumieniu innych pól, zasługuje na
większe wsparcie niż pola, które są izolowane od pozostałych. Odkrycia, które uznano
za najważniejsze w nauce, jak m.in. odkrycie promieni X, najsilniej zarazem oddziałały
na otaczające dziedziny. Weinberg proponuje zatem, aby znaczenie naukowe pola badawczego było mierzone wielkością 1)wkładu, 2)pomocy w zrozumieniu zagadnień,
3)wpływu na wzrost spójności sąsiednich pól.
Kryteria instytucjonalne (dotyczące podziału funduszy pomiędzy różnymi sektorami
nauki). Na jakich z kolei kryteriach powinniśmy oprzeć się dokonując podziału funduszy
państwowych pomiędzy różnymi sektorami nauki?
Względnie prosty jest podział funduszy pomiędzy laboratoriami rządowymi. Laboratoria te są zwykle powoływane nie tyle dla uprawiania określonych pól badawczych, co
dla pełnienie społecznych misji (w wyjątkowych przypadkach - badań nad energią
atomową lub nad przestrzenią kosmiczną zachodzi zbieżność pomiędzy misją a polem
badawczym). Podział funduszy pomiędzy nimi następuje najczęściej
→ zgodnie ze strukturą rządu, czyli strukturą organów centralnych, którym podlegają laboratoria;
38
→ nie tyle według dyscyplin, ile według różnych celów polityki państwowej, takich
jak m.in. rozwój energii nuklearnej lub wzrost innowacyjności gospodarki.
Wysokość dotacji zależy od wagi przypisywanej przez rząd każdemu z celów.
Podział według priorytetów państwa i zgodnie ze strukturą rządu jest łatwiejszy i bardziej naturalny niż podział pomiędzy pola badawcze. Pola badawcze (inaczej niż laboratoria) są abstrakcjami i nie posiadają aparatu do pozyskiwania pieniędzy.
W przeciwieństwie do podziału funduszy wewnątrz sektora państwowego, w wielu
krajach duże problemy stwarza podział rządowych dotacji pomiędzy sektorem państwowym a sektorem szkolnictwa wyższego.
Weinberg uważa, że przed przystąpieniem do racjonalizacji systemu podziału funduszy pomiędzy uczelnie i laboratoria, powinno się najpierw odpowiedzieć na pytanie: co
jest podstawowym celem obu tych instytucji, tak różnych lecz uzupełniających się?
Według autora głównym celem laboratoriów (oprócz kilku ustanowionych dla uprawiania takich dziedzin wielkiej nauki, jak fizyka wysokich energii lub badania kosmiczne) jest wykorzystywanie nauki i techniki dla rozwiązywania problemów społecznych,
podczas gdy głównym celem uczelni jest kształcenie. Nie oznacza to, że w zakres misji
uniwersytetów nie wchodzą zadania rozwoju wiedzy lub że laboratoria rządowe nie
powinny uczestniczyć w kształceniu lub uprawianiu badań podstawowych. Niemniej
Weinberg uważa, że gdziekolwiek pojawia się konflikt pomiędzy laboratorium lub
uniwersytetem, przede wszystkim powinno się brać pod uwagę misję instytucji pozostających ze sobą w konflikcie.
W chwili gdy uzgodni się w ten sposób podstawowy cel laboratorium rządowego i uniwersytetu, należy postawić następne pytanie: Jak wiele badań podstawowych potrzeba w laboratoriach rządowych dla pełnienia ich misji - tzn. rozwiązywania wielkich
problemów, postawionych przez rząd; i jak wiele badań podstawowych potrzeba na
uczelniach dla pełnienie ich misji, tj. kształcenia?
W wypadku laboratorium rządowego odpowiedź na pytanie brzmiałaby: "względnie
stała część budżetu przeznaczonego dla osiągnięcia (konkretnego) celu końcowego";
wielkość owej części powinna być przedmiotem dyskusji pomiędzy laboratorium a
agencją, której ono podlega, i zależeć od oceny wagi badań podstawowych dla realizacji
zadania, nałożonego laboratorium przez agencję. Nie oznacza to, pisze Weinberg,
umniejszania znaczenia badań podstawowych w laboratoriach: pełnią one rolę okna na
całą naukę oraz zapewniają atmosferę i standard badań, których często brakuje w laboratoriach ograniczonych do uprawiania jedynie badań stosowanych.
W wypadku uniwersytetu za dobry punkt odniesienia przy ustalaniu pożądanego poziomu badań podstawowych uważa autor liczbę absolwentów.
Weinberg jest przy tym zdania, że badania podstawowe w laboratoriach rządowych
powinny być rozważane (i finansowane) oddzielnie w stosunku do badań podstawowych uprawianych na uczelniach, skoro cele obu instytucji są różne.
39
A zatem, autor proponuje rozwiązanie postawionego problemu przez odniesienie go do
celu instytucji (zakładając, że cele te są jasno określone).
Kryteria oceny wielkości funduszy na naukę płynących z budżetu państwa. Na jakich
kryteriach, wreszcie, powinniśmy oprzeć się oceniając wielkość nakładów na naukę z
budżetu państwa (w przeciwieństwie do innych pozycji budżetowych, takich jak edukacja, zdrowie publiczne, pomoc społeczna i inne)?
Zdaniem Weinberga powinno się tu zastosować podobne kryteria, jak przy ocenie podziału funduszy pomiędzy współzawodniczące dyscypliny.
Naukowcy lubią wierzyć, pisze autor, że uprawianie nauki jest najwyższym dobrem
społecznym, lecz opinia ta wcale nie jest sama przez się zrozumiała. Społeczeństwo wcale nie jest zobowiązane wspierać naukowców, nawet tych najlepszych, bardziej niż pisarzy lub artystów. Zwiększanie liczby naukowców ponad rozsądne granice wcale nie
musi leżeć w interesie społecznym; rozwijając się, instytuty medyczne i prawnicze mogą
odciągać od praktyki zawodowej najzdolniejszych absolwentów uniwersytetów. Nauka
powinna szukać społecznego wsparcia na innej podstawie niż tylko dlatego, że jest dojrzała oraz uprawiana kompetentnie; jest niesłuszne, gdy naukowcy oczekują od społeczeństwa funduszy na badania tylko dlatego, że są one dla nich wspaniałą rozrywką.
Poszukując usprawiedliwienia dla finansowania nauki, pisze Weinberg, w sposób nieunikniony rozważamy zewnętrzne kryteria ważności nauki - zewnętrzne w stosunku do
nauki w ogóle lub w stosunku do danej dyscypliny.
Społeczeństwo (reprezentowane przez parlament, środki masowego przekazu, opinię
publiczną) wspierając naukę zakłada, że jest ono przedsięwzięciem prowadzonym w
sposób kompetentny i odpowiedzialny. Jest usprawiedliwione, gdy szuka uzasadnień
dla swych nakładów na naukę.
Społeczeństwo oczekuje od nauki, by w jakiś sposób służyła pewnym celom społecznym, leżącym poza nauką. Oceniając rolę nauki w stosunku do innych dziedzin aktywności, stosuje ono wobec niej kryteria pochodzące spoza niej samej (ogólnie mówiąc,
kryteria dotyczące wartości społecznych).
Weinberg argumentuje, że problem, jaką część budżet państwa powinien przeznaczać na
naukę, jest źle postawiony, gdyż pojęcie "nauki" (jako takiej) jest mylące; nauki podstawowe i nauki stosowane nie powinny być traktowane jako konkurenci do tych samych
funduszy, gdyż ich racje bytu są zdecydowanie różne.
Nauki stosowane uprawia się, pisze autor, dla osiągnięcia pewnych celów leżących
zwykle poza nauką. Gdy decydujemy, jakie fundusze powinniśmy przeznaczyć na realizację projektu badawczego w naukach stosowanych, choćby implicite oceniamy, czy cel
ten możemy lepiej i szybciej osiągnąć dzięki badaniom naukowym, czy też w inny sposób. Badania podjęte dla uzyskania konkretnego, uznanego za pożądany, celu, powinniśmy finansować z funduszy przeznaczonych na realizację tego celu, a nie z "budżetu
nauki". Jedynie badania naukowe prowadzone dla osiągnięcia celu leżącego wewnątrz
samej nauki powinny być finansowane z budżetu nauki. Rozwiązanie to, pisze autor,
miałoby tę wartość, że pozwoliłoby na lepszą kontrolę badań w laboratoriach państwo40
wych; inicjowane dla uzyskania konkretnego celu, badania te mają z czasem tendencję
do autonomizacji.
Autor ma jednak świadomość, że rzeczywistość nie jest aż tak prosta, jak w przedstawionym przez niego schemacie.
Po pierwsze, nauki podstawowe i stosowane rywalizują między sobą o wykwalifikowany personel; jakiekolwiek decyzje podjęte na rzecz jednych, mają więc konsekwencje
dla poziomu i możliwości drugich.
Po drugie, cele każdej z gałęzi badań stosowanych mają tendencję do rozpraszania się.
Każda z wielkich "zorientowanych na misję" agencji rządowych inicjuje badania po to,
aby osiągnąć pewien konkretny cel. Jednakże, w miarę upływu lat, cel ten staje się coraz
bardziej mglisty, a badania prowadzone są w coraz większym stopniu dlatego, że są interesujące same dla siebie.
Po trzecie wreszcie, motywy podejmowania badań podstawowych rzadko wynikają wyłącznie z czystych zainteresowań naukowych. Obok pobudek wewnętrznych, które
nasuwa sama logika sytuacji problemowej (uczony kieruje się często poczuciem estetycznym, szuka intelektualnego porządku, jest zainteresowany nie tyle poznaniem
odpowiedzi, co sprawdzeniem, czy da się ją uzyskać), źródłami inspiracji dla niego są
też sąsiednie dyscypliny, nauki stosowane, otoczenie.
Mimo tych wszystkich zastrzeżeń Weinberg uważa, że proponowana przezeń zasada,
aby finansować badania stosowane nie z budżetu nauki, a z funduszy przeznaczonych
na rozwój tych dziedzin życia gospodarczego i społecznego, w którym mają one zostać wdrożone, jest słuszna, gdyż pozwala na ich lepszą kontrolę.
Gdy idzie o kwestię, jaka część funduszy dziedzinowych powinna być kierowana na badania naukowe, Weinberg sądzi, że jest to problem, którego nie mogą rozstrzygać sami
uczeni. Uczeni zapytywani, jak należy rozwiązać złożone problemy społeczne z reguły
odpowiadają, że dzięki zwiększeniu zakresu prowadzonych badań (podobnie jak fizycy
zapytywani o priorytety w nauce, postulują więcej fizyków, a biologowie więcej biologów). Przecenianie możliwości badań naukowych jako techniki rozwiązywania trudnych kwestii społecznych nie ma jednak więcej racji niż niedocenianie ich. Tak więc,
podobnie jak personel decydujący o finansowaniu pewnej dyscypliny naukowej powinien składać się z przedstawicieli sąsiednich dyscyplin, tak i panel decydujący o wielkości funduszy na naukę winien składać się zarówno z uczonych, jak i z zainteresowanych badaniami przedstawicieli innych dziedzin życia społecznego.
Gdy idzie o kwestię, w jakim zakresie finansować z budżetu państwa nauki podstawowe, tj. nauki, których potrzeby według Weinberga nie da się uzasadnić inaczej niż argumentem, że zaspokajają one ciekawość, stanowisko autora jest następujące.
Niektóre fragmenty nauk podstawowych są bezpośrednio ważne dla badań stosowanych; powinny być one finansowane z funduszy nauk stosowanych; w skali całego kraju, zawsze wtedy, gdy badania podstawowe wiążą się ze stosowanymi, winny być one
traktowane jako narzuty na kosztach rozwoju nauk stosowanych.
41
W odniesieniu do pól badawczych bardziej odległych od zagadnień nauk stosowanych,
rozwijanych jedynie dlatego, że są interesujące, powinny być one (podobnie jak muzyka,
literatura czy film) finansowane jako gałąź kultury.
Nie wolno jednak zapominać, że nawet najbardziej odległe od praktycznych zastosowań
specjalności warunkują poziom badań w pozostałych naukach podstawowych i stosowanych oraz są współzależne od całości wiedzy naukowej.
Patrząc jeszcze ogólniej można by traktować badania podstawowe jako narzuty na
kosztach całego krajowego wysiłku w dziedzinie nauki i techniki.
Podsumowując, Alvin Weinberg postawił na początku pytanie, na jak wiele "nauki jako
takiej" może sobie społeczeństwo pozwolić. Rozwijając to pytanie, autor dokonywał kolejnych redukcji nauki, która współzawodniczy o publiczne fundusze z innymi dziedzinami życia.
Po pierwsze, sprowadził koszty nauk stosowanych do narzutów na kosztach zadań, którym mają one służyć;
Po drugie, sprowadził koszty mission-related basic science do narzutów na kosztach mission-related applied science;
Po trzecie, sugerując, aby "czyste" badania podstawowe traktować jako narzuty na
kosztach całego wysiłku w dziedzinie nauki i techniki.
Weinberg nie odrzuca w ten sposób poglądu o naukach podstawowych jako części kultury (w świetle których współzawodniczyłyby one o fundusze z innymi rodzajami działalności kulturalnej). Uważa jednak, że traktowanie ich w kategorii narzutów na kosztach realizacji zadań służących praktyce lepiej uzasadnia ich żądania, niż traktowanie
na podobieństwo sztuki.
Komentarze dotyczące Kryteriów… z punktu widzenia zarządzania nauką. Criteria for
scientific choice obrosły wieloma komentarzami, zarówno Weinberga, jak i uczestników
debaty.
1. Istota trudności, przed jakimi staje administrator nauki
Administracja musi decydować nie po, a przed podjęciem badań. Ewaluacja prospektywna jest wszelako o wiele trudniejsza od ewaluacji retrospektywnej. Dopiero w następstwie dokonanych odkryć okazuje się bowiem, że pewna dyscyplina może mieć dalekosiężne zastosowania. Kto był na tyle mądry, pisze Weinberg, by przewidzieć, że odkrycie magnetycznego nuklearnego rezonansu Purcella i Blocha stanie się ważnym narzędziem analitycznym w biochemii lub że studia radiochemiczne Hahna i Strassmanna
będą prowadzić do energii nuklearnej? Kto był w stanie przewidzieć zastosowania lasera? Wypadki takie występują jednak zdaniem Weinberga rzadko, a decyzje a priori
muszą być podejmowane stale.
2. Główna wartość kryteriów
Kryteria decyzji wówczas są najbardziej użyteczne, gdy mają zastosowanie do (pozornie) nieporównywalnych sytuacji. Takie właśnie kryteria potrzebne są administrato-
42
rom, dzielącym fundusze pomiędzy różnymi dyscyplinami. Weinberg sądzi, że jego propozycje zaspakajają te potrzeby.
3. Zastosowania kryteriów
Jedno z możliwych zastosowań swoich kryteriów (zwłaszcza kryterium znaczenia dla
nauki) widzi autor w dyskusjach nad możliwością zaprzestania dotacji dla schyłkowych
pól badawczych.
Inne - w panelach oceniających wnioski o granty.
Panel, pisze Weinberg, jest władny ocenić stopień kompetencji badaczy przedkładających wnioski o dotacje: jego wszyscy członkowie są ekspertami i orientują się, kto jest
dobrym badaczem w danej specjalności. Lecz właśnie dlatego, że panel składa się z
ekspertów reprezentujących tylko pewne punkty widzenia, mniej nadaje się do tego, by
orzekać, czy dany projekt badawczy zasługuje na uwagę z punktu widzenia całej nauki.
W ramach danego układu odniesienia możemy udzielać odpowiedzi jak, ale nie dlaczego. Panel ekspertów mógłby zostać ulepszony, gdyby na jego posiedzeniach wartość projektów badawczych oceniali także przedstawiciele sąsiednich pól badawczych. Panel
oceniający fizykę wysokiej energii winien zatem obejmować fizyków niskiej energii; w
skład panelu oceniającego fizykę nuklearną powinni wchodzić fizycy wysokiej energii,
a jeśli to możliwe, także fizycy energii konwencjonalnej oraz astrofizycy.
4. Ograniczenia w stosowaniu kryteriów
Strategiczne decyzje w sprawach nauki są z konieczności decyzjami politycznymi, pisze
Weinberg. Podobnie jak decyzje prezydenta Kennedy`ego podróży na księżyc i Regana
rozwoju Strategicznej Inicjatywy Obronnej miały charakter polityczny i mimo olbrzymiego wpływu zaangażowania potencjału naukowego zostały podjęte bez konsultacji
z doradcami naukowymi, tak i obecnie, pisze (w roku 1992) Weinberg, decyzje dotyczące Superconducting Super Collider oraz Human Genome Project zostaną zapewne podjęte
w podobnym trybie. W ostateczności, będą one zależały od tego, jak politycy określają
priorytety społeczne i w jakim stanie jest budżet państwa [Weinberg 1963; 1964;
1967a; 1967 b; 1984; 1986; 1991].
Bibliografia
Alvin Weinberg, Criteria for Scientific Choice II: The Two Cultures, "Minerva" 3:1964, z. 1, ss. 3-14.
Alvin Weinberg, Criteria for Scientific Choice, "Minerva" 1:1963, z. 2, ss. 159-171.
Alvin Weinberg, Origins of Criteria for Scientific Choice, “Current Contents” no. 32 August 12, 1991.
Alvin Weinberg, Revisiting criteria for scientific choice, "Czechoslovak Journal of Physics", 36: 1986, ss.
195-199.
Alvin Weinberg, The Philosophy and the Practice of National Science Policy w: Decision Making in National Science Policy, ed. A. de Reuck, M. Goldsmith, J. Knight, Londyn 1968, ss. 26-43.
Alvin Weinberg a, The Problems of Big Science: Scientific Communication w: Reflection on Big Science, Oxford 1967, ss. 39-64.
Alvin Weinberg b, Universities and Disciplines, w: Reflection on Big Science, Oxford 1967, ss. 145-163.
43
Alvin Weinberg, Values in Science: Unity sas a Criterion of Scientific Choice, "Minerva" 22:1984, z. 1, ss. 112.
Christopher Freeman, Science and economy at the national level, w: The Economics of Hope, Essays on
technical change, economic growth and the environment, London-New York 1992, ss. 31-49.
Criteria for Scientific Development, Public Policy and National Goals: A Selection of Arrticles from Minerva,
Cambridge 1968.
Criteria for evaluation, a generation later w: The evaluation of scientific research, Chichester 1989, ss. 3-15;
Eugene Garfield, This Week`s Citation Classic, “Social Science Current Contents” 1991 nr 32, s. 10.
Jan Vlachy: Bibliographies of Scientometric Literatures - Priorities, Scientific Choice, CSAZ-URVS, Praga
1982.
John von Neumann, The mathematician w: The works of the mind, ed. R.B. Heywood, Chicago 1947, ss.
196.
John Ziman An introduction to science studies. The philosophical and social aspects of science and technology, Cambridge 1992.
Michael Polanyi, The Republic of Science: Its Political and Economic Theory, "Minerva", 1:1962, ss. 54-73.
Reider van Duinen, Some reflections concerning the distribution of funds between disciplines, w: Science between evaluation and innovation: a conference on peer review, DFG 2002.
Tomas Hellström, Merle Jacob, Revisiting ‘Weinberg’s Choice’: Classic Tensions in the Concept of Scientific
Merit, Minerva (2012) 50 ss. 381–396.
KSZTAŁTOWANIE POLITYKI
[Policy-making]
Ogólny termin, używany jako synonim >procesu polityki, obejmującego kolejne >cykle
polityki.
Wyróżnia się oś pionową oraz oś poziomą kształtowania polityki. Oś pionowa oznacza
relacje hierarchiczne, typu >pryncypał-agent, podczas gdy oś pozioma – relacje negocjacji, targowania się i perswazji stosowanych w ustalaniu >agendy polityki oraz podczas
>formułowania polityki.
Bibliografia
Craig Matheson, Policy Formulation in Australian Government: Vertical and Horizontal Axes, “Australian
Journal of Public Administration” Vol. 59, Issue 2, ss. 44–55, June 2000.
LOGIKA INTERWENCJI
Logika interwencji (ang. logic of intervention, znana również jako model logiczny, ang.
logic model lub matryca programowania, ang. program matrix) to narzędzie stworzone
przez Martina Quigley stosowane najczęściej przez menedżerów i ewaluatorów programów do oceny skuteczności programu: diagram lub macierz pokazujące serię oczekiwanych następstw, przyczynowo-skutkowych powiązań pomiędzy działaniami a bezpośrednimi i długofalowymi efektami polityki. Modele logiczne to graficzne przedstawienia
zasadniczych elementów programu, a zwłaszcza logicznych relacji między zasobami,
działaniami, produktami (rezultatami), efektami i wpływem programu. Zachęcają one do
44
systematycznego myślenia o programie i jego założeniach bazowych, a do pewnego
stopnia także o innych czynnikach zewnętrznych mających wpływ na osiągnięcie celu.
Ułatwiają identyfikację powiązań pomiędzy elementami programu i mogą być stosowane do identyfikacji przyczynowości i naświetlanie luk. Modele logiczne mogą służyć jako
idealny przewodnik do planowania, monitorowania i ewaluacji. Logikę interwencji stosuje się szczególnie w >Ocenie Wpływu (ex ante i ex post) oraz w Ewaluacji Polityki (ex
ante, mid-term i ex post).
Istnieje wiele sposobów, wg którym można ująć modele logiczne. Celem budowy modelu
logicznego jest ocena „jeśli-to” relacji między elementami programu: jeśli są dostępne
środki dla realizacji programu, to następnie działania mogą być realizowane, jeżeli działania takie są realizowane pomyślnie, to następnie można oczekiwać takich to a takich
rezultatów, efektów i oddziaływań:
Wkład
Działania
Rezultaty
Efekty
Wpływ
Modele logiczne najczęściej stosuje się na etapie ewaluacji programu (ex ante i ex post),
można je jednak stosować podczas planowania i realizacji. W najprostszej postaci model
zawiera cztery części:
Wkład
Działania
Rezultaty
Efekty i wpływy
Jakie zasoby przeznacza
się na realizację programu
Jakie działania realizuje
się w ramach programu?
Co się wytwarza dzięki
tym działaniom?
Zmiany lub korzyści
wynikające z programu
Np. pieniądze, personel,
urządzenia
Np. szkolenia
Np. podręczniki, warsztaty
Np. wzrost kompetencji
Logic 2014
W bardziej rozwiniętej formie:
Potrzeba
Wpływ
Efekt
Cel/zadanie
Wkład
Działania
Produkt
45
Zalety modelu logicznego to:
•
•
•
•
•
•
Przejrzystość wskaźników, metod i założeń
Zachęta do oceny postępów realizacji programu i podejmowania działań naprawczych
Zachęta do aktywnego udziału przez angażowanie interesariuszy w wyjaśnieniu
celów i projektowaniu działań
Dobre praktyki i dostępna literatura
Pomoc w przygotowaniu i zarządzaniu planów operacyjnych [Monitoring 2008].
Pomoc w systematycznym myśleniu o różnych elementach programu oraz o powiązanich między nimi [RAND Europe 2013].
Wady to:
•
•
•
•
•
•
•
Ma ograniczoną wartość, jeśli stosuje się go w izolacji
Założenie przyczynowości może być słabo udokumentowane
Czasami trudno uwzględnić nieoczekiwane zdarzenia
Potrzebuje szkoleń / wiedzy do skutecznego projektowania i wykorzystywania
Jeśli nie aktualizowany w trakcie realizacji, może nie odzwierciedlać zmieniających się warunków [Monitoring 2008].
Nie chwyta sytuacji kontrfaktycznych. Nie pokazuje, co by się stało bez interwencji lub gdyby inna interwencja została wdrożona.
Modele logiczne są liniowe i mogą w związku z tym przegapiać pętle sprzężenia
zwrotnego i nie odzwierciedlać uczeniu się podczas realizacji inicjatyw [RAND
Europe 2013].
Bibliografia
Chistopher Pollit and Geert Bouckaert, Public Management Reform, Oxford University Press 2000.
E. Geisler, Integrated Figure of Merit of Public Sector Research Evaluation, “Scientometrics” vol. 36 1996 no.
3
Erik Arnold, Ken Guy, Technology diffusion programmes and the challenge for evaluation, w: Policy evaluation in innovation and technology. Towards the best practices, OECD 1997.
European Commission (2002), An RTD Evaluation Toolbox.
European Commission (2004), Evaluating EU Activities – A Practical Guide for the Commission Services,
Luxembourg: Office for Official Publications of the European Communities.
Evaluating socio-economic programmes. Glossary of 300 concepts and technical terms, vol. 6, European
Commission, Luxembourg, 1999.
Henri Delanghe, Peter Teirlinck, Optimizing the Policy Mix by the Development of a Common Methodology
for the Assessment of (Socio-)Economic Impacts of RTDI Public Funding. Literature Review, December 2013.
Ken Guy, Beyond Socio-economic Impact Evaluation: The challenge for the next millennium, w: Socioeconomic Impact Evaluation Workshop, Helsinki 26-27 November 1999, Helsinki 2000.
Logic model, Wikipedia 2014
RAND Europe, Measuring research A guide to research evaluation frameworks and tools, July 2013
The Monitoring and Evaluation Handbook. Prepared by the IFC Advisory Services Business Enabling Environment Business Line in association with GTZ and DFID, June 2008.
46
MAPA DROGOWA WIELKIEJ INFRASTRUKTURY BADAWCZEJ
W ostatnich latach szczególną popularność zyskała instytucja mapy drogowej, czyli
>planów strategicznych sporządzanych wspólnie przez naukowców i polityków, pod
egidą tych ostatnich, z wyraźnie określonymi celami, procedurami i efektami.
Rola naukowców w tworzeniu „map drogowych” jest koncepcyjnie prosta, chociaż w
praktyce bywa trudna i czasochłonna. Zazwyczaj polega ona na rozległych oddolnych
konsultacjach prowadzących do trudnych wyborów między konkurencyjnymi projektami. Rola polityków pracujących w administracji rządowej jest zupełnie inna. W procesie
tworzenia planów decydenci muszą często wprowadzać problemy i >priorytety pozanaukowe, w tym: (1) >cele polityczne i społeczne, takie jak zrównoważony rozwój,
ochrona środowiska, bezpieczeństwa energetycznego, budowanie potencjału (w krajach
rozwijających się) (2) cele krajowe i/lub regionalne, w tym rozwoju i zmiany charakteru
istniejącej infrastruktury (np. dużych laboratoriów i ośrodków badawczych), (3) potrzeby związane z innowacją, konkurencyjnością gospodarczą, rozwojem technologii i
tworzeniem nowych miejsc pracy. Wymienione względy społeczne, polityczne i gospodarcze mają wysoki priorytet, dlatego niektóre z istotnych infrastruktur badawczych
buduje się nawet jeśli nie zostały one wybrane przez naukowców. Cele planów bardzo
się różnią. Tworzenie map drogowych jest oznaką przejścia do nowych zasad >kształtowania polityki >wielkiej infrastruktury badawczej, odmiennych od stosowanych dawniej, gdy propozycje dużej infrastruktury rozpatrywano oddzielnie, ulegając lobbingowi
silnie zmotywowanych uczonych lub środowisk naukowych. (Por. też >Partycypacyjne
Tworzenie Polityki Naukowej). Niektóre Mapy to szerokie „deklaracje wizji”, mające na
celu pobudzić dyskusję o przyszłych projektach, podczas gdy inne wnikają głęboko w
szczegóły konkretnych propozycji, opierają się na starannie sformułowanych ocenach, i
przesądzają o losach głównych inicjatyw w zakresie infrastruktury. W rzadkich przypadkach Mapa staje się planem działań, tzn. jest ona traktowana jako lista projektów,
które otrzymają finansowanie i będą realizowane zgodnie z opisem. Jednak częściej Mapa Drogowa odzwierciedla intencje konsensusu zarówno polityków jak i naukowców.
Klasyfikując i porównując Mapy Drogowe bierze się pod uwagę następujące parametry:
Zakres naukowy. W niektórych przypadkach proces tworzenia planów dotyczy infrastruktury z wielu nie pokrywających się dziedzin nauki. Najbardziej znany przykład to
Mapa Drogowa Forum Strategii Europejskiej Infrastruktur Badawczych (ESFRI). Kiedy
indziej, zakres naukowy Mapy odzwierciedla mandat agencji. W wielu przypadkach bierze się pod uwagę pojedynczą dziedzinę nauki lub też pojedynczy ważny problem badawczy. Coraz większą interdyscyplinarność badań prawdopodobnie doprowadzi do
większej liczby przypadków planów opartych na ocenie infrastruktury w wielu dyscyplinach.
Zasięg geograficzny i/lub administracyjny. Prawdopodobnie najmniejsza skala, w której
da się sensownie realizować plan działań (Mapę Drogową) to krajowa agencja. Częściej
plany tworzy się na poziomie krajowym. Ostatnio tworzenie map stało się popularne
47
pod auspicjami Komisji Europejskiej, Europejskiej Fundacji Nauki oraz innych podmiotów, w szczególności ESFRI .
Cele krajowej mapy drogowej, nie zawsze oczywiste na podstawie pobieżnej lektury dokumentu, dotyczą zwykle utrzymania doskonałości w badaniach naukowych, polepszenia pozycji naukowej kraju, pobudzenia myślenia strategicznego, >rozliczalności i interdyscyplinarności, lepszego wykorzystania ograniczonych zasobów, poprawy koordynacji decyzji inwestycyjnych lub też wspierania rozwoju regionalnego.
Zakres czasowy. Niektóre plany bardzo wyraźnie określają okres czasu, dla którego planuje się rozwój infrastruktury, np. amerykański USDOE „20-years Outlook” lub „ESA Cosmic Vision 2015-2025”. W większości jednak przypadków horyzont czasowy jest tylko
mgliście określony lub wcale. W niewielkiej liczbie przypadków (np. plany NASA i ESA)
dokument końcowy zawiera sekwencję budowy urządzeń, które mają być zbudowane w
określonym ważnym z punktu widzenia nauki porządku. Niektóre Mapy są aktualizowane lub periodycznie powtarzane.
Wielkość infrastruktury. Proces tworzenia planów idzie gładko, gdy rozpatrywane urządzenia nie różnią się zbytnio pod względem wielkości i typu. Istnieją oczywiste trudności metodyczne oceny i ustalania priorytetów odnośnie do projektów o różnej wielkości
i różnych kosztów.
Myślenie strategiczne o infrastrukturze jest cenne dla nowych i/lub interdyscyplinarnych dziedzin, których przyszłe potrzeby mogą nie być znane decydentom, zwłaszcza jeśli finansowanie i struktury administracyjne w tych dziedzinach nie są jeszcze w pełni
rozwinięte na poziomach instytucjonalnym i rządowym. Dla decydentów nauki tworzenie Map jest okazją do nowego spojrzenia przyszłe opcje, oraz do pracy z urzędnikami z
innych agencji, zarówno wewnątrz kraju jak i poza jego granicami. Dla przyszłych użytkowników nowych urządzeń proces tworzenia planów może być jedynym mechanizmem zapewnienia sobie masy krytycznej zainteresowanych z różnych dziedzin, dzięki
czemu mają oni razem szansę ubiegać się o budowę aparatury, która mogłaby zostać
przeoczona w konwencjonalnym procesie planowania.
Opracowanie nowego planu działań na rzecz danej dziedzinie naukowej jest okazją do
systematycznego zbadania kluczowych warunków, niekoniecznie natury naukowej, ale
jednak bardzo istotnych dla powodzenia w dłuższej perspektywie programów badawczych. Do warunków tych należą m.in.:
Popyt i podaż zasobów badawczych. Ważne jest, że aby zasoby sprzętu były równe (zarówno pod względem jakości jak i ilości) rozmiarom środowiska naukowego. Nie jest
dobrze, gdy z najwyższej klasy aparatury (np. dużych teleskopów i detektorów cząstek
elementarnych) kupuje się wyłącznie mały zestaw bardzo drogiego sprzętu do dyspozycji stosunkowo ograniczonej liczby badaczy.
Wielkość środowiska naukowego w różnych dyscyplinach, w wartościach absolutnych i
w stosunku do innych dyscyplin. Tworzenie Mapy Drogowej daje okazję do obliczenia
wielkości środowiska naukowego (np. w astronomii, fizyce, biologii molekularnej, inżynierii lotniczej). Informacje takie, zebrane podczas sporządzania Mapy, miałyby duże
48
znaczenie dla decydentów planujących opracować zrównoważone i spójne programy
badawcze.
Warunki dostępu do infrastruktury badawczej. Istnieje duża różnorodność polityk określających warunki dostępu badaczy do dużej infrastruktury. Nawet wtedy, gdy uważa
się, że dostęp jest oparty na zasługach (tzn. nie zależy od tego, czy naukowiec jest związany z infrastrukturą lub pochodzi z kraju, który ją finansuje) istnieją różne niewypowiedziane explicite warunki.
Kwestie zatrudnienia. Wszystkie gałęzie nauki muszą nieustannie odnawiać się poprzez
przyciąganie i zatrzymywanie utalentowanych młodych ludzi. Zapewnianie nowoczesnej
infrastruktury oraz jej rola w szkoleniu nowych pokoleń badaczy i w innych kwestiach
związanych z karierą naukową może być jednym z tematów poruszanych w trakcie sporządzania Mapy.
Powiązania z przemysłem i konkurencyjnością. Budowa nowej infrastruktury badawczej
może wiązać się z poważnymi wyzwaniami technologicznymi, które mogą z kolei przyczyniać się do powstawania „odprysków przemysłowych” o potencjale komercyjnym.
Zaangażowanie potencjalnych partnerów w proces tworzenia planów może pomóc w
rozpoznaniu takich możliwości, a także może być przydatne przy tworzeniu wiarygodnych prognoz kosztów proponowanych projektów.
Sporządzanie Map powszechnie uznaje się za przejaw polityki naukowej prowadzonej w
sposób strategiczny, systematyczny i obiektywny. Jest to jednak zadanie koszto-i-czasochłonne, obarczone różnymi problemami.
1. Wielka infrastruktura, przedmiot Map, jest bardzo kosztowna. Ponieważ coraz
więcej planuje się i buduje wielkich urządzeń, finansowanie badań nie opartych
na wielkiej infrastrukturze z konieczności się kurczy.
2. Mapy Drogowe mogą prowadzić do zakłóceń w finansowaniu małych i średnich
projektów aparaturowych.
3. Mapy oparte na wieloletnich zobowiązaniach krytykuje się jako zbyt sztywne.
4. Gdy interdyscyplinarne mapy drogowe ujmują coraz większą liczbę różnych
dziedzin nauki, włącznie z naukami społecznymi, a nawet humanistyką, powstają
trudności metodologiczne, szczególnie gdy próbuje się ustalić priorytety.
5. Samo upowszechnienie map drogowych może powodować zamieszanie, szczególnie gdy brak jasności co do zakresu, statusu i metodologii poszczególnych dokumentów.
Najważniejsze pytania zadawane w stosunku do Map to:
1. Jaki jest status podmiotu, który zleca i realizuje Mapę?
2. Jakie przepisy regulują sposób opisu infrastruktury i kryteria wyboru?
3. Czy szacuje się koszty infrastruktury, a jeśli tak, to jak?
4. Jaki jest kontekst międzynarodowy Mapy?
5. Czy proces tworzenia Mapy jest kontynuowany, zarówno w zakresie realizacji jak i
okresowego powtarzania?
49
Przyporządkowanie (lub nie) infrastruktury do poszczególnych priorytetów jest poważnym problemem. Niektóre plany wyraźnie zabraniają ustalania priorytetów, w innych
przypadkach dokonywanie trudnych wyborów jest główną racją bytu całej procedury.
Istnieje znaczna różnorodność sposobów, w jaki koszty włącza się do planów. W niektórych przypadkach kwestia ta jest celowo pominięta. W innych dokumentach znajdują się
skomplikowane obliczenia kosztów budowy, rozruchu, eksploatacji i zaprzestania eksploatacji. Tworzenie planów, które nie dają żadnych konkretnych perspektyw finansowania, wzbudza mimo to duże zainteresowanie środowiska naukowego.
Coraz częściej w Mapach uwzględnia się międzynarodowy kontekst infrastruktury. Nawet w krajowych planach i priorytetach bierze się pod uwagę inne kraje i regiony. „Strategia” CERN uzupełnia Mapę ESFRI, która celowo wyklucza infrastrukturę fizyki cząstek.
Coraz częściej Mapy odsyłają do istniejących planów. Tak więc Mapa Drogowa Wielkiej
Brytanii 2007 wyraźnie odnosi się do ESFRI. Z kolei Mapa ESFRI była inspirowana przez
projekt USDOE.
Por. >PRIORYTETY POLITYKI NAUKOWEJ.
Bibliografia
OECD Global Science Forum, Report on Roadmapping of Large Research Infrastructures, December 2008.
PARTYCYPACYJNE TWORZENIE POLITYKI NAUKOWEJ
[Participatory Science Policy Making]
Pomysły dotyczące udziału społeczeństwa w podejmowaniu decyzji w sprawie rozwoju
nauki i techniki nie są nowe, sięgają lat 1960. i 1970. Jednak jeśli dawniej dotyczyły tylko wybranych dziedzin, to obecnie są znacznie bardziej upowszechnione, choć z reguły
odnoszą się do pewnych kwestii, do niektórych faz badań lub do wykorzystywania ich
wyników. Najczęściej dotyczą one zagadnień, które są ważne, których nie można zostawić samych sobie, gdyż zaniedbanie ich niesie za sobą ryzyko, dla których brak niezawodnych standardowych rozwiązań (prawnych, administracyjnych, technicznych) i
których rozstrzygnięcie łączy się z wyborem wartości. Zagadnienia te mogą dotyczyć całej planety (globalne ocieplenie) lub spraw małej lokalnej społeczności (np. zatrucie
ołowiem).
Niektóre kraje mają sformalizowane procedury włączania obywateli w ustalanie priorytetów polityki naukowej oraz ocenę możliwych szans i zagrożeń związanych z rozwojem
niektórych badań i technologii, np. w formie specjalnych praw lub możliwości wysłuchań. W wielu innych powszechne są praktyki oddolnej aktywizacji obywateli. Wysoki
poziom angażowania obywateli cechuje kraje nordyckie, szczególnie Danię, a także
Francję, Belgię i Szwajcarię. Obywatele i organizacje społeczeństwa obywatelskiego działają
poprzez udział w radach konsultacyjnych i komisjach doradczych, szczególnie w takich sprawach jak ustalanie przepisów wpływających na działalność gospodarczą (Albania), ustalanie
priorytetów finansowania badań (Belgia, Chorwacja, Holandia, Rumunia), polityka N+T (Tur-
50
cja), etyka w nauce (Norwegia, Islandia), powiązania technologii i społeczeństwa (Norwegia),
budownictwo i planowanie (Izrael) oraz energia jądrowa (UK).
W niektórych krajach, takich jak Islandia i Austria, brak konkretnych sformalizowanych procedur udziału szerszego społeczeństwa w decyzjach dotyczących nauki i techniki, jednak obowiązują w nich ugruntowane ogólne zasady bezpośredniego angażowania szerszej publiczności
w procesach podejmowania decyzji, szczególnie w sprawach dotyczących ochrony środowiska.
Partycypacyjną politykę na szczeblu Unii i w wielu jej krajach członkowskich wspierają
instrumenty polityki, takie jak np. DECIDE (Deliberative Citizens' Debates in European
science centres and museums) czy Mobilizacja i Wzajemne Uczenie się (Mobilisation and
Mutual Learning Actions).
Koncepcje partycypacji obywatelskiej w rządzeniu. Zjawisko partycypacyjnego tworzenia polityki naukowej wpisuje się w szersze ramy, ujmowane przez takie (pokrewne
choć zróżnicowane) idee, jak:
• Partycypacja publiczna
• Partycypacja obywatelska
• Deliberacyjna demokracja
• Dyskursywna demokracja
• Pozyskiwanie informacji od obywateli (ang. Citizen sourcing)
• Otwarty rząd
• Rząd 2.0
• E-rząd
• Partycypacja 2.0
• Partycypacja on-line
• E-partycypacja
• Rozpoznawanie „open source” (ang. Open Source Intelligence).
Partycypacja publiczna. Partycypacja publiczna to ogólna nazwa związku obywateli z
władzami rządowymi i samorządowymi; może ona przybierać formy jednokierunkowych „informacji dla obywateli” lub „konsultacji obywatelskiej” względnie też partycypacji obywatelskiej, w której informacje przesyła się „w obie strony”, między przedstawicielami społeczeństwa oraz administracją publiczną w drodze dialogu, w rezultacie
którego ulegają zmianie przekonania obu stron [Rowe 2000]. Przykładowe formy to
konferencje konsensusu, jury obywatelskie i fora obywateli.
W roku 1970. Amerykańska Narodowa Fundacja Nauki ustanowiła Program Nauka dla
Obywateli (Science for Citizens Program) aby zapewnić wsparcie techniczne obywatelom
pragnącym brać udział w procesie kształtowania polityki. Od tego okresu na rzecz partycypacji obywatelskiej dla polityki naukowej działają takie amerykańskie organizacje,
jak the Center for Science and the Public Interest, Union of Concerned Scientists, the
Coalition for Responsible Genetic Research, oraz Science for the People.
Poniższa tabela przedstawia poszczególne szczeble partycypacji publicznej:
51
Im wyżej tym
trudniej
Współdecydowanie
Rady
Konsultacje
Informacje
Demokracja deliberatywna (dyskursywna). Demokracja deliberatywna formą demokracji, w której deliberacja (rozważanie, naradzanie się) jest w centrum podejmowania
decyzji. Przyjmuje ona zarówno elementy konsensualnego podejmowania decyzji jak i
rządów większości. Demokracja deliberatywna da się pogodzić zarówno z demokracją
przedstawicielską jak i demokracją bezpośrednią [van Dijk]. W przeciwieństwie do demokracji przedstawicielskiej demokracja „obradująca” podkreśla konieczność uzasadnienia decyzji zbiorowych w drodze otwartego i racjonalnego dialogu między wolnymi i
równymi obywatelami.
Pojawienie się nowego deliberatywnego nurtu w liberalnych społeczeństwach demokratycznych przejawia się w eksperymentach partycypacyjnych, takich jak jury obywatela i
deliberacji wyborczych w Stanach Zjednoczonych oraz europejskie konferencje konsensusu, jury obywatelskie, dialogi interesariuszy. Teoria demokracji zainteresowała się
nurtem w latach 1990.
Demokracja uczestnicząca. Demokracja uczestnicząca (ang. participatory democracy)
to proces kolektywnego podejmowania decyzji z wykorzystaniem kombinacji elementów demokracji bezpośredniej i przedstawicielskiej. Znajduje zastosowanie w samorządach lokalnych i samorządach pracowniczych oraz realizuje się zwykle poprzez budżet
obywatelski (także praktykowana w Polsce).
Pozyskiwanie informacji od obywateli. Adopcja przez rząd technik crowdsourcingu
dla (1) próby pozyskania obywateli w zakresie projektowania i realizacji usług administracji publicznej (2) sięgania do zbiorowej inteligencji obywateli w poszukiwaniu rozwiązań problemów społecznych. Zastosowania obywatelskiego sourcingu obejmują
m.in. platformy kontaktu z obywatelami, dotyczące m.in. zgłaszania informacji o przestępstwach lub awariach oraz monitorowanie przez władze mediów społecznych, takich
jak Twitter.
Otwarty rząd. „Open Government (ang. Open Government) jest koncepcją zmian funkcjonowania instytucji publicznych, których celem jest zwiększanie dostępu do informacji
publicznej i innych zasobów informacyjnych będących w posiadaniu instytucji publicznych, jak również działania na rzecz zwiększenia poziomu transparentności administracji publicznej. Rozwój koncepcji otwartego rządu jest ściśle związany z postępem technologicznym, dostępnością cyfrowych narzędzi ułatwiających komunikację oraz usieciowieniem funkcjonowania jednostek i instytucji. Historyczne korzenie open govern-
52
ment tkwią w oświeceniowej debacie o kształcie powstającego wtedy demokratycznego
społeczeństwa. Główne wartości, do których odwołuje się koncepcja otwartego rządu to:
•
•
•
Przejrzystość i związana z tym wiarygodność działań państwa,
Zaangażowanie obywateli poprzez uczestnictwo w procesach podejmowania decyzji
oraz inne formy obywatelskiej współpracy w działaniach instytucji państwowych,
Szeroko rozumiana otwartość instytucji publicznych, która jest warunkiem realizacji
powyższych wartości.
W Unii Europejskiej elementy filozofii otwartego rządu pojawiły się w Deklaracji z Visby
z 2009 roku oraz sformułowanej na jej podstawie Cyfrowej Agendzie dla Europy”. Rozwiązania spod znaku otwartego rządu są obecnie adaptowane przede wszystkim przez
władze szczebla lokalnego, m.in. w Nowym Jorku, Londynie, czy Hongkongu. [Open
Government 2014]”.
Rząd 2.0. Gov 2.0 łączy podstawy Web 2.0 z e-administracją zwiększając uczestnictwo
obywateli za pomocą platformy open-source, która umożliwia obywatelom i firmom
rozwijać innowacyjne aplikacje. Rolą rządu jest dostarczanie otwartych danych, usług
internetowych i platform, co polepsza przejrzystość i skuteczność działań rządu [Gov 2.0
2014].
e-government. „e-government (z ang. e-administracja) – według definicji Komisji Europejskiej, jest stosowaniem technologii informatycznych w administracji publicznej. Wiąże się to ze zmianami organizacyjnymi i nowymi umiejętnościami służb publicznych,
które mają poprawić jakość świadczonych przez administrację usług. e-government to
ciągły proces doskonalenia jakości rządzenia i świadczenia usług administracyjnych poprzez przekształcanie relacji wewnętrznych i zewnętrznych z wykorzystaniem Internetu
i nowoczesnych środków komunikacji. Relacje zewnętrzne to relacje typu urządobywatel, urząd-podmiot gospodarczy oraz urząd-usługodawca, natomiast spośród relacji wewnętrznych wyróżniamy urząd-urząd oraz urząd-pracownicy [e-government
2014].
e-Partycypacja. Dwustronne powiązania prowadzące do lepszego rozumienia pomiędzy rządem a obywatelami zapośredniczone przez technologie Web 2.0. Sukces epartycypacji zależy od łączenia danych rządowych z danymi tworzonymi przez media
społeczne
[Reddick
2012].
Wykorzystywanie
technologii
informacyjnokomunikacyjnych do mediacji i przekształcania stosunki obywateli do rządów i administracji publicznej w kierunku większej udziału obywateli.
Rozpoznawanie „open source”. Forma zarządzanie zapewnianiem wiedzy i informacji
dla decydentów poprzez ustalanie, wybór i pozyskiwania informacji z publicznie dostępnych źródeł i analizowanie ich w ramach >ANALIZY POLITYKI [Rowe 2002]. Wykorzystywanie technologii informacyjno-komunikacyjnych do mediacji i przekształcania
relacji obywateli i rządów oraz administracji publicznej w kierunku większego udziału
obywateli [Van Dijk 2009].
53
Formy obywatelskiej partycypacji
Metoda
Uczestnicy
Trwanie
Cechy / mechanizmy
Przykłady
Referenda
Potencjalnie wszyscy
członkowie
kraju lub regionu
1 dzień
Zazwyczaj wybór
jednej z dwóch opcji
Biotechnologia w
Szwajcarii (1997);
składowanie śmieci
w
Szwecji
(1997)
Publiczne wysłuchania
Zainteresowani
obywatele,
politycy i eksperci
Mogą trwać przez
wiele tygodni, zazwyczaj w ciągu
dni roboczych
Prezentacje władz
dotyczące planów.
Obywatele mogą
wyrażać
opinie,
ale nie mają bezpośredniego
wpływu na zalecenia.
Częsty mechanizm,
np. w USA (od
wczesnych
lat
1960.), Australii
Ankietowanie
opinii publicznej
Wielkie
próbki
(setki lub tysiące),
zazwyczaj reprezentatywne dla zainteresowanej
społeczności
Zazwyczaj nie dłużej niż kilka minut
Często
przeprowadzane za pomocą kwestionariusza lub przez
telefon.
Ankieta
może
zawierać
wiele pytań.
GMO w Wielkiej
Brytanii (1998);
kwestie biotechnologii
Panel doradczy
Kompetentni
obywatele
Miesiące
Panel obywatelski
Grupa 12 obywateli wybranych na
drodze losowania
Spotkania periodyczne (np. 4 razy
do roku)
Uzgodnienia
tworzenia przepisów
Mała grupa przedstawicieli interesariuszy
Dni – tygodnie miesiące
Proces w amerykańskim
prawie
administracyjnym,
stosowany przez
agencje federalne,
w którym przedstawiciele agencji
rządowych i grup
interesu dotkniętych negocjuje warunki proponowanego prawa administracyjnego
Metoda stosowana
przez US Envirionmental Protection Agency
Trybunał
ukowy
Naukowcy nie zainteresowani bezpośrednio
w
przedmiocie dyskusji.
Dzień
Wzorowany
na
procedurach sądowych. Panel wysłuchuje „zeznań”
dwóch
przeciw-
Idea dyskutowana
od wielu lat, nie
zrealizowany
w
praktyce.
na-
Amerykański Recombinant
DNA
Advisory Committee (1974) powołany w celu doradztwa dyrektowowi
NIH
w
sprawach badań
genetycznych
54
stawnych
stron.
Rezultat to orzeczenie dotyczące
stanu faktycznego
kwestii
pod
względem ryzyk i
korzyści.
Konferencje
w
sprawie porozumienia
Najczęściej 12-20
przedstawiciele
lokalnej społeczności
wybrani
przez panel interesariuszy
Zwykle od 4 do 10
dni
Panel z niezależnym moderatorem
kwestionuje opinie
ekspertów.
Spotkania z reguły
otwarte. Wnioski
zawarte w raporcie lub przedstawione na konferencji prasowej.
Stosowane w Danii
i w Holandii na
tematy od skażenia żywności po
zanieczyszczenie
powietrza;
w
Wielkie Brytanii w
kwestiach
biotechnologii roślin
Obywatelskie
komitety doradcze
Wąska
grupa
przedstawicieli
różnych grup lub
społeczności
Wiele dni
Grupa bada ważne
kwestie.
Współdziała z przedstawicielami przemysłu.
USA
Grupy fokusowe
Wąska grupa od 5
do 12 osób wybrana jako przedstawicielstwo publiczności
Jedno spotkanie,
zwykle ok. 2 godzin
Swobodna dyskusja, nagrywana, z
niewielką pomocą
moderatora. Stosowana dla zbierania opinii.
Wielka Brytania
Konferencje konsensualne
Uczestnicy (12-24)
wybrani z grupy
obywateli, którzy
zgłosili się. Zaproszeni nie mają
określonej wiedzy
o
dyskutowanej
kwestii.
Zazwyczaj
4dniowe konferencje
Wybrana
grupa
obywateli
bada
zagadnienia, a następnie
spotyka
się z ekspertami.
Po spotkaniu formułują oni samodzielnie raport z
zaleceniami,
przedstawiany politykom i opinii
publicznej.
Dania
Warsztat scenariuszowy
Od 24 do 32 obywateli
Dwa dni
Spotkania osób zainteresowanych
planowaniem
miejskim, na których omawia się i
ocenia różne rozwiązania technologiczne dla rozwiązania konkretnych problemów
(np. energia, woda,
mieszkalnictwo i
transport)
Miasta w Holandii
Wspólnotowe
badania partycy-
W badaniach biorą
Obie
wspólnie
strony
i na
55
pacyjne
udział eksperci i
przedstawiciele
wspólnoty (lokalnej,
zawodowej,
etnicznej,
grupy
osób
dotkniętej
przez ten sam
problem itp.).
Jury
skie
12-20 obywateli
wybranych
na
drodze losowania
obywatel-
Procesy dialogu
równych prawach
definiują problem i
projekt badawczy,
przeprowadzają
badania, interpretują wyniki i decydują, w jaki sposób
te wyniki wykorzystać. Badania
nie tyle dla postępu wiedzy, co
dla
rozwiązania
kwestii dla których brak rutynowych
rozwiązań.
4 do 5 dni
Obywatele spotykają się dla wysłuchania opinii ekspertów. Po ostatnich obradach jury
przedstawia
rekomendacje.
USA, Niemcy
Kilka-kilkanaście
dwu-lub-trzy godzinnych sesji
Obywatele
na
otwartych warsztatach korzystają z
przewodnika zawierającego podstawowe informacje o problemie.
Kanada
Deliberacyjne
mapowanie
Panel 8-10 obywateli zróżnicowany
w zależności od
płci i statusu społeczno-ekonomicznego.
6 wieczorów
Warsztaty
dla
oceny opcji technologicznych
z
udziałem obywatele i ekspertów
Sondaż
ractyjny
delibe-
Reprezentatywna
próba mieszkańców
spośród
uczestników sondażu
Kilka dni
Spotkania
dla
rozwiązania lokalnych kwestii
Poznań
Forum obywatelskie
Szeroka reprezentacja obywateli
Bywają stałą działalnością
prowadzoną przez organizacje
Forum
identyfikuje podstawowe
parametry
problemu
politycznego, naradza się i
przygotowuje zalecenia.
Norwegia, Youth
Forum for Democracy
Źródła: Rowe 2000; UN 2012.
56
Poziomy partycypacji
Poziom systemu
- ustawy
Poziom rząduurzędy
rzeczników praw
Poziom lokalny wysłuchania;
referenda;
komitety doradcze;
ankiety
obywatelskie i in.
OECD 2001
Bibliografia
Albert Meijer, Nils Burger and Wolfgang Ebbers, Citizens4Citizens: Mapping Participatory Practices on the
Internet.
Charles Thorpe, Participation as Post-Fordist Politics: Demos, New Labour, and Science Policy, “Minerva”
(2010) 48:ss. 389–411.
Christopher G. Reddick, Stephen K. Aikins, Web 2.0 Technologies and Democratic Governance: Political, Policy and Management Implications, 2012, ss. 286.
Citizen Participation in Science Policy 1984 ed. by James C. Petersen The University of Massachusetts Press
Amherst, 1984.
Dennis Hilgers & Frank T. Piller, Extending Open Innovation to Open Government: a Roadmap for New Opportunities in Citizensourcing.
e-government, Wikipedia 2014.
EU Public engagement in science 2007. Portuguese Presidency Conference The Future Of Science and
Technology in Europe, Lisbon, 8-10 October 2007.
Eva Lövbrand, Roger Pielke, Jr., and Silke Beck, A Democracy Paradox in Studies of Science and Technology,
“Science, Technology, & Human Values” 2010.
Gene Rowe and Lynn J. Frewer, Public Participation Methods. A Framework for Evaluation, “Science, Technology, & Human Values”, Vol. 25, No. 1 (Winter, 2000), ss. 3-29.
Gov 2.0, Wikipedia 2014.
Guide to Online Participation
Jan A.G.M van Dijk, Participation in Public Policy Making, University of Twente, June 2009.
Jill Chopyak, Peter Levesque, Public participation in science and technology decision making: trends for the
future, “Technology in Society” 24 (2002) ss. 155–166.
Mapa drogowa otwartego rządu w Polsce. Centrum Cyfrowe, 8 lipca 2011.
OECD Mind The Gap: Fostering Open And Inclusive Policy Making An Issues Paper, 2008.
OECD Strengthening government-citizens connections using consensus conferences 2001.
Open Government, Wikipedia 2014.
57
Pierwszy Sondaż Deliberatywny® w Polsce.
UN, Guidelines on Citizens’ Engagement for Development Management and Public Governance, 2012.
Using consensus conference to learn about public participation in policy-making 2001.
POLICY MIX W DZIEDZNIE B+R I INNOWACJI
(Policy Mix for R&D and Innovation)
Mieszanka Polityki (ang. Policy Mix) w dziedzinie B+R i innowacji to zestaw >instrumentów polityki, które oddziałując na siebie wpływają na ilość i jakość inwestycji B+R w sektorze publicznym i prywatnym [Policy Mixes 2009]. Celem koncepcji policy mix jest pomoc w uniknięciu stosowania różnych instrumentów polityki oddzielnie lub w sposób
chaotyczny i nieskoordynowany [Raising 2003]. Por. >Spójność Polityki.
W ostatnich latach przedmiotem wielu analiz i dyskusji stał się problem właściwego doboru instrumentów, czyli stworzenia najlepszego tzw. policy mix. Pojęcie Mieszanki Polityk stało się bardzo popularne w OECD i w Unii Europejskiej. Stosowane sporadycznie w
II połowie XX wieku, weszło do języka polityki w II poł. lat 1990., a stało się tematem
wielu książek, artykułów i raportów od połowy I dekady XXI wieku [WordCat 2013].
Problematykę Policy Mix podejmuje tzw. trzecia generacja teorii wyboru instrumentu
polityki: pierwsza generacja zajmowała się analizą oddzielnych instrumentów, druga
generacja badaniami porównawczymi nad instrumentami, a trzecia – zagadnieniami
projektowania i doboru optymalnej Mieszanki Polityki w złożonych sytuacjach decyzyjnych i wykonawczych [Howlett 2007; OECD 2009].
Koncepcja Mieszanki Polityki zwraca uwagę, że instrumenty polityki nigdy nie działają
bez interakcji z innymi instrumentami, najczęściej (dobrze dobrane) wspomagają się
wzajemnie, lub też (nie zharmonizowane ze sobą) obniżają wzajemnie swoją skuteczność lub też niwelują wzajemnie swoje efekty. Poszczególne instrumenty osiągają nieraz
zakładany cel cząstkowy (np. zwiększenie wydatków biznesu na B+R), ale cel ten często
ma szerszy sens społeczny tylko pod warunkiem, że jest sprzęgnięty z wieloma innymi
celami, wspieranymi przez inne instrumenty [Benchmarking 2002].
Nowatorstwo koncepcji policy mix polega na założeniu, że nie instrumenty stosowane w
izolacji, tylko połączenie oddziaływujących na siebie instrumentów politycznych wpływa na B+R i innowacje. Drugim kluczowym pomysłem jest założenie, że na B+R i innowacje wpływ mają nie tylko instrumenty z tego obszaru polityki (np. dotacje rządowe
lub zachęty podatkowe itp.), ale również polityki z innych dziedzin, takie jak np. przepisy ochrony środowiska [Policy Mixes 2009].
Z reguły każdy instrument ma sens pod warunkiem istnienia innych instrumentów, bądź
też mechanizmów rynkowych i społecznych. Np. finansowany przez rząd „fundusz zasiewny” na wstępne fazy innowacji ma sens pod warunkiem istnienia źródeł finansowania kolejnych faz (np. kapitału ryzyka). W systemie finansowania badań naukowych
wielkie projekty i programy badawcze, granty tradycyjne oraz granty specjalne, służące
np. finansowaniu propozycji nadsyłanych przez młodych badaczy oraz idei nieortodok58
syjnych i oryginalnych uzupełniają się wzajemnie; granty pełnią funkcję „laboratorium
nowych form” w stosunku do wielkich programów. Instrumenty finansowania badań
przemysłowych prowadzonych w uczelniach mają sens pod warunkiem równoległego
istnienia mechanizmów transferu technologii, mobilności naukowców i inżynierów pomiędzy nauką a gospodarką oraz partnerstwa publiczno-prywatnego. Korzyści ze
wspierania prac B+R w przedsiębiorstwach wzrastają gdy towarzyszy temu pomoc w
zakresie zarządzania, podnoszenia kompetencji oraz wprowadzenia na rynek nowych
produktów i usług. Myśląc o pojedynczym instrumencie nastawionym na osiągnięcie
pewnego celu, politycy powinni brać pod uwagę szersze spektrum już istniejących lub
możliwych do wprowadzenia narzędzi [OECD 2001; NESTA 2013].
Mieszanki polityki można opisywać wg dziedzin polityki, których dotyczą (Policy Mix
może nie ograniczać się do jednej domeny), wg >agend polityki i >uzasadnień polityki,
wg grup i procesów docelowych oraz wg typu zastosowanych instrumentów [NESTA
2013].
W polityce naukowej i innowacyjnej OECD dzieli Policy Mix instrumentów na mieszanki
instrumentów wspierających a) >podstawy nauki i technologii (ang. science and technology base), b) B+R biznesu i innowacji, c) >powiązania nauki i gospodarki, d) >zasoby
ludzkie dla N+T, e) system >zarządzania badaniami i innowacjami [OECD 2007].
Niezależnie od pojęcia Mieszanki Polityki proponuje się także pojęcie „Mini Mieszanki”
oznaczającej zestaw instrumentów (takich jak np. programy mobilności, bodźce fiskalne,
granty, nowe regulacje) ukierunkowanych na osiągnięcie jednego konkretnego celu, takiego np. jak podnoszenie badań i poziomu inwestycji w określonych obszarach technologii czy wspieranie konkretnych grup docelowych (np. nowych firm opartych na technologii) [Designing 2009]. Ewaluacja „Policy Mix” może opierać się na ustaleniach ewaluacji „Mini Mieszanek”.
Pojęcie policy mix odnosi się także do łączenia ze sobą rozmaitych narzędzi analizy politycznej, także zwłaszcza takich, które ze względu na szeroki udział grup nie-rządowych
mają równocześnie charakter instrumentów politycznych. M.in. dla wspomożenia procesu podejmowania decyzji zaleca się stosowanie kombinacji >ewaluacji polityk, >foresightu i >wartościowania technologii dla (efekt synergii, wzajemnego wspomagania)
[Kuhlmann 2003].
Zalecenia. Podstawowe wymiary Mieszanki Polityk to:
•
•
•
•
Głębokość – ranga instrumentów;
Gęstość – liczba instrumentów;
Luka pomiędzy instrumentami stosowanymi w danym kraju a stosowanymi na świecie
(np. brak zachęt podatkowych na B+R lub innowacyjnych zamówień publicznych);
Równowaga między różnymi rodzajami instrumentów, np. instrumentami bezpośredniego wsparcia, jak dotacje, oraz instrumentami pośrednimi, jak zachęty podatkowe
na B+R; lub pomiędzy konkurencyjnym finansowaniem projektów oraz finansowaniem
instytucjonalnym [Designing 2009].
59
Podstawowe funkcje systemu B+R brane pod uwagę podczas tworzenia Mieszanki Polityki to:
•
•
•
•
Mobilizacja zasobów finansowych, aparaturowych i ludzkich, publicznych i prywatnych;
Popyt na wiedzę. Należy rozpoznać potrzeby wiedzy oraz sposoby ich zaspokojenia.
Tworzenie wiedzy naukowej i technologicznej.
Obieg wiedzy. Zapewnienie odpowiedniego przepływu i upowszechnienia wiedzy ma zasadnicze znaczenie dla jej dalszego wykorzystania w gospodarce i społeczeństwie, albo
też jako podstawa do dalszych postępów w produkcji wiedzy[Designing 2009].
Wskazówki i porady przydatne przy konstruowaniu Mieszanki Polityki:
• Zastosuj modele zarządzania oraz modele systemu innowacji jako sposobów zrozumienia ról i
obowiązków głównych podmiotów systemu B+R i innowacji, etapu oraz kontekstu polityki B+R i
innowacji;
• Zastosuj proste modele dziedzin polityki celem odróżnienia różnych zestawów polityk i ich
strefy oddziaływania oraz bardziej szczegółowych lub zaawansowanych modeli celem odróżnienia różnych zestawów instrumentów polityki;
• Zastosuj charakterystyki Mieszanek Polityki jako ramy do kompilacji listy kluczowych kwestii,
które powinny zostać uwzględnione podczas projektowania lub modyfikowania Policy Mix;
• Opracuj modele funkcjonalne celem analizy i oceny wpływu Mieszanki Polityki lub zmian zachodzących w Mieszance Polityki na efektywność systemu B+R i innowacji [Designing 2009].
Pięć kluczowych kwestii projektowania Mieszanki Polityk akcentujących potrzebę spójności, efektywności i koordynacji to:
1. Wyzwania: jak zbudować mieszankę polityk, która odpowiadałaby na konkretne wy2.
3.
4.
5.
zwania stojące przed krajowym lub/i regionalnym systemem innowacji?
Koordynacja policy mix: jak zapewnić właściwą koordynację polityki w różnych dziedzinach polityki i na różnych poziomach władz?
Angażowanie interesariuszy Mieszanki Polityki: jakie są plusy i minusy z udziału wielu
zainteresowanych stron w opracowaniu i wdrażaniu instrumentów polityki?
Projektowanie Mieszanki Polityki: jak zaprojektować spójną politykę? Jakie są wzory do
naśladowania? Jak pobudzić pozytywne i uniknąć negatywnych interakcji pomiędzy politykami (biorąc pod uwagę od nie tylko polityki w dziedzinie badań i rozwoju oraz innowacji, ale także te oddziaływujące na te sfery)?
Wdrożenie, ewaluacja i skutki Mieszanki Polityk: jak przejść od ewaluacji instrumentów
do ewaluacji zestawów instrumentów? Jakie są warunki dla skutecznego wdrażania
kombinacji instrumentów? Jakie narzędzia informacyjno-analitycznego wsparcia polityk
użyć do tego celu? [Designing 2009]
Dziesięć podstawowych kwestiach dotyczących Projektowania mieszanki polityk:
Wyzwania. Jakie główne wyzwania stoją przez Narodowym Systemem Innowacji, w jaki
sposób zmieniły się one w ciągu ostatnich pięciu lat, i jaki miały one wpływ na działalność B+R?
Cele. Jakie są główne cele i priorytety polityki badań i rozwoju w danym kraju i jak się
one zmieniły się w ciągu ostatnich pięciu lat? Jak jakie znaleźć balanse i kompromisy
60
(ang. trade-offs, coś za coś) związane z realizacją różnych celów? Jak sekwencjonować
cele i instrumenty?
Luki (między wyzwaniami a celami). Czy istnieje różnica między wyzwaniami a głównymi celami i priorytetami polityki rządu? Czy Mieszanka Polityki reaguje na główne
wyzwania stojące przed krajem?
Instrumenty. Jakie stosuje się instrumenty polityki w celu wspierania działalności B+R w
sektorach prywatnym oraz publicznym? Jakie instrumenty poza domeną polityki badań i
rozwoju (np. polityki zasobów ludzkich, polityki innowacji, polityki stymulacji rynku,
itp.) mają szczególne znaczenie dla działalności B+R i wzrostu inwestycji w badania i
rozwój? Czy jest zbyt mało czy zbyt dużo instrumentów i czy mają one odpowiednią skalę? Czy poszczególne instrumenty są dobrze zaprojektowane i skuteczne? Czy zachodzi
synergia pomiędzy poszczególnymi instrumentami oraz ich grupami? Jak sekwencjonować (wprowadzać w określonym porządku) cele i instrumenty?
Luki (między celami i instrumentami). Czy istnieje luka lub niedopasowanie głównych
celów polityki oraz instrumentów do ich osiągnięcia?
Historia. Jak ewoluowało stosowanie instrumentów polityki badań i rozwoju oraz innowacji?
Beneficjenci. Na jakie grupy beneficjentów ukierunkowane są instrumenty polityki?
Znaczenie. Które instrumenty polityki miały największy wpływ na poziom wydatków na
B+R?
Interakcje. Czy istnieje jakikolwiek dowód na to, że instrumenty polityki oddziałują na
siebie pozytywnie lub negatywnie?
Rządzenie. Czy istnieje jakakolwiek forma koordynacji polityki B+R i innowacji oraz innych polityk mających potencjalne skutki dla poziomu inwestycji w B+R i innowacje?
[Designing 2009; OECD 2010]
Pytania te stały się osią ewaluacji Policy Mix polityki naukowej w Polsce [Policy Mix Poland 2007].
Nową propozycję uporządkowania analizy i ewaluacji Mieszanki Polityki zaproponowali
Magro i Wilson [2013], nawiązując do idei zaproponowanych przez Flangana [2011]
oraz OECD [2012]. W przeciwieństwie do koncepcji Policy Mix opartych na uwzględnianiu zestawu instrumentów krajowej polityki innowacyjnej, wzięli oni pod uwagę trzy
dodatkowe elementy – domeny (dziedziny) polityk, >uzasadnienia polityk oraz poziomy
polityki (ponad-narodowy; krajowy; regionalny; lokalny):
61
Propozycję swoją nazwali oni „Protokołem Mixu Ewaluacji”, ujmując ją w sześciu krokach:
Krok 1 – Nakreśl system polityczny i ustal jego zakres odnośnie do uzasadnień, domen i
instrumentów (policy mix) oraz poziomów.
Krok 2 – Sporządź listę uzasadnień polityki.
Krok 3 – Przeprowadź analizę mixu domen i instrumentów wiążących się z różnymi uzasadnieniami na różnych poziomach administracyjnych, biorąc pod uwagę dublowania i
komplementarności.
Krok 4 – Rozpoznaj aktualne praktyki ewaluacji oraz zakres, w jakim uwzględniają one
interakcje między instrumentami polityki.
Krok 5 - Zaprojektuj i przeprowadź zintegrowaną ewaluację instrumentów polityki
związanych z danym uzasadnieniem.
Krok 6 – Zintegruj te ewaluacje w formie całościowej oceny: mixu ewaluacji.
Znaczenie koncepcji Policy Mix w polityce naukowej i innowacyjnej. Jak dotąd polityka rozwija się bardziej wskutek kolejnych bieżących „przyrostów” (dodawania nowych i usuwania dawniejszych instrumentów) niż wskutek świadomych i przemyślanych działań w celu konstruowania Policy Mix. Ta sytuacja powoli się zmienia, w miarę
jak koncepcja ta staje się coraz bardziej znana politykom i szerokim kręgom zainteresowanych [Designing 2009].
W latach 2006-2009 na zlecenie Komisji Unii Europejskiej instytut UNU-MERIT w
Maastrich realizował projekt badawczo-ewaluacyjny mający na celu zarówno pogłębienie rozumienia problematyki Policy Mix w dziedzinie B+R, jak i przeprowadzenie oceny
„mieszanek polityki” naukowej w niektórych krajach członkowskich. W ramach projektu
opublikowano wiele raportów metodologicznych, problemowych i ewaluacyjnych, m.in.
UNU-Merit Policy Mixes for R&D in Europe 2009 oraz UNU-Merit Monitoring and analysis
of policies conducive to higher levels of R&D. Country Review Poland 2007.
Bibliografia
Benchmarking Of National Policies Public And Private Investments In R&D. Final Report Expert Group,
OECD June 2002.
Benchmarking Of National Policies Public And Private Investments In R&D. Final Report Expert Group,
OECD June 2002.
62
C. Nauwelaers, and R. Wintjes, Innovating SMEs and regions: the need for policy intelligence and interactive
policies, “Technology Analysis and Strategic Management”, (2002) 14 (2), 201-215.
Claire Nauwelaers & René Wintjes, Innovating SMEs and Regions: The Need for Policy Intelligence and Interactive Policies, ”Technology Analysis & Strategic Management”, Vol. 14, No. 2, 2002.
Designing Policy Mixes: Enhancing Innovation System Performance and R&D Investment Levels, March A
study funded by the European Commission – DG Research 2009.
J. S. Metcalfe, Science, Technology and Innovation Policy in Developing Economies, 2000; Raising EU R&D Intensity. Improving the Effectiveness of the Mix of Public Support Mechanisms for Private Sector R&D, Report
to the European Commission by an Independent Expert Group.
Kieron Flanagan, Elvira Uyarra, Manuel Laranja, Reconceptualising the ‘policy mix’ for innovation, “Research Policy” 40 (2011) ss. 702–713.
Michael Howlett and Jeremy Rayner, Design Principles for Policy Mixes: Cohesion and Coherence in ‘New
Governance Arrangements’, ”Policy and Society” 01/2007; 26(4):1-18.
NESTA Paul Cunningham, Jakob Edler, Kieron Flanagan, Philippe Larédo, Innovation policy mix and instrument interaction: a review, November 2013
OECD (2012), Innovation policy mix for business R&D and innovation, w: OECD Science, Technology and Industry Outlook.
OECD Policy Mix for Innovation In Poland. Key Issues and Recommendations, 2007.
OECD Public Funding Of R&D: Emerging Policy Issues, 13-14 March 2001.
OECD The Innovation Policy Mix, w: STI Outlook 2010
Optimising the Policy Mix by the Development of a Common Methodology for the Assessment of (Socio)Economic Impacts of RTDI Public Funding, Brussels, December 2013
Paul Cunningham, Jakob Edler, Kieron Flanagan, Philippe Larédo, Innovation policy mix and instrument interaction 2013.
Policy Mixes for R&D in Europe, UNU-MERIT, A study commissioned by the European Commission – Directorate-General for Research, April 2009.
Policy-Mix Country Review US 2007
Policy-Mix Methodological Report 2006
Policy-Mix Monitoring and analysis of policies and public financing instruments conducive to higher levels of
R&D investments. Country Review Poland, 2007.
Policy-Mix R&D Policy and Non-R&D Policy Interactions and Impacts 2008
Policy-Mix Thematic Report Governance 2008
Policy-Mix Thematic Report Mini-Mix 2007
Policy-Mix Thematic Report R&D – R&D Policy Interactions 2008
Policy-Mix Thematic Report Routes 2008
Raising EU R&D Intensity. Report to the European Commission by an Independent Expert Group Improving
the Effectiveness of the Mix of Public Support Mechanisms for Private Sector Research and Development, European Commission 2003.
Stefan Kuhlmann, Evaluation as a source of `strategic intelligence`, w: Learning from Science and Technology Policy Evaluation, ed. by Philip Shapira, Stephan Kuhlmann, Edward Elgar, 2003.
The Impact Of Public R&D Expenditure On Business R&D, OECD 1999.
Edurne Magro, James R. Wilson, Complex innovation policy systems: Towards an evaluation mix, “Research
Policy” 42 (2013) 1647– 1656.
63
POLITYKA PUBLICZNA
Polityka publiczna (ang. public policy) – dziedzina zracjonalizowanych i systemowych
działań państwa i społeczeństwa wokół problemów publicznych, także dyscyplina nauk
społecznych zapoczątkowana przez Harolda Lasswella. W języku polskim nie mamy
właściwego, czy może jednoznacznego terminu, na oddanie tego, co w języku angielskim
oznacza termin „public policy”, albo samo słowo „policy” [Wikipedia 2014].
Przeprowadzanie przez władze publiczne zmian, w których interwencję traktuje się jako
inwestycję, która ma zapewnić oczekiwany zwrot
•
na podstawie znajomości
– przedmiotu
– celu
– logiki (koncepcji tłumaczącej mechanizm, dzięki któremu osiągnie się zakładane cele)
– narzędzi interwencji
•
dzięki stosowaniu policy intelligence na kolejnych etapach cyklu polityki
•
w danych ramach prawno-politycznych (zobowiązania, zalecenia i priorytety, zarówno unijne, jak i krajowe; doświadczenia z przeszłości; negocjacje i konsultacje; debata publiczna; względy polityczne; intuicja).
Polityka niemal zawsze ujmowana jest w aktach prawnych. Związki między polityką a
prawem różnią się w zależności od porządku prawnego kraju, obszaru działania, kategorii spraw [Nauka 2009]. Instrumenty prawne powinny być zharmonizowane i osadzone w instrumentach poza-prawnych. Ograniczeniem prawa jako instrumentu zmiany jest prawniczy styl tworzenia prawa, który narzuca prawnikom „końskie okulary” w ocenie możliwych rozwiązań i który jest głównym powodem faktu, że zmiany są najczęściej inkrementalne [Sigler 1978]. Prawo (krajowe i międzynarodowe) to
•
ramy procedur decyzyjnych w polityce
•
ramy możliwych rozwiązań prawnych i nie-prawnych
•
instrument działań politycznych (obok nie-prawnych instrumentów polityki, takich jak np. oświadczenia, informacja, konsultacje społeczne, foresight, decyzje
adm.)
•
uzasadnienie.
Często polityki realizuje się za pomocą programów (pakietów instrumentów), programy za pomocą instrumentów, a instrumenty – projektów:
64
Polityka
Programy
Instrumenty
Projekty
Ciąg działań rządu ujmuje się nieraz w formie następującego schematu:
Dostępne
środki
Wkład
Procesy
(co i jak
rząd robi)
Produkty i
usługi
Wpływ na
obywateli
i biznes
Bibliografia
Nauka administracji, red. Barbara Kudrycka, B. Guy Peters, Patrycja Joanna Suwaj, Warszawa Wolters
Kluwer Polska, 2009.
Jay A. Sigler; Benjamin R. Beede, The Legal Sources of Public Policy, “The Journal of Politics”, Vol. 40, No. 3
(Aug., 1978), ss. 823-825.
Wikipedia, Polityka publiczna, 2014.
POMIAR I EWALUACJA W POLITYCE NAUKOWEJ I INNOWACYJNEJ
Odpowiednie pomiary i ewaluacja są kluczowe dla sukcesu polityki naukowej i innowacyjnej, umożliwiają one decydentom i analitykom:
•
•
•
•
Ocenić wkład B+R i innowacji do realizacji celów społecznych i gospodarczych,
Zrozumieć uwarunkowania i bariery B+R i innowacji, których znajomość jest niezbędna dla projektowania skutecznej polityki,
Ustalić wpływ polityki i programów oraz to, czy polityka przyczyniła do korygowania lub łagodzenia problemu który miała rozwiązać (np. zawodność rynku we
wspomaganiu innowacyjnej przedsiębiorczości pod takimi względami jak finansowanie, szkolenia, doradztwo i technologie),
Ocenić skuteczność różnych opcji polityk, umożliwiając rządowi podejmowanie
świadomych decyzji dotyczących alokacji środków,
65
•
•
•
Ciągle ulepszać projektowanie i zarządzania programami. Ewaluacja jest kluczowym
narzędziem uczenia się jak formułować polityki i programy, jakie problemy się pojawiają, jakie praktyki działają dobrze, co należy w przyszłości zrobić lepiej,
Pobudzanie świadomej debaty. Wyniki ewaluacji mogą zachęcać do debaty publicznej, stwarzając możliwość interesariuszom - od sponsorów i menedżerów do beneficjentów programu - do refleksji na temat adekwatności i skuteczności polityk, programów i instytucji,
Zwiększyć publiczną odpowiedzialność polityk (zob. >ROZLICZALNOŚĆ).
Por. >EWALUACJA POLITYKI NAUKOWEJ I INNOWACYJNEJ.
Bibliografia
IPP Innovation Policy Platform, The role of measurement and evaluation in policy and governance, 2014-0116.
PRIORYTETY W POLITYCE NAUKOWEJ I INNOWACYJNEJ
Ustalanie priorytetów to dokonywanie pewnych wyborów mających wpływ na podział
publicznych środków kosztem innych wyborów (kto ma dostać pieniądze, jak wiele i na
co). Priorytety to preferencje w stosunku do wybranych alternatyw w procesie
>KSZTAŁTOWANIA POLITYKI w odpowiedzi na >KLUCZOWE WYZWANIA i >PROBLEMY
POLITYCZNE; albo explicite, sporządzone na podstawie wcześniej publikowanych >DOKUMENTÓW POLITYCZNYCH, lub niejawne („de facto”). Priorytety stwarzają ramy dla
decyzji bieżących; są one zwykle uzupełniane przez „posteriorities” (decyzje aby porzucić pewne cele i zadania).
Rozróżnia się priorytety „strukturalne” (np. wzrost finansowania badań, wspieranie badań podstawowych, szkolenie pracowników badawczych) i priorytety „tematyczne” (np.
ICT, biotechnologia, nauki o morzu). Priorytety mogą być ustalane odgórnie lub oddolnie, lub też przez kombinację obu podejść. Oprócz krajowych priorytetów istnieją również priorytety w UE oraz na poziomach regionalnym, mezo (realizacji) lub na poziomie
taktycznym (np. organizacji badawcza lub firmy).
Priorytety w nauce odnoszą się do
•
•
•
podstawowych celów finansowania badań ze źródeł publicznych (takich jak np. jakość badań; wpływ na technologie, rozwój społeczny i wzrost gospodarczy);
decyzji co do podziału funduszy na B+R pomiędzy dyscyplinami i instytucjami;
decyzji rozstrzygających najważniejsze opcje polityczne (kształt systemu nauki,
np. finansowanie B+R przez Ministerstwo Nauki czy też przez wiele ministerstw;
więcej badań poznawczych czy ukierunkowanych na cele; więcej małej czy więcej
wielkiej nauki; więcej rynku czy więcej państwa; koncentracja wysiłku badawczego w centrach doskonałości czy też rozproszenie badań po wielu wydziałach uniwersyteckich i instytutach; więcej badań podstawowych czy więcej strate66
gicznych i stosowanych; klasyczne peer-review, tj. akademickie kryteria oceny
projektów i programów czy też peer-review uzupełnione o kryteria użyteczności
technologicznej, społecznej i gospodarczej itd.).
Pojęcie priorytetu w polityce naukowej ma z reguły dość szeroki i nie zawsze określony
zakres. Istnieją priorytety explicite, które choć nagłaśniane, nie skutkują w istotnych decyzjach finansowych, oraz priorytety ukryte. W wielu krajach takimi ukrytymi pełzającymi priorytetami były np. zmiany proporcji w finansowaniu uczelni i poza-uczelnianych instytucji badawczych oraz nauk biologicznych i fizycznych (na korzyść tych
pierwszych), które, choć nieznaczne w skali roku, skumulowane, okazały się istotne w
skali dwóch dekad.
Priorytety bywają rodzajem ogólnej wytycznej dla przyszłych decyzji, podkreśleniem
wagi pewnych kwestii i rozwiązań w białych lub zielonych księgach, bywają też metodą
zarządzania środkami publicznymi. Coraz częściej bywają tym drugim. Od lat 1990.,
wraz z rosnącą popularnością Nowego Zarządzania Publicznego i budżetu zadaniowego,
wyznaczanie celów, zadań, priorytetów i wskaźników wykonania dla organizacji i programów rządowych stało się coraz częstsze, zinstytucjonalizowane i obligatoryjne. W
konsekwencji, coraz częściej priorytety łączy się z określaniem oczekiwanych „rezultatów” i „wpływów” polityk oraz z budowaniem wskaźników i podejmowaniem ewaluacji,
mającej ocenić ich zasadność i skuteczność. Nie jest jednak łatwe (a nawet możliwe) w
odniesieniu do badań ukierunkowanych tylko na cele poznawcze.
Najczęściej priorytetami w nauce nazywa się dziś systematycznie podejmowane i w miarę zobiektywizowane decyzje co do preferowanych obszarów zmian w podziale środków na B+R. Priorytety są rodzajem wędzidła nakładanym na pokusę działań niejawnych, nie motywowanych interesem publicznym. Priorytety opiera się o uzgodnione
wcześniej przesłanki oraz zasady wyboru, a ustala w wyniku procesu politycznego angażującego różnych interesariuszy. Priorytety są elementem cyklu polityki, dźwignią uruchamiającą kolejne decyzje (na coraz niższym szczeblu) w ramach pewnego porządku
podejmowania decyzji. W zależności od charakteru systemu władzy i decyzji co do ulokowania spraw nauki (odrębne ministerstwo, wiele ministerstw) ustalanie priorytetów
jest mniej lub bardziej zcentralizowane, bardziej odgórne lub bardziej oddolne. Zdecentralizowane systemy sterowania nauką, jak w Stanach Zjednoczonych i w Izraelu, nie
wykluczają istnienia wielkich narodowych strategicznych inicjatyw, takich jak amerykańska National Nanotechnology Initiative (2000).
Często celem priorytetów jest „naprawa tego, co się popsuło”, „wzmacnianie zalążków
przyszłości”, np. pewnych pól badań, jak technologie konwergencji (ICT, nano, bio), „zapobieganie rysującym się zagrożeniom” (np. zewnętrznym, jak starzenie się społeczeństw, oraz wewnętrznym, jak starzenie się środowiska naukowego).
Priorytety są „miękkie”, kiedy są finansowane z dodatkowych źródeł budżetowych, ponad kwoty przekazane poprzednich latach, oraz „twarde”, kiedy łączą się z decyzjami o
zaprzestaniu (lub zmniejszeniu) finansowania pewnych pól badan lub zadań. W Niemczech te „ujemne priorytety” nazywa się posteriorytetami.
67
Czasami termin ten stosuje się w nazwach pewnych konkretnych procedur, np. sposobu
dochodzenia do decyzji w sprawie długofalowego finansowania wielkiej aparatury badawczej.
Na wybór priorytetów mają wpływ >TYP SYSTEMU NAUKI, >RAMY POLITYK, >ANALIZY
POLITYK, >KONSULTACJE, wydarzenia (np. demonstracje przeciwko ACTA, energii nuklearnej, badaniom prenatalnym), media („czwarta władza”) oraz aktywność obywateli
(sieć, organizacje pozarządowe).
W scentralizowanym systemie nauki priorytety ustala się odgórnie, a interesariusze zabierają głos tylko jako doradcy; w systemie zdecentralizowanym przeciwnie, decydujący
głos ma środowisko naukowe; w systemie mieszanym łączy się wybór odgórny z oddolnym.
O kryteriach selekcji priorytetów decyduje zarówno wewnętrzna logika rozwoju
wiedzy naukowej i technologicznej, jak i potrzeby oraz perspektywy gospodarcze,
społeczne i polityczne kraju. Jednoczesne uwzględnienie tych różnych wymiarów oraz
uporanie się z nadmiarem informacji płynących z diagnoz, prognoz i opinii jest zadaniem polityki jako sztuki opartej na wiedzy.
Aby w miarę racjonalnie ustalać priorytety, trzeba mieć dane do analiz, znać potrzebne
kategorie i klasyfikacje, umieć stosować schematy analityczne i procedury decyzyjne.
Nie jest to, wbrew pozorom, łatwe; wiele administracji uczyło się sztuki priorytetyzacji
od swoich bardziej zaawansowanych sąsiadów. Takim nauczycielem dla Finów byli
Szwedzi.
Aż do początków lat 1960. przeważała opinia, że kwestię ustalania priorytetów w
nauce powinno się pozostawić samym badaczom. Rozwój nauki jest nieprzewidywalny, a naukowcy najlepiej wiedzą, co dla nauki dobre. Zakwestionował tę zasadę
Alvin Weinberg (1962), argumentując, że przy wyborze priorytetów wewnętrzne kryteria – dojrzałość pola badawczego i kompetencje badaczy – powinny zostać uzupełnione
przez kryteria zewnętrzne, takie jak znaczenie tego pola dla 1) rozwoju innych pól
badawczych oraz 2) osiągnięcia ważnych celów technologicznych, gospodarczych i
społecznych.
Jednak w rzeczywistości priorytety stosowano, odkąd tylko podczas I (a potem II) Wojny
Światowej gwałtownie wzrosły rządowe wydatki na B+R. Priorytetem było wówczas
naukowe wsparcie zwycięstwa wojennego, a po wojnie zwycięstwo w zimnej wojnie.
Priorytetowe stały się odgórnie wybrane przez rząd dziedziny, takie jak energia nuklearna, podbój kosmosu, fizyka, poza-uczelniane instytuty badawcze.
Obecnie system wyboru priorytetów jest coraz bardziej zdecentralizowany i wielopoziomowy (specjalności wybrane przez agencje, wielkie organizacje badawcze, uczelnie).
Priorytety są ustalane na poziomie europejskim (np. Horyzont 2020), krajowym (np.
Krajowy Program Badań) i regionalnym (np. regionalne strategie innowacji, inteligentna
68
specjalizacja). Informacje o rządowych priorytetach w dziedzinie nauki, technologii i
przemysłu zamieszcza OECD Science, Technology and Industry Outlook.
Nowe kraje członkowskie Unii Europejskiej muszą stosować nieco inne perspektywy w
zbieraniu i analizowaniu danych niż rozwinięte. Obok perspektywy diagnostycznej (np.
jak działa system nauki) i prognostycznej (jakie dyscypliny i technologie stają się lub
staną się podstawą przyszłego paradygmaty techno-gospodarczego) niemniej ważne są
dla nich perspektywa dościgania (jak powinny zmieniać się funkcje badań jako motoru
rozwoju w kolejnych fazach rozwoju?) oraz perspektywa specjalizacji (jakie są przewagi
porównawcze kraju i jak je wykorzystywać?).
Bibliografia.
Priority Setting and the Coordination of International Cooperation OECD 2008
R&D specialisation strategic intelligence in priority setting OECD 2008
S&T Foresight & Horizon scanning Influencing R&D priorities Netherlands OECD 2008
Towards Good Practices in Priority Setting OECD 2008
Priorities in Science & Technology Policy. An International Comparison 2004
Emerging Thematic Priorities for Research in Europe IPTS 2000
Setting Priorities for the Science Base, POST, Parliamentary Office of Science and Technology, 1993.
Gabriel Drillhon, Choosing priorities in science and technology, OECD, Paris 1991.
A. Rip, R. Hagendijk, Implementation of Science Policy Priorities, SPSG Concept Paper No. 2, 1988.
PROBLEM POLITYCZNY
Proces >FORMUŁOWANIA POLITYKI w ramach >CYKLU POLITYKI zaczyna się od zdefiniowania problemu.
Wg Giandomenico Majone (…) najważniejszą funkcją zarówno debaty publicznej, jak i
formułowania polityk jest ustalanie norm, które określają, kiedy pewne warunki należy
uznać za problemy polityki. Obiektywne warunki rzadko są tak ważne i jednoznaczne, że
określają program polityki lub narzucają odpowiednie sformułowane zagadnienie. W latach 50. problem ubóstwa miał niewielkie znaczenie w amerykańskiej świadomości społecznej. W latach 60., przy nieznacznych zmianach dystrybucji dochodu, stał się ważną
częścią polityk publicznych [Majone 2007].”
Problemy mogą być konceptualizowane w różnych skalach i z różnym stopniem skomplikowania. Skala lub jednostki analizy (np. poziom mikro lub makro) i złożoności (pojedyncza kwestia lub gniazdo pokrewnych zagadnień) mają wielkie znaczenie gdy idzie
o to, jak problemy polityczne przedstawia się, dyskutuje i bada.
Opis problemu politycznego obejmuje następujące elementy: podstawowe fakty; charakter i waga zagadnienia; informacja, kogo problem dotyczy (np. małych i średnich firm),
jakie są jego źródła i jakie następstwa. Najczęściej budowę strategii innowacyjnych poprzedza analiza krajowego systemu innowacji, kładąca nacisk na jego „ułomności” (Por.
69
>UZASADNIENIA POLITYKI NAUKOWEJ I INNOWACYJNEJ), „luki”, „bariery”, „dysproporcje”, „pułapki rozwoju” i „wąskie gardła”. W trakcie analizy zwraca się m.in. uwagę na
luki: wiedzy, popytu, przedsiębiorczości, zasobów ludzkich, infrastruktury, a także na
lukę inwestycyjną i instytucjonalną. Następnie, ustala się źródła i uwarunkowania każdej z luk oraz proponuje sposoby ich usunięcia lub ograniczenia. Luki mogą dotyczyć
m.in.: kapitału ryzyka; dostosowania podaży i popytu w produkcji wiedzy naukowej i
technologicznej; niedostatecznego popytu ze strony firm na nowe technologie (zwłaszcza informacyjnymi i telekomunikacyjnymi) z powodu słabej wiedzy o ich zaletach;
przeszkód w tworzeniu małych innowacyjnych firm z powodu nieefektywności rynku
kapitałowego oraz braku klimatu przedsiębiorczości; braku infrastruktury upowszechniania wiedzy i technologii; niedostatecznej mobilności pracowniczej i in.) itd.
Pytania odnoszące się do „luk” powinny wynikać z analizy powiązań gospodarczych
branży lub regionu. Np. – w jakim punkcie łańcucha powiązań gospodarczych ujawniają
się ułomności rynku? Czy luka istnieje po stronie popytu czy po stronie dostaw? Czy
problem zachodzi w B+R, produkcji czy marketingu? Czy bariery mają charakter techniczny, strukturalny, organizacyjny czy finansowy? Czy nie dofinansowanie B+R ze strony biznesu ma związek ze specjalnymi cechami B+R, czy też jego źródłem jest niechęć do
podejmowania ryzyka? Jeśli bariera ma charakter techniczny, czy problem jest przede
wszystkim efektem nadzwyczajnego ryzyka technicznego, nierównowagi w B+R, nieadekwatnej infrastruktury, czy jeszcze innych czynników? Jeśli bariera ma charakter strukturalny, czy problem wynika z braku `masy krytycznej` badaczy w firmie, z niedostatecznej wielkości firmy, z `barier wejścia`, czy też ze słabej pionowej integracji? Jeśli
bariery mają charakter menedżersko-organizacyjny, czy problem jest związany z nowym lub wysokimi wymaganiami co do koordynacji B+R, produkcji i marketingu, czy też
z potrzebą nowych praktyk lub technik? [Tassey 1997]
„Luka” jest zarazem wskazaniem dla polityki. Np. w opinii Banku Światowego czynnikami odpowiedzialnymi za niski poziom przedsiębiorczości w Polsce są wysokie koszty
rejestracji firmy, niekorzystne przepisy podatkowe i regulujące rynek pracy, wysoki poziom składek na ubezpieczenie społeczne, a także uciążliwa biurokracja i niska skuteczność sądownictwa [Bank Światowy]. Każda z rozpoznanych luk to jednocześnie obszar
poszukiwanych rozwiązań oraz podstawa do ustalenia zasad oceny proponowanych
rozwiązań.
W określaniu luk pomocne jest sięganie po metafory, uznane i sformalizowane, takie jak
krajowy system innowacji, otwarta metoda koordynacji, czy też konkurencyjna przewaga, oraz nowe i własne (por. >METAFORY W NAUCE). Metafory to “sposób wyboru,
organizowania, interpretacji oraz nadawania sensu złożonej rzeczywistości w celu budowy drogowskazów dla poznawania, analizowania, argumentowania oraz działania”
[Øverland 2005].
70
Luki
Luka wiedzy. Niedopasowanie podaży i popytu w produkcji wiedzy. Wyższe uczelnie i instytuty państwowe nie są w dostatecznym stopniu ukierunkowane na dziedziny o strategicznym znaczeniu dla
przedsiębiorczości. Z drugiej strony, MŚP nie wykorzystują w wystarczającej mierze wiedzy wytwarzanej w tych instytucjach z powodu trudności dostępu do nich lub też braku świadomości potencjalnych korzyści ze stosowania wiedzy. / Luka pomiędzy wzrastającą potrzebą skutecznego upowszechniania wiedzy a istniejącą infrastrukturą upowszechniania, rozwiniętą w okresie dominacji liniowego modelu innowacji. / Firmy nie wykorzystują wiedzy swych dostawców oraz klientów.
Luka popytu. Niedostateczne zainteresowanie ze strony firm nowymi technologiami (zwłaszcza informacyjnymi i telekomunikacyjnymi) z powodu słabej wiedzy o ich zaletach.
Luka przedsiębiorczości. Niskie tempo tworzenia nowych firm z powodu nieefektywności rynku kapitałowego oraz braku klimatu przedsiębiorczości
Luka inwestycyjna. Publiczne i prywatne wydatki na B+R nie są w stanie zapewnić produkcji wiedzy
naukowej i technologicznej odpowiadającej potrzebom gospodarczym i społecznym. / Względnie niski poziom prywatnych inwestycji w B+R. Brak prywatnego kapitału ryzyka.
Luka instytucjonalna. Nadmierna koncentracja badań w sektorze szkolnictwa wyższego, z jej konsekwencją - nadmiernymi inwestycjami w badania podstawowe. Brak masy krytycznej badań stosowanych. / Komercjalizacja wyników B+R uzyskanych w wyższych uczelniach i w laboratoriach państwowych hamowana przez utrudnienia w wymianie personelu i funduszy między przemysłem, wyższymi uczelniami i laboratoriami państwowymi. / Nadmiernie rozbudowane B+R w stosunku do innych form działalności naukowej i technicznej. Stosunkowo słabe powiązania uczelni z przemysłem.
Instytucjonalne bariery utrudniające skuteczne interakcje pomiędzy różnymi elementami systemu
innowacji. / Sieć instytucji działających na rzecz transferu technologii jest niepełna, co prowadzi do
wielu luk i dublowań. Poziom umiejętności technicznych MŚP stosunkowo niski w porównaniu z zagranicą. / Brak poczucia tożsamości w tzw. gronach przemysłowych / Firmy zaniedbują możliwości
współpracy z innymi firmami.
Luka infrastrukturowa. Brak wystarczającej infrastruktury B+R (urządzenia, wyposażenie) w publicznych organizacjach badawczych. / Niski poziom wykorzystywania publicznej infrastruktury nauki przez MŚP.
Luka w zasobach ludzkich. Niski udział personelu B+R wśród ogółu zatrudnionych, co odzwierciedla
nie tylko niską naukochłonność gospodarki, ale także nieefektywność systemu zatrudnienia. / Niedostatek badaczy zatrudnionych w twórczą działalność B+R (w przeciwieństwie do prac B+R o charakterze ewaluacyjnym, adaptacyjnym i postlicencyjnym). / Niedostateczna mobilność pracownicza.
Sposób definiowania luki jest zatem jedną z ważniejszych przesłanek doboru instrumentu politycznego. Pomocne w uświadomieniu sobie wszystkich komponentów problemu politycznego są opracowania zawierające propozycję map problemowych:
LUKI ORAZ SPOSOBY ICH PRZEZWYCIĘŻANIA
Źródła branżowych ułomności innowacji
Typowe branże
Instrumenty polityczne
Finansowe koszty transakcji, z jakimi
spotykają się MSP; ryzyko związane
ze standardami nowych technologii
Oprogramowania, wyposażenie, instrumenty
Wspieranie kapitału ryzyka; instytucje pomostowe dla ułatwienia adaptacji standardów
Mała wielkość firm; wielkie ze-
Rolnictwo, przemysł
Instytucje pomostowe niskich
71
wnętrzne zyski; ograniczona możliwość przywłaszczenia zysków
lekki
technologii (tzw. extension services) dla ułatwienia transferu
technologii
Wysoki koszt, ograniczona możliwość
przywłaszczenia zysków (szczególnie
dla technologii infrastrukturowych)
Przemysł lotniczy i kosmiczny, technologie
elektryczne i elektroniczne, ICT, półprzewodniki
Współpraca B+R, subsydia; instytucje pomostowe dla ułatwienia rozwoju technologii infrastruktury
Wiedza powstaje poza sektorem biznesu; jej twórcy mogą nie rozpoznać
potencjalnych zastosowań lub też
mogą nie umieć skutecznie przekazywać potencjalnym użytkownikom
informacji o postępie badań
Biotechnologia, chemia,
materiałoznawstwo,
przemysł farmaceutyczny
Instytucje pomostowe dla ułatwienia dyfuzji postępu badań
w tzw. wielkiej nauce.
Martin 2000
Modele innowacji, źródła branżowych ułomności innowacji oraz odpowiedzi polityki
Główny tryb innowacji
Źródła branżowych
ułomności innowacji
Typowe branże
Instrumenty polityczne
Rozwój wkładu dla
branż użytkowników
Finansowe koszty transakcji, z jakimi spotykają się MSP; ryzyko
związane ze standardami nowych technologii
Oprogramowania, wyposażenie, instrumenty
Wspieranie kapitału
ryzyka; instytucje pomostowe dla ułatwienia adaptacji standardów
Aplikacja wkłady
rozwiniętego w branżach dostawców
Mała wielkość firm;
wielkie zewnętrzne zyski; ograniczona możliwość przywłaszczenia zysków
Rolnictwo, przemysł
lekki
Instytucje pomostowe
niskich technologii
(tzw. extension services) dla ułatwienia
transferu technologii
Rozwój złożonych
systemów
Wysoki koszt, ograniczona możliwość przywłaszczenia zysków
(szczególnie dla techno-logii infrastrukturowych)
Przemysł lotniczy i kosmiczny, technologie
elektryczne i elektroniczne, ICT, półprzewodniki
Współpraca B+R, subsydia; instytucje pomostowe dla ułatwienia rozwoju technologii infrastruktury
Aplikacja technologii
wysoce nauko-chłonnych
Wiedza powstaje poza
sektorem biznesu; jej
twórcy mogą nie rozpoznać potencjalnych
zastosowań lub też
mogą nie umieć skutecznie przekazywać
potencjalnym użytkownikom informacji o
postępie badań
Biotechnologia, chemia, materiałoznawstwo, przemysł farmaceutyczny
Instytucje pomostowe
dla ułatwienia dyfuzji
postępu badań w tzw.
wielkiej nauce.
72
Martin 2000
Kolejne kroki służące definiowaniu problemu ujmuje się w następujący sposób:
KROK 1
Stan aktualny
KROK 2
Aspekty zadawalające >
Oczekiwania
Aspekty pożądane w przyszłości
Wizje przyszłości
KROK 3
Wąskie gardła
Bariery
Definiowanie
problemu
Øverland 2005
Bibliografia
Bank Światowy, Perspektywy gospodarki opartej o wiedzę w Polsce 2004.
Head Brian 2009, Evidence-based policy: principles and requirements, University of Queensland.
Majone Giandomenico, Dowody, argumenty i perswazja w procesie politycznym, Wyd. Nauk. Scholar, Warszawa 2004.
Martin Stephen, John T. Scott, The nature of innovation market failure and the design of public support for
innovation, “Research Policy” 29 (2000), s. 439.
Øverland Erik F., The use of heuristic terms in policy building. Dynamic and fallacies in policy building process, Seminar at the IPTS June 6 2005.
Tassey Gregory, The economics of R&D policy, 1997.
Walker Warren E., The Use of Screening in Policy Analysis, Management Science, Vol. 32, No. 4. Apr., 1986,
ss. 389-402.
PROCES POLITYKI
[Policy process]
W naukach politycznych cykl polityki to narzędzie stosowane w analizie rozwoju polityki, bliskie pojęciu >CYKLU POLITYKI. Podobnie jak w cyklu polityki, w procesie polityki wyróżnia się cztery fazy: ustalania >agendy polityki, >formułowania polityki,
>wdrażania oraz >ewaluacji.
Podstawowe kwestie rozważane w procesie
•
•
Jakie są główne etapy procesu decyzyjnego polityce naukowej i technicznej, jacy interesariusze odgrywają w nich główną rolę i po jaki typ wiedzy sięgają?
W jaki sposób a) rozumie się, b) określa się
o problemy polityczne?
73
•
•
•
•
•
o cele i zadania i tzw. targety polityki?
o instrumenty polityczne?
o tzw. agendę polityczną?
o priorytety?
Jakie główne ramy koncepcyjne mają wpływ na wybór i określenie problemów itd.?
Jakie wyróżnia się podstawowe wzorce systemów zarządzania rozwojem nauki i
techniki i co charakteryzuje każdy z nich?
Jakie stosuje się klasyfikacje instrumentów polityki naukowej i technicznej? Jak ocenia się użyteczność poszczególnych instrumentów na podstawie doświadczeń z ich
zastosowaniami w odmiennych kontekstach politycznych różnych krajów?
Jakiego typu przeprowadza się monitoringi i ewaluacje?
W jaki sposób
określenie problemów, celów i zadań
wybór agendy i priorytetów
wyniki monitoringu i ewaluacji
inne polityki, mające wpływ na politykę naukową i techniczną (np.
gospodarcza, monetarna, przemysłowa)
o wielkie strategie rządowe - wpływa(ją) na wybór instrumentów politycznych
(lub korektę istniejących)?
o
o
o
o
•
•
Jakie narzędzia informacyjno-analitycznego wsparcia stosuje się w procesie decyzyjnym (np. analizę polityki, benchmarking polityk, foresight, prognozy rozwoju nauki,
modele ekonometryczne)? W jaki sposób statystyka nauki i techniki służy jako narzędzie w ustalaniu agendy politycznej, problemów, priorytetów, monitoringu i ewaluacji?
W jaki sposób zapewnia się
o tzw. policy mix (synergię pomiędzy różnymi instrumentami, np. wzajemne
ukierunkowanie ich na siebie lub też skierowanie dwóch lub więcej
instrumentów na wspólny cel lub tzw. target)?
o sekwencjonowanie instrumentów (następstwo w czasie w pewnym
logicznym porządku)?
•
•
W jaki sposób organizacje mające wpływ na politykę naukową i techniczną dokonują
auto-korekty swoich decyzji (uczą się na błędach)”?
Jakie wśród państw UE występują trendy polityki naukowej i technicznej, w szczególności w odniesieniu do
o procesu decyzyjnego,
o instrumentów politycznych,
o priorytetów,
o koncepcji politycznych i ekonomicznych?
74
Zmiana charakteru procesu polityki. Badacze podkreślają zmianę charakteru procesu
polityki. Liniowy model polityki w procesie sekwencyjnym (formułowanie, ustalanie
agendy, decyzje, wdrożenie, ewaluacja, formułowanie ...) nie jest dłużej aktualny, przynajmniej w dziedzinie polityki naukowo-technicznej. Wszystkie typowe kroki są bardziej
lub mniej interakcyjne. Polityka innowacyjna jest coraz bardziej kwestią tworzenia sieci
między zróżnicowanymi zorganizowanymi podmiotami, zamiast odgórnym podejmowaniem decyzji. Udane tworzenie polityki zazwyczaj opera się na kompromisach i przewartościowaniach perspektyw interesariuszy. Podmioty prowadzące negocjacje realizują różne – częściowo rozbieżne – interesy, różnie postrzegają „rzeczywistość”
[Kuhlmann 1999].
Obecny model polityki publicznej, oparty na redukcji złożonych problemów do postaci
oddzielnych, racjonalnie zarządzanych części, nie jest już odpowiedni w obliczu do wyzwań stojących przed rządami oraz zmian w szerszym środowisku, w którym działają.
Kluczowe wyzwania to:
•
•
•
zwiększona złożoność spowodowana przez wpływ teleinformatyki oraz wzrost
interakcji między różnymi organizacjami i agencjami;
bardziej zróżnicowana gama organizacji zaangażowanych w świadczenie usług
publicznych
zatarcie granic między polityką wewnętrzną i międzynarodową w wyniku zglobalizowanych sieci łączności oraz liberalizacji działalności gospodarczej, co oznacza, że krajowe wydarzenia pozostają pod coraz wpływem czynników międzynarodowych, i odwrotnie [Chapman].
Proces polityki traktuje się coraz częściej jako proces debat i negocjacji, podczas którego
w różnych ramach interpretacji poddaje się ocenie różne cele, założenia, opinie, zasady i
działania [Lundvall 1997].
Koncepcja Edelenbosa, Monnikofa i van de Riet ”podwójnej spirali” procesu polityki. Wg koncepcji Edelenbosa, Monnikofa i van de Riet istnieją dwa główne podejścia w
procesie politycznym: podejście analityczne i menedżerskie. Pierwsze kładzie nacisk na
budowę strategii politycznej dzięki serii analiz, drugie – na poszukiwanie konsensusu.
Oba podejścia starają się określić własną tożsamość przez odrzucenie przeciwnego stanowiska. Pierwsze często lekceważy polityczne aspekty podejmowania decyzji, drugie –
lekceważy analityczne, zarzucając mu naiwność i oderwanie od rzeczywistości polityki.
Jednak walka pomiędzy tymi dwoma obozami jest nieproduktywna i niepotrzebna, gdyż
uzupełniają się wzajemnie. Tak więc, powinno dokonać się ich syntezy. Taką proponowaną przez nas syntezą byłoby podejście podwójnej spirali.
Podejście analityczne. Przez stulecia mędrcy, rady, błazny, szpiedzy, żony i nałożnice
doradzały decydentom. Wszyscy oni byli źródłem informacji, pomagali ją zinterpretować i doradzali, jak ją wykorzystać. Z czasem rozwój polityki oddzielił decydenta od doradcy. Szczególnie w XIX w. postępy wiedzy naukowej wzmocniły wiarę w możliwość
zastosowania metody naukowej do ulepszenia warunków życia. Powstała potrzeba zapewnienia racjonalnego doradztwa decydentom. Podejście analityczne wyłoniło się pod
75
koniec II Wojny Światowej z badań operacyjnych stosowanych do rozwiązania zagadnień wojskowych. Analiza matematyczna systemu broni dała początek szerszej perspektywie analizy systemowej. Analiza ta została później zastosowana w świecie polityki cywilnej. W pierwszych dekadach po II Wojnie Światowej nauki ekonomiczne stały się
głównym źródłem idei i metod dla polityki publicznej. Ekonomia określiła zasady analizy systemów, przyczyniając się do powstania zmatematyzowanej analizy systemów.
Aby umożliwić obliczenia, brano pod uwagę wyłącznie wartości wyrażane w pieniądzu.
Jednak szybko okazało się, że podejście to pozostawia na boku „miękkie” efekty, społeczne i środowiskowe. Aby temu zaradzić, stworzono „społeczną analizę kosztów i korzyści”, w której czynniki zazwyczaj nie wyrażane ilościowo ujmowano w wartościach
pieniężnych. Zamiana czynników jakościowych na ilościowe zrodziła jednak wiele trudności, których uświadomienie dało początek analizie wielo-kryterialnej i scorecards
(„Balanced scorecard” definiuje się jako zbiór miar, które dają menedżerom szybki i obszerny pogląd na stan biznesu, wliczając w to satysfakcję klientów, poziom innowacji organizacyjnych i sytuację finansową. Metoda stosowana także w szkolnictwie wyższym i
administracji rządowej, z reguły służy jako narzędzie stałego organizacyjnego uczenia
się i stopniowego doskonalenia). Metody te rezygnowały z odnoszenia wszystkich wartości do wartości pieniężnych; to politycy mieli teraz dokonywać wyborów, przypisując
własne wagi do różnych kryteriów. Z czasem w analizach wzrosło znaczenie czynników
nie-materialnych, takich jak kulturalne i polityczne. Rozszerzenie zakresu pod koniec lat
1950-tych przekształciło analizę systemów w analizę polityczną.
Podejście analityczne ma na celu wspieranie polityki na podstawie wiedzy naukowej. W
jej ujęciu problem polityczny to w znacznej mierze rezultat braku wiedzy. Cel analizy politycznej to pogłębienie rozumienia sytuacji problemowej, możliwych rozwiązań i ich
następstw. Najlepszą opcję można wybrać gromadząc wiedzę o celach, warunkach i
efektach różnych opcji. Kluczowe pojęcie analizy politycznej to (techniczna) racjonalność. Decydenci mają postępować racjonalnie, a jest to możliwe dzięki racjonalnej analizie. Przez racjonalność rozumie się wybór najwłaściwszych środków dla realizacji danych celów. W ewaluacji polityk, główną rolę odgrywa skuteczność (osiągnięcie celu) i
wydajność (relacja między środkami a celami).
Brak racjonalności w życiu codziennym analitycy upatrywali w braku informacji i/lub
braku zdolności do ich przetwarzania. Odkrycia Simona i in. zwróciły jednak uwagę na
ograniczenia racjonalności podejmowania decyzji w świecie polityki. W tradycyjnej analizie politycznej proces polityczny postrzega się jako racjonalno-hierarchiczny i złożony
z różnych faz.
Z biegiem czasu narosła krytyka tradycyjnego podejścia analizy politycznej. Stwierdzono, że z reguły brak wielu danych potrzebnych dla przeprowadzenia analizy, a jeśli
są, to niekompletne albo niejednoznaczne. Ponadto, obiektywizm czy neutralność badacza czy polityka jest mitem. Wyznawane idee i teorie zabarwiają każdą obserwację, a narzędzia analizy i metody mają swoje ukryte założenia. Sposób, w jaki traktuje się informację, w silnym stopniu zależy od sposobu, w jaki polityk patrzy na świat. Fakty to
produkty definicji i zasad. Kształtowane są one przez światopoglądy, koncepcje, mapy
76
mentalne. Co więcej, decydenci często kierują się nie tyle interesem publiczny, co względem na reelekcję, status, prestiż, wpływ, zarobki itd. Naukowcy, doradcy i politycy mogą
też być, dzięki wspólnemu wykształceniu i ideologii, częścią tej samej grupy technokratów. Politycy nieraz wykorzystują analizy jako symbol racjonalnego procesu decyzyjnego, aby wzmocnić swoją pozycję oraz wyjaśnić i usprawiedliwić swe działania wyborcom. Politycy podatni są na myślenie grupowe. Decyzje rzadko są dziełem ich indywidualnego namysłu, a z zasady zapadają w kręgach politycznych, do których należą. Kręgi te
starają się urabiać decyzje zgodnie z własnym interesem (lub własnym pojmowaniem
interesu publicznego), a blokować lub zamrażać decyzje, które kłócą się z ich poglądami.
W efekcie rutyny, metoda prób i błędów, negocjacje, targi, perswazje, retoryka, szantaż,
lobbowanie itd. zazwyczaj mają silniejszy wpływ na rezultat polityki niż racjonalne analizy. Proces polityczny okazuje się często nieprzewidywalny: nie-liniowy, pozbawiony
ustalonej struktury, jasnego i wyraźnego początku lub końcowych sekwencji.
Jednym z najpoważniejszych problemów w analizie politycznej jest znalezienie silnych
dowodów empirycznych dla przedstawianych rekomendacji. Politycy proszą analityków
o radę, a zadaniem ekspertów (lub ciał doradczych) jest oparcie zaleceń na „ogólnych
ustaleniach” lub „stylizowanych faktach”. Jednak nie jest to proste. W wielu dziedzinach
ekonomii współistnieją sprzeczne teorie, a świadectwa empiryczne są często poplątane.
Np. teorie dotyczące wzrostu gospodarczego, innowacji, technologii czy prawa o konkurencyjności zawierają tezy nie zawsze mocne, trudne do kondensacji w formie prostych
zaleceń, a czasem nawet sprzeczne ze sobą. Źródłem tych sprzecznych rezultatów są
rozbieżne zespoły założeń (w teorii) i różne standardy i metody (w badaniach empirycznych). Wśród ekonomistów istnieje pewien podstawowy konsensus w odniesieniu
do pewnych zagadnień, ale tylko na wysokim szczeblu abstrakcji, a nie w odniesieniu do
konkretnych zaleceń. Zgodę co do poglądów, założeń i metod można osiągnąć w ramach
szkół naukowych, ale nie pomiędzy szkołami. Choć współzawodnictwo pomiędzy szkołami prowadzi do coraz większej liczby nowych teorii, nieraz wartościowych w kategoriach mocy dowodowej i liczby zastosowań, niemniej różnią się one w podstawowy sposób pod względem ogniska zainteresowań, założeń i metod, a zatem są niewspółmierne
wobec siebie.
Jakkolwiek tradycyjne analizy biorą dziś pod uwagę fakt, że model racjonalny nie odzwierciedla rzeczywistości, nadal jest on uznawany za normę. Tradycyjny analityk trzyma się z dala od świata polityki. Dzieje się tak głównie z powodu jego politycznej słabości. Wpływ analizy politycznej na decyzje jest często bardzo słaby.
Wzrastająca krytyka podejścia analitycznego nie pozostała bez wpływu na samych analityków. Zawsze ten czy tamten oddalał się od nurtu ortodoksyjnego, proponując podejście zmodyfikowane lub alternatywne. Z biegiem czasu coraz więcej analityków uświadomiło sobie ograniczenia swojego podejścia. Doprowadziło to do powstania partycypacyjnej analizy politycznej. Kładzie ona nacisk na pluralizm wartości i argumentów. Analizy i badania są interpretowane poprzez dialog i interakcje społeczne.
77
Krytyka podejścia analitycznego zrodziła serię alternatywnych modeli procesu podejmowania decyzji, bądź empirycznych (opisujących, jak naprawdę przebiega), bądź normatywnych. Obraz, jaki szkicują, jest znacznie bardziej chaotyczny niż model sekwencyjny. I tak, Lindblom w modelu przyrostowym (inkrementalnym) zastępuje racjonalność faz modelem, w którym decydenci rozważają jedynie niewielką liczbę opcji i ich następstw, przy czym opcje te różnią się od już stosowanych rozwiązań nie jakościowo, a
jedynie co do stopnia. Cohen w modelu zorganizowanej anarchii podkreśla, że strategie
polityczne to efekt czterech stosunkowo niezależnych strumieni: problemów, rozwiązań,
uczestników oraz okazji wyboru. Uczestnicy wrzucają problemy i rozwiązania do „kosza
na śmieci” i starają się rozwiązywać je w sieci wzajemnych interakcji. Wg Kingdona możliwe rozwiązania problemów wyłaniają się (jako wynik planowania lub przypadku)
wtedy, gdy przetną się ze sobą sfery problemu, strategii (policy) i polityki (political).
Wszystkie te trzy sfery charakteryzują się własną wewnętrzną dynamiką, i przecięcia
takie sa jedynie chwilowe. Jeszcze inny model kładzie nacisk na sieciowy charakter decyzji, podejmowanych z uwzględnieniem roli i siły wzrastającej liczby organizacji, starających się nagiąć proces polityczny do swych własnych interesów.
Podejście menedżerskie. Kluczowe w podejściu menedżerskim to wzajemne percepcje
uczestników procesu decyzyjnego i ich wzajemne interakcje. Uczestnicy mogą mieć różny pogląd o faktach, lub też mogą zgadzać się co do faktów, ale przypisywać każdemu
różne wartości. Uczestniczą oni w zmieniających się koalicjach i starają się dojść do rozwiązań na drodze mediacji i negocjacji, targowania się i konfrontacji. Problemy polityczne to rezultat konfliktów interesów i rozbieżności w sferze władzy. W grze o władzę,
badacze są wykorzystywani po to, by nadać głębi stronniczym argumentom i dostarczyć
uzasadnień dla wcześniej ustalonych opinii.
Podejście menedżerskie, choć bardziej realistyczne (czy nawet cyniczne) też nie uniknęło krytyki. Nie przyniosło ono samych tylko dobrych doświadczeń. Częściowo wynikało to z braku doświadczenia stron uczestniczących w procesie decyzyjnym. Ale wypływało też z istotnych wad metody, nacisku na kwestie proceduralne, braku jasno
sprecyzowanego porządku postępowania oraz wyraźnie określonych oczekiwań co do
wyniku procesu politycznego. Wadą podejścia bardziej realistycznego okazało się to, co
było zaletą podejścia bardziej idealistycznego: większa normatywność, wskazywanie zasad postępowania.
Ku syntezie: podejście „podwójnej spirali”. Z powodu ograniczeń obu alternatywnych
podejść autorzy proponują taką ich syntezę, która połączyłaby ich zalety, jednocześnie
minimalizując ich wady. Jak dotąd oba obozy walczą ze sobą, starając się wchłonąć tyle
ile się da zalet przeciwnego podejścia. Obóz analityczny włącza interakcję, polityczny –
badania. Warto jednak oba te dążenia połączyć, proponując syntezę. Wymaga to spojrzenia na te podejścia nie jako na alternatywy, ale jako rozwiązania komplementarne.
Nie jest to łatwe, gdyż oba oparto na różnych metodologiach. Podejście analityczne oparte jest na ideach pozytywizmu (w tym czy innym jego wariancie). Współczesne wersje
pozytywizmu uznają subiektywizm poznania jako nieunikniony, ale stawiają obiektywizm jako ideał. Podejście menedżerskie z kolei jest często oparte na przeciwstawnej
78
postawie filozoficznej, (społecznego) konstruktywizmu, zakładającej, że wiedza to konstrukcja indywidualna lub społeczna. Zgodnie z tą perspektywą, nie sposób przeprowadzić ostatecznego testu empirycznego badanego obiektu, gdyż nie ma czegoś takiego, jak obiektywna rzeczywistość. Jeśli tak, to gdy brak niezmiennych praw, przewidywania pozbawione są sensu.
Skoro obie epistemologie w swych dzisiejszych wersjach uznają subiektywizm i społeczny charakter wiedzy, podejście „podwójnej spirali” upatruje swoje podstawy w epistemologii pragmatyzmu. Pragmatyzm zakłada istnienie rzeczywistości zewnętrznej w
stosunku do badacza oraz prowizoryczny charakter wiedzy. Kluczowy test dla wiedzy to
stopień, w jakim pozwala ona kontrolować następstwa działań podjętych na jej podstawie. Pragmatyzm jest w stanie wykorzystać najbardziej wartościowe elementy zarówno
pozytywizmu, jak i konstruktywizmu, i dostarczyć użytecznej podstawy metodologii
działań. Jest oczywiste, że fuzja wymaga czegoś więcej niż tylko prostego zsumowania
obu podejść. Podejście podwójnej spirali stanowi pomost pomiędzy dwoma wcześniej
opisanymi podejściami. Ma ono na celu uniknięcie sytuacji, z których każde z nich – analityczne i menedżerskie – dryfowałoby w przeciwną stronę. Wymaga ono, aby oddzielić
od siebie tak, jak tylko możliwe, proces tworzenia percepcji i proces działania (ucierania
zgody). Niezależność obu procesów można osiągnąć dzięki wielu różnym posunięciom,
zapobiegającym niebezpieczeństwom i pułapkom związanym z każdym z podejść. I tak,
ryzyko związane z podejściem analitycznym to np. mit wspólnego interesu, zakrywający
realny partykularyzm proponowanych rozwiązań, obstrukcja ze strony stron przeciwnych proponowanemu rozwiązaniu itd. Z kolei, ryzyko związane z podejściem menedżerskim to: uwięzienie w kwestiach proceduralnych, pogrążenie się w niekończącym
się poszukiwaniu celu lub niekończącej się wzajemnej krytyce, chaosie cząstkowych raportów, bez pogłębienia rozumienia problemu, itd. [Edelenbos 2005].
Bibliografia
Giandomenico Majone, Dowody, argumenty i perswazja w procesie politycznym, Scholar 2004.
Jurian Edelenbos, René Monnikof, Odette van de Riet, A double helix approach: a proposal to forge a better
integration of analysis and process in policy development, “International Journal of Technology, Policy and
Management”, Vol. 3, No. 1, 2003, s. 1-21.
Brian Slack, The Policy Process, w: The Geography Of Transport Systems.
Stefan Kuhlmann et. al., Improving Distributed Intelligence in Complex Innovation Systems, Final Report of
the Advanced Science & Technology Policy Planning Network (ASTPP), a Thematic Network of the
European Targeted Socio-Economic Research Programme (TSER), 1999
Jake Chapman, System failure. Why governments must learn to think differently, Demos.
Bengt-Åke Lundvall, Susana Borrás, The globalising learning economy: Implications for innovation policy,
Report based on contributions from seven projects under the TSER programme, DG XII, Commission of the
European Union, December 1997.
79
RAMY ANALIZY POLITYKI NAUKOWEJ I INNOWACYJNEJ
Istnieją rozmaite propozycje ram analiz wspomnianych polityk, ułatwiające uchwycenie
ich głównych parametrów i wymiarów. Tworzenie instrumentarium polityki N+T i innowacji jest pewnego rodzaju grą, której składnikami są cele i zadania, problemy polityczne, priorytety rządowe, aktorzy, siły sprawcze (jak np. ministerstwa), kryteria decyzji, koncepcje (wśród nich modele innowacji), istniejące praktyki w świecie nauki, gospodarki i polityki. Każdy element jest zależny od pozostałych, wszystkie zmieniają się w
czasie.
Propozycja ram analizy polityki N+T
Proces formułowania rządowej polityki naukowej i innowacyjnej obejmuje: ustalenie celów, określenie sposobów interwencji i jej operacjonalizacji, wzięcie pod uwag otaczającego kontekstu i sposobów, za pomocą których cały proces miałby zostać oparty, metody ewaluacji, mechanizmów legitymizacji i interfejsów z innymi politykami rządowymi (polityki dodatkowe i komplementarne).
Cele: ogólne, strategiczne i operacyjne. Muszą być shierarchizowane, ilościowe, realistyczne i wewnętrznie spójne. Cele strategiczne mogą być różnego rodzaju, ekonomiczne, polityczne, kulturalne,
społeczne, edukacyjne.
Cele: rozwój wiedzy na froncie poznania; odrabianie zaległości w rozwoju N+T; tworzenie umiejętności ogólnych, itd.
Cele operacyjne: tworzenie nowej wiedzy, absorpcja nowej wiedzy, upowszechnianie wiedzy.
Skala czasowa: krótko-średnio-albo długo terminowa.
Aspekt ekspansji, utrzymani oraz ograniczania. (A tworzenie nowego?)
Ramy interwencji. Obszar geograficzny (region, kraj, obszra ponad narodowy, świat), typ działalności
naukowo-technicznej (badania podstawowe czyste i strategiczne, stosowane, prace rozwojowe, inne
rodzaje działalności N+T), pole działania (odkrycie, wynalazki, innowacje), problem synergii, sposób
określania operacjonalizacji.
Operacjonalizacja. Sektor działalności (szkolnictwo wyższe, laboratoria rządowe, przedsiębiorstwa,
organizacje pozarządowe), pole operacyjne (tworzenie i wzmacnianie infrastruktury, wspieranie
kształcenia badaczy, tworzenie i wzmacnianie sieci tworzenia, absorpcji i upowszechniania wiedzy;
informacja naukowa i polularyzacja nauki itd.), typ wsparcia (bezpośrednie lub pośrednie finansowanie > instrumenty polityki), wewnętrzna dynamika interwencji (tempo, wewnętrna spójność,
moment uruchomienia).
Czynniki warunkujące: strategiczne (masa krytyczna, dostęp do koniecznej aparatury), taktyczne
(np. programy współpracy) i operacyjne (np. fundusze). Tutaj trzeba wziąć pod uwagę wszystkie zalecenia, jake daje podejście systemowe! Niepewność wyniku. Synergia. PEST. Możliwe przeciwdziałanie ze strony interesariuszy. Możliwa sprzeczność z innymi politykami.
Finansowanie. Typ (bezpośrednie – pośrednie), możliwość zastosowania (wydatki inwetycyjne –
bieżące), filozofia (finansowanie pobudzające [mniej niż 25% + kapitał zasiewny, kapitał ryzyka, joint
venture, kredyty]), operacjonalizacyjne [koszty dzielone], strukturalne [integralne]), operacjonalizacja, formy transferu, środki wspierania.
Ewaluacja i przecinanie się polityk.
Caraça 1999
Często buduje się diagramy pomagające dostrzec i powiązać ze sobą podstawowe składniki polityki, np.:
80
SKŁADNIKI POLITYK I ICH WZAJEMNE POWIĄZANIA
Cele polityczne: sektorowe;
pomoc kryzysowa; B+R; rozwój
regionalny; inwestycje; MSP;
praca; eks-port; energia; środowisko
Subsydiowane: produkcja; inwestycje; inwestycje specjalistyczne; transport; B+R; instytucje nonprofit
PROGRAM WSPIERANIA Z BUDŻETU PAŃSTWA
Instrumenty: dotacje; dotacje
zwrotne; pożyczki; pożyczki
warunkowe; gwarancje; equity
capital; ulgi podatkowe
Struktura zarządzania: rząd
centralny; władze regionalne;
wspólnie – centralny i regionalne; instytucje publiczne; instytucje prywatne; wspólnie instytucje publiczne i instytucje
prywatne
OECD 1995
Nieraz także buduje się taksonomie głównych elementów polityki w powiązaniu z otoczeniem, na które ma ona oddziaływać. Tak np. stworzono taksonomię celów, instrumentów i instytucji składających się na krajowy system innowacji. Taksonomia ta ułatwia budowę matryc oraz uświadamia sposób, w jaki poszczególne czynniki mogą być ze
sobą związane. Obejmuje ona pięć podstawowych powiązań instytucjonalnych: środowiskowe (ramy prawne i infrastruktura fizyczna oraz polityki mające wpływ na system innowacji, takie jak rynku pracy, przemysłowej, handlowej, fiskalnej i monetarnej), przestrzenne (zmieniające się powiązania pomiędzy różnymi poziomami, takimi jak międzynarodowy, krajowy, regionalny i lokalny), polityczne (narzędzia polityczne pozostające
do dyspozycji rządu w celu kierowania i pobudzania działalności innowacyjnej), organizacyjne (aktorzy sceny, tacy jak MSP, wielkie przedsiębiorstwa, uniwersytety, laboratoria rządowe, organy rządu oraz władzy regionalnej i lokalnej, instytucje pomostowe i pośredniczące, takie jak parki nauki itd.) oraz powiązania branżowe [Capron].
Bibliografia
Technology and the Economy. The Key Relationships, OECD, Paris 1992.
Fernando Gonçalves João Caraça, A Framework for analysing government S&T policy interventions, CISEP
CONVERGE, June 1999
Henri Capron and Michele Cincera, Assessing the Institutional Set-up of National Innovation Systems
OECD National Systems for Financing Innovation 1995.
81
RAMY POLITYKI
Pojęcie ram polityki stosuje się w dwóch różnych znaczeniach.
Wg jednego znaczenia to akty prawne lub długoterminowe plany i strategie opisujące
cele polityki, ramy odniesienia dla bardziej szczegółowych polityk, programów i instrumentów.
Wg drugiego znaczenia, to sposoby wyboru, organizacji, interpretacji i nadawania sensu
złożonej rzeczywistości w celu zapewnienia wytycznych dla wiedzy, analizy, argumentacji i działań.
Ramy prawne i programowe. Np. ramy prawne i programowe ustaw dotyczących nauki i szkolnictwa wyższego w Polsce (2010-2011) to m.in.:
•
Ustawy budżetowe
•
Uzasadnienie do Projektu Ustawy Budżetowej Na Rok 2009 w Układzie Zadaniowym
•
Unijna „Strategia Europa 2020”
•
Krajowy Program Reform „Europa 2020”
•
Krajowy Program Reform „Europa 2020” – coroczne aktualizacje
•
Coroczne unijne wytyczne i zalecenia polityczne (Country-specific recommendations to
Annual Growth Survey)
•
Ustawa o zasadach prowadzenia polityki rozwoju (2006)
•
Długookresowa Strategia Rozwoju Kraju do 2030. Trzecia fala nowoczesności (2013)
•
Średniookresowa Strategia Rozwoju Kraju do 2020. Aktywne Społeczeństwo, Konkurencyjna Gospodarka, Sprawne Państwo (2012)
•
Koncepcja Przestrzennego Zagospodarowania Kraju 2030 (2011)
•
Dziewięć Zintegrowanych strategii
•
Strategia Innowacyjności i Efektywności Gospodarki
•
Strategia Rozwoju Kapitału Ludzkiego
•
Strategia Rozwoju Transportu
•
Strategia Bezpieczeństwo Energetyczne I Środowisko
•
Strategia Sprawne Państwo
•
Strategia Rozwoju Kapitału Społecznego
•
Strategia Rozwoju Regionalnego
•
Strategia Rozwoju Systemu Bezpieczeństwa Narodowego RP
•
Strategia Zrównoważonego Rozwoju Wsi, Rolnictwa I Rybactwa
•
Koncepcja Przestrzennego rozwoju Kraju do 2030
82
•
Strategie sektorowe
•
Strategia Rozwoju Szkolnictwa Wyższego (2009)
•
Krajowy Program Badań. Założenia polityki naukowo – technicznej i innowacyjnej
państwa. Załącznik do uchwały nr 164/2011 Rady Ministrów z dnia 16 sierpnia
2011 r.
Zależność między dokumentami krajowymi a unijnymi
Średniookresowa Strategia Rozwoju Kraju do 2020
Ramy postrzegania. Ramy postrzegania obejmują zarówno cele, jak i założenia dotyczące przyczyn problemów oraz wskazówki co do odpowiednich rozwiązań.
83
Bibliografia
Måns Nilsson, Learning, Frames and Environmental Policy Integration: the case of Swedish energy policy,
Environment and Planning C: Government and Policy 23(2) 2005 ss. 207 – 226.
REFORMY BUDŻETU PAŃSTWA
W ostatnich dwóch dekadach w krajach OECD punkt ciężkości procesu budżetowego i
zarządzania (oba procesy były ze sobą powiązane) przesunął się od pomiaru „wkładu”
(input) do pomiaru produktu (output), efektu (outcome) i wpływu (impact) [PUMA
2001]. W praktyce procesu budżetowego (projektowania, realizacji i oceny budżetu) nastąpiło przejście od budżetu jako środka kontroli legalności i celowości wydatków publicznych do budżetu jako narzędzia wspierania zarządzania i efektywności realizacji
programu sektora publicznego. Reformy budżetu państwa przeprowadzono np. w Australii (1985), Austrii (1987), Danii (1983), Finlandii (1977 i 1990) [OECD 1995]. Zmiany te dalekie są od zakończenia i następują w różnym tempie w różnych krajach.
Zmiany systemu budżetu wiązały się z ogólną reformą administracji publicznej, wprowadzaniem zarządzania zorientowanego na dokonania (performance management).
Rozrost sektora publicznego, zmiana struktury wydatków publicznych (np. zwiększenie
udziału „twardych” wydatków na służbę zdrowia, spowodowanych starzeniem się społeczeństw), zaniepokojenie wzrostem zadłużenia budżetowego oraz skutkami nierównowagi budżetowej wpłynęły na zmianę w podejściu rządów do wydatków publicznych.
W późnych latach 1970-tych i we wczesnych latach 1980-tych, po załamaniu się powojennej prosperity, zrozumiano potrzebę wprowadzenia nowego systemu budżetu, który
pozwalałby na lepsze równoważenie celów w stosunku do możliwości finansowych rządów i lepiej łączyłby proces budżetowy z innymi funkcjami kierowniczymi.
Tradycyjny roczny budżet faworyzuje wydatki krótko-terminowe. Skłania do tego, by
brać pod uwagę wyłącznie skutki finansowe decyzji alokacyjnych. Środki przydziela nie
ze względu na wagę celów i zadań oraz nie ze względu na wnioski płynące z analizy politycznej i ewaluacji, tylko z punktu widzenia organizacji wykonawczych. Decyzje co do
podziału funduszy opierają się nie na np. ocenie krańcowej użyteczności (marginal utility) alternatywnych opcji ich wykorzystania, co na historycznych podziałach kwot oraz
na presji interesariuszy. Organizacje wykonawcze wywierają nieustanny nacisk na budżet, dyktowany bardziej potrzebą zwiększenia ich własnego znaczenia niż koniecznością realizacji ważnych zadań [Robinson]. Sama tylko konstrukcja budżetu wystarczy np.
do wytłumaczenia, dlaczego instytucje naukowe wyciągają stale ręce pod dodatkowe
środki. Dzieje się tak m.in. dlatego, że szansa stworzenia czegoś nowego zależy od nowych funduszy, gdyż budżet tylko z największym trudem znosi redystrybucję funduszy
rozdzielonych w przeszłości [Vessuri 2003]. Także sama tylko konstrukcja budżetu wyjaśnia, dlaczego w krajach słabiej rozwiniętych instrumenty polityczne (np. stosowane
dla rozwoju nauki) są z reguły proste, niezróżnicowane, statyczne oraz pasywne [Sagasti
1979]. Tworząc tradycyjny budżet zakłada się, że każdy dotychczasowy wysiłek powinien być kontynuowany, a organizacja utrzymana, nawet gdy oddala się od swojej misji i
84
marnotrawi publiczne środki (jeśli tylko formalnie pozostaje w zgodzie z przepisami
księgowania). Gdy brakuje celów jako punktów odniesienia, nie sposób w praktyce proponować alternatywnych rozwiązań podziału środków. W takiej sytuacji zapisy budżetowe to z reguły repetycja rozwiązań przyjętych w przeszłości. Brak elastyczności pociąga za sobą szczególnie opłakane skutki w tak dynamicznie rozwijających się dziedzinach, jak rozwój nauki i techniki. Kontrola realizacji konwencjonalnego budżetu ma wyłącznie formę audytu księgowości. Jest to związane z faktem, że agencje wykonawcze i
sami wykonawcy nie są w stanie odnieść swoich wydatków do żadnego celu. W tych warunkach, możliwa jest tylko wąsko księgowo-prawnicza ocena wyników. Rząd nie jest
zatem w stanie utrzymywać merytorycznej (a nie czysto formalnej) kontroli nad wydatkami. Sztywność budżetu w zderzeniu ze złożonymi i szybko zmieniającymi się problemami rodzi pokusę tworzenia procedur koordynacyjnych oraz funduszy specjalnych.
Jednak często systemy koordynacji są zbyt słabe by oprzeć się naciskowi wykonawców,
a fundusze specjalne (jak w Polsce) stwarzają szerokie pole do nadużyć oraz do niekontrolowanego wypływu pieniędzy budżetowych.
Jako jedną z najwcześniejszych nowych form budżetu cytuje się francuską Rationalisation des choix budgétaire (1968). Mówiąc ogólnie, proces budżetowy przechodzi przez
następujące fazy: analiza celów oraz definicja ilościowych wskaźników ich realizacji;
analiza dostępnych zasobów w kategoriach siły roboczej, finansów, instytucji, wyposażenia oraz informacji (pomoc statystyki); określenie relacji pomiędzy środkami a celami
i zadaniami (analiza systemów), która może zaowocować modelem ekonometrycznym;
opracowanie alternatywnych programów jako pomoc w uzyskaniu definitywnej wersji
programu; ewaluacja ex ante programów za pomocą najbardziej odpowiednich metod
(metody ekonometryczne, metody wielkryterialne, lub negocjace); wybór programów
oraz określenie celów priorytetowych, środków oraz zasad finansowania i sposobów realizacji programów, biorąc pod uwagę informacje dostarczone przez analizy i opcje makroekonomiczne planu; wykonanie i kontrola dokonana za pomocą nowoczesnych metod (zarządzanie z pomocą celów oraz ewaluacja ex post skuteczności i sprawności);
ocena środków i celów w świetle istotnych rozbieżności pomiędzy kosztami i rezultatami.
Reformę budżetu państwa ujmowano dychotomicznie, przeciwstawiając „zarządzanie i
proces budżetowy ukierunkowany na wkład” (input focused management and budgeting) – „zarządzaniu i procesowi budżetowemu ukierunkowanemu na efekt” (outcome
focused management and budgeting), a schodząc na poziom zasad tworzenia budżetu,
system księgowania oparty na gotówce (cash-based accounting system) - „przyrostowemu” systemowi księgowania (accrual-based cost accounting system). Nowe formuły
procesu budżetowego miały też wiele innych określeń, jak np. budżet oparty na dokonaniach czy też budżet dla rezultatów.
Proste porównanie chronologii wprowadzania nowych zasad z wprowadzaniem nowych
form ewaluacji B+R (koniec lat 1970-tych i lata 1980-te) ujawnia zadziwiającą zbieżność. Także zaskakujące jest porównanie terminologii nowego zarządzania i procesu
85
budżetowego z terminologią stosowaną w ewaluacji społeczno-gospodarczej (np. input,
output, outcome, impact). Nie są to zbieżności przypadkowe, tylko przyczynowe.
Zarządzanie i proces budżetowy ukierunkowany na wkład (input-focused management
and budgeting) kładzie nacisk na zasoby, personel, sprzęt i urządzenia. Wielkość funduszy to zazwyczaj główna miara wykonania. Nie przeprowadza się ewaluacji wyników.
Jednak skoro ministerstwa i agencje rządowe są nie po to, aby wydawać pieniądze, należy wymagać od nich, aby opisały i określiły ilościowo, co chcą osiągnąć lub co osiągnęły za pieniądze podatnika. Zarządzanie i proces budżetowy wprowadza zatem kontrolę wydatków, której elementami są:
Produkty (outcomes)
Wartość za pieniądze (value for
money)
Efekty (outputs)
Efektywność (effectiveness)
Proces (process)
Wydajność (efficiency)
Wkłady (inputs)
Koszty (costs)
Ekonomiczność (economy)
Źródło: PUMA 2001.
W zarządzaniu i procesie budżetowym ukierunkowanym na produkty oblicza się, ile dostarczono usług lub wytworzono wyrobów. „Produkty” definiuje się jako dobra lub usługi (zazwyczaj te ostatnie), które agencje rządowe dostarczają obywatelom, biznesowi
lub innym agencjom rządowym. W zarządzaniu i procesie budżetowym zorientowanym
na efekty określa się, co poszczególny program ma osiągnąć w kategoriach dobra publicznego, dobrobytu, lub bezpieczeństwa. Np. obniżyć śmiertelność wypadków drogowych o 20% w następnych 5 latach, zmniejszyć liczbę zachorowań na określoną chorobę
lub zapewnić większości studentów pewien poziom osiągnięć edukacyjnych w kolejnych
3 latach. Po zdefiniowaniu efektów rząd ocenia, czy programy, jakie wprowadził, zapewniają ich osiągnięcie.
Tradycyjny budżet „line item” (zawierający oddzielne przydziały na wynagrodzenia, podróże, sprzęt biurowy itd.) jest prosty dla nie-eksperta, ale trudny do zmiany, gdyż wrośnięty w tradycję. Zmiana tego systemu wymaga znacznie więcej niż tylko nauczenia się
nowych zasad księgowania. Pociąga ona za sobą konieczność przeprowadzenia głębokich zmian w organizacji i zarządzaniu, wprowadzenia tzw. zarządzania dokonaniami
(performance management), większej samodzielności i wyższych kwalifikacji menedżerów programów i projektów [Integrating 2001].
Mimo to państwa i organizacje coraz powszechniej przechodzą na budżet ukierunkowany na rezultaty. Budżet taki stanowi dobrą platformę integracji planowania, zarządzania, monitoringu i ewaluacji (wraz z jednostkami odpowiedzialnymi za te funkcje).
Dla tego typu budżetu głównymi kategoriami są nie tylko „przychody” i „wydatki”, ale
także „produkty”, „efekty”, „efektywność”, „wydajność” i „ekonomiczność”. Jego zaletą
jest to, że uczy myśleć w ciągu: „pożądane rezultaty > konieczne wydatki, aby je osiągnąć”, lub „uzyskane rezultaty > informacja, czy uzasadniają one kontynuowanie wydatków”, zamiast ciągu myślenia: „zasoby > rezultaty, które należy wyszukać, aby uzasadnić
86
wydatki” (lub, co wychodzi na to samo, historycznie ukształtowana struktura wydatków). Podejście to przesuwa nacisk z wielkości zużytych zasobów na zakres i jakość
osiągniętych krótko-i-długofalowych rezultatów. Łączy koszty z rezultatami programu.
Dostarcza porównawczej oceny efektywności, skuteczności i sprawności programów
[OECD 2001].
W procesach decyzyjnych, dotyczących np. projektu budżetu, ustaw lub programów rządowych, stosuje się wiele trybów podejmowania decyzji. Należą do nich np. metoda ekspercka (decyzję podejmują zaufani eksperci, ministerialni lub kontraktowi), negocjacje
(decyzję podejmują grupy interesariuszy), polityczna (politycy), benchmarking (decyzja
oparta na wzorcowych praktykach), empiryczna (decyzja oparta na zastosowaniu metod
analizy danych). W procesie budżetowym stosuje się zwykle wszystkie opisane tu tryby,
choć w różnych formach i proporcjach. Do metod najważniejszych należą: ekonometryczne (kryteria określane jako stopień zysku, cost/benefit, ogólne koszty finansowe,
itd.), metoda wielo-kryterialna (bierze pod uwagę niewspółmierne kryteria i punkty widzenia), analiza kosztu i efektywności, symulacje i scenariusze, program budgeting, zerobase budgeting, relevance graphs, badania rynkowe, badania prognostyczne itd. Negocjacje ważne są w pewnych kulturach administracyjnych (jak np. w Niderlandach) i mniej
ważne w innych. Konsensus uzgadniany jest pomiędzy różnymi interesariuszami, takimi
jak obywatele, lokalne społeczności, przemysł, ministerstwa itd. Każdy z trybów podejmowania decyzji wyróżnia inny typ osoby odpowiedzialnej za proces: metoda ekonometryczna – ekonomistę; metoda wielo-kryterialna – analityka; negocjacje – mediatora,
prawnika, negocjatora [Robinson; PUMA 1996]. Tak więc w procesie budżetowym sięga
się nieraz po metody i techniki ewaluacji.
Decyzje budżetowe podejmowane są na wielu poziomach. Zazwyczaj wyróżnia się następujące:
a. Ustalenie wielkości publicznych wydatków. (Poziom zagregowanych decyzji politycznych, aggregate policy-making).
b. Podział pomiędzy główne sektory, takie jak obrona, bezpieczeństwo publiczne, edukacja,
nauka, i inne. (Poziom podziału między-sektorowego).
c. Przydział zasobów do poszczególnych programów wewnątrz sektorów, np. edukacja pielęgniarek, szkolnictwo średnie, oraz uniwersytety, wewnątrz budżetu edukacji. (Poziom
między-sektorowej strategii politycznej).
d. Przydział zasobów do poszczególnych działań lub organizacji w ramach poszczególnego
programu, np. przydzielenie większych funduszy uniwersytetowi X niż uniwersytetowi
Y, gdyż X ma lepsze wyniki w badaniach naukowych lub też szybciej wzrosła w nim liczba studentów w kierunkach uznawanych przez rząd z priorytetowe. (Poziom zarządzania priorytetami programowymi).
e. Przydział pieniędzy wewnątrz poszczególnych instytucji lub typów działań (np. gdy
uniwersytet zdecyduje przesunąć zasoby z budżetu wynagrodzeń do budżetu podróży).
Rzeczywisty proces budżetowy i finansowy nie zawsze aranżowany jest w tak prosty
sposób. Linia podziału pomiędzy tworzeniem (ustalaniem) budżetu a jego realizacją
przedstawia się różnie, w zależności od poziomu, na który się na to patrzy. Z punktu wi87
dzenia ministra, punkty d. i e. to nie tworzenie, lecz realizacja budżetu. Jednak z punktu
widzenia osób decydujących o podziale funduszy publicznych na tych szczeblach, to nadal tworzenie budżetu (dostępne zasoby są przydzielane pomiędzy konkurującymi ze
sobą celami) [Integrating 2001]. Przejście z budżetu tradycyjnego na budżet oparty na
rezultatach angażuje wszystkie kolejne piętra jego tworzenia i realizacji. Tą drogą także
ewaluacja „schodzi” ze szczebla rządowego na szczeble wykonawcze.
Tradycyjny cykl polityczny składa się z przygotowania, podziału zasobów, realizacji, audytu oraz z decyzji wynikających z audytu. Z kolei, tradycyjny budżet skład się z propozycji i decyzji budżetowych, raportów finansowych (realizacja) oraz audytu. W zarządzaniu dokonaniami (performance management) budżety ukierunkowane na wkład (input-oriented budget) przekształca się w budżety ukierunkowane na rezultat (performance budget), systemy księgowania oparte na gotówce (cash-based accounting systems)
przekształca w systemy „przyrostowe” (accrual-based cost accounting systems) lub też
systemy sprawozdań informujących o wynikach, a audyty finansowej zgodności uzupełnia o audyty dokonań oraz ewaluacje. Gdy warunki te są spełnione, proces budżetowy
staje się kluczowym elementem albo szerszego systemu zarządzania, albo cyklu zarządzania finansami, składającego się z procesu budżetowego, księgowania i audytu. Przestaje w ten sposób pełnić funkcję (jedynie) narzędzia gospodarki przychodami i wydatkami [OECD 1997]. Staje się praktycznym wyrazem rządowej strategii i rządowego planu wieloletniego [OECD 1997]. Wówczas to główne funkcje polityki – formułowanie, podejmowanie decyzji, podział funduszy, realizacja i ocena – są znacznie lepiej ze sobą zintegrowane [OECD 2001], monitoring i kontrola wykonania budżetu nie są wyłącznie
formalne, ale także rzeczowe (czy wydatki osiągnęły wyznaczone cele), a kontrola parlamentu na budżetem jest znacznie bardziej wnikliwa i kompetentna [OECD 1996]. Tworzenie budżetu staje się częścią ogólnego procesu podejmowania decyzji, a nie – zadaniem podporządkowującym sobie wszystkie inne. Budżet przestaje być jednie dokumentem księgowym (zestawienie przychodów i wydatków), uzyskując dodatkowo wymiar
prawny (ocena, uzasadnienie i autoryzacja przychodów i wydatków) i polityczny.
Ważnym środkiem pomocniczym w tworzeniu budżetu jest ewaluacja zwana analizą
wpływu regulacji (Regulatory Impact Analysis). Celem jej jest ocena wpływu interwencji
rządowych (w kategoriach kosztu i korzyści), pomoc w zharmonizowaniu różnych celów
politycznych, accountability. RIA to nie tylko narzędzie analityczne, ale także narzędzie
koordynacji uzgadniania różnych interesów. Cele i rola RIA w procesie administracyjnym różnią się w poszczególnych krajach. Niektóre analizy oceniają wpływ gospodarczy
i społeczny legislacji metodą kosztu/korzyści, inne obciążenia administracyjne. Ocena
wpływu na środowisko (Environmental impact assessment) ocenia wpływ regulacji na
jakość środowiska naturalnego. Inne analizy oceniają wpływ ustaw i zarządzeń na działalność samorządu terytorialnego, MSP, handel zagraniczny itd. [PUMA 1996].
Reformy zarządzania publicznego (public management reforms) przeprowadzane przez
różne kraje od późnych lat 1970-tych dokonały decentralizacji zarządzania finansami
oraz wprowadziły zachęty do większej samodzielności urzędników różnych szczebli.
Jedną z postaci reform była tendencja rozluźnienia lub zniesienia ścisłych powiązań po88
między różnymi rozdziałami i paragrafami (lines) budżetu. Poszerzyło to możliwości
przenoszenia funduszy przez menedżerów średniego i niższego szczebla. Ostatecznym
rezultatem był tzw. budżet blokowy, gdzie lokalni menedżerowie mogą przenosić zasoby pomiędzy różnymi rozdziałami budżetu. Na dwóch najwyższych szczeblach budżetu – na poziomie zagregowanych decyzji politycznych oraz na poziomie podziału
między-sektorowego – najtrudniej stosować informacje o wykonaniu. O decyzjach na
tych najwyższych szczeblach decydują polityczne ideologie i wartości, polityka makroekonomiczna itd. [Integratring 2001].
Legalność wydatków pozostała ostoją w finansach publicznych. Fundusze budżetowe
nadal mogą być wykorzystane zgodnie z celami zaaprobowanymi przez parlament. Jednak do tej podstawowej zasady projektowania, realizacji i oceny budżetu dodano funkcje
menedżerskie. Łączy się to z przesunięciem z kontroli ex ante do kontroli wewnętrznej, z
pre-audytu na post-audyt oraz z bardzo szczegółowych przydziałów pieniędzy budżetowych do przydziałów blokowych. Ewolucja ta nie była stopniowa; często następowała
ona skokowo. Przeniesienie odpowiedzialności budżetowej na menedżerów programu
w sposób nieunikniony odmieniło rolę organizacji budżetu centralnego. Uwolniony od
rutynowej kontroli, urząd budżetu został przekształcony w główną instytucję dbającą o
poprawę zarządzania.
Przekształcenie budżetu w instrument korekt menedżerskich i programowych zależy od
wielu zmian w praktykach administracyjnych. Menedżerowie mogą odpowiadać za wykonanie, gdy mają większą swobodę działania w wydatkowaniu pieniędzy. Postanowiono zatem, aby ministerstwa miały prawo zachować całą (lub część) oszczędności
oraz aby menedżerowie mieli więcej swobody w odniesieniu do wydatków bieżących i
kapitałowych, w stosunku do podziału pieniędzy pomiędzy programami i działaniami, a
także w wykorzystywaniu opłat użytkowników. Opisanej zmianie towarzyszyło przejście od ścisłego trzymania się zapisu budżetowego do nacisku na wskaźniki wykonania
(performance indicators), sprawozdawczość oraz negocjacje w ramach układu patronagent. Głównym celem reform jest osiągnięcie większej produktywności sektora publicznego. [OECD 1995]
Zmiana układu wydatków publicznych (stosunkowo więcej na płatności transferowe i
stosunkowo mniej na wydatki operacyjne, zwane też administracyjnymi lub bieżącymi)
zmniejszyła wagę rocznych alokacji (w stosunku do całego budżetu). Dawniej dominującą praktyką było dostarczanie projektów wydatków w formie „pozycji”, długiej listy
szczegółowych wydatków budżetowych takich jak personel, urządzenia, itd.. Dziś pozycje określane są mniej szczegółowo, co daje agencjom rządowym więcej swobody w ich
wydatkowaniu. Dawną kontrolę budżetową zastępują ewaluacja oraz wskaźniki wykonania. Zamiast szczegółowych pozycji parlamenty państw OECD przegłosowują dziś wydatki ujęte w szerszych ramach, w „blokach” lub „tekach” (portfolio). W efekcie, do pewnego stopnia kontrola parlamentarna została zastąpiona kontrolą administracyjną
[OECD 1995].
89
Wydaje się, że zapoczątkowana w latach 1970-tych modernizacja administracji rządowych była „przewrotem kopernikańskim” w sposobach myślenia o obowiązkach i praktykach działania administracji publicznych. Bez wprowadzonych przez nią zmian trudno
byłoby sobie np. wyobrazić procesy prywatyzacji i deregulacji, podjęte od lat 1980-tych.
Bibliografia
OECD 1995, Budgeting for results. Perspectives on Public Expenditure Management, Paris.
OECD 1997, In search for results. Performance management practices, Paris.
Integrating Financial and Performance Management, 2001 “OECD Journal of Budgeting”
PUMA 2001, Outcome focused management and budgeting, OECD, PUMA/SBO.
PUMA 1996, Regulatory Impact Analysis, PUMA.
Sagasti F.R., 1979 The science and technology policy instruments project, “Science and Public Policy”.
Vessuri H. 2003, Science, politics, and democratic participation in policy-making: a Latin American view,
“Technology in Society”, Volume 25, Number 2.
Robinson
Marc,
Performance
Budgeting
Models
and
Mechanisms,
http://www.focusintl.com/RBM137-
0230553567.pdf
RETORYKA POLITYCZNA
Retoryka – krasomówstwo, sztuka wymowy, umiejętność opisania swojego punktu widzenia i przekonywania słuchaczy do swoich racji, czyli sztuka perswazji.
Giandomenico Majone w książce Dowody argumentacja i perswazja w procesie politycznym (1989, wyd. pol. 2004), określa starożytną tradycję retoryki jako konieczny punkt
wyjścia dla współczesnej >ANALIZY POLITYKI. Klasyczne tryby perswazji w retoryce to:
etos, patos i logos.
ETOS
STRATEGIE
ARGUMENTACJI
LOGOS
PATOS
90
Gootweis 2007
Wg Majone „Chociaż politykę można najlepiej określić jako działania grup dążących do
egoistycznych celów, to jednak ludzie pragnący uzasadnić politykę muszą odwoływać
się do jej intelektualnej wartości i interesu publicznego.
(…) aspekt argumentacyjny analizy polityki odróżnia ją od akademickich nauk społecznych z jednej strony oraz od metodologii rozwiązywania problemów, takich jak badania
operacyjne…, z drugiej strony. Argumenty, które przedstawiają analitycy, mogą być
mniej lub bardziej specjalistyczne, mniej lub bardziej wyrafinowane, lecz jeśli mają być
traktowane poważnie na formach debaty publicznej, muszą być przekonujące. Dlatego
wszystkie problemy techniczne problemy językowe, łącznie z problemami retoryki, będą zawsze dotyczyć analityków, tak jak prawników, polityków i innych osób, których
działalność zasadza się na odpowiednim operowaniu językiem [Majone 2007].”
Przełom argumentacyjny. W latach 1980. analitycy polityki udowodnili, że dobra analiza polityka koncentruje się wokół konstruowania argumentu, a nie stosowania logiki i
nauki [van Eeten 2007].
W latach 1960. i 1970. praktyka analizy polityki jaka wyłoniła się była, po większej części, technokratyczna. Analiza polityki rozwinęła się w dominujących w owym czasie metod neopozytywistycznych w naukach społecznych. Skutkiem był nacisk na dokładną
analizę ilościową, oddzielenie faktów i wartości oraz poszukiwanie ogólnych ustaleń,
których ważność byłaby niezależna od konkretnego kontekstu społecznego, dla którego
zostały sporządzone. Analiza polityki miła zatem służyć jako wkład do „racjonalnego
modelu” podejmowania decyzji, wg którego racjonalni decydenci postępowali ściśle wg
zasad badań naukowych. Najpierw mieli oni identyfikować problem na podstawie danych empirycznych, a następnie formułować cele i zadania prowadzące do optymalnych
rozwiązań.
Po określeniu odpowiednich prawdopodobieństw i konsekwencji związanych z alternatywnymi rozwiązaniami, analitycy przypisywali wartości liczbowe dla różnych kosztów i
korzyści związanych z przewidywanymi skutkami. Łącząc informacje i dowody na temat
prawdopodobieństwa, skutków oraz kosztów i korzyści, wybierali oni najbardziej skuteczną alternatywę. Pomimo poświęcenia dużej ilości czasu, pieniędzy i energii, ta forma
analizy polityki okazała się nie być skuteczna [Fischer 2007].
Taki tryb podejmowania decyzji, zwany decyzjonizmem, cechowała ograniczona liczba
aktorów politycznych zaangażowanych w dokonywanie przemyślanych wyborów pomiędzy precyzyjnie obmyślonymi opcjami.
Jednak z biegiem lat „zarówno charakter problemów badanych przez analityków, jak i
organizacyjny oraz polityczny kontekst ich działania uległ radykalnej zmianie. Problemy,
które wymagały uwagi analitycznej, stawały się ogólniejsze i bardziej złożone. Coraz
większego znaczenia nabierały kwestie strategiczne, a nie taktyczne, zaś subiektywną
niepewność postrzegano jako istotniejszą niż prawidłowości statystyczne zakładane we
wcześniejszych modelach. Jednocześnie rosnąca rola analizy w debacie publicznej ozna91
czała, że analitycy – już nie dyskretni doradcy arystokraty, lecz aktorzy w procesie politycznym, w którym orędownictwa i perswazji nie można było wyraźnie oddzielić od
obiektywnej analizy – musieli zwrócić uwagę na kwestie bezstronności i wykonalności
politycznej [Majone 2007].”
Od lat 1980. rosnąca liczba badaczy skupiała się na roli argumentacji w analizie polityki,
przyczyniając się do tego, co określono jako „przełom argumentacyjny” (argumentive
turn) i praktyk „deliberacyjnej analizy polityki” (deliberative policy analysis). „Przełom
argumentacyjny” w analizie polityki wyłonił się w wyniku ograniczeń neopozytywistycznego podejścia i technokratycznego modelu podejmowania decyzji. Zwolennicy
nowego podejścia nie twierdzą, że badania naukowe nie mają wpływu na sprawy publiczne. Uważają oni, że rolą badań jest raczej pobudzanie procesów podejmowania decyzji niż do udzielenia odpowiedzi lub rozwiązywania problemów. „Przełom argumentacyjny” uznaje wielość perspektyw używanych w interpretacji rzeczywistości społecznej i
politycznej oraz wielość konkurencyjnych definicji problemów politycznych. Poza zaspokajaniem potrzeb decydentów administracyjnych, „deliberacyjny praktyk” stara się
uwzględniać szerszy zakres interesów, argumentów i dyskursów w procesie analitycznym, przede wszystkim interesy obywateli [Fischer 2007].
Perswazja i uzasadnienie odgrywają ważną rolę w każdym etapie procesu politycznego,
począwszy od ustalania problemów gdy należy ustalenie co oznacza „problem” polega
na użyciu metod retorycznych i interpretacyjnych praktyk, po określenie alternatyw i
rekomendacji oraz uzasadnienie polityki.
Struktura argumentu polityki to zazwyczaj złożona mieszanka twierdzeń merytorycznych, interpretacji, opinii i ocen. Argument łączy odpowiednie dane i informacje z wnioskami analizy.
Logika argumentacji polityki opiera się na dwóch podstawowych poziomach, jednym dotyczącym konkretnego programu, jego uczestników, konkretnej sytuacji problemowej,
do której odnosi się program, i drugiego, dotyczącego bardziej abstrakcyjnego poziomu
systemu społecznego, na który program ma oddziaływać. Także i ocena argumentu polityki powinna uwzględniać te dwa aspekty, makro i mikro [Fischer 2007].
Zwroty i sformułowania stosowane w argumentach analizy polityki
•
•
•
•
•
Czy korzyści z X uzasadniają koszty
X i Y są przyczyną, że Z rośnie w zastraszającym tempie. Potrzebne są skuteczne
strategie dla a, b, c, jeśli g
X staje się coraz bardziej powszechne, co sprawia, że potrzeba regulacji i wytycznych staje się coraz bardziej nagląca
X może być pomocna w dostrajaniu podaży kompetencji do popytu na kompetencje
X ma ogromny potencjalny zakres zastosowań, ale ich wykorzystywanie opiera
się na błędnych przekonaniach co do ich właściwości. Potrzeby zatem szkoleń
aby ich potencjał mógł być wykorzystywany
92
•
•
•
•
•
•
•
•
•
X jest kluczowym wyzwaniem dla Y
X to Y typowa odpowiedź na wyzwania Z. Jednak efekt strat Z w stosunku do A i B
narzuca pytanie, czy korzyści wynikające z X uzasadniają koszty
X jest coraz częściej uznawane za kluczowy czynnik Y. wynika z tego, że konieczna jest interwencja w celu zapewnienia standardów, dostępu do kredytów, odpowiedniego szkolenia X…
X przyczynia się do Y. Jednakże, proces ten jest obszerny i złożony. Potrzebne są…
X powoduje Y i Z. To może mieć daleko idące konsekwencje zarówno dla W i jak i
V
X zapowiada Z. Jednak to rodzi wiele nowych kwestii, które muszą zostać
uwzględnione…
X, aby pomóc sprostać wyzwaniom Y…
X powoduje spadek Y i ma to konsekwencje dla A
X oznacza znaczny krok naprzód. Niektóre aspekty wymagają jednak dalszego
zbadania [IPTS Reports].
Bibliografia
Giandomenico Majone, Dowody, argumenty i perswazja w procesie politycznym, Wyd. Nauk. Scholar, warszawa 2004.
Handbook of Public Policy Analysis. Theory, politics and methods. Ed. By Frank Fischer, Gerald Miller and
Mara S. Sidney, CRC Press, 2007.
Michel J. G. van Eeten, Narrative Policy Analysis¸ w: Handbook of Public Policy Analysis. Theory, Politics, and
Method, ed. Frank Fischer, Gerald J. Miller, Mara S. Sidney, 2007.
Frank Fischer, Deliberative Policy Analysis as Practical Reason: Integrating Empirical and Normative Arguments, w: Handbook of Public Policy Analysis. Theory, Politics, and Method, ed. Frank Fischer, Gerald J. Miller, Mara S. Sidney, 2007.
Herbert Gottweis, Rhetoric in Policy Making: Between Logos, Ethos, and Pathos, w: Handbook of Public Policy Analysis. Theory, Politics, and Method, ed. Frank Fischer, Gerald J. Miller, Mara S. Sidney, 2007.
IPTS Reports.
ROLA WIEDZY W PROCESIE POLITYCZNYM
[The role of knowledge in Policy process]
Nowoczesna polityka (także polityka naukowa i innowacyjna) traktuje instrumenty i
programy polityczne jako rodzaj inwestycji, która ma dać oczekiwany zwrot ekonomiczny, społeczny czy kulturowy. Obok zasady legalizmu drugą podstawową zasadą obowiązującą w polityce jest zasada efektywności. Agenda polityki oraz instrumenty i programy polityczne są ustalane, monitorowane i rozliczane za pomocą takich narzędzi, jak
cele i zadania, mierniki realizacji, monitoring i ewaluacja; każde z tych narzędzi opiera
się na danych, informacjach, analizach.
93
Badania przeprowadzone na zlecenie Komisji Unii Europejskiej wykazały, że efektywność wydatkowania publicznych środków na badania i rozwój wzrasta wraz z ich skalą;
jest znacznie wyższa w krajach zaawansowanych gospodarczo, które wydają na B+R
znacznie więcej, zarówno w wartościach bezwzględnych, jak i relatywnych [EC 2009].
Najogólniej biorąc, dzięki zapleczu eksperckiemu powinno się znajdować propozycje
rozwiązań w następujących kwestiach:
•
Co powinno się robić? (tworzenie agendy, ustalanie priorytetów),
•
W jaki sposób działa system nauki i techniki (teorie, dane, interpretacje),
•
W jaki sposób powinno się decydować, co należy robić? (projektowanie mechanizmu
decyzyjnego),
•
Jak działała polityka (program, instrument)? (ewaluacja) [Feller 2007].
Wiedza ekspercka pozwala na:
•
obiektywizację problemu poprzez oderwanie go od kontekstu realizacji,
•
spojrzenie na problem wolne od rutyny bieżącej pracy urzędniczej oraz układów grupowych interesów,
•
spojrzenie na problem z dystansu, a zarazem z różnych perspektyw,
•
ograniczenie subiektywizmu, uznaniowości i dowolności w formułowaniu i realizacji decyzji,
•
poznanie szerszego kontekstu problemu (decyzji) oraz jego/jej pogłębienie rozumienia,
np. w świetle
a. ustaleń oceny skutków dotąd stosowanych rozwiązań,
b. międzynarodowego benchmarkingu polityk,
c. lekcji z takich narzędzi >WSPARCIA INFORMACYJNO-ANALITYCZNEGO POLITYKI (tzw. strategic policy intelligence), jak foresight, audyt technologii,
d. wiedzy rozwijanej zarówno w tzw. > BADANIACH NAD POLITYKĄ NAUKOWĄ I
INNOWACYJNĄ, jak i w ramach ekonomii, socjologii, wiedzy o organizacji i zarządzaniu, naukoznawstwa.
Bez zaplecza eksperckiego problemy kwalifikujące się często do interwencji publicznej
często nie są dostrzegane i badane z braku znajomości odpowiednich struktur poznawczych (np. pojęć, technik prognostycznych, metod analiz statystycznych), oraz nie są
rozwiązywane z braku odpowiednich procedur ich rozwiązywania.
Rolę wiedzy eksperckiej podkreśla w szczególności Otwarta Metoda Koordynacji, pomyślana jako główne narzędzie Strategii Lizbońskiej (2000) i potwierdzona w tzw. Nowym
Starcie Strategii Lizbońskiej (2005). Nie tyle legislacja, co wiedza ekspercka (wskaźniki i
analizy statystyczne, prace studialne, międzynarodowy benchmarking polityk itd.) pełnią rolę głównego narzędzia koordynacji politycznej, zarówno pomiędzy krajami członkowskimi Unii, jak i pomiędzy różnymi poziomami zarządzania wewnątrz poszczególnych państw (poziom rządowy i poziom regionalny). Dodatkowo, w ostatnich dwóch latach w Unii i wśród jej państw członkowskich wzrosło znaczenie rozwijanej lokalnie
wiedzy na użytek polityk. Po raporcie Willema Koka (Enlarging the European Union:
94
Achievements and Challenges, 2003) a także wskutek narastającej krytyki tzw. konsensusu waszyngtońskiego) Komisja Europejska uświadomiła sobie, że większość skutecznych rozwiązań w dziedzinie administracji publicznej nie da się przenosić z kraju do
kraju jako tzw. „wzorcowe praktyki”, bez uwzględnienia wielu szczegółowych, kontekstualnych informacji. Zwiększyło to znaczenie wiedzy politycznej rozwijanej na szczeblu
krajowym i regionalnym.
Wzrost „wiedzo-chłonności” polityki naukowej jest oznaką zarówno ogólnego trendu,
cechującego większość dziedzin aktywności zawodowej rodzącego się „społeczeństwa
wiedzy”, jak i w szczególności cechą przeobrażeń polityk naukowej. Ewolucja polityk
naukowej polega na przejściu od decyzji podejmowanych przez samych uczonych opartych na uwzględnianiu potrzeb dyscyplin, do decyzji podejmowanych na szczeblu rządowym, biorących pod uwagę priorytety społeczno-gospodarcze oraz opartych na różnego
rodzaju wskaźnikach i analizach. Traktowanie badań nie jako dobra kulturalnego, a inwestycji zakłada zatem rozwój wiedzy eksperckiej wspomagającej budowę i realizację programów i instrumentów.
Przez dekady wzrostowi wydatków na B+R towarzyszył rozwój koncepcji i procedur polityki naukowej, służących lepszej alokacji środków publicznych. Pojęcia „cyklu polityki”,
„celów strategicznych”, „priorytetów”, „instrumentów polityki”, „analizy” i „ewaluacji polityk” – weszły do języka i praktyk zarządzania nauką. Jeśli polityka jest korektą stanu
zastanego podejmowaną dla osiągnięcia celów społecznych, gospodarczych i politycznych w odpowiedzi na wcześniej zdiagnozowane problemy i wyzwania, źródłem
wiedzy dla decyzji są techniki diagnostyczne i prognostyczne oraz ustalenia wcześniejszych ewaluacji. Problemy i wyzwania przekłada się na priorytety, czyli wyróżnione obszary i rozwiązania, a priorytety na cele i zadania. Cele i zadania – na programy instrumenty. Projektując programy i instrumenty określa się tzw. logikę interwencji, czyli tłumaczy, dlaczego uważa się, że programy i instrumenty przyniosą spodziewane skutki.
Określa też oczekiwane krótkoterminowe i długofalowe efekty działania (ujęte opisowo
i w formie wskaźników) oraz metody ich ewaluacji. Instrumenty dobiera się tak, aby
wspierały się wzajemnie, a nie blokowały (mieszanka polityk) i były zgodne z krajowymi
i międzynarodowymi ramami prawno-politycznymi, aby były wprowadzane w logicznym porządku (sekwencjonowanie), i aby osiągnęły zakładane cele. Przy tym dba się, aby
robiąc politykę uczyć się na błędach i korzystać z własnych i cudzych doświadczeń.
Typy wiedzy wykorzystywane w procesie polityki to:
•
•
•
wiedza empiryczna, oparta na badaniach ilościowych i jakościowych,
wiedza teoretyczna, sięgająca po różne ramy teoretyczne, czasami wsparta na badaniach
empirycznych, czasami na intuicji lub wiedzy praktycznej,
wiedza praktyczna – oparta na doświadczeniu, często pozasłowna i niekodyfikowana
[Nutley 2007].
95
Rola wiedzy w procesie polityce naukowej i innowacyjnej w Polsce (propozycje)
Etap procesu
politycznego
Wybór priorytetów badawczych (MNiSW,
NCBiR, NCN)
Zadania
Krajowy Program Badań
(NCBiR)
•
Określenie priorytetowych
obszarów badawczych
•
Ustalenie strategicznych
programów B+R
•
Określenie priorytetowych
kierunków badawczych
•
Ustalenie zadań badawczych
Priorytety NCN
Strategia rozwoju nauki
Diagnozowanie sytuacji
Źródła wiedzy
Foresight
Ramy prawne i programowe polityki naukowej i innowacyjnej
Diagnozy i prognozy stanu nauki, zwłaszcza Analiza
źródeł wtórnych, Raport wskaźnikowy nauki i innowacji, Technologiczna mapa drogowa, Analizy sektorowe i regionalne badań naukowych i technologicznych
oraz innowacji, Specjalne badania i analizy
Badania, ekspertyzy oraz debata publiczna
Formułowanie celów i zadań
Instrumenty i programy polityki naukowej i innowacyjnej
Ustalanie wskaźników realizacji
Schematy i zbiory informacji stosowane w polityce naukowej i innowacyjnej (raport; bazy)
Ustalanie trybu monitorowania i ewaluacji realizowania strategii
Budżet zadaniowy
Analiza dokumentów strategicznych
Ramy prawne i programowe polityki naukowej i innowacyjnej
Określenie celów i zadań
Diagnozy i prognozy stanu nauki, zwłaszcza raport
wskaźnikowy nauki i innowacji
Wybór mierników
Zbieranie danych
Ocena danych w świetle celów i zadań
Formułowanie
programów i
instrumentów
Definiowanie problemów
Analiza polityki. Uwzględnianie aspektu sekwencji,
synergii (z innymi instrumentami)
Wybór mierników oraz trybu ewaluacji
Uzasadnianie (koncepcje np.
niedoskonałości rynku, rządu, systemu)
Ramy prawne i programowe polityki naukowej i innowacyjnej
Instrumenty i programy polityki naukowej i innowacyjnej
Diagnozy i prognozy stanu nauki, zwłaszcza Analiza
źródeł wtórnych, Raport wskaźnikowy nauki i innowacji, Technologiczna mapa drogowa, Analizy sektorowe i regionalne badań naukowych i technologicznych
oraz innowacji, Specjalne badania i analizy
Badania, ekspertyzy oraz debata publiczna
Schematy i zbiory informacji stosowane w polityce naukowej i innowacyjnej (raport; bazy)
Realizacja
programów i
instrumentów
Monitoring realizacji
System informacji o badaniach
Ewaluacja ex post produktu
Analizy sektorowe i regionalne badań naukowych i
technologicznych oraz innowacji, Specjalne badania i
analizy
Ewaluacja ex post efektywności i skuteczności (produktu i wpływu),
96
Podejmowanie
decyzji administracyjnych w
ramach programów i instrumentów
Rozpoznanie
System informacji o badaniach
Analizy sektorowe i regionalne badań naukowych i
technologicznych oraz innowacji, Specjalne badania i
analizy
Bibliografia
EC European Commission, Measuring The Efficiency Of Public Spending OnRED, Final Report to EPC, 2009.
Irwin Feller, The Science of Science Policy, PRIME Annual Conference, Pisa, Włochy, Styczeń 2007.
Sandra M. Nutley, Isabel Walter, Huw T. O. Davies, Using Evidence: How Research Can Inform Public Services, The Policy Press, 2007.
SKŁADNIKI POLITYK NAUKOWEJ I INNOWACYJNEJ
Każda z tych dwóch polityk składa się z wielu programów, zawierających pakiety instrumentów politycznych. Programy te określa się często także mianem polityk. Pojęcie
polityki naukowej odnosi się zwykle do polityki naukowej (w węższym zakresie) oraz do
polityki technologicznej.
I tak, w skład polityki naukowej (w węższym zakresie) wchodzi m.in. polityka rozwoju
badań podstawowych, wspierania współpracy międzynarodowej, przeciwdziałania drenażowi mózgów czy też edukacji naukowej; w skład polityki technologicznej – polityki
pobudzania i wdrażania tzw. technologii ogólnego zastosowania (generic technologies),
rozwoju badań przemysłowych, wspierania technologii zaawansowanych, fuzji technologicznych lub też konwersji B+R wojskowego na cywilne. Szczególnie bogaty jest zakres
strategii zaliczanych do polityki innowacyjnej, np. polityka wspierania tzw. gron przemysłowych (ang. cluster policy), transferu technologii, komercjalizacji badań, partnerstwa publiczno-prywatnego, patentowa, upowszechniania technologii, powiązań nauki i
przemysłu, promocji nowych firm technologicznych, wspierania inkubatorów technologii czy też rozwoju kapitału ryzyka. Przedmiotem tej ostatniej są np. kwestie bezpośredniej podaży kapitału w formie pożyczek lub inwestycji, tworzenia zachęt finansowych
dla inwestycji kapitału ryzyka, ustanawianie prawa dotyczącego typów inwestorów kapitału ryzyka itd.
Polityki naukowa, technologiczna i innowacyjna są z kolei uzależnione od innych polityk,
takich jak przemysłowa, modernizacji branż, finansowa (wspierania funduszy emerytalnych i ubezpieczeniowych, długoterminowego oszczędzania, stowarzyszeń kapitału ryzyka, funduszy gwarancyjnych i in.), monetarna (niska stopa procentowa pobudzająca
aktywność inwestycyjną czy też wysoki kurs wymiany promujący krajową technikę i
eksport), makroekonomiczna, obrony. Sądzi się nawet, że uprawiane w sposób tradycyjny polityki naukowa i technologiczna mogą mieć słabszy wpływ na sferę N+T i innowacji niż np. polityka monetarna, określająca stopę zysku, polityka podatkowa, a także
polityki eksportowa, edukacji, konkurencyjności, rynku pracy, ochrony własności intelektualnej, a nawet polityka regulacji funduszy emerytalnych. Jednak nakreślając pro97
gram tych innych polityk, nie zawsze uwzględnia się wpływ, jaki mogą one mieć na innowacje [PREST 2004].
A zatem, polityka innowacyjna jest czymś odrębnym od polityki naukowej i polityki
technologicznej; cele, instrumenty i uczestnicy każdej z nich są (w pewnej mierze) różne.
W ten sposób polityka naukowa jako taka zajmuje się przede wszystkim badaniami podstawowymi, ukierunkowanymi poznawczo, natomiast polityki technologiczna i innowacyjna – badaniami podstawowymi ukierunkowanymi strategicznie, badaniami stosowanymi i tzw. pracami rozwojowymi, a także szeroką sferą działalności inwestycji rozwojowych, polegających na technologicznym i organizacyjno-menedżerskim odnawianiu
gospodarki. Patrząc od strony trzech funkcji wiedzy (produkcja – upowszechnianie
(transmisja i transfer) – wykorzystanie i absorpcja) polityka naukowa skupiona jest
przede wszystkim na wytwarzaniu wiedzy, a polityki technologiczna i innowacyjna – na
jej upowszechnianiu i implementacji. W odniesieniu do rozwoju nauki, polityka naukowa interesuje się przede wszystkim sektorem publicznym, podczas gdy polityki
technologiczna i innowacyjna – prywatnym.
Bibliografia
Public Funding Of R&D: Emerging Policy Issues, OECD 13-14 March 2001.
Assessing the Socio-economic Impacts of the Framework Programme, PREST, January 2004.
SPÓJNOŚĆ POLITYKI
[Policy coherence]
OECD określa spójność polityki jako systematyczne zapewnianie synergii działań służących realizacji uzgodnionych celów we wszystkich resortach i agencjach rządowych. Na
szczeblu rządów krajowych kwestie spójności polityki powstają między różnymi rodzajami polityk publicznych, między różnymi szczeblami administracji, między różnymi zainteresowanymi stronami, a także pomiędzy polityką krajową a międzynarodową. Postulat Spójności Polityki ma na celu przeciwdziałanie stałej tendencji do autonomizacji
poszczególnych polityk i programów, związanej brakiem przepływu informacji oraz
odmiennymi interesami odrębnych komórek organizacyjnych. Autonomizacja charakteryzuje zarówno powiązania pionowe, np. pomiędzy ministerstwami i agencjami (Por.
PRYNCYPAŁ-AGENT), jak i poziome, pomiędzy różnymi departamentami ministerstw
oraz pomiędzy różnymi ministerstwami.
W ostatnich latach wiele uwagi skupiano na idei zastąpienia patchworków polityk publicznych w poszczególnych obszarach przez bardziej skoordynowane i zintegrowane
strategie polityczne [Rayner 2009]. Specjalny numer „Science and Public Policy” (35/2
2008) przedstawiał problemy i działania podjęte w dziedzinie polityki naukowej i innowacyjnej przez m. in. Danię [Koch 2008], Niemcy [Edler 2008] i Szwajcarię [Griessen
2008].
98
Zalecane środki przeciwdziałania autonomizacji i zapewniania spójności to m.in.:
•
Ponad-resortowe jednostki koordynujące (np. Rada ds. Innowacji)
•
Super-resorty (np. Gospodarki i Pracy; Rozwoju Regionalnego i Transportu)
•
Wspólne praktyki ponad-resortowego programowania (np. w odniesieniu do takich wyzwań, jak
starzenie się, ochrona środowiska)
•
Narodowe wizje lub strategie, planowanie strategiczne, mapy drogowe (np. w Polsce powstał porządek strategii, powiązanych ze strategiami unijnymi (Strategia 2030; Strategia średniookresowa 2020; dziewięć strategii dziedzinowych), który ma na celu zapewnienie ponad-resortowej
spójności realizacji polityki)
•
Analogiczne praktyki (podobieństwo form działań na różnych szczeblach – ministerstwa, agencji,
wielkich organizacji badawczych, uczelni i instytutów rządowych - uwzględniających takie elementy zarządzania, jak misje, „mapy drogowe” (strategie); cele, zadania, priorytety, doradztwo,
analizy oraz wskaźniki i ewaluacje
•
Wspólne pojęcia diagnostyczne i polityczne: taksonomie, klasyfikacje
•
Narzędzia prognostyczne, takie jak horizontal scanning (poziome skanowanie)
•
>POLICY MIX – myślenie w kategoriach równowagi i spójności zadań, dziedzin polityki, celów
oraz instrumentów polityki. Jest to narzędzie diagnostyczne i polityczne, które podkreśla znaczenia koordynacji różnych polityk, programów i instrumentów. Policy mix dla B+R - “kombinacja instrumentów politycznych, które współdziałają ze sobą aby wspierać inwestycje w B+R w sektorze
publicznym i prywatnym”
•
Zarządzanie >CYKLEM POLITYKI (np. dzięki platformie informatycznej)
•
>BUDŻET ZADANIOWY.
Uwagi OECD nt. spójności:
Polityka to nie nauka ścisła. Doświadczenie praktyków mówi, że istnieje niewiele twardych i mocnych zasad w dziedzinie kształtowania polityki i że żaden konkretny model
nie może zagwarantować lepszej spójności.
Istnieje luka pomiędzy potrzebą spójności a umiejętnością jej osiągnięcia. Luka wynika
zarówno ze złożoności zadań realizowanych dzisiaj przez rządy, jak i z braku precyzji
pojęcia spójności.
Pojęcie spójności polityki jest wielowymiarowe. W najszerszym znaczeniu, oznacza stan
zgodności pomiędzy różnymi politykami. Lecz sfera polityki ma zbyt wiele aspektów aby
tak szerokie pojęcie było użyteczne w praktyce. Istnieją różne sfery spójności (np. ekonomicznej, społecznej, politycznej), każda z własną wewnętrzną logiką. Pojęcie spójności musi być dostosowane do realiów i praktycznych możliwości w złożonym środowisku politycznym.
Podejmowanie decyzji w demokratycznym systemie politycznym musi prowadzić do
pewnym stopniu niespójności polityki. Spójność jest tylko jednym spośród wielu kryteriów dobrych rządów w społeczeństwach demokratycznych. Oczekuje się, że rządy będą
uwzględniać konkurencyjne interesy. Są zatem zmuszone do prowadzenia polityk, które
niekoniecznie są zgodne ze sobą. Dobre tworzenie polityki jest mniej kwestią unikania
sprzeczności niż jednego zarządzania nimi.
99
Spójność tkwi bardziej w procesie polityki niż w jej produktach. Pojęcie to pozostaje w
centrum ulepszania tworzenia polityki. Służy ono wspieraniu pewnych wartości organizacyjnych, takich jak orientacja strategiczna, spoistość, podejście horyzontalne.
Pojęcie to wzmacnia również dążenia do budowy państwa partycypacyjnego, zorientowanego na poszukiwanie konsensusu w procesie tworzenia polityki.
Nie ma żadnego pojedynczego modelu polityki gwarantującego spójność polityki.
Wszystko zależy m.in. od takich czynników, jak dynamika systemu polityki, metody pracy przywódców, kultura administracyjna służby cywilnej, charakter powiązań między
głównymi aktorami.
Niemniej, istnieją narzędzia poprawy spójności. Istnieje też możliwość wzajemnego
uczenia się pomiędzy krajami.
•
•
•
•
•
•
•
•
Zaangażowanie przywódców to niezbędna przesłanka spójności.
Istnienie strategicznych ram polityki ułatwia uzgadnianie poszczególnych polityk z celami i priorytetami rządowymi.
Umiejętność nadzoru i koordynacji jest kluczowa by zapewnić poziomą spójność polityk.
Instytucje szybkiego antycypowania, rozpoznawania i rozwiązywania konfliktów politycznych wzmacniają spójność.
Decyzje polityczne są też bardziej spójne, jeśli istnieją instytucje pozwalające na systematyczny dialog pomiędzy kręgami politycznymi.
Proces polityczny musi być tak zorganizowany, aby godził priorytety rządowe i wymogi
budżetowe.
Systematyczny przepływ informacji pomaga dostosować polityki do nowych okoliczności.
Kultura administracyjna aktywnie wspierająca współpracę przyczynia się do wzmacniania spójności polityki.
Najważniejszy sposób zapewniania spójności to “poinformowane podejmowanie decyzji” [OECD 1994; OECD 2002].
Bibliografia
Antti Pelkonen, Tuula Teräväinen and Suvi-Tuuli Waltari, Assessing policy coordination capacity: higher
education, science, and technology policies in Finland, “Science and Public Policy”, 35(4), May 2008, ss. 241–
252.
Benedetto Lepori, Coordination modes in public funding systems, “Research Policy” 40 (2011) ss. 355–367.
Christian Koch, The superministry approach: integrated governance of science, technology and innovation
with contracted autonomy, “ Science and Public Policy”, 35(4), May 2008, ss. 253–264.
EC, Work Programme 2011 Capacities Part 6, Support For The Coherent Development Of Research Policies,
19 July 2010.
Jakob Edler and Stefan Kuhlmann, Coordination within fragmentation: governance in knowledge policy in
the German federal system, “Science and Public Policy”, 35(4), May 2008, ss. 265–276.
Jeremy Rayner, Michael Howlett, Introduction: Understanding integrated policy strategies and their evolution, “Policy and Society” 28 (2009) ss. 99–109.
OECD (2002), Policy coherence, OECD Journal on Development, Vol. 3/3.
100
OECD Coherence In Policy Making, 1994.
OECD Policy Coherence for Development: Promoting Institutional Good Practice, 2005.
Thomas Griessen and Dietmar Braun, The political coordination of knowledge and innovation policies in
Switzerland, “Science and Public Policy”, 35(4), May 2008, ss. 277–288.
TWÓRCZA SWOBODA CZY STEROWANIE NAUKĄ
Doświadczenie wskazuje, że największe postępy w badaniach są dziełem uczonych,
którym pozwala się rozwijać własne zainteresowania.
II poł. XX to lata przełomu w formach kierowania badaniami naukowymi i technologicznymi. Zmiana okazała się nieunikniona, biorąc pod uwagę gwałtownie rosnące koszty
badań oraz z fakt, że naukowcy z samodzielnych artystów przeobrazili się w pracowników wielkich hierarchicznych organizacji (nie tylko uniwersytetów, ale także laboratoriów przemysłowych oraz agencji rządowych). Budżety państw rozwiniętych gospodarczo nie mogły dłużej wspierać badań prowadzonych przez coraz większe zespoły, pracujące z coraz bardziej kosztowną i skomplikowaną aparaturą. Sfera dawnej samodzielności w doborze tematyki i metod oraz na wpół feudalnych relacji mistrza i ucznia skurczyły się. Nauka stała się szczuplejsza, bardziej zracjonalizowana, zarządzanie instytucją
naukową upodobniło się do zarządzania firmą, z indywidualnego przedsięwzięcia przekształciło się w przedsięwzięcie zbiorowe. Proceduralizacja, standaryzacja, oceny efektywności itd. okazały się znakomitym antidotum przeciwko pracom ciągnącym się w
nieskończoność, źle zaprojektowanym, niekonkluzywnym, przeciwko dublowaniu aparatury itd. W efekcie wszystkich opisanych zmian ministerstwa oraz agencje rządowe finansujące badania przeszły od prostego podziału funduszy do ich profesjonalnego zarządzania [Ziman 1994].
Od autonomii do zarządzania. Historię finansowania badań naukowych w Europie
można podsumować jako przejście od względnej autonomii nauki w okresie
powojennym, poprzez stadia wzrastającej presji na rozliczanie (finansowe i społeczne)
oraz relewantność, aż do dzisiejszej sytuacji, gdy większość badaczy zachęca się do
ukierunkowania badań na tematy, które mają znaczenie gospodarcze i społeczne
[Calvert]. Perspektywa akademicka i menedżerska badań naukowych różnią się
zasadniczo, a normy i wartości, którymi kierują się badacze, są z reguły przeciwne
polityce i zarządzaniu.
Rewolucja menedżerska postawiła polityków i naukowców przed dylematem, w jaki
sposób zwiększyć efektywność badań naukowych i ukierunkować je silniej na potrzeby
społeczne nie tracąc przy tym korzyści płynących z pozostawienia badaczom znacznej
swobody w wyborze celów i metod badań. W dyskusjach dylemat przybrał postać sporu
pomiędzy linią instrumentalnego podejścia do nauki J.D. Bernala (The social role of
science, 1939) a linią podejścia autotelicznego Michaela Polanyi`ego (The republic of
science, 1962).
101
Jednak w krajach zachodnich tak żywe w Polsce zagrożenie planem i urzędnikiem, które
przybrało formę stworzonego w odruchu samoobrony Komitetu Badań Naukowych,
nigdy nie dało asumptu do buntu, pomimo postępującej „rewolucji menedżerskiej”.
Twórczość i użyteczność, instrumentalne i autoteliczne podejście do nauki – okazały się
w dużej mierze fałszywą dychotomią.
Rozwój nauki: motywy uczonego i motywy państwa. Stało się tak dlatego, że (jak
podkreśla Nathan Rosenberg) istnieje istotna różnica pomiędzy motywami i
priorytetami zatrudnionych badaczy oraz motywami i priorytetami organizacji, które
ich zatrudniają i państwa, które finansuje ich badania. Podczas gdy decyzje co do
zatrudnienia i finansowania badaczy podejmowane są na podstawie przesłanek
utylitarnych, badacze pozostają często (jak dawniej) pasjonatami oddanymi bez reszty
swoim zainteresowaniom. Decyzje co do rozmiarów budżetów nauki dla różnych
dyscyplin naukowych opierają się na celach społecznych, z uwzględnieniem (przede
wszystkim) korzyści ekonomicznych. Względy ekonomiczne mają zatem decydujący
wpływ na budżety nauki zarówno w sektorze biznesu, jak i rządowym. Wydatki rządowe
na badania traktowane są jako uzasadniona (w świetle nie tylko modeli
ekonometrycznych, ale także setek szczegółowych ocen ich wpływu) inwestycja
gospodarcza i społeczna. Takie narzędzia polityki i zarządzania, jak priorytety,
ewaluacje, foresight, itd. pozwalają na wybór optymalnych obszarów badań, form ich
wykonania oraz wykonawców. Nie ma to jednak związku z często bezinteresownym
uprawianiem badań traktowanych jako sposób samorealizacji [Rosenberg 2002], choć
„gra o przeżycie” (wnioski grantowe, ewaluacje) odbiera czasami naukowcom smak „gry
z poznaniem” oraz poczucie samo-sterowności.
Doświadczenie wskazuje, że największe postępy w badaniach są dziełem uczonych,
którym pozwala się rozwijać własne zainteresowania. Najbardziej twórcze umysły są
najskuteczniejsze wtedy, gdy mogą kierować się swą własną logiką i zainteresowaniami
naukowymi. Nie można z góry określić, jaka część wiedzy podstawowej pomoże w
rozwiązaniu pojedynczego praktycznego problemu. Gdy uczeni szukają odpowiedzi na
naglące, praktyczne problemy, czynią postępy korzystając z istniejącego zasobu wiedzy
podstawowej. Gdy zasób jest niedostateczny, postęp nie zachodzi nawet pomimo
wielkich programów rządowych (jak w np. latach 1960-tych w badaniach nad rakiem)
[Research 1978]. Dlatego też najczęściej w krajach rozwiniętych sterowanie rządowe
dotyczy nie tyle zachowań samych badaczy, co form infrastruktury instytucjonalnej i
kompetencji; tworzenie programów badań pozostawia się w znacznej mierze samym
naukowcom [Rip 1996].
Rozwój badań naukowych wiedzionych ciekawością, a do pewnego stopnia także i strategicznych, to rozwiązywanie zadań, dla których rozwiązania nie są znane lub ich w ogóle nie ma. Jest to dziedzina bardziej sztuk pięknych niż biurokracji. Nie sposób ich do
końca zaprogramować. Prowadząc je, niepodobna przyjąć za drogowskaz reguł metodologicznych, gdyż te można sformułować ex post, ale nigdy ex ante. Rola przypadku, wyobraźni, intuicji, twórczej metafory jest tu decydująca. Bywa tak, „że jakaś zupełnie pozbawiona oparcia, nasunięta przez wyobraźnię hipoteza pobudza badacza do ekspery102
mentów, które ją następnie potwierdzą”. Kiedy indziej „doświadczenia nad jakimś obiektem prowadzą do wyników, o których badacz w ogóle na początku nie myślał, a które
doszły do skutku w rezultacie pojawienia się przypadkowych czynników nadających jego pracy inny i niespodziewany kierunek”. W innych wypadkach „badacz skłania się do
określonego rozwiązania pewnego problemu wskutek działania czynników najzupełniej
irracjonalnych – gustu, intuicji, względów estetycznych lub ideologicznych” [Kołakowski
1989]. Wybitni uczeni postępują w myśl tradycyjnej hiszpańskiej piosenki ludowej, która głosi, że „podróżnik nie ma drogi, on ją tworzy, gdy idzie” [Rip 1996].
Trudny kompromis. Łączenie obu perspektyw – akademickiej i menedżerskiej – jest
(do pewnego stopnia) możliwe. Tylko pozostawienie badaczom pewnego zakresu wyboru problemów badawczych gwarantuje postęp badań. Od badaczy oczekuje się tworzenia nowości, a to z założenia utrudnia biurokratyczne sterowanie i stanowi argument za
pozostawieniem autonomii. Dzisiejsze społeczeństwo innowacyjne potrzebuje więcej
badań kierowanych przez potrzeby społeczne, lecz jednocześnie wykonywanych w wyjątkowo kreatywnym środowisku z wyobraźnią, elastycznością i kompetencjami charakterystycznymi dla badań podstawowych. Z drugiej jednak strony potrzebuje też badań
bardziej rutynowych, ukierunkowanych na usprawnienia, testowanie i ewaluację, opartych na algorytmach i zarządzanych w sposób bardziej restrykcyjny [Branscomb; Rip
1998].
Po roku 1945 w krajach zachodnich zarządzano nauką na bazie kompromisu między
podejściem Polanyi’ego i Bernala. Znaczna część finansowania nauki była ukierunkowana na programy i cele, szczególnie w dziedzinach wojska i służby zdrowia, lecz w tym
samym czasie również znaczna część była dzielona na zasadach autonomii nauki. Kryteria decyzji o projektach oparte były na podejściu Michaela Polanyi’ego (peer review), a
kryteria decyzji o podziale pieniędzy dyscyplinami na podejściu J.D. Bernala (np. foresight). Ogólna równowaga pomiędzy tymi dwoma podejściami zmieniała się w czasie,
szczególnie od lat 80-tych ubiegłego wieku. Dziś większość funduszy publicznych jest
skoncentrowana w praktycznie zorientowanych dyscyplinach, takich jak inżynieria, medycyna i nauki rolnicze [Laursen 2002]. Jednak realizacja badań w priorytetowych dziedzinach nauki, wyznaczonych dzięki dogłębnym rozeznaniu całego obszaru nauki i techniki na tle nauki i techniki na świecie, nie wyklucza znacznego marginesu swobody samych badaczy. W Stanach Zjednoczonych nawet badania strategiczne dla Departamentu
Obrony finansowane są z reguły na drodze konkursu propozycji badawczych. Pozostawienie swobody wyboru propozycji badawczej (w z góry określonych ramach) uznaje
się za najlepszą gwarancję trafnej decyzji oraz wysokiej jakości wykonania badań. Instrumentem godzenia obu perspektyw okazały się w wielu krajach Rady ds. Badań: w
jednym ciele parlament uczonych oraz biurokracja rządowa [Rip 1996].
Równowaga pomiędzy sterowaniem zewnętrznym a samo-sterownością kształtuje się
odmiennie w różnych krajach. Bilans oraz formy równowagi zależą od tradycji politycznych i naukowych. „Program” nauki budowany jest zarówno przez samych badaczy, jak i
przez rządy (w coraz większej mierze wspomaganych radą przez „interesariuszy” oraz
obywateli).
103
Radykalna interwencja rządu jest często konieczna, ale jednocześnie niesłychanie
trudna, gdyż skuteczność każdego systemu N+T (jakkolwiek by ją definiować) zależy od
tysięcy niejasnych zasad i powiązań, tylko w niewielkim stopniu odsłoniętych przez
socjologię czy badania nad zarządzaniem. Nieracjonalne i nielogiczne z pozoru zasady
mogą być warunkiem niezwykłej produktywności systemu, zapewniającego optymalną
równowagę pomiędzy „twórczością” i „sterowaniem” nauką.
Doświadczenia amerykańskie. Asumpt do takiej dyskusji daje opis polityki N+T w
Stanach Zjednoczonych Alberta H. Teich’a [Teich 1997].
Podobnie jak w innych krajach rozwiniętych, w Stanach Zjednoczonych umiejętnie godzi
się potrzeby utylitarne z potrzebą samodzielności badaczy. Badania wiedzione ciekawością i strategiczne niekoniecznie wykluczają się, mówią doświadczenia amerykańskie.
Można dzielić pieniądze wg zasady strategicznej i jednocześnie pozwalać, aby badacze
wybierali problemy wg tradycyjnych zasad naukowych. Nie sposób bowiem skutecznie
kierować indywidualnymi projektami, chyba że agencja rządowa ma jasne oczekiwanie
określonego wyrobu lub wyniku.
Ale istnieje jedna istotna cecha systemu N+T, która odróżnia Stany Zjednoczone od innych państw świata rozwiniętego i która powoduje, że godzenie swobody i sterowania
odbywa się tu w inny sposób. Tą cechą jest decentralizacja decyzji.
Proces budżetowy jako mechanizm podziału środków na rozwój badań podstawowych
w Stanach Zjednoczonych nie jest ani racjonalny, ani systematyczny, tylko pod wieloma
względami niesystematyczny, zawstydzający oraz irracjonalny, pisze Teich. Jedyną jego
zaletą jest to, że działa i że pomógł stworzyć unikalny, twórczy system badań naukowych, nie mający sobie równego w świecie. Przede wszystkim nie jest to ani system zracjonalizowany, ani oparty na jednym budżecie nauki, jak w Polsce.
Z zasady projekt budżetu państwa, zawierający zapisy dotyczące badań, przygotowany
przez prezydenta, poddawany jest ocenie obu izb Kongresu. Podstawowe środki na badania podstawowe przekazuje się National Institutes of Health, NASA oraz National
Science Foundation. Prócz tego fundusze na badania podstawowe przechodzą do rąk 15
ministerstw oraz agencji federalnych (jednak 6 najważniejszych rozdziela 95% środków). Najczęściej badania podstawowe to tylko część (z reguły nie najważniejsza) misji
agencji rządowej. Badania podstawowe są elementem różnych programów i projektów i
nigdy nie są traktowane oddzielnie jako „badania podstawowe”. Istnieje mało okazji do
porównywania programów badawczych różnych agencji. Nie ma czegoś, co określa się
jako „narodowe priorytety badawcze”. Badania naukowe nie konkurują o środki z innymi celami, a poszczególne programy badawcze też nie konkurują pomiędzy sobą. Zasoby
dzielone są w sposób, który jest zrozumiały w świetle historii, tradycji i polityki, ale nie
racjonalnych zasad. Nie bierze się pod uwagę wagi poszczególnych dyscyplin dla kraju.
System taki spotyka się z zarzutem braku wizji i priorytetów. Zarzuca się mu, że nie faworyzuje, tak jak należy, badań wspierających konkurencyjność gospodarczą i nie zapewnia właściwej równowagi pomiędzy różnymi dziedzinami badań. Jego słabym punk104
tem ma też być proces wyboru między różnymi inicjatywami badawczymi. Z kręgów
środowiska naukowego wychodzą od czasu do czasu projekty zmian. Proponuje się, aby
badacze w ramach komitetów ekspertów współdecydowali o priorytetach badawczych
w sposób uregulowany i systematyczny. Jednak, zdaniem Teicha, projekty te zakładają
stopień organizacji środowiska, ducha wspólnoty oraz racjonalne zachowania, które są
obce środowisku naukowemu. Po drugie, zakładają one, że Kongres, ministerstwa i
agencje odpowie na te projekty w sposób spójny i racjonalny, a jest to naiwny punkt widzenia. Idea ogólnego odgórnego wyboru pomiędzy dyscyplinami wydaje się nieproduktywna i niesłuszna.
Istniejący w Ameryce zdecentralizowany system lepiej reprezentuje punkt widzenia
ekonomiczno-społeczny i polityczny, niż potrafiłby to proponowany system scentralizowany, oparty na decyzjach podejmowanych przez badaczy na podstawie racjonalnych
przesłanek. Istniejący system zmusza do uwzględniania przede wszystkim potrzeb pozanaukowych, żądając odpowiedzi na następujące pytania: dla danego konkretnego celu
narodowego (np. niezależności energetycznej kraju lub poprawy transportu publicznego) jakie badania są najbardziej potrzebne? Jakie mechanizmy administrowania, realizacji i oceny badań są najlepsze, by ten konkretny cel osiągnąć?
Doświadczenia izraelskie. Podobne myśli głosi, opisując system finansowania badań
naukowych w Izraelu, Haim Harari, prezydent the Weizmann Institute of Science (19982001) [Harari 2002].
Jedynym dobrym rozwiązaniem problemu finansowania nauki i jedną dobrą reakcją na
ograniczenia peer review jest zróżnicowanie źródeł finansowania, pisze Harari. Scentralizowane finansowanie, oparte na planowaniu i przewidywaniu rozwoju nauki, ma niewielką wartość i może prowadzić do ujemnych następstw. Zróżnicowane finansowanie
opiera się na wielu różnych źródłach i sięga po wiele różnych narzędzi. Przypomina ono
zachowanie gracza giełdowego. Wiele różnych nie powiązanych ze sobą typów ryzyka
daje znacznie większą szansę, że niektóre z nich zaowocują sukcesem. Jeden system daje
większe szanse ogólnej porażki. System zróżnicowany zapewnia optymalizację warunków odkryć naukowych.
Podobnie jak w Stanach Zjednoczonych, system finansowania badań w Izraelu powstał
w sposób organiczny, poprzez ciąg historycznych zdarzeń. Nikt go nie zaprojektował.
Żaden komitet nie udzielił mu poparcia. Żaden rząd nie uchwalił go i żaden parlament
nie zatwierdził na mocy ustawy. Niemniej, jest to bardzo dobry system.
W Izraelu badania naukowe na uniwersytetach (głównie badania podstawowe) finansowane są przez Uniwersytecki Komitet Grantów. Granty badawcze finansuje także Ministerstwo Nauki, ale ma ono bardzo szczupłe środki i niewielki wpływ na rozwój nauki.
Budżet całego ministerstwa jest zbliżony do budżetu jednego wydziału Instytutu Weizmanna. Więcej władzy ma w swych rękach Główny Naukowiec Ministerstwa Przemysłu. Rozporządza on dużymi środkami na badania w przemyśle oraz na badania w ramach partnerstwa nauki i przemysłu. Oferuje dotacje dla startujących firm, dla firm
średniej wielkości, oraz dla koalicji takich firm z akademickimi zespołami badawczymi.
105
Pieniądze przyznaje w ramach różnych programów oraz wg różnych formuł. Główny
Naukowiec ma też największy wpływ na rozwój nauki w Izraelu. Poszczególne ministerstwa, jak Zdrowia czy Rolnictwa, mają niewielkie budżety N+T dla finansowania swoich
programów. Ministerstwo Obrony dysponuje większymi środkami. Prócz tego istnieje
też Narodowa Fundacja Nauki, stosunkowo niewielka i silnie zróżnicowana, która oferuje grany badawcze, finansuje wielkie centra doskonałości, udziela dotacji na uruchomienie nowych pól badań, oraz przyznaje granty dla młodych badaczy.
Finansowanie badań rozproszone jest między wieloma ministerstwami. Badania rolnicze rywalizują w Ministerstwie Rolnictwa z wydatkami nie-badawczymi, a nie z innymi
programami B+R.
Uczelnie wyższe nie są instytucjami rządowymi, podobnie jak w Stanach Zjednoczonych,
a inaczej niż w Europie. Podobne są do amerykańskich, są niezależne, korzystają z
pomocy rządowej oraz ze wsparcia fundacji non-profit (głównie zarządzanie
określonymi projektami badawczymi). Uniwersytety są też zróżnicowane, są i
państwowe, i prywatne. Prawa własności intelektualnej należą do uniwersytetów, które
dzielą się z nimi z badaczami.
Taki system jest sprawą życia i śmierci dla małego kraju, w którym zawsze istnieje
niebezpieczeństwo, że wpływowa osobistość będzie decydować o naukowcach,
instytutach i dyscyplinach.
Ogromnie zróżnicowane są fundacje non-profit. Zawsze znajdzie się ktoś, kto ma
pieniądze i wyłoży na finansowanie badań nad rakiem, dla uczczenia pamięci zmarłego
członka rodziny.
Dywersyfikacja ważna jest także dlatego, że lepiej chroni pieniądze na badania przed zakusami polityków. Lepiej mieć jajka w 15 koszykach niż w jednym. Bardzo podobny jest
system amerykański. Niech kwitnie tysiąc kwiatów. Chaotyczny system może okazać się
lepszy niż system z centralnie planowanymi priorytetami (jak w Europie) lub z repetycją
z roku na rok raz ustalonych kwot (jak to się dzieje w krajach Ameryki Łacińskiej oraz w
krajach Europy Środkowo-Wschodniej).
Podobne zasady zróżnicowania i konkurencji można też spotkać na niższych szczeblach
podziału publicznych pieniędzy na badania. Np. Instytucie Weizmanna nie ma stałych
katedr. Są wprawdzie stałe stanowiska profesorskie (tenured), ale z chwilą odejścia profesorów ich „katedry” automatycznie przestają istnieć. Nie ma zatem warunków dla powstania wielu ujemnych cech życia naukowego, tak charakterystycznych dla Europy
(rozwój dyscyplinowych „księstw”). Np. pewnego roku odchodzi trzech chemików, ale
na ich miejsce przyjmuje się komputerowców, bo są lepsi. Lub odwrotnie. Zapewnia to
dużą elastyczność pól badawczych. Instytut stale odnawia się. W ten sposób np. w sposób niemal bezbolesny zanikł departament fizyki nuklearnej, a urósł informatyczny czy
neurobiologiczny. Wymagało to zastosowania specjalnego systemu peer review, porównania ludzi z różnych dyscyplin. Zadanie to wykonuje komitet dwunastu (stale zmienianych) osób reprezentujących różne dyscypliny, którzy wspólnie debatują nad zaletami
każdego kandydata (oddzielnie, a nie jednego przeciw drugiemu).
106
W Instytucie pracuje 200 zatrudnionych na stałe profesorów. Każdy ma do swojej dyspozycji 2,5 razy więcej środków niż przed dekadą. Jest to zrozumiałe, gdyż badania stają
się coraz bardziej kosztowne. Lepiej zatem zachować stałą liczbę profesorów, ale dać
każdemu więcej pieniędzy, niż cienko smarować po równo.
Instytut nie inicjuje nowego pola, dopóki nie zdobędzie pierwszej klasy badacza. Podobne zasady stosowane są dziś też w Max Planck Gesellschaft (tzw. zasada Harnacka). Nie
znaczy to, że pole nie ma znaczenia. Ale kiedy mimo poszukiwań nie znajdzie się odpowiedniego kalibru uczonego, nie podejmuje się uprawy pola.
Wszystkie ewaluacje przeprowadzane są przez zewnętrznych ewaluatorów, niemal
zawsze zagranicznych. Jeśli świat nauki ciebie nie zna, my ciebie nie chcemy. System finansowania jest bardzo antydemokratyczny. Działa tu wielu drobnych dyktatorów. Zewnętrzni recenzenci dokonują też okresowych ewaluacji pól badań.
Instytut korzysta z dwunastu różnych źródeł finansowania. Wewnętrzne granty (m.in. w
rękach m.in. dziekana lub dyrektora studium doktoranckiego) udziela na zasadach konkursu (np. doktorski i post-doktorski dla młodego badacza). W Instytucie działa też kilka centrów badawczych, finansowanych z fundusze na rozwój badań międzydyscyplinarnych.
Podsumowując, doświadczenia amerykańskie i izraelskie uczą, że nauka jest tak ekscytująca dlatego, że jest nieprzewidywalna, a zbyt wiele planistyki czyni ją przewidywalną,
a przez to mniej ekscytującą. Ponadto, że harmonizacja interesu środowiska naukowego
z ogólnym interesem społecznym udaje się najlepiej, gdy jest połączona z dokonywaniem wyborów co do kierunków badań na najniższym możliwym szczeblu i gdy wybory
te dokonuje się w znacznej mierze w ramach struktur, które nie zostały stworzone dla
rozwoju samej tylko nauki.
Bibliografia
Albert H. Teich, The political context of science priority-setting in the United States, w: Evaluating science
and scientists. An East-West Dialogue on Research Evaluation in Post-Communist Europe, ed. by Mark S.
Frankel and Jane Cave, 1997.
Arie Rip and Barend J.R. van der Meulen, The post-modern research system, „Science and Public Policy“ December 1996.
Erno-Kjolhede Erik et al., Managing university research in the triple helix, “Science and Public Policy” vol.
28 nr 1 February 2001.
Jane Calvert and Ben Martin, Science funding: Europe, w: International Encyclopaedia of the Social and
Behavioural Sciences.
John M. Ziman, Prometheus Bound, Cambridge University Press, 1994.
Keld Laursen and Ammon Salter, The Fruits of Intellectual Production: Economic and Scientific
Specialisation Among OECD Countries, DRUID Working Paper no 02-03, 2002.
Leszek Kołakowski, Nauka jako sztuka piękna, w: Pochwała niekonsekwencji 3, Nowa, Warszawa 1989.
107
Lewis M. Branscomb, The False Dichotomy: Scientific Creativity and Utility, Internet; Arie Rip, The Dancer
and the Dance: steering in/of science and technology, w: Steering and effectiveness in a developing
knowledge society, ed. Arie Rip, 1998.
Nathan Rosenberg, Schumpeter and the Endogeneity of Technology, Routlege, 2002.
Research Universities and the National Interest. A Report from 15 University Presidents, New York 1978.
UMIĘDZYNARODOWIENIE POLITYKI
Globalizacja zmieniła kontekst, w którym działają rządy. Nawet tradycyjnie krajowe
problemy coraz bardziej pozostają pod wpływem międzynarodowych organizacji i wydarzeń. Uczestnictwo w organizacjach międzynarodowych lub adaptacja umów międzynarodowych – w efekcie dobrowolne zrzeczenie się suwerenności – jeszcze bardziej
zmniejsza pole manewru krajowych decydentów politycznych. Globalna polityka ogranicza autonomię krajowych rządów, jednak zarazem pozwala rządom mieć więcej wpływu
na politykę w innych krajach. Rządy są coraz bardziej świadome, że poprawa mechanizmów koordynacji polityki wewnętrznej jest niezbędna aby sprostać wyzwaniom globalizacji [OECD 1995].
Rośnie uzależnienie i uwikłanie rządów w sprawy i stosunki międzynarodowe. Te uzależnienia i uwikłania narzucają urzędnikom wymagania co do wiedzy i umiejętności
oraz co do dostosowania kwalifikacji przedstawicieli narodowych. Przedstawiciele muszą z założenia wykazywać zbliżone kwalifikacje intelektualne, wiedzę oraz praktyczne
umiejętności prowadzenia dyskusji i negocjacji. Narzuca to kwestię wyboru, przygotowania oraz rozwoju urzędników, którzy mają pełnić rolę za granicą. Wzrastające umiędzynarodowienie państw i polityk wywiera wpływ na role odgrywane przez wyższych
urzędników państwowych. Urzędnik musi odtąd znać się nie tylko na własnej specjalności, ministerstwie lub sektorze gospodarki narodowej. W porównaniu z latami 19701980 dwie cechy zmieniły zasadniczo horyzonty i założenia pracy służby cywilnej. W
wielu obszarach pracy rządu, włączając w to rządy lokalne, instytucje europejskie stały
się obecnie częścią procesu decyzyjnego. Żaden ważniejszy urząd nie powstaje poza
wpływem decyzji podejmowanych przez Brukselę czy Waszyngton. Zmieniło to zasady
rekrutacji i awansu, środki pobudzania mobilności, szkolenia, analizy i badania, warunki
zatrudnienia oraz kształt pracy. Np. w Danii dawniej zatrudniano w służbie publicznej
głównie prawników, następnie ekonomistów, a następnie pozostałych (przedstawicieli
nauk politycznych i socjologów). Teraz proporcje zmieniły się na korzyść dwóch pozostałych grup [OECD 1992].
Sytuacja ta wynika z wpływu globalizacji na zasady westfalskie. Traktat westfalski (1648)
który zakończył Wojnę Trzydziestoletnią stał się kamieniem węgielnym porządku światowego przez 350 lat. Najważniejsze zasady westfalskie to: a) prymat suwerenności jako
absolutnego punktu odniesienia w globalnych powiązaniach, ostatecznej zasady, wg której powinno budować się wszystkie koncepcje globalnego porządku, b) znaczenie kontroli nad terytorium geograficznym, c) rządy narodowe jako podmioty systemu westfalskiego (na miejsce feudałów, papieża oraz Kościoła), d) ukształtowanie się zespołu praw
108
międzynarodowego opartego na traktatach pomiędzy suwerennymi państwami, e) wojna pozostaje uznanym instrumentem stosunków międzynarodowych. Cechą stosunków
międzynarodowych po roku 1945 było podważanie systemu westfalskiego przez globalizację (rozumianą szeroko jako rozszerzenie ludzkiej aktywności z wąskich ram państw
narodowych); globalizację nie tylko w sensie handlu, ale i samej produkcji, przepływu
przedsiębiorców, siły roboczej, finansów, technologii, zorganizowanej przestępczości i
terroryzmu. Obecny okres charakteryzuje się zmniejszeniem politycznej zdolności rządów
narodowych (wpływ ONZ, EU, OECD, WTO, globalna współzależność) oraz ich politycznej legitymizacji, rozwojem „multilateralizmu” jako współczesnej formy globalnego rządu
(NAFTA, EU, ADEC, MERCOSUR, NATO, WTO). Nowe instytucje, które współistnieją z
państwem narodowym – WTO, EU, to nie tylko miejsce dyskusji i negocjacji, lecz również
oficjalne organy ze specjalną jurysdykcją i uprawnieniami legislacyjnymi [OECD 2001].
Zob. też >OECD, >Unia Europejska, >UNESCO, >ONZ.
Bibliografia
OECD Internationalisation and management development. A background paper, 1992.
OECD Kimon Valaskakis, Long-term trends in global governance: from “Westphalia” to “Seattle”, 2001.
Sigma, Carlo Nizzo, National Public Administration and European Integration, 1999.
OECD The Impacts Of Globalisation On Policy Making 1995.
OECD 21st century governance: power in the global economy and society, EXPO 2000.
Klaus-Heinrich Standke, The Impact of International Organisations on National Science and Technology Policy and on Good Governance, European Institute for International Economic Relations, Discussion Paper
104, Potsdam, March 2003.
UZASADNIENIA POLITYKI NAUKOWEJ I INNOWACYJNEJ
(Policy Rationale for science and innovation policy )
W demokracji uzasadnienie jest niezbędnym elementem każdej interwencji publicznej
podejmowanej za pieniądze podatnika. Zob. >ROZLICZALNOŚĆ.
Przez lata najważniejszym uzasadnieniem dla polityki naukowej i technologicznej była
ułomność rynku. Rynek – podkreślano – nie działa skutecznie z wielu powodów:
•
•
•
•
•
•
•
asymetrii informacji,
barier wejścia,
efektów zewnętrznych (kosztów lub korzyści mających wpływ na podmioty, które nie
zamierzały z nich korzystać lub je ponosić),
ekonomii skali lub zakresu,
monopoli lub nie dostatecznej konkurencji,
nierównego rozkładu dochodów,
istnienia dóbr publicznych (które stwarzają problemy „jazdy na gapę” lub „tragedii pastwiska”).
109
Koncepcje ułomności rynku rozwinęli Arrow (1962) i Nelson (1959). Zwrócili oni uwagę
na podstawowe czynniki ograniczające osiągnięcie optimum społecznego poprzez prywatną optymalizację zysku:
•
•
•
•
•
Wiedza ma charakter quasi-publicznego dobra, co oznacza, że te same idee mogą być dostępne i wykorzystywane dowolną ilość razy przez dowolną liczbę osób.
Produkty wiedzy są niepewne – trudno przewidzieć koszt, okres trwania i efekt poznawczy, technologiczny i komercyjny działalności badawczo-rozwojowej i innowacyjnej. Porażki są bardzo częste.
Bardzo trudno zabezpieczyć prawa własności twórców pomysłów.
Pomysły cechuje niepodzielność. Nie można mieć pół innowacji, wszystkie składniki muszą być obecne, aby innowacja działała. Koszty przeprowadzenia innowacji mogą z tego
powodu być wysokie. Gdy są one wysokie, a koszty przekazywania o nich informacji niskie, łatwość rozchodzenia informacji i trudność zagwarantowania strumienia zysków
mogą zniechęcać do podejmowania działalności innowacyjnej.
Produkcja wiedzy tworzy asymetrie informacji pomiędzy sprzedawcami i kupującymi, a
asymetrie te mogą prowadzić obie strony do pokusy nadużyć. Kupujący chce znać wartość wiedzy, którą kupuje (aby „nie kupować kota w worku”), ale z chwilą gdy ją pozna,
nie potrzebuje za nią płacić.
W kolejnych latach zwrócono uwagę na ułomności systemowe:
•
•
•
•
•
•
•
Ułomność kompetencji – niezdolność firmy do działania w swoim najlepszym interesie,
np. z powodu deficytu umiejętności zarządczych, słabych umiejętności absorpcji technologii powstałych na zewnątrz, niskich zdolności do rozwijania technologii,
Ułomność twardych instytucji – niezdolność do adaptacji do zmieniających się okoliczności takich instytucji, jak uczelnie, poza-uczelniane instytuty badawcze, urzędy patentowe,
Ułomność miękkich instytucji – takich jak kultura polityczna i kapitał społeczny,
Ułomność sieci – niedostateczna ilość i jakość wzajemnych powiązań pomiędzy aktorami
systemu innowacji,
Ułomność regulacji,
Ułomność infrastruktury (sieci teleinformatyczne, drogi, koleje),
Ułomność polityki – niedostateczne zainteresowanie kwestiami badań naukowych i informacji ze strony polityki rządowej [OECD 2009; EC 2006; Woolthius 2005; Metcalfe
2000; Hauknes 1999].
Ułomności te nabrały dodatkowego znaczenia w czasach kryzysu, gdy badania i innowacje uznaje się za ważne sposoby wyjścia z kryzysu.
Zwraca się uwagę, że ułomności systemowe są charakterystyczne dla „myślenia modernistycznego”, kładącego nacisk na wydajność, efektywność, racjonalne działanie, budowanie strategii, przewidywanie, kontrolę i ewaluację, podczas gdy ułomności systemowe są przejawem myślenia „post-modernistycznego”, które zwraca bardziej uwagę
na proces uczenia się, budowania zaufania, współpracę, kapitał społeczny i moderowanie [Braun 2006].
110
Bibliografia
Dietmar Braun, The mix of policy rationales in science and technology policy, “Melbourne Journal of Politics”, November 2006.
EC, European Commission DG Research Benchmarking national research policies: The Impact of RTD on
Competitiveness and Employment (IRCE) A STRATA-ETAN Expert Group Index of contents.
J. S. Metcalfe, Science, Technology and Innovation Policy in Developing Economies 21st July 2000.
Johan Hauknes, Lennart Nordgen, Economic rationales of government involvement in innovation and supply
of innovation-related services, STEP 1999.
OECD Country Reviews Of Innovation Policy 2009.
Richard R. Nelson, On The Complexities And Limits Of Market Organization, LEM Working Paper 2003.
Rosalinde Klein Woolthuis, Maureen Lankhuizen, Victor Gilsing, A system failure framework for innovation
policy design, “Technovation” 25 (2005) ss. 609–619.
STI Review no. 22. Special Issue on “New Rationale and Approaches in Technology and Innovation Policy"
Featuring papers from a Conference jointly organised by the OECD and the Austrian Government, held in
Vienna on 30-31 May 1997.
WDRAŻANIE POLITYKI
[Policy implementation]
Wdrażanie (implementacja) to jedno z ogniw >CYKLU POLITYKI, obok ustalania >agendy polityki, >formułowania polityki, oraz >ewaluacji.
Wdrażanie polityki określa się ogólnie jako to, co dzieje się pomiędzy wyrażeniem zamiaru podjęcia działania ze strony rządu a jego zakończeniem. Składniki wdrażania to:
•
•
•
•
Specyfikacja programu działania (Która agencja odpowiada za jego wykonanie? W jaki
sposób? Kto?)
Opracowanie regulacji (ustaw, rozporządzeń, zarządzeń, przepisów)
Przydzielenie zasobów (Jak zostanie podzielony budżet?)
Sformułowanie szczegółowych decyzji.
Wdrażanie polityki to kolejna faza >cyklu polityki, obok wcześniejszego ustalania
>agendy polityki i >formułowania polityki oraz późniejszej >ewaluacji polityki.
Podkreśla się, że różne typy >polityk, >programów i >instrumentów charakteryzują się
różnymi typami problemów pojawiających się w trakcie wdrażania [Handbook 2007].
Ponadto zwraca się też uwagę, że sformułowanie polityki nie jest równoznaczne z jej
wdrożeniem, bądź dlatego, że bywa ono zbyt szerokie i optymistyczne, bądź z powodu
braku umiejętności agencji wykonawczej, bądź też z tego względu, że grupy interesu lub
osoby dotknięte polityką starają się wywrzeć wpływ na przebieg realizacji polityki
[Smith 1973]. Zwraca się też uwagę, że polityki są reinterpretowane na niższych szczeblach implementacji: cele i założenia ministerstwa (i/lub agencji) są mieszane z własnymi interesami i wymaganiami wykonawców, przez co osiągnięte wyniki bywają dalekie od założonych [Butler 2008].
111
Piśmiennictwo ostatnich lat zwraca uwagę na potrzebę partycypacji obywateli, szczególnie osób zainteresowanych polityką, nie tylko w fazie ustalania agendy, ale także
>wdrażania i >ewaluacji polityk.
Faza wdrażania polityki została teoretycznie wyodrębniona w latach 1970. Z biegiem
czasu, w ślad za narastającymi praktykami, ujęcie odgórne wdrażania, kładące nacisk na
rolę >ministerstw, uzupełniono u ujęcie oddolne, akcentujące funkcje >agencji wykonawczych.
W naukach politycznych istnieją trzy podejścia do wdrażania polityk:
1. Modele odgórne (ang. top-down) kładą nacisk na umiejętności decydentów do stawiania jednoznacznych celów oraz kontroli etapu realizacji.
2. Modele oddolne (ang. bottom-up) interesują się przede wszystkim urzędnikami niższego
szczebla jako głównymi wykonawcami polityki oraz traktują wdrażanie jako proces negocjacji w sieci wykonawców.
3. Teorie hybrydowe starają się pokonać przepaść między dwoma poprzednimi podejściami.
Bibliografia
Handbook of Public Policy Analysis. Theory, politics and methods. Ed. By Frank Fischer, Gerald Miller and
Mara S. Sidney, CRC Press, 2007, ss. 51-53.
Michael J. R. Butler & Peter M. Allen, Understanding Policy Implementation Processes as Self-Organizing Systems, “Public Management Review” Vol. 10, Issue 3, 2008, ss. 421-440.
Thomas B. Smith, The policy implementation process, “Policy Sciences”, June 1973, Volume 4, Issue 2, ss.
197-209.
WDRAŻANIE REFORMY SZKOLNICTWA WYŻSZEGO
Reformy szkół wyższych przeprowadza się wielokrotnie, dekada po dekadzie, we
wszystkich niemal krajach świata. Jednak nie wszystkie reformy udają się, a niektóre
powodują nieprzewidziane i niezamierzone skutki uboczne, pogarszają sytuację, którą
miały naprawić. Raport OECD (2008) informuje, dlaczego w niektórych krajach reformy
udały się, a w innych nie. Streśćmy lub zacytujmy jego najważniejsze fragmenty.
Interesariusze. Szkolnictwo wyższe wywiera wpływ na wielu różnych interesariuszy,
których interesy, poglądy na jego rolę i cele, a przez to i opinie na temat strategii i polityk służących osiągnięciu tych celów bardzo się od siebie różnią. Zależnie od zajmowanej pozycji mogą oni w różny sposób zagrażać polityce wobec szkolnictwa wyższego. W
efekcie, wyzwaniem dla decydentów jest znalezienie równowagi pomiędzy celami polityki a tymi różnymi punktami widzenia w taki sposób, by budować konsensus i zapewnić, że żadna pojedyncza grupa nie zawetuje ani nie zagrozi wdrażaniu polityki.
Interesariuszy można określić jako osoby lub organizacje, które albo mogą wpływać na
szkolnictwo wyższe, albo podlegają jego wpływom. Interesariusze często mają różne cele i motywy w odniesieniu do szkolnictwa wyższego, a gdy idzie o zmiany, każda grupa
ma skłonność do podkreślania ich innego aspektu. Np. studentów i absolwentów intere112
suje jakość kształcenia i szanse zatrudnienia, a także zaspokojenie osobistych zainteresowań i samo-realizacja. Pracodawcy chcą, aby uczelnie przekazywały wiedzę, umiejętności i cechy przygotowujące studentów do późniejszej pracy. Ponadto, chcą oni także,
aby uczelnie przyczyniały się do innowacji i rozwoju regionalnego. Dla kontrastu, nauczycieli akademickich bardziej interesuje polityka odnosząca się do transferu wiedzy,
motywacji studentów, jakości badań, powiązań badań i dydaktyki, a także – może przede
wszystkim – kwestii stałego zatrudnienia dla nich samych (ang. tenure).
Ta różnorodność punktów widzenia czyni politykę wobec uczelni szczególnie trudną,
zwłaszcza że decydenci reprezentują tylko jedną z grup interesariuszy – władz rządowych – i dlatego muszą godzić różne perspektywy i unikać wrażenia, że politykę narzuca
się odgórnie.
Powody porażek reformy. Mianem luki wdrożeniowej określa się różnicę między planowanymi a uzyskanymi rezultatami. Reynolds and Saunders stworzyli pojęcie “schodów wdrażania” pokazując, w jaki sposób umiejscowienie jednostek i grup interesariuszy w hierarchii procesu polityki – od decydentów po dziekanów, liderów środowiska
akademickiego i studentów – kształtuje interesy i percepcje dotyczące poszczególnych
polityk. Inni badacze zwracają uwagę, że relacje pomiędzy inicjatywą polityczną na
szczycie schodów oraz jej rezultatami u ich podnóża są dość luźne. Podkreśla się też, że
jednym z najważniejszych źródeł porażek odgórnych polityk jest dominująca tradycja
autonomii akademickiej, wysoko cenionej na wszystkich poziomach systemu szkolnictwa wyższego. Każdego typu interwencja (rząd-uczelnie, uczelnie-katedry oraz katedryindywidualni badacze) spotyka się z oporem gdyż jest postrzegana jako zagrażająca autonomii i przez to bezprawna.
Inny powszechny problem reform szkolnictwa wyższego wynika z częściowego wdrożenia.
Proces tworzenia polityki często charakteryzuje się trudnymi kompromisami, które polegają na pakietach reform, w których różne inicjatywy polityczne mają na celu zrównoważenie ubocznych następstw innych propozycji. Jeśli zastosuje się tylko niektóre
środki, reforma może pociągnąć za sobą niezamierzone i szkodliwe konsekwencje. Np.
częściowe reformy wprowadzające opłaty za naukę, lecz bez programów pożyczek zależnych od dochodów, mogą mieć katastrofalne skutki przez ograniczanie dostępu na
uczelnie mniej zamożnych studentów.
Dwa przykłady dobrze pokazują pułapki częściowych reform.
Nieoczekiwane skutki przyniosła podjęta w latach 1980. reforma przyznająca hiszpańskim uniwersytetom więcej autonomii w ustalaniu ich własnych programów. Z braku
równoległej reformy, polegającej na wzmocnieniu menedżerskiej formy zarządzania, autonomia ta zaowocowała nie tyle usprawnieniem zarządzania, tylko mnożeniem stanowisk, popychając społeczność akademicką do zwiększania liczby specjalizacji jako sposobu na wzrost liczby katedr.
113
Inną ilustracją niezamierzonych następstw wdrożenia tylko części reformy była fuzja
uczelni holenderskich podjęta w latach 1980. i 1990. Fuzja miała na celu redukcję kosztów utrzymania uczelni w celu zrównoważenia spadku dochodów od studentów. Jednak
reforma przyniosła przeciwne skutki, owocując ogromnym wzrostem kosztów ogólnych
i spadkiem środków na dydaktykę i badania naukowe w przeliczeniu na jednego studenta. Niezamierzone następstwa przypisuje się brakowi równoległych reform pobudzających konkurencję między uczelniami. W braku takich reform, wzrost skali stworzył
uniwersyteckie oligopole, co pociągnęło za sobą niekorzystne skutki dla dyscypliny zarządzania finansami uczelni.
Częściowe reformy wynikają często z niewystarczających zasobów dla wdrożenia pakietu pełnych reform lub z lęku przed oporem wobec bardziej kontrowersyjnych środków. Jednak doświadczenie uczy, że kontrowersje wokół inicjatyw politycznych niekoniecznie stają się barierą hamującą ich wdrożenie. Zdarza się osiągnąć konsensus w pozornie trudnych reformach. Np. rektor Uniwersytetu Sonora w Meksyku zawarł ugodę z
pracownikami i studentami dotyczącą studenckiego wkładu do nauczania, podczas gdy
nie udało się to w innych uczelniach Meksyku.
Powody powodzenia reform. Są dowody na to, że presja międzynarodowa i konkurencyjne otoczenie stwarza wśród wszystkich zainteresowanych i całego społeczeństwa poczucie tego, że reforma jest nieunikniona. W Europie ponadnarodowa konwencja Procesu Bolońskiego pociągnęła za sobą restrukturyzację programów akademickich w celu
zwiększenia porównywalności i wzajemnego uznawania kwalifikacji. Podobnie, pomimo
początkowego oporu wdrożenie wielkich szeroko zakrojonych reform szkolnictwa wyższego w Japonii w 2004 powiodło się wskutek podzielanego powszechnie przekonania,
że reformy są konieczne, gdyż uczelnie japońskie pozostają w tyle za światem.
Nie tylko porównania i konkurencja międzynarodowa mogą ułatwić akceptację reform,
ale także konkurencja wewnątrz krajowego systemu edukacji.
Powodzeniu reform sprzyja także konsensualny tryb jej wprowadzania. Badacze szkolnictwa wyższego są niemal jednomyślni w opinii, że jeśli chce się z powodzeniem przeprowadzić decentralizację i jeśli ma ona mieć dodatni wpływ na jakość nauczania, musi
ona być przeprowadzona na podstawie szerokiego konsensusu pomiędzy interesariuszami. Tam gdzie uprawia się konsensualną politykę, łatwiej o sukces reformy. Jest tak
dlatego, że konsensualne tworzenie polityki – charakterystyczne dla krajów skandynawskich i dla Wielkiej Brytanii – polegające na stałym feed-backu propozycji i opinii - pozwala decydentom wcześnie uwzględniać uzasadnione obiekcje, co zmniejsza prawdopodobieństwo silnego sprzeciwu niektórych grup interesariuszy. Główna zaleta ugodowego tworzenia polityki polega na budowaniu zaufania między różnymi grupami interesariuszy i decydentów.
Zwraca się uwagę na inny czynnik sukcesu reform, jakim jest koncentracja i klarowność
(a nie wieloznaczność) celów. Jasna wizja celów i środków przeprowadzenia reformy
zapobiega działaniom ad hoc i poddawaniu się naciskom różnych interesów. Reformy
formułowane pod presją różnych interesariuszy mają niejasne intencje i wiele często
114
sprzecznych celów. Niejasne uzasadnienia interwencji publicznych osłabiają ich akceptację ze strony tych, którzy będą je wdrażali.
Powody oporu wobec reform. Powszechne źródło oporu wobec reform bierze się z
przekonania – uzasadnionego lub wyimaginowanego – że w jej wyniku dozna się strat, w
finansach, stanowiskach lub prestiżu. I tak, wspieranie badań interdyscyplinarnych
wzbudza sprzeciw ze strony badaczy rozwijających ustabilizowane pola, a fuzje uczelni
wzbudzają lęk z powodu możliwych zwolnień personelu. Studenci opierają się jakimkolwiek reformom polegającym na zwiększeniu opłat za studia. Reformy mogą także
znaleźć przeciwników wśród urzędników, obawiających się, że zwiększenie autonomii
uczelni odbierze im władzę i stanowiska.
Podczas gdy grupy zagrożone (rzeczywiście lub tylko we własnym pojęciu) sprzeciwiają
się reformom, beneficjenci reform często nie potrafią zorganizować się dla ich poparcia.
Dzieje się tak głównie z tego powodu, że reformy często pociągają za sobą koncentrację
kosztów oraz rozproszenie korzyści. Inny powód słabej mobilizacji wygranych wynika z
odstępu czasu pomiędzy kosztami, które trzeba ponieść od razu, oraz korzyściami, które
są oddalone w czasie.
Wiele przeszkód w reformach bierze się z postaw decydentów, działających w perspektywie kolejnych wyborów.
Przede wszystkim, w szkolnictwie wyższym znaczenie zewnętrznej presji jest stosunkowo słabe. W przeciwieństwie do polityki makroekonomicznej, w której groźba odpływu kapitału zmusza rządy do zacieśnienia dyscypliny finansowej, uczelnie nie stają w
obliczy podobnych sankcji za brak świadczenia usług o najwyższej jakości. Pojawienie
się gospodarki opartej na wiedzy i przyspieszenie tempa postępu technicznego zwiększa
obecnie koszty bezczynności, ale nie dość silna konkurencja międzynarodowa w szkolnictwie wyższym nadal hamuje długoterminowe działania na rzecz jego poprawy.
Jeszcze inne wyjaśnienie trudności reformowania szkół wyższych leży w problemach z
informacją. Często beneficjenci reformy nie są dostatecznie świadomi jej korzyści i z tego powodu nie wywierają na decydentów dostatecznej presji, by ją przeprowadzić. Kiedy indziej interesariusze nie są dostatecznie poinformowani o charakterze i wpływie reformy, przez co ją kwestionują i opierają się jej. Niepewność agentów i interesariuszy co
do rezultatów reformy dla ich własnej sytuacji – czy wygrają czy przegrają – może skłaniać ich do obrony status quo, chociaż poparcie dla reformy leżałoby w ich interesie.
Opór może też mieć charakter psychologiczny i polegać na odrzucaniu zmian których nie
jest się sprawcą.
Opór może też znaleźć pożywkę w wysokich kosztach reformy – np. kosztach programów pożyczkowych dla studentów, łączenia instytucji, planowania, restrukturyzacji
wydziałów, scalania bibliotek i systemów informatycznych, wyrównywania wynagrodzeń, odpraw dla zwalnianych pracowników itd.
Jednak pomimo wszystkich opisanych tu przeszkód, w wielu krajach reforma szkolnictwa wyższego udała się. Jak pokonano w nich przeszkody?
115
Czynniki sukcesu. Głównym argumentem za reformą były wysokie koszty zaniechań
dla międzynarodowej pozycji kraju.
Jakie warunki były spełniane w krajach, w których udała się reforma?
Jednym z warunków jest utworzenia niezależnego komitetu ad hoc celem zainicjowania
reformy. Polityka częściej odnosi skutek, kiedy jest oparta na uzgodnieniach pomiędzy
interesariuszami. Regularne spotkania pomagają budować zaufanie, a przez to i kompromis. Ponadto, dają one szanse, aby przedstawiciele różnych grup interesariuszy uznali
reformę za własną, za swoje dzieło.
Innym warunkiem jest stworzenie platformy ogólnonarodowych konsultacji lub też Internetowych grup dyskusyjnych.
Dla osiągnięcia sukcesu reformy trzeba zadbać o informację o problemach szkół wyższych oraz o metodach ich rozwiązania. Diagnozy, analizy i badania mogą pobudzić debatę, uświadomić potrzebę zmian.
Różnorodność poglądów o szkolnictwie wyższym wśród różnych grup interesariuszy
jest dużym atutem dla decydentów. Konfrontacja różnych poglądów podczas projektowania polityki pozwala na rozpoznanie pełnego zakresu skutków ubocznych i wad propozycji politycznych na długo przed ich realizacją.
Czasami reformy udają się, gdy politycy decydują się na eksperymenty polityczne polegające na wprowadzaniu reform pilotażowych, testujących na próbie skuteczność proponowanych rozwiązań.
Dopóki nie osiągnie się szerokiej zgody na reformę, lepiej wprowadzać reformę stopniową i „kroczącą” niż szeroką.
Dobrze unikać sytuacji, gdy skutkiem reformy będzie koncentracja kosztów i rozproszenie korzyści. Jednym z możliwych rozwiązań jest zapewnienie rekompensat interesariuszom tracącym na reformie, polegających np. na podwyżkach pensji pracowników lub
programach stypendialnych dla uboższych studentów.
W celu osiągnięcia konsensusu ważne jest, aby wszystkie zainteresowane strony widziały reformę w ramach szerszej strategii politycznej. Jednostki i grupy są bardziej
skłonne zaakceptować zmiany, które niekoniecznie leżą w ich interesie, jeśli rozumieją
ich powody oraz rolę, jaką mają do odegrania w szerszej narodowej strategii.
Reformy szkół wyższych często składają się z pakietu różnych powiązanych ze sobą instrumentów, z których każdy ma określoną rolę do odegrania w ramach ogólnej strategii. Dlatego należy unikać wprowadzania częściowych reform.
Kluczowe dla sukcesu reformy jest poparcie interesariuszy. Jednym ze sposobów jego
uzyskania są towarzyszące reformie szkolenia przygotowujące wszystkich do nowych
ról i odpowiedzialności.
116
Bibliografia
OECD (2008), What Next? The Challenges of Policy Implementation, in Tertiary Education for the Knowledge
Society: Volume 1 and Volume 2, OECD Publishing.
ZAŁOŻENIA I RAMY KONCEPCYJNE POLITYK
Na ramy koncepcyjne, w jakich dokonuje się oceny sytuacji problemowej polityki oraz
na wybór rozwiązań wpływ mają dominujące wizje rozwoju. Np. takimi ramami w krajach słabiej rozwiniętych, starających się „odrabiać zaległości cywilizacyjne”, jest teoria
modernizacji, stwierdzająca, że wszystkie społeczeństwa przechodzą przez określoną
sekwencję faz, kończącą się nowoczesnością. Choć znajdują się one w różnych fazach
rozwoju, w państwach rozwiniętych znajdą obraz własnej przyszłości oraz wskazania co
do pożądanych dróg dojścia do dobrobytu [Wallerstein 2004]. Podobnie w Polsce, zarówno polska socjologia badająca tzw. transformację post-komunistyczną, jak i praktyka
polityczna, opiera się na wspólnych założeniach i przekonaniach bliskich ideom teorii
modernizacji [Sosnowska 1998]. Milczące i bezdyskusyjne przyjęcie takich założeń
utrudnia dostrzeżenie innych możliwych scenariuszy, sugerowanych np. przez teorię
systemu światowego Na niższym poziomie, przemożny wpływ na instrumenty mają
koncepcje ekonomiczne, zwłaszcza w tych działach i kierunkach ekonomii, które podejmują problemy ważkie z punktu widzenia danego obszaru polityk. Polityka zatrudnienia
do dziś czerpie inspiracje z keynesizmu; monetarna – z monetaryzmu. Dzisiejszym źródłem inspiracji polityk B+R i innowacji są tzw. nowa teoria wzrostu, ekonomia ewolucyjna oraz ekonomika zarządzania [Sartori 1998].
Bibliografia
Wallerstein Immanuel 2004, Koniec świata jaki znamy, Wydawnictwo Naukowe Scholar, Warszawa 2004,
s. 233.
Sosnowska Anna 1998, Teorie zmiany i rozwoju społecznego a zmiany w Europie Wschodniej. O potrzebie
perspektywy ogólnej, „Kultura i Społeczeństwo” 42:1998, nr 1.
Sartori Giovanni 1998, Teoria demokracji, Warszawa 1998, s. 71-72.
ZARZĄDZANIE WIEDZĄ W ORGANIZACJACH RZĄDOWYCH
Zarządzanie wiedzą (ang. Knowledge Management, KM) – „to zespół sformalizowanych
sposobów gromadzenia i wykorzystywania wiedzy formalnej oraz wiedzy cichej uczestników organizacji (np. pracowników firmy). Zarządzanie wiedzą to próba jak najlepszego wykorzystania wiedzy, która jest dostępna w organizacji, tworzenie nowej wiedzy
oraz zwiększanie jej zrozumienia” [Wikipedia 2014].
Zarządzanie wiedzą (ZW) oparte jest na spostrzeżeniu, że „organizacja wie znacznie
więcej niż sądzi, że wie”, to znaczy, że posiada ona ukryte zasoby wiedzy. Komputery i
Internet pozwalają na cyfryzację i zapewnienie szerszego niż dawniej dostępu do danych
– niektórych zastrzeżonych tylko dla pewnych stanowisk, ale większości – dla całej or117
ganizacji oraz dla opinii publicznej. Umożliwia to dzielenie się wiedzą w znacznie większym stopniu niż w epoce „papierowej”. Jednocześnie coraz bardziej dostępne metody
analityczne pozwalają na poszukiwanie regularności w gąszczu danych, na ich „czyszczenie” i interpretację. Interpretacje mogą być oparte na porównaniach, stąd znaczenie
badań porównawczych, które stosuje się w sektorze publicznym jako sposób tworzenia
wiedzy na temat funkcjonowania organizacji. Np. po analizie danych na temat wypadków drogowych Francuzów powstaje pytanie dlaczego więcej Francuzów umiera na
drogach we Francji niż w Anglii w przeliczeniu pasażer/km?
Wzrost znaczenia wiedzy w organizacjach rządowych wpływa na zmiany hierarchii:
umiejętności interpretacji wysuwają się na pierwszy plan jako podstawa awansu i pozycji [OECD 2003].
Proponuje się następujące kroki dla zapewnienia dobrego zarządzania wiedzą w organizacjach publicznych:
•
•
•
•
•
•
•
•
Uzyskaj poparcie kierownictwa organizacji.
Powołaj zespół ds. zarządzania wiedzą.
Przeprowadź “audyt wiedzy”.
Opracuj całościowe podejście (plan) dotyczące ZW.
Ustal kamienie milowe i wskaźniki dla ZW.
Pokaż korzyści płynące z ZW.
Wprowadź zachęty i nagrody za stosowanie ZW.
Zwróć uwagę na trudności zmiany zachowań [O’Riordan 2005].
Bibliografia
Joanna O’Riordan, A Review of Knowledge. Management in the Irish Civil Service, CPMR Discussion Paper
2005.
OECD Saussois, Jean-Michel (2003), Knowledge Management in Government: An Idea Whose Time Has
Come, “OECD Journal on Budgeting”, Vol. 3/3.
Wikipedia, Zarządzanie Wiedzą, 2014.
ZASADA OSTROŻNOŚCI
„Zasada ostrożności (od ok. 1988 roku) – zasada etyczna, zgodnie z którą jeśli istnieje
prawdopodobne, chociaż słabo znane, ryzyko negatywnych skutków nowej technologii,
jest lepiej jej nie wprowadzać w życie zamiast ryzykować niepewne, ale potencjalnie
bardzo szkodliwe konsekwencje.” „Zasada ta jest przywoływana w dyskusjach nad dopuszczalnością nowych leków czy produkcją żywności (GMO) wobec braku jednoznacznych naukowych dowodów szkodliwości danych technologii lub nawet dowodów temu
zaprzeczających. Zasada ostrożności jest krytykowana jako nieracjonalna i nienaukowa.”
„Według Davida Deutscha zasada ostrożności jest wyrazem głębokiego konserwatyzmu i
cały postęp ludzkości jest historią łamania istniejących w różnych kulturach "zasad
ostrożności". Zjawiska o wielkiej skali, będące z punktu widzenia ludzkości katastrofami
wydarzają się bowiem niezależnie od jej woli lub działań. Ich przetrwanie wymaga wie118
dzy i postępu, zaś jedyną metodą zdobywania wiedzy jest podejmowanie eksperymentów, a co za tym idzie ryzyka eksperymentów nieudanych. Szkoda płynąca z innowacji
jest zawsze skończona, tymczasem korzyści mogą być potencjalnie nieskończone.”
„Michael Crichton zwrócił uwagę, że zasada ostrożności jest wewnętrznie sprzeczna i, w
dosłownym rozumieniu, uniemożliwia stosowanie samej siebie.” „Yaneer Bar-Yam, Rupert Read i Nassim Nicholas Taleb przedstawili sformalizowaną definicję zasady ostrożności, która ma rozwiązać problemy związane z zakresem jej stosowania. Według nich
zasadę ostrożności należy opierać na możliwości nieliniowego rozrostu danego zjawiska
i prawdopodobieństwie pojawienia się „skutków systemowych” czyli niszczących w skali całej planety, ekosystemu itd. Jako przykład zjawiska nie mającego takich skutków autorzy podają energetykę jądrową, mającego — GMO. W pierwszym przypadku potencjalne awarie mogą mieć charakter poważny, ale nadal lokalny i jednostkowy, podczas
gdy negatywne skutki rozprzestrzenienia się zmodyfikowanych genetycznie roślin mają
charakter nieliniowo rosnący i globalny.”
Bibliografia
Zasada ostrożności, Wikipedia.
119
FINANSOWANIE B+R I INNOWACJI
FINANSOWANIE BADAŃ W SEKTORZE PUBLICZNYM
[Funding Research In The Public Sector]
Środki na badania dostarczone przez rządy (lub stany, prowincje, samorząd terytorialny), albo
bezpośrednio przez ministerstwa ds. nauki lub za pośrednictwem agencji rządowych. Dwa podstawowe sposoby finansowania badań w sektorze publicznym to „finansowanie instytucjonalne”
i „finansowanie projektów".
Pierwszy tryb polega na przekazywaniu instytucjom blokowych dotacji wg pewnej formuły, na
podstawie wskaźników wyników (Por.> EWALUACJA INSTYTUCJI PUBLICZNEGO SEKTORA NAUKI OPARTA NA POMIARZE DOKONAŃ) lub na podstawie negocjacji, bez bezpośredniego wyboru projektów lub programów, które mają być wykonywane. Drugi – na przekazywaniu grantów
badaczom lub zespołom badawczym o ograniczonej wielkości, budżecie i czasie, zwykle na podstawie przedłożenia propozycji projektu opisującej planowaną działalność badawczą, na zasadzie konkursu [Van Steen 2012; OECD IPP].
Od ok. 2005 upowszechnia się nowe podejście do finansowania – wysokie wieloletnie dotacje
dla na badania o wyjątkowej jakości dla wybranych jednostek badawczych, oparte na zasadach
konkurencji [OECD 2013].
Trwa debata na temat tego, czy wzrost konkurencyjnego finansowania projektów lub finansowania programów kosztem dotacji blokowej i długoterminowego finansowania instytucjonalnego
•
•
nie spowoduje, że publicznego sektor nauki będzie preferował krótkoterminowe
projekty o niskim ryzyku kosztem badań podstawowych od dłuższej perspektywie,
nie wpływa negatywnie na zdolność instytucji do inwestowania w infrastrukturę.
Por. >FINANSOWANIE INSTYTUCJONALNE, FINANSOWANIE PROJEKTÓW.
Bibliografia
Committee For Scientific And Technological Policy. Governing The Science System - Challenges And Responses, OECD DSTI/STP(2003)9/REV1;
Committee For Scientific And Technological Policy. Ad Hoc Working Group On The Steering And Funding
Of Research Institutions. Public Funding of R&D - Trends and Changes, OECD DSTI/STP(2003)9/ANN3.
Steen, J. v. (2012), Modes of Public Funding of Research and Development: Towards Internationally Comparable Indicators, OECD Science, Technology and Industry Working Papers.
OECD, Promoting Research Excellence: New Approaches to Funding, 2013.
OECD IPP, Innovation Policy Platform, Issue Brief: Public Sector Research Funding,
120
FINANSOWANIE BUDŻETOWE BADAŃ W SEKTORZE SZKÓŁ WYŻSZYCH
Finansowanie badań naukowych w szkołach wyższych ze środków publicznych stało się
w krajach OECD instrumentem polityki państwa i zarządzania nauką około połowy lat
80-tych zeszłego wieku. Wcześniej zakładano za najlepszą strategia uznawano przekazywanie uczelniom funduszy na badania z pozostawieniem im autonomii, oraz zapewnianie samym uczonym swobody co do dysponowania środkami oraz wyboru tematyki
badań. „Stopniowe zmiany sytuacji zewnętrznej uczelni, w otoczeniu ekonomicznym,
społecznym, politycznym, w ideologii oraz w sytuacji wewnętrznej, w kulturze akademickiej i procesach rozwoju nauki spowodowały zmianę założeń w polityce państwa.
Dotyczyły one warunków uprawiania nauki w uczelniach, a także roli i miejsca nauki
akademickiej w całokształcie działalności badawczej krajów. W efekcie tych przemian w
Europie Zachodniej zrewidowano zasady finansowania badań w uniwersytetach i stopniowo wprowadzano nowe rozwiązania.
Ujęcie uproszczone. Rozpatrując zasady finansowania badań w uniwersytetach Europy
mówi się najczęściej o dualnym systemie finansowania uczelni, wyróżniając dwa podstawowe strumienie/ kanały finansowania.
Rozróżnienie na 2 kanały/strumienie finansowania:
1. Pierwszy strumień finansowania stanowią tzw. środki własne, za które uważa się
środki uzyskane przez uczelnię z własnych przychodów, z inwestycji, oprocentowania kapitału itp., ale przede wszystkim do pierwszego strumienia zalicza się finansowanie instytucjonalne (tzw. general university fund, GUF), uzyskiwane przez
uczelnię na swą działalność od ministerstwa odpowiadającego za edukację w postaci
dotacji lub kontraktu dla uczelni i przyznawane uczelni jako całości.
2. Drugi strumień są to tzw. finansowanie zewnętrzne, uzyskiwane na zasadzie konkurencyjnej od państwa, poza dotacją instytucjonalną, od instytucji innych, niż odpowiednie ministerstwo edukacji; są to dotacje na projekty badawcze uzyskiwane od
rad badawczych, a także kontrakty zawarte z państwowymi sponsorami lub z przemysłem, władzami lokalnymi itp.
3. Niektórzy autorzy wyróżniają trzy strumienie finansowania badań: pierwszy
strumień oznacza dotację podstawową (instytucjonalną), drugi to dotacje na projekty badawcze od rad badawczych, a trzeci to zlecenia - umowy (kontrakty) z ministerstwami lub prywatnymi organizacjami.
Powyższe rozróżnienie niewiele mówi o tym, jaki może być zakres interwencji państwa
przy różnych rozwiązaniach, jakie są zalety i wady różnych sposobów finansowania, nie
mówi też o rozmaitości rozwiązań. Przewyższa ona stosowane do tej pory klasyfikacje.
Ujęcie rozwinięte. Istniejące rozwiązania można charakteryzować bardziej szczegółowo ze względu na kilka rozmaitych aspektów.
Ze względu na obiekt finansowania: finansowanie podmiotowe, przedmiotowe lub
strukturalne.
121
•
•
•
Finansowanie podmiotowe to – mówiąc w uproszczeniu - finansowanie działalności badawczej konkretnej osoby (badacza) lub jednostki organizacyjnej (uczelni, wydziału, instytutu); ten drugi rodzaj zwany jest także finansowaniem instytucjonalnym.
Finansowanie przedmiotowe nastawione jest na wspieranie określonego zadania,
celu lub działalności (jest to np. finansowanie konkretnych programów badań, konkretnych inwestycji czy projektów badawczych).
Finansowanie strukturalne stosowane jest w celu stworzenia możliwości powstania lub utrzymania określonych struktur, powiązań instytucjonalnych lub międzyinstytucjonalnych czy formy współdziałania (jest to np. finansowanie powiązań
uczelnianych czy uczelniano- przemysłowych, np. w formie konsorcjów)
Ze względu na swobodę korzystania ze środków: finansowanie bezwarunkowe i warunkowe.
•
•
Finansowanie bezwarunkowe polega na przekazaniu funduszy bez stawiania
określonych ograniczeń czy wymogów dotyczących sposobu wykorzystania środków.
Finansowanie warunkowe oznacza obwarowanie finansowania konkretnymi warunkami dotyczącymi sposobu wykorzystania środków, przedmiotu finansowania
lub okresu finansowania (wyznaczenie terminu zakończenia pracy).
Ze względu na charakter relacji podmiotu i przedmiotu finansowania wyróżnimy różne mechanizmy: np. dotację lub kontrakt (opisane dalej przy omawianiu finansowania
projektów badawczych).
Ze względu na zasady określania wysokości przyznanych środków wyróżnić można:
•
•
finansowanie którego wysokość ustalana jest w wyniku negocjacji między sponsorem a wykonawcą badań
finansowanie biorące za punkt wyjścia poziom dotacji z poprzedniego roku (tzw.
metoda historyczna czy inkrementalna)
finansowanie na podstawie przedstawionej kalkulacji kosztów i planu rzeczowego
realizacji zadań
finansowanie wykorzystujące algorytmy
•
finansowanie oparte o wyniki oceny.
•
•
Z kolei finansowanie na podstawie wyników oceny może być
•
•
oparte o określone kryteria i procedury oceny ex ante (np. plan działalności w
rocznym czy np. w 3-letnim okresie, algorytm uwzględniający wskaźniki wejść, takich jak np. liczba studentów)
oparte o określone kryteria i procedury oceny ex post, (także przyznawane w oparciu o algorytm, kombinację różnych wskaźników, wyniki działalności w poprzednim
okresie, liczbę publikacji, cytowań, nadanych stopni naukowych).
Finansowanie na podstawie wyników oceny może dotyczyć
122
•
•
•
oceny jakościowej (czyli, oceny wewnątrz-środowiskowej przez ekspertów - uczonych z danej dziedziny nauki)
oceny ilościowej (opartej na liczbie publikacji, cytowań, oraz na innych wskaźnikach)
mieszanych metod oceny (np. jakościowe, przy wykorzystaniu metod ilościowych,
np. oparte na wskaźnikach inputu i outputu)
Można tu dodatkowo uwzględnić dwie kwestie:
•
•
czy wyniki oceny (ilościowej ) są w sposób mechaniczny przekładane na algorytm?
kto określa wysokość ostatecznej oceny i dokonuje przełożenia na wartość elementów tworzących algorytm – czy robią to pracownicy administracyjni organizacji finansującej badania (urzędnicy) czy też uczeni – eksperci?
Ze względu na metodę dystrybucji środków:
•
•
finansowanie „miękkie” np. przy zasadzie określania wielkości przyszłej dotacji na
podstawie dotacji z przeszłości (ubiegły rok)- to metoda historyczna. Do finansowania miękkiego zaliczyć też można przyznanie dotacji wynikające z samego istnienia danej instytucji prowadzącej badania(np. wszystkie uczelnie otrzymują środki na
kształcenie, a z nimi część na finansowanie funkcji badawczej (płace kadry, utrzymanie infrastruktury badawczej- budynki, wyposażenie)
finansowanie „twarde” mające charakter selektywny i oparte o kryteria prowadzące do wartościowania lub rankingu z którego bezpośrednio wynika wielkość finansowania.
Ze względu na charakter źródeł finansowania
•
•
•
finansowanie centralne, regionalne, lokalne, a także
finansowanie wyłącznie przez państwo i
współfinansowanie przez państwo i źródła prywatne ( tzw. marching funds)
•
finansowanie przez odpowiednie ministerstwo (edukacji i nauki czy np. przemysłu)
lub też przez tzw. ciała pośredniczące, pomostowe (rady badawcze)
Ponadto, w zależności od liczby źródeł zasilania, system finansowania może być
•
•
scentralizowany (jedno źródło finansowania, np. jedna rada badawcza)
o różnym stopniu decentralizacji (dwa i więcej źródeł finansowania np. przez jedną
lub kilka rad badawczych)
Powyższy opis różnych sposobów finansowania miał charakter czysto analityczny i
opierał się na wyróżnieniu każdorazowo tylko jednego kryterium (aspektu). Istniejące w
praktyce formy finansowania badań trudno byłoby tak charakteryzować, ze względu na
znaczny stopień zróżnicowania. Trzeba brać pod uwagę kilka cech jednocześnie, a i tak
występuje przy tym wiele różnych odmian rozwiązań.
W ciągu ostatnich dziesięciu lat pojawiły się pewne innowacje w metodach finansowania. Są one powiązane ze zmianą organizacji badań. Innowacją jest przede wszystkim
123
sama rozmaitość form, kryteriów, mechanizmów finansowania a także oparcie się - przy
konstruowaniu tych mechanizmów - na założeniu, że uniwersytet będzie reagować na
określone bodźce w postaci określonych mechanizmów finansowania.
Do takich najbardziej nowatorskich instrumentów finansowania należą tzw. centra doskonałości oraz finansowanie strukturalne tzn. wspieranie różnego rodzaju kontaktów,
powiązań współpracy i sieci naukowych”.
Bibliografia
Julita Jabłecka, Budżetowe finansowanie w sektorze szkół wyższych w krajach OECD, w: Budżetowe instrumenty finansowania B+R w Polsce. Propozycja na lata 2005-2015, s. 120-200, Instytut Społeczeństwa Wiedzy, Krajowa Izba Gospodarcza, 2005.
FINANSOWANIE INSTYTUCJONALNE
Finansowanie Instytucjonalne to środki, które rządy lub agencje finansujące badania
przeznaczają corocznie dla instytucji naukowych. Instytucje mogą korzystać z tych środków w sposób elastyczny, w ramach obowiązujących przepisów. Zazwyczaj ten mechanizm stosuje się do finansowania badań podstawowych [OECDa 2003; OECDb 2003].
Blokowe finansowanie instytucjonalne zapewnia instytucjom naukowym stabilne podstawy dla działalności badawczej. Pomaga to instytucjom uzyskać środki z innych źródeł, dostarcza pewnej autonomii w wyborze swoich badań, oraz pozwala na budowanie
kompetencji w nowych dziedzinach. Odwrotnie, nadwyżka środków bloku może demotywować organizacje i naukowców do poszukiwania finansowania z innych źródeł.
Finansowanie instytucjonalne dla uczelni i organizacji badawczych nie jest bezpośrednio
związane z projektami lub programami. Umożliwia ono instytucji wypełnienie jej podstawowych zadań. Ta forma finansowania (nieraz udzielana na zasadach konkurencyjnych) jest zazwyczaj kierowana przez rządy do instytucji jako całości, a nie do konkretnych programów lub jednostek. Finansowanie instytucjonalne może być przyznawane
na kilka sposobów, np. w formie rocznych korekt budżetów ubiegłorocznych lub na podstawie algorytmów opartych na wskaźnikach, np. sprzętu, zatrudnienia, liczby studentów oraz osiągnięć badawczych lub dydaktycznych. Często ważną podstawą finansowania instytucjonalnego jest pomiar ex post wyników wykonania [OECD 2014].
Odnosząc się do finansowania instytucjonalnego, warto dokonać rozróżnienia pomiędzy
„czystym finansowaniem blokowym”, w którym odbiorcy mają stosunkowo dużą swobodę decyzji w jaki sposób korzystać ze środków, a "celowymi funduszami", które mogą
być stosowane tylko na pokrycie szczególnych kosztów, takich jak koszty wynagrodzeń
pracowników zatrudnionych na stałe. W wielu krajach zwiększono finansowanie projektów kosztem finansowania instytucjonalnego. Jednakże, większość europejskich systemów badawczych nadal charakteryzuje się wyższym udziałem finansowania bloku w
porównaniu do systemu amerykańskiego [OECD IPP].
124
Por też >FINANSOWANIE PROJEKTÓW, >INICJATYWY DOSKONAŁOŚCI BADAWCZEJ.
Bibliografia
OECDa Governing The Science System - Challenges And Responses, 2003.
OECDb Public Funding of R&D - Trends and Changes, 2003.
OECD IPP, Innovation Policy Platform, Issue Brief: Public Sector Research Funding.
OECD Promoting Research Excellence. New Approaches to Funding, 2014.
FINANSOWANIE PROJEKTÓW
Finansowanie projektów to finansowanie na zasadach konkurencyjnych propozycji
zgłaszanych oddolnie przez badaczy lub zespoły badawcze. Rozróżnia się różne tryby finansowania projektów:
•
•
•
Finansowanie przez rządy lub agencje grantowe (często rady ds. badań) na zasadach konkurencyjnych wniosków grantowych, bez względu na tematykę proponowanych badań;
Finansowanie przez rządy lub agencje grantowe (często rady ds. badań) wniosków w ramach programów mających na celu rozwój pewnych dyscyplin lub sektorów;
Finansowanie projektów przez biznes lub prywatne organizacje non-profit.
W przeciwieństwie do >FINANSOWANIA INSTYTUCJONALNEGO, finansowanie projektów daje organizacjom finansującym większą kontrolę nad badaniami. Obecny wzrost finansowania projektów kosztem finansowania instytucjonalnego uzasadnia się przekonaniem, że ten pierwszy tryb owocuje większym zwrotem pod względem wytworzonej
wiedzy oraz lepszym dostosowaniem badań do potrzeb społeczno-gospodarczych.
Organizacje zapewniające finansowanie projektów wykorzystują różne mechanizmy.
Pierwszy odnosi się do trybu składania wniosków przez naukowców w konkursach
grantowych. Takie podejście jest stosowane głównie przez rady badawcze dla finansowania badań podstawowych.
W drugim trybie instytucje finansujące badania dyktują z góry obszary, w których naukowcy mogą ubiegać się o granty. Często takie projekty wymagają współpracy krajowej
lub międzynarodowej. Jako przykład można przytoczyć Program Ramowy i Horyzont
2020 Unii Europejskiej. Od lat 1980. tryb ten stał się popularny w Stanach Zjednoczonych, Japonii, Unii Europejskiej i Chinach.
Trzeci tryb oferuje finansowanie projektów badawczych służących rozwiązaniu konkretnego problemu. Po ten tryb sięgają organizacje prywatne i publiczne.
Podział funduszy między konkurującymi propozycjami jest zwykle oparty na systemie
>PEER REVIEW, w którym eksperci oceniają jakość wniosku zgodnie z ustalonymi wcze-
125
śniej kryteriami. Kryteria te mogą obejmować wartość naukową, jak i względy społeczno-gospodarcze.
Bibliografia
OECD IPP, Innovation Policy Platform, Issue Brief: Public Sector Research Funding,
OECD Committee For Scientific And Technological Policy. Governing The Science System - Challenges And
Responses;
OECD Committee For Scientific And Technological Policy. Ad Hoc Working Group On The Steering And
Funding Of Research Institutions. Public Funding of R&D - Trends and Changes.
FINANSOWE INSTRUMENTY WSPIERANIA B+R I INNOWACJI W PRZEDSIĘBIORSTWACH
„Działalność badawczo-rozwojowa jest tą dziedziną aktywności ekonomicznej, w której
silnie odczuwana jest niesprawność alokacji rynkowej, co w rezultacie prowadzi do
mniejszej od optymalnej alokacji środków, wolniejszego wzrostu gospodarczego, a w
końcu stagnacji. Wprawdzie ekonomiści już od dawna dostrzegali, że prosta akumulacja
kapitału podlega prawu malejących przychodów i bez innowacji prowadzi do stagnacji,
to jednak dopiero nowa teoria wzrostu i przyspieszenie ewolucji w kierunku gospodarki
opartej na wiedzy uświadomiły znaczenie wiedzy i innowacji dla gospodarki.
(…) we współczesnej gospodarce opartej na zaawansowanych technologiach procesy innowacyjne wymagają coraz większych nakładów kapitałowych oraz obfitych źródeł finansowania. (…) nie byłoby dalej problemu, gdyby rynki kapitałowe były doskonałe i
dysponowały pełna informacją o przyszłości, a wiedza była czynnikiem produkcji w pełni zawłaszczalnym i konkurencyjnym (o koszcie reprodukcji równym kosztowi wytworzenia). Wówczas można byłoby się spodziewać, że każdy projekt uzyska automatycznie taki poziom finansowania, jaki wynika z odpowiadającej mu zgodnie z racjonalnym oczekiwaniem stopy zwrotu, gdyż rynkowa rekompensata finansowa byłaby adekwatnym motywem alokacji. Tak jednak nie jest, ponieważ wszystkie wyżej wymienione
założenia nie są spełnione i sektor B+R w warunkach czystej gospodarki rynkowej musi
pozostawać niedoinwestowany z oczywistym negatywnym skutkiem dla rozwoju gospodarczego.
Najczęściej wymieniane są następujące argumenty za potrzebą wsparcia sektora badań, w tym
zwłaszcza wysiłku badawczo-rozwojowego przedsiębiorstw ze strony państwa:
•
•
•
wysoki stopień niepewności powoduje, że podmioty gospodarcze będą niechętne angażować
się w działalność innowacyjną,
asymetria informacji utrudnia wytworzenie się efektywnego rynku produktów prac badawczych, zarówno od strony podaży jak i popytu,
awersja do ryzyka rynków finansowych prowadzi do skracania horyzontu inwestycyjnego
poniżej progu niezbędnego dla wyceny efektów badań,
126
•
•
•
•
publiczny charakter dobra ekonomicznego jakim jest wiedza, co implikuje niepełną zawłaszczalność korzyści z rezultatów prac badawczych, a zatem suboptymalny poziom skłonności
do inwestowania w B+R przez prywatnych inwestorów,
efekty zewnętrzne wynikające z dyfuzji wiedzy /spillover/, której koszt reprodukcji jest
znacznie niższy od pierwotnego kosztu wytworzenia – społeczna stopa zwrotu szacowana
jest kilkakrotnie wyżej od prywatnej (np. wg Saltera, 2000, 5 razy),
publiczny charakter popytu na niektóre innowacje (zdrowie, obrona, bezpieczeństwo, środowisko, standardy regulacyjne), o charakterze nieekskluzywnym,
bariery transferu technologii wynikające z ograniczonej zdolności firm prywatnych do absorpcji badań wykonanych w instytucjach publicznych.
Główny problem w konstruowaniu systemów finansowych wspierających badania i innowacje w sektorze przedsiębiorstw polega na tym, aby korekta niesprawności rynku
nie powodowała zniekształceń alokacji rynkowej tam, gdzie ona działa sprawnie. Prawidłowo skonstruowany system publicznego wsparcia B+R w sektorze przedsiębiorstw
przede wszystkim nie powinien zastępować (substytuować) mechanizmu konkurencji
rynkowej, ale raczej uzupełniać i wzmacniać jego działanie w najsłabszych punktach.
Powinien nosić charakter uzupełniający, pomocniczy i wspierający (additionality). Nie
może powodować nadmiernej nieuzasadnionej płynności i zakłócać równe warunki
konkurencji podmiotów prywatnych. Można sformułować następujące cele systemu finansowego wspierającego działalność badawczo-innowacyjną przedsiębiorstw,
uwzględniającego powyższe postulaty i zidentyfikowane niesprawności rynku:
•
•
•
•
•
•
•
•
•
•
•
wspieranie a nie wypychanie (substytucja) działań badawczych i wdrożeniowych, które i
tak zostałyby podjęte przez sektor prywatny,
dostarczanie dźwigni finansowej neutralizującej awersję do ryzyka i wzmacniającej motywację finansową (obniżając koszty po stronie nakładów lub/i podwyższając zawłaszczalność rezultatów badań),
dostarczanie alternatywnych źródeł finansowania wobec niesprawności rynków kapitałowych,
koncentracja wysiłku badawczo-rozwojowego na obszarach priorytetowych, o największym efekcie dyfuzji /spillover/ oraz najwyższej przewidywanej społecznej stopie
zwrotu,
zapewnienie efektywnej ewaluacji, selekcji, elastycznego wyjścia z projektu, zabezpieczenie przed efektem zaklinowania /lock-in/,
wydłużenie horyzontu optymalizacji decyzji ekonomicznych dotyczących badań i innowacji,
wzmocnienie zdolności absorpcji technologii przez przedsiębiorstwa i minimalizacja barier dyfuzji zwłaszcza w warunkach wyraźnej luki technologicznej,
wspieranie efektów sieciowych przy transferze technologii – tworzenie systemów innowacyjnych i klastrów,
dobór pakietu instrumentów finansowych dostosowanych do lokalnej struktury przemysłowej,
ograniczenie możliwości nadużyć np. w formie unikania opodatkowania, czy stwarzania
barier wejścia prowadzących do nieuczciwej i nierównej konkurencji,
niskie koszty transakcyjne administracji systemu,
127
•
możliwie maksymalna neutralność wobec reguł konkurencji rynkowej.
Problem doboru odpowiednich instrumentów finansowych dla pobudzania B+R w sektorze przedsiębiorstw sprowadza się do dwóch zasadniczych kwestii: wyboru kierunku
alokacji inwestycji B+R, oraz wyboru źródła finansowania.
W praktyce stosowane są dwie grupy instrumentów w różny sposób rozwiązujące te
kwestie: ulgi podatkowe i subsydia (granty). Przy ulgach podatkowych zasadniczy wybór kierunku alokacji należy do przedsiębiorstwa i na nim też spoczywa głównie zadanie zapewnienia źródła finansowania, bądź w ciężar kosztów bieżących bądź przyszłych.
Przy subsydiach wybór kierunku alokacji leży w gestii sponsora, najczęściej agendy budżetu państwa, który zapewnia podstawowe źródło finansowania. Wynika stąd, że subsydia stanowią znacznie silniejszą ingerencję w funkcjonowanie mechanizmu rynkowego. W tym ostatnim przypadku agenda państwowa udzielająca subwencji musi dysponować rozwiniętym systemem selekcji projektów opartym na odpowiedniej kompetencji w zakresie ewaluacji technologii, co jest podstawowym warunkiem sprawnego
funkcjonowania takiego systemu. Uważa się, że w krajach wysoko rozwiniętych, gdzie
ponoszone są wysokie nakłady na badania, system hojnych ulg podatkowych mógłby się
okazać zbyt kosztowny i o zbyt rozproszonym oddziaływaniu, często wypierając wydatki przedsiębiorstw, które i tak byłyby poniesione. Dlatego często rezygnuje się z takiego rozwiązania na rzecz bezpośredniego pobudzania przy pomocy selektywnie dobranych pakietów subsydiów państwowych. Z drugiej strony właśnie w tych krajach
przedsiębiorstwa są bardziej dojrzałe i kompetentne technologicznie do samodzielnego
wyboru alokacji środków na badania niż w krajach bardziej zacofanych. Z kolei argument dyfuzji przemawia na rzecz wykorzystania instrumentów wspierania pośredniego
tam, gdzie celem polityki jest głównie pobudzanie absorpcji innowacji dobrze znanych i
sprawdzonych w krajach na granicy technologicznej. To raczej w tym ostatnim przypadku należałoby szerzej wykorzystywać bezpośrednie dotacje dla realizacji polityki zorientowanej na określone misje technologiczne.
Oba instrumenty cechują odmienne właściwości, które określają pole ich celowego stosowania. Wśród cech instrumentów podatkowych należy wymienić:
•
•
•
•
•
•
łatwość i niskie koszty w administrowaniu przez agendy rządowe i przedsiębiorstwa
elastyczność w profilowaniu i celowaniu w określone grupy beneficientów np. małe
przedsiębiorstwa
rynkowa alokacja inwestycji w B+R na podstawie decyzji przedsiębiorstwa,
generalnie faworyzowanie dużych przedsiębiorstw, które często nie potrzebują pomocy,
kosztem małych, i wspierają badania, które i tak byłyby podjęte; ryzyko wypychania
/crowding out/,
brak możliwości skoncentrowania wsparcia na badaniach przemysłowych o największej
społecznej stopie zwrotu (dlatego zrezygnowano z nich w niektórych krajach np. Finlandii), co implikuje mniejszy spillover niż przy bezpośrednim finansowaniu,
zagrożenie neutralności systemu podatkowego, zwłaszcza przez duże ryzyko pokusy
nadużycia w omijaniu i unikaniu opodatkowania; możliwości arbitrażu podatkowego
przy zróżnicowanych stawkach podatku korporacyjnego między krajami,
128
•
•
duży i mało przewidywalny koszt dla budżetu przy rozproszonym powszechnym stosowaniu tego instrumentu, przy stosunkowo niskiej intensywności pobudzania,
ograniczony horyzont i zakres zasilania do bieżących dochodów firmy.
W odróżnieniu od instrumentów podatkowych granty i subsydia cechuje:
•
•
•
•
•
•
przejrzystość i możliwość selektywnej koncentracji na projektach o wysokiej społecznej
stopie zwrotu,
kontrola nad kierunkami badań wspieranych przez państwo, np. o dużym efekcie spillover technologii ogólnego zastosowania /GPT/, przy badaniach podstawowych,
dłuższy horyzont czasowy i swoboda wyboru poziomu zasilania niezależnie od bieżących dochodów beneficientów,
zniekształcenie równych warunków konkurencji
ryzyko alokacji bezpośredniej związane z nietrafnym wyborem beneficientów /picking
winners/ i niebezpieczeństwem zaklinowania /lock-in/,
problem z wykształtowaniem odpowiedniego systemu ewaluacji i selekcji, wymagającego także znacznych kosztów bieżących administracji.
Wykorzystanie tych dwóch rodzajów instrumentów w krajach OECD jest bardzo zróżnicowane, chociaż można zauważyć w ciągu ostatnich 20 lat tendencję do coraz szerszego
stosowania obu sposobów pobudzania aktywności badawczo-rozwojowej firm. Jest to
wynikiem uświadomienia sobie przez rządy wielu państw znaczenia badań zwłaszcza
podejmowanych przez przedsiębiorstwa dla wzrostu produktywności, konkurencyjności kraju i tempa rozwoju gospodarczego.
Warto zauważyć, że siła oddziaływania ulg podatkowych jest proporcjonalna do wysokości marginalnej stawki podatkowej obciążającej dochody przedsiębiorstw. Stąd kraje
o niższych stawkach podatkowych często rezygnują z dodatkowych ulg na B+R, licząc, że
niski poziom obciążenia podatkowego sprzyja wszelkim inwestycjom, również badawczym. Występuje tu pewna iluzja, wynikająca z nieuwzględniania efektów globalizacji i
arbitrażu podatkowego. Samo obniżenie marginalnej stawki podatkowej CIT może prowadzić w konsekwencji do ucieczki inwestycji B+R do krajów o wyższym opodatkowaniu i dużych ulgach, gdzie relatywne korzyści podatkowe z wykorzystania ulg, jeżeli istnieją dochody pozwalające na dokonanie odpisów, są znacznie wyższe [OECD 2002]. Z
punktu widzenia firmy niski ogólny poziom opodatkowania nie stwarza żadnej dodatkowej dźwigni finansowej akurat dla inwestycji B+R, neutralizującej wysokie ryzyko i
dyskontującej efekty zewnętrzne. Dla uniknięcia arbitrażu podatkowego i przyciągnięcia
inwestycji B+R kraje o niskim opodatkowaniu (jak np. Polska) powinny stosować znacznie bardziej agresywne ulgi podatkowe, aby zrównoważyć krańcowe korzyści fiskalne
dostępne z tytułu takich inwestycji w krajach o wysokim opodatkowaniu.
Z drugiej strony oparcie systemu tylko na bezpośrednim finansowaniu w postaci subsydiów i grantów wymaga rozwiniętej i dojrzałej polityki naukowo-technologicznej państwa, czy w ogóle agend i instytucji, które odpowiedzialne są za dystrybucję takich funduszy. Jest to znacznie bardziej kosztowne w wymiarze zarówno finansowym, jak i kapitału ludzkiego i talentu menadżerskiego, niezbędnych dla efektywnego funkcjonowania
takiego systemu wspierania badań. Można powiedzieć, że im bardziej zaawansowany
129
jest dany kraj w sensie zasobu kompetencji koniecznych dla efektywnej ewaluacji i selekcji projektów, w dyspozycji agend prowadzących politykę naukowo-technologiczną,
tym większe szanse na sprawne funkcjonowanie systemu opartego na grantach i subsydiach oraz osiągnięcie oczekiwanych rezultatów. Brak odpowiednich kompetencji w
prowadzeniu polityki naukowo-technologicznej w systemie grantów i subsydiów stwarza ryzyko poważnych strat, zarówno ze względu na pokusę nadużycia ze strony urzędników dysponujących tymi funduszami jak i deformację warunków konkurencji. Niewielkim ułatwieniem jest dla krajów mniej zaawansowanych wzorowanie się na modelu
krajów z granicy technologicznej, który czasami starają się one kopiować. Takie mechaniczne uprawianie polityki naukowo-technologicznej nie uwzględnia lokalnych przewag
komparatywnych, prowadzi do błędnej alokacji środków i strat.
W efekcie w większości krajów OECD stosowane są różne kombinacje obu instrumentów dostosowane do warunków lokalnych i dotychczasowych doświadczeń. Np. USA,
Wielka Brytania i Francja stosują zarówno obfite finansowanie bezpośrednie jak i korzystne traktowanie podatkowe wydatków na B+R w prywatnych przedsiębiorstwach.
Szwajcaria, Włochy i Nowa Zelandia stosują subsydia bezpośrednie nie wykorzystując
preferencji podatkowych. Podobnie Niemcy zrezygnowały z instrumentu podatkowego
uznając go za nieskuteczny z uwagi na efekt wypychania zwłaszcza w przypadku dużych
przedsiębiorstw, które i tak zmuszone są przez konkurencję do ponoszenia własnych
wydatków na B+R, chociaż rozważa się wprowadzenie ulg dla małych przedsiębiorstw
wobec braku elastycznych źródeł kapitału ryzyka Na drugim końcu spektrum znajdują
się takie kraje jak Australia i Kanada, a także Hiszpania, Portugalia, które hojnie oferują
ulgi podatkowe przy niewielkim poziomie finansowania bezpośredniego. Jest też grupa
krajów o wysokich nakładach B+R w sektorze przedsiębiorstw prywatnych, które nie
stosują ani preferencji podatkowych ani nie wykorzystują na szerszą skalę instrumentów finansowania bezpośredniego. Do grupy tej należą Japonia i kraje skandynawskie,
szczególnie Finlandia. W tym przypadku dźwignia finansowa jest bliska zero a nawet
często ujemna. Są nawet w OECD kraje, które w ogóle nie stosują ani zachęt podatkowych ani bezpośredniego wspierania badań w sektorze przedsiębiorstw, jakkolwiek
niewiele wydają na badania, jak Meksyk czy Polska.
Instrumenty podatkowe mają tą właściwość, że o ich wykorzystaniu decydują same
przedsiębiorstwa, jednak potencjalne korzyści do uzyskania zależą od rozmiarów dochodu do opodatkowania. Wymaga to z jednej strony wypracowania strategii badawczoinnowacyjnej na poziomie firmy, a z drugiej osiągania wysokich dochodów bieżących
umożliwiających odpisy podatkowe i gwarantujących wysoki stopień płynności dla finansowania prac badawczych i wdrożeniowych o długim okresie zwrotu. Przesądza to o
wysokiej skuteczności oddziaływania instrumentów podatkowych na firmy duże, ustabilizowane, o znacznych i rosnących przychodach i wysokich wskaźnikach płynności finansowej. Trudno oczekiwać, by małe firmy, zwłaszcza technologiczne w początkowym
stadium rozwoju i bez dostatecznej płynności, były w stanie efektywnie i w pełni wykorzystać oferowane ulgi podatkowe. W przypadku firm dużych podstawowym warunkiem jest najczęściej posiadanie koncepcji i strategii innowacyjnej.
130
Ulgi podatkowe mogą być oferowane zasadniczo w dwóch postaciach: odpisu od dochodu do opodatkowania poprzez powiększenie kosztów uzyskania przychodów, lub
odpisu od zobowiązania podatkowego. W pierwszym przypadku mogą występować w
formie odroczenia podatkowego przez przyspieszenie amortyzacji niektórych pozycji
nakładów, lub bieżącego zaliczania danej pozycji do kosztów uzyskania przychodów.
Podstawą wykorzystania ulgi w obu formach jest dochód bieżący. Dlatego coraz częściej
preferowana jest ulga w postaci odpisu od zobowiązania podatkowego określona w procencie poniesionych wydatków i funkcjonująca w formie roszczenia kredytowego do
wykorzystania w określonym czasie, zwykle dłuższym niż bieżący okres podatkowy
(nawet do 10 lat). Ta forma ulgi łagodzi ograniczenie płynności, gdyż może być wykorzystana w okresach przyszłych, gdy np. inwestycje w B+R zaczną przynosić dochody
lub przynajmniej zmniejszy się obciążenie kosztami prac badawczych. Pozwala to wydłużyć horyzont czasowy przy podejmowaniu decyzji o inwestycji w B+R. Ponadto ulga
w postaci odpisu od podatku w odróżnieniu od zwykłych ulg podatkowych nie zależy od
wysokości stawki podatkowej, co czyni ją atrakcyjnym instrumentem w krajach o niskiej
krańcowej stawce podatkowej, minimalizując ryzyko arbitrażu podatkowego.
Zwykle odmiennie traktuje się wydatki bieżące i kapitałowe. Wydatki bieżące na B+R we
wszystkich krajach OECD odpisywane są od dochodu do opodatkowania w roku, w którym zostały poniesione. Dodatkowe preferencje podatkowe dla B+R polegają na podwyższeniu kwoty odpisu w stosunku do faktycznie poniesionych kosztów (np. do 125%
w Australii). Niektóre kraje (5 krajów OECD) dopuszczają całkowity odpis nakładów kapitałowych na B+R w roku, w którym zostały poniesione, podczas gdy inne (10 krajów
OECD) pozwalają jedynie na przyspieszenie amortyzacji.
Podstawą naliczania ulg może być kwota wydatków B+R w roku podatkowym lub ich
przyrost w stosunku do określonej bazy z okresu poprzedniego (roku poprzedzającego
rok podatkowy, lub średniej z okresu kilku lat poprzedzających, ustalonego jako stały
punkt odniesienia lub rolowany z roku na rok). Stosowane są również kombinacje obu
wariantów. Uprawnienia do ulg według obu wariantów mogą być kumulowane (dodawane) (Australia, USA, Austria, Węgry), lub wykluczające się z opcją wyboru przez podatnika (Korea). Często stosuje się minimalne progi wydatków uprawniające do korzystania z ulgi, oraz maksymalne pułapy ograniczające wysokość odpisów. Pozwala to na
większą kontrolę nad wielkością obciążenia budżetu z tytułu oferowanych przedsiębiorstwom ulg podatkowych.
Biorąc pod uwagę dwa warianty ulgi podatkowej, zwykłe bezpośrednie odpisy i kredytowe, oraz dwie metody naliczania, od kwoty bieżącej lub przyrostu wydatków, mamy
praktycznie możliwe cztery kombinacje. Ulgi od kwoty wydatków i przyrostowe często
są dodawalne, chociaż stosuje się też rozwiązanie opcjonalne pozwalające przedsiębiorstwu wybrać bardziej odpowiedni z wykluczających się wariantów. Ulgi przyrostowe są
oparte na bardziej skomplikowanej procedurze, ale premiują nowe firmy startujące z niskiej bazy. Zasadniczo pobudzają dynamiczne zmiany strukturalne wydatków B+R, premiując szybkie przyrosty w gałęziach o dużym potencjale rozwojowym. Dyskryminują
jednak firmy duże o ustabilizowanym budżecie rozwojowym, oraz nie uwzględniają cy131
kliczności nakładów B+R wynikającej z wahań koniunktury. Natomiast warianty zwykłych odliczeń i kredytowych, jeżeli występują równocześnie, stosowane są zazwyczaj
na zasadzie alternatywy, pozostawiając płatnikom wybór rozwiązania optymalnego z
punktu widzenia wymogów płynności finansowej firmy. W najbardziej elastycznych
rozwiązaniach dopuszcza się możliwość wykorzystania obu wariantów jednocześnie, z
tym że od kwoty bezpośredniego odpisu od dochodu podatkowego potrąca się kwotę
ulgi kredytowej, tak aby się nie kumulowały (USA) [Sawyer].
W końcu ulgi podatkowe mogą być selektywne nakierowane na określone wybrane cele
jak MSP, nowe innowacyjne firmy NTBF (new technology based firms), wspólne publiczno-prywatne konsorcja badawcze, współpraca badawcza uczelni z przemysłem, badania podstawowe, koszty zatrudnienia personelu badawczego, zakup obcych usług badawczych, szczególne rodzaje nakładów o znacznym spillover np. ICT, badania firm krajowych realizowane w kraju, badania firm krajowych realizowane zagranicą, wydatki
B+R inwestorów zagranicznych realizowane w kraju.
Wiele krajów decyduje się na stworzenie silniejszej dźwigni podatkowej dla małych firm
(choć z innych względów może to być mało skuteczne), które są mniej skłonne do ponoszenia ryzyka własnych prac badawczych, nie są w stanie udźwignąć kosztów zatrudniania wysoko-kwalifikowanej kadry badawczej, lub wręcz utrzymywać własnej bazy
badawczo-rozwojowej. Do tej klasy instrumentów można także zaliczyć specjalne ulgi
podatkowe z tytułu zakupu obcych usług badawczych (gdy brak własnej bazy), czy zatrudniania personelu badawczego (w formie kwotowej na zatrudnionego - Belgia, lub
zwolnień od podatku od płac i składek ubezpieczeniowych - Holandia) [Sawyer]. Ten
ostatni instrument jest łatwy i przejrzysty w administrowaniu, ponieważ nietrudno zidentyfikować badawczy charakter nakładów przyporządkowując wyniki prac bezpośrednio kosztom zatrudnienia ich autorów. Ponadto ma charakter ulgi podatkowej u
źródła, gdyż dotyczy kapitału ludzkiego, bezpośredniego czynnika produkcji nowej wiedzy, niezależnie od firmy, w której w danym momencie funkcjonuje.
Efekty sieciowe systemu innowacyjnego uwzględniane są w konstrukcji ulg wspierających transfer technologii, zorientowanych na badawcze konsorcja publiczno-prywatne,
współpracę uczelni z przemysłem (Japonia, Norwegia, Hiszpania, W. Brytania), prace
badawcze prowadzone zagranicą, czy przyciąganie zagranicznego kapitału badawczego
w formie inwestycji bezpośrednich. W tym kierunku działają np. ulgi na badania finansowane, a nie tylko wykonywane, przez przemysł, jeżeli są one kontraktowane w uczelniach (W. Brytania). W okresie narastającej globalizacji istotną rolę odgrywa przyciągnięcie zagranicznego kapitału badawczego i przeciwdziałanie ucieczce tego kapitału
spowodowanej arbitrażem podatkowym. W tym celu coraz częściej poszerza się zakres
ulg podatkowych dla B+R firm zagranicznych lub zależnych od kapitału zagranicznego
zlokalizowanych w kraju (W. Brytania, Węgry – 200% ulgi) [European Innovation Trend
Chart].
Efekty spillover, czyli duża rozpiętość między społeczną a prywatną stopą zwrotu, są argumentem za stosowaniem szczególnych ulg podatkowych do wydatków na badania
132
podstawowe prowadzone w przedsiębiorstwach (Japonia, Kanada, Dania), czy na rozwój
i upowszechnienie tzw. technologii ogólnego zastosowania (GPT – general purpose technologies, generic technologies)”.
Stanisław Kubielas, Finansowe Instrumenty Wspierania B+R I Innowacji W Sektorze
Przedsiębiorstw, w: Budżetowe instrumenty finansowania B+R w Polsce. Propozycja na lata 2005-2015, Krajowa Izba Gospodarcza – Instytut Społeczeństwa Wiedzy, Warszawa
2005.
Bibliografia
A. Salter, et al., Talent not Technology: Publicly Funded Research and Innovation in the U.K., SPRU University
of Sussex, May 2000.
Science, Technology and Industry Outlook 2002, OECD, Paris 2002.
Tax incentives for research and development: trends and issues, OECD, Paris 2002; European Innovation
Trend Chart Thematic Report ‘Innovation Financing” October 2002 – September 2003, European Commission Enterprise Directorate-General.
Potential Implications of Providing Tax Incentives for Research and Development in New Zealand, A Report
for the Royal Society of New Zealand, Department of Accountancy, Finance and Information Systems, University of Canterbury, Christchurch, New Zealand, s. 13-14.
European Innovation Trend Chart Thematic Report ‘Innovation Financing” October 2002 – September 2003.
POMOC PUBLICZNA DLA B+R I INNOWACJI
W roku 2006 Komisja Europejska przyjęła zasady ramowe dotyczące pomocy państwa
na działalność badawczą, rozwojową i innowacyjną, a w roku 2008 – ogólne rozporządzenie w sprawie wyłączeń grupowych. „Zarówno zasady ramowe, jak i rozporządzenie
zawierają nowe przepisy dotyczące innowacji, które opracowano specjalnie z myślą o
małych i średnich przedsiębiorstwach i które mają również służyć lepszemu ukierunkowaniu pomocy na tworzenie miejsc pracy i zwiększanie wzrostu gospodarczego z celami wyznaczonymi w strategii lizbońskiej, kontynuowanymi obecnie przez strategię
„Europa 2020””.
Bibliografia
2006 Community Framework for State Aid for Research, Development and Innovation (2006/C 323/01)
2006 Plan Działań W Zakresie Pomocy Państwa. Gorzej i lepiej ukierunkowana pomoc państwa: mapa drogowa reformy pomocy państwa na lata 2005 – 2009 (Dokument konsultacyjny), Bruksela, dnia 7.6.2005
COM(2005) 107 końcowy
2006 Wytyczne Wspólnotowe W Sprawie Pomocy Państwa Na Wspieranie Inwestycji Kapitału Podwyższonego Ryzyka W Małych I Średnich Przedsiębiorstwach (2006/C 194/02)
2008 Rozporządzenie Komisji (WE) nr 800/2008 z dnia 6 sierpnia uznające niektóre rodzaje pomocy za
zgodne ze wspólnym rynkiem 9.8.2008 „Dziennik Urzędowy Unii Europejskiej” L 214/3
Piotr Podsiadło, Pomoc publiczna na badania, rozwój i innowacje w kontekście kryzysu gospodarki Unii Europejskiej.
133
EWALUACJA
EWALUACJA
(Evaluation)
Ewaluacja to zestaw działań generujących wiedzę dotyczącą zasadności, przebiegu i oddziaływania interwencji polityki publicznej. Ewaluacja jest zazwyczaj ukierunkowana na
instrumenty, programy i polityki. Niekiedy ewaluacja odnosi się nie do interwencji publicznej, lecz do organizacji publicznej (np. uniwersytetu czy laboratorium rządowego),
sektora publicznego lub też innych jednostek, utrzymywanych w całości lub częściowo z
pieniędzy podatnika. Ewaluacja jako nieodłączny element działalności administracji
rządowych w krajach rozwiniętych gospodarczo sięga lat 1950-tych (choć sporadyczne
ewaluacje przeprowadzano także w II poł. XIX w.).
Choć ewaluacja badań naukowych ma wielowiekową tradycję, stała i systematyczna
ewaluacja programów i instrumentów politycznych w sferze N+T oraz organizacji badawczych, finansowanych z budżetu państwa, jest świeżej daty (II poł. lat 1970-tych –
lata 1980-te). Wiąże się ona z modernizacją administracji rządowej oraz z przemianami
funkcji badań naukowych i technologicznych.
Z punktu widzenia ogólnego zarządzania systemem badawczym ewaluacja pełnie dwie
funkcje. Z jednej strony jest „narzędziem sterowania”, to znaczy instrumentem organizowania i zarządzania badaniami. Z drugiej strony, wraz z funkcją sterowania, może ona
pełnić funkcję dystrybucyjną, czyli być stosowana do przydzielania różnych rodzajów
nagród i zasobów różnym rodzajom podmiotów - osobom, grupom lub organizacjom.
Zachęty te mogą być ekonomiczne (dotacje, premie wynagrodzenia) i/lub symboliczne
(reputacja i prestiż)[Cruz-Castro 2006].
Cele i motywy ewaluacji. Ewaluacja dostarcza wiedzy o skuteczności i efektywności
polityk zrealizowanych (ewaluacja ex post), realizowanych (ewaluacja mid term) lub
planowanych (ewaluacja ex ante) w celu kształtowania i uzasadniania przyszłych interwencji. Stwarza ona szansę wspólnego refleksji interesariuszy – szczególnie polityków,
użytkowników i beneficjentów – nad ocenianymi politykami, czyli uczenia się, jak robić
lepszą politykę i lepsze ewaluacje. Jest także narzędziem rozliczania (ang. accountability). Z punktu widzenia accountability ma ona wyjaśnić, w jaki sposób zostały wykorzystane środki publiczne, jakie przyniosły one efekty i jak uzasadnia się ich użycie. Ewaluacja to także środek legimityzacji, pomoc w ustaleniu >priorytetów polityki, narzędzie
podziału funduszy, metoda zarządzania, która służy ulepszaniu realizacji już podjętych
decyzji oraz decyzji, które mają być podjęte w przyszłości.
Istnieje zasadnicza zgoda, że wszystkie interwencje polityczne powinny być poddawane ewaluacji. Jednak powstaje problem gdy trzeba decydować:
• Kiedy jest właściwy czas, aby przeprowadzić ocenę?
134
• Jaki jest właściwy poziom agregacji, np. dla oceny na poziomie projektu, programu, polityki,
Policy mix, organizacji lub systemu B+R i innowacji?
• Jakie kryteria oceny powinno się stosować?
Pytania te często rozstrzyga się w zgodzie z potrzebami decydentów i/lub zarządzających programami. Ewaluacje ex ante, w połowie okresu (ang. mid term) lub ciągłe (ang.
ongoing) i ex post odgrywają ważną rolę w >cyklu polityki; różne rodzaje pytań można
podnosić i różne kryteria stosować na różnych poziomach ewaluacji.
Początkowy etap ewaluacji polega na określeniu zakresu ewaluacji, jej celów, przedmiotu i kryteriów oceny. Prace te najlepiej przeprowadzać w porozumieniu z wielu różnymi zainteresowanymi stronami. W niektórych sytuacjach parametry ewaluacji są
określone przez prawo. Niezbędnym elementem tego etapu jest ustalenie (zapisanej lub
zrekonstruowanej przez ewaluatorów) >logiki interwencji polityki (instrumentu, programu) [OECD IPP 2013].
Pytania stawiane w ewaluacji. Najczęściej zadaje się pytania dotyczące produktu, procesu (działań), efektu i wpływu oraz powiązań: potrzeb z produktem/efektem/wpływem (użyteczność), potrzeb z celem (stosowność), celów z produktem/efektem/wpływem (skuteczność), działań z produktem/efektem/wpływem (efektywność).
Rozszerzona lista pytań dotyczy m.in. następujących kwestii:
Kryterium
Pytanie
Stosowność
Czy podjęcie działania było uzasadnione?
Odpowiedniość
Czy cele działania służyły rozwiązaniu problemu, jaki został przed nim
postawiony?
Spójność
Czy logika interwencji nie była sprzeczna z innymi interwencjami podejmowanymi w podobnych celach?
Ekonomiczność
Czy działanie okazało się tańsze niż zakładaliśmy? Czy kosztowało mniej
niż oczekiwano?
Efektywność (wydajność)
Czy działanie spełniło nasze oczekiwania?
Produktywność
Czy produkt (efekt, wpływ) wart był zainwestowanego weń wkładu?
Sprawność procesowa
Czy działanie przebiegło sprawnie?
Umiejętności
Jakie kwalifikacje posiadali wykonawcy i czy były one na miarę wykonywanych przez nich zadań?
Skuteczność
Czy cele programu zostały osiągnięte? Jaki jest zwrot z inwestycji (return on investment, ROI)? Czy uzyskany zwrot z inwestycji odpowiada
zakładanemu?
Jakość
Jak wartościowy jest wynik (output)? Jak dobre są efekty?
Użyteczność
Czy produkt-efekty-wpływ działania rozwiązał problem lub zaspokoił
potrzebę?
Trwałość
Czy efekty trwają w horyzoncie średnio-i-długo terminowym?
Konsystencja
Do jakiego stopnia pozytywne / negatywne skutki pośrednie w innych
obszarach polityki gospodarczej, społecznej i środowiskowej zostały
135
zmaksymalizowane / zminimalizowane?
Alokacja zasobów /
Efekty dystrybucyjne
W jakim stopniu negatywne/pozytywne skutki dystrybucyjne polityki
zostały zminimalizowane/zmaksymalizowane?
Dodatkowość
Co się wydarzyło poza i ponad to, co by się wydarzyło bez podjętego
działania?
Zastąpienie
Co się nie stało, a co by zaszło, gdyby nie oceniane działania?
Ulepszenia procesu
W jaki sposób można by to robić lepiej?
Delanghe 2013; European Commission 2004; Guy 2000; Pollit 2000; Evaluating 1999; Arnold 1997
Pytania stawia się w Ocenie Wpływu oraz w Ewaluacjach Polityk w następujący sposób:
Ex-ante ewaluaOcena okresowa
cja/ocena wpływu
Ewaluacja
ex post
Odpowiedniość
X
Spójność
X
Ekonomiczność
X
X
X
Efektywność
X
X
X
Produktywność
X
X
X
Ocena wpływu expost
X
X
Trwałość
X
X
Użyteczność
X
X
Konsystencja
X
X
X
X
Efekty dysctrybucyjne
X
X
X
X
Gdy to możliwe, dla każdego modułu dobiera się odpowiednie wskaźniki, np.:
•
produktu działalności badawczo-rozwojowej (publikacje, patenty, raporty,
prototypy, produkty, procesy, usługi, standardy, cytowania, uzyskane nagrody,
widza i umiejętności).
•
efektu – produkty działalności badawczo-rozwojowej przekształcone przez
sektorze gospodarczym w nowe produkty, materiały, procesy, a w sektorze
publicznym w nowe prawa, metody nauczania, leczenia, przesyłu energii,
transportu itd.
•
wpływu – wpływ naukowy i technologiczny: nowa wiedza; kultura współpracy;
powstanie sieci; reputacja; wpływ ekonomiczny: długofalowe efekty, które
pociągnęły za sobą wzrost gospodarczy; konkurencyjność przemysłowa;
innowacje; wzrost zatrudnienia; wpływ społeczny: poprawa jakości życia, spadek
śmiertelności; rozwój społeczny; wpływ polityczny: wkład do polityk; zmiana
ustaw [EU 2002; Geisler 1996].
Dodatkowość. Wśród pytań stawianych podczas ewaluacji szczególne znaczenie mają
pytania dotyczące dodatkowości polityki, tzn. rozważenia, w jakim stopniu pożądane
136
efekty wystąpiłyby bez interwencji publicznej. Istnieją różne formy dodatkowości, a
mianowicie:
i)
dodatkowość wkładu – w jakim stopniu interwencja jest uzupełnieniem lub
substytutem wkładów zapewnianych przez rynek lub inne podmioty (np.
przez środki własnych firm).
ii)
dodatkowości efektów – jaka proporcja efektów została stworzon bez interwencji publicznej.
iii)
dodatkowość zachowania – jaka jest różnica w zachowaniu grupy docelowej
interwencji publicznej w porównaniu ze stanem sprzed interwencji lub w porównaniu z podobną grupą, która nie była przedmiotem interwencji.
Nacisk na dodatkowość rodzi pytania wokół możliwości jednoznacznego przypisania
zaobserwowanych rezultatów do interwencji publicznej. Istnieją dwie przeciwstawne
tendencje: po pierwsze, tendencja do przeszacowania, w której wyniki, które są w rzeczywistości kumulatywne i zależą od wielu czynników są całkowicie (albo w przeważającej większości) przypisane do interwencji, a po drugie tendencja do niedoszacowania z
powodu niewłaściwego horyzontu oceny (gdy wyniki nie mogły jeszcze wystąpić lub
wystąpiły tak dawno temu, że beneficjenci nie mogli ich przypisać do interwencji publicznej). Znajomość tych tendencji jest ważna nawet w przypadku gdy problemy jakie
stwarzają nie mogą być w pełni rozwiązane [OECD IPP 2013].
Metody. W ewaluacji stosuje się wiele różnych metod. Najbardziej popularne są badania
ankietowe, wywiady, analiza statystyczna i analiza dokumentów, analiza porównawcza,
panel ekspertów i studia przypadku. Wszystkie metody mają swoje zalety i ograniczenia,
które powinny być w pełni rozpoznane przed przystąpieniem do oceny[OECD IPP 2013].
Choć ewaluacje sięgają po metody nauk społecznych, często nie są same uznawane za
badania naukowe (choć czasami określa się je jako gałąź stosowanych nauk społecznych).
W procesie kształtowania polityki i zarządzania programem ewaluacja to tylko jedno ze
źródeł informacji wśród wielu innych. Wykorzystanie wyników ewaluacji jest często pośrednie. Jeśli ewaluacja jest otwarta i ma charakter partycypacyjny, korzyść odnosi
większa grupa osób.
Inicjatorzy. Ewaluacja albo ma charakter odgórny, albo oddolny. Inicjatorami ewaluacji
odgórnej są organa rządowe (ministerstwa, agencje technologiczne), organizacje działające w ich imieniu (rady ds. badań), lub też specjalne agencje ds. ewaluacji (np. Comité
National d`Évaluation de la Recherche oraz Comité National d` Evaluation des Universités we Francji, Agencia Nacional de Evaluación y Prospectiva (ANEP) w Hiszpanii). Inicjatorami oddolnej ewaluacji są organizacje badawcze, jak uniwersytety czy laboratoria
rządowe. Ewaluacje przeprowadza się na mocy ustaw (np. w Stanach Zjednoczonych)
lub jako część rutyny, jako follow-up kontraktu lub ad hoc. Ewaluatorami są zespoły powołane ad hoc, krajowi eksperci z ocenianej dziedziny (peers), eksperci krajowi wspólnie z zagranicznymi lub tylko eksperci zagraniczni, specjalnie do tego celu powołane organy względnie prywatni kontraktorzy (zawodowi ewaluatorzy ze świata nauki oraz
137
konsultingu) czy wreszcie odrębne instytucje publiczne. Wiele ewaluacji przeprowadzają komórki wewnątrz danej organizacji, oceniając głównie administracyjne, menedżerskie i finansowe aspekty działań. Gdy tylko można, łączy się ewaluację wewnętrzną i
zewnętrzną, co pozwala na większy obiektywizm i niezależność ocen.
Ewaluatorzy to najczęściej:
•
zespoły powołane ad hoc,
•
krajowi eksperci z ocenianej dziedziny (peers),
•
eksperci krajowi wspólnie z zagranicznymi
•
tylko eksperci zagraniczni,
•
specjalnie do tego celu powołane organy
•
prywatni kontraktorzy (zawodowi ewaluatorzy ze świata nauki oraz konsultingu)
•
odrębne instytucje publiczne.
•
komórki wewnątrz danej organizacji (w Polsce z reguły jest to tylko wąsko pomyślany
audyt), oceniając głównie administracyjne, menedżerskie i finansowe aspekty działań.
Gdy tylko można, łączy się ewaluację wewnętrzną i zewnętrzną, co pozwala na większy obiektywizm i niezależność ocen.
Inicjowanie, adaptowanie i rozwój ewaluacji. Najczęściej ośrodkami nie tylko rozwoju metodologii ewaluacji w dziedzinie nauki i techniki, ale także jej edukacji i upowszechniania były narodowe organa rządowe i parlamentarne, Unia Europejska, oraz
organizacje międzynarodowe, takie jak UNDP, UNIDO i OECD, np. w Japonii Komitet Wytycznych Ewaluacji Badań działający pod egidą Rady ds. Badań i Technologii (1988), we
Francji Parlamentarne Biuro Ewaluacji Wyborów Naukowych i Technologicznych
(1991),w Wielkiej Brytanii Krajowe Biuro Audytu oraz Ministerstwo Handlu i Przemysłu
(1997) itd. M.in. UNDP opracował Podręcznik Polityki i Procedur (Policy and Procedures
Manual) zawierający rozdział pt. Evaluation and Reporting. Opracowany w Komisji Europejskiej Good Practice Guidelines for the Management of the Commission`s Evaluation
Function¸ 2000, nakazuje organom Komisji sporządzanie planu ewaluacji. Plan, zatwierdzany przez Dyrekcję Generalną jako integralna część Rocznego Planu Pracy, powinien
antycypować przyszłe priorytety polityczne oraz potrzeby operacyjne, a przy tym być
realistyczny. Brytyjskie Ministerstwo Przemysłu i Handlu opracowało „ROAME (Rationale, Objectives, Appraisal, Monitoring, Evaluation) Guidance for Collaborative Research and Development”.
Ewaluacja a formy pokrewne. Ewaluację odróżnia się od form pokrewnych: monitoringu, audytu, sprawozdawczości itd.. Różnice pomiędzy ewaluacją a niektórymi innymi
mechanizmami ujmuje następująca tabela:
Różnica pomiędzy ewaluacją a innymi mechanizmami opartymi na feedbacku
Opracowania
kowe
nau-
Tradycyjny audyt
Ewaluacja kładzie nacisk na praktyczne wykorzystanie informacji
Ewaluacja ocenia wydatki publiczne z szerszego punktu widzenia (bierze także
pod uwagę pytania, czy cele programu są właściwe oraz czy zostały skutecznie i
138
efektywnie osiągnięte).
Monitoring
Ewaluację przeprowadza się jako przedsięwzięcie jednorazowe. Podczas ewaluacji poszukuje się bardziej wnikliwych informacji dotyczących badanego programu. Przy tym istnienie systemu stałego monitoringu to często podstawa pomyślnej ewaluacji.
Pomiar
dokonań
(Performance indicators)
Ewaluacja bada nieraz oceniany obiekt za pomocą tych samych kategorii (np. jakość, efektywność), ale stara się osiągnąć więcej próbując znaleźć wyjaśnienie dla
osiągniętych wyników i zrozumieć logikę działania publicznego.
Benchmarking
Benchmarking ma węższe znaczenie. Jest jedną z metod oceny organizacji. Ewaluacja może sięgać po tę metodę.
Analiza polityki
Ewaluacja kładzie nacisk na ocenę ex post. Analizę polityczną określa się nieraz
jako ewaluację ex ante w badaniu przyszłych opcji politycznych.
OECD (1999)
Audyt ma dłuższą tradycję od ewaluacji. Jego celem jest sprawdzenie zgodności z prawem oraz prawidłowości gospodarki finansowej, ustalenie, czy przepisy i procedury były przestrzegane. Ewaluacja jest z reguły bardziej elastyczna. Wykonawcami jej są często
nie tylko upoważnieni licencjonowani eksperci, ale także interesariusze. Procedury ewaluacji zależą z reguły w większym stopniu od wstępnych ustaleń wykonawców. Dla właściwego wyboru strategii ewaluacji od przyszłych wykonawców ewaluacji oczekuje się
zrozumienia kontekstu (dlaczego i dla kogo zlecono ewaluację), uzasadnienia i zadań.
Nie ma żadnych złotych recept ewaluacji i na ogół sądzi się, że (biorąc pod uwagę swoistość każdego ocenianego obiektu) cele, zadania i metody powinny być otwarcie dyskutowane przed ich podjęciem. W przeciwieństwie do audytu, ewaluacja jest wykorzystywana bardziej jako narzędzie zarządzania programami niż dla publicznej accountability. Mimo tych wszystkich różnic granice między tymi dwiema formami kontroli zacierają się. Tradycyjny audyt finansowy jest często uzupełniany o audyt efektywności.
Audyt dokonań (performance audit) jest bliski ewaluacji. Z kolei zarządzanie dokonaniami (performance management) jest młodsze od ewaluacji i niekoniecznie ją obejmuje.
Rozwinięto je nawet w reakcji na dostrzegane braki ewaluacji. Zawiera ono krytyczną
ocenę procesów zarządzania. Jego realizacja leży w obowiązkach menedżerów, podczas
gdy przeprowadzenie ewaluacji powierza się wszystkim zewnętrznym ekspertom. Monitoring, wyczerpujące i regularne sprawdzanie zasobów, efektów i rezultatów interwencji publicznej, oparty jest na takich źródłach informacji, jak raporty, przeglądy, bilanse,
wskaźniki itp. Monitoring przeprowadzają najczęściej organizacje odpowiedzialne za interwencję publiczną. Podobnie jak ewaluacja, monitoring jest traktowany jako narzędzie
doskonalenia działalności. Ewaluacja morze korzystać z benchmarkingu. Benchmark to
po angielsku miara, kryterium. Benchmarking to „miarowanie”. Menedżerowie nieraz
rozumieją benchmarking jako technikę bliską „mapowania procesu”, t.j. analizowania
procesów pracy i ich ulepsznia przez porównywanie ze wzorcowymi praktykami procesów pracy w innych organizacjach. Inni menedżerowie rozumieją benchmarking jako
działalność polegającą na porównywaniu rezultatów osiąganych przez podobne organizacje. Benchmarking procesów odnosi się do działań stosowanych dla przetwarzania
„wkładu” w „rezultaty”. Benchmarking rezultatów obejmuje ocenę działań organizacji na
139
podstawie wskaźników dokonań (performance indicators), nie tyle standardów (tj. ideałów lub norm), co miar sprawności i efektywności (np. wielkość eksportu). Benchmarking umożliwia personelowi ocenę w stosunku do innych (bądź innej organizacji, bądź
też innego działu tej samej organizacji). Benchmarking procesów może prowadzić do
pytań dotyczących zadań organizacji. Benchmarking rezultatów – do pytań dotyczących
różnic w efektywności. Benchmarking musi uwzględniać cele organizacji, cechy klientów
itd.. Aby był skuteczny, organizacja musi uznać, że istnieje wiele źródeł poprawy efektywności, wliczając w nie porównanie z nawet bardzo różnymi organizacjami (np. szpitala z hotelem). Benchmarking pozwala organizacjom lepiej zrozumieć procesy wiodące
do osiągnięcia zakładanego rezultatu. Krytyczne czynniki sukcesu benchmarkingu i ewaluacji są podobne – udział klientów, ostrożna selekcja wskaźników dokonań oraz ocena
skuteczności stosowanych metod.
Trendy w rozwoju ewaluacji B+R finansowanych ze źródeł publicznych
1950
2000
Program, organizacja
+ Polityka
Ocena jakości naukowej
Relewantność, wpływ, efekty systemowe
Ocena jakościowa (w skali)
+ Ocena ilościowa
Zróżnicowane praktyki krajowe
Wzorcowe praktyki
Fragmentaryzacja
Standardy
Izolowane ewaluacje
System ewaluacji
Jedna prosta metoda
„Zestaw narzędzi”
Ewaluacja
Integracja: ewaluacja, statystyka, foresight...
Polityka B+R
Polityka innowacyjna
Dobre praktyki
Czynniki sukcesu ewaluacji:
• Dobrze od samego początku określony cel i zakres ewaluacji, ale z wbudowaną elastycznością
w celu dostosowania ich do pojawiających się ustaleń.
• Zgranie ewaluacji z harmonogramem cyklu polityki.
• Zaangażowanie wielu interesariuszy.
Czynniki ryzyka:
• Ewaluację przeprowadza się jako rytuał.
• Wyniki ewaluacji stosuje się mechanicznie w podejmowaniu decyzji politycznych i finansowych, bez wprowadzania istotnych niuansów.
• Ewaluację przeprowadzają niedoświadczeni praktycy.
140
Wiele publikacji stara się sformułować wzory dobrej ewaluacji lub udzielić rad i wskazań, jak przeprowadzać ewaluację skutecznie. Podkreśla się np., że standardyzacja procedur ewaluacji zmniejsza jej czas i koszty i ułatwia porównania pomiędzy programami,
że ewaluacja powinna być traktowana jako proces uczenia się, zarówno dla ocenianych,
jak i dla oceniających, jako okazja zdobycia użytecznych, skądinąd nieosiągalnych informacji, że jej wyniki powinny by powiązane z procesem podejmowania decyzji, że np.
ewaluacja szkół wyższych nie powinna zabijać kreatywności (np. wydział uniwersytecki
powinien być oceniany jako ekosystem, habitat, środowisko, wg jakości życia, szans
zdobywania doświadczenia, troski o wzrost, a nie jako maszyna do wytwarzania oczekiwanych wyników) itd. Zwraca się uwagę, że ewaluacje obok zamierzonego wpływu
pociągają za sobą także skutki uboczne (np. wzmacniają najlepszych ponad należne zasługi, zaostrzają zatargi, podcinają motywacje). Wskaźniki ewaluacji powodują, że celem
ocenianych staje się nie tyle osiągnięcie stanu postulowanego, co ich formalne wypełnienie. Dzięki dotychczasowym praktykom ewaluacji zebrano niezliczone doświadczenia.
Jedna z nich stwierdza „malejący zwrot” z ewaluacji określonego typu (pomimo stosowania mechanizmów auto-korekcyjnych). Gdy dany typ ewaluacji jest powtarzany, maleje szansa na niespodziewane lekcje, nawet gdy nowe okoliczności przynoszą ze sobą
nowe wyzwania.
Pod wieloma względami ewaluacja badań, zwłaszcza podstawowych zorientowanych
poznawczo, jest trudniejsza niż ocena innych działań ze względu na wielki stopień niepewności i ryzyka, jaki się z nimi wiąże. Oczekiwana od badacza oryginalność utrudnia
sformułowania zasad oceny badań prowadzonych „na granicach poznania”. W żartobliwym powiedzeniu, że Kopernik i młody Einstein nie uzyskaliby nigdy od współczesnych
grantu, kryje się wiele prawdy. Dziś Craig Venture nie dokonałby tylu odkryć genomu
człowieka, gdyby sam nie finansował badań, którymi kierował.
Życie jest prostsze dla ewaluatora, gdy przedmiotem jego zainteresowania jest prosty
program, ściśle określony w czasie i z jasno zarysowanymi celami. Jednak np. koncepcja
Europejskiej Przestrzeni Badawczej narzuca nowe wyzwania ewaluacji, takie jak np.
większy nacisk na wartości społeczne i etyczne oraz większy nacisk na aspekty międzynarodowe (np. powiązania nauki z przemysłem nie tylko w granicach narodowych, rozwój B+R dla przyciągania i zatrzymywania zagranicznych inwestycji). Te nowe wyzwania zmuszają do adaptacji metod zarządzania przemysłem (benchmarking).
Bibliografia
Amir Piric i Neville Reeve, Evaluation of public investment in R&D – towards a contingency analysis w: Policy evaluation in innovation and technology. Towards best practices, 1997 OECD.
Chistopher Pollit and Geert Bouckaert, Public Management Reform, Oxford University Press.
Dimitris Sotiriou, Current practice and guidelines in France, Italy and Greece, and in international organizations, w: Evaluation of Research and Development. Current Practice and Guidelines. Synthesis report, 1991.
Erik Arnold, Ken Guy, Technology diffusion programmes and the challenge for evaluation, w: Policy evaluation in innovation and technology. Towards the best practices, OECD 1997.
European Commission (2002), An RTD Evaluation Toolbox.
141
European Commission (2006), Smart Innovation: A Practical Guide to Evaluating Innovation Programmes.
Evaluating socio-economic programmes. Glossary of 300 concepts and technical terms, vol. 6, European
Commission, Luxembourg, 1999.
Evaluation of technology policy programmes in Germany, ed. Gerhard Becher, Stefan Kuhlmann, Dordrecht i
in 1995.
Evanthia Kalpazidoun Schmidt, Evaluation and science policy, w: The use of Evaluation in Europe, November 2002.
George Papaconstantinou, Wolfgang Polt, Policy evaluation in innovation and technology: an overview,
1997 w: Policy evaluation in innovation and technology. Towards best practices, 1997 OECD.
Irwin Feller, The academic policy analyst as reporter: the who, what and how of evaluating science an technology programs, w: Learning from Science and Technology Policy Evaluation, ed. by Philip Shapira, Stephan Kuhlmann, Edward Elgar, 2003.
Jack Spaapen and Christian Sylvain, Societal quality of research. Toward a method for the assessment of the
potential value of research for society, SPSG Concept Paper No. 13, 1994.
John Irvine, Evaluating Applied Research: Lessons from Japan, 1988.
Kalpazidou Schmidt, E. and K. Siune, The Use Of R&D Evaluations In European Science Policy,
www.cfa.au.dk/Staff/eks.htm
L.G. Georghiou, J.S. Metcalfe, Evaluation of the impact of European community research programmes upon
industrial competitiveness, ”R&D Management” 23, 2, 1993.
Laura Cruz-Castro and Luis Sanz-Menéndez, Research Evaluation In Transition: Individual Versus Organisational Assessment In Spain, Unidad de Políticas Comparadas (CSIC), October 2006.
Leszek Korporowicz, Ewaluacja - zaproszenie do rozwoju, Internet.
Luke George, Issues in the evaluation of innovation and technology policy, w: Policy evaluation in innovation
and technology. Towards best practices, 1997 OECD.
Luke Georghiou, Evaluation of research and innovation policy in Europe – new policies, new frameworks? w:
Learning from Science and Technology Policy Evaluation, ed. by Philip Shapira, Stephan Kuhlmann, Edward
Elgar, 2003, s. 65.
Luke Georghiou, Research evaluation in European national science and technology system, “Science and
Public Policy” vol. 5 no. 1.
OECD (1999) Improving Evaluation Practices.
OECD (2006), Evaluation of Publicly Funded Research: Recent Trends and Perspectives, w: STI Outlook 2006.
OECD (2006), Government R&D Funding and Company Behaviour: Measuring Behavioural.
OECD Government R&D Funding and Company Behaviour. Measuring Behavioural Additionality, Paris 2006.
Papaconstantinou George, Wolfgang Polt, Policy evaluation in innovation and technology: an overview,
1997 w: Policy evaluation in innovation and technology. Towards best practices, 1997 OECD.
Paul Jedamus, Marvin W. Peterson and Associates, Improving Academic Management. A Handbook of Planning and Institutional research, Jossey-Bess Publishers, 1989, s. 452-455.
RAND Europe, Measuring research A guide to research evaluation frameworks and tools, July 2013
RAND Measuring research. A guide to research evaluation frameworks and tools, 2013.
S. Lahlou, R. van der Meijden, M. Messu, G. Poquet, F. Prakke, A Guideline for Survey-Techniques in Evaluation of Research, 1992.
142
Stefan Kuhlmann, Evaluation as a source of `strategic intelligence`, w: Learning from Science and Technology Policy Evaluation, ed. by Philip Shapira, Stephan Kuhlmann, Edward Elgar, 2003.
Tamás Balogh, From peer review to portfolio analysis. Evaluation of applied research and development,
mszp..
Terttu Luukkonen, Bertel Ståhle, Evaluation of research fields. Scientists` Views, 1993.
The use of R&D evaluations in European science policy.
Virginia Acha and Lucia Cusmano, Sharing Capabilities. Patterns of R&D co-operation in the upstream petroleum industry.
Wilhem Krull, Current practice and guidelines in a selection of industrialized countries w: W. Krull, D. Sensi,
D. Sotiriou, Evaluation of Research and Development. Current Practice and Guidelines. Synthesis report,
1991.
ROZLICZALNOŚĆ
Jednym z kluczowch słów w działalności sektora publicznego II poł. XX wieku stało się
słowo accountability. Nie ma ono jednoznacznego odpowiednika w języku polskim.
Najczęściej accountable tłumaczy się jako rozliczalny, odpowiedzialny, zobowiązany do
wyliczenia się, wytłumaczalny, dający się usprawiedliwić [Jaślanowie 1991]. Accountable odnosi się do sytuacji, w której np. administrator bezpośrednio odpowiedzialny
przed radą nadzorczą musi okazać, że potrafił wywiązać się z powierzonych mu obowiązków, a z powierzonych mu rzeczy zrobił mądry użytek [Penguin 1991]. Accountable (rozliczane) są organizacje i ludzie, a nie programy czy instrumenty polityczne.
Mówiąc opisowo, accountability to zobowiązanie stron uczestniczących we wprowadzaniu w życie interwencji publicznej do tego, aby dostarczyć zwierzchnim władzom politycznym oraz opinii publicznej informacji i wyjaśnień dotyczących oczekiwanych i aktualnych wyników działań. Osią informacji i wyjaśnień ma być sposób wykorzystania zasobów publicznych.
Brak polskiego odpowiednika accountability rozumianego w sposób używany obecnie w
krajach OECD świadczy, że sektor publiczny w Polsce nie działa jeszcze wg zasad obowiązujących w państwach rozwiniętych. „Rozliczanie” nadal rozumiane jest u nas w kategoriach zgodności z prawem, a w szczególności z przepisami finansowymi, a nie zgodności z misją organizacji, mandatem społecznym, i zasadami skutecznego działania. Ponadto, definiowane jest ono w sposób wąski i negatywny (kontrola i kara), podczas gdy
dziś w accountability nacisk położony jest bardziej na aspekt pozytywny (pomiar dokonań, informowanie opinii publicznej o osiągniętych celach i rezultatach). Ale accountability w dzisiejszym rozumieniu jest efektem zmian w rozumieniu zadań sektora publicznego w zachodnim świecie. Przed kilkoma dekadami słowo to także nie miało dzisiejszego znaczenia. Dawniej, tak jak dziś w Polsce „rozliczanie”, dotyczyło tylko zgodności z
przepisami i spraw finansowych, a nie skuteczności i efektywności działania. Zmiana
znaczenia odzwierciedliła przejście od administracji „nakazu i kontroli” do nowoczesnej
administracji.
Ale gdy w Polsce „rozliczanie” nie nabrało jeszcze dzisiejszego znaczenia accountability,
w krajach OECD słowo to rozszerza swój zakres, a zmiana ta odzwierciedla kolejną ewo143
lucję sektora publicznego. W ostatnich dekadach accountability odnosi się do odpowiedzialności urzędników rządowych przed zwierzchnikami, zwierzchników przed ministrami, ministrów przed parlamentem, a parlamentu przed wyborcami. Ale wraz z ewolucją systemu rządzenia ten prosty model jest coraz częściej w wieloraki sposób modyfikowany. Accountability oznacza coraz cześciej „rozliczanie” nie tylko przed zwierzchnikiem, ale także przed interesariuszami i opinią publiczną, nie koniecznie bezpośrednie,
ale bardziej długofalowe, nie tyle oparte na kontroli zgodności wyników z zakładanymi
celami, co na osiągnięciu bardziej długofalowych pozytywnych efektów. W korporacjach
obejmuje ono przewidziane prawem konsultacje z interesariuszami, a w demokracji partycypacyjnej – udział obywateli w sprawowaniu władzy. Zmiana znaczenia i praktyk
„rozliczania” jest reakcją na sytuację, w której tradycyjne metody administracji często
zawodzą w zarządzaniu współczesnymi instytucjami rządowymi, instytucje dostarczające usług publicznych funkcjonują nieraz skuteczniej, gdy są zwolnione z codziennego
nadzoru, a w szybko zmieniającym się świecie stwierdza się potrzebę większej organizacyjnej elastyczności.
Podsumowując, można accountability zdefiniować jako „układ, dzięki któremu osoby reprezentujące organizację rozliczają się przed swymi zwierzchnikami, parlamentem, opinią publiczną i użytkownikami. Skuteczne rozliczanie (accountability) obejmuje jasną
definicję zakresu odpowiedzialności, określenie stopnia samodzielności, instrukcje co do
sporządzania sprawozdań finansowych, wymagania odnośnie do przedkładania planów
organizacyjnych, pomiar wyników, monitoring dokonań, odpowiadanie na zadawane pytania, a także nominacje, nagrody i sankcje.”
Porządek relacji oraz sposób ich egzekwowania określany mianem accountability wpisany jest w przepisy prawne, procedury i praktyki działania oraz cały cykl politycznoadministracyjny organizacji publicznych. Np. w Szwecji accountability opiera się ma ministerstwach, określających jakich wyników oczekują od podległych sobie agencji oraz
agencji, przesyłających sprawozdania informujące o osiągniętych wynikach. Narzędziem
określania wyników są Listy Instrukcji, wysyłane do agencji bezpośrednio po uchwaleniu budżetu przez parlament. Podczas gdy niektóre formy ewaluacji służą nie tyle jako
narzędzie „rozliczania”, co zarządzania programami, inne, jak np. analiza wpływu regulacji (Regulatory Impact Analysis), czyli ocena, w jaki sposób decyzje rządowe pomnożą
pożytek społeczny, stosowana jest dla wspomożenia „accountability”.
Bibliografia
Jaślanowie J. i H., Słownik terminologii prawniczej i ekonomicznej angielsko-polski, Warszawa 1991.
The Penguin Modern Guide to Synonyms and Related Words, London 1971.
Evaluating socio-economic programmes. Glossary of 300 concepts and technical terms, vol. 6, European
Commission, Luxembourg, 1999.
Pigeon Richard E. and Ralph Kellett, Glossary Of Common Terms Used In Research And Evaluation, RCMP-GRC, 2000, Internet
144
OCENA SKUTKÓW REGULACJI
(Regulatory Impact Assessment, Regulatory Impact Analysis, RIA)
Ocena Skutków Regulacji (OSR) to dokument lub fragment dokumentu (w Polsce – załącznik do projektów aktów normatywnych) zawierający szczegółową i systematyczną
ocenę potencjalnych skutków nowych regulacji dla ustalenia, czy osiągną one pożądane
cele. OSR to ocena wpływu opcji polityki w zakresie kosztów, korzyści i ryzyka projektu.
Główny cel OSR to polepszenie jakości prawa. OSR ma zapewniać korzyści ustawodawcom (dzięki OSR mają szerszą wiedzę jako podstawę decyzji), obywatelom (OSR wzmacnia demokrację poprzez ujawnienie podstaw podejmowanych decyzji, co pozwala każdemu wpływać na kształt polityki), biznesowi oraz służbie cywilnej (przez zapewnienie
przejrzystych ram >PROCESU POLITYCZNEGO) [Goggin 2008].
Wg OECD „OSR obejmuje szereg metod mających na celu systematyczną ocenę negatywnych i pozytywnych skutków proponowanych i istniejących przepisów [OECD 1995].”
Ocena Skutków Regulacji dzieli się na ex ante (przewidywane skutki regulacji) i ex post
(ocena istniejących regulacji) [OECD 2005]; na „specyficzną” (ocena wg jednego typu
kryteriów, np. środowiskowych) oraz „zintegrowaną” (ocena wg pakietu różnych kryteriów); oraz wg rodzaju wiedzy i zakres uczestnictwa – od OSR opartej na wiedzy ekspertów (wewnętrznych i zewnętrznych) do OSR opartej na udziale interesariuszy [Ruddy
2007].
Potrzeba OSR bierze się z faktu, że regulacje często mają wiele następstw, często trudnych do przewidzenia bez szczegółowych badań i konsultacji z zainteresowanymi stronami. Bywa, że koszty regulacji przekraczają korzyści. Z tego punktu widzenia głównym
celem OSR jest zdobycie pewności, że korzyści z regulacji przekroczą jej koszty i ryzyka
[EU Impact Assessment]. Inne cele OSR to pomoc w zharmonizowaniu różnych celów
politycznych i >ROZLICZALNOŚĆ (ang. Accontability). OSR to nie tylko narzędzie analityczne, ale także narzędzie koordynacji uzgadniania różnych interesów [OECD 2009]
(Por. > Spójność Polityki).
Cele i rola OSR w procesie administracyjnym różnią się w poszczególnych krajach. Niektóre analizy oceniają wpływ gospodarczy i społeczny legislacji metodą kosztu/korzyści,
inne jej oddziaływanie na środowisko naturalne (Environmental impact assessment), na
działalność samorządu terytorialnego, MSP, handel zagraniczny itd. [OECD 1996].
Por. >OCENA WPŁYWU BADAŃ.
Kluczowe składniki OSR. Wg polskiego Ministerstwa Gospodarki [2006] kluczowe
elementy OSR to:
„1. Identyfikacja problemu. Właściwe przygotowanie analizy problemu jest warunkiem
dokonania poprawnej oceny skutków regulacji oraz wyboru optymalnej formy zachowania instytucji publicznej wobec danego problemu lub procesu.
145
2. Określenie celów regulacji. Właściwe zdefiniowanie celu regulacji jest warunkiem
określenia sposobu zweryfikowania czy zmierzenia jego realizacji oraz dokonania wyboru sposobów osiągnięcia tego celu.
3. Określenie alternatywnych opcji realizacji celów. Ten etap oceny skutków regulacji
poświęcony jest analizie możliwości realizacji celów zidentyfikowanych w trakcie opracowywania propozycji regulacji. OSR identyfikuje dostępne rozwiązania i ocenia ich potencjalną skuteczność w realizacji zakładanych celów.
4. Przeprowadzenie konsultacji. Pozyskanie od podmiotów uczestniczących w życiu gospodarczym opinii oraz informacji i danych może znacząco poprawić jakość przygotowywanych rozwiązań, nawet jeśli będzie to oznaczać zaniechanie interwencji. Sondowanie opinii partnerów społecznych dostarcza informacji, które z alternatywnych rozwiązań jest najbardziej preferowane przez społeczeństwo, zawsze wtedy, gdy:
• Istnieje więcej niż jedno możliwe rozwiązanie,
• Brak jest pewności czy w ogóle warto podejmować określone działania,
• Ciekawi nas, jaka jest opinia społeczna w tej kwestii.
Pozwala także na wzmocnienie legitymacji demokratycznej dla działań administracji
oraz zwiększenie współodpowiedzialności za podejmowane działania.
5. Analiza kosztów i korzyści opcji. OSR pozwala na obiektywne porównanie rożnych
rozwiązań pod kątem ich ekonomicznej efektywności. Badanie kosztów i korzyści poszczególnych opcji rozwiązań pozwala ograniczyć ryzyko stanowienia takich regulacji,
które przy stosunkowo niewielkich efektach przynoszą nieproporcjonalnie duże obciążenie finansowe i społeczno-gospodarcze.
6. Określenie planu wdrażania. Ocena jak długo i jakimi nakładami odbywać może się
wdrażanie w Życie danego rozwiązania ma także istotne znaczenie przy wyborze najkorzystniejszej opcji działania.
7. Porównanie opcji i rekomendacja najlepszej z nich po przeprowadzonych analizach
kosztów i korzyści każdego z rozwiązań konieczne jest porównanie wyników każdej z
nich. Na podstawie tego możliwe jest wydanie rekomendacji dla najlepszego rozwiązania.”
Dobre praktyki. W OECD Unii Europejskiej i w poszczególnych krajach opracowano wytyczne
przeprowadzania dobrego OSR [OECD 2005, 1997; EU 2005; Ministerstwo Gospodarki 2006;
Better policy 2004].
OECD [2002] zaleca m.in.:
1.
2.
3.
4.
Zapewnij wysoki status OSR w polityce rządowej.
Rozdziel obowiązki wobec OSR pomiędzy ministerstwa i organa kontroli jakości legislacji.
Kształć osoby zaangażowane w tworzenie ustaw.
Użyj spójnej, ale elastycznej metody analitycznej, takiej jak: >ANALIZA KOSZTÓW I KORZYŚCI, >ANALIZA KOSZTÓW I EFEKTYWNOŚCI, >ANALIZA WPŁYWU SPOŁECZNOGOSPODARCZEGO (socio-economic impact analysis), analiza konsekwencji (consequence ana-
146
lysis), analiza kosztu zgodności (compliance cost analysis) oraz analiza wpływu na biznes
(business impact analysis).
5. Opracuj i wprowadź w życie strategie gromadzenia danych, obejmujące otwarte mechanizmy konsultacji społecznych i grup ekspertów, które nie mających silnych interesów
sektorowych.
6. Zadbaj, aby ilość czasu i wysiłku poświęconego OSR były współmierne do skutku, jaki się od
OSR oczekuje.
7. Zintegruj OSR z procesem tworzenia polityki.
8. Przekazuj wyniki OSR. Powinno się jasno komunikować założenia OSR, wykonalność propozycji, zakres rozważanych alternatyw oraz stopień akceptacji przez interesariuszy.
9. Zapewnij szeroki udział społeczeństwa w tworzeniu regulacji. Konsultacje należy rozpocząć
tak szybko, jak to możliwe, oraz kontynuować w trakcie całego procesu legislacyjnego.
10. Stosuj RIA zarówno do istniejących, jak również nowych regulacji.
OSR pomaga:
• przemyśleć oddziaływanie propozycji legislacyjnych;
• określić alternatywne opcje dla osiągnięcia celów polityki;
• ocenić opcje (prawne i pozaprawne);
• upewnić się, że konsultacje obejmują wiele zainteresowanych stron oraz
• określić, czy korzyści uzasadniają koszty.
Podkreśla się, że OSR powinno przeprowadzać się na wczesnym etapie procesu ustawodawczego, gdy rozważa się różne opcje polityki.
Dobry ORSR
• zawiera najlepsze informacje dostępne w danym czasie;
• jest jasny, zwięzły i proporcjonalny do problemu;
• jest dokumentem samodzielnym, jasno określającym alternatywy dla regulacji dokumenty;
• unika terminów technicznych niezrozumiałych dla laika [Better policy 2004].
Oceny skuteczności OSR pokazały wady i zalety tego podejścia. Do zalet należy wczesne
wskazanie na słabości planowanych aktów prawnych [Caroll 2010; Bäcklund 2009].
OSR na świecie. OSR został po raz pierwszy wprowadzony w życie przez w USA administrację Cartera w roku 1974, a następnie rozbudowany przez administrację Reagana
(>ANALIZA KOSZTÓW I KORZYŚCI jako jej główna metoda) oraz upowszechniony w krajach OECD [OECD 2009].
Obecnie rosnąca liczba krajów o niskim i średnim dochodzie wdrożyła jakąś formę OSR, jednak najczęściej OSR w tych krajach nie jest stosowany systematycznie w całym rządzie [Kirckpatrick 2004].
OSR stosowany w USA ocenia różne opcje przede wszystkim na podstawie ilościowej analizy
ekonomicznej. W przeciwieństwie do USA, Komisja Europejska stosuje podejście zintegrowane, które ocenia następstwa gospodarcze, społeczne i środowiskowe rozważanych opcji politycznych [O`Connor 2007].
OSR w Komisji Europejskiej. W Komisji Europejskiej od 2003 r. w ramach OSR rozpoznaje się i
ocenia problem regulacji i postawione przez nią cele, określa się główne opcje prowadzące
147
do osiągnięcia tych celów oraz analizuje ich prawdopodobny wpływ na gospodarkę, środowisko
i społeczeństwo. OSR ustala zalety i wady każdej z opcji oraz analizuje możliwe synergie i kompromisy (ang. trade-offs).
W latach 2005, 2006 i 2009 r. Komisja aktualizowała procedury związane z OSR.
„OSR UE dostarcza decydentom informacji dotyczących zalet i wad wyboru polityki. Wyjaśnia, dlaczego należy (lub nie należy) podjąć działania na szczeblu UE i dlaczego proponowana
interwencja jest właściwa. Jak tylko Sekretariat Generalny, Rada ds. Oceny Skutków (ang. Impact Assessment Board), oraz Komisja zdecydują, że konieczna jest ocena wpływu, planuje
się podjęcie prac.
OSR w UE sporządza się dla:
• wniosków legislacyjnych, które mają istotne skutki gospodarcze, społeczne i środowiskowe;
• inicjatyw nie-legislacyjnych (białe księgi, plany działania, programy finansowe, wytyczne
negocjacyjne dla umów międzynarodowych), które określają przyszłe polityki
• rozporządzeń wykonawczych i aktów delegowanych” [EU Impact Assessment].
Pod koniec 2006 roku powołano Radę ds. Oceny Skutków. Zadaniem Rady jest kontrola
jakości i wsparcie pracy przewodniczącego Komisji. Rada jest niezależna od służb tworzenia polityki. Jej członkami są urzędnicy wysokiego szczebla z departamentów Komisji
bezpośrednio związanych z trzema wymiarami oceny oddziaływania - gospodarczym,
społecznym i środowiskowym. Członkowie Rady są powoływani osobiście oraz na podstawie ich wiedzy eksperckiej. Rada bada i ocenia wartość poszczególnych ocen skutków
przygotowanych przez służby Komisji. Rada korzysta również z pomocy ekspertów zewnętrznych. Zapewnia ona także doradztwo dla służb Komisji w sprawach metodyki na
wczesnych etapach sporządzania OSR [Impact 2013].
OSR w Polsce. „W Polsce system OSR został wprowadzony w 2001 r. zgodnie z Regulaminem pracy Rady Ministrów z 19 marca 2002 r. – wyniki OSR stanowią część uzasadnienia do aktów normatywnych” [Ministerstwo Gospodarki 2013]. W Polsce OSR (…)
opisuje przewidywane skutki proponowanych regulacji na podstawie analizy kosztów i
korzyści. „W założeniu OSR powinna zapewniać podmiotom odpowiedzialnym za tworzenie prawa świadomość konsekwencji, jakie przygotowany akt prawny może wywołać
w życiu społecznym. OSR stanowi ważny element w procesie stanowienia dobrego prawa, gdyż pozwala na dostarczenie konkretnych merytorycznych argumentów dla wprowadzenia danej legislacji”.
„Obowiązek wykonania OSR reguluje Regulamin pracy Rady Ministrów, natomiast zakres wykonywania OSR precyzują Wytyczne do oceny skutków regulacji przygotowane
przez Ministerstwo Gospodarki, które wprowadzają wiele wskazówek praktycznych.”
„W 2013 roku Ministerstwo Sprawiedliwości opublikowało propozycję systemowej reformy procesu stanowienia prawa. W towarzyszącym jej uzasadnieniu potwierdzone zostały wcześniej zdiagnozowane patologie polskiej legislacji. Jako najbardziej palące
wskazano „niedokładność, nierzetelność i ogólnikowość” sporządzanych ocen skutków
regulacji, nietrafne decyzje legislacyjne, iluzoryczne konsultacje społeczne [MG 2013]”.
148
W roku 2013 na podstawie „Programu Lepsze Regulacje 2015” przygotowano nowe
wzory dokumentów związanych z rządowym procesem legislacyjnym, tj.: Testu Regulacyjnego, Oceny Skutków Regulacji i Oceny Skutków Regulacji ex-post. Zmieniony został
formularz Testu Regulacyjnego. Ocena Skutków Regulacji ma być przedstawiana w formie formularza. W całej administracji rządowej zostanie wprowadzony formularz: Ocena Skutków Regulacji ex-post, który dotychczas funkcjonował wyłącznie w Ministerstwie
Gospodarki. OSR ex-post będzie zawierała ocenę działania obowiązującej regulacji, pod
kątem realizacji jej celów, doboru sposobów ich osiągania oraz skutków. Wprowadzenie
formularzy poprawi przejrzystość i jakość nowo tworzonego prawa. Proces legislacyjny
będzie bardziej transparentny dla przedsiębiorców i obywateli [MG 2013].
Bibliografia
A Regulatory Impact Analysis, Wikipedia 2013
Ann-Katrin Bäcklund, Impact assessment in the European Commission – a system with multiple objectives,
“Environmental Science and Policy” 12 (2009) ss. 1077–1087.
Better Policy Making & Regulatory Impact Assessment: A Guide For Northern Ireland, December 2004
Cavan O’Connor Close and Dominic J. Mancini, Comparison of US and European Commission guidelines on
Regulatory Impact Assessment/Analysis, Industrial Policy and Economic Reforms Papers No.3, Enterprise
and Industry Directorate-General European Commission, April 2007
Colin Kirkpatrick, David Parker and Yin-Fang Zhang, Regulatory Impact Assessment in Developing and
Transition Economies: A Survey of Current Practice, June 2004.
EU Impact Assessment, http://ec.europa.eu/smart-regulation/impact/index_en.htm
EU Impact Assessment Guideliness, 2009
Isolde Goggin & Gillian Lauder, Review of the Operation of Regulatory Impact Analysis, July 2008
Jacopo Torriti, Ragnar E. Löfstedt: The first five years of the EU Impact Assessment system: a risk economics
perspective on gaps between rationale and practice, “Journal of Risk Research”, Vol. 15 No 2, (2012), ss.
169-186.
Ministerstwo Gospodarki, Wytyczne do oceny skutków regulacji, 2006 http://www.mg.gov.pl/files/ upload/ 8668/publikacja_6.pdf
Ministerstwo Gospodarki, Ocena Skutków regulacji, http://www.mg.gov.pl/Prawo+dla+przedsiebiorcy/
Ocena+Skutkow+Regulacji 2013; http://www.mg.gov.pl/node/19377
Ministerstwo Gospodarki, Wytyczne Do Oceny Skutków Regulacji, 2006
Ministerstwo Sprawiedliwości, Koncepcja Usprawnienia Konsultacji Publicznych Rządowych Projektów Aktów Normatywnych Oraz Oceny Skutków Regulacji, Projekt z dnia 26 lutego 2013 r.
Niestroy, Ingeborg (2010), Sustainability Impact Assessment and Regulatory Impact Assessment, w: OECD,
Conducting Sustainability Assessments.
Ocena Skutków regulacji, Wikipedia 2013
OECD 1997 Regulatory Impact Analysis: Best Practices in OECD Countries.
OECD 2005 Guiding Principles for Regulatory Quality and Performance
OECD, 1995. Recommendation of the Council of the OECD on Improving the Quality of Government Regulation. OECD Publications, Paris.
OECD, 2002. Regulatory Policies in OECD Countries: From Interventionism to Regulatory Governance. OECD
Publications, Paris.
149
OECD, 2009. Regulatory Impact Analysis. A Tool For Policy Coherence. Reviews of Regulatory Reform OECD
2009.
Peter Carroll, Does regulatory impact assessment lead to better policy?, “Policy and Society” 29 (2010) 113–
122
Regulatory Impact Analysis, OECD PUMA 1996
Szpringer W., Ocena skutków regulacji, C.H. Beck, Warszawa 2007
Thomas F. Ruddy, Lorenz M. Hilty: Impact assessment and policy learning in the European Commission,
“Environmental Impact Assessment Review”, Vol. 28, No. 2-3. (2007), ss. 90-105
Impact Assessment Board (IAB), 2013, http://ec.europa.eu/smart-regulation/impact/iab/iab_en.htm
KRAJOWE SYSTEMY EWALUACJI BADAŃ
(National Research Evaluation System)
Przez Krajowe Systemy Ewaluacji Badań można rozumieć dwa zjawiska: sformalizowane systemy ewaluacji wprowadzone odgórnie i umocowane prawnie oraz luźniejsze
systemy de facto, będące zbiorem różnych stosowanych w danym kraju trybów ewaluacji, połączonych przez podstawy prawne, instytucjonalne i programowe, a także przez
wspólną kulturę ewaluacji.
W niektórych krajach, krajowe systemy ewaluacji badań istnieją od wielu lat, w innych nie istnieją lub istnieją w zalążkowej postaci. Coraz więcej państw inicjuje wprowadzenie takich systemów. Istniejące systemy są w ciągłych procesie zmian, choć określenie kierunku zmian nie
jest łatwe. Podstawą krajowego systemu jest w wielu krajach >EWALUACJA INSTYTUCJI
PUBLICZNEGO SEKTORA NAUKI OPARTA NA POMIARZE DOKONAŃ. Z reguły systemy
ewaluacji dotyczą badań prowadzonych w szkołach wyższych ( por. >EWALUACJA POZAUCZELNIANYCH PUBLICZNYCH INSTYTUCJI NAUKOWYCH).
Trzy kraje były pionierami w odniesieniu do rozwoju trzech różnych typów systemów, które
znacznie różnią się w odniesieniu do celów, organizacji oraz metod. Holandia stworzyła system
oparty na dialogu i >PEER REVIEW, w którym oceny są ujmowane w skali w wielu wymiarach, a
ocena służy przede wszystkim auto-korekcie. Anglia stworzyła system oparty na peer review, w
którym – podobnie jak w Holandii – oceny są ujmowane w skali w wielu wymiarach, jednak
służą one jako podstawa do podziału środków. Wreszcie, Australia – podobnie jak Anglia stworzyła system wykorzystywany jako podstawa do podziału środków, ale oparty na
wskaźnikach. Norwegia łączy elementy wymienionych krajów [Hansen 2009].
Różnice pomiędzy tymi krajami ujmuje się w następującym schemacie:
Odpowiedzialna
organizacja
Norwegia
Norwegia
Holandia
Wielka Brytania
Australia
Norweska Rada Badawcza
Norweski
Związek Szkół
Wyższych
Poszczególne
uczelnie
od
2002 roku. W
latach 19932002 VSNU
Rada Finansowania Szkolnictwa
Wyższego w Anglii
(HEFCE) m.in.
Rząd australijski: Departament Edukacji,
Zatrudnienia i
Stosunków
150
Pracy
Przedmiot ewaluacji
Pola badań
Produkcja badawcza
uniwersytetów i
innych instytucji szkolnictwa wyższego
Uniwersytety
określają
przedmiot
oceny, np. pole
badawcze,
dział wydziału
Wydziały uniwersytetów
(personel aktywnie zaangażowany w badaniach)
Uniwersytety
Główny cel
Podnoszenie
jakości
Podział
ków
środ-
Rozwój jakości
Podział środków
Podział środków
Metoda
Peer
review
wzbogacone o
informacje
Pomiar publikacji
Samo-ewaluacja
i
peer
review
Peer review
Wskaźniki
Corocznie
Samoocena co
trzy lata. Ewaluacja
zewnętrzna
co
sześć lat.
RAE przeprowadzono 1986,
1989,
1992,
1996, 2001 i
2008. REF w
2013
Corocznie
Punkty za publikacje
Raport
ze
stopniami w 5
punktowej skali, za pomocą
czterech kryteriów
Ocena (skala
zmieniała się z
czasem)
Podział
ków
Częstotliwość
Raport, kontynuacja dialogu,
plany
środ-
Hansen 2009
Podstawy prawne, instytucjonalne i programowe ewaluacji. Rękojmią trwałości,
jednolitości oraz utrzymywania dobrych praktyk w krajowych systemach ewaluacji badań finansowanych z funduszy publicznych są ustawy, rządowe strategie i systemy ewaluacji, kodeksy etyki, ogłoszone oficjalnie standardy i procedury, oraz – w kilku krajach –
zespoły metodologiczne, a także agencje ds. ewaluacji (które obejmują swoim zakresem
bądź ewaluację ogółu publicznych inicjatyw, bądź też – specjalnie – badań i rozwoju).
Gdy idzie o ustawy, wystarczy np. wymienić amerykański The Government Performance
and Results Act (1993), kładący podwaliny pod budżet zadaniowy, zobowiązujący ustawodawcę do określania w każdej ustawie wskaźników wykonania oraz do monitorowania poziomu ich realizacji.
Podstawy prawne ewaluacji
Kraj
Podstawy prawne
Australia
Wszystkie polityki muszą mieć określone zasady ewaluacji, ale zasady te
mogą się różnić w zależności od programu
Kanada
Ewaluacja obowiązkowa w ramach Rządowej Polityki Audytu i Ewaluacji,
prowadzonej przez Skarb Państwa
Komisja Europejska
Podobne zasady ewaluacji dla wszystkich programów ustanowione na mocy
151
prawa i nadzorowane przez Parlament
Finlandia
Francja
Zasady ewaluacji ustanawiane przez organizacje wdrażające polityki
Loi organique relative aux lois de finance (2006), zasady ustanawiane przez
programy
Niemcy
Holandia
Nowa Zelandia
Norwegia
Wielka Brytania
Stany Zjednoczone
Porządek ewaluacji ustanawiany przez organizacje (ministerstwa, rady badawcze) odpowiedzialne za programy
Ewaluacja obowiązkowa na mocy prawa
Brak ogólnego prawnego zobowiązania do ewaluacji
Økonomireglement for staten (1996), zasady ustalane przez organizacje
Ogólne zasady ustanowione przez rząd
Ewaluacja na mocy prawa – The Government Performance and Results Act (1993)
Technopolis 2001 oraz aktualizacje
W odniesieniu do rządowych strategii ewaluacji, trzeba wymienić holenderski program „Od Politycznego Budżetu do Politycznej Rozliczalności” (From Policy Budgets to
Policy Accountability), nakładający na instytucje rządowe obowiązek wiązania ze sobą
celów, dokonań i zasobów. W odniesieniu do sfery nauki – duński „Plan Działania na
Rzecz Ewaluacji Badań 2008-2010”, zawierający opis zamierzeń rządu.
W wielu krajach istnieje jeden, dwa lub więcej rządowych systemów monitoringu i
ewaluacji rządowych programów i instrumentów.
Jeden zintegrowany system obowiązuje m.in. w Hiszpanii („Zintegrowany System Monitoringu i Ewaluacji”), Kolumbii („Public Management Results Evaluation System” SINERGIA), Kostaryce (“National Evaluation System” SINE) oraz Urugwaju (“Results-Based Management Evaluation System” SEV). Dwa różne systemy działają m.in. w Chile
(“Management Control System” MCS i “Governmental Programming Monitoring System”
SSPG). Trzy systemy funkcjonują w Argentynie ( “Physical and Financial Monitoring System” PFMS Państwowego Biura Budżetu; “System of Information, Monitoring and Evaluation of Social Programs” SIEMPRO oraz “Results-Based Management System” RBMS).
Zazwyczaj każdy system jest wdrażany za pomocą jednej ustawy (jak w Stanach Zjednoczonych) lub pakietu praw oraz jest utrzymywany przez różne instytucje, lepiej lub gorzej koordynujące ze sobą swoje zadania. Z reguły podstawowe elementy oceny są określane przez instytucję odpowiedzialne za system. Instytucje te odpowiadają też za rozwój metodologii oraz za określenie wskaźników i celów systemu. Menedżerowie ocenianych polityk, programów i instytucji dostarczają potrzebnych informacji, mając przy tym
mniejszy lub większy wpływ na określenie celów i wskaźników, wg których są oceniani.
Monitoring i ewaluacje z reguły zleca się na zewnątrz na drodze przetargu. Końcowym
rezultatem oceny są raporty, najczęściej upubliczniane, także poprzez konferencje prasowe i przez media [Zaltsman 2005].
Jeśli chodzi o zasady i standardy ewaluacji badań, trzeba wspomnieć o austriackich
Standardach Ewaluacji Polityki Badawczej i Technologicznej, brytyjskich Praktycznych
Wytycznych Ewaluacji, duńskich Wytycznych Ewaluacji Badań, holenderskich Standar152
dowym Protokole Ewaluacji, japońskich Krajowych Wytycznych Odnośnie do Metody Oceny Rządowego B+R, niemieckich Zadaniach, Kryteriach i Procedurach Komitetu Oceniającego
Rady Nauki, unijnych Standardach i Dobrych Praktykach Ewaluacji, oraz o Wytycznych co
do Dobrych Praktyk Ewaluacji OECD.
Niezależnie od samych instytucji, ewaluacji instytucji naukowych dokonują specjalne
agencje ds. ewaluacji badań, np. włoska Agencja Ewaluacji Badań (ANVUR) lub francuska Agencja Ewaluacji Badań i Szkolnictwa Wyższego (AERES), rady ds. badań, a także
ogólne agencje ds. audytu i ewaluacji, jak hiszpańska Krajowa Agencja Ewaluacji,
szwedzkie organy: Krajowy Urząd ds. Audytu, Szwedzka Agencja Publicznego Zarządzania, amerykańskie urzędy Biuro Zarządzania i Budżetu (Office of Management and Budget OMB) i Rządowy Urząd Rozliczania (Government Accountability Office GAO).
Najczęściej ośrodkami nie tylko rozwoju metod krajowych ewaluacji interwencji publicznych, ale także jej standaryzacji, edukacji i upowszechniania były i są narodowe organa rządowe i parlamentarne, Unia Europejska, organizacje międzynarodowe, takie jak
Bank Światowy (zespół Evaluation Capacity Development (ECD)), UNDP, UNIDO i OECD
oraz think tanki działające w porozumieniu z agencjami finansującymi badania, jak holenderski sci_Quest. Np. brytyjski system ROAMEF (Rationale, Objectives, Appraisal,
Monitoring, Evaluation and Feedback) został ogłoszony przez Brytyjskie Ministerstwo
Skarbu (The Green Book. Appraisal and Evaluation in Central Government, HM Treasury,
London 2003). W działał Japonii Komitet Wytycznych Ewaluacji Badań pod egidą Rady
ds. Badań i Technologii (1988), we Francji – Parlamentarne Biuro Ewaluacji Wyborów
Naukowych i Technologicznych (1991),w Wielkiej Brytanii – Krajowe Biuro Audytu oraz
Ministerstwo Handlu i Przemysłu (1997).
Istnieje wiele podręczników ewaluacji badań i polityki naukowej:
•
•
IPTS RTD evaluation toolbox 2002
Hanne Foss Hansen, Research Evaluation: Methods, Practice, and Experience, Danish Agency for Science, Technology and Development, 2009
Wzorowe praktyki, to m.in. OECD Framework For Monitoring And Impact Analysis: – Case
Tekes, Finland, 2008, OECD Evaluation Of Scientific Research, Selected Experiences 1997,
RAND Europe Historical reflection on research evaluation studies, their recurrent themes
and challenges 2009.
W popularyzacji i standaryzacji ewaluacji badań naukowych w Austrii wielką rolę odegrała Platforma Ewaluacji Polityki Badawczej i Technologicznej, zainicjowana jako nieformalny zespół w roku 1996 oraz zinstytucjonalizowana w roku 2006, a w Niderlandach zespół sci_Quest, działający początkowo jako nieformalny zespół na Uniwersytecie
Amsterdamskim, a następnie jako niezależna instytucja od roku 1995.
W Polsce kluczową rolę w adaptacji i rozwoju metod ewaluacji odgrywa Ministerstwo
Rozwoju Regionalnego (MRR) oraz Polska Agencja Rozwoju Przedsiębiorczości (PARP).
Por. strony [MRR] i [PARP]
153
Europeizacja ewaluacji. Jakob Edler i Stefan Kuhlmann zgłosili propozycję europejskiej
“izby obrachunkowej” ewaluacji (clearing house). Wg ich propozycji izba mogłaby świadczyć usługi w zakresie gromadzenia, przetwarzania i przekazywania danych na temat wkładów, produktów, efektów i struktur badań naukowych w instytucjach finansowanych ze środków publicznych w Europie [Edler 2006]. „Izba” ta byłaby przejawem dostrzeganej europeizacji ewaluacji badań (Meulen 2004].
Nowym zjawiskiem w krajach UE są wspólne ponad-narodowe ewaluacje. Mają one kilka
form.
Pierwsza grupa dotyczy ewaluacji na poziomie europejskim badań finansowanych w ramach
Programów Ramowych UE.
Druga grupa to ewaluacje krajowych systemów B+R przeprowadzane przez ekspertów z
innych krajów. Por. >EWALUACJA KRAJOWEGO SYSTEMU BADAŃ I INNOWACJI.
Trzecia grupa to ewaluacje regionalne, przeprowadzane w ramach Nordyckiej Rady Badawczej programów finansowanych przez tą Radę.
Czwarta grupa to współpraca międzynarodowa w ocenie wpływu udziału krajów w Programach Ramowych.
Większość krajów ujawnia procedury i wyniki ewaluacji służącej określeniu poziomu finansowania instytucjonalnego (a także innych typów ewaluacji nauki i innowacji)
[OECD 2010].
W wielu krajach ewaluacje finansowania instytucjonalnego (zob. >EWALUACJA INSTYTUCJI PUBLICZNEGO SEKTORA NAUKI OPARTA NA POMIARZE DOKONAŃ) są wplecione
w system wielu typów ewaluacji (np. ewaluacji programów i instrumentów, ustaw, ministerstw i agencji, dyscyplin naukowych, badaczy itd.), przeprowadzanych na ogół
przez zawodowych i doświadczonych ewaluatorów w warunkach rozwiniętej kultury
ewaluacji, a wyniki tych ewaluacji są wykorzystywane w procesie decyzyjnym (np. w
ustalaniu priorytetów) [OECD 2010; OECD 2003; Steen 2008]. Do tych innych, uzupełniających form oceny należą też np. raporty wskaźnikowe oraz rankingi uczelni, mające
wpływ na poziom finansowania lub mające tylko znaczenie informacji zarządczej (np. w
Niemczech, Niderlandach i Australii).
Podobnie jak szybki wzrost liczby polityk programów i instrumentów powoduje konieczność ich koordynacji, tak i wzrost liczby różnego typu ewaluacji pociąga za sobą potrzebę ich harmonizacji. Problem ten dostrzeżono m.in. w Australii. „Różne kanały finansowania badań mogą powodować wewnętrzne napięcia, gdy brak pomiędzy nimi koordynacji. Np. w Australii dostrzeżono możliwość napięć w finansowaniu badań przez różne strumienie (dotacje blokowe, środki na projekty), różne resorty, a nawet różne
szczeble zarządzania (federalny, stanowy i terytorialny)”. „Jako narzędzia regulujące
działalność badawczą i sterujące instytucjami badawczymi, systemy finansowania oparte na dokonaniach istnieją obok (a w sytuacji idealnej uzupełniają) inne instrumenty polityki w obrębie kraju, szkolnictwa wyższego i badań naukowych. Czasem te inne in154
strumenty mogą w praktyce działać przeciwko celom finansowania opartego na dokonaniach. W Niemczech inicjatywy państwa na rzecz restrukturyzacji szkół wyższych
przez ich łączenie lub zamykanie postrzega się jako zamach na autonomię uniwersytecką, a z kolei wzmocnienie autonomii i odpowiedzialności instytucjonalnej były
głównymi celami postawionymi przed finansowaniem opartym na wynikach w niemieckich landach” [OECD 2010].
Istnieją tylko szczątkowe informacje na temat wydatków na ewaluacje:
Kraj
Programy, obszary, instytucje
Estonia
Finansowanie B+R sektora publicznego
Łotwa
Rada Nauki
Niemcy
Program "Research bonus"
Niemcy
Program EXIST III
Norwegia
Norweska Rada Badawcza
Słowenia
Słoweńska Agencja Badawcza
Szwajcaria
Narodowa Fundacja Nauki
Szwajcaria
Uniwersytety
Szwajcaria
Organizacje badawcze
Szwajcaria
Wsparcie Działalności Innowacyjnej
Wielka
Departament
Innowacji,
Uczelni
Brytania
Umiejętności
Włochy
Region Emilia Romagna RTD and innov.
European RTD Evaluation 2008
Szacunki %
wydatków na
B+R przeznaczonych na
ewaluacje
0,16%
&
2,8%
0.4%
1.5%
n/a
>0,1%
0,2%
0,5%
1%
6%
0,05 -0,5%
Szacunki wielkości wydatków na
B+R przeznaczonych na ewaluacje
100 000 EUR na
rok
0,23 milion euro
x
x
10,1 milion Euro
>155000 euro
5,9 milion euro
11,4 milion euro
1,1 milion euro
31,9 milion euro
x
~0,4%
x
Bibliografia
Ariel Zaltsman, Evaluation Capacity Development. Experience with Institutionalizing Monitoring and Evaluation Systems In Five Latin American Countries: Argentina, Chile, Colombia, Costa Rica and Uruguay, Independent Evaluation Group The World Bank, May 2005.
Barend van der Meulen, National research evaluation systems and ERA, 2004.
Benedetto Lepori, Conceptualising Public Funding, DSTI/EAS/STP/ NESTI(2008)26; Governance of Public
Research. Toward Better Practices, OECD 2003.
Best Practice Guidelines For Evaluation, OECD 1998.
Dimitris Sotiriou, Current practice and guidelines in France, Italy and Greece, and in international organizations w: Evaluation of Research and Development. Current Practice and Guidelines. Synthesis report, 1991;
Erawatch
European RTD Evaluation Network, Joint research evaluations – European experience, 2008.
Hanne Foss Hansen, Research Evaluation: Methods, Practice, and Experience Research: Analysis and Evaluation Danish Agency for Science, Technology and Innovation, 1/2009.
Jakob Edler, Stefan Kuhlmann in co-operation with Sybille Hinze and Mark Beatson, Data Clearing House
for Research Evaluation and Monitoring. Opportunities, Hindrances and Suggestions for Further Developments, Background Paper for the RTD Evaluation Network Meeting, Helsinki 20 September 2006.
Jan van Steen, GBOARD: Can we do more with it? Analysis of 30 years of public funding in the Netherlands,
DSTI/EAS/STP/NESTI(2008)25;
155
Laurence Esterle, Comparing and evaluating public research organisations: a unique, participatory mechanism in place in France, “Research Evaluation” 2005 vol. 14 no. 2.
Liv Langfeldt, Decision-making in expert panels evaluating research. Constraints, processes and bias, NIFU
Oslo 2002.
MRR https://www.ewaluacja.gov.pl/Strony/glowna.aspx
OECD Sarah Box, Ester Basri, Performance-Based Funding for Public Research in Tertiary Education Institutions: Country Experiences. Summary of country questionnaire responses, 2010.
Papponetti, Valeria and Bucchi, Massimiano, Research Evaluation as a Policy Design Tool: Mapping Approaches across a Set of Case Studies, Fondazione Eni Enrico Mattei Working Papers. Paper 136 July 2007.
PARP http://www.parp.gov.pl/index/index/110
Technopolis, International review of methods to measure relative effectiveness of technology policy instruments 2001.
EWALUACJA KRAJOWEGO SYSTEMU BADAŃ I INNOWACJI
Ewaluacja krajowego systemu badań i innowacji (lub systemu badań i innowacji oraz
polityki naukowej i innowacyjnej) przeprowadzana przez zagranicznych ekspertów z
ramienia przez OECD, Unii Europejskiej lub firm konsultingowych w porozumieniu i na
zaproszenie ministerstwa ds. nauki (i/lub innowacji) ma na celu dokonanie zewnętrznej
bezstronnej oceny przez wybitnych naukowców lub administratorów nauki nie uwikłanych w krajową walkę interesów. Raporty noszą zwykle w tytule słowa i zwroty
„Reviews”, „Peer review”, „Policy Mix”. Podobnie jak jednej z form ewaluacji instytucji
naukowej, ewaluacja zewnętrznych ekspertów ma charakter „wizyty terenowej” składającej się z wielu spotkań i rozmów z miejscowym środowiskiem naukowym i/lub innowacyjnym. Często wizytację poprzedza przygotowanie przez zamawiającego raportu
naświetlającego stan i problemy będące przedmiotem ewaluacji. Raport wstępny ułatwia zaplanowanie programu wizyty. Zwykle ministerstwo zamawia raport gdy zamierza dokonać istotnych zmian w systemie badań i/lub innowacji. Raport końcowy ułatwia
ich przeprowadzenie.
Najbardziej znane są serie:
•
•
OECD
EU (CREST, ERAC, UNU-MERIT, Trendchart, Erawatch).
OECD. Raporty zostały zapoczątkowane w roku 1963 przez serię OECD Country reports
on the organisation of scientific research, poświęconą krajom członkowskim organizacji.
Od lat 1970. Zastąpiła ją seria OECD Reviews of National Science Policy. W przeciwieństwie do pierwszej serii, opis systemu i polityki (przygotowany przez przedstawicieli
ocenianego kraju) łączyła ona z raportem egzaminatorów, przedstawiającym wnioski i
zalecenia. Od połowy lat 1980. seria zmieniła nazwę na OECD Reviews of national science
and technology Policy. W I poł. lat 1990. nazwę uzupełniono o jeszcze jeden człon: OECD
Science, technology and innovation policies (choć nadal ukazywały się raporty z poprzednim tytułem, np. OECD Reviews of national science and technology policy: Poland, 1996).
Łącznie w latach 1963-1996 ogłoszono drukiem 38 przeglądów. Po dziesięcioletniej
156
przerwie od poł. I dekady XXI wieku raporty noszą z reguły tytuł OECD Reviews of innovation policy (najczęściej) lub Peer review of the policy mix for innovation względnie
Policy Mix for innovation (np. OECD Peer review of the policy mix for innovation in Poland
2006), przy czym obejmują zarówno problematykę B+R, jak i innowacji: główną osią
koncepcyjną przeglądów jest >KRAJOWY SYSTEM INNOWACJI.
Celem ostatniej edycji raportów OECD jest całościowa analiza krajowego systemu innowacji, z naciskiem na rolę polityki publicznej. Podstawowe elementy przeglądu to:
•
•
•
•
•
•
•
•
•
Innowacje i wyniki gospodarcze
warunki ramowe dla innowacji (stabilność makroekonomiczna, ramy prawne,
konkurencja itp.)
Międzynarodowa analiza porównawcza innowacyjności
Wspieranie działań w zakresie badań i rozwoju oraz innowacji
Rola uniwersytetów i publicznymi organizacjami badawczymi – powiązania uniwersytetów i gospodarki
Umiędzynarodowienie B+R
Zasoby ludzkie dla nauki i techniki
Infrastruktury wiedzy
Zarządzanie w systemie innowacji, policy mix, ewaluacje.
Przegląd jest zaprojektowany tak, aby przyczynić się do
•
•
•
•
•
•
•
•
rozwoju świadomość innowacji
rozwoju agendy polityki innowacyjnej
poprawy integracji polityki N+T+I w polityce gospodarczej
pobudzenia dialogu między głównymi zainteresowanymi stronami
rozpoznania barier ograniczających poprawę stanu innowacji
pomocy w lepszej koordynacji polityki
poprawy rozwiązań instytucjonalnych oraz mechanizmów zarządzania
optymalizacji Policy Mix oraz projektowania i realizacji poszczególnych instrumentów polityki
Standardowa procedura przeglądu obejmuje następujące fazy:
• porozumienie w sprawie zakresu zadań między OECD i Ministerstwem
• raport wstępny (zazwyczaj przygotowany przez ekspertów krajowych)
• misja zespołu ekspertów OECD; wywiady z głównymi zainteresowanymi stronami w
krajowym systemie innowacji
• zespół OECD przygotowuje projekt sprawozdania, w tym ogólną ocenę i zalecenia
• konsultacje z krajowymi ekspertami
• przesłanie raportu do Komitetu OECD ds. Polityki Naukowej i Technologicznej (CSTP)
Grupy Roboczej ds. Polityki Technologicznej i Innowacyjnej (TIP)
• publikacja raportu końcowego pozostawiona w gestii Sekretarza Generalnego OECD
• wnioski i zalecenia przeglądu prezentowane na jednym lub więcej konferencji w ocenianym kraju.
Zazwyczaj całość powstaje w ciągu 12 miesięcy [Goldstein].
157
W ostatnich latach OECD publikuje także raporty ewaluacyjne dotyczące polityki regionalnej.
Pomocą w ewaluacji systemów i Polityk B+R i innowacji są też wydawnictwa OECD
Science, Technology and Industry Outlook oraz OECD Science, Technology and Industry
Scoreboard, ukazujące się od II poł. lat 1990.
Science, Technology and Industry Outlook gromadzi następujące informacje:
SEKCJA A. ZARZĄDZANIE POLITYKĄ INNOWACYJNĄ
Krajowa strategia lub plan N+T+I
Zarządzanie krajową polityką N+T+I
Praktyki ewaluacji
SEKCJA B. UNIWERSYTETY I BADANIA PUBLICZNE
Reforma badań publicznych
Finansowanie badań publicznych
Publiczna infrastruktura badawcza
Badania multidyscyplinarne
SEKCJA C. INNOWACJE W FIRMACH
Policy mix dla innowacji w biznesie
Finansowanie innowacji w biznesie
Nie-finansowe wsparcie dla B+R w biznesie i innowacji
Pobudzanie popytu na innowacje
Sektorowe i technologiczne programy ukierunkowane na innowacje w biznesie
Innowacyjna przedsiębiorczość
SEKCJA D. SIECI, KLASTRY I TRANSFERY
Innowacyjne sieci i klastry
Prawa własności intelektualnej
Transfer technologii i dyfuzja
SEKCJA E. MIĘDZYNARODOWE POWĄZANIA W N+T+I
Ponad-narodowe zarządzanie N+T+I
Umiędzynarodowienie uniwersytetów i poza-uczelnianych publicznych instytutów badawczych
Umiędzynarodowienie firm
Międzynarodowa mobilność zasobów ludzkich
SEKCJA F. ZASOBY LUDZKIE
Edukacja dla innowacji
Wykorzystywanie innowacyjnych umiejętności
Kultura innowacyjna
158
SEKCJA G. NOWE WYZWANIA
Wyzwania w zakresie ochrony środowiska
Wyzwania społeczne
Wyłaniające się pola badań
CREST/ERAC. Inne serie raportów opartych na ocenie zagranicznych raportów wprowadził CREST. Komitet CREST (ang. Scientific and Technical Research Committee) – Komitet Badań Naukowo-Technicznych, organ doradczy wspomagający zarówno Radę Unii
Europejskiej, jak też Komisję Europejską we wszystkich sprawach dotyczących polityki
UE w dziedzinie badań i rozwoju technicznego. Komitet Działał w latach 1974-2000. Do
jego zadań należało m.in. dokonywanie ocen krajowych systemów badań i technologii w
ramach >Otwartej Metody Koordynacji oraz 3% Action Plan. CREST przeprowadził ewaluacje w ramach czterech cykli: I (2004), II (2006), III (2007), IV (2008).
Raporty i niektóre zadania CREST zostały podjęte przez ERAC (Komisję Europejskiej
Przestrzeni Badawczej), powołany w 2010. ERAC jest, podobnie jak CREST, organem doradczym wspierającym politykę Rady Unii Europejskiej i Komisji Europejskiej w dziedzinie badań, innowacji i rozwoju technologicznego. Główną misją ERAC jest zapewnienie wkładu strategicznego w sprawach badań i innowacji istotnych dla rozwoju ERA.
ERAC publikuje raporty ewaluacyjne od 2010 r.
EU/UNU-MERIT. W latach 2006-2009 na zlecenie Komisji Unii Europejskiej instytut
UNU-MERIT w Maastrich realizował projekt badawczo-ewaluacyjny mający na celu zarówno pogłębienie rozumienia problematyki >Policy Mix w dziedzinie B+R, jak i przeprowadzenie oceny „mieszanek polityki” naukowej w niektórych krajach członkowskich.
W ramach projektu opublikowano wiele raportów metodologicznych, problemowych i
ewaluacyjnych, m.in. UNU-Merit Policy Mixes for R&D in Europe 2009 oraz UNU-Merit
Monitoring and analysis of policies conducive to higher levels of R&D. Country Review Poland 2007.
Coroczne raporty dotyczące polityki naukowej i innowacyjnej publikowano w ramach
serwisów informacyjnych Komisji UE Inno-Policy Trendchart i Erawatch (połączonych
w roku 2011).
Inne ewaluacje. Ministerstwa ds. nauki i innowacji zlecają nieraz sporządzenie raportów niezależne od Unii Europejskiej i organizacji międzynarodowych – przez konsorcja
firm konsultingowych i instytutów naukowych, np. Evaluation of Government Funding in
RTDI from a Systems Perspective in Austria (2009) lub Evaluation of the Finnish National
Innovation System – Full Report (2009). Łotwa zleciła trzy różne ewaluacje całego krajowego systemu B+R: 1992 – Ocena łotewskiego systemu badań i rozwoju technologicznego (Duńska Rada ds. Badań Naukowych); 1997 – Analiza struktury zarządzania systemu
B+R („Coopers & Lybrand”) oraz 2002 – Ocena stanu gospodarki opartej na wiedzy na
Łotwie (Bank Światowy) [European RTD 2008]. M.in. Estońskie Ministerstwa Gospodarki i Komunikacji zamówiło w roku 2005 raport "Ewaluacja projektu i realizacji estońskiej polityki badań, rozwoju technologii i innowacji: implikacje dla planowania polityki”. Ogólny cel raportu to: „Ocena adekwatności celów strategicznych polityki N+T+I
159
oraz działań podjętych przez Estonię w obliczu najpilniejszych wyzwań stojących przed
Estonią oraz w kontekście strategicznych kierunków rozwoju w krajach UE”; zapewnienie krytycznego wkładu do dokumentów programowych na lata 2007-2013. Cele szczegółowe opracowania to:
•
•
•
Ocena adekwatności i skuteczności koncepcji i instrumentów bieżącej polityki N+T+I;
Propozycja opracowania strategii N+T+I na lata 2007-2013
Ocena budżetu polityki N+T+I i jej rocznego podziału w latach 2007-2013
Podstawowe metody to analiza dokumentów, analiza statystyk oraz rozmowy z kluczowymi interesariuszami [Technopolis 2005].
Meta-ewaluacje. Meta-ewaluacje starają się ogarnąć wszystkie metody stosowane w
ewaluacjach systemów i ustalenia, do jakich doszły. Np. meta-ewaluacja przeprowadzona przez ISI Fraunhofer [2009] starała się odpowiedzieć m.in. na następujące pytania:
•
•
•
Jak wyglądają krajowe systemy innowacji w wybranych krajach? Kto jest w nich głównym aktorem? Jak są rządzone? W jaki sposób rządy starają się wpływać lub sterować
nimi?
Czy istnieją krajowe strategie innowacji? Jakie są cele, a jakie zadania strategii innowacji
w tych krajach? Jak ocenia się adekwatność celów i zadań oraz funkcjonowanie, wydajność lub skuteczność strategii innowacji oraz samych krajowych systemów innowacji?
Jeśli krajowe strategie innowacji istnieją, kto je rozwija i kto wywiera wpływ w procesie
ich budowy? Czy ministerstwa i ich agencje prowadzą polityki zgodne z tymi strategiami?
Kto przeprowadza ewaluacje na czterech poziomach – strategicznym, rządowym (ministerialnym), agencji oraz programów i instrumentów? Jakie stosuje się metody podczas
tych ewaluacji? Jaka jest ich częstotliwość? Kto je przeprowadza? Dla kogo? Czego one
dotyczą? Jakie są ich polityczne następstwa – reakcje rządu? Czy prowadzą one do restrukturyzacji systemów innowacji? Jakie reakcje wywołują działania rządu wynikające z
ustaleń ewaluacji?
Bibliografia
Andrea Goldstein, OECD Reviews of Innovation Policy
European RTD Evaluation Network, Joint research evaluations – European experience, 2008.
Gang Zhang, OECD country reviews of national innovation system- An introduction,
The Scientific And Technical Research Committee (CREST). Its Origin, Role And Function, 1975.
Technopolis, Evaluation of the design and implementation of Estonian RTDI policy: implications for policy
planning, Final Report, December 2005.
Fraunhofer ISI, Joachim Hemer, Elisabeth Baier, Análisis nacional e internacional de evaluaciones de Sistemas Nacionales de Innovación, Consejo Nacional de Innovación para la Competitividad (CNIC) de Chile,
2009.
160
OCENA WPŁYWU BADAŃ
Ocena wpływu badań (ang. Research Impact Assessment) ma na celu pomiar efektów realizacji wcześniej postawionych celów polityki naukowej, jej programów i instrumentów
(ocena ex post) lub też ustalenie kto, gdzie i ile powinien inwestować w badania naukowe, a także przewidywanie, co społeczeństwo dostanie w zamian (ocena ex ante). Celem oceny wpływu jest określenie zarówno efektów ekonomicznych inwestycji publicznych w badania i rozwój, jak również skutków społecznych (np. poprawy stanu zdrowia
społeczeństwa) i środowiskowych [Cervantes 2009].
Ocena Wpływu może mieć dwie formy:
•
•
Ocena Wpływu ex ante polega na analizie prospektywnej, jaki może być wpływ interwencji.
Ocena Wpływu ex post ma na celu zrozumienie, w jakim stopniu i w jaki sposób interwencja polityki rozwiązuje problem którym zamierzano się zająć [OECD 2014].
Ocena ex ante i ocena ex post powinny być ze sobą zharmonizowane w ramach >CYKLU
POLITYKI; ocena ex ante powinna być punktem wyjścia dla oceny ex post [Optimising
2011].
Głównym celem analizy wpływu jest wspieranie rozwoju polityki. Wybór technik stosowanych należy zatem od potrzeb politycznych, a nie od realizacji jakichś „najlepszych
praktyk metodologicznych”. Dobrą praktyką w zakresie oceny jest wykorzystywanie
wielu metod. Pojedyncze podejścia wydają się być zawodne; wykorzystywanie wielu
metod to dobry sposób na zwiększenie zaufania do wiarygodności wyników [OECD
2014].
Relacje pomiędzy oceną wpływu badań a >EWALUACJĄ POLITYKI NAUKOWEJ I INNOWACYJNEJ, jej programów i instrumentów są różnie ujmowane; dla niektórych ocena
wpływu jest częścią ewaluacji, inni traktują oba terminy zamiennie. Nie zawsze da się
jednoznaczne odróżnić Ocenę Wpływu Badań od innych ewaluacji, szczególnie ewaluacji
określanej jako „ocena zwrotu” (ang. payback assessment) [Aymerich 2012]. Głównym
celem ewaluacji jest wspieranie i wzmacnianie jakości badań; Oceny Wpływu mają szerszy cel: uzyskanie gruntownej wiedzy o związku między działaniami i efektami [ESF
2012]. Wg jednego z ujęć Ocena Wpływu Badań rozwinęła się ze wcześniejszej ewaluacji
ex post, wzbogacając ją o interaktywny proces uczenia się ukierunkowany na budowanie
długofalowych strategii, ustalanie priorytetów i projektowanie programów badań
[OECD 2007]. Podkreśla się też, że Ocena Wpływu koncentruje się na skutkach interwencji, podczas gdy ewaluacja może obejmować szerszy zakres zagadnień, takich jak
stosowność projektu interwencyjnego, koszty i efektywności interwencji czy też jego
niezamierzone następstwa, a także kwestię, jak wykorzystać doświadczenia z interwencji dla poprawy przyszłych działań [OECD 2014].
Ocenę wpływu przeprowadza się na poziomie krajów, ale także programów i instrumentów, agencji finansujących B+R [por. MRC 2011], dziedzin nauki (np. nauk medycznych i
rolniczych) oraz uczelni. Metody Oceny Wpływu stosuje się m.in. w trakcie >OCENY
SKUTKÓW REGULACJI (and. Regulatory Impact Assessment), gdzie służą ulepszeniu >IN161
STRUMENTÓW POLITYKI i decyzji budżetowych [OECD 2001], oraz w ocenie >POLICY
MIX, portfela programów i instrumentów rządowych [Optimising 2011].
Wpływ publicznego B+R na społeczeństwo i gospodarkę stał się przedmiotem wzmożonego zainteresowania polityków od poł. lat 1990.. Rządy coraz usilniej starają się ustalić,
ile powinny inwestować w B+R, w co inwestować i co społeczeństwo otrzymuje w zamian. Analiza wpływu pomaga w określeniu zarówno efektów ekonomicznych inwestycji publicznych w B+R, takich jak wkład we wzrost gospodarczy, jak i skutków społecznych, takich jak poprawa stanu zdrowia społeczeństwa. Co więcej, w coraz większym
stopniu decydenci chcą aby inwestycje publiczne w B+R odpowiadały na globalne wyzwania, takie jak energia, bezpieczeństwo i zmiany klimatu [OECD 2008]. Temu zapotrzebowaniu odpowiada rozwój ewaluacji od pomiaru wkładu do pomiaru „produktu”,
„efektu” i „wpływu” inwestycji publicznych, co wynika zarówno z przenikania idei tzw.
nowego zarządzania publicznego, jak i przemian praktyk w działalności badawczej, innowacyjnej i gospodarczej (wzrost rynkowego ukierunkowania badań i nasilenie powiązań nauki z gospodarką oraz sferą publiczną i społeczną, m.in. wskutek wpływu ICT).
Szczególna potrzeba, a zarazem trudność w przeprowadzaniu Oceny Wpływu bierze się
z faktu, że w wielu krajach wzrasta liczba instrumentów polityki naukowej i innowacyjnej, sięgając ponad sto. Często rządy korzystają z kilku instrumentów aby osiągnąć jeden cel lub tworzą jeden instrument dla realizacji wielu celów, takich jak promowanie
doskonałości badań, pobudzanie B+R biznesu lub wspieranie transferu technologii i komercjalizacji badań. Ponieważ poszczególne instrumenty często mają wiele celów, a wiele instrumentów służy osiągnięciu różnorodnych celów, zakres potencjalnych interakcji
pomiędzy wszystkimi tymi instrumentami jest ogromny, a ich wpływ na ogólny wpływ
polityki niełatwy do ustalenia [OECD CSTP 2014].
Pomiar wpływu badań uznaje się za trudny, zwłaszcza w odniesieniu do wykazania
przyczynowości. Podkreśla się, że wybór metody oceny powinien zależeć od kontekstu.
Aby pomiar miał silniejsze podstawy empiryczne, zaleca się systematyczne gromadzenie
informacji o produktach, efektach i oddziaływaniach w bazach danych, takich jak amerykańska STAR METRICS, brytyjski Research Outcomes System lub brazylijska Lattes Platform. Por. >BAZY DANYCH O PRODUKTACH, EFEKTACH I WPŁYWIE BADAŃ. Większość
Ocen Wpływu polityk naukowych i innowacyjnych szeroko wykorzystuje metody badań
jakościowych, w tym ankietowanie beneficjentów i studia przypadków. W części wynika
to z braku alternatyw, ale także z wymagań polityków szybkiego dostarczania informacji, zanim efekty polityk staną się w jakikolwiek sposób mierzalne [OECD 2014].
Ocena wpływu (ang. Impact Assessment), także unijnej polityki naukowej, wpisana jest w
procedury Unii Europejskiej. Unijna Ocena Wpływu składa się z trzech głównych faz,
którym zwykle towarzyszą konsultacje z zainteresowanymi stronami [von Raggamby
2010]. Procedury Oceny Wpływu unijnego Programu Ramowego Badań i Innowacji „Horyzont 2020” (2014-2020) opisują dokumenty unijne [EC 2011; EC 2005; EC 2009].
Ocena wpływu badań jest najpowszechniej stosowana w krajach anglosaskich, przede
wszystkim w Wielkiej Brytanii, oraz w krajach nordyckich [Smart 2009; Framework
162
2008]. Obserwuje się także wzmożone zainteresowanie Oceną w krajach romańskich
(Włochy, Francja, Hiszpania) w Belgii i Holandii oraz w krajach latynoamerykańskich
(Brazylia). W Ocenie Wpływu Badań finansowanych ze źródeł publicznych przeważają
analizy następujących rodzajów wpływów:
Wpływ
% analiz
Technologiczny
24%
Gospodarczy
86%
Społeczny (wliczając wpływ na środowisko)
29%
Delanghe 2013
W krajach unijnych stosuje się następujące metody Oceny Wpływu:
Metody zbierania danych
Metody analizy danych
Istniejące badania ankietowe i bazy
danych
67%
Analiza studiów przypadku
48%
Badania ankietowe uczestników
62%
Statystyka opisowa
48%
Wywiady
52%
Analizy ekonometryczne
38%
Badania dokumentacji
24%
Analiza dokumentów
38%
Dane z monitoringu
19%
Analiza wkładu / rezultatu
29%
Badania bibliometryczne i technometryczne
19%
Podejście kontr-faktyczne
24%
Grupy fokusowe, warsztaty, spotkania
19%
Metoda kosztów i korzyści
24%
Badania ankietowe nie-uczestników
14%
Analiza kontekstu
19%
Inne metody
10%
Podejście grupy kontrolnej
19%
Panele ekspertów
10%
Porównanie “przed – po”
10%
Delanghe 2013
W Ocenie Wpływu biorą udział następujące grupy:
Urzędnicy
95%
Zarządzający programem
48%
Analitycy polityki
48%
Beneficjenci
43%
Politycy
43%
Potencjalni użytkownicy interwencji
33%
Audytorzy – władze finansowe
14%
Obywatele
14%
Krajowi lub międzynarodowi spon sorzy programu
10%
Delanghe 2013
163
Dokument unijny podkreśla zwiększone zainteresowanie w Europie Oceną Wpływu Badań (OWB) w kształtowaniu polityki naukowej i innowacyjnej, choć często w trybie adhoc. Wg opinii tego dokumentu stosuje się różne podejścia do OWB; niewielką wagę
przywiązuje się do szerszej społecznej analizy wpływu B+R i innowacji finansowanych
ze źródeł publicznych, chociaż polityka ta coraz bardziej stara się odpowiedzieć na wielkie wyzwania społeczne, co wynika głównie z braku odpowiednich danych i wskaźników. Także niewielką wagę przywiązuje się do zagadnienia dodatkowości; cykl tworzenia polityki rzadko uwzględnia ustalenia OWB; ponadto, zbyt mało uwagi poświęca się
wkładowi OWB w zapewnienie efektywności realizacji polityk. Mniej niż 50% badań
OWB wymaganych przez rządowe agencje angażuje na wczesnym etapie decydentów
i/lub menedżerów programu. Istnieje potrzeba dalszej harmonizacji koncepcyjnej i
praktycznej OWB, przy jednoczesnym poszanowaniem zasady uwzględniania kontekstu.
Ocenę skutków powinno się rozumieć jako otwarty proces uczenia się, wsparty o doświadczenia międzynarodowe. Powinno się szkolić polityków i urzędników w dziedzinie
OWB. Warto rozważyć utworzenie unijnej platformy wymiany doświadczeń [Optimizing
2011].
Typy wpływu. Analizy wpływu badań (B+R) opierają się na a) taksonomii sfer oddziaływania B+R, b) taksonomii wyników B+R, c) taksonomii form oddziaływania, d) metodach i technikach.
Najbardziej przemyślaną taksonomię typów sfer oddziaływania B+R zaproponowali
Godin i Doré:
1. Wpływ naukowy: badania mają wpływ na późniejsze badania dzięki rozwojowi
teorii, danych, podejść, metod, modeli, tematów i ustaleń. Mają one wpływ na
powstawanie i rozwój dyscyplin naukowych, na badania interdyscyplinarne oraz
na kształcenie. Bibliometria (oraz jej rozgałęzienia, takie jak webometria) pozwalają mierzyć skalę tego wpływu.
2. Wpływ technologiczny: nowe produkty, procesy i usługi oraz techniczny know
how są częściowo efektem badań naukowych, tych dawniejszych oraz tych prowadzonych obecnie. Badania patentowe oraz badania działalności innowacyjnej
pozwalają ocenić zakres tego wpływu.
3. Wpływ gospodarczy odnosi się do oddziaływania na sytuację budżetową firm, ich
koszty operacyjne, przychody, zyski ze sprzedaży produktów i usług; na źródła
finansowania, inwestycje i działalność produkcyjną oraz na rozwój nowych rynków; na poziomie zagregowanym odnosi się także do wpływu na wzrost gospodarczy i wzrost produktywności krajów i regionów.
4. Wpływ kulturalny odnosi się do tego, co (w krajach anglosaskich) nazywa się rozumieniem nauki przez społeczeństwo (ang. public understanding of science),
oraz – przede wszystkim – odnosi się do wpływu na cztery rodzaje wiedzy: wiedzy co, dlaczego, jak i kto. Innymi słowy, chodzi tu o wpływ na wiedzę jednostek
oraz rozumienie idei i rzeczywistości, a także wpływ na umiejętności intelektualne i praktyczne, na postawy, zainteresowania, wartości i przekonania. Źródłem
wiedzy o zakresie tego wpływu (podobnie jak i kolejnych) są przede wszystkim
badania jakościowe.
5. Wpływ społeczny: badania naukowe wpływają na dobrobyt, zachowania, praktyki i działania osób i grup, w tym na ich dobre samopoczucie i jakość życia. Doty164
czy to także zwyczajów i nawyków: konsumpcji, pracy, seksu, sportu, jedzenia.
Badania mogą też przyczynić się do zmiany poglądów społeczeństwa oraz do
unowocześnienia sposobów prowadzenia działalności gospodarczej.
6. Oddziaływanie polityczne: badania wpływają na sposób i zasady działania decydentów i polityk. Mogą one dostarczać dowodów wpływających na decyzje polityczne oraz przyczyniać się do wzrostu udziału obywateli w podejmowaniu decyzji naukowych i technologicznych. Skuteczna administracja i zarządzanie zależą
częściowo od jakości wiedzy i informacji dostępnych dla polityków i decydentów.
Niezależne badania mogą ulepszyć decyzje polityczne. Badania w takich dziedzinach jak ekonomia, prawo i nauki społeczne stanowią teoretyczne i empiryczne
podstawy dla działań ministerstw. Ponadto, badania i ekspertyzy są zasobem, do
którego rządy mogą sięgnąć aby wiedzieć jak reagować na nieprzewidziane zdarzenia.
7. Skutki organizacyjne odnoszą się do wpływu na działalność instytucji i organizacji: planowanie, organizację pracy, administrację, zasoby ludzkie, itp.
8. Wpływ na zdrowie dotyczy oddziaływania badań na zdrowie publiczne, np. na
długość życia, zapobieganie chorobom, system opieki zdrowotnej. Publiczne B+R
może przyczynić się do poprawy zdrowia publicznego poprzez stworzenie nowych metod leczenia (np. urządzeń, leków i szczepionek) lub też wnosząc wkład do wiedzy, która
wpływa na rozwój nowych metod leczenia i doradztwo w sprawach zdrowia dla rządów
i innych organizacji.
9. Wpływ na środowisko odnosi się do wpływu badań na zarządzanie środowiskiem i zasobami naturalnymi oraz na przeciwdziałanie zanieczyszczeniu, a także
na klimat i meteorologię.
10. Wpływy symboliczne dotyczą korzyści czerpanych przez uczelnie i instytuty badawcze z tytułu swojej reputacji naukowej.
11. Wpływ edukacyjny dotyczy wpływu badań naukowych na programy, narzędzia
pedagogiczne, kwalifikacje, rynek pracy, itp. [Godin 2006; OECD 2013].
Trzy pierwsze sfery oddziaływania są znane statystykom i uchwytne statystycznie, pozostałe – trudno mierzalne.
Z kolei najbardziej znaną taksonomię a wyników B+R – Salter i Ben Martin:
Wyniki B+R to:
•
•
•
•
•
•
•
•
•
wiedza skodyfikowana (publikacje, raporty techniczne, patenty, prototypy),
umiejętność stawiania i rozwiązywania problemów,
znajomość metod i technik badawczych,
nowe prototypy, produkty i usługi,
nowe firmy,
nowa aparatura, metody i techniki,
wykształceni i wyszkoleni absolwenci szkół wyższych,
sieci naukowe i zawodowe oraz przepływ informacji
wiedza społeczna, jak np. dostarczanie politykom ustaleń dla decyzji [Salter
2001, 2007].
Wyłącznie pierwszy typ wyników – a właściwie tylko publikacje i patenty – jest znany i
wykorzystywany w statystyce.
Jeśli idzie o formy wpływu, stosuje się, po pierwsze, podział na produkty (rezultaty)
wpływu, efekty i wpływy:
165
•
produkty działalności badawczo-rozwojowej (publikacje, patenty, raporty,
prototypy, produkty, procesy, usługi, standardy, cytowania, uzyskane nagrody,
widza i umiejętności).
•
efekty – produkty działalności badawczo-rozwojowej przekształcone przez
sektorze gospodarczym w nowe produkty, materiały, procesy, a w sektorze
publicznym w nowe prawa, metody nauczania, leczenia, przesyłu energii,
transportu itd.
•
wpływ – wpływ naukowy i technologiczny: nowa wiedza; kultura współpracy;
powstanie sieci; reputacja; wpływ ekonomiczny: długofalowe efekty, które
pociągnęły za sobą wzrost gospodarczy; konkurencyjność przemysłowa;
innowacje; wzrost zatrudnienia; wpływ społeczny: poprawa jakości życia, spadek
śmiertelności; rozwój społeczny; wpływ polityczny: wkład do polityk; zmiana
ustaw [EU 2002; Geisler 1996].
Koniecznym uzupełnieniem jest uwzględnienie wkładu (input).
Po drugie, proponuje się podział wpływu na następstwa:
•
•
•
instrumentalne (decyzje polityczne, oficjalne wytyczne, nowe technologie, firmy
odpryskowe)
koncepcyjne – nowe rozumienie
szerokie - dobrobyt, poprawa zdrowia, zrównoważony rozwój.
Dla oceny produktów, efektów, wpływu stosuje się
•
•
metody ilościowe (np. bibliometria; analizy patentowe; analizy ekonometryczne;
metoda kosztów i korzyści; analizy statystyczne)
metody jakościowe (np. badania ankietowe; panel ekspertów; wywiady; studia
przypadku; metoda przed-po; benchmarking [ESF 2012].
Badania bibliometryczne i patentowe pozwalają m.in. zbadać zakres powiązań pomiędzy
B+R publicznego sektora nauki a biznesem (współautorstwo instytucji naukowych i
przemysłowych, wzajemne cytowania, odwoływania się do publikacji naukowych w patentach). Niemniej cennym źródłem są cytowania do literatury naukowej w takich źródłach, jak znaki towarowe, raporty branżowe, podręczniki techniczne, media, biuletyny
itd. Dane o przepływie absolwentów oraz naukowców pomiędzy sektorem publicznym a
biznesu to kolejne ważne źródło informacji o transferze wiedzy, a zatem o wpływie B+R.
Społeczny wpływ badań można badać korzystając m.in. z pomocy OECD Better Life Index
lub The Environmental Performance Index zbudowany przez uniwersytet w Yale. Gdy
idzie o kwestie zdrowia, wskaźniki śmiertelności i przeciętnej długości dostarczają
wskazówek dotyczących wpływu B+R [OECD RIHR 2013].
Pytania i kryteria ewaluacji efektów społeczno-gospodarczych wynikają z porównania
ze sobą pewnych podstawowych elementów interwencji publicznej, takich jak potrzeba
(problem lub trudność dotykająca pewną grupę, którą interwencja stara się rozwiązać
albo przezwyciężyć), cel (objective, jasne i wyraźne wyartykułowanie zakładanych efektów), wkład (input, zasoby finansowe, ludzkie, materialne, organizacyjne i prawne mobilizowane na rzecz interwencji), produkt (output), czyli bezpośredni rezultat uzyskany
wskutek interwencji, efekt (outcome), czyli zmiana społeczno-gospodarcza lub poznaw166
cza wynikająca bezpośrednio lub pośrednio z interwencji, wpływ (impact), czyli bardziej
długofalowe następstwa interwencji [EC 1999; Pollit 2004]. Trzy elementy interwencji,
które często najtrudniej odróżnić, dotyczą produktów, efektów i wpływu działania
(outputs, outcomes, impacts).
Produkty (outputs)
Efekty (outcomes)
Wpływ (impact)
Co wytworzono dzięki podjętemu działaniu?
Jakie efekty uzyskano?
Co się wydarzyło w następstwie
działania i osiągniętego rezultatu?
Np. wyroby, takie jak np. software; narzędzia; patenty; publikacje; raporty; prototypy;
pokaz działania; konferencje i
inne formy upowszechnienia
wiedzy; kwalifikowani ludzie.
Np. zmiany w kompetencjach
firmy; zmiany w strategii firmy;
tantiemy z licencji i patentów;
zyski z inwestycji; mobilność
personelu.
Np. podniesienie poziomu produkcji branży; poprawa efektywności gospodarczej; wzrost
konkurencyjności; wzrost usług
eksportowych.
Evaluation 1995
Szczególnie trudno ustalić efekty i wpływy (outcomes i impact). Są one niezliczone, powiązane ze sobą w skomplikowany sposób, czasami niezamierzone, trudne do opisu i
pomiaru, czasami pozytywne, czasami negatywne. Subiektywizm w ich ocenie jest nieunikniony. Z powodu wszystkich tych komplikacji nie sposób określić precyzyjnie, obiektywnie czy ilościowo np. wkład gospodarczy szkolnictwa wyższego [Evaluation 1995].
Pytania i kryteria ewaluacji dotyczą relacji pomiędzy tymi podstawowymi jednostkami,
choć jak dotąd brak jednej standardowej wykładni. Np. pytanie o odpowiedniość (relevance) tłumaczy się (najczęściej) jako relację pomiędzy celami i potrzebami/problemami, pytanie o efektywność dotyczy porównania celu z efektami, pytanie
o wydajność – porównania wkładu z produktem, pytanie o użyteczność – potrzeby/problemu z wpływem itd. [Pollitt 2004].
Stopniowo coraz większą wagę wiąże się z oceną „efektów” i „wpływów” badań i działalności naukowo-technicznej (w porównaniu do oceny „produktów” B+R). A zatem,
choć takie produkty, jak artykuły w recenzowanych czasopismach, książki, materiały
konferencyjne, patenty, wzory użytkowe czy oprogramowania itd., są ważnym elementem oceny, od ponad dekady punkt ciężkości ocen przesunął się w stronę oceny efektów
i wpływów, za pomocą np. takich wskaźników jak
•
•
•
•
•
•
•
•
liczba absolwentów (licencjatu, magisterium, studiów doktoranckich),
zastosowania badań, np. w innowacjach technologicznych,
liczba zawartych kontraktów,
wskaźniki komercjalizacji (sprzedaż patentów i licencji, firmy „odpryskowe”)
wskaźniki kompetencji eksperckich, doradczych i konsultacyjnych,
mierniki wkładu (doradczego) do planowania oraz polityki – na szczeblu regionalnym, krajowym i międzynarodowym,
mierniki wkładu do powszechnej edukacji (uczenie się przez całe życie, szkolne i pozaszkolne formy kształcenia naukowego)
wskaźniki wkładu do życia kulturalnego i społecznego (m.in. współpracy lub prac na rzecz
organizacji poza-rządowych).
167
Wskaźniki stosowane w amerykańskich ewaluacjach ukierunkowanych na B+R biznesu
przedstawiają się w następujący sposób:
Kategorie
efektu
Typy skutków
Wkłady
Rezultaty
(produkty)
Efekty
Miękkie
skutki
Powiązania
Konsorcja
Nowe sieci ze
stałymi partnerami
Umowy o
współpracę
B+R
Partnerzy projektu
Wpływy (poza uczestnikami)
Prośby o
wsparcie
Kompetencje innowacyjne
Strategie komercjalizacji
Wzrost chęci i
zdolności do
poprawy wydajności
Strategie własności intelektualnej
Plany marketingowe
Skutki namacalne
Efekty dźwigniowe z innymi
funduszami
Łatwiejszy dostęp do kapitału ryzyka
Patenty i licencje
Patenty wynikłe z projektu
B+R
Finansowanie
nowych projektów
Wzrost efektywności B+R
Personel B+R
Ogólna liczba
zatrudnionych
w projekcie
Projekt korzysta ze zwiększenia wydatków na B+R
Nowe źródła
finansowania
Lepiej przeszkolony personel B+R
Liczba naukowców i
techników zatrudnionych w
projekcie
Innowacje produktowe
- Cele kosztowe
- Cele w zakresie efektywności
- Liczba nowych produktów
- Ogólna liczba
produktów
- Liczba projektów w stosunku do innowacyjnych
produktów
- Poprawa satysfakcji klien-
Wzrost liczby
personelu
Wzrost liczby
naukowców i
techników
Dyfuzja wewnątrz branży
Dyfuzja pomiędzy branżami
168
ta
Innowacje procesowe
Skutki
społecznogospodarcze
- Cele kosztowe
- Cele w zakresie efektywności
Dyfuzja wewnątrz branży
- Liczba nowych procesów
- Ogólna liczba
procesów
- Liczba projektów w stosunku do innowacyjnych
procesów
- Poprawa satysfakcji klienta
Dyfuzja
pomiędzy branżami
Sprzedaż
- Dodatkowe
sprzedaż wynikła z pracy
nad projektem
- Wejście na
nowe rynki
prywatne
- Wejście na
nowe rynki
rządowe
Nowe przedsięwzięcia biznesu
Liczba firm
odpryskowych
Wzrost
konkurencyjności
Zwrot z inwestycji firmy
Wzrost jakości
usług
Ekspansja rynkowa
Zatrudnienie
- Liczba miejsc
pracy zachowanych w projekcie
- Liczba miejsc
pracy utworzonych w
projekcie
- Liczba miejsc
pracy zachowanych w kraju
- Liczba miejsc
pracy utworzonych
w
kraju
Efekty
ska
- Firmy
uczestniczące
w projekcie
korzystające z
bardziej ekologicznych
technologii
- Czystsze
technologie
stosowane
przez inne
firmy
środowi-
Oddziaływanie
społeczne
- Przyrost lub
utrata miejsc
pracy
Wzrost z inwestycji podatnika; efekty odpryskowe
Supporting 2006
169
Ocena Wpływu jako analiza oparta na teorii. Ocena Wpływu wiąże się z ustanowieniem "teorii zmiany"lub "logiki interwencji", czyli opisu kaskady przyczyn i skutków
prowadzących od interwencji do jej pożądanych efektów. Istotą Oceny Wpływu jest
stworzenie takiego domniemanego łańcucha przyczynowości od interwencji do oddziaływania oraz dokonanie pomiaru lub opisu zmian wywołanych wzdłuż tego łańcucha.
Podejście to ma tę zaletę specyfiki i ostrości, ale także ma tendencję do ograniczenia
stwierdzonych efektów do kategorii wcześniej ustalonych, z pominięciem nieoczekiwanych następstw, w tym przewrotnych lub niepożądanych, których projektanci interwencji nie przewidzieli.
Teoria zmiany opiera się na koncepcjach teoretycznych. Np. teoria zmiany oparta na idei
systemów innowacji podkreśla rolę kontekstu oraz działań podejmowanych przez różnych interesariuszy, a podejście neoklasyczne skupia się na bodźcach i sygnałach ekonomicznych odbieranych przez indywidualne podmioty gospodarcze.
Pomimo wielu analiz powiązań badań i innowacji modele „wpływu” pozostają nadal liniowe. Idea "wpływu" ma oczywisty sens w modelu liniowym, gdzie oczekuje się, że
zmiany w badaniach mogą być przyczyną zmian w społeczeństwie. Jednak strzałka
przyczynowości może także biec w drugą stronę. Obecne teorie innowacji podkreślają nieliniowość procesu innowacji i jej zależność od otaczającego „systemu” innowacji, czyli instytucji,
podmiotów i szerszego kontekstu społecznego, w którym przebiega innowacja. Sugeruje to istnienie różnorodności mechanizmów, które łączą działalność badawczą i zmiany społeczne. Idea
"wpływu" jest więc problematyczna. Narzuca ona ideę liniowości na bardzo złożoną rzeczywistość i sugeruje, że to badania są w jakiś sposób przyczyną zmian w społeczeństwie i gospodarce, podczas gdy badania mogą być tyleż efektem co przyczyną. Głównym
problemem w analizie wpływu jest połączenie interwencji z jej efektami. Jednak interwencje przebiegają w dynamicznym środowisku. Zachodzi wiele zmian i nie zawsze jest
oczywiste, co by się stało, gdyby interwencja nie miała miejsca [OECD 2014].
Trudności oceny. Często niełatwo opisać powiązania biegnące od „wkładów” (polityk)
do „wyników” (efektów) w sposób liniowy; szczególnym wyzwaniem jest przeprowadzenie oceny ilościowej. Ekonometryczne specyfikacje przyczynowości łatwo cierpią na
problem błędnego koła, gdy zachodzi sprzężenie zwrotne zależne do zmiennej niezależnej. Jest tak np. w ocenie wpływu polityki innowacyjnej na dobrobyt, produktywność lub
wzrost PKB lub ocenie wpływu polityki naukowej na wzrost gospodarczy [OECD 2014].
Trudno jest określać i mierzyć różnego typu poza-naukowe korzyści z inwestycji B+R.
Przyczyny tego stanu wynikają z:
•
•
braku prostej przekładni nauka - technika – ekonomia oraz nauka – technika społeczeństwo; droga od odkrycia naukowego do innowacji rynkowej jest złożona i składa się z wielu faz, z których tylko jedną tworzą B+R;
faktu, że efekty bezpośrednie współwystępują z reguły z pośrednimi, a mierzalne - z niemierzalnymi (np. pośrednim efektem badań kosmicznych jest
rozwój nowych materiałów, a pośrednim efektem badań w dziedzinie farmacji - wzrost zdrowotności społeczeństwa);
170
•
•
•
•
faktu, że efekty finansowe innowacji zależą od wielu czynników ubocznych, nie
związanych z B+R, jak wielkość i struktura gospodarki, stopień specjalizacji naukowej i gospodarczej, poziom technologiczny kraju, stan infrastruktury bankowej i handlowej, charakter i wielkość rynku, ukształtowanie cen, wysokość
stopy procentowej, poziom wykształcenia społeczeństwa, rozwój przedsiębiorczości itd.;
faktu, że konkretna innowacja nigdy nie polega na wykorzystaniu jednego
elementu wiedzy, a niemal zawsze opiera się na wykorzystaniu wielu różnych
rodzajów wiedzy;
faktu, że ocena efektów bywa zależna od obranej perspektywy czasowej;
różnicy w długości cyklów technologicznych w różnych sektorach przemysłu (od
kilkudziesięciu lat do kilkunastu miesięcy) [Moszczyński 1992; OECD 2013].
Ponadto:
•
•
•
•
•
•
•
Każde pole badań i sektor przemysłu produkcji i kanałów tworzy specyficzne kanały wpływu na użytkownika końcowego. To sprawia, że trudno jest opracować
jednolite ramy oceny.
Badania podstawowe mogą mieć różne skutki, z których nie wszystkie da się łatwo określić.
Niełatwo lub nietanio dokonać identyfikacji wszystkich osób korzystających z
wyników badań, zwłaszcza badań podstawowych.
Trudno jest zidentyfikować i opisać wszystkie mechanizmy przekazywania wyników badań do społeczeństwa. Badania opisały mechanizmy transferu między
przedsiębiorstwami lub między uczelniami a przedsiębiorstwami. Są to głównie
modele empiryczne, które często nie ujawniają pełnego wpływu badań na społeczeństwo.
Ze względu na brak potrzebnych kategorii beneficjentów, mechanizmów transferu i użytkowników końcowych, trudno określić odpowiednie wskaźniki statystyczne dla pomiaru konkretnych wyników badań.
Badania międzynarodowych przepływów wiedzy dowodzą, że większy wpływ
społeczny w danym kraju mogą wywrzeć wyniki zagranicznego B+R (szczególnie
ucieleśnionego w importowanych towarach inwestycyjnych i konsumpcyjnych)
niż krajowego B+R.
Najczęściej trudno ująć wpływ w wartościach monetarnych w celu
zapewnienia porównywalności. Nawet jeśli można określić wpływ nieekonomiczny, trudno ustalić jego wartość pieniężną. Podejmowano próby określania
wartości pieniężnej niektórych oddziaływań, np. ustalano oszczędności ekonomiczne związane ze zdrową populacją, ale próby te były zazwyczaj częściowe i
subiektywne [OECD 2008, 2013].
Główne problemy Oceny Wpływu Programów. Główne problemy Oceny Wpływu
Programów ujmuje się w formie następujących pytań:
1) Jak przypisać interwencję do obserwowanych skutków?
171
2) Jak określić sytuację kontrfaktyczną, tzn. czy obserwowane skutki wystąpiłyby i tak?
3) Jak radzić sobie z opóźnieniem czasu między wynikami badań i skutkami?
4) Na czym skupić się w ocenie, na projektach badawczych czy na badaniach w ogóle? [ESF
2012]
Na pytania te udziela się odpowiedzi dzięki następującym metodom:
Pytania
Metody odpowiedzi
Ile wydano dotychczas? Czy osiągnięty dotąd postęp odpowiada oczekiwaniom zgodnym z poziomem wydatków?
Analiza kosztów i korzyści
Jak środki finansowe zostały przekształcone w pożądane rezultaty i efekty?
• Peer review; panel ekspertów
• Studia przypadku
• Badania ekonometryczne
Czy badania w ramach programu miały wysoką jakość naukową? Czy były dobrze i efektywnie zarządzane?
Peer review; panel ekspertów
Czy program wzmacnia sieci badawcze?
•
•
Analiza sieci
Metoda „przed-po”
Jak to działają mechanizmy zarządzania programem? Jak
można je wzmocnić?
•
•
Monitoring
Metoda „przed-po”
Jakie są skodyfikowane produkty wiedzy osiągnięte w ramach programu?
• Badania ekonometryczne
Jaka jest efektywność programu w porównaniu z podobnymi programami?
Benchamarking
Czy uzyskane patenty są wartościowe? Do jakich należą
grup technologicznych ?
Analizy patentowe
W jakim stopniu produkty programu zostały skomercjalizowane?
Wskaźniki statystyczne
Jakie czynniki wpłynęły na adaptację przez przemysł technologii opracowanych w ramach programu?
Studia przypadku
Jakie są dotychczasowe korzyści i koszty rozwoju technologii?
Analiza kosztów i korzyści
Gdybyśmy mieli drugi raz okazję, czy jeszcze raz uruchomilibyśmy program lub inicjatywę?
Peer review; panel ekspertów
Jakie korzyści z programu odniosło społeczeństwo? Czy
działania (np. program badawczy) pokazują „wartość za
pieniądze”?
•
•
W jaki sposób badania prowadzone w ramach programu
wpłynęły na polityków?
Metoda SIAMPI (Social Impact Assessment Methods)
Modele ekonomiczne
Studia przypadku
Jak badania wpłynęły na poziom zdrowia społeczeństwa?
Jak wiedza wytworzona w ramach programu jest wykorzystywana przez polityków?
Wywiady, analiza dokumentów
[ESF 2012]
172
Ocena wpływu ex ante polityk, programów i instrumentów. European Commission
[2009] zaleca zastosowanie sześciu podstawowych kroków analitycznych podczas Oceny Wpływu ex ante:
•
•
•
•
•
•
Określ problem: opisz charakter i zakres problemu, ustal głównych interesariuszy oraz środowiska, na które będzie oddziaływać polityka; określ przyczyny i
czynniki sytuacji problemowej; ustal, czy problem leży w kompetencjach twojego
urzędu; czy problem zda testy konieczności i wartości dodanej interwencji; opracuj jasny scenariusz bazowy, w tym, w razie potrzeby, analizę wrażliwości i ocenę
ryzyka.
Zdefiniuj cele: zestaw cele, które odpowiadają problemowi i jego przyczynom;
ustal cele na różnych poziomach, począwszy od ogólnych do szczegółowych /
operacyjnych; upewnij się, że cele są spójne z istniejącymi politykami i priorytetami;
Opracuj główne opcje polityczne: zidentyfikuj opcje polityki; odróżnij treść opcji
od możliwości ich realizacji; sprawdź zasadę proporcjonalności; zawęź zakres
opcji poprzez uwzględnienie ograniczeń technicznych i innych, oraz zastosowanie kryteriów skuteczności, wydajności i spójności; sporządź krótką listę potencjalnie ważnych opcji dla dalszych analiz.
Przeprowadź analizę wpływu opcji: określ (bezpośrednie i pośrednie) skutki gospodarcze, społeczne i środowiskowe i to, w jaki sposób mogą się one przejawiać;
określ, kto wywrze wpływ na realizację polityki i w jaki sposób; oceń wpływ w
kategoriach jakościowych, ilościowych i pieniężnych; rozważ ryzyko i niepewność w wyborach politycznych.
Porównaj opcje: rozważ dodatnie i ujemne skutki każdej opcji na podstawie kryteriów powiązanych z określonymi celami; przedstaw porównania opcji według
kategorii wpływu lub interesariuszy, określ tam gdzie to możliwe wariant preferowany.
Nakreśl plan monitoringu i ewaluacji: zidentyfikuj główne wskaźniki realizacji
dla kluczowych celów rozważanej interwencji;
Punkty te powinno się także uwzględniać w czasie Oceny Wpływu ex post.
Ekonometryczna ocena wpływu B+R. Badania ekonometryczne analizują wkład inwestycji B+R we wzrost gospodarczy, zarówno poprzez badania mikro-ekonometryczne,
korzystające z danych na temat firm i produktywności przemysłu w celu oszacowania
prywatnego i społecznego zwrotu z inwestycji w B+R, jak i poprzez badania makroekonometryczne, które szacują udział ogólnych inwestycji B+R w zagregowanej produktywności.
Badania mikro-ekonometryczne analizują wkład inwestycji w B+R we wzrost wydajności w firmach prywatnych, oceniają obecność efektów zewnętrznych (ang. spillover effects) oraz obliczają stopę społecznego zwrotu, czyli korzyści, jakie z prywatnych inwestycji w B+R odnoszą inne firmy w tej samej branży (lub także firmy w innych branżach). Mogą one zostać użyte do sprawdzenia, czy współpraca firm z publicznym sektorem badań wpływa na zyski lub obroty firm [OECD RIHR 2013].
Badania makro-ekonometryczne analizują ogólny wpływ B+R na wzrost PKB lub Współczynnika Produktywności Ogółem (TFP) oraz mierzą przepływy wiedzy (ang. spillover
effects) do różnych firm i branż [OECD 2008]. Stosują one różne modele oparte na funkcji produkcji - na najprostszym poziomie prace badawczo-rozwojowe mogą być doda173
wane do modelu regresji, obok innych środków produkcji, takich jak kapitał i praca. Podejście makroekonometryczne zastosowane do badania wpływu wydatków publicznych
na B+R na wzrost gospodarczy pozwala uchwycić skutki dla całej gospodarki dzięki stosunkowo małej ilości danych [OECD RIHR 2013].
Ograniczeniem badań ekonometrycznych jest to, że opierając się na liniowym ujęciu innowacji ignorują one powiązania między podmiotami B+R. Prócz tego, choć wykazują
one związki między zmiennymi, rzadko przedstawiają związki przyczynowe. Co więcej,
skupiają się na powiązaniach między B+R a wzrostem produkcji i produktywności, wyłączając z analizy inne cele badań, takie jak bezpieczeństwo narodowe, bezpieczeństwo
energetyczne, ochrona środowiska lub zdrowia, spójność społeczna [OECD 2008].
Nie-ekonometryczne oceny wpływu gospodarczego. Inną, nie-ekonometryczne (ilościowe i jakościowe) metody oceny ekonomicznego zwrotu z inwestycji B+R (lub oceny
wpływu czy korzyści) to
•
•
•
•
•
studia przypadku (ang. case studies). Metoda polega na badaniu konkretnego projektu lub grupy projektów badawczych. Koszty B+R projektu porównuje się z korzyściami (z reguły zmniejszeniem kosztów dla użytkownika) związanymi z komercjalizacją wyniku innowacji. Następnie stosuje się standardowe techniki oceny inwestycji dla określenia zwrotów, zarówno prywatnych, jak i publicznych
[Smith 1991],
metody retrospektywne (takie jak amerykańskie projekty HINSIGHT i TRACE),
>OCENA KOSZTÓW I KORZYŚCI,
>PANEL EKSPERTÓW [Kostoff 1994],
analizy sieci [IPTS-Johanneum 2002] i inne.
Prace ekonometryczne są obecnie uzupełniane przez rachunki PKB traktujące publiczne
i prywatne inwestycje w badania i rozwój jako źródła inwestycji produkcyjnych. Włączenie B+R do rachunków narodowych wynika z przejścia od tradycyjnego traktowania
B+R jako wydatków bieżących do postrzegania ich jako inwestycji w kapitał niematerialny, w zasoby wiedzy kraju.
Statystyka B+R tradycyjnie koncentruje się na pomiarze wydatków na B+R wg sektorów
wykonawczych (przedsiębiorstwa prywatne, rząd, instytucje szkolnictwa wyższego),
dziedzin (informatyka, biotechnologia, itp.) oraz od charakteru działań (badania podstawowe, stosowane, rozwój). Jednak w ostatnich latach zwiększono próby oszacowania
nie tylko gospodarczych, ale także społecznych skutków inwestycji publicznych w B+R.
Opracowano wskaźniki dla środków budżetowych lub nakładów rządowych na badania i
rozwój (>GBAORD), które klasyfikują dane budżetu państwa według celów społecznoekonomicznych. Chociaż ten typ analizy jest cenny, międzynarodowa porównywalność
wyników jest ograniczona, gdyż różne kraje ujmują wydatki budżetowe na B+R w różnych kategoriach. Podjęto jednak próby łączenia danych GBAORD z danymi o publikacjach i patentach (w dziedzinie zdrowia) [OECD 2008].
174
Kwantyfikacja wpływu publicznych B+R lepiej udaje się na poziomie pojedynczych programów, agencji finansujących [OECD 2008] oraz organizacji wykonawczych, takich jak
szkoły wyższe [Australian 2003]. Por. >EWALUACJA PROGRAMÓW NAUKOWYCH I
TECHNOLOGICZNYCH oraz >EWALUACJA AGENCJI.
Kategorie oceny wpływu badań. Ważne kategorie oceny wpływu badań (oraz B+R) finansowanych ze źródeł publicznych, jakie rozwinięto się od lat 1980., to „efekty – bezpośrednie i
pośrednie” oraz „zwrot z inwestycji”.
Przez efekty bezpośrednie rozumie się odkrycia naukowe wykorzystywane w rozwoju
nowego wyrobu lub nowych metod wytwarzania, czyli transfer z nauki do gospodarki
informacji o wynikach badań naukowych (np. o promieniach X, laserze). Ten rodzaj korzyści był szeroko znany od lat, harmonizował z koncepcją liniowego modelu innowacji
oraz stanowił uzasadnienie dla finansowania nauki w okresie, gdy była ona oceniana
przez samych uczonych.
Efekty pośrednie, których znaczenie uświadomiono sobie w początku lat 1990-tych pod
wpływem nowego modelu innowacji, określono jako takie owoce badań naukowych, jak
know how (obeznanie z metodami i technikami, niekoniecznie dające się ująć w słowa),
przeszkoleni naukowcy i inżynierowie, sieci zawodowe badaczy, narzędzia projektowania i techniki inżynieryjne (modelowanie, symulacje), nowa aparatura badawcza, czy też
`firmy odpryskowe`. Efekty pośrednie występują np. wówczas, gdy badacze wiedzę o
ostatnich odkryciach uzyskaną dzięki własnym badaniom wykorzystują w doradztwie,
albo gdy know how osiągnięty dzięki szkoleniom stosują w działalności innowacyjnej,
albo też gdy aparatura skonstruowana na potrzeby badań znajduje nieoczekiwane zastosowania w produkcji itd., co we wszystkich tych przypadkach przyczynia się do
wzrostu gospodarczego. Badanie PREST po raz pierwszy rozróżniło między efektami
bezpośrednimi a pośrednimi w roku 1993 i od tego czasu kategorie te stały się jednymi z
podstawowych w ewaluacji B+R [Douglas 1998]. Wartość ich należy mierzyć liczbą ich
zastosowań w metodologiach ewaluacji oraz ich płodnością. Stały się one punktem wyjścia do wielu dalszych rozróżnień, np:
Dziedzina wpływu
Efekty bezpośrednie
Efekty pośrednie
Krótkoterminowe
Długofalowe
Krótkoterminowe
Długofalowe
Nauka
Odkrycia naukowe
Korpus wiedzy
Rozwój kształcenia
Wpływ na gospodarkę
Gospodarka i społeczeństwo
Nowe technologie
Nowa wiedza
techniczna
Poprawa produktywności
Poprawa konkurencyjności
Polityka
Lepsze rozumienie współzależności
Rozwiązywanie
problemów
Lepsze rozumienie problemów
Lepsza ogólna satysfakcja
Balogh
Badając wpływ gospodarczy programów zaleca się zwracanie uwagi na:
175
Bezpośrednie efekty społeczne (np. poprawa
działania telekomunikacji, informacji meteorologicznych)
Bezpośrednie efekty przemysłowe (np. pobudzanie działalności gospodarczej, nowe stanowiska pracy)
Pośrednie efekty społeczne (np. redystrybucja,
stabilizacja, handel)
Pośrednie efekty przemysłowe
Cohendet 1997
Badając pośrednie efekty przemysłowe zaleca się zwracanie uwagi na:
•
•
•
•
efekty technologiczne (np. nowe produkty; różnicowanie oferty; ulepszenia produktów),
efekty komercyjne (współpraca międzynarodowa; nowe sieci sprzedaży; wykorzystanie programu w marketingu),
efekty w dziedzinie organizacji i zarządzania (kontrola jakości; zarządzanie projektami; techniki produkcyjne),
efekty w dziedzinie podniesienia wartości siły roboczej (powstanie masy krytycznej specjalistów); ulepszenie kompetencji siły roboczej.
Oprócz wpływu, i efektów, innymi pojęciami ogniskującym ewaluacje są pojęcia „zwrotu” (z inwestycji).
Ekonomiści (a za nimi politycy) zazwyczaj dokonują rozróżnienia pomiędzy zwrotami
„prywatnymi” i „społecznymi”. Prywatny zwrot to taki, który płynie do osoby lub firmy,
która dokonała inwestycji. Dla firmy jest to przede wszystkim wzrastający strumień dochodów, wynikający z pomyślnej inwestycji lub projektu B+R. Społeczny zwrot to taki,
który staje się własnością całego społeczeństwa. Innowacja może nie tylko przynosić
zwrot osobie lub firmie, ale także (jeśli np. polega ona za zakupie nowej maszyny) może
obniżać koszty wytwarzania innemu przedsiębiorstwu, ulepszać jakość wyrobów lub
przynosić korzyści użytkownikom. Z punktu widzenia konsumentów, B+R może prowadzić do innowacji produktowych, które obniżają koszty usług (np. ogrzewania mieszkań)
lub też poprawiają jakość życia (np. w opiece lekarskiej). O zwrotach społecznych mówimy wówczas, gdy korzysta z nich nie tylko inwestor [Smith 1991].
Szacunki wpływu nie-ekonomicznego. Literatura na temat wpływu pozaekonomicznych B+R jest znacznie uboższa i mniej solidna niż piśmiennictwo dotyczące skutków
ekonomicznych. Wg Godina oraz Doré (2006) jest tak z trzech powodów:
1. większość pomiarów nauki i badań przeprowadzono w kontekście gospodarczym.
2. wymiar ekonomiczny jest często łatwiejszy do zmierzenia.
3. większość wyników i wpływu nauki ma charakter niematerialny, rozproszony i
często opóźniony. Choć również trudny do zmierzenia, ekonomiczny wymiar nauki i techniki łatwiej mierzyć i analizować.
Niemniej jednak w ostatnich dekadach naukowcy i rządy zaczęli interesować się pomiarem skutków ekonomicznych publicznych inwestycji w B+R. Istnieje konsensus wśród
176
naukowców, wg którego jednym z pierwszych kroków na drodze pogłębiania wiedzy na
temat wpływu poza-publicznych ekonomicznego B+R powinno być określenie ram łączących inwestycje w badania naukowe oraz dobrostan (ang. well-being):
Ramy analizy wpływu badań na dobrostan
B+R
Sektory
Przejawy dobrostanu
Wykonawcy (biznes, uczelnie
itd.)
Rząd (np. centralny, regionalny,
władze miejskie)
Nauki (przyrodnicze i inżynieryjne; społeczne i humanistyczne)
Biznes (np. telekomunikacja,
elektronika)
Ekonomiczne (np. konsumpcja,
bogactwo, równość, bezpieczeństwo ekonomiczne)
Typy badań (podstawowe; stosowane)
Społeczne (np. Poprawa zdroOrganizacje non-profit (np. wia, zmniejszenie ubóstwa)
uczelnie, organizacje poza-rzą- Środowiskowy (poprawa stanu
dowe, kościoły)
zanieczyszczenia, wzrost bioróżnorodności)
Model ten wymaga przyjęcia czterech kroków dla oszacowania wpływu badań publicznych na dobrostan.
Te cztery kroki:
1. Ustalenie szerokich dziedzin dobrostanu (społeczna, ekonomiczna, środowiskowa itp.) oraz poddziedzin (np. w sferze społecznej poddziedziną jest dobrostan dzieci, edukacja itp.).
2. Wybór konkretnych wskaźników dla dziedzin i poddziedzin.
3. Rozpoznanie inwestycji w badania które wywarły wpływ na wybrane wskaźniki
oraz określenie sposobów, w jaki te inwestycje wpłynęły na wskaźniki.
4. Oszacowanie wpływu poszczególnych inwestycji badawczych na wybrane wskaźniki.
W ostatnich dekadach źródłem inspiracji dla wielu propozycji oceny wartości badań naukowych dla społeczeństwa stała się ocena wpływu społecznego (Social Impact Assessment). Ocena wpływu społecznego jest nastawiona przede wszystkim na badanie
następstw programów społecznych. Bada ona konsekwencje dla ludzi wszelkich publicznych i prywatnych działań które zmieniają sposób, w jaki ludzie żyją, pracują, bawią
się, odnoszą się do siebie wzajemnie, organizują dla zaspokojenia swoich potrzeb oraz,
ogólnie, radzą sobie jako członkowie społeczeństwa. Swoim zainteresowaniem obejmuje
także wpływ kulturowy polegający na zmianie norm, wartości i wierzeń, które kierują i
racjonalizują ich samo-poznaniem jako jednostek i jako społeczeństwa.
Metody oceny społecznego wpływu zostały m.in. rozwinięte w ramach programu SIAMPI. SIAMPI to konsorcjum Królewskiej Holenderskiej Akademii Sztuki i Nauki (KNAW),
Rathenau Institute (Holandia), CSIC (Hiszpania), MSH (Francja) oraz Uniwersytetu w
Manchesterze (Wielka Brytania). Konsorcjum SIAMPI opracowuje metody oceny skutków społecznych projektów badawczych, programów badawczych oraz instrumentów
finansowania badań w ramach projekty VII Programu Ramowego (2007-2013) [SIAMPI].
177
Nowe propozycje oceny wartości badań naukowych dla społeczeństwa, inspirowane Social Impact Assessment, przedstawiają metody opisu i pomiaru wpływu poza-naukowego
badań naukowych, nie ekonomicznego, tylko społecznego i kulturalnego. Jedna z takich
propozycji [Spaapen 1994] dotyczy także, choć nie tylko, nauk społecznych i humanistycznych, które później niż sciences zostają poddawane ocenie w kategoriach wpływu
poza-naukowego. Autorzy jej podkreślają, jak ważna jest komunikacja pomiędzy badaczami a społeczeństwem. Istota oceny komunikacji polega na uchwyceniu trzech zmiennych (w ich zróżnicowaniu). Zmiennymi tymi są: różne formy (pisemne i nie-pisemne)
wyników badań; różne formy społecznego zapotrzebowania na te wyniki; wreszcie, różne typy mediów, za pomocą których 1) i 2) współdziałają ze sobą (czasopisma, konferencje). Dla pomiaru tych trzech kluczowych zmiennych proponują oni sporządzenie
matryc, w których dla każdej z nich znalazłyby się odpowiednie kryteria i wskaźniki:
Kryteria
Wskaźniki
Strukturalne
Treściowe
Strukturalne
Treściowe
Wyniki
Różne typy produktów badań, takie jak artykuły,
instrumenty, technologie, projekty
itd.
Główne zagadnienia stawiane przez
badaczy
Ilość wyników, tj.
proporcje pomiędzy różnymi typami wkładu
Jakość wyników
(analiza zawartości, analiza współwystępowania
słów)
Media
Różne typy wykorzystanych mediów, bibliograficzne, socjograficzne
Główna debata,
tematy, kontrowersje
Analiza zestawu
czasopism, analiza
współautorstwa,
sposoby interakcji
międzyludzkich
Analiza zawartości, analiza czasopism, relacja w
stosunku do debaty (między)- narodowej
Zapotrzebowanie
Różne typy społecznego zapotrzebowania
Główne podnoszone pytania i
problemy
Publikacje polityczne, kontrakty,
wyposażenie
Badanie opinii publicznej, badania
ankietowe, analizy
polityczne
Spaapen 1994
Sposób postępowania ewaluatora składa się (w uproszczeniu) z trzech faz. Ich celem
jest:
1. określenie odpowiedniego sposobu komunikacji charakterystycznego dla danej
dyscypliny, pola czy sektora. Ten etap prowadzi do bardzo zróżnicowanego obrazu wyników, mediów, oraz społecznego zapotrzebowania. Różne potrzeby i
wartości użytkowników są odzwierciedlone w takich formach jak kontrakty czy
debaty.
2. określenie odpowiednich zagadnień i debat na linii nauka – technika – społeczeństwo (wiele technik ilościowych i jakościowych, takich jak techniki bibliometryczne, analiza treści prasowych, opinie ekspertów, wywiady, strategiczne konferencje).
178
3. ustalenie procedur operacyjnych w celu integracji różnych elementów w pojedynczą procedurę (1) i 2)). Np. jakie są główne produkty naukowe i debaty polityczne w poszczególnych sektorach? Kto jest głównym klientem/użytkownikiem?
Jakie są ważne zagadnienia debaty? [Spaapen 1994].
W Niderlandach opublikowano poradnik mający na celu uzupełnienie dwóch podstawowych stosowanych tu protokołów ewaluacji instytucjonalnej o zalecenia samo-oceny
ex-post grup badawczych oraz instytutów badawczych. Zalecenia kładą nacisk na ocenę
badań w kontekście społecznym traktowaną jako realizacja strategii ocenianych instytucji.
W wielu dziedzinach, perspektywy zainteresowanych stron mają kluczowe znaczenie
dla oceny znaczeniu dla społeczeństwa, podkreśla raport. Uwzględnienie kontekstu społecznego to podstawa dobrej ewaluacji. Należy zatem zaprosić interesariuszy do komisji
ewaluacyjnej w zakresie oceny użyteczności badań dla społeczeństwa. Interesariusze
muszą jednak wykraczać poza indywidualne doświadczenie i indywidualne korzyści i
opierać się na rzeczowych i w miarę możliwości mierzalnych dowodach znaczenia ocenianych badań dla sektora docelowego. Ewaluacja powinna być także pomocą w samouczeniu się instytucji. Powinna zatem nie tylko zapewnić wgląd w jakość badań, ale także dostarczać informacji na temat skuteczności strategii jednostki. Ewaluacja, której
ustalenia mają wnosić wkład do strategii instytucji powinna opierać się na większej liczbie informacji niż ewaluacja, która dotyczy tylko oceny jakości i społecznego znaczenia
badań.
Zalecenia ujęto w czterech „krokach”.
Krok 1: opisz lub podsumuj misje i cele grupy badawczej. Dobrą podstawą ewaluacji jest
misja i cele – jako podstawa strategii. Określają one kontekst prowadzonych badań, obszary społeczne i praktyki zawodowe, na które są ukierunkowane badania. Np.: szkolenia dla wykwalifikowanych naukowców i specjalistów w dziedzinie X i Y / lub sektorów i
Z; udoskonalenia procedur w danym zawodzie; wytwarzanie wiedzy dla przemysłu i
handlu, lub konwersja wiedzy na nowe przedsięwzięcia gospodarcze; produkcja wiedzy
dla sektora publicznego (ochrona zdrowia, edukacji i kultury); wytwarzanie wiedzy w
celu wsparcia formułowania, wdrażania i ewaluacji polityki. Misja powinna także wskazywać, w jaki sposób grupa badawcza zamierza osiągnąć cele, np. jaki rodzaj badań grupy wykonuje, czy posiada powiązania z interesariuszami (i jakie) oraz co planuje wytwarzać. Czasami misje są bardziej szczegółowe, zawierając cele ilościowe, dotyczące
liczby publikacji zawodowych, edukacji i szkoleń itd.
Krok 2: opisz społeczny wkład ocenianych badań naukowych. Misja określa społeczne
znaczenie w kategoriach przyszłości. Patrząc wstecz, można opisać rzeczywisty społeczny wkład badań. W tym celu należy streścić główne osiągnięcia i społeczne interakcje z interesariuszami. Kluczowe są cztery następujące pytania: które z badań miały znaczenie społeczne (np. program zdrowia; planowanie przestrzenne); w jaki sposób upowszechniono wiedzę wśród interesariuszy? Jakie istnieją dowody na zainteresowania i
uznania ze strony interesariuszy? Jakie efekty przyniosły badania?
179
Krok 3: sporządź listę wskaźników.
Krok 4. podsumuj uzyskane wyniki dotyczące społecznego znaczenia badań [ERIC 2010].
Od pomiaru wkładu do pomiaru „produktu”, „efektu” i „wpływu”. Tendencja zmiany
punktu ciężkości w ewaluacji badań – od pomiaru wkładu do pomiaru „produktu”, „efektu” i „wpływu”, od ewaluacji do Oceny Wpływu Badań – wynika zarówno z przenikania idei
tzw. nowego zarządzania publicznego, jak i przemian praktyk w działalności badawczej,
innowacyjnej i gospodarczej (wzrost rynkowego ukierunkowania badań i nasilenie powiązań nauki z gospodarką oraz sferą publiczną i społeczną, m.in. wskutek wpływu ICT)
[OECD 2007].
Nowe Zarządzanie Publiczne (New Public Management) kładzie nacisk na wskaźniki dokonań i na ewaluacje. W ostatnich dekadach w krajach OECD punkt ciężkości procesu
budżetowego i zarządzania przesunął się od finansowania opartego na wskaźnikach
„wkładu” (input) oraz bazującego na kwotach z lat ubiegłych, do finansowania opartego
na pomiarze dokonań – produktu (output), efektu (outcome) i wpływu (impact) [OECD
2001].
„Państwo w coraz większym zakresie rozdziela środki na uczelni na podstawie wskaźników dokonań. Poprawa wydajności, „rozliczalności” (accountability) i jakości w szkolnictwie wyższym to główne cele i uzasadnienia dla tego typu finansowania” [Frølich
2008]. Uzależnione od wyników zarządzania stało się powszechne w sektorach publicznym i non-profit. W literaturze spotyka się wiele pojęć: „zarządzanie oparte na wydajności”, „zarządzanie wynikami”, „zarządzanie oparte na wynikach”, „zarządzania ukierunkowane na wyniki”, „zarządzanie przez efekty”, „zarządzanie zorientowane na wynik i
zarządzanie wydajnością” [Hansen 2010].
W finansowaniu dydaktyki w szkolnictwie wyższym następiło przejście od finansowania
zorientowanego na „wkład” (mierzony np. przez liczbę studentów lub powierzchnię budynków uczelnianych) do finansowania ukierunkowanego na „efekty” (np. przez liczbę
absolwentów), a także od finansowania podażowego (określanego przez ministerstwa
lub agencje) do finansowania popytowego (w którym nauczanie jest finansowanie przez
studentów, bądź w formie opłat, bądź voucherów)[Kaiser 2002].
Podobne tendencje zarysowały się w ewaluacji badań naukowych. Już w latach 70. kryteria i procedury ewaluacji przestały być domeną samych badaczy i zostały otwarte na
negocjacje z politykami, urzędnikami administracji publicznej, ekonomistami, ekspertami zarządzania [Georghiou 1995]. W latach 80. tendencje te uległy pogłębieniu. W tych
latach rozwinięto na dużą skalę systematyczną ewaluację działań rządu na rzecz rozwoju badań naukowych i technologicznych [Luukkonen 1993; Luukkonen 1997; MeyerKrahmer 1992]. Postęp w badaniach i jakość badań nie były teraz traktowane jako cele
same w sobie, lecz jako narzędzia osiągnięcia celów społecznych [Frederiksen]. Coraz
ważniejszymi kryteriami oceny stały się „korzyści”, „wpływy”, „efekty” oraz „zwrot z inwestycji”. Pojęcia te zakorzeniły się też w koncepcjach ekonomicznych (np. spillover effect, external effect), metodologiach ewaluacji oraz w żargonie politycznym (uzasadnienia budżetu oraz różnych form interwencji rządowych).
180
Rozwijane w ostatnich latach formy ewaluacji nauki charakteryzują się czterema cechami:
•
opierają się na nowym pojęciu „wpływu”, odchodząc od jego wąsko ekonomicznego rozumienia i kładąc jeszcze silniejszy niż dotąd nacisk na (szeroko rozumiane) wpływy społeczne i kulturowe inwestycji w B+R.
•
podkreślają one wielkie zróżnicowanie nie tylko dyscyplin i pól badań (pod
względem tematyki, metodologii, etosu zawodowego itd.), ale także rodzaj powiązań, jakie łączą każde z nich ze światem zewnętrznym.
•
bazują na odmiennej organizacji ewaluacji, w której biorą udział nie tylko eksperci, ale także różnego typu interesariusze, włącznie z obywatelami.
•
w większej mierze uwzględniają mierniki współpracy, przede wszystkim współpracy międzynarodowej badań interdyscyplinarnych oraz badań w ujawniających się (emerging) dyscyplinach [OECD 1997].
Problem uzupełnienia tradycyjnych akademickich miar oceny (publikacje) przez wskaźniki wpływu jest przedmiotem dyskusji i decyzji w wielu krajach, m.in. Australii (Research Quality Framework, RQF, zbudowany w latach 2005-07), Wielkiej Brytanii (Research Exercise Framwerok, od roku 2013), Norwegii, Finlandii (Uniwersytet w Aalto) i w
Niderlandach [U-Multirank 2010].
Wzory i dobre praktyki. Fińska Agencja ds. Technologii i Innowacji, Tekes i Akademia
Fińska realizują wspólny projekt zatytułowany Ramy Oddziaływania i Wskaźniki dla
Nauki, Technologii i Innowacji (Vindi). Projekt bada wpływy N+T+I w odniesieniu w
czterech kluczowych obszarach: gospodarki; edukacji i umiejętności; dobrobytu narodu;
oraz środowiska. Podstawową ideę badania opracowano zgodnie z konwencjonalnym
modelu wkład-rezultaty, z tą różnicą że wzór stosuje się w odwrotnej kolejności. Punktem wyjścia badania jest pytanie, jakie ogólnego wpływu N+T+I należy się spodziewać.
W Wielkiej Brytanii Medyczna Rada ds. Badań Naukowych (MRC) wprowadziła w życie
system system e-Val (obecnie Researchfish, także stosowany przez inne Rady Badawcze) - zautomatyzowany system gromadzenia danych, opracowany w celu zbierania informacji na temat gospodarczych i społecznych efektów udzielanych przez nią dotacji.
Ponadto w Wielkiej Brytanii rozwija się od 2007 r. Ramy Sprawozdawcze Skutków Gospodarczych (Economic Impact Reporting Framework, EIRF) powstałe jako narzędzie
oceny realizacji 2004-2014 Ram Inwestycyjnych Nauki i Innowacji (Science and Innovation Investment Framework). EIRF składa się z zestawu wskaźników zebranych przez
siedem Rad Badawczych Zjednoczonego Królestwa.
Także w Wielkiej Brytanii przeprowadzono analizę wpływu ekonomicznego jednego z
projektów sfinansowanych przez Radę Badawczą Sztuk Pięknych i Humanistyki (sztuki
wizualne Polinezji). Price Waterhouse Coopers szacowało wydatki poniesione przez
zwiedzających wystawę przygotowaną w ramach projektu.
181
W Holandii Królewska Niderlandzka Akademia Sztuk I Nauk przeprowadziła ewaluację
Badań w Kontekście. Inicjatywa przeprowadzenia tego projektu wynikła z rosnącego
niezadowolenia z tradycyjnych sposobów oceny badań naukowych w dziedzinie nauk
społecznych, humanistycznych, medycyny, które uznano za zbyt ukierunkowane na
normy i wartości nauk przyrodniczych. Podejście przyjęte przez grupę ERIC obejmowało
m.in.: przegląd piśmiennictwa w dziedzinie międzynarodowych metod oceny jakości badań społecznych; opracowanie praktycznego przewodnika oceny społecznego znaczenia
badań; warsztaty dla naukowców i decydentów politycznych, którzy chcą brać pod uwagę kryteria społeczne w swoich procedurach oceny; międzynarodowe seminarium eksperckie w sprawie oceny badań naukowych w kontekście społecznym.
Australijska projekt Ocena Badań Naukowych i Technologicznych (The Australian Science and Technology Research Assessment ASTRA) zbiera i analizuje efekty badań dwóch
uczelni: University of Melbourne i Australian National University.
Brazylia łączy dane o B+R z innymi zbiorami danych ekonomicznych, co umożliwia analizę ich wpływu. Część danych zbiera się w ramach platformy Lattes, utworzonej w 1999
roku i prowadzony przez Krajową Radę ds. Rozwoju Naukowego i Technologicznego.
W Kanadzie Ministerstwo Badań Naukowych i Innowacji stanu Ontario opublikowało
niedawno raport nt. pomiaru wpływu wydatków rządowych na B+R i innowacje na warunki społeczno-ekonomiczne.
Koreański Instytut Ewaluacji i Planowania (KISTEP) realizuje projekt “Ramy Wiedzy dla
Polityki Innowacyjnej Opartej na Dowodach” (K2Base). Podobny projekt jest realizowany w Japonii.
Rada ds. Badań Naukowych Norwegii wdrożyła inicjatywę o nazwie „Wiedza w zakresie
polityki badań naukowych i innowacji” (FORFI). Choć inicjatywa ta nie ma na celu pomiaru wpływu, stara się jednak łączyć prace analityczne nad oceną skutków z tworzeniem polityki.
Stany Zjednoczone ustanowiły w 2005 roku program badań Nauka o Polityce Naukowej
i Innowacyjnej (Science of Science and Innovation Policy (SciSIP)) celem lepszego zrozumienia związku między inwestycjami w naukę i efektami społecznymi. Istotnym celem programu jest pobudzanie badań naukowych na temat wpływu polityki naukowej
oraz rozwoju wspólnego środowiska łączącego naukowców i decydentów. Program
udziela granty na projekty badawcze dotyczące teoretycznych, empirycznych i jakościowych badań nad wpływem B+R finansowanych ze środków federalnych [OECD RIHR
2013; OECD 2008; ESF 2012].
Bibliografia
Arnold Erik 2001, Can We Measure the Socio-economic Effects of Basic Science?, Contribution to an Academy of Finland Seminar 12 November.
Australian Government, Australian Research Council, Assessing the wider benefits arising from universitybased research: Discussion Paper, June 2013.
182
Aymerich Marta et al. 2012, Measuring the payback of research activities: A feasible ex-post evaluation
methodology in epidemiology and public health, “Social Science & Medicine” 75 ss. 505-510.
Balogh Tamás, From peer review to portfolio analysis. Evaluation of applied research and development,
mszp.
Capron Henri, Macroeconomic modelling and simulation approaches, EPUB Thematic Network On The Socio-Economic Evaluation Of RTD Policies, European Commission.
Cervantes Mario 2009, CSTP work on Evaluation and Impact Assessment: Key Findings. Presentation at the
1stRIHR Meeting 18-19 May 2009.
Cohendet Patrick 1997, Evaluating the industrial indirect effects of technology programmes: the case of the
European Space Agency (ESA) programmes, w: Policy evaluation in innovation and technology. Towards the
best practices, OECD 1997.
Delanghe Henri, Peter Teirlinck 2013, Optimising the Policy Mix by the Development of a Common Methodology for the Assessment of (Socio-)Economic Impacts of RTDI Public Funding (CIA4OPM) Literature Review,
Brussels.
Douglas Williams, A. Dennis Rank 1998, Measuring the economic benefits of research and development: the
current state of the art, “Research Evaluation” vol. 7 nr 1, April 1998.
E. Geisler 1996, Integrated Figure of Merit of Public Sector Research Evaluation, “Scientometrics” vol. 36
1996 no. 3
ERIC 2010, Evaluating the societal relevance of academic research. A guide.
ESF 2012, The Challenges of Impact Assessment.
ESF Evaluation in National Research Funding Agencies.
European Commission 1999, Evaluating socio-economic programmes. Glossary of 300 concepts and technical terms, vol. 6, Luxembourg.
European Commission 2002, An RTD Evaluation Toolbox.
European Commission 2005, Proposal for the Council and European Parliament decisions on the 7th
Framework Programme (EC and Euratom) Main Report: Overall summary Impact Assessment And Ex Ante
Evaluation, Brussels, 6.4.2005 SEC(2005) 430
European Commission 2009, Impact Assessment Guidelines.
European Commission 2011, Impact Assessment Commission Staff Working Paper, Brussels, 30.11.2011
SEC(2011) 1427 final.
Evaluation of technology policy programmes in Germany 1995, ed. Gerhard Becher, Stefan Kuhlmann,
Dordrecht.
Frederiksen Lars Frode, Finn Hansson, Søren Barlebo Wenneberg 2003, The Agora and the Role of Research Evaluation, “Evaluation” April 2003 9, ss. 149-172.
Frederiksen Lars Frode, The Agora and the Role of Research Evaluation, Copenhagen Business School, Internet.
Frølich Nicoline 2008, The politics of steering by numbers, Debating performance-based funding in Europe,
NIFU-STEP.
Georghiou Luke 1995, Research evaluation in European national science and technology system, “Science
and Public Policy” vol. 5 no. 1
Godin, B. and C. Doré 2006, Measuring the Impacts of Science: beyond the Economic Dimension, Working
Paper, mimeo.
Guidelines and Principles for Social Impact Assessment, 1994.
Hansen Hanne Foss 2010, Performance indicators used in performance-based research funding,
DSTI/STP/RIHR(2010)4
Hicks Diana 2010, Overview
DSTI/STP/RIHR(2010)3.
of
Models
of
Performance-Based
Research
Funding
Systems,
183
IPTS-Johanneum 2002, RTD Evaluation Toolbox - Assessing the Socio-Economic Impact of RTD-Policies.
Kaiser Frans, Hans Vossensteyn and Jos Koelman 2002, Public funding of higher education. A comparative
study of funding mechanisms in ten countries, CHEPS, http://doc.utwente.nl/45235/
Kostoff R. N., Federal Research Impact Assessment: Axioms, Approaches, Applications, ”Scientometrics”, Vol.
34, No. 2 (1995) 163-206
Luukkonen Terttu, Bertel Ståhle, Evaluation of research fields. Scientists` Views, 1993;
Luukkonen Terttu, The increasing professionalisation of the evaluation of mission-oriented research in Finland: implications for the evaluation process w: Policy evaluation in innovation and technology. Towards the
best practices, OECD 1997.
Meyer-Krahmer Friedrich i Thomas Reiss 1992, Ex ante evaluation and technology assessment – two
emerging elements of technology policy evaluation, “Research Evaluation” vol. 2 nr 1.
Moszczyński Jerzy, Jan Kozłowski 1992, Informacja w sprawie możliwości oszacowania nakładów i
efektów polityki naukowej i naukowo-technicznej, mszp. niepubl.
MRC Medical Research Council 2011, Measuring the link between research and economic impact.
OECD (2008), Assessing the Socio-economic Impacts of Public R&D: Recent Practices and Perspectives, w:
OECD Science, Technology and Industry Outlook 2008.
OECD 2008, Framework For Monitoring And Impact Analysis: – Case Tekes, Finland, TIP-RIHR WORKSHOP
15.-16.9.2008.
OECD 2014, Assessing The Impact Of State Interventions In Research – Techniques, Issues And Solutions
DSTI/STP(2014)24.
OECD Assessing The Socio-Economic Impacts Of Public Investment In R&D, 2007.
OECD CSTP 2014 Workshop On Assessing The Impact Of Science, Technology And Innovation Policy Instruments With Common Objectives DSTI/STP/AH/A(2014)2.
OECD Funding Systems and their Effects on Higher Education Systems, EDU/WKP(2007)1
OECD Improving Policy Instruments
CCNM/SIGMA/PUMA(2001)1
Through
Impact
Assessment,
Sigma
Paper:
No.
31,
OECD Linking Science to Innovation, Economic Growth and Welfare: Scoping Paper, 2013.
OECD PUMA 2001, Outcome focused management and budgeting, OECD, PUMA/SBO 2001.
OECD RIHR Activity 1.2: Assessing The Role Of Impact In National Science And Research Systems 2013
Optimizing the research and innovation policy mix: The practice and challenges of impact assessment in Europe, 2011.
Pollit Chistopher and Geert Bouckaert 2004, Public Management Reform, Oxford University Press, 2004.
Salter Ammon J. and Ben Martin 2001, The Economic Benefits of Public Funded Basic Research: A Critical
Review, “Research Policy”, 30, 3: 509-532.
Salter, A.J. and B.R. Martin 2007, The Economic Benefits of Publicly Funded Basic Research, presented at the
conference The Impacts of Science, Vienna.
SIAMPI http://www.siampi.eu/
Smart Sue 2009, Economic Impact of research: recent developments in the UK.
Smith Keith 1991, Economic returns to R&D: Methods, Results and Challenges, SPSG Review Paper No. 3.
Socio-economic impact evaluation. Proceedings of the EU-Tekes evaluation workshop, Ed. Eija Ahola (Tekes)
and Isidoros Karatzas (EU Commission), Helsinki November 1999.
Spaapen Jack and Christian Sylvain 1994, Societal quality of research. Toward a method for the assessment
of the potential value of research for society, SPSG Concept Paper No. 13.
Spaapen Jack, Huub Dijstelbloem and Frank Wamelink 2007, Evaluating Research in Context. A method for
comprehensive assessment, The Hague.
184
Strategic Guidance for Ex Post Impact Assessment of Agricultural Research, CGIAR Science Council, Rome July 2008.
Study on the Economic Impact of the Research Councils, January 2008.
Supporting the monitoring and evaluation of innovation programmes 2006.
The Evaluation of Scientific Research: Selected Experiences, OECD DSTI/STP/SUR(97)9
U-Multirank. Interim Progress Report Design Phase of the Project ‘Design and Testing the Feasibility of a
Multi-dimensional Global University Ranking’, CHERPA-Network January 2010, www.u-multirank.eu/
UMR_ IR_0110.pdf
von Raggamby, Anneke (2010), The Role of Tools in Impact Assessments, w: OECD, Conducting Sustainability Assessments.
World Bank, Institutionalizing Impact Evaluation Within The Framework Of A Monitoring And Evaluation
System, 2009.
BENCHMARKING POLITYK
Benchmarking (badania porównawcze lub analiza porównawcza) – praktyka stosowana
w zarządzaniu, polegająca na porównywaniu produktów, procesów, usług, praktyk i polityk stosowanych przez organizację ze stosowanymi w organizacjach uważanych za najlepsze w analizowanej dziedzinie. Benchmarking określa się jako metodę poszukiwania
wzorcowych sposobów postępowania, umożliwiających osiąganie najlepszych wyników
przez uczenie się od innych i wykorzystywanie ich doświadczenia [Cabello; Benchmarking 2008; Final]. „Benchmarking nie jest zwykłym naśladownictwem, nie polega na
podpatrzeniu sposobu pracy innych, aby tak samo postępować u siebie. To wykrywanie
czynników, które sprawiają, że analizowany proces jest wykonywany efektywnie”, a następnie wskazanie podobnych możliwości we organizacji. „To uczenie się i twórcze adaptowanie najlepszych praktyk [Benchmarking 2014].” „Pojęcie benchmarkingu należy
ściśle łączyć z imperatywem produktywności. (…) Benchmarking umożliwia identyfikację luki pomiędzy produktywnością danej organizacji a produktywnością partnerów, w
stosunku do których dokonuje się porównań. Celem jest zatem zlikwidowanie luki poprzez zwiększenie produktywności, dzięki zastosowaniu wskazanych przez benchmarking praktyk. Po zidentyfikowaniu luki należy odpowiedzieć na pytanie, czy organizacja
jest w stanie całkowicie zlikwidować lukę benchmarkingową, czy poprawić się tylko w
pewnym stopniu, czy dokonać przełomowych zmian na lepsze, czy też stać się najlepszym w swojej klasie (best–in–class)” [Benchmarking 2008].
Cele bezpośrednie benchmarkingu to: lepsza identyfikacja procesów; porównywanie się
z innymi; identyfikacja słabych i mocnych stron na tle wzorca; uczenie się od innych; doskonalenie praktyki działania. Cele pośrednie to rozwój umiejętności zarządczych; przezwyciężenie niechęci do pomysłów powstających poza przedsiębiorstwem; zwiększenie
satysfakcji klientów, osiągnięcie przewagi konkurencyjnej [Benchmarking 2008]. „Dla
badań benchmarkingowych kluczowe są trzy kroki wstępne: wybór właściwych wskaźników pomiaru dla celów danego badania, zdefiniowanie właściwej grupy porównawczej (porównywanych instytucji) oraz pozyskanie danych, które powinny być poddane porównywaniu [Benchmarking 2008].
185
Popularność benchmarkingu bierze się stąd, że bardziej sofistyczne metody, takie jak
badania operacyjne, programowanie liniowe i wartościowanie technologii, mogą być
zbyt uciążliwe i zbyt powolne gdy ma się do czynienia ze złożoną i szybko zmieniającą
się rzeczywistością [Lundvall 2002]. Porównywanie własnego sposobu działania z innymi sposobami jest jednym ze sposobów pobudzania refleksji. Polityka oparta jest na
mieszaninie teorii, pomiaru i subiektywnego osądu. Zbiorowy benchmarking można
traktować jako instrument skutecznego politycznego uczenia się. Benchmarking taki
powinien pobudzać refleksję i wspierać uczenie się. Momenty refleksji są kluczowe w
procesie uczenia [Paasi 2005].
Etapy benchmarkingu. Benchmarking w organizacji składa się z kilku faz, etapu definiowania (analiza procesów lub serii procesów), etapu identyfikacji najlepszych na
świecie (identyfikacja najlepszych praktyk), etapu porównywania oraz etapu uczenia się
[Final 2008].
Wg innej propozycji benchmarking składa się z faz planowania, zbierania informacji,
analizy i realizacji:
•
•
•
•
Faza planowania obejmuje następujące działania: sformułowanie przedmiotu i zakresu badania benchmarkingu, zorganizowanie grupy odpowiedzialnej za realizację
działań, ustalenie kryteriów wyboru partnera – podmiotu(ów) porównań, identyfikacja docelowych partnerów benchmarkingu oraz ustalenie planu zbierania informacji.
Faza zbierania informacji obejmuje: zbieranie ilościowych, finansowych i jakościowych danych, rozpoznanie i udokumentowanie istoty działalności organizacji i zachodzących w niej procesów w celu zrozumienia czynników, które decydują o efektywności działania tej organizacji oraz przeprowadzenie szczegółowego i dokładnego badania. Faza ta jest niezmiernie ważna, bowiem od staranności jej wykonania
zależy wiarygodność uzyskanych wyników.
Faza analizy obejmuje przede wszystkim rozpoznanie podobieństw i różnic czynników poddanych porównaniu, ale także zrozumienie ich powiązań. Efektem tej fazy
jest identyfikacja najlepszej praktyki oraz rozwój planu jej implementacji. W fazie tej
wykorzystywane są najbardziej zdolności twórcze i analityczne.
Faza realizacji (adaptacji) kończy proces benchmarkingu i obejmuj następujące działania: wprowadzenie w życie proponowanych zmian, monitorowanie i raportowanie
postępu, ocenę i wznowienie badania oraz formułowanie planu wdrażania kolejnych
zmian. W tym miejscu rozpoczyna się ponownie faza pierwsza [Kuczewska 2007].
Jeszcze inna propozycję przedstawił B. Andersen [Kuczewska 2007]:
186
Lub w zmodyfikowanej wersji [Benchmarking 2008]:
Benchmarking przebiega na wielu poziomach [Benchmarking 2008]:
187
Typy benchmarkingu. Biorąc pod uwagę podmiot benchmarkingu, wyróżnia się benchmarking: wyników, procesów, strategiczny oraz organizacyjny.
•
•
•
•
Benchmarking wyników oznacza porównanie rezultatów osiąganych przez
przedsiębiorstwa np. udziału w rynku czy też efektywności obsługi klienta. Takie
porównanie powinno być tylko wstępem do dalszej analizy wskazującej drogę
uzyskania wyników osiąganych przez lidera.
Benchmarking procesowy jest najczęściej stosowanym rodzajem benchmarkingu.
Przedmiotem porównania są procedury i procesy stosowane w organizacjach.
Benchmarking strategiczny dotyczy porównania działań na poziomie strategicznym – wspomaga uzyskanie trwałej przewagi konkurencyjnej poprzez dostarczanie wiedzy strategicznej.
Benchmarking organizacyjny stosowany jest w procesach restrukturyzacyjnych
oraz doskonalących organizację [Benchmarking 2008].
Historia. „Benchmarking jest narzędziem wykorzystywanym zarówno w sektorze prywatnym jak i publicznym. Stosowany początkowo intuicyjnie w biznesie, poprzez obserwację partnerów lub konkurentów oraz adaptację ich dobrych praktyk, benchmarking stał się z czasem procesem sformalizowanym, stosowanym z powodzeniem przez
wiele firm. Instytucje sektora publicznego, doceniając korzyści płynące z benchmarkingu, również zaczęły wdrażać go do praktyki swego działania, dostosowując go do warunków swego funkcjonowania. Także w szkolnictwie wyższym benchmarking zyskał
uznanie jako narzędzie zwiększające produktywność, konkurencyjność oraz przyczyniające się do polepszenia jakości kształcenia i badań naukowych. Pierwsze sformalizowane
188
działania benchmarkingowe przeprowadziła firma Xerox w 1979 r.” [Benchmarking
2008].
Benchmarking w sektorze publicznym. „Benchmarking w sektorze publicznym może
stanowić pewien substytut działania sił rynkowych, stwarzając warunki wspierające
konkurencję oraz zachęcające do modernizacji i ulepszeń. Benchmarking jednostek sektora publicznego jest zadaniem trudnym i kłopotliwym. Specyficzny charakter sektora
publicznego znalazł odzwierciedlenie w przeprowadzonych dotychczas projektach benchmarkingowych. Obszar ten charakteryzuje złożoność wpływów otoczenia i jego niestabilność (częste zmiany polityczne i prawne), wielość i niejednoznaczność celów,
mnogość interesariuszy, ich sprzeczne oczekiwania i preferencje, oraz obawa przed innowacyjnością. W sektorze publicznym benchmarking stosowano m. in. do analizy funkcjonowania miast, urzędów, szpitali, bibliotek, posterunków policji, komunikacji miejskiej, szkół oraz uczelni. Efektem zastosowania benchmarkingu jest m.in. podwyższenie
jakości świadczonych usług, poprawa efektywności wydatkowania środków publicznych, oraz doskonalenie zarządzania instytucjami publicznymi. Benchmarking może się
również przyczynić do bardziej efektywnej alokacji środków budżetowych. Trudności w
zastosowaniu benchmarkingu w sektorze publicznym wynikają często z braku sprecyzowanej misji jednostek” [Benchmarking 2008].
Podczas adaptowania praktyk porównawczych z zakresu biznesu do polityki trzeba
wziąć pod uwagę pewne wymogi. Minimalnym wymogiem jest to, że analiza porównawcza musi dawać lepszy wgląd w procesy warunkujące wydajność. Benchmarking w tym
sensie nie może zatrzymać się na ilościowych porównaniach różnych wskaźników. Przeciwnie, takie porównanie powinno być tylko punktem wyjścia do dalszej analizy. Innym
wymogiem jest to, że benchmarking powinien być oparty na współpracy w wymianie informacji wszystkich zaangażowanych stron w celu wspólnego uczenia się. Nie powinien
być oparty jedynie na wtórnych informacjach i danych statystycznych [Final 2002].
Benchmarking polityk jest rozumiany albo jako sformalizowana procedura o określonych celach, fazach i metodach, albo w sposób luźniejszy, jako np. „mechanizm uczenia
się dobrych praktyk w zakresie zarządzania B+R od innych poprzez aktywną wymianę
poglądów i stanowisk wśród ekspertów i polityków, począwszy od analizy niektórych
uzgodnionych wskaźników oraz poprzez wymianę doświadczeń i praktyk w zakresie
działań politycznych” [Benchmarking 2002].
Kluczowe zasady benchmarkingu. Z reguły benchmarking jest podejściem ustrukturyzowanym. Wytyczną w praktykach porównań powinny być podstawowe zasady metodologiczne, takie jak ogniskowanie uwagi, pomiar, różnicowanie, uczenie się, porównywalność, integracja.
Zasada ogniska. Benchmarking wymaga wyraźnego ogniska – im ściślej określimy podstawowe elementy oceny, tym cenniejsze możliwości uczenia. Przedmiot analizy porównawczej powinien zostać ściśle określony nie tylko co do zakresu tematycznego, ale
także chronologicznego. Porównywanie ze sobą tak szerokiego i wieloaspektowego, jak
np. polityka naukowa może być bardzo trudne.
189
Zasada pomiaru. Benchmarking wymaga obiektywnego pomiaru – im bardziej obiektywne miary, tym bardziej skuteczne uczenie się. W przypadku analizy porównawczej,
stosunkowo obiektywny pomiar zależy głównie od doboru wskaźników.
Zasada różnicowania. Benchmarking wymaga jasnego oddzielenia wymiarów wyników i
praktyk.
Zasada uczenia się. Benchmarking jest przede wszystkim pomocą w uczeniu się - zapewnienia dopływ nowych pomysłów na poprawę praktyk w ramach organizacji.
Zasada porównywalności. Benchmarking działa najlepiej, gdy luki nie są zbyt duże - np.
benchmarking małej firmy inżynieryjnej w odniesieniu do IBM. W benchmarkingu polityki powinno brać się pod uwagę nie tylko wielkość organizacji, ale także społecznoekonomiczne, polityczne, a przede wszystkim instytucjonalne podobieństwa sektorów
publicznych. Np. porównywanie polityki naukowej Słowacji i Kanady nie jest słuszne.
Zasada integracji. Benchmarking może być włączony do bardziej zintegrowanych ram –
np. Otwartej Metody Koordynacji (OMC) [Papaioannou 2006].
Ograniczenia benchmarkingu. Zwraca się uwagę na dwa główne typy ograniczeń w
przenoszeniu dobrych praktyk z jednego miejsca do drugiego: odmienność kontekstów
oraz „zależność od drogi”. W benchmarkingu polityki „przyjęcie optymalnego kształtu
działań politycznych wymaga nie tylko adaptacji metod stosowanych w jednym kraju do
kontekstu innego kraju, ale również uwzględnienia uprzednich działań” [Rose 2005].
Lundvall and Tomlinson podkreślają, że idea “wzorcowej praktyki” może podcinać proces polityczny i demokratyczne procedury. „Na jakiej podstawie sądzimy, że polityka,
która sprawdziła się w jednym kraju okaże się skuteczna w innym? Na jakiej podstawie
wiążemy polityki z ich efektami, skoro najczęściej są one złożone, a ich efekt zależy od
bardzo wielu okoliczności towarzyszących? Metodologie badań porównawczych przestrzegają przed porównywaniem “jabłek i pomarańczy”” [Kastrinos 2001].
Benchmarking w OECD. Jedną z głównych funkcji OECD jest dostarczanie danych, informacji i analiz służących benchmarkingowi polityk, programów, instrumentów, systemów (np. badań i innowacji) oraz instytucji i praktyk w krajach członkowskich (lub
szerszej grupie porównawczej). W odniesieniu do nauki i innowacji, narzędziem są m.in.
bazy danych oraz takie publikacje, jak OECD Science, Technology and Industry Outlook
oraz OECD Science, Technology and Industry Scoreboard. Benchmarkingowi służy wielka
część raportów OECD, np. Public Research Institutions. Mapping Sector Trends, 2011.
Benchmarking w Unii Europejskiej. Praktyki benchmarkingu OECD dały asumpt do
stworzenia praktyk benchmarkingu w Unii Europejskiej. Benchmarking polityk badawczych to podstawowy składnik >OTWARTEJ METODY KOORDYNACJI (Open Method of
Coordination, OMC), a także projektu Europejskiej Przestrzeni Badawczej. Benchmarking
ma pomóc w ulepszaniu polityk badawczych państw członkowskich, tak aby stały się
bardziej spójne ze sobą poprzez proces porównywania, wymiany doświadczeń i wzajemnego uczenia się. Wyjściowe dokumenty Unii to:
190
•
Development of an open coordination method for the comparative evaluation (benchmarking) of national research policies - objectives, methodology and indicators, SEC
1842 of 3.11.2000;
• Progress report on Benchmarking of national research policies,
Brussels,
SEC(2001)1002
•
Benchmarking of national RTD policies: initial results; SEC 2002 129 of 31.1.2002.
Narzędziem instytucjonalnym przeprowadzania OMC była grupa doradcza CREST, a
obecnie jest nią grupa >ERAC.
Narzędziem pomocniczym są coroczne raporty Komisji Europejskiej do Rady i Parlamentu Europejskiego Sprawozdania z Postępu Prac w Ramach Europejskiej Przestrzeni
Badawczej obejmujące zarówno ocenę na szczeblu unijnym, jak i poszczególnych państw
(krajowe fiszki, ang. Country Fiches).
Trzy główne zalecenia Komisji dotyczące benchmarkingu:
•
Benchmark i efekty, i wkłady;
•
Benchmark raczej przyczyny niż objawy.
•
Benchmark zarówno proces, jak i jego wyniki.
Trzy podejścia do benchmarkingu:
•
Podejście nadzoru, benchmarking odgórny, stosowany w celu szukania zgodności
polityk Unii z niższymi szczeblami.
•
Podejście edukacyjne, które w zasadzie ma ułatwiać przygotowanie lub inicjowanie działań politycznych.
•
Trzecie podejście ma na celu ulepszanie polityk i zajmuje pozycję pośrednią pomiędzy poprzednimi. Łączy ono analizę z działaniem z miarami dla samoewaluacji oraz możliwościami uczenia się w celu dokonywania ulepszeń i adaptacji. Opiera się ono na filozofii stałego systematycznego uczenia się i dokonywania
auto-korekty [Arrowsmith 2004].
Benchmarking narodowego systemu innowacji. Wszechstronny benchmarking systemów badań i innowacji przeprowadzono w Wielkiej Brytanii [Allas 2014]. Analizę porównawczą oparto na wydzieleniu sześciu podstawowych modułów, takich jak 1) pieniądze, 2) talent, 3) aktywa wiedzy, 4) struktury i zachęty, 5) szersze otoczenie, 6) produkty innowacji. Moduły te zawierają dużą liczbę podmiotów oddziaływujących na system i odgrywających w nim różne funkcje, takich jak rząd, uczelnie, biznes, towarzystwa
naukowe, obywatele. Główne pytania dotyczyły tego, jak skutecznie i efektywnie działa
system w celu poprawy wyników gospodarczych i społecznych; jak reaguje i dostosowuje się do zmian w popycie i praktykach gospodarczych i społecznych; w jakim zakresie
jego poszczególne elementy są koordynowane. Ocenę oparto na 42 wskaźnikach opartych na danych z baz organizacji międzynarodowych, takich jak Bank Światowy, OECD,
Światowe Forum Gospodarcze (WEF), INSEAD oraz Światowa Organizacja Własności Intelektualnej (WIPO). W celu porównania wyników Wielkiej Brytanii na tle krajów porównaw-
191
czych wykorzystano system punktacji, oparty na maksymalnych i minimalnych wartościach [Allas 2014].
Podjęto próby łączenia systemowego podejścia do innowacji z technikami analizy porównawczej. Zwraca się jednak uwagę, że integracja terminologii benchmarkingu korporacyjnego w ramach NSI jest problematyczna i może powodować nieporozumienia [Balzat 2003].
Benchmarking organizacji badawczych. TNO (Holenderska Organizacja Stosowanych
Badań Naukowych) przeprowadziła badania porównawcze poza-uczelnianych instytucji
badawczo-technologicznych w celu poznania najlepszych praktyk. Benchmarking opierał się na wskaźnikach wykonania oraz na informacjach o najlepszych praktykach z kilku przodujących instytutów naukowych i technologicznych na całym świecie. Lista pytań obejmowała takie grupy, jak zarządzanie instytutem, polityki i strategie badawcze,
organizację i strukturę, finansowanie badań i zarządzanie finansami, zasoby ludzkie, zarządzanie aktywami organizacyjnymi, zarządzanie programami i projektami, partnerstwo i sieci, ewaluację i ocenę wpływu, odnowę i kształcenie [Benchmarking 2005].
Benchmarking uczelni oraz systemów szkolnictwa wyższego. „Celem benchmarkingu w szkolnictwie wyższym jest poprawa krajowej, bądź też międzynarodowej pozycji
konkurencyjnej uczelni. Benchmarking umożliwia także identyfikację procesów wymagających doskonalenia w sektorze oraz w uczelniach, udoskonalenie procesów dydaktycznych, badawczych, finansowych, administracyjnych itp. oraz lepsze przystosowanie
dydaktyki i badań naukowych do potrzeb rynku. Na podstawie publikowanych doświadczeń do celów benchmarkingu można także zaliczyć rozwijanie współpracy między
uczelniami i pozyskanie potencjalnych partnerów do innych projektów.” „Benchmarking
ułatwia identyfikację obszarów działalności uczelni wymagających poprawy i wskazuje
najlepsze praktyczne rozwiązania zaistniałych problemów. Inicjatywy benchmarkingowe mogą również przyczynić się do rozwoju współpracy między uczelniami.” ” W literaturze przedmiotu opisywane są również przykłady benchmarkingu bibliotek uniwersyteckich, procesów administracyjnych, związanych m.in. z gospodarką obiektami uczelni
oraz działalnością finansowo–księgową uczelni.” Uczelnie praktykują benchmarking
również w sposób nieformalny poprzez wymianę doświadczeń w ramach współpracy,
poprzez dyskusje na forum stowarzyszeń, lub konferencji rektorów, kanclerzy, kwestorów (KRASP, KRPUT w Polsce, NACUBO – National Association of Colleges and University Business Officers w USA). Uczelnie tworzą również konsorcja powoływane specjalnie
do realizacji projektu benchmarkingowego (collaborative benchmarking10) oraz podejmują działania benchmarkinowe bez współudziału innych uczelni np.: poprzez kupowanie danych od firm wyspecjalizowanych w benchmarkingu lub korzystanie z oferowanych przez nie narzędzi internetowych do benchmarkingu (non–collaborative benchmarking). „Rankingi szkół wyższych nie są benchmarkingiem. Szeregują bowiem badane jednostki nie spełniając podstawowego wyznacznika benchmarkingu, tzn. nie
wskazując najlepszych praktyk i tym samym nie stwarzając możliwości uczenia się. Z tego powodu można je jedynie określać mianem fałszywego benchmarkingu, zgodnie z
terminologią stosowaną przez European Network for Quality Assurance in Higher Euca192
tion – ENQA5, prawdziwy benchmarking jest zawsze zorientowany na ulepszenia. Benchmarking fałszywy dąży do stworzenia rankingu, bez wskazania sposobów doskonalenia dotychczas stosowanych praktyk. Bazując głownie na zasobach uczelni rankingi najczęściej nie odnoszą się do efektywności gospodarowania tymi zasobami. Sprzyjają zatem dużym jednostkom, z bogatym zapleczem kadry naukowej i bazą dydaktyczną, pozostawiając bez szans jednostki mniejsze, ale sprawnie zarządzane [Benchmarking
2008].”
Benchmarking programów badawczych. Bliski >EWALUACJI PROGRAMÓW I INSTRUMENTÓW jest benchmarking programów badawczych [Benchmarking 2003].
Benchmarking polityki innowacyjnej. Jako przykład benchmarkingu polityki innowacyjnej można przytoczyć raport Inside Consulting [2004], który przedstawia analizę porównawczą skuteczności innowacji i innowacyjnych warunków ramowych w 27 krajach
OECD, przy użyciu różnych danych ilościowych i jakościowych oraz analiz.
Benchmarking polityki naukowej. Inicjatywy benchmarkingu polityki naukowej podjęła Komisja UE w związku z planami stworzenia >EUROPEJSKIEJ PRZESTRZENI BADAWCZEJ.
Pierwsza faza benchmarkingu, ujęta w dokumencie EC [Benchmarking 2002] oparta została na następujących założeniach:
•
•
•
•
zrozumienie różnych rodzajów polityki i instrumentów polityki z uwzględnieniem kontekstów, w których są one stosowane;
zastosowanie wskaźników wyników w celu porównania skuteczności i efektywności poszczególnych instrumentów;
zrozumienie sposobu, w jaki poszczególne instrumenty są połączone w Policy Mix
w ramach krajowych systemów innowacji;
szacowanie łącznego wpływu całego spektrum instrumentów, stosowanych w
różnych systemach innowacji.
W raporcie zastosowano następujące schematy opisu krajowych systemów badań i innowacji:
SPOŁECZNY I LUDZKI KAPITAŁ
UŻYTKOWNICY
TWÓRCY
POPYT
ZDOLNOŚĆ
ABSORPCJI
KOMPETENCJE BADAWCZE
PODAŻ
WYNIKI TECHNOLOGICZNE I INNOWACYJNE
Zastosowano także następującą taksonomię polityk:
193
Polityki wzmacniające dla
użytkowników publicznego
sektora wiedzy
*Wsparcie dla instytucji edukacji
naukowej i technicznej
Inicjatywy pomostowe pomiędzy użytkownikami oraz twórcami wiedzy sektora publicznego
Inicjatywy pomostowe pomiędzy użytkownikami wiedzy
sektorów publicznego I prywatnego
*Instytucje sektora publicznego
zajmujące się informacją naukową i techniczną, patentową, innowacyjną
Inicjatywy pomostowe pomiędzy użytkownikami i twórcami
wiedzy sektorów publicznego i
prywatnego
*Wsparcie infrastruktury sieciowej teleinformatycznej
Polityki wzmacniające dla
użytkowników prywatnego
sektora wiedzy
*Subsydia na przeprowadzanie
audytu technologii, zatrudnianie
techników
Inicjatywy pomostowe pomiędzy użytkownikami i twórcami
prywatnego sektora wiedzy
*Wsparcie transferu technologii
oraz technologicznego brokerstwa
*Kampanie podnoszące świadomość wagi B+R i innowacji
*Instytucje pośredniczące między nauką publiczną a B+R w
przemyśle
Polityki wzmacniające dla
twórców publicznego sektora
wiedzy
Inicjatywy pomostowe pomiędzy twórcami wiedzy sektorów
publicznego i prywatnego
Polityki wzmacniające dla
twórców wiedzy sektora prawatnego
*Wsparcie dla infrastruktury badawczej w uczelniach
*Wsparcie dla ukierunkowanych
badań opartych na współpracy
pomiędzy uczelniami i przemysłem
*Subsidised market-oriented
R&D
*Usługi B+R I innych form N+T
laboratoriów rządowych dla
przemysłu
*R&D tax incentives
*Wsparcie dla badań podstawowych
*Wsparcie dla centrów doskonałości
*Inicjatywy poszukiwania partnerów badawczych
*Wsparcie dla laboratoriów uniwersyteckich
*Infrastruktura transfery technologii
*Product development assistance
*Innovation credits
*Favourable IPR regimes
*Inward investment schemes for
‘R&D intensive’ industries
*Programy wymiany personelu
pomiędzy uczelniami a przemysłem
*Wsparcie dla firm odpryskowych
*Uniwersyteckie biura łącznikowe
194
*University Liaison Offices
*Wsparcie komercjalizacji badań
Analizę porównawczą polityk naukowych UE [Benchmarking 2002] wykorzystała Belgia, zamawiając bardziej szczegółowe analizy i zalecenia [Nauwelaers 2003].
Benchmarking działów polityki naukowej. Benchmarking polityk wobec biotechnologii. Benchmarking [2005] łączył ocenę działań politycznych wspierających biotechnologię z oceną stanu biotechnologii w wybranych krajach.
Unijny benchmarking krajowych polityk naukowych objął pięć dziedzin/aspektów polityki:
•
•
•
•
•
Zasoby ludzkie, wliczając w nie zawody N+T;
Publiczne i prywatne inwestycje w B+R;
Wpływ B+R na konkurencyjność i zatrudnienie;
Promocję kultury B+R oraz publiczne rozumienie nauki;
Produktywność N+T.
Badano także wpływ zachęt podatkowych oraz ograniczeń finansowych na decyzje dotyczące wydatków na B+R korporacji [Klassen 2003].
Technopolis przeprowadził benchmarking mechanizmów i strategii stosowanych w różnych krajach przez rządy, uczelnie i organizacje badawcze dla przyciągnięcia naukowców z zagranicy [Technopolis 2002]. W badaniu wybrano pięć krajów: dwa, które są pod
tym względem najlepsze w świecie (Wielka Brytania i Stany Zjednoczone), oraz trzy,
które mają podobne systemy badawcze co Irlandia, o skromniejszej międzynarodowej
renomie (Holandia, Finlandia i Dania).
Bibliografia
Cecilia Cabello, Benchmarking of Best Practices: A Perspective for Policy
Benchmarking w systemie szkolnictwa wyższego. Praca zbiorowa pod redakcją Jerzego Woźnickiego, Warszawa 2008
Final report of the expert group on “Benchmarking S&T Productivity”, June 2002
Benchmarking, Wikipedia 2014.
Joanna Kuczewska, Europejska procedura benchmarkingu Programy i działania, PARP 2007.
OECD Christian Isaksson Survey Of Benchmarking Activities, Swedish Agency for Administrative Development, 1997.
Theodoros Papaioannou, Howard Rush and John Bessant, Benchmarking as a policy-making tool: from the
private to the public sector, “Science and Public Policy”, volume 33, number 2, March 2006, ss. 91–102.
Bengt-Åke Lundvall and Mark Tomlinson, International benchmarking as a policy learning tool, w: The New
Knowledge Economy in Europe. A Strategy for International Competitiveness and Social Cohesion, Bengt-Åke
Lundvall, Gøsta Esping-Andersen, Luc Soete, Manuel Castells, Mario Telò, Mark Tomlinson, Robert Boyer,
Robert M. Lindley. Ed. by Maria João Rodrigues, Edward Elgar, 2002, s. 207.
195
Marianne Paasi, Collective benchmarking of policies: an instrument for policy learning in adaptive research
and innovation policy, “Science and Public Policy” February 2005.
Markus Balzat, Benchmarking in the Context of National Innovation Systems: Purpose and Pitfalls, May
2003.
Benchmarking Contract Research Organizations. A comparative analysis of: CSIRO, Australia; DPI, The Netherlands; Fraunhofer Gesellschaft Germany; IMEC, Belgium; Joanneum Research, Austria; SINTEF, Norway;
TNO, The Netherlands; VTT, Finland, TNO Delft, 3 March 2005.
Inside Consulting, Benchmarking Innovation Policy and Innovation Framework Conditions, January 2004.
Benchmarking Of National Policies Public And Private Investments In R&D Final Report June 2002.
Ken Guy and Claire Nauwelaers, Benchmarking STI Policies in Europe. In Search of Good Practice [2002]
EC, European Commission DG Research, Benchmarking national research policies: The Impact of RTD on
Competitiveness and Employment (IRCE) A STRATA-ETAN Expert Group, [2002].
Benchmarking Evaluation Of Public Science And Technology Programs In The United States, Canada,
Israel, And Finland. Proceedings Of A Workshop Sponsored By Tekes – National Technology Agency Of Finland 2003.
Kathleen C. Dominique, Ammar Anees Malik and Valerie Remoquillo-Jenni, International benchmarking:
Politics and policy, “Science and Public Policy”, Vol. 40, 2013, Issue 4 ss. 504-513.
Eugene Bardach, Problem Ekstrapolacji: Jak możemy uczyć się z doświadczeń innych?, „Państwo i Rynek” nr
2 / 2005, oryg. „The Extrapolation Problem: How Can we Learn from the Experience of Others” “J. Policy
Analysis and Management” 2004 23 (4) 205-220.
Richard Rose, Gdy Wszystkie Inne Czynniki Nie Są Niezmienne: O Kontekście Czerpania Wzorów z Polityki
Innych Krajów, „Państwo i Rynek” 2005 nr 2, oryg. When All Other Conditions Are Not Equal: The Context
for Drawing Lessons, w: C.J. Finer, ed., Social Policy Reform in China: Views from Home and Abroad, Aldershot Ashgate, 2003, s. 5-22.
Nikos Kastrinos, Introduction Contribution of socio-economic research to the benchmarking of RTD policies
in Europe, “Science and Public Policy”, vol. 28, nr 4, August 2001, pages 238–246.
Benchmarking of public biotechnology Policy. Final report. European Commission Enterprise Directorate
General April 2005.
Report from the Expert group Benchmarking the Promotion of RTD culture and Public Understanding of Science July 2002.
EC, European Commission, Benchmarking National Research Policies, Brussels 2002.
Kenneth J. Klassen, Jeffrey A. Pittman, Margaret P. Reed, A Cross-National Comparison of R&D Expenditure
Decisions: Tax Incentives and Financial Constraints, 2003.
Technopolis, Benchmarking Mechanisms and Strategies to attract Researchers to Ireland. A study for the
Expert Group on Future Skills Needs and Forfás, Final Report, February 2001.
Tera Allas, Insights from international benchmarking of the UK science and innovation system, BIS Analysis
Paper Number 03, January 2014.
The Danish Centre for Studies in Research and Research Policy, A comparative study of dynamic elements
in Canadian, Irish and Danish research systems, 2004.
Benchmarking w systemie szkolnictwa wyższego. Praca zbiorowa pod redakcją Jerzego Woźnickiego. Fundacja Rektorów Polskich, Warszawa 2008.
James Arrowsmith, Keith Sisson and Paul Marginson, What can ‘benchmarking’ offer the open method of coordination?, “Journal of European Public Policy” 11:2 April 2004: 311–328.
2013 COMMISSION STAFF WORKING DOCUMENT. Country fiches Member States of the European Union.
Accompanying the document REPORT FROM THE COMMISSION TO THE COUNCIL AND THE EUROPEAN
196
PARLIAMENT EUROPAN RESEARCH AREA PROGRESS REPORT 2013 {COM(2013) 637 final}, Brussels 20
9 2013 SWD(2013) 333 final
EC, European Commission DG Research, Benchmarking national research policies: The Impact of RTD on
Competitiveness and Employment (IRCE) A STRATA-ETAN Expert Group, [2002].
Claire Nauwelaers, Reinhilde Veugelers, Bart Van Looy, Benchmarking National R&D policies in Europe:
Lessons for Belgium, 2003.
EWALUACJA POLICY MIX
(Policy mix evaluation)
Instrumenty mogą albo wzajemnie wzmacniać się w ramach dobrze dobranego portfela, lub
mogą dublować się, powodować wzrost biurokracji, być bardzo rozdrobnione i potencjalnie
sprzeczne ze sobą.
Pierwszy krok. Ocena dynamiki i wpływu pakietu programów i instrumentów wymaga, jako
pierwszego kroku, odpowiedzi na pytanie, czy stosowany zestaw programów i instrumentów
jest prostą sumą różnych narzędzi, czy też przemyślanym zestawem.
Na podstawie porównania poszczególnych instrumentów należy zbadać, jakie istnieją
relacje pomiędzy instrumentami oraz pomiędzy poszczególnymi grupami instrumentów
(np. instrumentami tematycznymi i ogólnymi; instrumentami wzmacniającymi podstawy nauki, B+R biznesu i innowacji, powiązania nauki z przemysłem, zasoby ludzkie, itd.)
– czy są one wobec siebie komplementarne, czy wzmacniają się wzajemnie, czy dublują
się lub kolidują ze sobą; jaki wpływ na funkcjonowanie instrumentów polityki naukowej
mają instrumenty innych polityk – ekonomicznej (finansowej, makroekonomicznej, podatkowej), konkurencyjności, handlu, innowacyjnej, przedsiębiorczości, edukacyjnej, zatrudnienia, rozwoju regionalnego, praw własności intelektualnej, ochrony konsumenta,
obronnej, zdrowia, środowiska; jakie istnieją relacje pomiędzy instrumentami na różnych poziomach polityki – krajowym, unijnym i regionalnym? Czy ogólna równowaga
pomiędzy instrumentami jest właściwa, czy też istnieje nadmiar pewnego typu instrumentów lub maja one zbyt wielką skalę? Czy poszczególne instrumenty są dobrze zaprojektowane dla rozwiązania problemu, który mają adresować? Czy struktura zarządzania
instrumentami jest właściwa?
Ocena powinna też brać pod uwagę m.in. zasady ewaluacji programów i instrumentów,
informacje na temat postrzegania ich przez naukowców oraz różnice między dyscyplinami
badawczymi.
Jako punkt wyjścia ewaluacji byłoby użyteczne mieć dostęp nie tylko do danych zagregowanych dotyczących instrumentów finansowania, ale przede wszystkim danych w rozbiciu na dyscypliny i sektory instytucjonalne (szkoły wyższe, poza-uczelniane instytucje naukowe, biznes, organizacje non-profit), pochodzenia (publiczne, prywatne), typu (konkurencyjny, niekonkurencyjna) i celu (ogólne, ukierunkowane na rozwiązywania konkretnych problemów).
197
Drugi krok. Drugi etap polega na analizie indywidualnych i łącznych skutków różnych instrumentów w takich wymiarach publicznego sektora nauki, jak struktury, powiązania z przemysłem, umiędzynarodowienie, wyniki i dostępu do danych badawczych. Oznaczałoby to
bardziej całościowe oceny wpływu programów i instrumentów na publiczny system nauki, wykraczający poza ocenę wpływu poszczególnych instrumentów i unikający ryzyka popadania w
mechaniczne metody ilościowe (np. proste liczenie umów, patentów i publikacji).
Na podstawie porównania poszczególnych instrumentów należy zbadać, czy pakiet instrumentów właściwie odpowiada na najważniejsze problemy systemu nauki i innowacji w perspektywie długofalowych celów rządowych; czy ogólny policy mix jest spójny,
adekwatny, skuteczny i efektywny, czy też czy istnieją ważne problemy, których istniejące instrumenty nie podejmują?
Możliwe wskaźniki obejmują:
i) Struktura: ewolucja wielkości (liczby naukowców, liczba instytucji) i kompozycji (instytucji, stażu pracy) grup badawczych ubiegających się i korzystających z instrumentów;
ii) Powiązania z przemysłem: liczba i wielkość zamówień badawczo-rozwojowych i doradczych,
wspólnie dzielone urządzenia (np. wspólne laboratoria), wspólne aplikacje patentowe, własność firm patentów publicznego sektora nauki, patentowe umowy licencyjne, współautorstwo
publikacji naukowych, wspólne wnioski o fundusze, licencje na oprogramowanie, szkolenia
doktorskie w firmach;
iii) Umiędzynarodowienie: współpraca zagraniczna, międzynarodowa mobilność naukowców,
studentów, zagranicznych doktorantów i postdoków;
iv) Wyniki: publikacje naukowe w czasopismach o wysokim wpływie, liczba cytowań, liczba
patentów międzynarodowych, liczba udzielonych patentów, honoraria z tytułu umów licencyjnych, liczby i trwanie firm odpryskowych;
v) dostępu do danych i wyników badawczych: działalność cyfrowych repozytoriów instytucjonalnych, otwarty ruch wydawniczy, otwarty dostęp do artykułów naukowych oraz
możliwość ponownego wykorzystania danych badawczych finansowanych ze środków publicznych.
Bibliografia
OECD IPP, Innovation Policy Platform, Issue Brief: Public Sector Research Funding.
EWALUACJA POLITYKI NAUKOWEJ I INNOWACYJNEJ
(Science and Innovation Policy Evaluation)
Ewaluacja to zestaw działań generujących wiedzę dotyczącą zasadności, przebiegu i oddziaływania interwencji polityki publicznej. Ewaluacja jest zazwyczaj ukierunkowana na
instrumenty, programy i polityki. Niekiedy ewaluacja odnosi się nie do interwencji pu198
blicznej, lecz do organizacji publicznej (np. uniwersytetu czy laboratorium rządowego),
sektora publicznego lub też innych jednostek, utrzymywanych w całości lub częściowo z
pieniędzy podatnika. Ewaluacja jako nieodłączny element działalności administracji
rządowych w krajach rozwiniętych gospodarczo sięga lat 1950-tych (choć sporadyczne
ewaluacje przeprowadzano także w II poł. XIX w.).
Historia ewaluacji. Choć ewaluacja badań naukowych ma wielowiekową tradycję, stała
i systematyczna ewaluacja programów i instrumentów politycznych w sferze N+T oraz
organizacji badawczych, finansowanych z budżetu państwa, jest świeżej daty (II poł. lat
1970-tych – lata 1980-te). Wiąże się ona z modernizacją administracji rządowej oraz z
przemianami funkcji badań naukowych i technologicznych.
W porównaniu z innymi obszarami polityki, praktyki ewaluacji polityki N+T+I są stosunkowo świeżej daty: w Stanach Zjednoczonych od końca 1960 roku, w Europie w latach
1970., choć ocenę >Peer Review wniosków grantowych rozpoczęto znacznie wcześniej.
Problem ewaluacji polityki naukowej dostrzeżono stosunkowo późno w porównaniu z
innymi dziedzinami: pod koniec lat 1960. praktyki i metody ewaluacji były już dobrze
znane w polityce oświatowej i społecznej. Obecnie ocena polityki N+T+I stała się jednym
z najważniejszych obszarów zainteresowania decydentów. Nowe Zarządzanie Publiczne
w latach 1980 zwiększyło presję na ewaluacje [Molas-Gallart 2005].
Ewaluacja >POLITYKI NAUKOWEJ I INNOWACYJNEJ stała się standardem w krajach UE i
OECD. Np. w Austrii zaczęto ją przeprowadzać od roku 1991. W roku 1996 założono Research and Technology Policy Evaluation Platform, skupiającą ministerstwa, agencje, instytucje naukowe i think tanki zainteresowane zagadnieniami ewaluacji; dotychczas
przeprowadzono ok. 180 ewaluacji.
Ewaluacja polityki naukowej i innowacyjnej dostosowuje się – choć z opóźnieniem – do
zmieniających się koncepcji badań, innowacji oraz polityki. W ostatnich latach rozwinięto tzw. systemowe podejście do ewaluacji, idące w ślady systemowego podejścia do
badań, innowacji i polityki. Systemowe podejście do ewaluacji kładzie nacisk na kwestie
uwarunkowań instytucjonalnych, powiązań pomiędzy stronami (ponad-graniczne i ponad-instytucjonalne sieci współpracy) oraz możliwości technologicznych, społecznych i
gospodarczych [Molas-Gallart 2005]. Owocem zmian są w szczególności ewaluacje >Policy Mix oraz – do pewnego stopnia – >OCENY WPŁYWU BADAŃ, które w ostatnich latach wysunęły się na czoło ewaluacji polityki naukowej i innowacyjnej.
Cele i motywy ewaluacji. Ewaluacja dostarcza wiedzy o skuteczności i efektywności
polityk zrealizowanych (ewaluacja ex post), realizowanych (ewaluacja mid term) lub
planowanych (ewaluacja ex ante) w celu kształtowania i uzasadniania przyszłych interwencji. Stwarza ona szansę wspólnego refleksji interesariuszy – szczególnie polityków,
użytkowników i beneficjentów – nad ocenianymi politykami, czyli uczenia się, jak robić
lepszą politykę i lepsze ewaluacje. Jest także narzędziem rozliczania (ang. accountability). Z punktu widzenia accountability ma ona wyjaśnić, w jaki sposób zostały wykorzystane środki publiczne, jakie przyniosły one efekty i jak uzasadnia się ich użycie. Ewaluacja to także środek legimityzacji, pomoc w ustaleniu >PRIORYTETÓW POLITYKI, na-
199
rzędzie podziału funduszy, metoda zarządzania, która służy ulepszaniu realizacji już
podjętych decyzji oraz decyzji, które mają być podjęte w przyszłości.
Istnieje zasadnicza zgoda, że wszystkie interwencje polityczne powinny być poddawane ewaluacji. Jednak powstaje problem gdy trzeba decydować:
• Kiedy jest właściwy czas, aby przeprowadzić ocenę?
• Jaki jest właściwy poziom agregacji, np. dla oceny na poziomie projektu, programu, polityki,
Policy mix, organizacji lub systemu B+R i innowacji?
• Jakie kryteria oceny powinno się stosować?
Pytania te często rozstrzyga się w zgodzie z potrzebami decydentów i/lub zarządzających programami. Ewaluacje ex ante, w połowie okresu (ang. mid term) lub ciągłe (ang.
ongoing) i ex post odgrywają ważną rolę w >CYKLU POLITYKI; różne rodzaje pytań można podnosić i różne kryteria stosować na różnych poziomach ewaluacji.
Ewaluacje ex-ante i ex-post służą różnym celom i są komplementarne. Ewaluacja ex-ante
stanowi część przygotowania interwencji i dąży do oceny skuteczności przyszłych instrumentów politycznych. W jej ramach zbiera się informacje i przeprowadza analizy,
które mają pomóc określić cele interwencji oraz zapewnić, że cele zostaną spełnione, a
instrumenty – opłacalne. Ewaluacja ex ante buduje jednocześnie podstawy pod ewaluację ex post. Cele oceny ex post można podsumować w następujący sposób:
• Ocenić skuteczność, stosunek kosztu do jakości, efektywność i zasadność interwencji
• Stworzyć możliwość refleksji i przedstawienia propozycji ulepszeń ocenianej polityki.
• Zapewnić decydentom i menedżerom podstawę >ROZLICZALNOŚCI (ang. accountability) [OECD 2011].
Początkowy etap ewaluacji polega na określeniu zakresu ewaluacji, jej celów, przedmiotu i kryteriów oceny. Prace te najlepiej przeprowadzać w porozumieniu z wielu różnymi zainteresowanymi stronami. W niektórych sytuacjach parametry ewaluacji są
określone przez prawo. Niezbędnym elementem tego etapu jest ustalenie (zapisanej lub
zrekonstruowanej przez ewaluatorów) >LOGIKI INTERWENCJI polityki (instrumentu,
programu) [OECD IPP 2013].
Z punktu widzenia ogólnego zarządzania systemem badawczym ewaluacja pełnie dwie
funkcje. Z jednej strony jest „narzędziem sterowania”, to znaczy instrumentem organizowania i zarządzania badaniami. Z drugiej strony, wraz z funkcją sterowania, może ona
pełnić funkcję dystrybucyjną, czyli być stosowana do przydzielania różnych rodzajów
nagród i zasobów różnym rodzajom podmiotów - osobom, grupom lub organizacjom.
Zachęty te mogą być ekonomiczne (dotacje, premie wynagrodzenia) i/lub symboliczne
(reputacja i prestiż)[Cruz-Castro 2006].
Same przez się ewaluacje nie gwarantują, że w ich następstwie oceniane programy staną
się bardziej skuteczne, a w konsekwencji poprawią się w parametry obszaru interwencji
(np. publicznego sektora nauki, działalności innowacyjnej przedsiębiorstw); wszystko
200
zależy od tego, jak przeprowadzi się ocenę i jakie wyciągnie wnioski praktyczne z jej
ustaleń.
Ewaluacje stoją przed tymi samymi wyzwaniami, jak same polityki: dotyczą złożonych
zjawisk, obejmujących wiele zagadnień i instytucji. Ewaluacja polityki naukowej i innowacyjnej jest trudna, ponieważ polityka ta ma wiele celów, ponieważ powiązania pomiędzy wkładem a rezultatami, efektami i wpływami są pośrednie i złożone, a charakter
oddziaływania polityki na badania jest często nieoczekiwany i długoterminowy. Politycy
żądają od ewaluatorów szybkiej informacji oraz jednoznacznego powiązania decyzji z
efektami; ewaluatorzy przekonują ich, że potrzeba lat, aby badania przyniosły efekty, a
model liniowy jest tylko szczególnym przypadkiem. Jednak rządy starają się zaradzić
trudnościom: zlecają „meta-ewaluacje” (ewaluacje ewaluacji), wprowadzają ujednolicone ramy prawne, publikują standardowe procedury, czasami wzmacniają koordynacje
pomiędzy instytucjami przeprowadzającymi ewaluacje, czasami powołują specjalne
agencje ds. ewaluacji.
Typy. Zazwyczaj ewaluacje dzieli się wg kryterium czasu (ex ante, interim, ex post), typu
pytań (np. wkład, cel, produkt, proces, wpływ), obiektu, faktu, czy wyniki ewaluacji są
wykorzystywane do określenia wielkości finansowania itd. Często stosuje się podział na
ewaluacje „kształcące” lub „formujące” (ang. formative evaluation) oraz na „osądzające”
(ang. summative evaluation) – te pierwsze służą ulepszaniu polityki, te drugie – wyrokowaniu.
Pytania stawiane w ewaluacji. W dziedzinie nauki i innowacji ewaluacji podlegają projekty, organizacje (agencje grantowe, uczelnie, poza-uczelniane instytuty badawcze),
programy i instrumenty, a nawet całokształt systemu B+R i innowacji oraz całość polityki (tzw. ocena >POLICY MIX, „mieszanki polityki”). Ewaluacje polityk (programów i instrumentów) starają się ustalić wkład, produkty oraz tzw. dodatkowość (behavioural additionality) interwencji, czyli np. odpowiedzieć na pytanie, w jakim zakresie uzupełnia
ona, a w jakim zastępuje działania biznesu (np. zachęty podatkowe, kwestia o większym
znaczeniu w krajach zaawansowanych), oraz jaki wywiera wpływ i na czym ten wpływ
polega. Pod pojęciem wpływu rozumie się bezpośrednie i długofalowe oddziaływanie
zarówno na samą naukę, jak i na świat zewnętrzny (np. wzrost współpracy badawczej,
poprawa jakości badań, zwiększenie zatrudnienia itd.).
Najczęściej zadaje się pytania dotyczące produktu, procesu (działań), efektu i wpływu
oraz powiązań: potrzeb z produktem/efektem/wpływem (użyteczność), potrzeb z celem
(stosowność), celów z produktem/efektem/wpływem (skuteczność), działań z produktem/efektem/wpływem (efektywność).
Rozszerzona lista pytań dotyczy m.in. następujących kwestii:
Kryterium
Pytanie
Stosowność
Czy podjęcie działania było uzasadnione?
Odpowiedniość
Czy cele działania służyły rozwiązaniu problemu, jaki został przed nim
postawiony?
Spójność
Czy logika interwencji nie była sprzeczna z innymi interwencjami po-
201
dejmowanymi w podobnych celach?
Ekonomiczność
Czy działanie okazało się tańsze niż zakładaliśmy? Czy kosztowało mniej
niż oczekiwano?
Efektywność (wydajność)
Czy działanie spełniło nasze oczekiwania?
Produktywność
Czy produkt (efekt, wpływ) wart był zainwestowanego weń wkładu?
Sprawność procesowa
Czy działanie przebiegło sprawnie?
Umiejętności
Jakie kwalifikacje posiadali wykonawcy i czy były one na miarę wykonywanych przez nich zadań?
Skuteczność
Czy cele programu zostały osiągnięte? Jaki jest zwrot z inwestycji (return on investment, ROI)? Czy uzyskany zwrot z inwestycji odpowiada
zakładanemu?
Jakość
Jak wartościowy jest wynik (output)? Jak dobre są efekty?
Użyteczność
Czy produkt-efekty-wpływ działania rozwiązał problem lub zaspokoił
potrzebę?
Trwałość
Czy efekty trwają w horyzoncie średnio-i-długo terminowym?
Konsystencja
Do jakiego stopnia pozytywne / negatywne skutki pośrednie w innych
obszarach polityki gospodarczej, społecznej i środowiskowej zostały
zmaksymalizowane / zminimalizowane?
Alokacja zasobów /
Efekty dystrybucyjne
W jakim stopniu negatywne/pozytywne skutki dystrybucyjne polityki
zostały zminimalizowane/zmaksymalizowane?
Dodatkowość
Co się wydarzyło poza i ponad to, co by się wydarzyło bez podjętego
działania?
Zastąpienie
Co się nie stało, a co by zaszło, gdyby nie oceniane działania?
Ulepszenia procesu
W jaki sposób można by to robić lepiej?
Delanghe 2013; European Commission 2004; Guy 2000; Pollit 2000; Evaluating 1999; Arnold 1997
Pytania stawia się w Ocenie Wpływu oraz w Ewaluacjach Polityk w następujący sposób:
Odpowiedniość
Spójność
Ekonomiczność
Efektywność
Produktywność
Trwałość
Użyteczność
Konsystencja
Efekty dystrybucyjne
Ex-ante ewaluaOcena okresowa
cja/ocena wpływu
X
X
X
X
X
X
X
X
X
X
X
X
X
Ewaluacja
ex post
X
X
X
X
X
X
X
Ocena wpływu expost
X
X
X
X
X
Gdy to możliwe, dla każdego modułu dobiera się odpowiednie wskaźniki, np.:
•
produktu działalności badawczo-rozwojowej (publikacje, patenty, raporty,
prototypy, produkty, procesy, usługi, standardy, cytowania, uzyskane nagrody,
widza i umiejętności).
202
•
efektu – produkty działalności badawczo-rozwojowej przekształcone przez
sektorze gospodarczym w nowe produkty, materiały, procesy, a w sektorze
publicznym w nowe prawa, metody nauczania, leczenia, przesyłu energii,
transportu itd.
•
wpływu – wpływ naukowy i technologiczny: nowa wiedza; kultura współpracy;
powstanie sieci; reputacja; wpływ ekonomiczny: długofalowe efekty, które
pociągnęły za sobą wzrost gospodarczy; konkurencyjność przemysłowa;
innowacje; wzrost zatrudnienia; wpływ społeczny: poprawa jakości życia, spadek
śmiertelności; rozwój społeczny; wpływ polityczny: wkład do polityk; zmiana
ustaw [EU 2002; Geisler 1996].
Dodatkowość. Wśród pytań stawianych podczas ewaluacji szczególne znaczenie mają
pytania dotyczące dodatkowości polityki, tzn. rozważenia, w jakim stopniu pożądane
efekty wystąpiłyby bez interwencji publicznej. Istnieją różne formy dodatkowości, a
mianowicie:
iv)
dodatkowość wkładu – w jakim stopniu interwencja jest uzupełnieniem lub
substytutem wkładów zapewnianych przez rynek lub inne podmioty (np.
przez środki własnych firm).
v)
dodatkowości efektów – jaka proporcja efektów została stworzon bez interwencji publicznej.
vi)
dodatkowość zachowania – jaka jest różnica w zachowaniu grupy docelowej
interwencji publicznej w porównaniu ze stanem sprzed interwencji lub w porównaniu z podobną grupą, która nie była przedmiotem interwencji.
Nacisk na dodatkowość rodzi pytania wokół możliwości jednoznacznego przypisania
zaobserwowanych rezultatów do interwencji publicznej. Istnieją dwie przeciwstawne
tendencje: po pierwsze, tendencja do przeszacowania, w której wyniki, które są w rzeczywistości kumulatywne i zależą od wielu czynników są całkowicie (albo w przeważającej większości) przypisane do interwencji, a po drugie tendencja do niedoszacowania z
powodu niewłaściwego horyzontu oceny (gdy wyniki nie mogły jeszcze wystąpić lub
wystąpiły tak dawno temu, że beneficjenci nie mogli ich przypisać do interwencji publicznej). Znajomość tych tendencji jest ważna nawet w przypadku gdy problemy jakie
stwarzają nie mogą być w pełni rozwiązane [OECD IPP 2013].
Metody. W ewaluacji stosuje się wiele różnych metod (Por. >METODY EWALUACJI B+R
FINANSOWANYCH ZE ŹRÓDEŁ PUBLICZNYCH). Najbardziej popularne są badania ankietowe, wywiady, analiza statystyczna i analiza dokumentów, analiza porównawcza, panel
ekspertów i studia przypadku. Wszystkie metody mają swoje zalety i ograniczenia, które
powinny być w pełni rozpoznane przed przystąpieniem do oceny [OECD IPP 2013]. Choć
ewaluacje sięgają po metody nauk społecznych, często nie są same uznawane za badania
naukowe (choć czasami określa się je jako gałąź stosowanych nauk społecznych).
W procesie kształtowania polityki i zarządzania programem ewaluacja to tylko jedno ze
źródeł informacji wśród wielu innych. Wykorzystanie wyników ewaluacji jest często pośrednie. Jeśli ewaluacja jest otwarta i ma charakter partycypacyjny, korzyść odnosi
większa grupa osób.
203
Inicjatorzy. Ewaluacja albo ma charakter odgórny, albo oddolny. Inicjatorami ewaluacji
odgórnej są organa rządowe (ministerstwa, agencje technologiczne), organizacje działające w ich imieniu (rady ds. badań), lub też specjalne agencje ds. ewaluacji (np. Comité
National d`Évaluation de la Recherche oraz Comité National d` Evaluation des Universités we Francji, Agencia Nacional de Evaluación y Prospectiva (ANEP) w Hiszpanii). Inicjatorami oddolnej ewaluacji są organizacje badawcze, jak uniwersytety czy laboratoria
rządowe. Ewaluacje przeprowadza się na mocy ustaw (np. w Stanach Zjednoczonych)
lub jako część rutyny, jako follow-up kontraktu lub ad hoc. Ewaluatorami są zespoły powołane ad hoc, krajowi eksperci z ocenianej dziedziny (peers), eksperci krajowi wspólnie z zagranicznymi lub tylko eksperci zagraniczni, specjalnie do tego celu powołane organy względnie prywatni kontraktorzy (zawodowi ewaluatorzy ze świata nauki oraz
konsultingu) czy wreszcie odrębne instytucje publiczne. Wiele ewaluacji przeprowadzają komórki wewnątrz danej organizacji, oceniając głównie administracyjne, menedżerskie i finansowe aspekty działań. Gdy tylko można, łączy się ewaluację wewnętrzną i
zewnętrzną, co pozwala na większy obiektywizm i niezależność ocen.
Ewaluatorzy to najczęściej:
•
zespoły powołane ad hoc,
•
krajowi eksperci z ocenianej dziedziny (peers),
•
eksperci krajowi wspólnie z zagranicznymi
•
tylko eksperci zagraniczni,
•
specjalnie do tego celu powołane organy
•
prywatni kontraktorzy (zawodowi ewaluatorzy ze świata nauki oraz konsultingu)
•
odrębne instytucje publiczne.
•
komórki wewnątrz danej organizacji (w Polsce z reguły jest to tylko wąsko pomyślany
audyt), oceniając głównie administracyjne, menedżerskie i finansowe aspekty działań.
Gdy tylko można, łączy się ewaluację wewnętrzną i zewnętrzną, co pozwala na większy obiektywizm i niezależność ocen.
Zbiorcze ujęcie ewaluacji polityki innowacyjnej w Europie. Na podstawie ankiety
stworzono zbiorczy opis ewaluacji polityki innowacyjnej w Europie. Na podstawie różnych charakterystyk 171 ewaluacji opisanych w repozytorium INNO-Appraisa pogrupowano je w trzy główne klastry:
Wymiary ewaluacji
Klaster 1: wsparcie
Klaster 2: werdykt
Klaster 3: ujęcie całościowe
Typ
Interim (68%)
Ex post (82%)
Ex post (75%)
Cel
Kształcąca
Osądzająca
Obie
Planowanie
Przewidywana i planowana
Rzadziej
przewidy- Przewidywana i plawana i planowana
nowana
Prowadzone przez
Eksperci
(98%)
Eksperci zewnętrzni Zewnętrzni (90%)
(46%), ale także wewnętrzni (36%) i mie-
zewnętrzni
204
szani (18%)
Kryteria
Efektywność
programu (85%) spójność
(83%/87%) spójność /
komplementarność
(74%) i rozwój polityki / strategii (74%)
Głównie
rezultaty
(64%), osiągnięcie celu
(55%), dodatkowość
(55%),
wewnętrzna
spójność (9%), skuteczność realizacji projektu (9%) i rozwój polityki/strategii (9%)
Wiele tematów: osiągnięcie celów (100%),
rezultaty (100%) jakość (80%), wszystkie
rodzaje dodatkowości
(90%), ale także spójność
(zewnętrzna
(80%),
wewnętrzna
(70%), realizacja programu i rozwój polityki/strategii
(70%
każda)
Wpływ
Ocena wpływu ważna
(89%), ale rozpatrywany tylko wpływ
technologiczny i gospodarczy (około 50%
każdy)
Ocena wpływu rzadziej
stosowana (64%), ale
ważna. Głównie wpływ
gospodarczy (połowa
ewaluacji)
Wyraźnie koncentruje
się
na
wpływie
(100%),
wszystkie
zajmują się wpływem
gospodarczym, 75%
wpływem
technologicznym, 60% wpływem społecznym
Podejścia metodologiczne i źródła danych
Jakościowe metody i
źródła ważna; wywiady (94%) i grupy
dyskusyjne (60%) analiza
dokumentów
(60%) i analiza kontekstu (72%); badania
uczestników
(77%)
analizy oparte na istniejących badaniach /
bazach danych (68%)
Tylko kilka metod głównie
ilościowe
(analizy
ekonometryczne (55%), grupy
kontrolne
(55%),
kontr-faktyczne
(64%), analizy statystyczne (46%), badania
uczestników
(46%).
Wiele metod stosowanych, wywiady (90%),
badania
ankietowe
uczestników
(90%),
analizy oparte na istniejących danych statystycznych
(70%),
studia
przypadków
(40%), analizy kontekstu (55%), porównanie
wkładu z rezultatami
(20%), metoda grup
porównawczych przed
/po (10%), analiza
kosztów / korzyści
(35%).
Typ miary
Środki dyfuzji innowacji (40%) i absorpcji
(25%)
2/3 to bezpośrednie Nacisk na współpracę
wsparcie finansowe
nauka-przemysł sieci
(45%), sieci (35%) i
firmy
odpryskowe
(20%)
Edler 2012
Inicjowanie, adaptowanie i rozwój ewaluacji. Najczęściej ośrodkami nie tylko rozwoju metodologii ewaluacji w dziedzinie nauki i techniki, ale także jej edukacji i upowszechniania były narodowe organa rządowe i parlamentarne, Unia Europejska, oraz
205
organizacje międzynarodowe, takie jak UNDP, UNIDO i OECD, np. w Japonii Komitet Wytycznych Ewaluacji Badań działający pod egidą Rady ds. Badań i Technologii (1988), we
Francji Parlamentarne Biuro Ewaluacji Wyborów Naukowych i Technologicznych
(1991),w Wielkiej Brytanii Krajowe Biuro Audytu oraz Ministerstwo Handlu i Przemysłu
(1997) itd. M.in. UNDP opracował Podręcznik Polityki i Procedur (Policy and Procedures
Manual) zawierający rozdział pt. Evaluation and Reporting. Opracowany w Komisji Europejskiej Good Practice Guidelines for the Management of the Commission`s Evaluation
Function¸ 2000, nakazuje organom Komisji sporządzanie planu ewaluacji. Plan, zatwierdzany przez Dyrekcję Generalną jako integralna część Rocznego Planu Pracy, powinien
antycypować przyszłe priorytety polityczne oraz potrzeby operacyjne, a przy tym być
realistyczny. Brytyjskie Ministerstwo Przemysłu i Handlu opracowało „ROAME (Rationale, Objectives, Appraisal, Monitoring, Evaluation) Guidance for Collaborative Research and Development”.
Ewaluacja a formy pokrewne. Ewaluację odróżnia się od form pokrewnych: monitoringu, audytu, sprawozdawczości itd.. Różnice pomiędzy ewaluacją a niektórymi innymi
mechanizmami ujmuje następująca tabela:
Różnica pomiędzy ewaluacją a innymi mechanizmami opartymi na feedbacku
Opracowania
kowe
nau-
Ewaluacja kładzie nacisk na praktyczne wykorzystanie informacji
Tradycyjny audyt
Ewaluacja ocenia wydatki publiczne z szerszego punktu widzenia (bierze także
pod uwagę pytania, czy cele programu są właściwe oraz czy zostały skutecznie i
efektywnie osiągnięte).
Monitoring
Ewaluację przeprowadza się jako przedsięwzięcie jednorazowe. Podczas ewaluacji poszukuje się bardziej wnikliwych informacji dotyczących badanego programu. Przy tym istnienie systemu stałego monitoringu to często podstawa pomyślnej ewaluacji.
Pomiar
dokonań
(Performance indicators)
Ewaluacja bada nieraz oceniany obiekt za pomocą tych samych kategorii (np. jakość, efektywność), ale stara się osiągnąć więcej próbując znaleźć wyjaśnienie dla
osiągniętych wyników i zrozumieć logikę działania publicznego.
Benchmarking
Benchmarking ma węższe znaczenie. Jest jedną z metod oceny organizacji. Ewaluacja może sięgać po tę metodę.
Analiza polityki
Ewaluacja kładzie nacisk na ocenę ex post. Analizę polityczną określa się nieraz
jako ewaluację ex ante w badaniu przyszłych opcji politycznych.
OECD (1999)
Audyt ma dłuższą tradycję od ewaluacji. Jego celem jest sprawdzenie zgodności z prawem oraz prawidłowości gospodarki finansowej, ustalenie, czy przepisy i procedury były przestrzegane. Ewaluacja jest z reguły bardziej elastyczna. Wykonawcami jej są często
nie tylko upoważnieni licencjonowani eksperci, ale także interesariusze. Procedury ewaluacji zależą z reguły w większym stopniu od wstępnych ustaleń wykonawców. Dla właściwego wyboru strategii ewaluacji od przyszłych wykonawców ewaluacji oczekuje się
zrozumienia kontekstu (dlaczego i dla kogo zlecono ewaluację), uzasadnienia i zadań.
Nie ma żadnych złotych recept ewaluacji i na ogół sądzi się, że (biorąc pod uwagę swoi206
stość każdego ocenianego obiektu) cele, zadania i metody powinny być otwarcie dyskutowane przed ich podjęciem. W przeciwieństwie do audytu, ewaluacja jest wykorzystywana bardziej jako narzędzie zarządzania programami niż dla publicznej accountability. Mimo tych wszystkich różnic granice między tymi dwiema formami kontroli zacierają się. Tradycyjny audyt finansowy jest często uzupełniany o audyt efektywności.
Audyt dokonań (performance audit) jest bliski ewaluacji. Z kolei zarządzanie dokonaniami (performance management) jest młodsze od ewaluacji i niekoniecznie ją obejmuje.
Rozwinięto je nawet w reakcji na dostrzegane braki ewaluacji. Zawiera ono krytyczną
ocenę procesów zarządzania. Jego realizacja leży w obowiązkach menedżerów, podczas
gdy przeprowadzenie ewaluacji powierza się wszystkim zewnętrznym ekspertom. Monitoring, wyczerpujące i regularne sprawdzanie zasobów, efektów i rezultatów interwencji publicznej, oparty jest na takich źródłach informacji, jak raporty, przeglądy, bilanse,
wskaźniki itp. Monitoring przeprowadzają najczęściej organizacje odpowiedzialne za interwencję publiczną. Podobnie jak ewaluacja, monitoring jest traktowany jako narzędzie
doskonalenia działalności. Ewaluacja morze korzystać z benchmarkingu. Benchmark to
po angielsku miara, kryterium. Benchmarking to „miarowanie”. Menedżerowie nieraz
rozumieją benchmarking jako technikę bliską „mapowania procesu”, t.j. analizowania
procesów pracy i ich ulepsznia przez porównywanie ze wzorcowymi praktykami procesów pracy w innych organizacjach. Inni menedżerowie rozumieją benchmarking jako
działalność polegającą na porównywaniu rezultatów osiąganych przez podobne organizacje. Benchmarking procesów odnosi się do działań stosowanych dla przetwarzania
„wkładu” w „rezultaty”. Benchmarking rezultatów obejmuje ocenę działań organizacji na
podstawie wskaźników dokonań (performance indicators), nie tyle standardów (tj. ideałów lub norm), co miar sprawności i efektywności (np. wielkość eksportu). Benchmarking umożliwia personelowi ocenę w stosunku do innych (bądź innej organizacji, bądź
też innego działu tej samej organizacji). Benchmarking procesów może prowadzić do
pytań dotyczących zadań organizacji. Benchmarking rezultatów – do pytań dotyczących
różnic w efektywności. Benchmarking musi uwzględniać cele organizacji, cechy klientów
itd.. Aby był skuteczny, organizacja musi uznać, że istnieje wiele źródeł poprawy efektywności, wliczając w nie porównanie z nawet bardzo różnymi organizacjami (np. szpitala z hotelem). Benchmarking pozwala organizacjom lepiej zrozumieć procesy wiodące
do osiągnięcia zakładanego rezultatu. Krytyczne czynniki sukcesu benchmarkingu i ewaluacji są podobne – udział klientów, ostrożna selekcja wskaźników dokonań oraz ocena
skuteczności stosowanych metod.
Trendy w rozwoju ewaluacji B+R finansowanych ze źródeł publicznych
1950
2000
Program, organizacja
+ Polityka
Ocena jakości naukowej
Relewantność, wpływ, efekty systemowe
Ocena jakościowa (w skali)
+ Ocena ilościowa
Zróżnicowane praktyki krajowe
Wzorcowe praktyki
207
Fragmentaryzacja
Standardy
Izolowane ewaluacje
System ewaluacji
Jedna prosta metoda
„Zestaw narzędzi”
Ewaluacja
Integracja: ewaluacja, statystyka, foresight...
Polityka B+R
Polityka innowacyjna
Dobre praktyki. Czynniki sukcesu ewaluacji:
• Dobrze od samego początku określony cel i zakres ewaluacji, ale z wbudowaną elastycznością w celu dostosowania ich do pojawiających się ustaleń.
• Zgranie ewaluacji z harmonogramem cyklu polityki.
• Zaangażowanie wielu interesariuszy.
Czynniki ryzyka:
• Ewaluację przeprowadza się jako rytuał.
• Wyniki ewaluacji stosuje się mechanicznie w podejmowaniu decyzji politycznych i finansowych, bez wprowadzania istotnych niuansów.
• Ewaluację przeprowadzają niedoświadczeni praktycy.
Wiele publikacji stara się sformułować wzory dobrej ewaluacji lub udzielić rad i wskazań, jak przeprowadzać ewaluację skutecznie. Podkreśla się np., że standardyzacja procedur ewaluacji zmniejsza jej czas i koszty i ułatwia porównania pomiędzy programami,
że ewaluacja powinna być traktowana jako proces uczenia się, zarówno dla ocenianych,
jak i dla oceniających, jako okazja zdobycia użytecznych, skądinąd nieosiągalnych informacji, że jej wyniki powinny by powiązane z procesem podejmowania decyzji, że np.
ewaluacja szkół wyższych nie powinna zabijać kreatywności (np. wydział uniwersytecki
powinien być oceniany jako ekosystem, habitat, środowisko, wg jakości życia, szans
zdobywania doświadczenia, troski o wzrost, a nie jako maszyna do wytwarzania oczekiwanych wyników) itd. Zwraca się uwagę, że ewaluacje obok zamierzonego wpływu
pociągają za sobą także skutki uboczne (np. wzmacniają najlepszych ponad należne zasługi, zaostrzają zatargi, podcinają motywacje). Wskaźniki ewaluacji powodują, że celem
ocenianych staje się nie tyle osiągnięcie stanu postulowanego, co ich formalne wypełnienie. Dzięki dotychczasowym praktykom ewaluacji zebrano niezliczone doświadczenia. Jedna z nich stwierdza „malejący zwrot” z ewaluacji określonego typu (pomimo stosowania mechanizmów auto-korekcyjnych). Gdy dany typ ewaluacji jest powtarzany,
maleje szansa na niespodziewane lekcje, nawet gdy nowe okoliczności przynoszą ze sobą nowe wyzwania.
Pod wieloma względami ewaluacja badań, zwłaszcza podstawowych zorientowanych
poznawczo, jest trudniejsza niż ocena innych działań ze względu na wielki stopień niepewności i ryzyka, jaki się z nimi wiąże. Oczekiwana od badacza oryginalność utrudnia
sformułowania zasad oceny badań prowadzonych „na granicach poznania”. W żartobli208
wym powiedzeniu, że Kopernik i młody Einstein nie uzyskaliby nigdy od współczesnych
grantu, kryje się wiele prawdy. Dziś Craig Venture nie dokonałby tylu odkryć genomu
człowieka, gdyby sam nie finansował badań, którymi kierował.
Życie jest prostsze dla ewaluatora, gdy przedmiotem jego zainteresowania jest prosty
program, ściśle określony w czasie i z jasno zarysowanymi celami. Jednak np. koncepcja
Europejskiej Przestrzeni Badawczej narzuca nowe wyzwania ewaluacji, takie jak np.
większy nacisk na wartości społeczne i etyczne oraz większy nacisk na aspekty międzynarodowe (np. powiązania nauki z przemysłem nie tylko w granicach narodowych, rozwój B+R dla przyciągania i zatrzymywania zagranicznych inwestycji). Te nowe wyzwania zmuszają do adaptacji metod zarządzania przemysłem (benchmarking).
Ewaluacja polityki naukowej w Polsce. W Polsce ewaluacja polityk nabiera w Polsce
stopniowo coraz większego znaczenia, stając się elementem działań administracji publicznej.
Obowiązek ewaluacji wynika zarówno z aktów prawa krajowego, jak i międzynarodowego. Od kilku lat ewaluację przedsięwzięć finansowanych ze środków unijnych zarówno na poziomie strategicznym, jak i operacyjnym (programów i instrumentów) rozszerza się u nas na inicjatywy finansowane ze środków krajowych.
Inicjatorami zmian jest zarówno Kancelaria Premiera (m.in. program zrealizowany
przez „Ernst & Young”), jak i Ministerstwo Administracji i Cyfryzacji oraz poszczególne
resorty, szczególnie Ministerstwo Rozwoju Regionalnego oraz Ministerstwo Nauki i
Szkolnictwa Wyższego. W celu przeprowadzania ewaluacji powołuje się odrębne jednostki w ramach ministerstw, agencji oraz instytucji administrujących środkami publicznymi na badania (np. Ministerstwo Nauki i Szkolnictwa Wyższego, Ministerstwo
Gospodarki, Ministerstwo Rozwoju Regionalnego, PARP, NCBiR, NCN, Fundacja Nauki
Polskiej, OPI).
Powoli kształtuje się środowisko ewaluatorów polityki naukowej i innowacyjnej.
Ewaluacja polityki naukowej staje się konieczna z powodu postępującej decentralizacji
zarządzania nauką, wzrostu liczby jej instrumentów oraz wzrostu nacisku UE na stosowanie standardów administracyjnych. Wielka liczba instrumentów i ich administratorów nie pozwala na nieskoordynowane projektowanie nowych instrumentów bez zbadania skuteczności oraz wzajemnego wpływu już istniejących. Ewaluacje polityki naukowej – w Polsce stosunkowo od niedawna – są uzupełnieniem stosowanej znacznie
dawniej ewaluacji badań naukowych (finansowanie statutowe, KEJN, finansowanie projektów badawczych oraz finansowanie blokowe na zasadach konkursu, KNOW).
Rozwój prowadzonych w Polsce badań nad polityką naukową i innowacyjną, które jak
dotąd są stosunkowo fragmentaryczne i nieskoordynowane, jest konieczne, jeśli ewaluacje polityki mają być dobre i skuteczne.
Dylematy ewaluacji polityk. Rozwijanie ewaluacji polityk, a zwłaszcza ewaluacji programów i instrumentów, nie jest łatwe, gdyż wymaga wielu trudnych rozstrzygnięć i nie
może polegać na prostym „zakupie technologii (ewaluacji) pod klucz”.
209
Wprowadzanie zasad efektywności w stosunku do badań naukowych finansowanych ze
środków publicznych budzi do dziś w środowiskach naukowych sprzeciw, gdyż normy i
wartości, którymi kierują się badacze, są z reguły przeciwne polityce i zarządzaniu. Istnieje realny dylemat, przed jakim stoją politycy i naukowcy, w jaki sposób zwiększyć
efektywność badań naukowych i ukierunkować je silniej na potrzeby społeczne nie tracąc przy tym korzyści płynących z pozostawienia badaczom znacznej swobody w wyborze celów i metod badań.
W badaniach naukowych (podobnie jak w działalności innowacyjnej) porażka jest najcenniejszym źródłem doświadczeń. Z drugiej strony, sukces badawczy i innowacyjny jest
nieraz owocem łutu szczęścia, przypadku, koniunktury. Nie zawsze wiadomo jednak, w
jaki sposób to uwzględnić w ewaluacji.
Ewaluacje odnoszą się do stopnia realizacji celów programów i instrumentów, a cele
mogą mieć ujemne skutki uboczne. Np. nacisk na kryteria akademickie może wzmacniać
konserwatyzm środowiska naukowego oraz odciągać badaczy od dydaktyki i powiązań
badań ze światem praktyki. Nacisk na konkurencję pomiędzy instytucjami może zabijać
potrzebę i ducha współpracy. Dlatego tak ważna jest – oprócz ewaluacji poszczególnych
narzędzi polityki – ocena je całokształtu.
W ewaluacji programów i instrumentów, tak jak i w innych ewaluacjach, chodzi zarówno o formalną legitymizację, jak i o rozumienie. Jest ważne, żeby formalna legitymizacja (instrument został użyty odpowiednio, pieniądze nie zostały zmarnotrawione) nie
zastąpiła rozumienia. Czasem uważa się, że legitymizację można oprzeć nawet na łatwo
dostępnych wskaźnikach, zebranych w urzędzie, bez analizy ich znaczenia (co naprawdę
mierzą, w jaki sposób korelują z innymi wskaźnikami, jakie czynniki mają na nie wpływ
itd.) oraz uzyskanych wartości (w jaki sposób efekty programu wpłynęły na wskaźnik,
czy istniała grupa kontrolna itd.). Wskaźniki łudzą obiektywizmem. Wydaje się, że wystarczy przyjąć pewną wartość bazową, różną od aktualnej, i założyć, że dzięki realizacji
polityki (programu, instrumentu) wartość ta będzie się zmieniać – będzie rosnąć (np.
udział polskich publikacji w puli światowych) lub spadać (np. śmiertelność niemowląt).
Jednak związek pomiędzy interwencją a jej efektami bywa znacznie bardziej złożony.
Nie zawsze pamięta się, że wskaźniki są wynikiem subiektywnych wyborów (np. jak liczyć publikacje autorów pochodzących z różnych krajów), a oprócz interwencji na efekty wpływa bardzo wiele innych nie zawsze łatwo uchwytnych i mierzalnych czynników.
Dla zrozumienia, co czy instrument był potrzebny, czy słusznie ustalono jego cele, czy
sformułowano odpowiednie zadania, czy administrowanie było właściwe, jakie rezultaty
i efekty osiągnięto – potrzeba jednak czegoś więcej. Nie tylko dobrego użycia statystyk,
ale także badawczości ewaluatorów, ich dociekliwości, wnikliwości, kreatywności, a nawet pewnej umiejętności eksperymentowania z metodami. Sięgnięcia jeśli trzeba nie
tylko po metody ilościowe, ale i jakościowe – wywiady indywidualne i fokusowe, ankiety
on-line itd.
Podczas ewaluacji instrumentu ewaluatorzy powinni patrzeć szerzej niż na sam tylko
instrument. Powinni także brać pod uwagę jego współgranie z innymi inicjatywami
210
(tzw. policy mix) oraz kwestię, w jaki sposób stosowanie instrumentu tworzy nową sytuację potrzebną dla osiągnięcia długofalowych celów polityki rządowej (np. poprawia
kompetencje transferowe badaczy, potrzebne w perspektywie dościgania czołówki gospodarczej i technologicznej kraju). Ocena skupiona na samym tylko instrumencie może
zaowocować opinią, że był skuteczny gdyż osiągnął założone cele, a zatem powinien być
kontynuowany, podczas gdy w rzeczywistości spowodował on niekorzystną zmianę zachowań beneficjentów – np. instrument premiujący osiągnięcia badawcze uczelni osłabił
prowadzoną przez nie dydaktykę.
Metody ewaluacji nie powinny być przepisane z góry raz na zawsze, tylko dostosowane
do przedmiotu i celu ewaluacji. Ewaluatorzy powinni mieć wpływ na dobór metod. W
ten sposób ewaluacja wniesie wkład do >cyklu polityk.
Bibliografia
Amir Piric i Neville Reeve, Evaluation of public investment in R&D – towards a contingency analysis w: Policy evaluation in innovation and technology. Towards best practices, 1997 OECD.
Chistopher Pollit and Geert Bouckaert, Public Management Reform, Oxford University Press.
Dimitris Sotiriou, Current practice and guidelines in France, Italy and Greece, and in international organizations, w: Evaluation of Research and Development. Current Practice and Guidelines. Synthesis report, 1991.
Erik Arnold, Ken Guy, Technology diffusion programmes and the challenge for evaluation, w: Policy evaluation in innovation and technology. Towards the best practices, OECD 1997.
EU Anthony Arundel & Hugo Hollanders, Policy, Indicators and Targets: Measuring the Impacts of Innovation Policies, MERIT 2005.
EU Evaluation of Innovation Activities. Guidance on methods and practices 2012.
European Commission (2002), An RTD Evaluation Toolbox.
European Commission (2006), Smart Innovation: A Practical Guide to Evaluating Innovation Programmes.
Evaluating socio-economic programmes. Glossary of 300 concepts and technical terms, vol. 6, European
Commission, Luxembourg, 1999.
Evaluation of technology policy programmes in Germany, ed. Gerhard Becher, Stefan Kuhlmann, Dordrecht i
in 1995.
Evanthia Kalpazidoun Schmidt, Evaluation and science policy, w: The use of Evaluation in Europe, November 2002.
Fteval, Standards Der Evaluierung In Der Forschungs- Und Technologiepolitik. Kommentierte Version.
George Papaconstantinou, Wolfgang Polt, Policy evaluation in innovation and technology: an overview,
1997 w: Policy evaluation in innovation and technology. Towards best practices, 1997 OECD.
INNO-Appraisal Understanding Evaluation of Innovation Policy in Europe. Final Report 2010.
IPTS RTD-Evaluation Toolbox Assessing the Socio-Economic Impact of RTD-Policies, 2002.
Irwin Feller, The academic policy analyst as reporter: the who, what and how of evaluating science an technology programs, w: Learning from Science and Technology Policy Evaluation, ed. by Philip Shapira, Stephan Kuhlmann, Edward Elgar, 2003.
Jack Spaapen and Christian Sylvain, Societal quality of research. Toward a method for the assessment of the
potential value of research for society, SPSG Concept Paper No. 13, 1994.
Jakob Edler, Evaluation in Science and Technology Policy Introduction, Manchester, May 17 2010
211
Jakob Edler, Martin Berger, Michael Dinges and Abdullah Gök, The practice of evaluation in innovation policy in Europe, “Research Evaluation” 21 (2012) ss. 167–182.
John Irvine, Evaluating Applied Research: Lessons from Japan, 1988.
Jordi Molas-Gallart, Andrew Davies, Toward Theory-Led Evaluation. The Experience of European Science,
Technology, and Innovation Policies, “American Journal of Evaluation”, Vol. 20 No. 10, 2005 ss. 1-18.
Kalpazidou Schmidt, E. and K. Siune, The Use Of R&D Evaluations In European Science Policy.
L.G. Georghiou, J.S. Metcalfe, Evaluation of the impact of European community research programmes upon
industrial competitiveness, ”R&D Management” 23, 2, 1993.
Laura Cruz-Castro and Luis Sanz-Menéndez, Research Evaluation In Transition: Individual Versus Organisational Assessment In Spain, Unidad de Políticas Comparadas (CSIC), October 2006.
Learning from Science and Technology, Policy Evaluation, ed. by Philip Shapira and Stefan Kuhlmann, Proceedings from the 2000 US-EU Workshop on Learning from Science and Technology Policy Evaluation,
Bad Herrenalb 2001.
Leszek Korporowicz, Ewaluacja - zaproszenie do rozwoju, Internet.
Luke George, Issues in the evaluation of innovation and technology policy, w: Policy evaluation in innovation
and technology. Towards best practices, 1997 OECD.
Luke Georghiou, Evaluation of research and innovation policy in Europe – new policies, new frameworks? w:
Learning from Science and Technology Policy Evaluation, ed. by Philip Shapira, Stephan Kuhlmann, Edward
Elgar, 2003, s. 65.
Luke Georghiou, Research evaluation in European national science and technology system, “Science and
Public Policy” vol. 5 no. 1.
OECD (1999) Improving Evaluation Practices.
OECD (2006), Evaluation of Publicly Funded Research: Recent Trends and Perspectives, w: STI Outlook 2006.
OECD (2006), Government R&D Funding and Company Behaviour: Measuring Behavioural.
OECD Assessing The Socio-Economic Impacts Of Public Investment In R&D, 2007.
OECD Demand-side innovation policies Paris 2011.
OECD Evaluation Of Publicly Funded Research Recent Trends And Perspectives (2006)
OECD Evaluation of scientific research. The Netherlands 1997.
OECD Government R&D Funding and Company Behaviour. Measuring Behavioural Additionality, Paris 2006.
OECD RIHR Activity 1.2: Assessing The Role Of Impact In National Science And Research Systems 2013
OECD, Evaluation Of Public Investment In R&D: Methodological Aspects, 1997.
Papaconstantinou George, Wolfgang Polt, Policy evaluation in innovation and technology: an overview,
1997 w: Policy evaluation in innovation and technology. Towards best practices, 1997 OECD.
Paul Cunningham, Mark Boden, Steven Glynn, Philip Hills, Measuring And Ensuring Excellence In Government Science And Technology: International Practices, France, Germany, Sweden and the United Kingdom.
Report prepared for the S&T Strategy Directorate, Industry Canada In support of the work of the Council
of Science and Technology Advisers, PREST2001.
Paul Jedamus, Marvin W. Peterson and Associates, Improving Academic Management. A Handbook of Planning and Institutional research, Jossey-Bess Publishers, 1989, s. 452-455.
RAND Europe, Measuring research A guide to research evaluation frameworks and tools, July 2013
212
Rosalie Ruegg, Irwin Feller, A Toolkit for Evaluating Public R&D Investment Models, Methods, and Findings
from ATP's First Decade, July 2003.
S. Lahlou, R. van der Meijden, M. Messu, G. Poquet, F. Prakke, A Guideline for Survey-Techniques in Evaluation of Research, 1992.
Science, Technology and Industry Outlook OECD 2012
Stefan Kuhlmann, Evaluation as a source of `strategic intelligence`, w: Learning from Science and Technology Policy Evaluation, ed. by Philip Shapira, Stephan Kuhlmann, Edward Elgar, 2003.
Tamás Balogh, From peer review to portfolio analysis. Evaluation of applied research and development,
mszp..
Technopolis, Evaluation of the design and implementation of Estonian RTDI policy: implications for policy
planning, Final Report, December 2005.
Terttu Luukkonen, Bertel Ståhle, Evaluation of research fields. Scientists` Views, 1993.
The use of R&D evaluations in European science policy.
Virginia Acha and Lucia Cusmano, Sharing Capabilities. Patterns of R&D co-operation in the upstream petroleum industry.
Wilhem Krull, Current practice and guidelines in a selection of industrialized countries w: W. Krull, D. Sensi,
D. Sotiriou, Evaluation of Research and Development. Current Practice and Guidelines. Synthesis report,
1991.
EWALUACJA PROGRAMÓW NAUKOWYCH I TECHNOLOGICZNYCH
Programy i instrumenty uznaje się za części składowe polityk. Są to narzędzia instytucji realizujących politykę publiczną, dzięki którym osiągają one cele i priorytety polityki. Programy i instrumenty opierają się na mobilizacji zasobów (finansowych, ludzkich, organizacyjnych), na
informacjach (np. na planach strategicznych, upowszechnianiu wiedzy, koordynacji) oraz na aktach i przepisach prawnych. Instrumenty polityki mogą mieć formę pieniężną lub postać bonów, usług, przymusu, informacji lub perswazji.
OECD proponuje następująca taksonomię programów naukowych i technologicznych:
Tradycyjne programy oparte na współpracy zazwyczaj skupiają się na jednej kwestii lub temacie i są zarządzane przez specjalną organizację, która może być częścią ogólnej administracji nauki lub też może być albo agencją odpowiedzialną za szeroki zakres programów (np.
szwedzka NUTEK) lub agencją jednej misji (jak francuski ADEME dla energii jądrowej).
W latach 1980. ukształtował się inny zestaw programów opartych na współpracy odpowiadający odnowionej wizji technologii i procesów innowacyjnych. Jako przykłady tego rodzaju
programów przytacza się brytyjski program Alvey (technologie informacyjne) oraz programy unijne ESPRIT (ICT), BRITE (nowe materiały i nowe technologie przemysłowe) lub RACE
(komunikacja). Programy te mają trzy cechy: i) trwają określony czas, ii) mają za cel wsparcie
istniejącej wcześniej sieci aktorów w zdobyciu przewagi konkurencyjnej na rynku międzynarodowym, oraz iii) skupiają się na badaniach podstawowych, technologiach, standardach i
kompetencjach uznanych wspólnie za kluczowe.
Jeszcze inny typ to programy oparte na procedurach. Programy te, odgrywające ważną rolę w
polityce badań i innowacji we wszystkich krajach OECD, są adresowane w sposób ogólny do
213
konkretnych grup docelowych. Nie dotyczą one określonych problemów, tematów lub sektorów,
ale wspierają wszystkie podmioty, które spełniają podane kryteria. Istnieją dwa rodzaje tego
typu programów, rozróżnianych w zależności od charakteru podejmowania decyzji o przyznawaniu wsparcia. i) Przyznawanie automatyczne. Programy te wymagają jedynie kontroli
ex-post przez władze publiczne. ii) Przyznawanie wybiórcze, na zasadach konkursu. Programy te są prowadzone przez specjalne agencje. Przykładem pierwszej grupy są zachęty
podatkowe badawczych (Por. >EWALUACJE ZACHĘT PODATKOWYCH]. Przykładem drugiej
grupy programy grantowe rad badawczych.
Zróżnicowaniu typów programów odpowiada zróżnicowanie form ewaluacji. Por. >METODY EWALUACJI B+R FINANSOWANYCH ZE ŹRÓDEŁ PUBLICZNYCH.
Ewaluacje agencji zob. >EWALUACJA EX-POST AGENCJI FINANSUJĄCYCH BADANIA NAUKOWE.
Ewaluacje nowego typu programów opartych na współpracy. Jako wzór udanej ewaluacji cytuje się ocenę programu EUREKA. Uruchomiona z inicjatywy międzyrządowej w 1985
roku, EUREKA ma za cel zwiększenie europejskiej konkurencyjności poprzez wsparcie dla
przedsiębiorstw, ośrodków badawczych i uczelni prowadzących paneuropejskie projekty dla
opracowania innowacyjnych produktów, procesów i usług. Panel ekspertów skupił się na
szczegółowych studiach przypadku wpływu społeczno-gospodarczego najbardziej udanych projektów EUREKI. Projekty te zostały zidentyfikowane za pomocą badań ankietowych i zapytań
skierowanych do członków sieci EUREKA w każdym kraju.
Zupełnie inaczej przeprowadzono ewaluację amerykańskiego Programu Zaawansowanych Technologii (US Advanced Technology Program). Niezależnie od wstępnej selekcji i
monitorowania, efekty programu ocenia się w różny sposób. Istnieje system raportowania biznesowego, który śledzi postępy prac. System ten jest zestandaryzowany w celu
ułatwienia analizy statystycznej. Ponadto zamawia się badania ankietowe w celu zbierania informacji i opinii firm uczestniczących w programie. Aby uzyskać szczegółową wiedzę na temat skutków ATP na poziomie firmy zamawia się również studia przypadków
badające technologie w różnych fazach ich rozwoju. Badania mikroekonomiczne poszczególnych projektów łączy się ze stosowaniem modeli makroekonomicznych dla
oceny wpływu całego programu. Prócz tego sięga się po szeroki pakiet metod – badania
ankietowe, modelowanie koncepcyjne (opis koncepcyjny programu oraz dróg, dzięki
którym może oddziaływać na sferę praktyki), analizy sieci, badania bibliometryczne.
Okresowo zwołuje się sesje robocze czołowych ekonomistów kraju w celu omówienia
modeli oceny, wyników oraz możliwości zmian metod ewaluacji i całego programu
[OECD 2006; Smart 2006].
Końcowy raport zawiera następujące części:
♦ Streszczenie – które zazwyczaj koncentruje się na wnioskach końcowych.
♦ Wprowadzenie (kto zlecił, kto podjął się oceny, kiedy i dlaczego).
♦ Ewaluacja podstaw programu, jego uzasadnienia, celu i działań.
♦ Pytania ewaluacyjne.
214
♦ Krótkie omówienie metod.
♦ Główne ustalenia - zazwyczaj ilustrowane wykresami.
♦ Przegląd najważniejszych ustaleń, zalecenia dla przyszłych programów i polityk (i ich ewalu-
acji).
♦ Załączniki: szczegółowe informacje na temat metod i rezultatów [Smart 2006].
Bibliografia
OECD Evaluation Of Publicly Funded Research: Recent Trends And Perspectives 2006.
Smart Innovation: A Practical Guide to Evaluating Innovation Programmes, A Study for DG Enterprise and
Industry, July 2006.
EWALUACJA DYSCYPLIN NAUKOWYCH
Ewaluację dyscyplin naukowych podejmuje na poziomie krajów przeprowadza się przede wszystkim w krajach nordyckich, w Niemczech, Irlandii, Holandii, Flandrii oraz w
Wielkiej Brytanii i Stanach Zjednoczonych. Ewaluację przeprowadzają na ogół na zlecenie Rad Badawczych zagraniczni uczeni, którzy wizytują instytucje naukowe i przygotowują końcowy raport.
Na ogół ewaluacje łączą metody ilościowe (bibliometria) i jakościowe (raporty „samooceny”, analizy dokumentów, wizytacje panelu ekspertów).
W krajach nordyckich ewaluacje dyscyplin przeprowadza się albo oddzielnie w poszczególnych krajach, albo jednocześnie w dwóch lub we wszystkich krajach. W Danii ewaluacje przeprowadza, zleca i koordynuje Duńska Agencja ds. Nauki, Technologii i Innowacji,
w Finlandii – Akademia Fińska; w Norwegii – Norweska Rada Badawcza; w Szwecji –
odpowiednie dziedzinowe Rady Badawcze.
Zazwyczaj ocenia się jakość badań w danej dyscyplinie, jej słabe i mocne strony, oraz potencjał rozwojowy. Sięga się po porównania między instytucjami oraz porównania międzynarodowe. Celem ewaluacji zazwyczaj jest międzynarodowej poprawa pozycji kraju.
Ewaluację prowadzi się nie tylko jako wkład do strategii finansowania lub do przeprowadzenia korekt w istniejących strategii finansowania Rad, ale również jako wkład do
prac nad priorytetami uniwersytetów i ministerstw [ESF].
Np. w Norwegii w ciągu 12 lat przeprowadzono następujących 16 ewaluacji:
•
•
•
•
•
•
•
Chemia (1997)
Nauki o Ziemi (1998)
Biologia, w tym biomedycyna (2000)
Pedagogika (2004)
Nauki technologiczne i inżynieryjne (2004)
Filologia skandynawska (2005)
Fizyka (2000)
215
•
•
•
•
•
•
•
•
•
Matematyka (2002)
ICT (2002)
Językoznawstwo (2002)
Nauki polityczne (2002)
Medycyna i zdrowie (2004)
Farmakologia (2006)
Studia nad rozwojem (2007)
Ekonomia (2007)
Nauki Historyczne (2008)
Norweska Rada Badawcza (NRB)
•
•
•
•
wyznacza grupy badawcze, które mają być poddane ewaluacji
decyduje o warunkach zamówienia
wybiera metodę i przygotowuje podstawowe informacje
powołuje komisję przetargową.
SIWZ NRB obejmuje:
•
•
•
Cele
Organizację oceny
Mandat dla komitetu oceniającego: zbadanie jakości naukowa; trafności; współpracy (krajowej i międzynarodowej); organizacji badań; przywództwa.
Metody ewaluacji obejmują:
•
•
•
•
Statystykę
Ocenę własną
Bibliometrię
Wysłuchania (analiza SWOT i dialog z badaczami).
Raport końcowy przesyła się ocenianym. Mogą oni ustosunkować się do niego.
Efektami ewaluacji były:
•
•
•
na poziomie ministerstwa – utworzenie norweskiego programu centrum doskonałości; nowe programy; wzrost nacisku na wspieranie przywództwa w badaniach
na poziome rady - wprowadzenie w życie nowych >instrumentów polityki oraz
utworzenie specjalnych funduszy
na poziomie instytucji naukowych – reorganizacje, nowa współpraca badawcza
[Helgesen 2008].
SIWZ dla ewaluacji chemii obejmował:
• krytyczny przegląd mocnych i słabych badań chemicznych w Norwegii;
• ocenę jakości naukowej badań podstawowych w chemii;
216
• identyfikację grup badawczych, które osiągnęły wysoki poziom międzynarodowy lub mają potencjał do osiągnięcia takiego poziomu;
• identyfikację obszarów badań mających znaczenie dla przyszłości kraju, które powinny zostać
wzmocnione [ESF].
Oprócz ewaluacji dyscyplin zarządzonych na szczeblu rządowym podejmują je także
grupy uczelni, z użyciem metod bibliometrycznych (Scival Spotlight) i statystycznych, z
naciskiem na poszukiwanie doskonałości badawczej nie tyle w dyscyplinowych instytucjach naukowych, co w zespołach badawczych, bez względu na ich dyscyplinowe afiliacje
[The 1994 Group 2011].
Podejmuje się także próby ewaluacji dziedzin nauki na szczeblu europejskim [HERA
2007] lub ewaluację „wyłaniających się” dyscyplin na poziomie kraju (Quick Scan 2007].
Jednym z następstw ewaluacji dyscyplin jest wzrost zainteresowania zróżnicowaniem
pojęcia jakości oraz zwrócenie uwagi na zróżnicowanie charakteru rezultatów badań w
różnych dyscyplinach [Kekäle 2002; Huang 2008].
Bibliografia
Nadine Rons et al., Research evaluation per discipline: a peer-review method and its outcomes, 2007.
ESF Evaluation in National Research Funding Agencies.
Gro E M Helgesen, Evaluating Research Fields/Disciplines in Norway, 2008.
Jouni Kekäle, Conceptions Of Quality In Four Different Disciplines, “Tertiary Education and Management” 8:
65–80, 2002
The 1994 Group, Paul Wellings and Rachel Winzer, Mapping Research Excellence: exploring the links between research excellence and research funding Policy, September 2011.
Mu-hsuan Huang and Yu-wei Chang, Characteristics of Research Output in Social Sciences and Humanities:
From a Research Evaluation Perspective, “Journal Of The American Society For Information Science And
Technology”, 59(11):1819–1828, 2008.
HERA, Feasibility Study: The Evaluation And Benchmarking Of Humanities Research In Europe, August 2007.
Quick Scan, Evaluation of Research in Context A Quick Scan of an Emerging Field, 2007.
EWALUACJA INSTYTUCJI I GRUP BADAWCZYCH
Grupy i instytuty badawcze publicznego sektora nauki są albo częścią organizacji badawczych zajmujących się badaniami podstawowymi, takich jak francuski CNRS lub
niemiecki Max Planck Gesellschaft, albo instytucji ukierunkowanych na realizację misji,
takich jak instytuty przemysłowe, rolnicze lub medyczne, czy wreszcie są częścią wydziałów uniwersyteckich lub działają jako międzywydziałowe centra badawcze.
Ewaluacje bywają albo jednorazowe, dokonywane z pewnej szczególnej okazji, albo periodyczne.
Jako przykład jednorazowej ewaluacji przytacza się ewaluacje w Max Planck Gesellschaft w procesie tworzenia nowego instytutu. Wiążą się one z wyborem komitetu peer
217
review przyszłego dyrektora, któremu następnie powierza się zadanie utworzenia instytutu, która ma istnieć aż do jego emerytury. Model ten realizuje także Riken w Japonii.
Model periodyczny stosuje się we Francji. Tego rodzaju ewaluacje służą wspieraniu
zmian strukturalnych w ramach jednostek. Instytuty INSERM powołuje się na 12 lat; coroczna otwarta rozmowa ma wspomagać odnowę.
Dominuje trend przechodzenia z ewaluacji jednorazowych na periodyczne. Ten trend
zmierza w dwóch kierunkach:
1. Umieszczanie ewaluacji w pracach nad budową strategii. Typowy przykład to INSERM i hiszpańska agencja badań CSIC. Instytuty obu organizacji opracowują oddolne plany strategiczne, wg jednolitego formatu. Panele tematyczne dokonują
przeglądu planów, przeprowadzą wysłuchania ich dyrektorów oraz formułują zalecenia.
2. Między-dziedzinowe podejście do przydzielania dotacji podstawowych. Przykładem tego podejścia jest niemieckie Towarzystwo Helmholtza. HS wprowadziło
konkurencyjny proces oparty na finansowaniu programów ukierunkowanych. Interdyscyplinarne programy są poddawane ocenie paneli składających się z ośmiu
do dziesięciu członków, którzy spotykają się, aby przez kilka dni studiować pisemne propozycje. Następnie Senacka Komisja HS przeprowadza ocenę porównawczą programów. Z kolei zapewnia się stały monitoring wewnętrzny oraz
okresowe przeglądy badań. Podejście to jest charakterystyczne dla nowego typu
zarządzania, nie wg dziedzin lub regionów, tylko wg zbiorów działań.
Przejście do okresowych ewaluacji nastąpiło m.in. przed laty w Norwegii, gdy większość
poza-uczelnianych instytutów połączono w ramach Norweskiej Rady ds. Badań, oraz w
Japonii, kiedy japońskie badawcze instytuty przemysłowe połączyły się w nowo utworzonym Instytucie Zaawansowanej Przemysłowej Nauki i Technologii (AIST). Innym
przykładem jest niemieckie Stowarzyszenie Leibnitza, która niedawno przejęło od Rady
Nauki (Wissenschaftsrat) odpowiedzialność za ewaluację swoich 80 instytutów, współfinansowanych przez rząd federalny i rządy krajów związkowych. W Stowarzyszeniu Leibnitza proces oceny składa się z dwóch faz. W pierwszym, ewaluację przeprowadza panel ekspertów opierający się odpowiedziach na kwestionariusz oraz wizytach terenowych. Sprawozdania panelu są podstawą drugiej fazy, w której komitet ewaluacyjny dokonuje oceny porównawczej instytutów.
Nowe podejście do ewaluacji przez duże organizacje badawcze ich stałych jednostek naukowych ma następujące elementy wspólne: dotyczy mechanizmów alokacji funduszy
statutowych; peer review w coraz większym stopniu opiera się na ekspertach zagranicznych; najważniejsze znaczenie mają wizyty, uzupełniane przez analizę dokumentów;
ewaluacja służy podejmowaniu decyzji.
Instytuty uniwersyteckie w coraz większej ilości państw oceniane na szczeblu narodowym przez ewaluacje oparte na pomiarze dokonań, por. >EWALUACJA INSTYTUCJI PUBLICZNEGO SEKTORA NAUKI OPARTA NA POMIARZE DOKONAŃ. Innym trendem w
ewaluacji instytucji i grup badawczych są ewaluacje stosowane jako podstawa przydzie218
lania dużych wieloletnich dotacji dla >CENTRÓW DOSKONAŁOŚCI (Inżynieryjne Centra
Badawcze NSF od 1980 r.; Sieci Centrów Doskonałości w Kanadzie; australijskie Cooperative Research Centres; szwedzkie Centra Kompetencji; holenderskie the Dutch Top
Technology Institutes; austriackie K-centres; niemieckie Centra Kompetencji Nanotechnologii).
Niemieckie Centra Kompetencji Nanotechnologii (CCN) zostały także poddane ewaluacji
ex post. Ewaluację tę cechowało: zastosowanie mieszanki metod; wspólne określanie
kryteriów oceny; analiza sieci społecznych (stworzonych w trakcie badań); silny nacisk
na uczenie się i komunikację, dialog pomiędzy ewaluatorami a ocenianymi. Mix metod i
działań obejmował:
•
•
•
•
•
Budowę dużej bazy danych na temat publikacji i patentów, działań szkoleniowych,
wspólnych projektów badawczo-rozwojowych, itp.
Metody stosowane: publikacje / analizy patentowej, ankiety, wywiady eksperckie;
wzięcie pod uwagę grupy porównawczej
Silny nacisk na upowszechnianie wyników (wstępnych) w formie warsztatów
(aspekt uczenia się i komunikacji)
Zespół oceniający składał się nie tylko z "klasycznych" ewaluatorów wynikających z
ISI, ale również z firmy doradczej specjalizującej się w coachingu naukowców
Cykl warsztatów został zorganizowany
o wraz z CCN dla omówienia kryteriów oceny, profilu publikacji, kwestii
technologii, ustaleń analizy sieci,
o wraz z CCN oraz z ministerstwem i agencjami, dla omówienia zaleceń oraz
ciągłego doskonalenia systemu.
Kryteria ewaluacji obejmowały:
•
•
•
•
•
•
•
•
jakość badań
współpracę badawczą
interdyscyplinarność
transfer technologii
standaryzację
wpływ na gospodarkę
public relations
wieloletnie perspektywy CCN [Bührer 2007].
Bibliografia
OECD Evaluation Of Publicly Funded Research: Recent Trends And Perspectives, 2006.
OECD IPP Issue Brief: Research Organisation Evaluation, 2014.
Susanne Bührer, Evaluation of the Nanotechnology Competence Centers in Germany (CNN), Meeting of the
European RTD Evaluation Network 26th April 2007 at Fraunhofer ISI.
219
EWALUACJA INSTYTUCJI PUBLICZNEGO SEKTORA NAUKI OPARTA NA POMIARZE
DOKONAŃ
Jedną z ważnych form ewaluacji badań naukowych jest ewaluacja instytucji naukowych
finansowanych ze środków publicznych (dalej nazywana ewaluacją instytucjonalną, dla
przeciwstawienia od ewaluacji wniosków projektów badawczych).
Ewaluacja ta
• ma charakter ex post,
• opiera się zarówno na danych o wkładzie (np. o liczbie pracowników lub wielkości ubiegłorocznej dotacji), jak i na danych o produktach, procesach i oddziaływaniu badań naukowych,
• jej wyniki są wykorzystywane do określenia wielkości finansowania instytucji
(np. szkoły wyższej lub jej wydziałów – w skali roku),
• ma wyłącznie (lub także) charakter zewnętrzny (w niektórych krajach ewaluacja
zewnętrzna jest łączona z samo-ewaluacją),
• tworzy ogólnokrajowy system (a nie jest np. stosowana z własnej inicjatywy
przez poszczególne instytucje naukowe) [Hicks 2010].
Środki publiczne na
szkolnictwo wyższe
Finansowanie
instytucjonalne
Finansowanie
projektowe
Finansowanie oparte
na wskaźnikach
wkładu
Finansowanie oparte
na wskaźnikach
produktu / efektu /
wpływu
Źródło: OECD 2009.
Metody. W ewaluacji instytucjonalnej najczęściej łączy się metody ilościowe i jakościowe. Dwa najczęściej stosowane łącznie ze sobą podejścia w ewaluacji instytucji to panele
ekspertów oraz wskaźniki i indeksy (wskaźniki złożone):
220
Ewaluacja
instytucji
Badania
jakościowe: panel
ekspercki
Badania ilościowe:
wskaźniki i
indeksy
Badania jakościowe w ewaluacji instytucji naukowych, dyscyplin i programów korzystają na ogół z następujących metod: 1) wywiadów indywidualnych i grupowych z pracownikami, menedżerami, partnerami oraz użytkownikami i klientami, 2) analizy dokumentów pisanych, w tym raportów rocznych, planów strategicznych, dzienników badań i zapisów realizacji programu, informacji o zasobach i finansach, czasami także osobnych
opracowań biblio metrycznych, 3) badań ankietowych, 4) bezpośredniej obserwacji, 5)
studiów przypadku. Ewaluatorzy przeprowadzają wizytację celem dokonania bezpośredniej obserwacji programu działania oraz czasami osobiście na krótko włączają się
do badań w ramach „obserwacji uczestniczącej”. Rozmawiają z pracownikami na temat
ich doświadczeń i poglądów. Zapisy tych wywiadów, obserwacji i dokumentów porządkują wg głównych tematów, kategorii i przykładów, a następnie przedstawiają w raporcie.
Badania ilościowe. Druga z podstaw oceny w ewaluacji instytucjonalnej to wskaźniki. W
ramach ewaluacji może je zbierać komisja ekspertów (np. od ocenianych jednostek), albo odrębna placówka statystyczna, np. obserwatorium nauki i techniki. Najogólniej biorąc wskaźniki to miary (zazwyczaj ujęte w formie ilościowej) pewnej cechy działalności,
które pozwalają na jej ocenę. Jednym z kluczowych zadań budowy systemu ewaluacji
jest ich dobór i przetestowanie. Najważniejsze kwestie rozstrzygane podczas planowania ewaluacji to: szersze kategorie (wymiary, bloki), w ramach których grupuje się
wskaźniki ilościowe oraz oceny jakościowe ujęte w skali (np. jakość – wpływ – środowisko); wagi dla poszczególnych wskaźników; stopień i formy różnicowania kryteriów wg
ocenianych dyscyplin naukowych; skale ocen końcowych („kategorie”) – np. kategoria w
skali pięciu stopni.
Przedmiot oceny. Za granicą rzadko działają jednolite systemy oceny finansowania instytucjonalnego dla całego publicznego sektora nauki, czyli zarówno dla szkół wyższych,
jak i dla publicznych poza-uczelnianych jednostek badawczych. Pewnym wyjątkiem od
reguły jest system holenderski, w którym ocenie poddaje się zarówno uczelnie publiczne, jak i instytuty podległe dwóm agencjom – Królewskiej Niderlandzkiej Akademii
Sztuk i Nauk (KNAW) oraz Niderlandzkiej Organizacji Badań Naukowych (NWO); jednak
221
w Holandii ocena nie jest podstawą poziomu finansowania, a ponadto nie są nią objęte
poza-uczelniane instytuty badawcze podległe resortom.
Różne kraje stosują rozmaite podejścia co do kwestii czy łączyć ocenę badań z oceną dydaktyki. „Niektóre kraje zasady stosują finansowania opartego na ocenie dokonań do finansowania dydaktyki, np. w Austrii system obejmuje zarówno elementy nauczania jak i
badań, w Finlandii finansowanie statutowe szkół wyższych zawiera komponent oparty
na ocenie wyników nauczania (zarówno pod względem zakresu, jak i jakości i skuteczności)”. Jednak niektóre kraje, jak Belgia oraz (z pewnymi wyjątkami) Polska finansują
dydaktykę na podstawie miar instytucjonalnych, a nie ocen dokonań [OECD 2010]. Podobnie w Anglii „finansowania badań i finansowania dydaktyki płynie oddzielnymi
strumieniami. Finansowanie nauczania oblicza się przede wszystkim na podstawie liczby studentów kończących komponenty programów akademickich. Ponadto, niewielki
procent całkowitej kwoty środków przeznacza się na wynagrodzenie za realizację konkretnych rządowych inicjatyw” [Frølich 2008].
W ramach ewaluacji instytucjonalnej na podstawie oceny badaczy lub grup badawczych
ocenia się instytuty, uczelnie lub ich części organizacyjne (wydziały, fakultety, kolegia).
Jednostki oceny (np. poszczególni badacze lub grupy badawcze) nie muszą być tożsame
z jednostkami, którym przyznaje się dotacje na podstawie ewaluacji [Hicks 2010].
Nową i ciekawą propozycją, wysuniętą w ramach przygotowań do nowego systemu oceny w Wielkiej Brytanii Research Assessment Framework jest ocena dyscyplin (jednostek
dyscyplinowych) w ramach poszczególnych uczelni. W przeciwieństwie do płynnych i
krzyżujących się ze sobą grup badawczych oraz w przeciwieństwie do zróżnicowanych
pod względem misji i dyscyplin instytutów i wydziałów, dyscypliny wewnątrz instytucji
są względnie jednorodne i porównywalne. Propozycja ta z jednej strony ułatwia przeprowadzenie ewaluacji, rozwiązując jeden z podstawowych problemów metodologicznych ewaluacji, a mianowicie radzenie sobie z (na ogół) wielkim zróżnicowaniem obszarów badawczych instytucji, z drugiej strony utrudnia korzystanie z ewaluacji jako podstawy określania poziomu finansowania.
Rola zleceniodawcy. Kluczowe czynniki ewaluacji instytucjonalnej – jej zakres i przedmiot, czas i zasoby, uprawnienia, plan wykorzystania raportu, wybór ekspertów – albo
ustala zleceniodawca (np. ministerstwo lub, jeszcze częściej, agencja finansująca badania), albo też pozostawia swobodę decyzji realizatorom. Zleceniodawca (a dokładniej,
organ wewnętrzny powołany do przeprowadzenia ewaluacji) powołuje przewodniczących oraz sekretarzy paneli oraz określa główne cele ewaluacji (np. ulepszenie jakości i
relewantności badań), procedury wizyt kontrolnych, oczekiwania co do raportu końcowego, zakres odpowiedzialności i uprawnienia paneli. Czasami ustala szczegółowe pytania i kryteria oceny (terms of reference), a czasami tylko ogólne wytyczne (np. że ewaluacja powinna brać pod uwagę jakość badań oraz ich ocenę dokonaną przez klientów i
użytkowników), pozostawiając ich konkretyzację członkom zespołu. To drugie rozwiązanie ma wadę, gdyż pozostawia pole do dowolności, ale też ważną zaletę, gdyż umożli-
222
wia uwzględnienie w kryteriach oceny dyscyplinowych specyfik ocenianych jednostek,
wliczając w nie prowadzenie badań inter-multi-i-trans-dyscyplinarnych.
Zazwyczaj zleceniodawca przygotowuje i ogłasza z góry plan wszystkich ewaluacji, które
zamierza przeprowadzić w nadchodzącym cyklu. Plan zawiera m.in. informacje o planowanych wizytacjach, dokumentacji, jaką powinni otrzymać ewaluowani, publikacji
wyników oceny oraz sposobach kontynuacji (follow-up) przedsięwzięcia.
Poszczególne kraje różnią się między sobą pod względem częstotliwości przeprowadzania ewaluacji instytucjonalnej. Z zasady im ewaluacja jest zakrojona na większą skalę,
bardziej wnikliwa, czaso-i-kosztochłonna, tym odbywa się rzadziej. W Wielkiej Brytanii
przeprowadzano ją (w systemie RAE) co 5-7 lat, w Hiszpanii i w Holandii odbywa się
ona co sześć, w Austrii co i Słowacji co trzy, w Polsce nie rzadziej niż raz na 5 lat [Hicks
2010]. Ale z reguły w krajach, w których pełne szczegółowe ewaluacje przeprowadza się
co kilka lat, oceniane instytucje przesyłają co roku informacje, uwzględniane przy ustalaniu wysokości rocznej dotacji; jest tak w np. w Wielkiej Brytanii i w Polsce.
Produktem ewaluacji są zarówno raporty komisji ewaluacyjnych, które dokonały oceny
poszczególnych jednostek, jak i raport końcowy w danym cyklu ewaluacji.
Upowszechnienie w świecie. W pewnych krajach istnieją „krajowe systemy ewaluacji”,
przeprowadzane przez organizacje finansujące uczelnie (np. w Wielkiej Brytanii i w Australii), podczas gdy w innych ewaluacja instytucjonalna jest sprawą wewnętrzną samych uczelni (np. w Irlandii); w niektórych wreszcie krajach oba systemy ocen współistnieją ze sobą: np. w Niderlandach co sześć lat (naprzemiennie) przeprowadza się zarówno wewnętrzne, jak i zewnętrzne ewaluacje, przy czym wewnętrzne organizuje się w
trzy lata (w połowie cyklu) po zewnętrznych. W krajach, w których współistnieją oba
typy ewaluacji, ewaluacje wewnętrzne są traktowane jako przygotowanie do zewnętrznych, zarówno pod względem oceny działania uczelni, jak i organizacji i przebiegu procesu oceny.
Ogólnokrajowe systemy oceny instytucjonalnej badań prowadzonych w szkołach wyższych działają przede wszystkim w krajach anglosaskich, Wielkiej Brytanii, Australii i
Nowej Zelandii, a także w niektórych krajach skandynawskich (Danii i Norwegii) oraz w
Niderlandach:
Kraj
Norwegia
Norwegia
Niderlandy
Wielka
tania
Bry-
Australia
Organizator
Norweska
Rada Badawcza
Norweskie
Stowarzyszenie
Instytucji
Szkolnictwa
Wyższego
Rada Finansowania Szkolnictwa Wyższego (HEFCE)
Ministerstwo
ds. Edukacji
Przedmiot
ewaluacji
Pola badań
Produkty badań prowadzonych w uczelniach
Poszczególne
uczelnie, w latach 19932002 stowarzyszenie
uczelni VSNU
Uczelnie same
określają
przedmiot
ewaluacji np.
Wydziały uniwersyteckie
Uniwersytety
223
Główny cel
Jakość badań
Metoda
Peer review
oparte na informacjach
Doraźnie
Częstotliwość
Rezultaty
Raport, a jego
efekcie plany
i negocjacje
Podział środków
Pomiar publikacji
Corocznie
Punkty za publikacje
pole badań,
wydział
Jakość badań
Peer review i
auto-ewaluacja
Samoewaluacja oraz
ewaluacja zewnętrzna co
sześć lat
Raport z oceną
w skali 5punktowej
oparty na 4
kryteriach
Podział środków
Peer review
Podział środków
Wskaźniki
Reserach Assessment
Exercise (86,
89, 92, 96,
2001 i 08)
Ocena w skali
zmienianej w
kolejnych cyklach
Corocznie
Podział środków finansowych
Źródło: Hansen 2009.
Opisane systemy można by sumarycznie i w uproszczeniu ująć w następujący sposób:
Ogólno-krajowy
system ewaluacji
badań oparty na
pomiarze dokonań
Finansowanie
instytucjonalne
uczelni
Podstawa
decyzji
finansowych
ścisła
luźna
Finansowanie
oparte na
wskaźnikach
wkładu i
przeszłych
dotacjach
Ogólno-krajowy
system ewaluacji
badań oparty na
pomiarze dokonań
Podstawa decyzji
finansowych
Podstawa decyzji
menedżerskich
Ewaluację dokonań jako podstawę finansowania instytucjonalnego wprowadziło jak dotąd trzynaście krajów, wśród nich – jako jedna z pierwszych, po Wielkiej Brytanii, Hisz-
224
panii i Hong Kongu – Polska (1991, ocena oparta głównie na peer review, 1998/9, ocena
oparta przede wszystkim na tzw. formule finansowania).
Krajowe systemy finansowania szkół wyższych oparte na ewaluacji instytucjonalnej
Kraj
Australia
Dania
Finlandia
Flandria
Hiszpania
Hong Kong
Norwegia
Nowa Zelandia
Polska
Słowacja
Szwecja
Wielka Brytania
Włochy
System
Indeks złożony, Ramy Badań Jakości (RQF), Jakość Badań w Australii (ERA)
Wdrożenie modelu norweskiego
BOF-key
CNEAI – Krajowa Komisja ds.
Oceny
RAE
„Norweski model” (nowy model
finansowania oparty na wynikach badań prowadzonych na
uniwersytetach)
Finansowanie badań oparte na
dokonaniach (PBRF)
Metoda parametryczna
Nowy model alokacji zasobów
RAE zostały przekształcone w
REF - Ramy Osiągnięć Naukowych (Research Excellence Framework)
Trzyletnia Ocena Badań,
Valutazione Triennale della
Ricerca (VTR)
Rok wdrożenia/rok istotnej
modyfikacji
1995/obecnie
2010
2010
2003/2008
1989
1993
2005
2003/obecnie
1991(wstępna wersja)/1998/99, 2013
1992/2002
2008
1986/obecnie
Evaluation 2001-03/funded
2009
Źródło: Diana Hicks 2010.
Nigdy w szkołach wyższych finansowanie badań oparte na dokonaniach nie jest jedynym źródłem ich finansowania; udział tego rodzaju funduszy waha się od 2% (Norwegia) do ok. 25% (Wielka Brytania) ogółu publicznego finansowania. Znaczenia tego rodzaju systemu nie da się jednak mierzyć wyłącznie odsetkiem ogólnego budżetu, gdyż są
one też np. źródłem prestiżu, procentującego w staraniach o granty i kontrakty [Hicks
2010].
W USA nie ma krajowego systemu oceny badań naukowych, w ramach którego regularnie poddaje się ocenie badania ex post. Większość alokacji zasobów w Stanach Zjednoczonych odbywa się poprzez ocenę projektów i jednostek ex ante, a nie poprzez ocenę
instytucji ex post. Nacisk położony jest na jakość akademicką, a w przypadku badań
ukierunkowanych na zadania, na przewidywane korzyści i dopasowanie projektów do
misji instytucji [OECD IPP 2014].
225
Oceny wartości ewaluacji instytucjonalnej. W ocenach wartości ewaluacji instytucjonalnej, podkreśla się, po pierwsze, że nie ma wprawdzie systemu idealnego, ale w sumie
przyniosła ona więcej dobrych niż złych skutków. W brytyjskim RAE pozytywne skutki
wynikały z dobrego zarządzania samych instytucji oraz z wkładu poszczególnych menedżerów i naukowców [HEFCE 1997].
Po drugie, zwraca się uwagę, że ocena ewaluacji instytucjonalnej nie jest prosta, gdyż tak
jak w przypadku każdego badania wpływu, pozostaje problem oddzielenia wpływu ewaluacji od działania innych czynników [OECD 2009].
Po trzecie, podkreśla się, że wpływ ewaluacji instytucjonalnej jest większy od przyznanych na jej podstawie kwot. Jest tak, gdy np. prawdopodobieństwo sukcesu wniosku o
przyznanie dotacji na projekt badawczy wzrasta, gdy wnioskodawca pracuje w wyższej
ocenionym wydziale [Hicks 2010].
Po czwarte, uwypukla się fakt, że pojęcie efektywności badań naukowych, rozumiane zarówno jako efektywność naukowa (jak najwyższa jakość w stosunku do użytych zasobów), jak i efektywność społeczno-gospodarcza (jak najsilniejszy dodatni wpływ na otoczenie zewnętrzne nauki), jest nie tylko wielowymiarowe, ale także niejednoznaczne.
Badania nie zawsze są oceniane dodatnio. Nowa wiedza może być krytyczna, może prowokować, a nawet zostać uznana za szkodliwą [Hansen 2010].
Po piąte, zwraca się uwagę, że podobnie jak w powiązaniach nauka-gospodarka (badań
naukowych w sektorze publicznym oraz biznesu) dużym problemem jest pogodzenie
sprzecznych oczekiwań naukowców i biznesmenów, tak i w ewaluacji trudną kwestią
jest zbliżenie stanowisk polityków i ewaluatorów.
Systemy ewaluacji instytucjonalnej: uboczne konsekwencje. Badania następstw
ewaluacji instytucjonalnej przyniosły wiele istotnych ustaleń. Należą do nich obserwacje:
1.
tendencji spadku wartości wskaźników oraz ogólniej „spadającego zwrotu z ewaluacji” w miarę upływu czasu. Spadek wartości wynika m.in. z takich przyczyn, jak
o zjawisko „ewaluacyjnej fatygi” (zmęczenie badaczy zbyt często powtarzanymi
ewaluacjami, zwłaszcza jeśli nie mają one istotnego znaczenia jako źródła nauki lub decyzji finansowych),
o przewrotne uczenie się (wybitne wyniki są efektem manipulacji danymi; np.
gdy badacze szybko uczą się, jak obracać ewaluację na własną korzyść i ulepszają nie tyle badania naukowe, co sposób zapewniania swoim instytucjom
cech premiowanych w ewaluacji, np. poprzez publikowania prac wyłącznie w
czasopismach o wysokim IF, pomimo racji przemawiających za innym rozwiązaniem, dzielenia publikacji na „najmniejsze jednostki publikowalne”, zatrudnianie uczonych legitymujących się wielką liczbą cytowań w przeddzień zgłoszenia wykazu do komisji ewaluacyjnej [Van Thiel 2002]; gdy uwzględnia się
tylko konferencje międzynarodowe, konferencjom krajowym nadaje się nazwę
międzynarodowej i zaprasza kilku gości z zagranicy itd.),
226
2. ubocznych ujemnych skutków nastawienia na realizację premiowanych celów, polegających na
o wzmacnianiu najlepszych ponad należne zasługi, uniemożliwianiu poprawy
słabszych instytucji poprzez wstrzymywanie ich dotacji, zaostrzaniu niezdrowej rywalizacji, podcinaniu motywacji; podkreśla się, że z założenia ocena dokonań premiuje doskonałość kosztem równości [Kalpazidou Schmidt 2003],
o zaniedbywaniu innych ważnych celów, nie uwzględnionych wśród kryteriów
ewaluacji (np. nacisk na liczbę publikacji powoduje podejmowanie łatwych do
realizacji badań oraz rosnące rozdrabnianie publikacji, kosztem podejmowania
ważnych, długofalowych i ryzykownych badań oraz publikowania istotnych
ustaleń; akcentowanie pomiaru badań prowadzi do lekceważenia prac rozwojowych, mających z reguły bardziej bezpośrednie znaczenie dla rozwoju gospodarki i społeczeństw; nacisk na liczbę cytowań skutkuje zapraszaniem do
współpracy wyłącznie badaczy i instytucji legitymujących się już osiągniętą
wysoką pozycją naukową, kosztem włączania do badań młodych badaczy, zdobywających dopiero pozycję instytucji lub krajów spoza pierwszej ligi nauki;
nacisk na badania pociąga za sobą zaniedbywanie dydaktyki; nacisk na publikacje w języku angielskim pociąga za sobą zaniedbywanie prac w języku ojczystym, upadek rodzimej terminologii oraz – niejednokrotnie – osłabienie pozabadawczego wpływu badań itd.),
o takiej reakcji ocenianych na wskaźniki i inne metody oceny, która jest niezgodna z celami i intencjami ewaluacji (wskaźniki z natury mają ograniczenia i mogą prowadzić do nadmiernego nacisku na pewne działania kosztem innych. Np.
system, który nagradza wyniki badań naukowych, a nie powiązania z przemysłem, może te powiązania osłabiać, w szczególności gdy zachęty działają aż do
poziomu indywidualnego rozwoju zawodowego badacza [OECD 2010]),
o wykorzystywania wyników ewaluacji poza systemem ewaluacji (np. jako informacji, gdzie studiować) [OECD 2010],
3. problemów stwarzanych przez wskaźniki ilościowe
o mierzą tylko rzeczy mierzalne, a te niekoniecznie są najistotniejsze; jakość badań oraz ich efekty zależą od wielu czynników niezależnych od badaczy; pomiar efektów powinien być oparty na głębokim zrozumieniu zależności pomiędzy wkładem a efektami, o co trudno ze względu na wpływ innych czynników; wskaźniki ilościowe powinny być uzupełnione przez metody jakościowe,
takie jak peer review czy studia przypadku,
o działania tzw. prawa Goodharta, które mówi, że gdy tylko wprowadza się pewien wskaźnik (jako pomoc np. w ewaluacji, zarządzaniu czy prowadzeniu polityki), wskaźnik ten szybko traci funkcję informacyjną, którą miał pełnić, gdyż
zmienia zachowania ludzi, które miał obiektywnie mierzyć (np. wprowadzenie
cytowań jako miary osiągnięć zmieniło praktyki cytowania, powodując wzrost
227
samo-cytowań, wzajemnych cytowań, lub nacisku ze strony redakcji czasopism, na cytowanie tego właśnie czasopisma) [Goodhart Law, Wikipedia 2013].
Wpływ systemu ewaluacji instytucjonalnej i/oraz zasad finansowania instytucji
naukowych opartych na ocenie dokonań na cele i obszary. Wpływ ewaluacji instytucjonalnej różni się w zależności od systemu. Niemniej, badania i analizy wskazały na
wiele podobieństw co do charakteru oddziaływania. Spostrzeżenia te można uporządkować w następujący sposób – wg obszarów rozpatrywanego wpływu.
Uczelnie. Zasadniczą ewaluacji instytucjonalnej przeprowadził Marcel Herbst. W Europie dominuje trend udzielania uczelniom przez rządy większej autonomii, ale pod warunkiem wzrostu ich uzależnienia poprzez wskaźniki dokonań, pisał Herbst. Można mieć
wobec niego wiele zastrzeżeń. System ten zyskał uznanie jako dobre ogólne rozwiązanie, ale bardziej na wiarę niż wskutek głębszych analiz oraz szukania alternatyw. „Zamiast promować zdrową konkurencję pomiędzy uczelniami, próbuje się sztucznie tworzyć quasi-rynek w celu pchnięcia instytucji bliżej pozycji uznanych przez władze za pożądane.” Udzielanie uniwersytetom większej autonomii pod warunkiem wiązania ich
wskaźnikami dokonań pęta ich zdolność do samodzielnego zdobycia umiejętności efektywnego zarządzania, co z kolei staje się argumentem za utrzymaniem kontroli poprzez
wskaźniki. System finansowania oparty na ocenie dokonań wprowadza się jako instytucję niby-rynku mającą na celu wyrównanie domniemanych ułomności szkół wyższych.
Dobre uczelnie powinny otrzymywać więcej od gorszych, aby stały się bardziej konkurencyjne i pobudzały do działania te gorsze. Powinno się nagradzać efekt, a nie wkład.
Jednak otrzymując więcej pieniędzy, dobre uniwersytety ulepszają badania i dydaktykę,
wzmacniając swoją pozycję i zwiększając prestiż. Dzięki temu otrzymują więcej pieniędzy. Tak więc w końcu, i tak to nie efekt, ale wkład decyduje o ich osiągnięciach. Nie jest
dowiedzione, że finansowanie oparte na dokonaniach pobudza dokonania bardziej niż finansowanie jako takie. Bardziej cementuje ono status quo niż prowadzi do zmiany. Domniemane ułomności uczelni są do pewnego stopnia wynikiem leku, który ma je uleczyć. System finansowania oparty na ocenie dokonań jest najskuteczniejszy wówczas,
gdy w uczelniach najsłabiej rozwinięte są wewnętrzne mechanizmy podziału funduszy.
A z kolei te wewnętrzne mechanizmy alokacji odgrywają kluczową rolę w zarządzaniu
oraz są konieczne dla uzyskania funduszy na nowe rozwojowe przedsięwzięcia. Systemy
alokacji wspierające istniejące struktury utrudniają adaptację do złożonego i szybko
zmieniającego się świata. System ten prowadzi do uniformizmu wprowadzanego w imię
zapewnienia jakości, ale jakość zależy w większym stopniu od wewnętrznej woli jej
osiągnięcia niż systemu, który ją wymusza, a od uniformizmu lepsze jest zróżnicowanie
misji i zadań badawczych uniwersytetów w zależności od oczekiwań studentów oraz innych uwarunkowań zewnętrznych. Warunkiem podniesienia poziomu szkół wyższych
jest udana współpraca między uczelniami zainicjowana i rozwijana przez nie same, np.
współpraca w uruchomieniu wspólnego programu nauczania lub centrum badawczego.
Narzucone odgórnie wskaźniki niekoniecznie jej sprzyjają. Najszybszy postęp badawczy
następuje na obrzeżach ustabilizowanych dyscyplin. Nacisk na finansowanie dyscyplinowe może odwodzić od bardziej ryzykownych lecz obiecujących badań [Herbst 2007].
228
Jakość badań. Sądzi się, choć nie jest to jednak dostatecznie udowodnione, że ewaluacja
instytucjonalna prowadzi do poprawy jakości górnego poziomu średniego oraz redukuje
badania o niskiej jakości, ale do pewnego stopnia eliminuje doskonałość w nauce [Gläser
2002]. Gdy celem ewaluacji jest przede wszystkim poprawa jakości badań, a także koncentracja zasobów u najlepszych, nie jest ona w stanie poprawić słabszych instytucji naukowych, a nawet może doprowadzić do upadku prowadzonych w nich badań [Hicks
2010].
Środowisko naukowe. Ewaluacja instytucjonalna może mieć szkodliwy wpływ na tętniące życiem społeczności naukowe. Wzmacnia ona z reguły znaczenie konserwatywnej
hierarchii naukowej, co hamuje powstawanie oryginalnych badań i nowych dziedzin
oraz tłumi różnorodność i pluralizm. Złagodzić problem może istnienie różnych instytucji finansujących badania, ale nie zawsze, gdyż konserwatywna elita może kontrolować
różne agencje [Whitley 2008]. Do nowatorstwa w nauce zniechęcają wskaźniki [Taylor&Taylor 2003]. Ewaluacja instytucjonalna skutkuje unikaniem projektów o wysokim
ryzyku, oraz koncentracją na badaniach, w których można spodziewać się sukcesu w
spełnieniu kryteriów finansowania [Liefner 2003]. Ponadto, sprzyja ona homogenizacji
badań i eksperymentów poprzez nagradzanie `bezpiecznych` tematów i metod badań
[Genua 2003]. Podkreśla się także, że „system, w którym kluczowym kryterium są publikacje, promuje „inflacje publikacji” i zachowanie status quo” [Frølich 2008].
Jochen Gläser, Grit Laudel, Sybille Hinze, Linda Butler podnoszą pytanie, czy postęp badań zależy od „niezbędnej różnorodności”, tj. na minimalnego zakresu zróżnicowania
zagadnień i perspektyw. Jeśli tak jest, utrzymywanie różnorodności może być ważniejsze niż promowanie wysokiej jakości. Koncentracja ewaluacji na kryteriach wysokiej jakości badań może doprowadzić do powstania luk w wiedzy naukowej, które nagle mogą
stać się przeszkodą na drodze do dalszych rozwoju wiedzy. Ponieważ wydaje się, że na
całym świecie zapanowała tendencja do wprowadzania ewaluacji instytucjonalnej można spodziewać się ujednolicenia praktyk finansowania w skali międzynarodowej. Powstaje więc kolejne pytanie – jakie to pociąga za sobą skutki dla rozwoju nauki? Czy czasem nie zagraża pewnym ważnym niszom w produkcji wiedzy? [Gläser 2002]
Nowatorstwo i interdyscyplinarność. Sądzi się, że ewaluacja instytucjonalna faworyzuje badania „głównego nurtu” oraz bezpieczne tematy, a ujemnie wpływa na tzw. „badania błękitnego nieba”, czyli nowatorskie [Butler 2010]. Ponadto, bardziej premiuje
przeszłe osiągnięcia ustabilizowanych grup badawczych oraz ustabilizowanych dyscyplin, badania krótkoterminowe kosztem długofalowych, podejścia konwencjonalne
kosztem nowatorskich, co bywa przeszkodą w kształtowaniu się nowych i obiecujących
grup i pól badań. Zwraca się też uwagę, że system zwiększa niechęć do podejmowania
ryzyka w wyborze obszarów badawczych (np. wtedy, gdy wybór może wpłynąć na oczekiwany spadek liczby cytowań) oraz zmniejsza zakres wielodyscyplinarności [OECD
2010]. Ta ostatnia kwestia jest przedmiotem sporu, gdyż niektóre badania kwestionują
ujemny wpływ systemu na badania interdyscyplinarne.
229
Poziom czasopism naukowych. Uważa się, że ewaluacja instytucjonalna wywiera dodatni wpływ na poziom czasopism, skłaniając wiele redakcji do spełniania warunków
umożliwiających starania o wciągnięcie na listę Web of Science lub Scopusa [Butler
2010].
Kadry. Ocenia się, że ewaluacja instytucjonalna podnosi motywację badaczy, których
publikacje i cytowania mają decydujący wpływ na punktację instytucji, ale osłabia motywację pozostałych; może wpływać ujemnie na motywację kobiet, początkujących badaczy oraz mniejszości etnicznych. Gdy uwzględnia się wszystkie publikacje autora w
danym okresie, niezależnie od ich afiliacji, a bierze jedynie pod uwagę miejsce zatrudnienia w chwili przeprowadzania ewaluacji, sprzyja ona transferowi wydajnych badaczy
do nowych instytucji oferujących lepsze warunki „za pięć dwunasta”, tuż przed rozpoczęciem procesu oceny [Butler 2010].
Plany badawcze. Zwraca się też uwagę, że ewaluacja instytucjonalna ogranicza swobodę badawczą, podporządkowując myślenie o planach badawczy ustalonym raz na kilka
lat zasadom i kategoriom [Butler 2010].
Publikacje. Jak wykazują badania przeprowadzone w Wielkiej Brytanii, Australii, Hiszpanii i Norwegii ewaluacja instytucjonalna zwiększa wydajność publikacyjną badaczy.
Jednak badania nad wpływem na jakość publikacji (mierzoną przez pomiar cytowań)
przyniosły zróżnicowane ustalenia: podniosła ona poziom publikacji w Wielkiej Brytanii, ale obniżyła w Australii i Norwegii (skutek zasady „publikuj albo zgiń”). Badanie
wpływu na miejsce wyboru publikacji wskazało, że często pod wpływem systemu badacze kierują artykuły nie do czasopism, w których chcieliby drukować, czytanych przez
środowisko, tylko do tych mających wysokie notowania [Butler 2010].
Dydaktyka. Wpływ opisywanej ewaluacji „na dydaktykę jest trudny do oceny, ze względu na brak odpowiednich metod pomiaru. Jednak w wielu krajach wyrażano obawy, że
nacisk na ilość i jakość badań może wywrzeć ujemny wpływ na poziom dydaktyki” [Butler 2010].
Rozwój współpracy naukowej. Wpływ ewaluacji instytucjonalnej na rozwój współpracy (wewnątrz-krajowej i międzynarodowej) zależy m.in. od sposobu pomiaru publikacji
opartych na współpracy autorów pochodzących z różnych instytucji. Sposób „częściowego naliczania” (fractional counting, gdy każdemu autorowi przypisuje się cząstkę publikacji) zniechęca do wspólnego publikowania, a zasady „pełnego liczenia” (whole counting, gdy praca idzie na konto każdego autora) odwrotnie, wspiera współpracę [Butler
2010]. Konsekwencją ewaluacji może być wzrost konkurencji pomiędzy instytucjami
kosztem współpracy [OECD 2010]. Zwłaszcza De Meis et al. argumentuje, że presja na
publikowanie prowadzi do przesadnej konkurencji [De Meis 2003].
Rozwój współpracy z biznesem. W pewnych krajach, jak np. w Nowej Zelandii, prywatne przedsiębiorstwa wysokiej techniki twierdzą, że ewaluacja instytucjonalna zniechęca szkoły wyższe do współpracy z biznesem oraz do transferu wiedzy do sektora
prywatnego. Sugerują one, że „koncentracja na doskonałości akademickiej zniechęca
230
pracowników sektora szkolnictwa wyższego od podejmowania badań aplikacyjnych, a
pomiar publikacji stwarza barierę dla prowadzenia badań komercyjnych” [OECD 2010].
Otoczenie zewnętrzne nauki. Nacisk na pomiar wiedzy kodyfikowanej mierzonej poprzez wskaźniki bibliometryczne (pomiar publikacji w recenzowanych czasopismach,
najlepiej objętych Web of Science) obniża (lub neguje) wartość raportów technicznych i
technicznego know how, które niejednokrotnie mają znacznie większy wpływ na zmiany
poza sferą nauki [OECD 2007]. W Wielkiej Brytanii podkreślano, że RAE ocenia zbyt nisko tematykę badań związanych z kształceniem zawodowym (np. prawo, edukacja, biznes i zarządzanie, ekonomia). W szczególności podnoszono obawy, że badania teoretyczne ocenia się znacznie wyżej niż badania zorientowane na praktykę [HEFCE 2007].
Zarządzanie badaniami. Bezdyskusyjnie dodatni jest wpływ ewaluacji instytucjonalnej
na systemy informacji zarządczej. „Wzrost potrzeb w zakresie wiarygodnych i aktualnych danych spowodował, że wiele uczelni przeprojektowało swoje systemy informacji
dotyczącej studentów, personelu, grantów, dochodów zewnętrznych, publikacji badawczych itd. w szczególności, system pociągnął za sobą ulepszenie lub stworzenie uczelnianych repozytoriów publikacji (Australia i Wielka Brytania).” Równie silny i pozytywny jest jej wpływ na zarządzanie badaniami. Badania przeprowadzone w Wielkiej Brytanii dowiodły, że ewaluacja ta (choć także inne czynniki, takie jak np. polityka rad ds. badań) stała się czynnikiem rozwoju planowania badań na uniwersytetach. Jednym z następstw systemu finansowania opartego na ewaluacji dokonań bywa restrukturyzacja
uczelni, np. zamykanie pewnych wydziałów wykazujących słabe wyniki (lub odwrotnie,
wzmacnianie ich, gdy problematykę badań uważa się za ważną) [Butler 2010; HEFCE
2007].
Profil badawczy (struktura dyscyplinowa, specjalizacja naukową) kraju. Jeśli idzie
o wpływ na poszczególne dyscypliny, obawy (nie dowiedzione jednak mocnymi argumentami) dotyczą wzmocnienia przez ewaluację instytucjonalną dyscyplin łatwiej poddających się pomiarom (nauki przyrodnicze, techniczne i medyczne) kosztem humanistyki. Podkreśla się, że nie zawsze służy ona badaniom stosowanym, ukierunkowanym
na rozwiązanie konkretnych kwestii i zorientowanym na cele praktyczne, gdyż badania
tego typu są publikowane w formie ekspertyz i „szarej literatury” [Butler 2010].
Podsumowując wszystkie te krytyczne uwagi trawestuje się sławne zdanie Churchilla o
demokracji i mówi, że ewaluacja (w tym także służąca ustaleniu poziomu finansowania
badań naukowych) ma niezliczone wady, ale tylko jedną zaletę, że jak dotąd nie zaproponowano lepszego rozwiązania.
Bibliografia
Aldo Geuna and Ben R. Martin, University Evaluation and Funding: An International Comparison, “Minerva”
41: 2003
Diana Hicks, Overview of models of performance-based research funding systems, w: Performance-based
Funding for Public Research in Tertiary Education Institutions, OECD Paryż 2010, s. 25.
Erawatch
231
Evanthia Kalpazidou Schmidt, Evaluation and science policy, w: K. Siune & E. Kalpazidou Schmidt (ed.), The
use of evaluations in Europe. Report from the European RTD Evaluation Network meeting, Report 2003/2,
Aarhus, Danish Institute for Studies in Research and Research Policy, 2003.
Goodhart Law, Wikipedia 2013
Hanne Foss Hansen, Research Evaluation: Methods, Practice and Experience, Danish Agency for Science,
Technology and Innovation, 2009.
HEFCE The impact of the 1992 Research Assessment Exercise on higher education institutions in England,
1997
I. Liefner, Funding, resource allocation, and performance in higher education Systems, „Higher Education”,
2003: 46(4), 469-489. Cyt. za: Nicoline Frølich, The politics of steering by numbers, Debating performancebased funding in Europe, NIFU-STEP 2008, http://www.nordforsk.org/_img/nifu_step_rapport
_steeringbynumbers.pdf
J. Taylor, and Taylor, R., Performance indicators in academia: An X-efficiency approach? “Australian Journal
of Public Administration”, 2003:62(2). Cyt. za: Nicoline Frølich, The politics of steering by numbers, Debating performance-based funding in Europe, NIFU-STEP 2008, http://www.nordforsk.org/_img/ nifu_step_rapport_steeringbynumbers.pdf
Jochen Gläser, Grit Laudel, Sybille Hinze, Linda Butler, Impact of evaluation-based funding on the production of scientific knowledge 2002
L. de Meis, A. Velloso, D. Lannes, M.S. Carmo, and de C. Meis, The growing competition in Brazilian science:
rites of passage, stress and burnout, “Brazilian Journal of Medical and Biological Research”, 2003: 36(9),
1135-1141. Cyt. za: Nicoline Frølich, The politics of steering by numbers, Debating performance-based funding
in
Europe,
NIFU-STEP
2008,
http://www.nordforsk.org/_img/nifu_step_rapport
_steeringbynumbers.pdf
Linda Butler, Impacts of performance-based research funding systems: A Review of the concerns and the evidence, w: Performance-based Funding for Public Research in Tertiary Education Institutions, OECD Paryż
2010.
Marcel Herbst, Financing public universities: the case of performance funding, Dordrecht, Springer, 2007.
Nicoline Frølich, The politics of steering by numbers, Debating performance-based funding in Europe, NIFUSTEP 2008, http://www.nordforsk.org/_img/nifu_step_rapport_steeringbynumbers.pdf
OECD IPP Issue Brief: Research Organisation Evaluation, 2014.
OECD Performance-based models for publicly funded research in tertiary education institutions, Paris 2010.
Qualitative Research, Wikipedia 2013.
R. Whitley, Chapter 1 Changing Governance of the Public Sciences, w: The Changing Governance of the Sciences, Sociology of the Sciences Yearkbook, Dortrecht 2008
S. Van Thiel and F. L. Leeuw, The Performance Paradox in the Public Sector “Public Performance & Management Review”, 2002, vol. 25, no. 3, 267-281
Sarah Box, Ester Basri, Performance-Based Funding for Public Research in Tertiary Education Institutions:
Country Experiences. Summary of country questionnaire responses,, DSTI/STP/RIHR(2010)5.
The Evaluation of Scientific Research: Selected Experiences, OECD DSTI/STP/SUR(97)9.
ORGANIZACJA EWALUACJI INSTYTUCJONALNEJ
Por. też >EWALUACJA INSTYTUCJI PUBLICZNEGO SEKTORA NAUKI OPARTA NA POMIARZE DOKONAŃ; >ORGANIZACJA EWALUACJI INSTYTUCJONALNEJ; >FAZY EWALUACJI INSTYTUCJONALNEJ; >METODY STOSOWANE W EWALUACJI INSTYTUCJONALNEJ;
>PYTANIA I KRYTERIA W EWALUACJI INSTYTUCJONALNEJ.
232
Kluczowe czynniki ewaluacji instytucjonalnej – jej zakres i przedmiot, czas i zasoby,
uprawnienia, plan wykorzystania raportu, wybór ekspertów – albo ustala zleceniodawca
(np. ministerstwo lub, jeszcze częściej, agencja finansująca badania), albo też pozostawia
swobodę decyzji realizatorom. Zleceniodawca (a dokładniej, organ wewnętrzny powołany do przeprowadzenia ewaluacji) powołuje przewodniczących oraz sekretarzy paneli
oraz określa główne cele ewaluacji (np. ulepszenie jakości i relewantności badań), procedury wizyt kontrolnych, oczekiwania co do raportu końcowego, zakres odpowiedzialności i uprawnienia paneli. Czasami ustala szczegółowe pytania i kryteria oceny (terms
of reference), a czasami tylko ogólne wytyczne (np. że ewaluacja powinna brać pod uwagę jakość i relewantność badań oraz ocenę klientów i użytkowników), pozostawiając ich
konkretyzację członkom zespołu. To drugie rozwiązanie ma wadę, gdyż pozostawia pole
do dowolności, ale też ważną zaletę, gdyż umożliwia uwzględnienie w kryteriach oceny
dyscyplinowych specyfik ocenianych jednostek, wliczając w nie prowadzenie badań inter-multi-i-transdyscypinarnych.
Zazwyczaj zleceniodawca przygotowuje i ogłasza z góry plan wszystkich ewaluacji, które
zamierza przeprowadzić w nadchodzącym cyklu. Plan zawiera m.in. informacje o planowanych wizytacjach, dokumentacji, jaką powinni otrzymać ewaluowani, publikacji
wyników oceny oraz sposobach kontynuacji (follow-up) przedsięwzięcia.
Poszczególne kraje różnią się między sobą pod względem częstotliwości przeprowadzania ewaluacji instytucjonalnej. Z zasady im ewaluacja jest zakrojona na większą skalę,
bardziej wnikliwa, czaso-i-kosztochłonna, tym odbywa się rzadziej. W Wielkiej Brytanii
przeprowadzano ją (w systemie RAE) co 5-7 lat, w Hiszpanii i w Holandii odbywa się
ona co sześć, w Austrii co i Słowacji co trzy, w Polsce nie rzadziej niż raz na 5 lat [Hicks
2010]. Ale z reguły w krajach, w których pełne szczegółowe ewaluacje przeprowadza się
co kilka lat, oceniane instytucje przesyłają co roku informacje, uwzględniane przy ustalaniu wysokości rocznej dotacji; jest tak w np. w Wielkiej Brytanii i w Polsce.
Skład panelu eksperckiego może mieć decydujące znaczenie dla wyniku oceny. Zaleca
się, aby eksperci mieli bieżące doświadczenie z ocenianą dyscypliną, ale aby nie mieli
powiązań z ocenianą instytucją. Gdy przedmiotem oceny jest nie tylko jakość badań, ale
także np. zarządzanie lub transfer technologii, ewaluatorzy powinni legitymować się
odpowiednią wiedzą i doświadczeniem. W różnych krajach podkreśla się, że w grupie
ekspertów powinni znaleźć się zarówno menedżerowie nauki, jak i przedstawiciele
użytkowników – z sektorów publicznego i prywatnego [Measures 2005]. Najczęściej zleceniodawca ustala skład panelu, dokonując wyboru na podstawie profilu kompetencji
oraz (nieujętego w CV) przekonania o bezstronności kandydata. Wybór bywa konsultowany z mianowanym wcześniej przewodniczącym zespołu oraz z krajowym i zagranicznym środowiskiem naukowym. W niektórych krajach oceniane instytucje mają prawo
wskazania kandydatów (z kraju i/lub z zagranicy). Podstawową zasadą w krajach nordyckich jest udział ekspertów zagranicznych, głównie spoza krajów nordyckich [Luukonen 1993]. Sekretarzem panelu jest często przedstawiciel zleceniodawcy. Często obok
panelu powołuje się także grupę doradczą (reference group for evaluation), która monitoruje przebieg ewaluacji. W krajach nordyckich z reguły kiedy odmawia się ocenianym
233
prawa do wskazania kandydatów do panelu, pozwala wyznaczyć przedstawicieli do
grupy doradczej. Ponadto z reguły oceniani mają prawo do repliki, która jest publikowana równolegle z właściwym raportem.
Z reguły komisja ewaluacyjna przeprowadza wizyty w terenie. Wcześniej przewodniczący komisji oraz dyrektor instytutu uzgadniają jej program. Zespół oceniający otrzymuje
przed wizytą pakiet informacji o instytucie (w Holandii – na cztery tygodnie przed spotkaniem). Podczas wizytacji zazwyczaj członkowie panelu rozmawiają z dyrektorem, zarządem, kierownikami projektów i zespołów oraz z przedstawicielami pracowników i
doktorantów.
Czas i zasoby dla ewaluacji mają wpływ na jej jakość. W krajach nordyckich panele powoływane dla dokonania oceny dyscyplin mają zwykle od roku do półtora roku na przygotowanie raportu.
Podział zadań wewnątrz grupy i tryb pracy określają najczęściej jej członkowie. Zazwyczaj o podziale zadań decydują kompetencje; uczeni specjalizujący się w pewnej problematyce biorą na siebie ciężar oceny instytucji najbliższych ich zainteresowaniom.
Zdarza się, że wewnątrz grupy powstają pod-grupy. Członkowie kontaktują się przez emaile, telefon i spotkania. Końcowy raport bywa przedmiotem nie tylko ożywionych
dyskusji, ale także negocjacji i ucierania kompromisu. Często bywa tak, że projekt końcowego raportu redaguje przewodniczący lub sekretarz, a następnie członkowie panelu
przesyłają uwagi i komentarze.
W Holandii ewaluacjom przeprowadzanym przez organa finansujące towarzyszą własne
ewaluacje instytucji, przeprowadzane w połowie cyklu. Celem ich jest sprawdzenie realizacji zaleceń oraz przygotowanie placówki do kolejnej ewaluacji. W Holandii grupa badawcza sci_Quest opracowała zalecaną przez agencje metodę samo-ewaluacji grup badawczych, na którą składa się
a) opis misji i wizerunku grupy/instytucji,
b) zestaw wskaźników nazwany „Profil `Osadzenia` (embement) i Dokonań (performance) Badawczych” (Research Embedment and Performance Profile (REPP)),
c) analiza interesariuszy – użytkowników, współproducentów i kolegów ze świata nauki,
gospodarki i rządu (składająca się z dwóch części, 1. opisu otoczenia w formie zestawu
informacji oraz map i przedstawień graficznych, 2. badań ankietowych wśród interesariuszy),
d) opinie porównawcze (comparative feedback), czyli spojrzenie na misję grupy/instytutu w świetle a, b i c. Podczas gdy REPP pokazuje profil grupy pod względem
działań ukierunkowanych na otoczenie, a analiza interesariuszy w inny sposób naświetla współpracę ze środowiskiem zewnętrznym, „opinie porównawcze” mają na celu refleksję nad misją grupy/instytucji w kontekście faktów i wskaźników ilustrujących jej
rzeczywistą działalność [Spaapen 2007].
Kontynuacja (follow-up) ewaluacji obejmuje zwykle a) stanowisko zleceniodawcy wobec
ocen i zaleceń komisji ewaluacyjnej, b) publikację raportu w Internecie (lub także w
234
wersji papierowej), a w Niderlandach także c) przegląd średnio-okresowy dokonany
wewnętrznie, ale wg przepisanych z góry zasad.
W wielu krajach istnieją różnego rodzaju mechanizmy kontrolne ewaluacji. W Niderlandach obejmują one publikację z wyprzedzeniem planu ewaluacji, zamieszczanie opisu
przeprowadzonych ewaluacji w raportach rocznych agencji, które je przeprowadzają,
oraz – przede wszystkim – obowiązkową ewaluację ewaluacji przeprowadzaną pod koniec cyklu. Mechanizmami kontrolnymi są też wspomniane przed chwilą grupy doradcze
(reference group for evaluation) oraz prawo do repliki. Sama ewaluacja poddawana bywa odrębnej ewaluacji, np. w Holandii i w Wielkiej Brytanii. W obu krajach ewaluacje
ewaluacji stanowią podstawę do wprowadzenia korekt w następnych cyklu.
Raporty ewaluacyjne. W krajach nordyckich raporty ewaluacyjne mają zwykle standardowy układ i składają się z dwóch części: pierwsza dotyczy mocnych i słabych stron
całej instytucji (dziedziny, programu), a druga ocenia indywidualne projekty i prace
grup badawczych [Luukonen 1993]. Raport łączy część diagnostyczną z końcową oceną
(np. w formie propozycji kategorii dla instytucji) [Langfeldt 2002], a także oceną szans i
zagrożeń oraz propozycjami co do tego, jak korzystać z nasuwających się szans i jak
przeciwdziałać możliwym zagrożeniom. Aneks zawiera z reguły krótki opis instytucji i
prowadzonych przez nią badań (pisany wspólnie z ocenianą placówką). Np. raport komisji ewaluacyjnej w Holandii składa się z następujących części:
Część 1. Ocena całego instytutu, zawierająca:
• krótki opis instytutu, jego wizji, misji i celu (celów), działalności badawczej
• ocena jakości (reputacji akademickiej, jakości, szkolenia doktorantów, zasobów badawczych, organizacji i procedur wewnętrznych, przywództwa, pozycji w kraju i za granicą)
• ocena wydajności (publikacje, produkty) i strategii jej poprawy
• ocena relewantności (w badaniach naukowych, w społeczeństwie, w odniesieniu do
komercjalizacji)
• ocena potencjału i możliwości jego realizacji przez instytut oraz wizja przyszłości (na
podstawie pozycjonowania i benchamrkingu, a także mocne i słabe strony w analizie
SWOT: strategia na przyszłe lata, siły konkurencyjna, solidność i stabilność, zdolności do
pozyskiwania funduszy).
Część 2. Ocena poszczególnych grup badawczych lub programu Instytutu, zawierająca:
• krótki opis programu, jego celu (celów) i działalności badawczej
• ocena jakości (oryginalność badań, znaczenie naukowe, spójność programu, strategia
publikacji, wybitność naukowców) – przeprowadzonych w Instytucie badań i prac rozwojowych, a także infrastruktury badawczej, zarządzania programem badań, zasobów
finansowych i ludzkich
• ocena wydajności grup badawczych, działalności badawczo-rozwojowej i infrastruktury badawczej (kwantyfikacja dorobku publikacyjnego i wyników badań i rozwoju; pomiar wykorzystania infrastruktury badawczej uzyskanej ze środków publicznych przez
instytut przez osoby trzecie)
235
• ocena relewantności (B+R i infrastruktury badawczej – zarówno dla środowiska akademickiego i jak i dla społeczeństwa; komercjalizacja)
• ocena potencjału i możliwości jego realizacji przez instytut oraz wizja przyszłości (jego planów badań, elastyczność i przewidywanie zmian, jakich należy oczekiwać w najbliższej przyszłości) [Langfeldt 2002].
Schemat raportu jest powtórzony w przekazanej instytutom liście, wg której mają one
przeprowadzić własną ocenę średnio-okresową w skali jeden do pięciu (doskonały, bardzo dobry, dobry, dostateczny, niedostateczny):
Poziom Instytutu
Jak oceniasz instytut w odniesieniu do:
Jakości
A1 Przywództwa
A2 Reputacji akademickiej
A3 Organizacji
A4 Zasobów
A5 Kształcenia doktorantów
Wydajności
B1 Strategia wydajności
B2 Wydajność
Relewantności
C1 Społeczna relewantność
Potencjału i możliwości ich realizacji (vitality and feasibility)
D1 Strategia
D2Analiza SWOT
D3 Solidność i stabilność (robustness and stability)
5
4
3
2
1
Poziom grup badawczych lub programu
Jak oceniasz grupę badawczą / program w odniesieniu do:
Jakości
A1 Jakości i społecznej relewantności badań
A2 Przywództwa
A3 Reputacji akademickiej
A4 Organizacji
A5 Zasobów
Wydajności
B1Strategia wydajności
B2 Wydajność
Relewantności
C1 Społeczna relewantność
Potencjału i możliwości ich realizacji
D1 Strategia
D2 Solidność i stabilność
Źródło: Standard Evaluation Protocol (SEP) 2009-2015. Protocol For Research Assessment In The Netherlands, VSNU, KNAW and NWO 2009
236
Bibliografia
Diana Hicks, Overview of Models of Performance-Based Research Funding Systems, DSTI/STP/RIHR(2010).
Measures of quality and impact of publicly funded research in the humanities, arts and social sciences, 2005.
Terttu Luukonen, Bertel Ståhle, Evaluation of Research Fields – Scientists` View, 1993.
Standard Evaluation Protocol (SEP) 2009-2015. Protocol For Research Assessment In The Netherlands,
VSNU, KNAW and NWO 2009.
Jack Spaapen, Huub Dijstelbloem and Frank Wamelink, Evaluating Research in Context. A method for comprehensive assessment, Haga 2007.
Terttu Luukonen, Bertel Ståhle, Evaluation of Research Fields – Scientists` View, 1993.
Liv Langfeldt, Decision-making in expert panels evaluating research. Constraints, processes and bias, NIFU
2002.
Review of Physics in Denmark, Ministry of Education and Research 1992.
FAZY EWALUACJI INSTYTUCJONALNEJ
Por. też >EWALUACJA INSTYTUCJI PUBLICZNEGO SEKTORA NAUKI OPARTA NA POMIARZE DOKONAŃ; >ORGANIZACJA EWALUACJI INSTYTUCJONALNEJ; >METODY STOSOWANE W EWALUACJI INSTYTUCJONALNEJ; >PYTANIA I KRYTERIA W EWALUACJI
INSTYTUCJONALNEJ.
Przeprowadzanie ewaluacji instytucjonalnej obejmuje następujące fazy:
Projektowanie
Ewaluacja
Wdrażanie
Stosowanie
Kluczowa faza projektowania obejmuje siedem działań:
237
Uzasadnianie
Określenie celu instytucjonalnego
Określenie funkcji ewaluacji instytucjonalnej w
zarządzaniu nauką
Ustalenie roli odbiorców i użytkowników
Sformułowanie zasad działania
Zdefiniowanie parametrów
Operacjonalizacja
W rozwinięciu, schemat ewaluacji instytucjonalnej można by przedstawić w następujący sposób:
Projektowanie
Określenie założeń
Zdefiniowanie motywu przeprowadzania ewaluacji, np.
•
Poprawa jakości badań (lub także innych form działalności opartej na badaniach lub innych form działalności naukowej i technicznej)
•
Wzrost dodatniego wpływu badań na otoczenie
•
Zwiększenie wydajności pracy naukowej
Opisanie celu instytucjonalnego, np.
•
Podstawa finansowania
•
„Rozliczanie” (accountability)
•
Narzędzie samo-oceny i poprawy
•
Wkład do decyzji dotyczących priorytetów oraz strategii
•
Zapewnienie przejrzystości decyzji
Zdefiniowanie funkcji ewaluacji instytucjonalnej jako elementu polityki i zarządzania nauką, a w
szczególności jako elementu systemu ocen (ewaluacje, audyt, benchmarking itd.) oraz procesu
decyzyjnego („cyklu polityki”).
Ustalenie roli finansowania instytucjonalnego („statutowego”) w stosunku do innych form finansowania (przede wszystkim finansowania projektów indywidualnych oraz projektów w ramach
programów).
Określenie ewaluacji jako elementu polityki wymaga spojrzenia na politykę jako na zbiór powiązanych ze sobą instrumentów i programów zmierzających do realizacji priorytetów rządowych
(poniżej – jedna z możliwych klasyfikacji polityki naukowej i innowacyjnej).
Rozpoznanie
•
obowiązujących praw regulujących przebieg ewaluacji oraz określających jej cel
238
•
•
•
instytucjonalnych ram przeprowadzania ewaluacji
zasobów finansowych, kadrowych i bazodanowych, jakimi będą rozporządzać organizatorzy ewaluacji
istniejącego systemów gromadzenia, weryfikacji i przetwarzania danych i informacji pod
kątem potrzeb ewaluacji
Określenie standardów, dobrych praktyk i wartości (np. przejrzystość, stabilność, jednolitość zasad, ścisłość, obiektywizm, przejrzystość, profesjonalizm i niezależność (brak konfliktu interesów) ewaluatorów), które chce się przestrzegać; powołanie forum rozwoju metodologii ewaluacji
Ustalenie roli odbiorców i użytkowników na różnych etapach tworzenia systemu, od projektowanie, poprzez wdrażanie, utrzymywanie oraz ewaluację, takich jak:
•
Politycy
•
Urzędnicy agencji i ministerstw
•
Badacze
•
Eksperci ds. ewaluacji
•
Menedżerowie ewaluacji
•
Eksperci dziedzinowi
•
Menedżerowie
•
Użytkownicy badań
•
Inni zainteresowani
•
Opinia publiczna
Opisanie zasad działania systemu ewaluacji dotyczących poszczególnych faz, takich jak
•
projektowanie
o
ocena dotąd stosowanego systemu
o
przeprowadzenie benchmarkingu stosowanych systemów
o
przeprowadzenie badań i analiz
zespół ds. badań i analiz
panele eksperckie
ekspertyzy (np. wskaźniki – konsekwencje stosowania; analizy wpływu
finansowania opartego na ocenie dokonań)
konsultacje wśród zainteresowanych oraz szerszej grupy interesariuszy
pilotaże sprawdzające działanie systemu
debata publiczna
•
wdrażanie
o
ocena funkcjonowania (ewaluacja ewaluacji), ustalenie kto i wg jakich zasad
przeprowadza ocenę ewaluacji
Zdefiniowanie kluczowych parametrów ewaluacji
•
Zakres przedmiotowy oceny (np. badania naukowe, B+R, edukacja, inne formy działalności N+T)
•
Zakres instytucjonalny (np. uczelnie)
239
•
Jednostki oceny (np. jednostki naukowe w rozumieniu ustawy, jak w Polsce, jednostki
dyscyplinowe w ramach uczelni, jak w projekcie brytyjskim; problem interdyscyplin)
•
Ujęcie podstawowych pytań i kryteriów w wymiary (bloki tematyczne), np.
•
o
Jakość badań
o
Produktywność
o
Relewantność i wpływ społeczno-gospodarczy
o
Skuteczność zarządzania (plastyczność organizacji, przywództwo i zarządzanie)
Ustalenie metod uzyskania odpowiedzi
o
Ilościowe (wskaźniki, indeksy)
o
Jakościowe (np. panel ekspertów)
Operacjonalizacja systemu
1.
Koncepcyjna, np.:
o wybór wskaźników oraz informacji jakościowych dla każdego wymiaru (bloku
tematycznego), jeśli to możliwe w ramach wymiarów (bloków) niższego rzędu
(np. jak w Holandii, gdzie w ramach wymiaru jakości uwzględnia się m.in. jakość
naukową, przywództwo, prestiż akademicki itd.)
o ustalenie definicji wskaźników;
o ustalenie sposobu łączenia informacji ilościowych (np. indeks) i jakościowych
(panel ekspertów) oraz funkcji każdego ze źródeł, np. w zależności od wymiaru,
dyscypliny lub typu instytucji;
o rozstrzygnięcie szczegółowych problemów związanych ze wskaźnikami, takich
jak np. czy w ramach jednostki oceny brać pod uwagę wszystkie czy wyłącznie
wyselekcjonowane publikacje, określenie poziomu agregacji danych bibliometrycznych (np. badacz, jednostka oceny) oraz zakresu rzeczowego i czasowego
badań cytowań, itd.;
o ustalenie punktów oraz wag dla poszczególnych wskaźników lub ich grup (wymiarów);
o decyzje co do różnicowania zasad oceny w zależności od typów dyscyplin oraz
instytucji;
o postanowienia co do kategorii dyscyplinowych z uwzględnieniem możliwości ich
przekładu na kategorie stosowane w dostępnych bazach danych, np. Web of
Science lub Scopus;
o decyzje co do liczby i zasad budowy kategorii ocenianych jednostek oraz skali
oceny (np. 1-5);
o decyzje co do charakteru powiązań – ścisłych lub luźnych – pomiędzy uzyskanymi wartościami mierników (kategorią wg skali) a decyzjami finansowymi;
o określenie znaczenia wszystkich pojęć, jakie będą stosowane podczas ewaluacji
dla uniknięcia możliwych nieporozumień;
o rozstrzygnięcie dylematów, np. pomiędzy
elastycznością systemu, koniecznego wobec szybkości zmian w nauce i jej
otoczeniu, a jego stabilnością, niezbędną, aby był przewidywalny dla ocenianych instytucji;
oceną akademicką a oceną społeczną badań;
oceną badań naukowych a oceną innych prac naukowych i technicznych
oraz dydaktycznych;
240
jednolitością kryteriów a ich zróżnicowaniem ze względu odmienności
dyscyplin oraz specyfikę poszczególnych typów jednostek, itp.
2.
o
sporządzenie projektów kwestionariuszy dla wizytacji dokonywanej przez zespoły ekspertów (albo ogólnych ram lub wytycznych, wg których zespoły powinny takie kwestionariusze przygotować)
o
sporządzenie projektu indeksu lub zbioru wskaźników dla ocenianych jednostek;
realizacja wszystkich koniecznych faz przygotowania indeksu, takich jak opracowanie ram teoretycznych, wybór danych, imputacja, analiza wieloczynnikowa,
normalizacja, ważenie i agregacja, sprawdzanie solidności indeksu, dekompozycja, testowanie i wybór form wizualizacji
o
określenie przebiegu i form kontynuacji (follow-up) ewaluacji, np. w postaci samo-ewaluacji dokonywanej przez same oceniane jednostki wg zalecanego schematu
o
nakreślenie schematu raportu komisji ewaluacyjnej
organizacyjna
o
o
ustalenie podziału zadań odnoszących się do przygotowania koncepcji między
zleceniodawcę (np. ministerstwo lub agencję) a realizatorem
ustalenie form organizacyjnych, np. trybu powoływania oraz działania paneli /
komisji ewaluacyjnych
o
rozpisanie zadań dla organizacji przeprowadzającej ewaluację, ewaluatorów,
ocenianych, instytucji dostarczających informacje, takich jak instytucje naukowe,
biblioteki lub ośrodki informacji,
o
określenie sposobu finansowania,
o
sporządzenie harmonogramu prac, w szczególności,
opracowanie planu pracy dla paneli lub komisji ewaluacyjnych (m.in. w
zależności od metody ewaluacji, np. spotkania z dyrektorem instytutu,
radą naukową, interesariuszami i użytkownikami badań, analiza dokumentacji oraz danych bibliometrycznych itd.),
sposobu analizy danych,
określenie efektu końcowego prac (np. raportu),
ustalenie trybu podejmowania ostatecznych decyzji,
o
określenie sposobu gromadzenia, weryfikacji, przetwarzania i upubliczniania
danych,
o
ustalenie kwestii związanych z informacją nt. systemu oraz ze szkoleniem w
dziedzinie ewaluacji,
o
ustalenie częstotliwości i okresu trwania ewaluacji (jej cyklu),
o
opis sposobu odwoływania się od decyzji,
o
rozstrzygnięcie kwestii dotyczących formy ogłoszenia zasad ewaluacji instytucjonalnej oraz minimalnego okresu pomiędzy ogłoszeniem zasad a rozpoczęciem ewaluacji,
3.
proceduralna (ustalenie procedur w formie protokółu, rozporządzenia itd.),
4.
etyczna (opracowanie kodeksu zasad i dobrych praktyk).
241
5.
techniczna (obejmująca m.in. bazy zawierające dane konieczne do oceny, np. dotyczące
dorobku publikacyjnego; bazy zawierające dane niezbędne do administrowania systemem, np. dotyczące potencjalnych i powołanych członków komisji ewaluacyjnych; sposób pobierania danych i ich przetwarzania)
Wdrażanie systemu ewaluacji. Ogłoszenie przez zleceniodawcę planu wszystkich ewaluacji,
które zamierza przeprowadzić w nadchodzącym cyklu.
Stały monitoring zasad i praktyki z możliwością auto-korekty. Określenie roli we wdrażaniu decydentów, menedżerów ewaluacji, poddawanych ocenie, zewnętrznych ekspertów i innych interesariuszy.
Stosowanie systemu ewaluacji. Administrowanie systemem
•
Zbieranie danych
•
•
Analiza danych (interpretacja zebranych danych, ich porównanie, uchwycenie różnic)
Podejmowanie decyzji opartych na ewaluacji
•
Pełnienie przez ewaluację podstawowych funkcji – ewaluacyjnych, alokacyjnych, politycznych (np. wkład do strategii oraz budowy priorytetów) i zarządczych
Ewaluacja
•
•
•
•
Konsultacje przed zaprojektowaniem, w trakcie jego stosowania oraz po zakończeniu
cyklu ewaluacji
Ewaluacja ex ante (m.in. ustalanie możliwych ujemnych efektów ubocznych),
Ewaluacja interim (monitoring zarówno działania ewaluatorów i administratorów, jak i
sprawdzanie skuteczności planu)
Ewaluacja ex post przez odrębny zespół ekspertów.
Bibliografia
Przewodnik Ewaluatora Opracowany w Ramach Ewaluacji procesu wdrażania Regionalnych Strategii Innowacji, PARP 2007.
EWALUACJA POZA-UCZELNIANYCH PUBLICZNYCH INSTYTUCJI NAUKOWYCH
(PPIN)
Poza-uczelniane Publiczne Instytucji Naukowe definiuje się jako krajowe podmioty, niezależnie od ich statusu prawnego (podstawy w ramach prawa publicznego lub prywatnego):
• których głównym celem jest prowadzenie badań podstawowych, badań przemysłowych, prac rozwojowych, szkolenia, doradztwa i usług, a także rozpowszechnianie wyników badań poprzez szkolenia, publikacje i transfer technologii;
• których zyski (jeśli istnieją) są reinwestowane w działalność badawczą, rozpowszechnianie jej wyników lub szkolenia oraz
• które są w całości lub w znacznej części własnością publiczną, i/lub są finansowane
przede wszystkim ze środków publicznych poprzez finansowanie instytucjonalne (gran-
242
ty blokowe) lub poprzez badania opartego na umowie, tak aby przede wszystkim realizować misję publiczną.
Pozauczelniane publiczne instytucje naukowe są silnie zróżnicowanie pod względem
misji, funkcji, statusu prawnego, specjalizacji, powiązań z otoczeniem oraz źródeł finansowania. Te ostatnie obejmują tak różne składniki, jak:
•
•
•
•
•
•
finansowanie instytucjonalne nie obwarowane warunkami (lub tylko ogólnymi) i
nie ukierunkowane na realizację określonego projektu lub programu,
finansowanie projektów,
dotacje rządowe i samorządowe na wykonywanie określonych usług, takich jak
np. testowanie,
kontrakty rządowe i samorządowe udzielane w wyniku przetargu,
kontrakty ze strony biznesu,
inne (np. dochody z tytułu wynajmu pomieszczeń lub produkcji na małą skalę)
[OECD 2009].
Ze względu na to bardzo silne i rosnące zróżnicowanie, zasady finansowania pozauczelnianych instytucji naukowych oraz rodzaj powiązań, jakie zachodzą pomiędzy finansowaniem publicznym a ewaluacją poza-uczelnianych publicznych instytucji naukowych różnią się nie tylko pomiędzy, ale także wewnątrz poszczególnych krajów. Oprócz
Polski instytuty te – wg dostępnej wiedzy – nie podlegają >KRAJOWYM SYSTEMOM
EWALUACJI BADAŃ w tych krajach, w których systemy te obowiązują. Systemy te obejmują w zasadzie jedynie uczelnie. Zazwyczaj zasady ewaluacji pozauczelnianych instytucji naukowych różnią od zasad stosowanych w ocenie badań prowadzonych w uczelniach, są bardziej ukierunkowane na ocenę (nie tylko) produktów, ale także efektów i
wpływów.
Ogólnie rzecz biorąc, ewaluacje PPIN przeprowadza się aby lepiej zrozumieć skalę, charakter i determinanty zwrotu z inwestycji, a także aby poznać wszystkie niezamierzone
skutki tych inwestycji. Celem ewaluacji jest poprawa zarządzania i finansowania PPIN
oraz uczenie się z sukcesów i porażek. Kluczowe pytania zadawane podczas ewaluacji
dotyczą efektywności i skuteczności instytucji i ich programów, uzasadnień interwencji
rządu oraz tego, czy poprzez finansowanie rządu osiągnięto dodatkowość.
Ewaluacje przeprowadza się na różnych poziomach: najczęściej na poziomie instytucji,
ale także na poziomie programów, typów działalności lub (rzadko) na poziomie całego
sektora PPIN. Najczęściej ewaluację przeprowadzają firmy konsultacyjne, rzadziej indywidualni zagraniczni eksperci.
Najważniejszym pytanie zadawane podczas ewaluacji dotyczy wpływu lub wartości dodanej (instytucji, programu lub sektora), rozumianych różnie, ale często w sposób szeroki, z uwzględnieniem oddziaływania na społeczeństwo i gospodarkę. Inne pytania dotyczą rezultatów (publikacje, patenty), skuteczności, transferu wiedzy, planowania strategicznego, zarządzania.
243
Przeprowadzając ewaluacje najczęściej sięga się po ocenę jakościowa (wywiady i kwestionariusze do zainteresowanych stron), a także po analizę kosztów i korzyści i analiza
danych. Niekiedy korzysta się ze wskaźników, które z natury informują o przeszłości,
rzadziej uwzględnia się w ewaluacji przyszłe skutki badań [OECD 2009].
W pewnych krajach – np. we Flandrii (Belgia), Finlandii, Włoszech, Japonii, Nowej Zelandii i Norwegii – okresowe ewaluacje publicznych poza-uczelnianych instytucji naukowych zostały wpisane do procesu politycznego. W Norwegii program finansowania
instytucjonalnego poza-uczelnianych instytucji naukowych (ok. 10% budżetu nauki)
oparty został na wskaźnikach dokonań, takich jak m.in. liczba publikacji, współpraca z
uczelniami, skala przychodów z grantów Rady ds. Badań oraz skala przychodów z zagranicy. W Finlandii ustalając poziom finansowania bierze się pod uwagę takie czynniki,
jak wpływ społeczny, wydajność operacyjna, jakość zarządzania, produkty. W Japonii instytuty są zobowiązane do corocznego przesyłania raportów dokumentujących uzyskane osiągnięcia; pewne kategorie instytutów podlegają przeprowadzanym co kilka lat
ewaluacjom.
W Niderlandach wskaźniki ewaluacji pewnej grupy instytutów technologicznych obejmują:
Wskaźniki systemu innowacji
•
•
•
•
•
•
•
•
•
•
•
•
publikacje/materiały konferencyjne
liczba publikacji na jednego badacza
dysertacje
liczba badaczy przechodzących do pracy na uczelniach
Wskaźniki wpływu na biznes
liczba współpracujących firm
przychody z gospodarki
obroty partnerów z przemysłu jako % ogółu obrotów
liczba badaczy przechodzących do pracy w przemyśle
liczba patentów (wniosków i udzielonych)
liczba licencji
liczba firm odpryskowych
Wskaźniki umiędzynarodowienia
•
•
•
•
•
udział badaczy nie holenderskich/spoza UE
udział budżetu B+R wykorzystanego poza Niderlandami
liczba współpracujących firm zagranicznych (z wyjątkiem filii firm zagranicznych
w Niderlandach)
liczba projektów unijnych
liczba zagranicznych ekspertów biorących udział w planowaniu badań
Wskaźniki wydajności
•
stosunek ogółu przychodów do dotacji rządowych
244
•
•
•
stosunek liczby badaczy (mierzonych wg współczynnika czasu pracy) do ogółu
przychodów
stosunek liczby badaczy (mierzonych wg współczynnika czasu pracy) do dotacji
rządowych
wielkość budżetu przeznaczonego na B+R [OECD 2009].
E. Geisler [1996] z Wydziału Zarządzania Uniwersytetu w Wisconsin zaproponował
ewaluację poza-uczelnianych instytucji opartą na wskaźnikach złożonych wg metody
nazwanej przez niego Zintegrowaną Miarą Zasług (Integrated Figure of Merit, IFM). IFM
to połączenie metody oceny kosztów z oceną dokonań B+R. Ocena kosztów obejmuje
wszystkie wydatki na naukowców i inżynierów, personel pomocniczy, materiały, dostawców oraz na maszyny i urządzenia. Uwzględnia także koszty pośrednie, zgodnie ze
stosowanymi w organizacji zasadami ich obliczania. Stosunek kosztu pracy naukowców i
inżynierów pozwala na przeprowadzanie porównań między agencjami nauki i dyscyplinami. Ocena dokonań składa się z dwóch rodzajów wskaźników produktów badań:
•
•
podstawowych wskaźników, które są wskaźnikami ogólnych wyników, mającymi
zastosowanie w każdej dziedzinie nauki i we wszystkich organizacjach badawczych (np. prowadzących badania nad przestrzenią, środowiskiem, obroną), np.
wskaźnik publikacji.
wskaźników specyficznych dla organizacji, np. sporządzane przez laboratorium
ekspertyzy techniczne.
Rozróżniając produkty, efekty i wpływy, autor przytacza przykładowe wskaźniki produktów oraz efektów organizacji badawczych.
PRZYKŁADOWE WSKAŹNIKI DO INDEKSU PRODUKTU
I. GŁÓWNE KLUCZOWE WSKAŹNIKI PRODUKTU
1. Indeks dokumentów pisanych
1.1. Liczba publikacji w czasopismach
1.2 Liczba sprawozdań technicznych
1.3 Liczba cytowań w czasopismach
2. Indeks innych produktów
2.1 Liczba nowych idei
2.2.Liczba nowych lub ulepszonych metod badań, modeli, norm, pojęć i baz danych
2.3 Liczba rozwiązań problemów dla klientów
2.4 Ulepszone rozumienie zjawisk
2.5 Wskaźniki wymiany personelu
2.6 Liczba prezentacji dla organizacji zawodowych
3. Ogólnej reputacja organizacji
3.1 Liczba otrzymanych nagród
3.2 Kamienie milowe / spełnione cele
3.3 Osąd peer review
II WSKAŹNIKI SPECYFICZNE DLA ORGANIZACJI
1. Poziom wiedzy technicznej
1.1 Udział osób posiadających tytuł doktora naukowego do ogółu pracowników
1.2 Doświadczenie naukowców i inżynierów: ogólna liczba lat pracy naukowej
2. Atrakcyjności Organizacji Badawczej
245
2.1 Liczba kandydatów ubiegających się o stanowiska naukowe
2.2 Osąd peer review
PRZYKŁADOWE WSKAŹNIKI DO INDEKSU EFEKTU
I. KLUCZOWE WSKAŹNIKI EFEKTU
1. Indeks naukowego wpływu
1.1 Liczba ulepszonych i / lub nowych produktów
1.2 Liczba ulepszonych lub nowych materiałów
1.3 Liczba ulepszonych i / lub nowych metod badawczych
2. Indeks innych oddziaływań na odbiorców wyników badań
2.1 Rzeczywiste obniżenie kosztów lub oszczędność
2.2 Rzeczywista poprawa wydajności materiałów, sprzętu, techniki lub osób
II. KLUCZOWE WSKAŹNIKI PRODUKTU SPECYFICZNE DLA ORGANIZACJI
1. Indeks znaczenia wyników badań
1.1 Postrzegany sukces produktów przekazanych na zewnątrz
1.2 Łatwość transformacji i transferu produktów
1.3 Poziom współpracy i koordynacji w organizacji dokonującej transferu produktów
1.4 Osąd peer review
Bibliografia
Reinhold Hofer, Draft Questionnaire on Public Research Institutes, OECD 2010.
E. Geisler, Integrated Figure of Merit of Public Sector Research Evaluation, “Scientometrics” vol. 36 1996 no.
3.
OECD Strengthening the Impact of Public Research Institutions. Evaluation of PRIs, 2009
R. Miller, A. Manseau, Bibliometric indicators and the competitive environment of R&D laboratories, “Scientometrics” vol. 36 no. 3 1996.
EWALUACJA EX-POST AGENCJI FINANSUJĄCYCH BADANIA NAUKOWE I
TECHNOLOGICZNE
Ewaluacja ex-post to opis, analiza i ocena projektów, procesów programu lub jednostek organizacyjnych.
Podkreśla się, że w agencjach ewaluacja jest jednym ze źródeł wiedzy dla zarządzania i
podejmowania decyzji. Przybiera ona dwie formy: ewaluacji programów agencji oraz
ewaluacji samych agencji.
246
Ewaluacja
Monitoring
Monitoring
Źródła
wiedzy
Budżet i
księgowość
Wewnętrzny
audyt
Ewaluacja programów agencji
Ocena programów badawczych i programów finansowania jest stosunkowo nową dziedziną,
jednak zyskuje ona coraz większe znaczenie i szybko się rozwija.
Wyróżnia się siedem typów programów:
1. Tryb responsywny – programy prowadzone na zasadach konkursowych, w których badacze w regularnych odstępach czasu mogą ubiegać się o sfinansowanie
ich projektów we wszystkich (lub w wielu) dziedzinach.
2. Instrumenty rozwoju kariery, programy mające na celu przyciągnąć, rozwinąć i
zatrzymać utalentowanych badaczy. Często są one przeznaczone dla konkretnych
obszarów badań lub dla pewnych etapów kariery .
3. Programy centrów doskonałości to zazwyczaj znaczne długoterminowe dotacje,
oparte na zasadach konkursowych. Centra mogą mieć charakter międzyinstytucjonalnych sieci badawczych, z badaczami którzy pracują razem wg wspólnie
uzgodnionego programu pracy .
4. Programy tematyczne to programy, które określają finansowanie programów badawczych w ściśle określonym obszarze tematycznym .
5. Transfer wiedzy / Współpraca z gospodarką – dotacje na transfer wiedzy i technologii.
6. Infrastruktura / aparatura – programy przeznaczone na finansowanie dużego
sprzętu badawczego i infrastruktury.
7. Inne [ESF 2009].
247
Każdy typ charakteryzuje się stosowaniem innych metod, zadawaniem innych pytań, sięganiem
po odmienne wskaźniki, innym charakterem kontynuacji, innym okresem trwania, oraz innymi
kosztami:
Charakterystyki programów
Responsywne / kariery
badawcze
Centra doskonałości
Tematyczne
Metoda
Analiza dokumentów, aplikacji i nagród, analiza rezultatów, badania ankietowe,
wywiady, grupy fokusowe
Samoocena i międzynarodowy
panel ekspertów. Literatura
przedmiotu, analizy statystyczne, wywiady z zainteresowanymi stronami, analiza
sieci, analiza bibliometryczna,
porównania międzynarodowe.
Wywiady, statystyki, analizy dokumentów
Pytania
Czy program osiągnął cele?
Czy cele zachowują ważność? Czy warto kontynuować? Jak ulepszyć?
Czy program osiągnął cele?
Czy cele zachowują ważność?
Czy warto kontynuować? Jak
ulepszyć?
Jaki odbiór programu w
środowisku
naukowym?
Czy program osiągnął cele?
Czy cele zachowują ważność? Czy warto kontynuować? Jak ulepszyć?
Wskaźniki
Ilościowe i jakościowe
Ilościowe i jakościowe
Ilościowe i jakościowe
• Produkty, rezultaty i oddziaływania
Liczba publikacji, cytowania,
dorobek, budżety.
Wnioski i decyzje grantowe
• Poziom zadowolenia (procedury, finansowanie)
Struktura współpracy, kwestie
zarządzania i przywództwa,
opinia zainteresowanych
Budżet
Porównanie z programami
innych Rad
ESF 2009
Organizacje finansujące badania potrzebują ewaluacji aby:
•
•
•
•
•
•
•
wypracować podstawy merytoryczne dla rozwoju strategii,
udokumentować praktyki finansowania i tym samym zapewnić przejrzystość w sprawach
dotyczących pieniędzy podatników,
podjąć decyzję o alokacji zasobów,
wspierać proces uczenia się o systemie finansowania, co może prowadzić do ulepszenia
programów,
wykazać, że wykonywane badania oraz organizacje finansujące badania naukowe są „rozliczalne” („acccountable”),
przekazywać zainteresowanym informacje o wpływie i wynikach programów rządowych;
pozwolić beneficjentom wyrazić swoje opinie na temat systemu finansowania, procedur
składania wniosków oraz warunków prowadzenia badań (np. przez wizyty w terenie,
wywiady, badania ankietowe).
Każda ewaluacja musi opierać się na schemacie znanym jako >LOGIKA INTERWENCJI,
ramy zwrotu lub model logiczny.
Pojawienie się baz danych o finansowaniu badań oraz o wynikach badań był i nadal jest
siłą napędową w procesie ewaluacji. Obecnie, stosunkowo tanio i przy niewielkim wysiłku, można analizować dane z wielu projektów badawczych. W przeciwieństwie do pa248
pierowych dokumentów, dane i dokumenty elektroniczne można porównywać i analizować, również w szeregach czasowych.
Ewaluacje ex-post badań często korzystają z metod wywodzących się głównie z nauk
społecznych i wskaźników statystycznych. Metody obejmują wywiady, wizyty w terenie,
analizy bibliometryczne, ankiety, badania panelowe, różne formy analiz statystycznych
itp. Jest niezwykle ważne, aby do danej kwestii użyć właściwej metody. Każda ewaluacja
jest okazją do rozszerzenia metod. Chociaż czasem dobrze jest stosować sprawdzone
metody, czasami nowe podejścia prowadzą do świeżego spojrzenia.
Ewaluacje badań sięgają po różne wskaźniki, które bezpośrednio lub pośrednio próbują
uchwycić aspekty produktów badań, efektów i wpływów. Intencją podejść ilościowych
jest przezwyciężyć niebezpieczeństwo subiektywności i uzależnienia od sądów ograniczonej liczby ekspertów. Jednak informacje ilościowe mogą być interpretowane na różne
sposoby. Wskaźniki są dużym stopniu zależne od warunków (pola badań, kraju) i nie
mogą być interpretowane poza kontekstem.
Wpływ programów to podstawowe pytanie każdego badania ewaluacyjnego. „Badania
wpływu” obejmują niezamierzone konsekwencje finansowania i realizacji projektów
badawczych oraz wpływ systemu badań na wyniki badań. Istnieją stosunkowo nieliczne
wzory udanych badań wpływu. Każda próba z oceną wpływu zależy przede wszystkim
od solidnej bazy danych i metodologii zapewniającej sensowne wskazówki co do związków przyczynowych. Takim przykładem udanej ewaluacji jest the Impact Evaluation of
the Academy of Finland of Finnish Programmes of Centres of Excellence, sięgająca po studia przypadków, wywiady, analizę dokumentów i inne metody, a także opinie interesariuszy, naukowców którzy otrzymali dotacje i tych, którzy ich nie otrzymali, oraz zawierająca porównanie z programami w innych krajach [ESFa 2012].
Ewaluacje przeprowadza się częściej niż dawniej. Większość ewaluacji przeprowadzają
zagraniczni eksperci. Główny cel to zrozumienia jak program działa i jego poprawa.
Niemal wszystkie ewaluacje sięgają po różne metody, ilościowe i jakościowe. Ewaluacje
przeprowadza się z różną regularnością; bardziej systematycznie wówczas, gdy są one
wpisane do strategii agencji (rady badawczej) [ESF 2009].
Ewaluacja agencji. Agencje finansujące badania naukowe to jedne z wielu podmiotów
krajowych systemów badań i innowacji. Wraz z uniwersytetami, instytucjami badawczymi, ministerstwami ds. nauki stanowią one część ekosystemu finansowania, prowadzenia i komercjalizacji badań naukowych. Ogólnie, krajowe systemy innowacji przechodzą regularne ewaluacje w celu np. dostosowania ich do szybko zmieniającego się i
konkurencyjnego środowiska globalnego. Ponadto, agencje finansujące badania także
poddaje się od czasu do czasu ewaluacji celem oceny, czy dobrze spełniają one swoją rolę w ekosystemie. Ewaluacja ta polega na ocenie ich strategii i działań w ramach krajowych systemów badań i innowacji.
Jako przykłady udanych ewaluacji przytacza się:
• Ewaluacja systemowa Niemieckiej Fundacji Badawczej (DFG) i Towarzystwa
Maxa Plancka (MPG) w 1999. Obie instytucje i MPG (DFG) poproszono o dostar249
•
•
•
czenie pisemnych odpowiedzi na szereg pytań sformułowanych przez panel ekspertów. Pytania te dotyczyły mocnych i słabych stron niemieckiego systemu badań oraz pozycji tych instytucji w ramach systemu. Inny zestaw pytań dotyczył
strategii oraz środków zapewniania jakości. Po analizie odpowiedzi panel odwiedził DFG i MPG, odbył także wiele rozmów z przedstawicielami innych organizacji
badawczych i odwiedził trzy uniwersytety.
Ewaluacja Rady Badań Naukowych Norwegii w 2001. Celem uzyskania solidnej
empirycznej podstawy oceny sięgnięto po wiele metod: po analizę bibliometryczną, badania ankietowe oraz wywiady z osobami pracujących w RBN oraz z
różnymi zainteresowanymi stronami. Zagranicznie naukowcy i administratorzy
oceniali także oddzielnie każdy z działów badawczych RBN. Przygotowano szesnaście raportów.
Ewaluacja Austriackiego Funduszu Nauki w 2004. Międzynarodowy zespół oceniający, składający się z 20 osób z instytutów naukowych i firm konsultingowych
(Technopolis, Joanneum Research, WIFO, ETH Zurich (KOF) oraz Uniwersytet w
Twente) pod kierunkiem Erika Arnolda oceniał rolę funduszu w austriackim systemie innowacji i w porównaniach międzynarodowych. Sięgnięto po szeroki zakres metod jakościowych i ilościowych [ESF 2009].
Ewaluacja Australijskiej Rady Badawczej (ARC) polegała na oszacowaniu wpływu
finansowania ARC na produktywność australijskiej gospodarki. W ten sposób obliczono stopę zwrotu z inwestycji rządowych. Na podstawie literatury australijskiej i międzynarodowej określono sześć głównych korzyści z badań: 1) tworzenie nowej wiedzy, 2) własność intelektualna, 3) lepsze kompetencje, 4) dostęp do
międzynarodowych badań, 5) zdrowie i środowisko, 6) korzyści kulturalne. Na
podstawie obliczeń korzyści płynących przez te sześć kanałów obliczono ogólną
społeczną stopę zwrotu z inwestycji [OECD 2007].
Proces ewaluacji obejmuje następujące etapy:
• Idea projektu
• Grupa sterująca, plan wstępny, główne pytania,
Planowanie
zabezpieczenie finansowania
• Powołanie sekretariatu
• SIWZ
Przygotowanie • Przetarg i start projektu
• Realizacja: panel/wizyty/ankiety/analizy
• Wstępny raport i feedback
Wdrożenie • Akceptacja raportu
Dyskusja
• Dyskusja wewnątrz agencji i ministerstwa
• Publikacja
• Follow-up (wdrożenie zaleceń)
ESFb 2010
Dobre praktyki i wzory ewaluacji agencji. „Złote zasady” Europejskiej Fundacji Nauki
głoszą:
250
1. Przedyskutuj , dlaczego powinno się przeprowadzić ewaluację i jak jej wyniki mogły by
być przydatne dla agencji (interesariuszy).
2. „Zogniskuj” cele ewaluacji i plany dalszych działań . Zidentyfikuj wyzwania i ryzyka i
upewnij się, że ewaluacja „zrobi różnicę”.
3. Przeznaczyć wystarczającą ilość czasu i zasobów do planowania i projektowania
projektu ewaluacji.
4. Wyjaśnij warunki umowy i opis projektu i upewnij się, że zostały one przekazane ekspertom zewnętrznym.
5. Upewnij się, że ewaluację uznają za zasadną wszystkie zainteresowane strony.
6. Ustal, czy stosuje się odpowiednie metody.
7. Upewnij się, że ewaluatorzy są niezależni.
8. Podczas ewaluacji porozumiewaj się z grupami docelowymi.
9. Ustal, czy wyniki oceny są wykorzystywane.
10. Przeznacz wystarczającą ilość czasu i zasobów do kontynuacji (follow-up) ewaluacji.
11. Krytycznie oceń proces ewaluacji, aby wyciągnąć z niego nauki [ESFb 2012].
Bibliografia
DFG Anke Reinhardt, Evaluation in Research and Research Funding Organisations: European Practices,
2012.
ESF, European Science Foundation, A Guide To Evaluation Activities In Research Funding Agencies. Quality
Assurance And Evaluation Guidelines, 2012.
ESF, European Science Foundation, Evaluation in National Research Funding Agencies: approaches, experiences and case studies. A report of the ESF Member Organisation Forum on Ex-Post. Evaluation of Funding
Schemes and Research Programmes, September 2009.
ESF, European Science Foundation, Evaluation in Research and Research Funding Organisations: European
Practices. A report by the ESF Member Organisation Forum on Evaluation of Publicly Funded Research,
November 2012.
Evaluation of the Austrian Industrial Research Promotion Fund (FFF) and the Austrian Science Fund (FWF)
Synthesis Report 2004.
FNP, Strengthening the Role of the Foundation for Polish Science (FNP) in a Changing Landscape. A Review of
the FNP Programme Portfolio by an International Expert Panel, June 2010.
Joanneum Research, Evaluation FWF Impact Analysis 2004.
Marta Łazarowicz-Kowalik, Fundacja na rzecz Nauki Polskiej, Konferencja: Koncepcja systemu ewaluacji
polityki naukowej w Polsce, Warszawa, 3 grudnia 2010 r.
NASA's 2009 Performance and Accountability Report
OECD Assessing The Socio-Economic Impacts Of Public Investment In R&D 2007.
OECD Evaluation Of Publicly Funded Research: Recent Trends And Perspectives, 2006.
OECD The Evaluation Of Scientific Research: Selected Experiences, 1997.
Research Councils UK, Study on the economic impact of the Research Councils. PART I: Summary, October
2007.
Rüdiger Mutz, Lutz Bornmann and Hans-Dieter Daniel, Types of research output profiles: A multilevel latent
class analysis of the Austrian Science Fund’s final project report data, “Research Evaluation” 22 (2013) ss.
118–133.
Technopolis Singular Council Evaluation of the Research Council of Norway 2001.
Technopolis, Evaluation of the Research Council of Norway 2001.
The Austrian Science Fund, Ex Post Evaluation And Performance Of FWF Funded Research Projects 2005.
251
EWALUACJA APARATURY I INFRASTRUKTURY BADAWCZEJ
Aparatura badawcza (instrument naukowy) to każdy rodzaj sprzętu, aparatury lub urządzenia zaprojektowany tak, aby na podstawie sprawdzonej zasady fizycznej ułatwiał lub
umożliwiał pozyskiwanie powtarzalnych, weryfikowalnych danych, zwykle składających
się z pomiarów ilości, właściwości zjawisk i materiałów, sił itp.. Pojęcie dużej infrastruktury badawczej obejmuje wielką aparaturę naukową lub zestawy instrumentów naukowych, zbiory i inne zasoby oparte na wiedzy, pliki i bazy danych, systemy komputerowe
i oprogramowania, sieci łączności, jak też inną infrastrukturę o unikalnym charakterze
niezbędną do prowadzenia badań naukowych. Infrastruktura badawcza może być krajowa lub międzynarodowa, umieszczona w jednej placówce lub też rozproszona lub wirtualna [FCT 2013]. Podkreśla się, że pojęcie infrastruktury badawczej stało się bardziej
zróżnicowane. Dawniej mianem tym określano tylko wielkie obiekty, takie jak akceleratory lub statki badawcze, dziś pojęcie to obejmuje nie tylko rozproszoną infrastrukturę
badawczą, ale także zbiory i bazy danych, e-infrastrukturę oraz infrastrukturę dla badań
społecznych [Wissenschaftsrat 2013].
Do form finansowania aparatury należą:
•
•
•
•
dotacje na studia projektowe i planowanie budowy aparatury/infrastruktury
dotacje na inwestycje w urządzenia lub bazy danych dla budowy krajowej lub międzynarodowej aparatury/infrastruktury
dotacje na pokrycie kosztów operacyjnych utrzymania w dłuższej perspektywie aparatury/infrastruktury
dotacje na zaprzestanie pracy infrastruktury badawczej [FIRI].
Najczęstsze formy ewaluacji aparatury i infrastruktury badawczej obejmują: ewaluację
ex ante wniosków o sfinansowanie zakupu aparatury/infrastruktury oraz ewaluację ex
post programów jej finansowania. Por. >EWALUACJA PROGRAMÓW I INSTRUMENTÓW.
Ewaluacja ex ante wniosków aparaturowych. W Australii ASTEC (Australian Science
and Technology Council) oceniając wnioski dotyczące wielkiej aparatury brał pod uwagę
odpowiedzi na następujące pytania:
•
Czy propozycja odnosi się do dziedziny badań posiadającej duże znaczenie jednocześnie
dla kraju oraz nauki światowej?
•
Jakie kluczowe problemy naukowe można by starać się rozwiązać dzięki proponowanej
aparaturze?
•
Dlaczego problemy te mają zasadnicze znaczenie dla australijskiej nauki i techniki?
•
Czy rozpatrywane urządzenie jest zgodne z bieżącymi priorytetami naukowymi i technologicznymi Australii?
•
Czy będzie ono służyć znakomitym uczonym i inżynierom?
252
•
Czy można oczekiwać, że będzie ono pobudzać badania interdyscyplinarne?
•
Czy otworzy nowe możliwości kształcenia doktorantów i doktorów?
•
Czy zwiększy ono atrakcyjność karier naukowej i inżynierskiej?
•
Czy pobudzi międzynarodową współpracę naukową, ściągając do Australii czołowych uczonych zagranicznych?
•
Czy rozważane urządzenie powinna zbudować sama tylko Australia, czy też Australia
wspólnie z innymi krajami?
•
Jeśli zbudowane ono zostanie w Australii, czy stanie się magnesem ściągającym fundusze
zagraniczne?
•
Czy budowa rozważanego urządzenia stanie się bodźcem rozwoju przemysłu australijskiego? Czy będzie ono świadczyć usługi dla firm?
•
Czy będzie ono wzmacniać więzi między uniwersytetami oraz państwowymi i prywatnymi laboratoriami?
•
Czy prowadzone dzięki niemu badania naukowe przyczynią się do zakładania nowych firm?
•
Czy urządzenie to jest zgodne z narodowymi priorytetami w zakresie rozwoju wiedzy,
wzrostu gospodarczego, zdrowia, jakości życia, bezpieczeństwa narodowego?
•
Czy będzie ono służyć ochronie środowiska lub lepszemu zarządzaniu zasobami naturalnymi?
•
Czy można oczekiwać, że zwiększy ono zrozumienie i uznanie opinii publicznej dla osiągnięć australijskiej nauki i techniki?
•
Czy urządzenie to poprawi obraz Australii jako kraju zaawansowanego technologicznie?
•
Czy z chwilą oddania do użytku rozważanego urządzenia pozycja Australii w negocjacjach
międzynarodowych wzmocni się?
W Finlandii Fiński Komitet Infrastruktury Badwczej FIRI (Finnish Research Infrastructure Committee) zestaw ogólnych kryteriów oceny infrastruktur badawczych.
Infrastruktura badawcza musi m.in.:
•
•
•
•
•
•
•
zapewniać podstawę dla światowej klasy badań naukowych
wzmacniać międzynarodowe oddziaływanie fińskiej nauki
posiadać długoterminowy plan finansowania, utrzymania i użytkowania
być używana przez kilka grup badawczych dla badań o wysokiej jakości
być otwarta i łatwo dostępna dla naukowców, przemysłu i innych podmiotów
posiadać plan ochrony gromadzonych danych i / lub materiałów
wprowadzić nową nowoczesną technologię (jeśli to możliwe).
Ewaluację projektów infrastruktury badawczej przeprowadza się w pięciu różnych wymiarach. Każdy projekt infrastruktury badawczej jest oceniany indywidualnie w każdym oddzielnym wymiarze, a także w stosunku do innych projektów w innych dziedzinach nauki.
Wspomniane wymiary to:
1. Jakość i potencjał naukowy
2. Otwarty dostęp i wykorzystanie
3. Znaczenie dla strategii instytucji przyjmującej
253
4. Krajowe i międzynarodowe znaczenie
5. Wykonalność [FIRI].
Ewaluacja ex post programów. Przekłady ewaluacji z ostatnich lat:
•
•
•
•
W Wielkiej Brytanii Rada ds. Badań Naukowych w Dziedzinie Biotechnologii i Nauk Biologicznych w ewaluacji ex post korzystała z wyników ankiety adresowanej do wszyst-
kich beneficjentów programu aparaturowego. Pytania dotyczyły m.in.
o wpływu aparatury na rozszerzenie tematyki badań, publikacje lub inne osiągnięcia,
o obecnego stanu i stopnia wykorzystywania aparatury,
o innych źródeł finansowania aparatury [BBSRC].
Brytyjska Ekonomiczna i Społeczna Rada Badawcza zleciła studium na temat wpływu gospodarczego programu Usług w Zakresie Danych Ekonomicznych i Społecznych (Economic and Social Data Service). Analiza ekonomiczna korzystała z wielu metod
ekonometrycznych.
Niemiecka Rada Nauki i Humanistyki zleciła ocenę projektów infrastrukturalnych
dużej skali. Ewaluacja odbyła się w dwóch kolejnych etapach: dokonano indywidualnej oceny każdego projektu oraz ogólnej oceny porównawczej. Obie oceny oparto na
czterech wymiarach: „naukowy potencjał”, „wykorzystanie”, „wykonalność” oraz
„przydatność dla Niemiec jako miejsca nauki i badań naukowych”. W ewaluacji brali
udział zagraniczni eksperci [Wissenschaftsrat 2013].
Dyrekcje Generalne ds. Badań Naukowych (DG RTD) oraz ds. Społeczeństwa Informacyjnego i Mediów (DG IN FSO) zleciły przeprowadzenie ewaluacji wpływu wsparcia UE dla
infrastruktur badawczych w ramach VI Programu Ramowego (2002-2006) [EU 2009].
Bibliografia
BBSRC, Evaluation of BBSRC’s Research Equipment Initiative appendices 2012.
ESRC Economic and Social Research Council, Economic Impact Evaluation of the Economic and Social Data
Service 2012.
EU, Community Support for Research Infrastructures in the Sixth Framework Programme Evaluation of pertinence and impact, 2009.
FCT, Evaluation Guidelines, 2013.
FIRI, Evaluation criteria for research infrastructure.
Wissenschaftsrat, Evaluation of large infrastructure projects, 2013.
PEER REVIEW
Peer review to osąd wartości naukowej (badaczy, publikacji, instytucji, dyscyplin) dokonywany przez samych badaczy pracujących w tej samej (lub zbliżonej) dyscyplinie. Peer
review oparte jest na założeniu, że ocena pewnych aspektów nauki - przede wszystkim
jej jakości – powinna zostać pozostawiona ekspertom posiadającym dostateczna wiedzę
o rozwoju ocenianego pola badań i uprawiającym to pole. W zasadzie oceny dokonuje
się anonimowo. Badacze mogą występować w roli wykonawców lub w roli oceniających;
254
nigdy jednak w obu rolach jednocześnie. Oceniający nie powinni mieć osobistego interesu w wyniku oceny.
Praktyki peer review to: procedury, kryteria i osądy (orzeczenia). Najczęściej peer review
polega na ocenie dokonanej:
•
•
•
•
przez agencje grantowe:
o Co jest finansowane? Kto jest finansowany?
przez czasopisma naukowe i wydawców:
o Co jest publikowane?
przez organizatorów konferencji:
o Kto bierze udział?
przez instytucje naukowe: kogo zatrudnić? Kto zasłużył na awans? itp.
Agencje grantowe
Czasopisma i
wydawcy
Procedura
Kto i jak wybiera recenzentów?
Jak prowadzi się spotkania?
Jaką rolę odgrywa przewodniczący? Jaką rolę
urzędnicy paneli?
Kryteria
Jak ustala się kryteria oceny? Jak uwzględnia w nich
misję agencji?
Czy kryteria są obiektywne
czy subiektywne? Czy bierze się pod uwagę udokumentowaną doskonałość
czy obietnicę?
W jakiej formie ustala się
decyzje?
Kto i jak wybiera
Co w syturecenzentów?
acjach braku
Peer pools? Konflikt zgody?
interesów? Czy recenzenci są informowani o nazwiskach autorów, a
autorzy o nazwiskach recenzentów?
Jakie stosuje się
kryteria? Jak rozwiązuje konflikt interesów? Jak określa się dobry artykuł?
Orzeczenia
Konferencje
Instytucje naukowe
Jakie istnieją procedury? Co jest
przedmiotem peer
review?
Gdzie sumieszcza
się poprzeczkę?
Kogo uznaje się za
dobrego badacza?
Nedeva 2010
Peer review odróżnia się od innych form oceny stosowanych w ramach badań naukowych, takich jak wskaźniki ilościowe i benchmarking. Opierając się na mniej lub bardziej
wyraźnie określonych kryteriach oraz często formalnie udokumentowanym procesie
oceny, swój autorytet opiera na kwalifikacjach oceniających. Peer Review wzmacnia autonomię środowiska akademickiego, pozostawiając samym praktykom określenie i
wprowadzenie w życie standardów doskonałości [OECD IPP 2014].
Podkreśla się, że peer review (upowszechnione po II Wojnie Światowej) jest dla nauki
tym, czym demokracja dla rozwoju zachodnich społeczeństw: systemem, który choć ma
255
wiele wad, ma ich jednak mniej niż każdy inny system. W szczególności, jest mniej podatny na korupcję i bardziej wiarygodny w oczach badaczy.
Termin peer review (dosł. ocena dokonana przez równych) jest nieco mylący; oceniać
powinni najlepsi, a nie przeciętni. Zazwyczaj głównym kryterium oceny jest wkład badań dla nauki oraz zgodność z misją instytucji. Peer review ma być mechanizmem kontroli jakości w nauce, metodą odróżniania „ziaren od plew”, oddzielania idei istotnych i
oryginalnych od wtórnych i błahych. Peer review decyduje o podziale pieniędzy na badania lub miejsca w czasopismach, monitoruje przebieg badań, ocenia rezultaty. Spełnia
jednocześnie dwie przeciwstawne funkcje. Jako uznany przez większość środowiska
mechanizm wzmacnia autonomię nauki. Dla podatnika stanowi gwarancję, że publiczne
środki na rozwój badacze dzielą między sobą w sposób odpowiedzialny.
W społeczeństwach opartych na wiedzy, w których nauka staje się coraz ważniejsza dla
działalności innowacyjnej oraz dla decyzji społeczno-gospodarczych i politycznych, peer
review jest coraz częściej stosowany do nowych dziedzin (oceny ex ante, mid-term i ex
post projektów itd.). Stwarza to potrzebę jego adaptacji polegającej na uwzględnianiu
szerszych kryteriów społeczno-gospodarczych. Tradycyjne funkcje peer review – zapewnienie naukowej doskonałości i autonomii środowiska akademickiego - uznano za zbyt
wąskie, gdy od agencji finansujących badania wymaga się, aby brały pod uwagę >rozliczalność [OECD IPP 2014].
Klasyczne peer review. Peer review w dzisiejszej postaci to owoc wielowiekowego po-
wolnego rozwoju procedur oraz ich stosowania począwszy od Philosophical Transactions of the Royal Society (1665), zakończony w latach 1960-tych XX w. system peer
review upowszechnił się dopiero w drugiej połowie XX wieku. „Nature” wprowadził obowiązek recenzowania artykułów publikowanych dopiero w 1967 r. Einstein wszystkie
swoje prace opublikował bez ich recenzowania, a gdy publikował rzeczy najważniejsze,
był zwykłym urzędnikiem biura patentowego [Bendyk].
Wówczas nauka (środki publiczne, badacze, instytucje, projekty) stała się zbyt duża, aby
mogła być regulowana wyłącznie przez decyzje wybitnych uczonych. Nastąpił okres 40
lat stabilizacji peer review w wersji klasycznej – aż do połowy I dekady XXI w.
Klasyczne peer review:
•
autor (autorzy) proponuje temat i metodę oraz nadaje ostateczny kształt – propozycji projektu lub artykułu,
•
autorzy są zidentyfikowani, a ich liczba jest zamknięta,
•
pole badań uformowane i uznane,
•
oceniający są anonimowi wobec ocenianych,
•
oceny dokonuje wąska i zamknięta grupa badaczy o wysokiej reputacji,
•
ocena ma charakter ex ante,
256
•
najbardziej popularne formy: pisemne recenzje przesyłane pocztą oraz panel.
Duże zainteresowanie peer review (643 artykułów w latach 1960-1991, w tym 101
opartych na badaniach empirycznych; ponad 6 tysięcy publikacji zwartych z peer review
w tytule dotyczących nauki w latach 1970-2012). Zawsze podobny zakres krytycznych
opinii połączony z dominującym poglądem, że mimo wad jest to wciąż najlepsza z form
oceny.
Liczba publikacji z peer review w tytule:
Aktorzy. Trzy rodzaje stron występuje w peer review: wykonawcy badań (indywidualni
badacze i zespoły badawcze), operatorzy (agencje finansujące badania, rady naukowe,
itp.) oraz rząd (zwłaszcza różne ministerstwa). Ministerstwa zwykle nie korzystają z peer review. Wyjątkiem jest strategiczne peer review w ramach oceny programów. Np.
amerykański Departament Energii używa peer review w celu oceny B+R na poziomie
projektów i programów, a Unia Europejska opiera się na perr review ex post, aby ocenić
Programy Ramowe.
Typologie. Istnieje kilka typologii peer review. Wg. jednej z nich dzieli się ono na bezpośrednie (ocena przez ekspertów z tej samej dyscypliny oparta na kryteriach naukowych), zmodyfikowane, rozszerzone (uzupełnienie kryteriów naukowych o kryteria pozanaukowe, wpływu na rozwój technologiczny, gospodarczy, społeczny) oraz pośrednie
(ocena oparta na kryteriach naukowych uzyskana z pomocą danych ilościowych, takich
jak liczba publikacji i cytowań, członkostwo uznanych w świecie towarzystw naukowych
itd.).
Barry Bozeman proponuje rozróżnienie między wyprzedzającym (ang. pre-emptive) peer
review (ostateczna decyzja zależy wyłącznie od wyników peer review), tradycyjnym peer
257
review (peer review jest ważnym elementem w podejmowaniu decyzji) oraz pomocniczym peer review (decyzje podejmowane są przez osobę zarządzającą lub panel, peer
review jest jednym ze źródeł informacji). Podczas gdy tradycyjne peer review jest najczęściej praktykowaną formą oceny w publikacjach naukowych i nominacjach, wyprzedzające peer review zazwyczaj łączy się z punktacją lub rangowaniem w decyzjach dotyczących dotacji (niektóre agencje jak amerykańska NIH). Ewaluację programu oraz decyzje
dotyczące organizacji badań naukowych i tworzenia polityki najczęściej opierają się na
pomocniczym peer review.
W Polsce terminy peer review i peers (oceniający) są mało znane. Mówi się o „systemie
grantowym”; unika określeń obejmujących cały system ocen.
Warunki skuteczności. Peer review działa dobrze, gdy istnieje równowaga pomiędzy
liczbą propozycji nowatorskich a pulą funduszy. Gdy propozycji nowatorskich jest zbyt
mało, marnują się pieniądze; gdy jest ich zbyt wiele, marnują się talenty i szanse badań.
Zdaniem M. Gibbonsa jako peer review nadaje się szczególnie do oceny dojrzałych pól
badań, legitymujących się własną społecznością międzynarodową, własnymi czasopismami, konferencjami i instytutami; pól badań stosunkowo oddalonych od praktyki; badań prowadzonych w krajach cieszących się choćby minimalnym wzrostem gospodarczym. Odwrotnie, jest mniej użyteczny, gdy środki na badania się kurczą, badania są
ukierunkowane na problemy o charakterze praktycznym, gdy potrzeba badań interdyscyplinarnych i gdy oceniający są zarazem wykonawcami (jak to się dzieje w wypadku
wielkich programów naukowych). Peer review sprawdza się zatem tylko pod pewnymi
warunkami.
Wiele wskazuje na to, że warunki te zmieniają się. Zmusza to do podjęcia dyskusji nad
możliwą modyfikacją tego systemu.
Koszty badań rosną szybciej niż środki budżetowe na badania. Badania oddalają się od
zjawisk „przypowierzchniowych” ku zjawiskom uchwytnym wyłącznie przy pomocy (coraz bardziej) skomplikowanych przyrządów oraz (coraz większych) zespołów badawczych. Tempo badań „na froncie nauki” ulega przyśpieszeniu. Coraz więcej instytucji
uświadamia sobie, że tempo rozwoju nauki przekracza ich zdolność absorpcji nowej
wiedzy oraz udziału w przesuwaniu granic poznania. Coraz częściej dla rozwiązania
problemów globalnych sięga się po pomoc międzynarodowych zespołów badawczych.
Zwiększa się rozziew pomiędzy planami badaczy a oczekiwaniami w stosunku nauki
opinii publicznej. Środowisko naukowe starzeje się, a system peer review bardziej tę
tendencję wzmacnia niż jej zapobiega. Podaż dobrych propozycji badawczych przekracza w wielu krajach poziom funduszy na ich realizację. „Wskaźniki sukcesu” wniosków
grantowych stale maleją; aby zaradzić spadkowi szans, badacze piszą i przesyłają coraz
więcej propozycji, tracąc w ten sposób czas, jaki mogliby poświęcić badaniom. Już w roku 1961 Leo Szilard obliczył, że gdy „wskaźnik sukcesu” spadnie do 10% (tj. gdy tylko co
dziesiąty wniosek grantowy będzie wieńczony dotacją) 90% badaczy poświęci cały swój
258
czas pisaniu propozycji badawczych (zaniedbując przy tym badania, dydaktykę i publikacje). W pewnych dziedzinach bliscy jesteśmy osiągnięciu „punktu Szilarda”.
Ale system peer review podważają nie tylko zmiany zachodzące w nauce i poza nauką,
ale także jego wewnętrzne sprzeczności. Procedury peer review powinny być skuteczne,
efektywne, przejrzyste, sprawiedliwe i otwarte na kontrolę; cele te jednak nie zawsze są
ze sobą zgodne. Oceniającymi powinni być najlepsi z najlepszych; gdy tak się dzieje, o
środki na badania ubiegają się ci gorsi. Uczeni o uznanym dorobku domagają się, aby peer review premiował przede wszystkim sumę dotychczasowych osiągnięć, młodsi badacze - aby nagradzał nowe idee. Politycy chcieliby, aby w kryteriach ocen uwzględniano
priorytety rządowe, uczeni - aby wzmacniał autonomię nauki.
Zarzuty przeciwko peer review. Kiedy naukowcy mają opiniować innych naukowców,
trudno uniknąć konfliktu interesów. Mogą oni ulec pokusie, aby utrudnić publikację wyników sprzecznych z wynikami własnej pracy, lub opóźnić publikację badania podobnego do ich własnego, gdy w środowisku naukowym istnieje ciśnienia „publikuj pierwszy”.
To budzi istotne wątpliwości dotyczące odpowiedzialności i jawności peer review.
Jeden z badaczy peer review ocenił system z przekąsem: „Gdyby ktoś chciał opublikować
badania oparte na metodzie o wiarygodności podobnej do peer review, bez dwóch zdań
spotkałby się z odmową druku”. Od swoich narodzin peer review jest stawiane pod pręgierzem krytyki. Krytyka dotyczy zasad, praktyki oraz nieuniknionych i ubocznych,
ujemnych następstw tego systemu.
Inny ważny problem z peer review dotyczy trudności uznawania heterodoksyjnych lub
przełomowych badań. Peers – najczęściej starsi naukowcy – mogą mieć trudności z akceptacją nowych paradygmatów. Najczęściej peer review zarzuca się, że tłumi w nauce
nowatorstwo, czyli jej najbardziej pożądaną cechę. Wielkie odkrycia rodzą się dziś częściej na styku dyscyplin niż w ich obrębie. Peer review z reguły premiuje badania nad
okrzepłymi problemami zgłaszanymi przez ustabilizowane dyscypliny. Rzadko dostrzega problemy wyłaniające się na styku różnych pól badań. Badaczom wkraczającym
na zupełnie nowe obszary problemowe brak w agencjach grantowych siły przebicia. Peer review wzmacnia ustalone dysycypliny i dominujące paradygmaty badawcze. Utrwala
status quo. Uśrednia; eliminuje najgorszych, ale też i najlepszych. Projekty rzeczywiście
pionierskie nie mogą być oceniane przez peers, gdyż takich - na nowym obszarze badań jeszcze nie ma. Szansę uzyskania grantu na badania ryzykowne i nieortodoksyjne mają z
reguły uczeni zatrudnieni w prestiżowych placówkach lub legitymujący się imponującym dorobkiem. Często jednak gdy osiągają oni szczebel w karierze pozwalający na zgłaszanie rewolucyjnych tez, nie mają w sobie wewnętrznego żaru, by burzyć zastany świat.
Zwraca się uwagę, że gdyby dzisiaj Einstein ubiegał się o grant na opracowanie teorii
względności, jego wniosek przepadłby z kretesem. W chwili składania wniosku Einstein
nie miałby żadnego poważnego dorobku. Na wnioskowany temat nic w ogóle nie napisał. Problematyki nie studiował na uniwersytecie. Nie pracował naukowo i nie miał żadnej afiliacji uniwersyteckiej. Był jedynie niskim rangą urzędnikiem patentowym. Nie
259
przeprowadził badań pilotażowych, nie rozporządzał wstępnymi danymi. Nie znał nikogo, kogo mógłby zaproponować na kierownika tematu. Zaproponowałby zatem samego
siebie! Dziedzina jego badań znajdowała się poza obszarem zainteresowań wydziałów
szkół wyższych. Każdy poważny profesor powitałby problem powiązań masy i energii z
uśmiechem na twarzy. Einstein nie mógłby też przedstawić żadnych sensownych zastosowań praktycznych uzyskanych wyników.
Trudno ustalić, co to znaczy „dobra nauka” czy „oryginalność” (czy chodzi o oryginalność metod, danych, podejść, ustaleń, koncepcji, tematów, obszarów…).
Pomaga wyplenić złe badania, ale niekoniecznie wybrać dobre. Uśrednia; eliminuje najgorszych, ale też i najlepszych.
Peer review często źle radzi sobie z oceną badań inter-i-multidyscyplinarnych. (Wyjściem jest tworzenie osobnej kategorii oceny).
Podobnie, peer review ma nieraz problemy z ocena badań ukierunkowanych na rozwiązywanie praktycznych problemów, nie sprawdza się w ocenie badań stosowanych, ukierunkowanych na pomoc w realizacji zadań zewnętrznych w stosunku do nauki. (Tutaj
wyjściem jest stosowanie podwójnych ocen w ramach rozszerzonego peer review: oceny
dotyczącej jakości badań oraz oceny dotyczącej użyteczności społecznej i gospodarczej).
Z reguły prowadzi do odrzucenia negatywnych ustaleń, a te są równie istotne dla rozwoju nauki co wyniki pozytywne.
Nie zapewnia dostatecznego feedbacku wnioskodawca-recenzenci (dlaczego mój wniosek został odrzucony?) oraz mechanizmu apelacyjnego (dlaczego nie mam prawa odwołać się od krzywdzącej decyzji?).
Nie zapewnia powiązania oceny ex-ante z oceną ex-post (w jaki sposób dzisiejszy wnioskodawca wykorzystał przyznane dawniej fundusze, jakie uzyskał wyniki?).
Jest powierzchowny (badacz pracuje nad wnioskiem od 3 do 6 miesięcy, dyskusja nad
wnioskiem trwa kwadrans).
Jest podatny na różnego typu „skrzywienia”: dyskryminuje badaczy o niższej pozycji
naukowej, pracujących w mniej prestiżowych instytucjach, reprezentujących podejścia
dalekie od „głównego nurtu”.
Jest kosztowny: koszty pośrednie (czas wnioskodawców i recenzentów) i bezpośrednie
(koszty administracyjne).
Cykl pozyskiwania grantu jest niezgodny z cyklem twórczości naukowej. Perspektywa
czekania dziewięciu czy dwunastu miesięcy na dotację potrafi zdusić zapał badacza, który doznał objawienia zarysu nowej naukowej prawdy.
260
W sytuacji gdy dorobek jest zazwyczaj istotnym czynnikiem oceny, młodzi badacze stoją
często na straconych pozycjach. Peer review działa zgodnie z opisanym przez socjologa
Roberta Mertona „efektem Mateusza”: tym, co mają, dane jest więcej. System dyskryminuje badaczy o szczuplejszym dorobku naukowym, pracujących w mniej prestiżowych
instytucjach.
Częstym zarzutem stawianym peer review jest jego podatność na kumoterstwo. Oceniający tworzą nieraz tzw. „old boy`s network”, czyli grupę badaczy stale popierających wzajemnie swoje wnioski. Kliki lubią utrwalać się. Zarzut kumoterstwa trudno udowodnić.
Peer review zakłada obiektywizm i uczciwość ocen. Nie zawsze jednak recenzenci spełniają pokładane w nich nadzieje. Choć rzadko, zdarza się, że przechwytują oni idee odrzuconych przez siebie propozycji. Rozproszenie odpowiedzialności za decyzje na kilku
oceniających pozwala recenzentom ukryć stronniczość. System oceny propozycji badawczych pozwala na manipulacje (zaniżanie punktów konkurencyjnych wniosków).
Recenzenci zgadzają się zazwyczaj w ocenie wyjątkowo wybitnych i wyjątkowo marnych wniosków. Różnią się jednak często w ocenie pozostałych propozycji (czyli ich zdecydowanej większości). Różnice ocen wypływają z różnic wykształcenia, perspektyw
badawczych, kalibru naukowego oceniających oraz ich doświadczenia w roli recenzenta.
Słabsi recenzenci dyskwalifikują nieraz projekty na podstawie uchybień nieistotnych
(jak np. brak zapełnienia całej powierzchni formularza wnioskowego) lub nieprawdziwych (jak np. brak pewnego koniecznego elementu, który recenzent przeoczył).
Często zdarza się, że wniosek posiadający bezdyskusyjne walory zostaje oddalony z bardzo wątpliwego powodu. Propozycja badań nad niezwykle ważnym problemem, z zastosowaniem nowatorskich metod i siłami zespoły światowej klasy może zostać odrzucona,
gdy recenzenci dojdą do przekonania, że jej właściwym adresatem powinien być przemysł. Recenzenci zgodni zupełnie w ocenie pewnego wniosku, mogą swoją ocenę wyrażać przyznaniem różnej liczby punktów. Wnioski łatwo odrzucać z uzasadnieniem, że są
zbyt nachylone praktycznie, lub przeciwnie, że nie dają podstaw do oczekiwania przyszłych zastosowań; kategorie „ładunku teoretycznego” i „użyteczności” są bardziej intuicyjne niż uchwytne empirycznie.
Podczas gdy badacze spędzają nad przygotowaniem wniosku od trzech do sześciu miesięcy, dyskusja nad nim rzadko przekracza 10 do 20 minut. Proporcje takie częściej wynikają z przepracowania niż lenistwa oceniających.
Nie sposób ustalić optymalną metodę wyboru recenzentów. Nierzadko mniej wybitni
oceniają wybitniejszych. Często pole badań jest zbyt małe, by mechanizm peer review
mógł być stosowany.
Na podstawie propozycji niepodobna przewidzieć wyniku badań. Wnioskodawcy mają
skłonność do pisania optymistycznych scenariuszy i składania obietnic, których nie są w
stanie spełnić. Brak rzetelnej oceny raportów końcowych zachęca do czynienia obietnic
bez pokrycia.
261
Peer review zarzuca się też niedostateczny feedback wnioskodawca-recenzenci (dlaczego
mój wniosek został odrzucony?) oraz brak mechanizmu apelacyjnego (dlaczego nie mam
prawa odwołać się od krzywdzącej decyzji?). Zwraca się też uwagę, że recenzenci rzadko
wiążą ocenę ex-ante z oceną ex-post (w jaki sposób dzisiejszy wnioskodawca wykorzystał przyznane dawniej fundusze, jakie uzyskał wyniki?).
Peer review kosztuje; wysokie są jego koszty pośrednie (czas wnioskodawców i recenzentów) i bezpośredni (koszty administracyjne). (Koszty obsługi systemu grantowego w stosunku do przeznaczanych na granty sum - są w KBN znacznie niższe niż w krajach
zachodnich. Wynika to jednak nie z wyższej wydajności naszej administracji grantowej,
tylko z limitu budżetowych funduszy na utrzymanie instytucji rządowych. Te znacznie
niższe koszty obsługi trzeba brać pod uwagę, gdy ocenia się sprawność peer review w
KBN).
Peer review stawia się też zarzuty ogólne. Mówi się, że wzmacnia syndrom zamknięcia
uczonych w wieży z kości słoniowej, zwiększa dyscyplinowy separatyzm oraz nie daje
podstaw do podziału funduszy pomiędzy dyscyplinami (a nie wewnątrz dyscyplin).
Zarzuty przeciwko peer review można podzielić na takie, które dotykają jego (niemożliwej do zmiany) istoty, oraz takie, które odnoszą się do jego (możliwych do modyfikacji)
cech zewnętrznych. Niektóre zarzuty trafiają w system jako taki; inne - w jego użyteczność do oceny badań w danym kraju, w danej dyscyplinie lub w danym okresie (dobry
dawniej, przeżytek dziś).
Anglicy słysząc zarzut, mają w zanadrzu pytanie: A co proponujesz w zamian? Stosownie
do różnic w charakterze obiekcji, również i propozycje zmian peer review rozciągają się
od kodeksów „dobrego recenzenta i panelisty”, poprzez sugestie ulepszeń tego systemu
aż po propozycje wprowadzenia nowego.
Propozycje ulepszeń. Z jednym zgadzają się wszyscy: funkcjonowanie systemu należy
stale kontrolować i monitorować. Co kilka lat każda agencja grantowa powinna zlecić
zbadanie działania peer review niezależnym ekspertom. Trudno znaleźć poważną agencję za granicą, która by zaniechała tego obowiązku. W Stanach Zjednoczonych
sporządzono raporty o peer review m.in. National Science Foundation (NSF) oraz National Institute of Health. W Wielkiej Brytanii raporty o działalności rad ds. badań przygotowały m.in. Royal Society oraz Committee on Science and Public Policy.
Inne propozycje:
Niektóre organizacje wynagradzają macierzyste instytucje recenzentów w celu zrekompensowania czasu jaki naukowcy inwestują w peer review. Stwarza to zachęty dla instytucji zachęcając je do udziału w procedurach oceny.
W wielu instytucjach wprowadza się elektroniczny sposób recenzowania w celu zwiększenia odsetka odpowiedzi i przyspieszenia procesu oceny. Jednak ocena elektroniczna
ma tę wadę, że zniechęca do dyskusji twarzą w twarz, która poprawia jakość oceny.
262
Peer review kolegiów to także środek zwiększenia odsetka odpowiedzi i zapewnienia
większej spójności i ciągłości w procesu oceny. „Kolegium” odnosi się do grupy ekspertów zakontraktowanych przez agencję grantową w celu zapewnienia peer review. Udział
w kolegium może być korzystny dla naukowca, gdyż świadczy że organizacja ceni jego
wiedzę. Kolegia zapewniają również szkolenie recenzentów. Jednakże stanowią one obciążenie administracyjne i finansowe dla agencji, a małe kolegia mogą nie mieć niezbędnej wiedzy w dziedzinach niszowych lub interdyscyplinarnych.
Czasem stosowanie rozszerzonego peer review lub oceny wielokryterialnej może poprawić peer review pod względem uznawania społeczno-gospodarczego znaczenia badań.
Zwraca się także uwagę na to, że tendencja peer review do wspierania głównego nurtu
badań maleje, gdy badacze mogą ubiegać się o dotacje do różnych agencji [OECD IPP
2014].
W niektórych krajach wprowadza się Systemy Wspomagania Recenzentów; w Polsce –
w Ośrodku Przetwarzania Danych [OPI 2014].
Zalecenia dla peer review. Zalecenia dla uczestnika peer review sformułował B. Bozeman (Evaluating R&D Impacts: Methods and Practice, 1993, s. 91-94):
1. Uzupełniaj peer review (ze swojej natury oparte na subiektywnych i osobistych interpretacjach) przez inne techniki ewaluacyjne, zwłaszcza oparte na pomiarach wydajności (liczba
publikacji, cytowań, patentów, uczestnictw w uznanych w świecie towarzystwach naukowych
itd.).
2. Stosuj peer review wyłącznie do oceny działalności BiR nie mającej zupełnie charakteru komercyjnego. W innym wypadku peers będą konkurentami w stosunku do ocenianych.
3. Przeprowadzaj peer review tylko wówczas, gdy łatwo wskazać na badaczy, którzy mogliby
dokonać oceny. Nie zawsze tak jest (oceniane pole badań jest nowe i małe, specjaliści są rozproszeni i rzadko kontaktują się ze sobą itd.). Jeśli wspomniany warunek nie jest spełniony,
stosuj inne metody oceny.
4. Unikaj o ile to możliwe korzystania z usług badaczy pracujących w tej samej instytucji (specjaliści z innej będą spoglądać na problemy z innego punktu widzenia i mieć inne doświadczenia zawodowe i organizacyjne).
5. Bądź świadom możliwości pojawienia się zachowań dysfunkcjonalnych i patologicznych wewnątrz grupy ewaluacyjnej („myślenie grupowe”, „owczy pęd”, dominacja elokwentnej jednostki itd.).
6. Jeśli do oceny stosujesz pewną skalę sprawdź wcześniej jej ważność i wiarygodność. Czy jesteś pewien, że większość z oceniających zastosowałaby tę samą punktację w stosunku do
przedmiotu oceny? Jeśli oceny są bardzo zróżnicowane, czy nie jest to oznaką braku konsensusu w danym polu badań? Czy nie świadczy to z kolei, że w danym przypadku peer review
nie jest przydatne? Czy skala jest adekwatna do przedmiotu pomiaru? Czy nie jest zbyt rozciągnięta (np. 100 punktów) lub odwrotnie, zbyt wąska? Jaki istnieje związek pomiędzy różnymi kryteriami? Czy waga przyznawana każdemu z kryteriów (najczęściej przyznaje się
263
równe wagi) jest adekwatna do jego rzeczywistego znaczenia? Czy oceniający uważają oceny
ilościowe za dobre narzędzie dla realizowania postawionego przed nimi zadania?
7. Pamiętaj o możliwych źródłach „odchyleń” w ocenie oraz potencjalnych konfliktów interesów
pomiędzy oceniającymi a ocenianymi. Nakłoń peers, aby je ujawnili, i bądź świadom, że mogą
nie ujawnić wszystkich.
8. Weź pod uwagę trzy najważniejsze czynniki sukcesu peer review: motywację (najważniejsza
to motywacja kierującego przeglądem), kompetencje (zarówno indywidualne kompetencje
ekspertów w zakresie danej specjalności, jak i kompetencje całej grupy w odniesieniu do społecznego i gospodarczego znaczenia projektu) oraz niezależność (tzn. bezstronność).
Propozycje usprawnienia. Sformułowano wiele propozycji usprawnienia peer review.
Zaleca się, aby system był bardziej przejrzysty. Agencje grantowe powinny informować
o zasadach doboru recenzentów i panelistów; oceniani - mieć prawo do repliki nie po,
lecz przed wydaniem decyzji; wnioskodawcy - otrzymywać nie-zdawkowe informacje o
powodach odrzucenia ich propozycji. Powinno się dopuszczać możliwość składania apelacji. Należy odwrócić kwestię anonimowości: wnioski powinny być anonimowe dla recenzentów i panelistów (z usunięciem możliwie wszystkich oznak pozwalających na
identyfikację autora), natomiast nazwiska oceniających powinny być ujawniane wnioskodawcom. Peers powinni brać pełną odpowiedzialność za swój werdykt, a nie ukrywać
się za zasadą anonimowości.
Proces peer review należy usprawnić. Formularze wnioskowe powinny być krótsze, a
terminy składania propozycji zniesione (panele powinny pracować stale, a nie sesyjnie).
Okres realizacji projektów badań podstawowych należałoby przedłużyć. Bazy danych o
recenzentach trzeba częściej weryfikować. Co pewien czas powinno się badać skuteczność zasad punktacji i wprowadzać potrzebne zmiany. W znacznie większej mierze należy zwracać się z prośbą o recenzje do naukowców zagranicznych. Powinno się utrzymywać bazę o efektach badań i sięgać po jej dane dla oceny wniosków. W większym też
stopniu trzeba posługiwać się Internetem jako środkiem komunikacji pomiędzy grantodawcami i grantobiorcami. Aby podołać nawałowi propozycji można przeprowadzać
wstępną selekcję i odrzucać wnioski, które są wyraźnie słabsze, które przekraczają możliwości finansowe agencji lub też nie spełniają pewnych formalnych wymogów.
Aby zaradzić wbudowanym w peer review skrzywieniom można też wprowadzić modyfikacje promujące kategorie badaczy krzywdzonych na ogół jej decyzjami: młodych; zainteresowanych badaniami interdyscyplinarnymi; zdecydowanych na podjęcie ryzyka
badań pionierskich; planujących przeprowadzenie badań na rzecz przemysłu. I tak np.
zgłaszane są pomysły tzw. „dotacji zasiewnych” dla badaczy zdecydowanych na zmianę
zainteresowań badawczych i wkroczenie na nowy obszar problemowy oraz dotacji połączonych z ulgami podatkowymi na badania przemysłowe.
Niektóre z propozycji modyfikacji peer review polepszają pewne parametry systemu
kosztem innych (np. feedback i możliwość apelacji od decyzji zwiększają i tak wielkie
obciążenie administracyjne). Inne niosą za sobą nowe możliwe pułapki (odwrócenie
kwestii anonimowości). Zazwyczaj nie sposób poprawić pewnej cechy systemu nie pogarszając przy tym innej. Trudno np. jednocześnie zwiększyć szybkość i wyporność stat264
ku. Niemniej warto co pewien czas eksperymentować z peer review. Koszty reform mogą
okazać się niższe od korzyści. Jedną z korzyści są nowe doświadczenia, środowiskowe i
organizacyjne.
Aby zmniejszyć skrzywienia tradycyjnego peer review w wielu krajach zmodyfikowano
jego procedury.
Dla przeciwdziałania dyscyplinowemu separatyzmowi amerykańska Narodowa Fundacja Nauki już w latach 1960. za radą Alvina Weinberga włączyła do paneli dyscyplinowych przedstawicieli innych, sąsiednich dyscyplin. Zadaniem ich jest ocena, czy przedkładane propozycje mają szansę wywrzeć na naukę wpływ wykraczający poza dyscyplinowe opłotki.
Proponuje się także, aby recenzenci czytali większą liczbę wniosków grantowych, przez
co zyskali by lepszą skalę porównawczą [Marsh 2008].
Aby osłabić syndrom „wieży z kości słoniowej” do paneli rozstrzygających o dotacjach
na rozwój badań stosowanych włącza się nieraz przedstawicieli użytkowników (np. inżynierów zatrudnionych w przedsiębiorstwach), a w kryteriach oceny wniosków zwiększa znaczenie informacji o planach wykorzystania wyników badań.
Często reformy polegają nie tylko na modyfikacji procedur, ale także na wprowadzeniu
nowych form grantów.
Celem wzmocnienia edukacyjnego oddziaływania badań agencje grantowe wprowadziły
dotacje wspierające powiązania badań z dydaktyką: holenderska NWO program Stimulans (na rozwój studiów doktoranckich), a Research Corporation, prywatna fundacja w
Tuscon (Arizona), Cotrell Scholars Awards (na badania z udziałem doktorantów).
Aby związać badania z rządowymi priorytetami NWO udziela na zasadzie konkursu
granty na podjęcie badań nad wskazanymi tematami lub na rozwiązanie określonych
problemów. NSF ogłasza konkursy na propozycje badawcze dotyczące określonych zestawów tematów.
Dla poszerzenia szans młodych badaczy NWO wprowadziła programy: Talent oraz Pioneer. Talent przeznaczony jest dla młodych doktorów, którzy rokują nadzieję, że zostaną
liderami zespołów badawczych. Program umożliwia pogłębianie doświadczenia badawczego (do roku) za granicą. Rocznie udziela się 40-50 stypendiów.
W celu wspierania badań o dużym ładunku nowatorstwa NWO podjęła program Pioneer. Pioneer przeznaczony jest dla utalentowanych badaczy uniwersyteckich, którzy osiągnęli wysoką pozycję w hierarchii badawczej (z reguły - dla profesorów). Badaczom tym
daje się szansę sformowania i kierowania przez 5 lat zespołem, który inicjuje nowy kierunek badań. Dotacje programu są (jak na Holandię) wysokie: od 250 tys. do 400 tys.
guldenów rocznie (ok. pięciokrotnie więcej, niż w zwykłym projekcie badawczym).
Ubiegające się o nie uniwersytety muszą zapewnić dodatkowy wkład (na zatrudnienie
osób i zakup wyposażenia) oraz zgłosić gotowość przedłużenia finansowania po ustaniu
dotacji. Głównym celem Pioneera jest zdynamizowanie i unowocześnienie badań uniwersyteckich. Grantobiorcy mają dużą swobodę w wykorzystaniu funduszy: mogą zaku265
pić wyposażenie i zatrudnić pracowników z kraju i zagranicy bez konieczności składania
kolejnych wniosków. W celu ochrony znaczenia programu NWO obniżało w kolejnych
latach liczbę dotacji, podnosząc jednocześnie ich wysokość.
Podobny w intencjach, ale różny w formule organizacyjnej jest program Small Grants for
Exploratory Research (SGERR) amerykańskiej National Science Foundation (NSF). Program finansuje badania o charakterze rozpoznawczym i wysokim stopniu ryzyka. Warunkiem uzyskania dotacji jest przedstawienie krótkiego (dwie do pięciu stron) wniosku
na badania nad nowymi ideami, nowymi obszarami problemowymi lub nad zastosowaniem nowych metod. Stypendia nie przekraczają 100 tys.$ i są z reguły niższe od przeciętnego grantu badawczego. Zazwyczaj realizacja projektu trwa rok, czasem dwa lata.
Odejściem od standardowej formuły peer review są także elitarne stypendia wprowadzane przez brytyjską Radę ds. Badań (ok. 2-3 w ciągu roku). Mają one na celu „wykupienie” wybitnych nauczycieli akademickich od obowiązków dydaktycznych (przez
oznaczony okres uniwersytet nie wypłaca stypendyście pensji, udziela mu natomiast
„sabbatical year(s)”; stypendysta pobiera od MRC wynagrodzenie równe wypłacanemu
wcześniej przez uniwersytet oraz grant na realizację projektu badawczego). Zgłoszenia
na stypendium składane są jednocześnie z propozycją projektu badawczego. Warunkiem
uzyskania stypendium jest wysoka ocena zarówno dorobku badacza, jak i planu badań.
Propozycje alternatywne. Od czasu do czasu pojawiają się w poważnych pismach rady-
kalne propozycje odejścia od peer review. Zamiast finansowania projektu proponuje się
powrót do finansowania instytucji, najlepiej wg pewnego ustalonego algorytmu. W Polsce w taki właśnie sposób KBN finansuje badania statutowe. Zdaniem Rustuma Roy`a
alokacja funduszy na badania powinna być oparta na następującej formule:
Ax (liczba magistrów + 3x liczba doktorów);
+Bx (liczba publikacji ogłoszonych drukiem w recenzowanych czasopismach);
+Cx (suma funduszy uzyskanych od organizacji rządowych);
+Dx (suma funduszy uzyskanych od przedsiębiorców).
Algorytm dopuszcza różnicowanie wagi poszczególnych elementów w zależności od
dyscypliny.
Inne propozycje finansowania wykonawców dotyczą nie instytucji, tylko badaczy lub zespołów badawczych. Rosemary Yalow zaproponowała finansowanie badań biomedycznych poprzez trzyletnie dotacje, odnawiane pod warunkiem osiągnięcia sukcesu
naukowego. Odrębny mechanizm regulowałby wchodzenie do systemu nowych badaczy.
Podobna propozycja zaleca wynagradzanie już dokonanych wyników badań, a nie ich
projektów. Ma ona za sobą stwierdzony empirycznie fakt, że wnioskodawcy, którzy nie
dostali grantu, najczęściej i tak wykonują zaplanowane badania pomimo niekorzystnego
wyroku agencji. Zgłoszono też propozycje finansowania zespołów badawczych na podstawie przeprowadzanej co kilka lat międzynarodowej ewaluacji. Richard Muller (USA)
przedstawił pomysł stałej ankietyzacji badaczy mającej na celu ustalenie listy 1000 naj266
wybitniejszych uczonych amerykańskich. Wybrańcy otrzymywaliby po milionie dolarów, który mogliby wykorzystać wg własnego wyboru. Zgłoszono też ideę wybierania
propozycji badawczych na zasadzie loterii. Eksperci odrzucaliby tylko wnioski, które nie
spełniałyby pewnych warunków brzegowych. O wyborze zwycięskich wniosków decydowałby ślepy los. Odpadłyby wysokie koszty administracyjne.
Jak dotąd każda zgłaszana alternatywa peer review natychmiast wzbudziła uzasadnione
obiekcje. Podkreślano, że rozwiązując pewne problemy, propozycje alternatywne stwarzałyby nowe, często potencjalnie groźniejsze. Np. system finansowania wg algorytmu
skłaniałby do publikowania „byle szybko byle dużo” oraz do obniżania wymagań związanych z uzyskiwaniem stopnia doktora. Propozycja Mullera, podobnie jak tradycyjne
peer review, utrwalałaby status quo (nowe kierunki i dyscypliny nie miałyby szans przebicia).
Wskutek słabości alternatyw, peer review - zwłaszcza w krajach anglosaskich - trzyma
się krzepko, raczej modyfikowany niż zastępowany. Niemniej i w Polsce warto podjąć początkowo na małą skalę - eksperymenty z alternatywnymi formami finansowania badań. Pewne inicjatywy KBN już podjął, warto podjąć kolejne (np. wprowadzenia nowych
rozwiązań wspierania młodych badaczy). Pionierem eksperymentowania mogłyby być
fundacje. Ostrożne eksperymenty, jak dotąd z sukcesem, przeprowadza Fundacja na
Rzecz Nauki Polskiej. Niektóre formy, które zdały egzamin w fundacjach, mogłyby następnie być wprowadzone przez KBN.
Źródłem inspiracji dla nowych form mogłyby być mechanizmy wprowadzone w Stanach
Zjednoczonych.
•
•
•
Amerykańska Howard Hughes Medical Foundation przyznaje stypendia (na okres od 3
do 5 lat) bardziej na podstawie oceny dorobku niż ewaluacji wniosku grantowego.
Poczynając od roku 1997 NSF co roku wybiera (spośród najwybitniejszych stypendystów swojego programu Career) dwudziestu kandydatów do Nagrody Prezydenckiej.
Nagrodę stworzono z myślą o wybitnych naukowcach i inżynierach, którzy udowodnili,
że posiadają wyjątkowe umiejętności menedżerskie w badaniach na froncie rozwoju nauki. Nagrodzeni - oprócz dotacji Career - otrzymują dodatkowo corocznie przez 5 lat 100
tys.$.
John D. and Catharine MacArthur Foundation wypłaca przez okres pięciu lat specjalną
dotację. Od kandydatów nie wymaga się propozycji projektów badawczych, od nagrodzonych nie wymaga się raportów końcowych. Kandydatów powinna cechować ponadprzeciętna kreatywność oraz umiejętność stawiania ważnych problemów. Proces selekcji
zaczyna się z chwilą, gdy fundacja zaprasza ponad stu wybitnych przedstawicieli nauki,
sztuki i administracji, aby wskazali młodych utalentowanych ludzi zajmujących się fizyką, humanistyką, sztuką, naukami społecznymi oraz sprawami publicznymi. Nominujący
przedkładają spisy nazwisk, które są następnie oceniane przez osobny, dwunastosobowy
komitet selekcyjny. Członkowie obu grup pozostają anonimowi. Ostateczna decyzja należy do zarządu dyrektorów. Wysokość stypendium waha się od 150 do 375 tys. dolarów
(w ciągu pięciu lat). Przed dwoma laty przyznano 150 stypendiów dla samych tylko naukowców.
267
Otwarte peer review. Epoka cyfryzacji i Internetu zgłasza nowe propozycje ulepszeń
peer review. Dokument OECD stwierdza: „istnieją obawy, że system peer review znajduje
się pod presją i traci zaufanie wśród użytkowników, gdyż zależy on od subiektywnych
decyzji kolegów i jest coraz bardziej czasochłonny i kosztowny. Nie jest przesadą
stwierdzenie, że peer review jest obecnie w obliczu najsilniejszych wyzwań od kilku
dziesięcioleci” [OECD 2007].
Powody sukcesu klasycznego peer review:
•
•
•
Mechanizm weryfikacji i selekcji spełniający jednocześnie dwie przeciwstawne funkcje:
gwarancji autonomii dla środowiska naukowego oraz gwarancji odpowiedzialnego podziału publicznych funduszy na badania dla opinii publicznej.
Względnie wydajny – znany i akceptowany, pozwalający na wzajemne uczenie się od
siebie.
Lepszy od alternatywnych rozwiązań (sądzono, że rozwiązując pewne problemy, propozycje alternatywne stwarzały nowe, często potencjalnie groźniejsze).
Podkreśla się, że peer review sprawdza się tylko pod pewnymi warunkami. Wiele wskazuje na to, że warunki te zmieniają się. „Wskaźniki sukcesu” wniosków grantowych stale
maleją. Aby zaradzić spadkowi szans, badacze piszą i przesyłają coraz więcej propozycji,
tracąc w ten sposób czas, jaki mogliby poświęcić badaniom. Już w roku 1961 Leo Szilard
obliczył, że gdy „wskaźnik sukcesu” spadnie do 10% - 90% badaczy poświęci cały swój
czas pisaniu propozycji badawczych (zaniedbując przy tym badania, dydaktykę i publikacje). W pewnych dziedzinach bliscy jesteśmy osiągnięciu „punktu Szilarda”.
Skrajnie krytyczne opinie: „Wydaje się, że nie ma badań zbyt rozdrobnionych, hipotez
zbyt banalnych, literatury zbyt stronniczej lub zbyt egoistycznej, projektu zbyt wypaczonego, metodologia zbyt partackiej, prezentacja wyników zbyt niedokładnej, niejasnej
i sprzecznej, analizy zbyt samo-potwierdzającej, argumentu zbyt okrągłego, zbyt błahego lub zbyt nieuzasadnionego, gramatyki i składni zbyt obraźliwej, nie ukazywały się
w końcu w druku.” (Drummond Rennie, editor of Journal of the American Medical Association). “Oceniamy peer review publicznie jako quasi-sakralną procedurę, która pomaga
uczynić naukę naszym najbardziej obiektywnym wyrazicielem prawdy. Ale wiemy, że
system peer review jest tendencyjny, niesprawiedliwy, niewiarygodny, niekompletny,
często obraźliwy, zazwyczaj ignorancki, czasem głupi i często zły.” (Richard Horton, redaktor brytyjskiego czasopisma medycznego The Lancet). „[Michael] Nielsen podaje
liczne przypadki, kiedy recenzenci najlepszych tytułów naukowych nie byli w stanie
ujawnić zawczasu słynnych później skandali naukowych. Tak było w przypadku fizyka
Jana Hendrika Schoena, który w 2000 i 2001 r. opublikował wiele artykułów o przełomowych odkryciach w dziedzinie nadprzewodnictwa w związkach organicznych. Schoen
sfabrykował wyniki, czego nie wykryli ani recenzenci “Science” ani “Nature”. Recenzenci
z kolei doskonale potrafią blokować postęp nauki, o czym przekonało się wielu noblistów, których prace zostały odrzucone. I tak George Zweig miał problemy z opublikowaniem artykułu ogłaszającego odkrycie kwarków, Krebs nie mógł przebić się z artykułem
o cyklu kwasu cytrynowego. Dość długa lista takich niepowodzeń sugeruje, że system
268
peer review nie dość że nie spełnia podstawowego warunku – nie chroni przed oszustwami, to jeszcze na dodatek wstrzymuje rozwój nauki przez tępienie prac najbardziej
innowacyjnych” [Bendyk, Nielsen 2009].
Jakie są powody erozji klasycznego peer review?
•
•
•
•
•
•
•
•
•
•
•
•
ICT i jego konsekwencje (np. rozwój modeli otwartych – Open Source, Open Knowledge
Initiative, OpenLaw, Open Archive Initiative, e-printArchives itp.)
Narodziny nowych form życia społecznego i kultury (np. open source communities, portale społecznościowe).
Narastanie „społeczeństwa post-naukowego” (innowacje oparte nie tyle na rozwoju specjalistycznej wiedzy naukowej i technicznej, co na łączeniu wiedzy naukowej, inżynierskiej, artystycznej, humanistycznej, społecznej, menedżerskiej)
Nowe idee (Partycypacja, Otwartość , Kolektywna / Rozproszona inteligencja, „Mądrość
tłumu”, Feed-back, Refleksyjność, Twórczość i Innowacje).
Wzrost badań wielkiej skali prowadzonych przez wielkie międzynarodowe zespoły badawcze, np. nad genomem, w których forma „komunikatu z frontu badań” jest bardziej
właściwa niż tradycyjny artykuł prezentujący ostateczne wnioski;
Nowe formy instytucjonalne badań (np. wirtualne instytuty i obserwatoria, jak np.
Astrophysical Virtual Observatory; telepraca; zespoły rozproszone; zadaniowe klastry
badawcze; badania prowadzone równolegle przez różne zespoły badawcze, łączące
współpracę ze współzawodnictwem; „badania partycypacyjne” z udziałem przyszłych
użytkowników aktywnych na wszystkich etapach badań; wielki sieci powiązanych ze sobą laboratoriów czy obserwatoriów).
Nowe formy metodologii badań (np. symulacja; wielkie bazy danych);
Nowe formy komunikacji, archiwizacji i prezentacji badań (np. e-archiwa; wiki; blogi;
hyper-text; łączenie tekstu z video; dynamiczne diagramy – prezentacja dynamiki zmian
złożonych układów);
Wzrost zakresu badań inter-i-multi-dyscyplinarnych;
Nowe modele innowacji („otwarta innowacja”; innowacje zorientowane na użytkownika).
Wzrost nacisku opinii publicznej na efekty zewnętrzne i aplikacje badań oraz na udział w
ustalaniu priorytetów badawczych;
Rozszerzenie pojęcia efektu badań naukowych (nie tylko nowe ustalenia, ale także rozwój kompetencji, sieci naukowych, mobilności, aparatury itd.);
W efekcie
•
•
zmieniają się metody i formy instytucjonalne prowadzenia badań naukowych, rozumienie ich celu i orientacji, formy komunikacji naukowej i archiwizacji ustaleń itd. –
rozwijają się nowe reguły gry w nauce, a warunki, w których zarówno zasady klasycznego peer review (anonimowość, specjalizacja, sprecyzowany temat, określeni
autorzy itd.), jak i jego zastosowania (propozycja badawcza, artykuł zawierający
ostateczne ustalenia itd.) najlepiej sprawdzały się – powoli się kurczą.
Okres przejściowy – erozji klasycznego peer review oraz kształtowania nowych oczekiwań od badaczy oraz nowych zasad ocen ich pracy.
Najwcześniejsze propozycje otwartego peer review to m.in.:
269
•
•
•
•
•
•
•
1959 – Open peer commentary, Current Anthropology - komentowanie tytułowego artykułu przez kilkunastu specjalistów wraz z odpowiedzią autora. Naśladowcy.
1970-te Behavioral and Brain Sciences inicjuje publikowanie kontrowersyjnych artykułów wraz opiniami recenzentów.
1991 – Internetowe archiwum arXiv.org Paula Ginsparga z możliwością komentarzy czytelników. 470 000 prac. Naśladowcy.
II poł. lat 1990-tych – początki zamieszczania w Internecie wersji roboczych prac przed
przesłaniem ich do redakcji czasopism papierowych; rozwój czasopism elektronicznych.
1997 – Electronic Transactions on Artificial Intelligence (ETAI) jedno z pierwszych czasopism elektronicznych stosujących otwarte peer review (dwustopniowa ocena - 'reviewing' i 'refereeing').
2001 – Peer review otwarte dla publiczności - Atmospheric Chemistry and Physics. Dwa
stadia oceny: wstępna redakcyjna – umieszczenie w Internecie; opinie i komentarze czytelników w połączeniu z formalnym peer review i odpowiedzią autorów. Na końcu decyzja co do publikacji.
Ok. 2004 – Signaling Gateway, brama sygnalizacji, baza relacyjna o otwartym dostępie
mająca na celu zbieranie informacji o molekułach komórek http://www.signalinggateway.org/, zastosowanie zasad otwartego peer review do baz danych.
Przełomowy rok 2006:
•
•
•
•
•
2006 – Nature - eksperyment z otwartym peer review niektórych wybranych artykułów.
2006 – czasopisma elektroniczne / „otwartego dostępu” eksperymentują z „otwartym
peer review” (np. Philica, Naboj, Biology Direct, BMC Medicine, PLoS Medicine, British Medical Journal, Atmospheric Chemistry and Physics, Journal of Economic Perspectives, American Psychologist).
2006 – debata Nature nad przyszłością otwartego peer review. Reakcja: mieszanina akceptacji z krytycyzmem. Science - podobne próby.
2006 – B.S. Noveck, Peer to Patent: Collective Intelligence, Open Review, and Patent Reform, “Harvard Journal of Law & Technology”; 2007 – The Peer to Patent Project - Community Patent Review połączenie eksperckiej z otwartą oceną wniosków patentowych.
2008 – „społeczny eksperyment sieciowy” Scientific American.
Wady otwartego peer review - możliwość eksplozji Internetowej nienawistnej głupoty .
Zalety otwartego peer review:
•
•
•
•
Możliwość ulepszania tekstu,
Większy poziom rzeczowości i odpowiedzialności opiniujących (skoro występują „z
otwartą przyłbicą”, pod własnym nazwiskiem),
Większa łatwość demaskowania negatywnych recenzji dyktowanych względami niemerytorycznymi,
Naruszanie monopoli naukowego establiszmentu skutkujące odblokowaniem energii
środowiska naukowego..
Zmiana modelu peer review (czasopisma, bazy danych, patenty):
270
Ewaluacja peer review. Ocena peer review dotyczy 1) jego zdolności do wyboru doskonałych badań i spójności decyzji we wszystkich panelach, oraz 2) jego opłacalności.
Ocena jakości procedur peer review może przybierać bardzo różne formy. Należą do nich
systemy monitorowania, regularne oceny i porównania, mechanizmy zapewniania jakości (ISO i inne wytyczne, np. European Peer Review Guide Europejskiej Fundacji Nauki,
2010), itp.
Gdy peer review jest coraz większym stopniu wykorzystywany w różnych dziedzinach,
ważne jest, aby korzyści wynikające z procedur przewyższały koszty. Nie jest to łatwe,
gdyż koszty peer review łatwo przeoczyć. Są to:
•
•
•
•
koszty dla agencji grantowej lub redaktora czasopisma. Te wydają się być stosunkowo niskie, z wyjątkiem wynagrodzenia recenzentów i/lub korzystania z peer review kolegiów;
koszty alternatywne dla recenzentów. Czas jest cennym zasobem, a badania stają
się coraz bardziej konkurencyjne. Czasu naukowców nie wolno lekceważyć;
koszty oczekiwania na recenzowanych naukowców;
koszty dla środowiska naukowego i społeczeństwa.
Peer review to stosunkowo długa procedura, która może mieć wpływ na opóźnienie
upowszechniania nowej wiedzy [OECD IPP 2014].
Bibliografia
A Mulligan, Is peer review in crisis?, “Oral Oncology” (2005) 41, ss. 135–141.
Alan L. Porter and Frederick A. Rossini, Peer Review of Interdisciplinary Research Proposals, “Science,
Technology, & Human Values”, Vol. 10, No. 3, Summer, 1985, ss. 33-38.
271
Alister Scott, Peer review and the relevance of science, Futures 39 (2007) ss. 827–845.
Anne McQueen and Alan Beard, A Creative Approach to Assessing Proposals, University Of Malta, The Edward De Bono Institute For The Design And Development Of Thinking, The Fifth International Conference
On Creative Thinking: Designing Future Possibilities 21-22nd June 2004.
Beth Simone Noveck, Peer to Patent. Collective Intelligence, Open Review and Patent Reform 2006.
Carol Berkenkotter, The Power and the Perils of Peer Review, “Rhetoric Review”, Vol. 13, No. 2 Spring, 1995,
ss. 245-248.
Christian Smit, Peer Review: Time for a Change? “BioScience”, Vol. 56, No. 9 September 2006, ss. 712-713.
Daryl E. Chubin and Edward J. Hackett, Peerless Science. Peer review and US Science Policy 1990.
David F.J. Campbell, The evaluation of university research in the United Kingdom and the Netherlands, Germany and Austria, w: Learning from Science and Technology Policy Evaluation, ed. by Philip Shapira, Stephan Kuhlmann, Edward Elgar, 2003.
David H. Guston, The expanding role of peer review processes in the United States w: Learning from Science
and Technology Policy Evaluation, ed. by Philip Shapira, Stephan Kuhlmann, Edward Elgar, 2003.
Edwin Bendyk, Nauka, krytyka systemu recenzji, http://edwinbendyk.wordpress.com/tag/nauka-2-0/
ESF Evaluation in National Research Funding Agencies, approaches, experiences and case studies. A report of
the ESF Member Organisation Forum on Ex-Post Evaluation of Funding Schemes and Research Programmes, September 2009.
Evaluating R&D Impacts: Methods and Practice, ed. Barry Bozeman, Julia Melkers, Springer 1993.
Fiona Q. Wood, The Peer Review Process Canberra Australian Govt. Pub. Service, 1997.
Glenn Ellison, Is Peer Review In Decline? NBER Working Paper Series 2007.
Harley, Diane, and Sophia Krzys Acord. 2011. Peer Review in Academic Promotion and Publishing: Its Meaning, Locus, and Future. UC Berkeley: Center for Studies in Higher Education.
Herbert W. Marsh, Upali W. Jayasinghe, Nigel W. Bond, Improving the Peer-Review Process for Grant Applications. Reliability, Validity, Bias, and Generalizability, “American Psychologist” Vol. 63, No. 3, ss. 160–168,
April 2008.
House of Commons. Science and Technology Committee, Peer review in scientific publications, Eighth Report of Session 2010–12, 2011.
James S. Dietz, Building a social capital model of research development: the case of the Experimental Program to Stimulate Competitive Research, ”Science and Public Policy” vol. 27 no. 2, 2000, p. 137-145.
Maria Nedeva, Peer Review: omnipresence vs. omnipotence, Evaluation of Science and Innovation Policies,
17 – 21 May 2010, Manchester.
Matthew E Falagas, Peer review in open access scientific journals , “Open Medicine”, Vol 1, No 1 (2007).
Michael Nielsen , Three myths about scientific peer review, Blog January 8, 2009,
http://michaelnielsen.org/blog/three-myths-about-scientific-peer-review/
Munir Mandviwalla, Ravi Patnayakuni, David Schuff, Improving the peer review process with information
technology, “Decision Support Systems” 46 (2008) ss. 29–40.
OECD IPP Innovation Policy Platform Issue Brief Peer Review, 2014.
272
OECD Peer Review: Its Uses, Demands, And Issues, 2007.
OPI Ośrodek Przetwarzania Danych, System Wspomagania Recenzentów, http://www.opi.org.pl/
Paul Nightingale and Alister Scott, Peer review and the relevance gap: ten suggestions for policy-makers,
“Science and Public Policy”, 34(8), October 2007, ss. 543–553.
Peer Review: the challenges for the humanities and social sciences. A British Academy Report, The British
Academy 2007.
Peter Gruss, Peer review at the Max Planck Society, w: Science between evaluation and innovation: a conference on peer review, DFG 2002.
Research Grants. Management and Funding, ed. F.Q. Wood, V.L. Meek, Australian Academy of Science Canberra 1993.
Ruth E. Malone, Should peer review be an open process?, “Journal Of Emergency Nursing” 1999;25: ss. 1502.
Science between evaluation and innovation: a conference on peer review, DFG 2002.
Stefan Hornbostel, Meike Olbrecht, Peer Review In Der Dfg: Die Fachkollegiaten, iFQ-Working Paper No. 2 |
November 2007.
EWALUACJA EX ANTE WNIOSKÓW GRANTOWYCH
Zasady rozpatrywania wniosków grantowych (propozycji projektów badawczych) w
agencjach są z reguły publikowane. Jako przykłady takich publikacji można przytoczyć:
European Research Council:
•
•
ERC Grant Schemes. Guide for Peer Reviewers 2009
ERC Grant Schemes. Guide for Applicants for the Advanced Grant 2011 Call
The National Science Foundation:
•
Proposal Award Policies And Procedures Guide October 2010.
W wielu krajach używa się języka angielskiego jako języka wniosków. Jest tak m.in. w
Estonii, Słowenii, Hiszpanii (powyżej 150 000€), Norwegii.
Bibliografia
European RTD Evaluation Network, Joint research evaluations – European experience, 2008.
EWALUACJA EX POST GRANTÓW BADAWCZYCH
Podczas ewaluacja ex-ante grantów badawczych zwykle opiera się procedurze peer review, istnieją różne praktyki w zakresie ewaluacji przebiegu i rezultatów projektów.
Wykorzystanie raportów końcowych. Raporty końcowe przechowuje się dla zapewnienia przejrzystości i >ROZLICZALNOŚCI pieniędzy podatnika, dla wykorzystania w celu
marketingu wobec decydentów, naukowców i innych zainteresowanych stron.
273
Niektóre agencje (np. ERRS, FWF) publikują raporty końcowe, większość z nich
publikuje ich streszczenia.
Bibliografia
ESF, European Science Foundation, Evaluation in National Research Funding Agencies: approaches, experiences and case studies. A report of the ESF Member Organisation Forum on Ex-Post. Evaluation of Funding
Schemes and Research Programmes, September 2009.
EWALUACJA POLICY INTELLIGENCE – FORM WSPARCIA INFORMACYJNOANALITYCZNEGO POLITYKI NAUKOWEJ I INNOWACYJNEJ
Od czasu do czasu stosuje się ewaluacje narzędzi Policy intelligence - form wsparcia informacyjno-analitycznego polityki naukowej i innowacyjnej. Np. przeprowadzono kilka
ewaluacji foresight`u (foresight to metoda prognozowania polegającej na „dyskusji nad
przyszłością w gronie przedstawicieli decydentów (władzy publicznej), środowisk naukowych, przemysłu, mediów, organizacji pozarządowych i opinii publicznej, przy czym
nie chodzi o dokładność prognozy, lecz o uświadomienie perspektyw i przygotowanie
do zmian” [Foresight, Wikipedia 2014]). Podczas ewaluacji ocenia się m.in. efektywność
narzędzi i to, czy osiągają one założone cele.
W Polsce sporządzono ekspertyzę Badanie Ewaluacyjne Realizowanych W Polsce Projektów Foresight (2010). Uwzględniała ona następujące zadania badawcze:
1. Zebranie podstawowych danych na temat projektów foresightu narodowego, tematycznych,
regionalnych i branżowych na podstawie informacji publikowanych przez zespoły realizujące
projekty foresightowe (przegląd i krytyczna analiza raportów, materiałów promocyjnych projektów, witryn internetowych, bazy Ośrodka Przetwarzania Informacji).
2. Opracowanie bazy osób odpowiedzialnych za merytoryczną organizację projektów.
3. Opracowanie kryteriów ewaluacji projektów.
4. Opracowanie kwestionariusza ankiety.
5. Przeprowadzenie badania ankietowego wśród osób odpowiedzialnych za realizację projektów.
6. Opracowanie wyników kwestionariusza ankiety.
7. Weryfikacja i uzupełnienie danych poprzez bezpośredni kontakt z osobami odpowiedzialnymi/realizującymi poszczególne projekty (wywiady pogłębione, korespondencja poprzez pocztę
elektroniczną).
8. Uporządkowanie i weryfikacja zebranych danych oraz przygotowanie raportu końcowego.
Do realizacji wyżej wymienionych zadań badawczych zostały przewidziane następujące
metody badawcze:
•
metoda analizy i krytyki piśmiennictwa (zadanie badawcze 1),
274
•
•
•
•
•
metoda badania dokumentów (zadanie badawcze 1, 2),
metoda analizy i konstrukcji logicznej (zadanie badawcze 3, 8),
metoda badań ankietowych (zadanie badawcze 4),
metoda sondażu diagnostycznego (zadanie badawcze 7)
metody statystyczne (zadanie badawcze 6).
Bibliografia
Dr. Kerstin Cuhls, Evaluation of Foresight Activities, Fraunhofer Institute Systems and Innovation Research.
Politechnika Białostocka, Ekspertyza Badanie Ewaluacyjne Realizowanych W Polsce Projektów Foresight,
Białystok, listopad 2010.
EWALUACJA PROGRAMU RAMOWEGO ORAZ „HORYZONTU 2020”
Ewaluację Programu Ramowego (PR) przeprowadza zarówno Unia Europejska (ex ante,
interim oraz ex post), jak i – w zakresie swojego udziału w PR – poszczególne kraje (ex
post). Oprócz nich, przeprowadza się także ewaluacje działania >KRAJOWYCH PUNKTÓW KONTAKTOWYCH.
Ewaluacja w UE. Aż do 6PR ewaluacji PR dokonywano poprzez roczne panele niezależnych
ekspertów, które oceniały wybrane obszary FP; system monitorowania 7PR oparto na zestawie wskaźników i zaprojektowano jako narzędzie do zarządzania wewnętrznego [EC 2009].
Rozporządzenie Parlamentu Europejskiego i Rady ustanawiające „Horyzont 2020” (kontynuację PR) zawiera rozdział IV Monitorowanie i Ocena. Rozporządzenie stanowi m.in,
że
•
•
•
•
•
Komisja corocznie monitoruje realizację programu „Horyzont 2020”, jego programu
szczegółowego i działań Europejskiego Instytutu Innowacji i Technologii
Komisja składa sprawozdania na temat wyników monitorowania i upowszechnia te wyniki
Ocena jest prowadzona w czasie pozwalającym na ujęcie jej wyników w procesie decyzyjnym
Nie później niż w 2017 r. oraz z uwzględnieniem oceny ex-post siódmego programu ramowego, która ma zostać zakończona do końca 2015 r. oraz przeglądu Europejskiego Instytutu Innowacji i Technologii, Komisja dokonuje z pomocą niezależnych ekspertów
śródokresowej oceny programu „Horyzont 2020”, jego programu szczegółowego, w tym
Europejskiej Rady ds. Badań Naukowych i działań Europejskiego Instytutu Innowacji i
Technologii, dotyczącej osiągnięcia celów programu „Horyzont 2020” (pod względem
wyników i postępów w zakresie oddziaływania) oraz dalszej stosowności wszystkich
środków, skuteczności i wykorzystania zasobów, potencjału dalszego uproszczenia i
unijnej wartości dodanej. Ocena ta uwzględnia również aspekty dotyczące dostępu do finansowania dla uczestników we wszystkich regionach i MŚP oraz promowania równouprawnienia płci. Ocena ta uwzględnia ponadto wkład środków w osiągnięcie unijnych
priorytetów w zakresie inteligentnego, trwałego wzrostu gospodarczego sprzyjającego
włączeniu społecznemu oraz osiągnięcie wyników dotyczących długoterminowych skutków wcześniejszych środków.
Nie później niż do końca 2023 r. Komisja dokonuje z pomocą niezależnych ekspertów
oceny ex-post programu „Horyzont 2020”, jego programu szczegółowego i działań Euro-
275
•
pejskiego Instytutu Innowacji i Technologii. Ocena obejmuje zasadność, realizację i osiągnięcia oraz skutki długoterminowe i trwałość środków i przyczyni się do podjęcia decyzji na temat ewentualnego przedłużenia, zmiany lub zawieszenia kolejnych środków.
Do oceny postępów osiągniętych w zakresie celu ogólnego stosuje się następujące
wskaźniki efektywności:
o cel dotyczący działań badawczo-rozwojowych w ramach strategii „Europa 2020”
(3 % PKB);
o podstawowy wskaźnik innowacyjności w ramach strategii „Europa 2020” [Rozporządzenie 2011].
Wśród dotychczasowych ewaluacji PR – finansowanych na ogół przez EU – przeważały
>OCENY WPŁYWU BADAŃ (np. Assessing 2002], w szczególności oparte na analizie dodatkowości, a także ewaluacje skupiające się na wpływie PR na międzynarodową
współpracę badawczą [Edler 2008; Malerba 2009] oraz analizy bibliometryczne dokonań [Thomson Reuters 2010]. W ocenie wpływu PR sięgnięto także po analizę semantyczną [Duchêne].
Ewaluacje udziału krajów w Programach Ramowych. Ewaluacje udziału krajów w
Programach Ramowych przeprowadza się w wielu krajach; np. w odniesieniu do PR VI,
m.in. w takich krajach, jak Austria, Belgia (Flandria i Bruksela), Cypr, Czechy, Dania, Estonia,
Finlandia, Francja, Hiszpania, Irlandia, Islandia, Litwa, Łotwa, Niemcy, Norwegia, Szwajcaria,
Szwecja, Turcja, Wielka Brytania [Compilation 2008].
Ewaluacje albo dotyczą ogółu instytucji uczestniczących w PR, albo pewnej ich grupy,
np. firm lub publicznego sektora nauki; albo wszystkich dyscyplin, albo tylko wybranych, takich jak np. teleinformatyka, energia, środowisko. Z reguły korzystają one z wielu metod ilościowych i jakościowych – np. z bibliometrii, ankiet, wywiadów.
W Hiszpanii ogólnym celem ewaluacji było dokonanie ilościowej i jakościowej oceny
wpływu uczestnictwa w ramach Szóstego Programu Ramowego (6PR) UE hiszpańskich
uniwersytetów i publicznych instytutów badawczych. W badaniu zastosowano kilka kryteriów oceny, takie jak kariery naukowców, przebieg ich badań, publikacje, internacjonalizacja projektów badawczych, współpraca z sektorem przedsiębiorstw, poprawa infrastruktury badawczej, itp. Ewaluacja miała trzy etapy. W pierwszym etapie sięgnięto
po analizy ilościowe uzyskane za pomocą ankiet wysyłanych do naukowców uczestniczących w PR. Drugi etap polegał na przeprowadzeniu kilku analiz jakościowych za pomocą wywiadów z przedstawicielami instytucji naukowych. Trzeci etap oceny miał formę warsztatów z przedstawicielami uniwersytetów i publicznych instytutów badawczych. Warsztaty pozwoliły na dyskusję i analizę wyników poprzednich etapów [Evaluation 2010].
Ewaluacja brytyjska dotyczyła udziału kraju we wszystkich – do VI – Programach Ramowych. Miała ona dwa główne cele: określenie stopnia, do jakiego kolejne PR na
wzmocnienie najsilniejszych brytyjskich pól badawczych oraz zbadanie charakteru i zakresu, w jakim PR pomógł zainicjować nowe obszary badań. Najbardziej szczegółowo
badano następujące kwestie:
•
Stopień zgodności między priorytetami PR a priorytetami brytyjskich strategii badawczych naukowych
276
•
•
•
•
Zakres, w którym główne grupy badawcze z Wielkiej Brytanii były zaangażowane w PR,
oraz powody braku zaangażowania.
Stopień, w jakim PR wspierają luki w finansowaniu nauki
Wpływ PR na
o możliwości badawcze, umiejętności i kariery
o rozwój przemysłowy i konkurencyjność
o politykę Wielkiej Brytanii oraz krajowe finansowanie badań i rozwoju technologicznego
o współpracę brytyjskich naukowców i ich odpowiednikami za granicą
mechanizmy PR najsilniej związane z pozytywnym wpływem i korzyściami [Technopolis
2010].
Ewaluacje Krajowych Punktów Kontaktowych. W krajach uczestniczących w Programie Ramowym przeprowadza się także ewaluacje Krajowych Punktów Kontaktowych.
Np. w Polsce celem badania było dokonanie oceny funkcjonowania sieci Punktów Kontaktowych 7. Programu Ramowego w Polsce w kontekście efektywności jej działań, oraz
dokonanie analizy porównawczej z systemami Punktów Kontaktowych w wybranych
państwach członkowskich UE. W szczególności, badanie postawiło przed sobą następujące zadania:
Przeprowadzenie analizy struktury sieci Punktów Kontaktowych w Polsce oraz
analizy instytucji współpracujących w sieci na poziomie europejskim/krajowym i
regionalnym, a także głównych przedsięwzięć z udziałem ośrodków sieci – w tym
przepływu informacji pomiędzy nimi, ze szczególnym uwzględnieniem roli i efektów pracy Krajowego Punktu Kontaktowego,
Dokonanie analizy usług/wsparcia udzielonego przez Regionalne, Branżowe oraz
Lokalne Punkty Kontaktowe, w ramach działania sieci,
Porównanie zakresu, zadań, struktury zatrudnienia i klientów Narodowych
Punktów Kontaktowych w krajach takich jak: Polska, Austria, Czechy, Wielka Brytania, Irlandia,
Przygotowanie wniosków i rekomendacji istotnych z punktu widzenia poprawy
efektywności funkcjonowania sieci Punktów Kontaktowych w Polsce [PSDB
2008].
Bibliografia
Antoni Torras i Estruch, Catalan companies in the European Framework Programme 2009.
Assessing the Socio-economic Impacts of the Framework Programme. A study for DG Research by PREST,
AUEB, BETA, ISI, Joanneum Research, IE HAS and Wise Guys, 2002.
Compilation of FP6 National Impact Studies April 2008.
EC European Commission, First FP7 Monitoring-Report 2009.
Effects of Swiss participation in EU Research Framework Programmes Interim Report 2010.
Evaluation of the impact of the FP6 in the RTD public system in Spain 2010.
277
Finland - Evaluation of Participation and Network in FP6 Tekes Programme Report 6/2008
Franco Malerba, Network Analysis of Research Collaborations 2009.
PSDB, Funkcjonowanie Sieci Punktów Kontaktowych w Polsce 2008.
Impact assessment of Framework Programme on French research and innovation system 2010.
Instytut Badań nad Gospodarką Rynkową, Przyczyny sukcesów i niepowodzeń zespołów naukowych biorących udział w Szóstym Programie Ramowym – wnioski na przyszłość, Warszawa Lipiec 2006.
J. Edler, The role of International Collaboration in the Framework Programme. Expert Analysis In Support Of
The Ex Post Evaluation Of FP6, 2008.
KE Komunikat Komisji Do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów, „Horyzont 2020” - program ramowy w zakresie badań naukowych i innowacji, Bruksela, dnia 30.11.2011 KOM(2011) 808 wersja ostateczna.
Lucie Vavříková, Assessment Of Fp6 In The Czech Republic. Impact Assessment of the 6th European RTD
Framework Programme, 2010.
OPI Ewaluacja udziału polskich zespołów badawczych w 6 Programie Ramowym – ocena efektywności finansowej, odpowiedniości, skuteczności i użyteczności 2008.
Participation of German Higher Education Institutions In FP6 2009.
PRO INNO Europe, Impact of publicly funded research on innovation. An analysis of European Framework
Programmes 2009.
Rozporządzenie Parlamentu Europejskiego i Rady ustanawiające „Horyzont 2020” – program ramowy w zakresie badań naukowych i innowacji (2014-2020), Bruksela, dnia 30.11.2011 COM(2011) 809 końcowy
2011/0401 (COD).
Spanish National FP6 Impact Assessment Study 2010.
Switzerland’s Participation in the 6th EU Research FP 2008.
Technopolis, Impact of the EU RTD Framework Programme on the UK 2010.
Thomson Reuters, Expert Group for the Interim Evaluation of Framework Programme 7. Bibliometric analysis 2010.
Vincent Duchêne, Ir. Patrick De Mazière, Semantic analysis as tool to measure policy impact. The impact of
FP-funded research in Social Sciences and Humanities (SSH) on EU policies, June 18th, 2009.
Vladimír Albrecht, Jiří Vaněček, Assessment of Participation of the Czech Republic in the EU Framework Programmes, Technology Centre of the Academy of Sciences of the Czech Republic 2009.
EWALUACJA ZACHĘT PODATKOWYCH
Zachęty na B+R i działalność innowacyjną polegają one na prawie do odliczania (części
lub całości) wydatków na B+R lub na stwarzaniu zachęt podatkowych dla przedsiębiorstw i jednostek do zakładania fundacji finansujących badania naukowe lub angażowania funduszy w kapitał ryzyka. Najczęściej stosowane instrumenty podatkowe w polityce naukowej i innowacyjnej odnoszą się do podatków dochodowych osób prawnych
(corporate income tax). Inne możliwe formy to: podatek osobowy od osób fizycznych
(włączając w niego podatek od zysków kapitałowych), podatek od wynagrodzeń, składka zdrowotna, podatki regionalne, VAT, opłaty celne itd.
Ulgi podatkowe kredytowe pozwalają na odliczenia od zobowiązań podatkowych z możliwością rozłożenia na lata, a ulgi podatkowe zwykłe (tax allowances) dają możliwość
278
odliczeń od podstawy opodatkowania. Ta pierwsza forma jest częściej stosowana w krajach OECD. Wartość zwykłych ulg podatkowych zależy (podczas gdy wartość ulg podatkowych kredytowych nie zależy) od podstawy opodatkowania podmiotów prawnych
(corporate income tax) [Van Pottelsberghe 2003].
Odroczenia płatności najczęściej przybierają formę zgody na przyśpieszoną amortyzację.
W większości krajów OECD wydatki na B+R można rozkładać i odliczać w okresie od 3
do 10 lat. Gwarantuje to, że firmy wchodzące dopiero na rynek, które nie wypracowują
jeszcze wysokiego dochodu, lub też firmy, które wskutek np. przejściowych strat lub
okresowych fluktuacji dochodów nie mają zobowiązań podatkowych, nie zostają pozbawione korzyści wynikających z systemu podatkowego [Wasilewski 1997].
Zachęty podatkowe poddawano ewaluacji w wielu krajach opartej na czterech metodach: badaniach ankietowych; eksperymentach (porównanie dwóch grup firm, np. tych
które skorzystały z zachęt oraz tych, które nie skorzystały, gdyż przekraczały kryteria
nakreślone w ustawie); technikach opartych na statystycznych grupach kontrolnych
(porównanie dwóch grup firm o tych samych charakterystykach, tej która skorzystała z
zachęt i tej, która nie skorzystała); strukturalnych modelach ekonometrycznych [OECD
IPP 2010].
Bibliografia
Bruno Van Pottelsberghe, Steve Nysten, Esmeralda Megally, Evaluation of current fiscal incentives for business R&D in Belgium, Solvay Business School, June, 2003.
Tax incentives for research and development: trends and issues, OECD 2002.
Lesław Wasilewski, Stefan Kwiatkowski, Jan Kozłowski, Nauka i Technika dla Rozwoju. Polska na tle Europy. Konteksty, miary, tendencje, Warszawa 1997.
An Evaluation of Research and Development Tax Credits
Expert Group on R&D Tax Incentives, Evaluation, Comparing Practices in R&D Tax Incentives Evaluation
Final Report, European Commission Directorate General – Research, Brussels October 31, 2008.
OECD IPP, R&D tax incentives: rationale, design, evaluation, November 2010.
CREST Evaluation and design of R&D tax incentives.
CREST Evaluation of tax incentives for R&D, an overview of issues and considerations.
OECD NESTI Measuring R&D tax incentives, NESTI meeting, Jan 2010
IMPACT FACTOR
„Impact factor (IF) – w tłumaczeniu „Miara oddziaływania” to wskaźnik prestiżu i siły
oddziaływania czasopism naukowych, ustalany corocznie na podstawie prowadzonego
przez koncern wydawniczy Thomson Reuters indeksu cytowań publikacji naukowych. IF
jest ustalane wg wzoru:
IF = B/C
279
gdzie
B – łączna lista cytowań, które nastąpiły w danym roku kalendarzowym;
C – liczba cytowalnych publikacji (zwykle nie są brane pod uwagę takie publikacje jak np. listy do redakcji), które ukazały się w danym czasopiśmie w ciągu
ostatnich dwóch lat.
Jeśli np.: chcemy obliczyć IF dla czasopisma X w roku 2002, to zliczamy wszystkie cytowania, które nastąpiły w roku 2002 wszystkich publikacji tego czasopisma z lat 20002001, a następnie dzielimy liczbę tych cytowań przez liczbę publikacji analizowanego
czasopisma, które ukazały się w nim w latach 2000-2001.”[Wikipedia]
Trzeba pamiętać, że wskaźnik IF jest tylko najbardziej popularnym, ale nie jedynym
wskaźnikiem mierzącym jakość i wpływ czasopism. W ostatnich latach jesteśmy świadkami rozkwitu nowych propozycji – zarówno w odniesieniu do baz Thomson-Reuters,
jak i Elsevier: 5-Year IF, Eigenfactor™, Article Influence™ Score, SJR, SNIP, Mean Normalised Journal Score MNJS, Total Normalised Journal Score TNJS itd. [Haustein 2010].
Bibliografia
Impact Factor, Wikipedia 2014
Stefanie Haustein, Multidimensional Journal Evaluation oraz Anthony F.J. van Raan i inni, The new set of
bibliometric indicators of CWTS, w: 11th International Conference on Science and Technology Indicators
“Creating Value for Users” 9-11 September 2010. Book of Abstracts;
http://info.scopus.com/journalmetrics/
METODY EWALUACJI B+R FINANSOWANYCH ZE ŹRÓDEŁ PUBLICZNYCH
Typ metod
Korzyści/silne strony
Wady/trudności/słabe strony
Sposób zastosowań/poziom
(mikro, meso, makro)/charakterystyki (ramy czasowe B+R, typy B+R, cel B+R)
Metody jakościowe
Peer review.
Panel
ekspertów.
W swojej najbardziej podstawowej formie metoda ta
polega na ocenie badań lub
propozycji dokonanej przez
zewnętrznych (czasem wewnętrznych) recenzentów
naukowych. Może ona służyć
wielu celom, podejmowaniu
decyzji, które wnioski grantowe otrzymają wsparcie lub
które badania nadają się do
publikacji w czasopiśmie
oraz dokonywaniu oceny
naukowca lub instytucji naukowej. Prosta do przepro-
Często przesadny nacisk na
aspekt jakości naukowej; oparte
na niewielu opiniach; zależne od
kryteriów kulturalnych, subiektywne; jedynie wyniki jakościowe; nie pozwalają na rozpoznanie
wielkich przełomów; w zespołach
dominują często autorytety; tradycyjne peer review często nie
bierze pod uwagę zagadnień
wpływu społecznogospodarczego. Kluczowy punkt
w peer review to dobór panelu
ekspertów. Panel może składać
się z ekspertów krajowych bądź z
Konieczne jasne sformułowanie pytań oraz procedur zbierania danych. Ocena ograniczona w zasadzie tylko do jakości badań. Ramy
czasowe ocenianych badań: przeszłość, stan bieżący, przyszłość.
Typy B+R: w zasadzie badania podstawowe. Prognozowanie technologiczne. Określanie luk technologicznych. Metoda trudna do zastosowania w stosunku do badań komercyjnych.
280
wadzenia; pozwala na próbę
oszacowania korzyści społecznych; tania; możliwy
wysoki poziom kompetencji;
wyniki być mogą usystematyzowane i monitorowane.
zagranicznych. Oba rozwiązania
mają swoje wady. Krajowe może
ulegać naciskom, zagraniczne –
pomijać swoistość krajowych potrzeb. Panele mogą być konserwatywne, tj. pomijać nowe idee,
oraz mogą być nastawione wąsko-dyscyplinowo, i pomijać
wkład ocenianego projektu lub
pracy do innych dyscyplin, mogą
wreszcie być ukierunkowane jedynie na problematykę naukową,
i pomijać użyteczność ocenianego
projektu w kontekście społecznogospodarczym.
Zmodyfikowany peer review
połączenie
tradycyjnego peer review z
oceną
wpływu
ekonomicznospołecznego.
Łatwy w organizacji; tani;
prawdopodobnie najlepsza
metoda dotycząca badań
podstawowych i strategicznych.
Oparty na opiniach wąskiego kręgu osób; oparty wyłącznie na informacjach jakościowych; wymaga obszernych informacji
Ocena nie tylko jakości badań. Ramy czasowe B+R: przeszłość, stan
bieżący, przyszłość. Typy B+R:
wszystkie.
Badania
ankietowe
(przeprowadzane
z
uczestnikami albo z
użytkownikami).
Badania zapewniają szeroki
przegląd aktualnego stanu
danego programu lub organizacji naukowej i są szeroko stosowane. Badania mogą
być stosowane on-line, za
pośrednictwem poczty lub
telefonicznie. Prostota. Wiele opinii zebranych razem;
otwarte pytania generują
nowe i interesujące punkty
widzenia; dobre jako podstawa wskaźników ilościowych; dobre jako element
oceny studiów przypadku.
Szeroka liczba respondentów; porównywalne odpowiedzi; możliwość budowy
wskaźników ilościowych.
Badania ankietowe dostarczają
raczej wiedzy szerokiej niż głębokiej. Nie zaspakajają potrzeby
twardych danych ilościowych.
Układ pytań i interpretacja odpowiedzi może zniekształcić wyniki; respondenci mogą być
skłonni pokazywać bardziej korzystny obraz, gdyż ewaluacja
może wpłynąć na finansowanie
ich przyszłych badań. Metoda ankietowa może wymagać późniejszych wywiadów w celu pełnego
zrozumienia odpowiedzi; budowa
kwestionariusza i jego analiza
mogą być trudne.
Ocena uczestnika dotycząca wpływu projektów B+R finansowanych
ze źródeł publicznych na różne
wymiary działalności organizacji.
Ramy czasowe B+R: przeszłość i
stan bieżący. Zazwyczaj na poziomie projektu. Prognozowanie technologiczne. Określanie luk technologicznych. Element decyzyjny w
polityce rządowej. Kontrola jakości
zarządzania projektem.
Wizyty w
terenie (site
Wizyty w terenie stosuje się
aby dać oceniającym możliwość interakcji z przedsta-
281
visits)
wicielami ocenianej instytucji. Zwykle składają się one
ze spotkań z udziałem panelu ekspertów i przedstawicieli instytucji. Daje to ewaluatorom możliwość kontaktu się z wieloma zainteresowanymi stronami. Wizyty
terenowe są najbardziej odpowiednie
w
ewaluacji
kształcącej (ang. formative
evaluation), gdyż stwarzają
możliwość rozumienia kontekstu. Nie ma stałych zasad
wizyt w terenie, ale na ogół
składają się one z serii spotkań z zainteresowanymi
stronami,
indywidualnie
oraz w grupach. Zwykle po
spotkaniach organizuje się
sesje, w których członkowie
zespołu oceniającego dyskutują z zainteresowanymi
swoje ustalenia i wnioski. Na
ogół wizyty w terenie poprzedza się wstępnym raportem, tzw. raportem samooceny, przygotowanym
przez ocenianą instytucję.
Wizytę kończy sprawozdanie końcowe, sporządzone
przez ekspertów.
Studium
przypadku
(case study)
Prawdopodobnie najbardziej użyteczna metoda oceny głębszych powiązań pomiędzy B+R a jej efektami
społecznymi i gospodarczymi. Pozwala na odkrycie
krytycznych momentów decydujących o sukcesie lub
porażce projektu. Pozwala
na opis realizacji projektu w
całym jego skomplikowaniu.
Metoda może być dobrą ilustracją powiązań pomiędzy
B+R a jego wpływem, może
pokazywać, dlaczego B+R
wywiera wpływ i dzięki jakim czynnikom. Bogactwo
informacji. Metoda użyteczna w sytuacjach, w któ-
Stosunkowo mało użyteczna dla
wyciągania konkretnych wniosków. Tylko ex-post. Wyniki
trudno uogólnić (a zatem, uznać
za ogólna zasadę). Często wyniki
nie mogą być ekstrapolowane na
projekty B+R spoza badanej grupy. Kosztowna, pracochłonna,
mniej użyteczna, gdy w grę
wchodzi wiele projektów. Jak i
wiele innych technik, studium
przypadku nie jest wolne od subiektywizmu. Brak rygoru. Trudna pod względem uogólnień. Bardzo zależna od umiejętności i
kompetencji ewaluatora. Brak
metod wskazujących na przyczynowość. Czasochłonna i kosztowna. Trudna do stosowania w
Element decyzyjny w polityce rządowej. Dotyczy badań stosowanych
i stanu z przeszłości. Poziom projektu, firmy, organizacji, innowacji.
Zwykle studia przypadku są realizowane na podstawie jasno sformułowanego planu. Często łączone
z innymi metodami, jak analiza
kosztu i korzyści. Zastosowanie:
prognozowanie technologiczne.
Określanie luk technologicznych.
282
rych brak przekonywującej
teorii lub w których nie ma
zdefiniowanych zmiennych.
Użyteczna też dla samych
badaczy (walor kształcenia).
Daje możliwość dostępu do
szczegółów i kontekstu. Lepiej niż wiele innych techniki radzi sobie z niejednorodnymi i nie rutynowymi
zachowaniami lub okolicznościami.
rutynowym monitoringu. Generuje niewiele informacji ilościowych.
Analiza dokumentów
W ewaluacji badań dokumenty
istotne to m.in. strategie badawcze
i polityczne, projekty badawcze, recenzje z poprzednich badań, najważniejsze publikacje wynikłe z
badań, sprawozdania końcowe, raporty roczne agencji, komentarze i
opinie w mediach. Analiza dokumentów to często pierwszy etap
ewaluacji.
Prognozowanie
technologiczne
Bierze pod uwagę czynniki
społeczne.
Grupy focusowe
Badają temat na dogłębnie w
formie debaty grupowej. Metoda szybka i niezawodna,
skuteczny sposób na uzyskanie szerokiego zakresu i
dogłębnych informacji w
krótkim czasie, źródło podstawowych informacji o programach.
Trzy główne metody to: analiza
scenariuszy; matryce wpływu
krzyżowego oraz analiza morfologiczna. Ta ostatnia metoda łączy
metody oceny z technikami twórczości.
Nieraz trudno analizować odpowiedzi, potrzeba dobrego moderatora, czasem trudno zebrać 6-8
osób razem.
Metody semi-ilościowe
Bibliometria
(liczba publikacji i cytowań; analiza
współ-cytowań; analiza
współwystę-
Dane
bibliometryczne,
zwłaszcza pochodzące z
indeksów cytowań, mają
charakter
międzynarodowy i międzydyscyplinarny.
Są
powszechnie stosowane dla
oceny programów. Mogą
Publikacje w czasopismach nie są
jedynym środkiem komunikacji
naukowej; przekaz ustny (np. w
czasie konferencji), elektroniczny
(lista dyskusyjna, czasopisma elektroniczne, tzw. elektroniczne archiwum) czy w formie tzw. szarej
literatury umyka pomiarom. Po-
Bibliometria to nazwa określająca
dyscyplinę naukową zajmującą
się pomiarem publikacji naukowych. W analizie bibliometrycznej wykorzystuje się dane ilościowe o autorach konkretnych
publikacji oraz samych publikacjach i zawartych w nich cytowa-
283
powania słów)
dotyczyć różnych tematów ewaluacji, w tym
wpływu badań i powiązań we współpracy, interdyscyplinarności badań. Ustalenia są łatwo
zrozumiałe.
Są
powszechnie dostępne: w
formie drukowanej, online, na dyskietkach lub
na CD-ROM-ach. Choć
wysoka liczba cytowań
nie zawsze jest wyrazem
wysokiej wartości konkretnej pracy, dane o cytowaniach naukowców i
zespołów
badawczych
wykazują wysoką korelację z opiniami ekspertów.
Połączenie informacji o
publikacjach oraz danych
o cytowaniach pozwala
na
tworzenie
wielu
wskaźników dotyczących
krajów, miast, dyscyplin
naukowych i pól badawczych.
Użyteczna
głównie w odniesieniu do
badań podstawowych.
nadto, artykuły nie są jedynym, a w
niektórych dyscyplinach nie są nawet najważniejszym rezultatem
badań; patenty, prototypy urządzeń czy ulepszenia technologii
mogą mieć znacznie większe znaczenie. Ponadto wyniki badań prowadzonych w laboratoriach wojskowych i przemysłowych publikowane są rzadko lub z opóźnieniem. Indeksy cytowań faworyzują
czasopisma w języku angielskim, a
zwłaszcza amerykańskie, alfabet
łaciński, państwa-centra nauki, takie jak Stany Zjednoczone, Wielka
Brytania lub Japonia. Ponadto,
uwzględniają one dyscypliny w
bardzo nierównym stopniu. Lepiej
badania podstawowe, gorzej - stosowane. Najlepiej - fizykę , chemię,
astronomię i farmakologię, gorzej nauki geologiczne, inżynieryjne,
matematyczne i (do pewnego stopnia) medycynę kliniczną; w naukach humanistycznych lepiej antropologię oraz językoznawstwo i
literaturoznawstwo ogólne (dyscypliny o orientacji międzynarodowej), gorzej - inne dziedziny
humanistyki. Publikacje w języku
angielskim cytowane są znacznie
częściej niż publikacje w innych językach. Praktyki cytowań różnią
się w zależności od dyscypliny.
Przeciętny okres cytowania prac
także różni się w zależności od
dyscypliny. Poziom cytowań zależy
nie tylko od języka i dyscypliny, ale
także i rodzaju publikacji. Prace
metodyczne cytowane są przeciętnie częściej niż prace teoretyczne.
Prace o charakterze przeglądu stanu badań cytuje się zamiast powoływania się na prace oryginalne.
Prace przełomowe są często cytowane z opóźnieniem (gdyż potrzeba czasu, by dostrzec ich oryginalność), a po pewnym czasie - gdy
odkrycia wchodzą do kanonu wiedzy - przestają być cytowane. Bibliometria premiuje uczonych o
niach. Dane te pozwalają na mierzenie wyników działalności
(output) poszczególnych osób/
zespołów badawczych, instytucji i
krajów, na identyfikowanie sieci
powiązań o zasięgu krajowym i
międzynarodowym oraz na odwzorowywanie rozwoju nowych
(multidyscyplinarnych) dziedzin
nauki i techniki. W bibliometrii
tworzy się wskaźniki określające
rozmiary, tematykę, charakter
(prace analityczne vs. syntetyczne; teoretyczne vs. eksperymentalne itp.), oddziaływanie oraz
powiązania pomiędzy autorami
(współautorstwo i współcytowanie) i tematami - produkcji naukowej krajów, miast, placówek
naukowych, autorów, dyscyplin i
pól badawczych. Wskaźniki można podzielić na wskaźniki zasobów i wskaźniki relacyjne. Do
pierwszej grupy należą m.in. liczba publikacji (wskaźnik produktywności),
liczba
cytowań
(wskaźnik wpływu publikacji, autora, instytucji), współautorstwo
artykułów (wskaźnik współpracy
na szczeblu krajowym lub międzynarodowym),
wskaźnik
wpływu (ogólna liczba cytowań
podzielona przez ogólną liczbę
publikacji dla danej dyscypliny),
efektywności (procent publikacji
cytowanych wśród ogółu publikacji). Do drugiej grupy - cytowania (stosowane jako wskaźnik
wzajemnego oddziaływania różnych wspólnot badawczych),
współcytowania (miara częstotliwości jednoczesnego cytowania
dwóch różnych prac w tym samym artykule, wskaźnik istnienia
sieci badawczych), współwystępowanie słów (miara częstotliwości jednoczesnego używania w
publikacjach z danego pola badań
dwóch słów kluczowych, wskaźnik zmian tematycznych w nauce). Literatura przedmiotu za-
284
dużym dorobku i dyskryminuje
młodych badaczy. Wciąż – pomimo
dwóch systemów identyfikacji autorów, ORCID i Reseacher Identification – istnieją problemy z rozróżnieniem badaczy.
wiera wiele zaleceń, jak poprawnie analizować dane bibliometryczne. Zwraca się więc uwagę,
że agregaty są znacznie lepsze niż
dane jednostkowe, szczebel analizy makro i mezo (ocena dyscypliny, krajów, uniwersytetów) pozwala na ogół na uzyskanie bardziej wiarygodnych wniosków niż
szczebel micro (ocena poszczególnych badaczy i zespołów). Ujęcia w szeregach czasowych, pokazujące trendy, są lepsze od przekrojów.
Metoda współwystępowania słów
(co-word analysis) oparta na zasadzie, że im bliżej dwa słowa są
obok siebie i im częściej współwystępują, tym silniejsze są powiązania, jakie między nimi zachodzą. Np. analiza oparta na
słowach kluczowych wykazała, że
aquaclulture to bardziej termin
biurokratyczny niż wyrażający
pole badań. Potencjalnie może
być wykorzystana dla ewaluacji
(ale jeszcze nie była). Np. do badania bliskości słów w artykułach
naukowych oraz ekonomicznych,
społecznych i innych, gdy mówią
one o czynnikach mających
wpływ na problematykę podejmowaną w tych polach.
Analiza patentów
Dostępność danych z
urzędów patentowych w
większości krajów świata, najczęściej w bardzo
długich seriach, a także
możliwość uchwycenia
zmian
zakresu
oraz
struktury
działalności
wynalazczej w krajach,
branżach, przedsiębiorstwach oraz technologiach. Uzyskanie ochrony
patentowej jest kosztowne i czasochłonne, co z
reguły eliminuje wynalazki, które nie wydają
się rokować nadziei na
Patenty niekoniecznie są owocem
B+R. Często stosowane są bez
związku z wprowadzanymi przez
firmę innowacjami. Prawo patentowe i procedury udzielania patentów nadal różnią się pomiędzy poszczególnymi krajami. Skłonność
do patentowania, zależna przede
wszystkim od jego znaczenia jako
bariery przeciwko imitacji oraz
środka zapobiegania patentowaniu
przez konkurencję podobnych wynalazków, różni się w zależności od
sektora przemysłu, wielkości firmy,
typu wynalazku i kraju. Wynalazki
nie są patentowane, gdy wyklucza
to miejscowe prawodawstwo (np.
Ocenia się, czy patent reprezentuje innowacje. Zasób patentów
musi być dostatecznie duży, aby
pozwalał na analizę. To zależy od
kontekstu. Np. pojedynczy patent
może być wystarczający do określenia, czy B+R spełniło swoje zadanie, ale nie wystarczający do
sporządzenia mapy technologicznej kraju.
285
przyszłe zyski. Patenty
chronią wynalazki z niemal każdej dziedziny
technologii
(głównym
wyjątkiem są oprogramowania,
chronione
prawem autorskim), stąd
są lepszym wskaźnikiem
w odniesieniu do technologii niż indeksy cytowań
- które uwzględniają dyscypliny naukowe w bardzo nierównym stopniu w stosunku do publikacji
naukowych. Ponadto patenty są klasyfikowane
wg bardziej szczegółowej
niż publikacje naukowe
klasyfikacji. Patenty są
dokumentami
publicznymi i jako takie zawierają informacje jednostkowe, które - w przeciwieństwie do większości
źródeł statystyki NiT nie podlegają zasadzie tajemnicy statystycznej.
dotyczy to nieraz biotechnologii),
gdy wynalazcę nie stać na opłacenie opłat patentowych względnie,
gdy spodziewane zyski nie są pewne. Często też wynalazki nie są patentowane z powodu konieczności
utrzymania tajemnicy istnienia lub
produkcji danego wyrobu (patent,
który jest ujawnieniem wynalazku,
często łatwo obejść lub też jego
ochrona nie zawsze jest skuteczna).
Wynalazek wynalazkowi nierówny.
Wynalazki często z trudem dają się
zakwalifikować do istniejących klas
wyrobów lub sektorów przemysłu.
Nie wszystkie patenty stają się innowacjami, nie wszystkie wynalazki są patentowane, nie wszystkie
wynalazki są patentowalne. W krajach słabiej rozwiniętych B+R na
rzecz przemysłu są bądź ukierunkowane na modernizację tradycyjnych branż, bądź też na monitoring,
adaptację i drobne ulepszenia obcych technologii. W obu wypadkach
wyniki badań nie są na ogół patentowane.
286
Analizy statystyczne N+T:
cząstkowe
wskaźniki
Zwyczajowo dotyczą
wkładu i rezultatów B+R,
innowacji, danych bibliometrycznych, patentów, bilansu płatniczego
technologii, wyrobów i
procesów wysokiej techniki, zaawansowanych
metod produkcyjnych,
zasobów ludzkich na
rzecz N+T. Łatwy pomiar.
Niski koszt; stosunkowo
łatwo zebrać informacje
konieczne dla określenia
wskaźników; prawdopodobnie najlepsza metoda
dla monitoringu.
Czysto opisowa. Nie bierze pod
uwagę pośrednich efektów. Metoda
dostarcza tylko bardzo cząstkowego obrazu sytuacji i powinna być
łączona z innymi metodami. W
miarę rozwoju statystyki N+T i jej
zastosowań wzrasta wiedza o jej
zaletach i ograniczeniach. Każdy
wskaźnik chwyta tylko jeden
aspekt badanego zjawiska. Wskaźniki wkładu nie powiedzą niczego o
wynikach, wskaźniki publikacji nie informują o pracach badawczych, których owocem są ekspertyzy, wskaźniki patentowe nie mówią niczego o innowacjach w dziedzinach, w których wynalazki nie
są patentowane. Pomimo wieloletnich zabiegów standaryzacyjnych
poszczególne kraje stosują różne
definicje i techniki gromadzenia
danych, co ogranicza możliwości
porównań międzynarodowych.
Wskaźniki statystyczne są ze swej
natury uwikłane w pewne założenia teoretyczne. Założenia te przesądzają, jakie dane się zbiera, jakie
kategorie i klasyfikacje stosuje i jakie relacje pomiędzy danymi bada.
Wskaźniki N+T lepiej mierzą zorganizowaną pracę badawczą prowadzoną systematycznie w instytucjach naukowych od - nieraz
wieńczonej większym sukcesem
ekonomicznym - działalności badawczej i inżynierskiej, podejmowanej często doraźnie i w sposób
nieformalny w przedsiębiorstwach
przemysłowych. Ponadto, lepiej
mierzą wiedzę skodyfikowaną od
wiedzy nieskodyfikowanej, specyficznej dla danej branży, technologii i firmy. Wreszcie, wskaźniki N+T
odnoszą się zazwyczaj do szczebla
krajowego, wskutek czego pomijają
ważne branżowe i regionalne zróżnicowania B+R i działalności innowacyjnej. Wskaźniki branżowe nie
ujawniają różnic pomiędzy firmami. Wskaźniki B+R należy interpretować ze szczególną ostrożnością
Pomiar efektywności wkładu
B+R na poziomie makro. Analiza
zmian systemu N+T. Ocena
wpływu N+T na gospodarkę.
Przeszłość i stan bieżący (w
ograniczonym zakresie przyszłość). Wszystkie typy badań.
Dane i wskaźniki statystyczne
pozwalają zmniejszyć obszar niepewności związanej z podejmowaniem decyzji. Dostarczają one
decydentom informacji mówiących: co się dzieje z zasobami,
którymi zarządzają, i co powstaje
w efekcie działań, którymi kierują? w jakiej mierze działania te
osiągają zakładane cele? co się
dzieje w obszarach gospodarki/społeczeństwa/technologii
związanych z ich działalnością?
co prawdopodobnie wydarzy się
w ich dziedzinie w przyszłości?
287
gdy dotyczą one państw słabiej
rozwiniętych. Wskaźniki ilościowe
kładą zbytni nacisk na znaczenie
indywidualnych typów aktywów
(np. patentów, nowych i zmodernizowanych wyrobów itd.). Sytuację
w krajach Europy ŚrodkowoWschodniej charakteryzuje jednak
brak równowagi aktywów. Aktywa,
które są w obfitości, nie mogą być
eksploatowane z powodu braku aktywów uzupełniających.
Analizy statystyczne N+T:
wskaźniki zintegrowane
Podobna do poprzedniej
metody, polega na `sumowaniu` wskaźników
cząstkowych. Niski koszt;
łatwy lecz usystematyzowany sposób określenia priorytetów badawczych; zmusza decydentów do otwartego i jednoznacznego określenie
kluczowych determinantów wpływu.
Całkowicie opiera się na osądzie
(zwykle kilku) jednostek; możliwe
odchylenia w przypisywaniu wag
różnym kryteriom; wyniki nie zawsze dają się obronić i są często
ignorowane przez decydentów.
Element decyzyjny w polityce
rządowej; dotyczy badań stosowanych oraz w zasadzie stany
przyszłego.
Wskaźniki wykonania (performance indicators)
Dostarcza operacyjnych
charakterystyk, takich
jak skuteczność menedżerska. Z reguły część
monitoringu. Dobra dla
badań porównawczych.
Prosta i tania. Dyscyplinuje myślenie przez żądanie mierzalnych celów
i właściwych wskaźników przed rozpoczęciem
realizacji projektu.
Zbyt upraszcza. Nie bierze pod
uwagę niespodziewanych wyników, które mogą być cenniejsze od
tych oczekiwanych. Lepsza dla badań stosowanych. Subiektywizm
wag przypisywanych kryteriom.
Pomija informacje jakościowe oraz
powiązania.
Wskaźniki wykonania (performance indicators) to mierzalne,
obiektywne i weryfikowalne charakterystyki produktów, procesów i operacji, służące organizacjom do oceny działalności. Często służą jako podstawa wyznaczania kwantyfikowanych celów,
które mogą być wykorzystane dla
pomiaru sukcesu lub porażek
programów.
Eksploracja
danych
Eksploracja danych to
zmechanizowany proces
pozyskiwania danych z
istniejących baz danych
(w szczególności >Bazy
danych o produktach,
efektach i wpływie badań) w sposób, który pozwala na wydobycie z
danych użytecznych in-
Wartość informacji uzyskanych z
danych zależy od kompletności i
wartości baz danych. Źródłem błędów mogą też być wady algorytmów.
Eksploracja danych może być solidnym i całościowym sposobem,
aby zebrać informacje na temat
wyników i wpływu badań. Obecnie eksploracja danych dla ewaluacji badań jest zwykle stosowana w połączeniu z metodami bibliometrycznymi celem wiązania
publikacji i ich cytowań z finansowaniem badań lub dotacji z
288
Wizualizacja
danych
formacji. Metoda wykorzystuje algorytmy celem
znalezienia korelacji lub
wzorów w ramach dużych ilości danych w powiązanych ze sobą bazach danych oraz metody
wizualizacji dla unaocznienia ustaleń. Eksploracja danych pozwala na
analizę złożonych i niezorganizowanych danych
oraz na wydobywanie informacji z danych, które
inaczej nie byłyby zrozumiałe.
produktami badań. Zaleca się stosowanie jej z badaniami ankietowymi i studiami przypadku.
Wizualizacja danych wykorzystuje zdolności ludzi do przetwarzania informacji i wydobywania
informacji i wiedzy przez
reprezentacje wizualne.
Jest to narzędzie do
uproszczania danych: polega ono na pobraniu dużej ilości danych i przedstawianiu ich w formie
wizualnej dla ich zrozumienia i interpretacji.
Narzędzia wizualizacyjne
stają się coraz bardziej
popularne ze względu na
coraz większą ilość dostępnych do analizy danych. Wizualizacja danych często używa się w
połączeniu z eksploracją
danych, podczas gdy eksploracja danych odnosi
się do procesów identyfikacji wzorców, wizualizacja może być środkiem
do prezentacji tych wzorców. Wizualizację można
także stosować zamiast
zautomatyzowanych metod analitycznych, np.
przez
przedstawienie
tych danych w sposób,
który pozwala na ich in-
Wizualizacja danych dla polityki
naukowej jest wykorzystywana w
dziedzinie bibliometrii (mapy
współpracy, mapy współcytowań,
mapy powiązań słów kluczowych
itp.).
289
terpretację.
Metody ilościowe
Analiza kosztu
i
korzyści
(cost-benefit
analysis).
Analiza kosztu i efektu
jest użyteczna do oceny
efektów społecznych i
gospodarczych. Wartość
jej polega na przejrzystości i porównywaniu alternatyw. Dostarcza rozsądnych i możliwych do
obrony szacunków potencjalnych korzyści; dostarcza usystematyzowanych ram dla oceny projektów B+R, co zmusza
do stawiania istotnych
pytań. Najlepiej użyć jej
dla odpowiedzi na pytanie, czy korzyści z programu lub polityki przekraczają koszty w wartości pieniężnej.
Pomija aspekty strategiczne, kładzie nacisk na czynniki ekonomiczne. Metoda nie jest w stanie
pokazać nie-mierzalnych efektów, które mogą być istotniejsze.
Nie jest w stanie obliczać efektów
zewnętrznych, ubocznych lub też
„odpryskowych”, a te mogą być
szczególnie
istotne.
Pomija
wpływ długofalowy. Metoda jest
czaso-, praco- oraz kosztochłonna, a zatem może być stosowana
jedynie w stosunku do ograniczonej liczby projektów; wyniki w
wysokim stopniu zależą od założeń, które mogą być bardzo niepewne. Stosunkowo łatwo wycenić koszty bezpośrednie, takie
jak personel, materiały i wyposażenie. Koszty pośrednie, takie jak
koszty ogólne, koszty ponoszone
przez innych dostawców wspierających program oraz koszty dla
uczestników) oszacować znacznie
trudniej. Czasem wchodzą też w
grę koszty niewymierne, które
skalkulować najtrudniej.
Dotyczy tylko badań stosowanych i
w zasadzie stanu z przeszłości.
Wydatki na B+R traktowane są jako
inwestycja oceniana w stosunku do
alternatywnych możliwości wydatkowania pieniędzy i uzyskania z
nich zysku. Bierze się pod uwagę
trzy elementy wydatków: bezpośrednie wydatki na B+R, praktyczne koszty wykorzystania (utilisation costs) oraz koszt własne poniesione w związku z zastosowaniem wyników przez użytkowników końcowych. Po stronie korzyści, bierze się pod uwagę wartość nowych lub lepszych produktów, oraz procedury i systemy wynikające z projektu B+R za cenę, jaką społeczeństwo jest przygotowane do zapłacenia. Jeśli nawet nie
sposób ocenić wartości pośrednich
efektów, ważne jest, aby je umieć
określić. Im bliżej badań podstawowych, tym trudniej o ocenę.
Ewaluator powinien wyraźnie wyłuszczyć zasady obliczeń.
Analiza opłacalności (costeffectiveness
analysis)
Analiza efektywności kosztów porównuje rezultaty i efekty alternatywnych polityk ukierunkowanych
na osiągnięcie tego samego celu.
Szacuje ona oczekiwane koszty
oraz rezultaty i efekty polityk.
Analiza kosztów i użyteczności
(Costutility analysis)
Analiza kosztów i użyteczności porównuje koszty i korzyści alternatywnych polityk lub programów,
aby pomóc decydentom określić
ich wartość poprzez odniesienie do
normy zewnętrznej (zwykle ustalonej w budżecie). Mimo podobieństw do analizy opłacalności
analiza kosztów-użyteczności jest
różna i ma szersze zastosowanie.
290
Metody finansowe
Metoda Wartości Bieżącej Netto (Net Present Value) jest szczególnie odpowiednia dla oceny projektów długoterminowych. Pozwala na wzięcie
pod uwagę takich kwestii, jak koszt kapitału,
stopa zwrotu i zysk z realizacji alternatywnych
projektów.
Opcjonalna
wycena
(Optional pricing)
Metody punktacji (scoring
methods)
Bogactwo informacji. Racjonalizuje i ułatwia wybór opcji. Łatwa, nie wymaga szczególnie wysokich kwalifikacji. Dobra
dla
systematyzacji
i
uproszczenia
decyzji.
Umożliwia
szerokie
udział zainteresowanych.
Najlepsza dla porównania podobnych propo-
Metoda Wartości Bieżącej Netto
prezentuje wąski punkt widzenia.
Bierze pod uwagę jedynie przepływy gotówki. Bardzo wrażliwa
na wysokość stopy procentowej.
Wewnętrzna stopa zwrotu (Internal Rate of Return), analiza zwrotu
z inwestycji (Return on Investment)
i Wartość Bieżąca Netto - obecna
wartość przyszłych wpływów gotówki netto minus obecna wartość
wypływów gotówki netto. Jak i inne metody finansowe, odpowiednie
jedynie dla oceny projektów innowacyjnych.
Trudność uzyskania adekwatnych
danych.
Analiza zapożyczona z rynku instrumentów finansowych, rzadko
dla oceny inwestycji w B+R, gdzie
wielu wielkości nie da się ująć numerycznie. Wymaga wysokich kwalifikacji statystycznych i finansowych. Wydatki na B+R traktowane
są jako opcja. Opcja to prawo, ale
nie obowiązek, zakupu akcji po
pewnej, ustalonej cenie. „Jeżeli cena
akcji na giełdzie jest wyższa od tej,
na którą opiewa opcja, właściciel
realizuje opcje. W przeciwnym wypadku opcja pozostaje niezrealizowana. Początkowa inwestycja w
prace badawcze daje prawo (np. w
wypadku dobrych wyników), ale
nie obowiązek kontynuacji badań.
Podobnie jak w wypadku opcji istnieją szanse na duży zysk, podczas
gdy rozmiary strat są ograniczone
do początkowo zainwestowanej
sumy.” Organizacja „kalkuluje wartość takiej opcji inwestycyjnej w
oparciu o przeszłe doświadczenia
oraz czas trwania projektu badawczego.”
Trudności z zebraniem informacji. Subiektywizm. Mało korzystna
dla szacowania zwrotu ekonomicznego. Cierpi na subiektywizm. Układ kryteriów bywa niespójny. Szczególnie ważny jest
sposób, jak ocenia się rangi się i w
jaki sposób wykorzystuje się wyniki dla wspierania decyzji.
Selekcja projektów. Multikryterialna interpretacja. Pokazuje powiązania pomiędzy projektami badawczymi, technologią i gospodarką
Zazwyczaj oparta na matrycach i
podejściu systemowym. Polega na
ocenianiu listy projektów wg listy
ustalonych kryteriów zawierających wagi. Często stosowane są
odmiany metody takie jak rangowanie matrycowe (porównujące
291
zycji. Rezultaty przejrzyste i łatwe do zrozumienia. Stosowana do
oceny złożonych problemów, rozwiązań i priorytetów.
parami obiekty lub kryteria we
wszelkich możliwych kombinacjach dla ustalenia preferencji).
Modele
ekonometryczne
Dane przejrzyste i możliwe do zweryfikowania.
Metoda pozwala na porównywanie projektów.
Wąska perspektywa. Uwzględnia
jedynie ekonomiczny wymiar
B+R. Z trudem pozwala na
uwzględnienie efektów długofalowych. Kosztowna. Trudno wydzielić B+R z innych czynników.
Rządowe programy B+R wspierają często B+R które nie przekłada
się na bezpośrednie efekty ekonomiczne (takie jak zysk lub
sprzedaż); Trudno uzyskać dane
na poziomie firm; efekty zewnętrzne (externalities) nie są ujmowane w modelach ekonometrycznych. Budowa modelu pochłania wiele czasu. Budowa małego modelu zabiera rok, a jego
użyteczność jest często ograniczona do pewnych tylko zmiennych. Budowa dużego modelu
wymaga pracy kilku osób i zabiera kilka lat. Prócz tego, model
wymaga stałej aktualizacji. Z tego
to powodu rzadko tworzy się je
dla jednej tylko ewaluacji. Zazwyczaj dla ewaluacji korzysta się z
istniejących modeli, po ich
uprzedniej adaptacji i rozszerzeniu.
Technometria
Uznawana za narzędzie
dla rozwiązywania praktycznych problemów, jak
analiza luki technologicznej oraz identyfikacja
procesów technologicznych wymagających modernizacji. Stosowana też
dla określenia tematów
programów badawczych
i w ewaluacji ex-ante.
Ma swoje ograniczenia. Może być
stosowana tylko w niektórych
branżach i tylko wewnątrz branż,
a nie w poprzek nich. Stosowana
jako narzędzie dodatkowe, ale nie
jako zasadnicze. Najlepsza dla
badania luki technologicznej.
Makro oraz analizy na poziomie
firm. Nacisk na społeczne korzyści.
Oparte na regresjach, uwikłane w
założenia teoretyczne. Stosowanie
ich zakłada zebranie danych dotyczących produkcji, wkładu, cen,
wydatków na B+R, wzrostu produktywności. W coraz większym
stopniu oparte na funkcji produkcji
Cobb-Douglass`a. Choć dyskusyjne,
są jednak stosowane w ewaluacjach (ale tylko ex post). Projektowanie modeli wymaga wysokich
kwalifikacji, nie tylko w dziedzinie
teorii ekonomicznej, lecz także w
ekonomikach stosowanych (rozumienie hipotez leżących u podstaw
modelu, przekład pojęć teoretycznych na terminy empiryczne, identyfikacja właściwych zmiennych),
ekonometrii (procedury szacowania, kalibracja modelu, symulacje...), oraz budowy baz danych
(źródła danych, zbieranie, przekształcanie danych, wiedza o ich
ograniczeniach, analiza danych).
Dobrze przygotowany i skalibrowany model na potrzeby ewaluacji
pozwala na tworzenie symulacyjnego scenariusza z oraz bez interwencji publicznej. Różnica pomiędzy wpływem interwencji publicznej a jej brakiem daje pogląd
na wpływ interwencji. Warunki dla
zastosowania metodologii to dostępność wielkiej bazy danych statystycznych, wysoki stopień kompetencji, wystarczająca ilość czasu.
Stosunkowo młoda metoda specjalnie opracowana w celu analizy
fazy przemysłowej innowacji. Korzysta ze wskaźników efektów
opartych na technicznych specyfikacjach produktów i procesów.
Wybór wskaźników przeprowadza
się na dzięki konsultacji literatury
przedmiotu oraz ekspertów dziedzinowych.
292
Bibliografia
Amir Piric i Neville Reeve, Evaluation of public investment in R&D – towards a contingency analysis w: Policy evaluation in innovation and technology. Towards best practices, 1997 OECD.
Archibugi D., M. Pianta, Measuring Technological Change Through Patents And Innovation Surveys, „Technovation” 16(9) 1996.
Australian Science. Performance from published papers, Bureau of Industry Economics, Report 96/3, January 1996.
Barrè R., P. Papon, Indicators: Purpose and Limitations w: World Science Report 1993, UNESCO, Paris 1993,
s. 136.
Basberg B. L., Patents and the Measurement of Technological Change: A survey of the Literature, „Research
Policy” 16 (1987).
Danish Agency for Science, Technology and Innovation, Hanne Foss Hansen, Research Evaluation: Methods,
Practice, and Experience Research: Analysis and Evaluation 1/2009.
David Roessner, Quantitative and qualitative methods and measures in the evaluation of research, “Research evaluation” vol. 8, no. 2, August 2000.
Douglas Williams and A. Dennis Rank, Measuring the economic benefits of research and development: the
current state of the art, “Research Evaluation” vol. 7 nr 1, April 1998.
H. Capron¸ Economic quantitative methods for the evaluation of the impact of R&D programmes, MonitorSpear Programme, 1992.
James Edwin Kee, At what price? Benefit-Cost Analysis and Cost-Effectiveness Analysis in Program Evaluation, “The Evaluation Exchange”, Internet.
Ken Guy, Beyond Socio-economic Impact Evaluation: The challenge for the next millennium, w: Socioeconomic Impact Evaluation Workshop, Helsinki 26-27 November 1999, Helsinki 2000.
Maria Papadakis, Patents and the evaluation of R&D w: Evaluating R&D impacts: methods and practice. Ed.
by Barry Bozeman and Julia Melkers.
Michał Jerzmanowski, Prace badawcze – szansą dla firm, „Bit Życie”, dodatek do „Życia Warszawy” 31 7
1995.
Patel P. and K. Pavitt, Patterns of Technological Activity: Their Measurement and Interpretation w: Handbook of the Economics of Innovation and Technological Change, ed. by P. Stoneman, Oxford 1995.
PREST Smart specialization. Practical Guide to Evaluating Innovation Programmes 2006.
Radosevic S., What S&T Indicators Can Tell Us About Transformation and Growth in Countries of Central and
Eastern Europe?, NATO Advanced Workshop Quantitative Studies for Science and Technology Policy in
Transition Countries, Moscow, October 23-25 1997, mszp..
RAND Europe, Measuring research A guide to research evaluation frameworks and tools, July 2013
Ronald N. Kostoff, Co-word analysis, w: Evaluating R&D impacts: methods and practice. Ed. by Barry Bozeman and Julia Melkers.
Ronald N. Kostoff, The Under-Reporting of Research Impact, “The Scientist” September 14, 1998, s. 9.
Steen J.C.G. van, The Role of Science and Technology Indicators in Science Policy: Do They Really Matter? w:
Abstracts. Fourth International Conference on Science & Technology Indicators. Performance at the National,
Regional an Institutional Level, Antwerp, Belgium, October 5-7, 1995, s. 9-14.
Supporting the monitoring and evaluation of innovation programmes 2006.
293
Tamás Balogh, From peer review to portfolio analysis. Evaluation of applied research and development,
mszp..
Technology and the Economy. The Key Relationships, OECD, Paris 1992.
Technopolis, International review of methods to measure relative effectiveness of technology policy instruments 2001.
Welljams-Dorof A., Quantitative Citation Data As Indicators In Science Evaluations: A Primer On Their Apppriate Use w: Evaluating Science And Scientists. An East-West Dialogue On Research Evaluation In PostCommunist Europe, ed. by M.S. Frankel, J. Cave, Budapest 1997, s. 202-211.
METODY STOSOWANE W EWALUACJI INSTYTUCJONALNEJ
Por. też >EWALUACJA INSTYTUCJI PUBLICZNEGO SEKTORA NAUKI OPARTA NA POMIARZE DOKONAŃ; >ORGANIZACJA EWALUACJI INSTYTUCJONALNEJ; >FAZY EWALUACJI INSTYTUCJONALNEJ; >METODY STOSOWANE W EWALUACJI INSTYTUCJONALNEJ;
>PYTANIA I KRYTERIA W EWALUACJI INSTYTUCJONALNEJ.
Ewaluacja instytucji z reguły łączy w sobie dwa podejścia: analizę wskaźników dokonań,
najczęściej sumowanych w jeden indeks (wskaźnik złożony, syntetyczny) z ewaluacją
panelu ekspertów, korzystającą z takich metod, jak badania ankietowe, analiza dokumentów (np. raportów rocznych instytutów), wizyty terenowe, indywidualne lub grupowe
wywiady z badaczami, administratorami i klientami. Stosunek pomiędzy oboma podejściami bywa różny – albo ocena ekspertów jest włączona do wskaźnika złożonego jako
jeden z jej elementów, albo też (częściej) ostateczny werdykt należy do ewaluatorów,
którzy obok wizytacji i innych metod biorą pod uwagę wyniki wskaźników dokonań.
Panel ekspertów. Panel ekspertów – to ocena dokonywana przez zespół badaczy (lub
także przedstawicieli praktyki) na zlecenie ministerstwa lub agencji finansującej badania dotycząca badań naukowych przeprowadzonych w ramach instytucji, programu lub
dyscypliny. Ewaluację panelu ekspertów można uznać za rezultat połączenia tradycyjnego >PEER REVIEW (poziom mikro) z oceną polityki publicznej. W przeciwieństwie do
tradycyjnego peer review, które ma na celu ocenę badań na poziomie mikro (artykuły,
wnioski lub wnioskodawcy), ewaluacja panelu ekspertów jest przeprowadzana na poziomie mezo (instytucji, programu lub dyscypliny) oraz makro (krajowym) [Langfeld
2002].
Liv Langfeldt następująco przedstawia różnice pomiędzy tradycyjnym peer review a peer
review zmodyfikowanym, wykorzystywanym w ewaluacji panelu ekspertów:
Poziomie mikro w porównaniu z poziomem makro oceny badań
Przedmiot oceny
Poziom mikro (peer review)
Poziom makro-i mezo-poziom (ocena
zespołu ekspertów)
Jeden badacz, jeden rękopis lub jeden
wniosek oceniany oddzielnie lub rangowany.
Jedno (lub więcej) pole badań, instytucja lub program
294
Dobra dzielone
przez ewaluatorów
Rzadkie / o sumie zerowej
Dobra nieograniczone brak jasności,
jakie dobra są dystrybuowane
Obszar decyzji
Wewnątrz naukowe
Zewnętrzne w stosunku do nauki
Raporty publiczne
Rzadko upubliczniane
Z reguły upubliczniane
Anonimowość
ewaluatorów
Najczęściej anonimowe, a w ocenie wniosków propozycji badawczych anonimowe
oceny e-mailowe, i/lub nie-anonimowe
oceny paneli.
Ewaluatorzy piszą jeden wspólny, z
reguły upubliczniany raport
Langfeld 2002
Główne cechy ewaluacji panelu ekspertów (w przeciwieństwie do tradycyjnego peerreview)
•
•
•
•
Szczebel (makro-i mezo, a nie micro, nie część procesu badawczego, tylko element procesu
decyzyjnego w polityce naukowej)
Brak anonimowości, typowej dla klasycznego peer review
Inne podstawy oceny oraz pojęcie tego, czym jest wartościowe badania.
Badania jakościowe w ewaluacji instytucji naukowych, dyscyplin i programów korzystają na
ogół z następujących metod: 1) wywiadów indywidualnych i grupowych z pracownikami,
menedżerami, partnerami oraz użytkownikami i klientami, 2) analizy dokumentów pisanych, w tym raportów rocznych, planów strategicznych, dzienników badań i zapisów realizacji programu, informacji o zasobach i finansach, czasami także osobnych opracowań biblio
metrycznych, 3) badań ankietowych, 4) bezpośredniej obserwacji, 5) studiów przypadku.
Ewaluatorzy przeprowadzają wizytację celem dokonania bezpośredniej obserwacji programu działania oraz (czasami, ale z reguły podczas ewaluacji programów i projektów, a nie
dyscyplin i instytucji) osobiście na krótko włączają się do badań w ramach „obserwacji
uczestniczącej”. Rozmawiają z pracownikami na temat ich doświadczeń i poglądów. Zapisy
tych wywiadów, obserwacji i dokumentów porządkują wg głównych tematów, kategorii i
przykładów podczas analizy treści, a następnie przedstawiają w raporcie.
Typowe ewaluacyjne sprawozdanie zawiera:
• Szczegółowy opis pracy w ramach instytucji, dyscypliny lub programu,
• Analizę głównych prac,
• Opis uczestników i rodzajów ich udziału w pracach,
• Opis zmian organizacyjnych (jeśli zaszły), produktów, efektów i wpływu,
• Analizę mocnych i słabych stron instytucji, dyscypliny lub programu zgłoszonych przez
respondentów (np. uczestników, pracowników, podmioty finansujące) lub ewaluatorów.
Badania jakościowe są często wykorzystywane w celach ewaluacji, zwłaszcza polityk i
programów, gdyż potrafią efektywniej i skuteczniej niż metod ilościowe odpowiedzieć
na ważne pytania, takie np. jakie wyniki osiągnięto, jak i dlaczego, jakie mają one wartość i znaczenie, jakie pociągają za sobą zamierzone i niezamierzone skutki i jaki mają
wpływ. Czy oczekiwania były racjonalne? Czy działania przebiegały zgodnie z oczekiwaniami? Czy wykonawcy byli w stanie realizować swoje zadania? Podejście jakościowe
295
ma tę przewagę nad ilościowym, że pozwala na większą różnorodność odpowiedzi, a
także jest bardziej elastyczne, łatwiej daje się dostosować do nowych sytuacji i problemów w trakcie badania [Wikipedia].
•
Wywiad polega na zadawaniu badanym przez ankietera mniej lub bardziej
sformalizowanych pytań. W socjologii wyróżnić można kilka typów wywiadów, np.
wywiad swobodny i wywiad kwestionariuszowy [Wikipedia].
•
Zogniskowany wywiad grupowy (grupa fokusowa, dyskusja grupowa, popularnie fokus,
ang. focus group interview) - metoda badawcza polegająca na prowadzonej przez moderatora
dyskusji zaproszonych wcześniej respondentów, dobranych zgodnie z kryteriami wynikającymi z celów projektu. Grupa dyskusyjna liczy 6 - 8 osób, dawniej (do końca lat osiemdziesiątych) preferowano grupy większe, od 8 do 12 osób. Jedna sesja trwa zwykle około 2 godzin [Wikipedia].
Studium przypadku to szczegółowe badanie jednej osoby, grupy, instytucji, programu lub
zdarzenia. Zamiast stosować ściśle określone reguły i badać ograniczoną liczbę zmiennych,
jak w badaniach ilościowych, metoda ta polega na dogłębnym badaniu jednego przypadku.
Dzięki zgromadzeniu danych, ich analizie i systematyczności spojrzenia badacz może uzyskać znacznie głębszy wgląd w badany przedmiot niż stosując inne metody [Wikipedia].
•
•
Badania ankietowe to najbardziej popularny sposób uzyskiwania informacji od
specjalnie dobranej reprezentacji respondentów. Dla ustalenia badanej populacji
respondentów stosuje się dobór losowy, gdy niewielka jest ich liczba i nieznana ich
struktura, dobór losowy systematyczny, gdy dostępna jest lista całej populacji oraz
dobór losowy warstwowy dla uzyskania bardziej dokładnych wyników
charakteryzujących badanych [Wikipedia].
•
Obserwacja uczestnicząca polega na wejściu badacza w określone środowisko społeczne i
obserwowaniu danej zbiorowości od wewnątrz tj. jako jeden z jej członków, uczestniczący
wraz z nią w codziennym życiu [Wikipedia].
Analiza treści służy w naukach społecznych do badania zawartości komunikacji. Najczęściej
stosuje się ją dla analizy zarejestrowanych zapisów wywiadów. Metody analizy treści pozwalają badaczowi na dostęp do dużej ilości informacji tekstowych i systematyczne określanie
jego właściwości, np. częstotliwości najczęściej używanych słów kluczowych. Jakościowe
analizy treści mogą obejmować wszelkiego rodzaju analizy gdy treść komunikatu (mowy,
tekstu pisanego, wywiadu, zdjęć...) jest uporządkowana wg kategorii i sklasyfikowana.
•
Dane jakościowe mogą być prezentowane samodzielnie lub w połączeniu z danymi ilościowymi.
W ostatnich latach nastąpił wzrost kompetencji metodologicznych w zawodzie ewaluatora. Systematyczna i wnikliwa obserwacja to znacznie więcej niż obecność i prosta obserwacja. Umiejętne wywiady to znacznie więcej niż tylko bierne słuchanie. Tworzenie
przydatnych i wiarygodnych danych poprzez obserwację, wywiady i analizy treści wymaga dyscypliny, wiedzy, szkoleń, praktyki i ciężkiej pracy [Patton 1992].
Wskaźniki dokonań. Wskaźniki dokonań (performance indicators) definiuje się jako takie miary (zazwyczaj ujęte w formie ilościowej) pewnej cechy działalności, które pozwalają na jej ocenę. Wskaźniki mogą mieć formę proporcji (np. stosunku liczby badaczy do
296
liczby ich publikacji w recenzowanych czasopismach), procentu osiągnięcia założonego
celu, miejsca w rankingu itd. [Herbst 2007]. Podstawowy wymóg stawiany wskaźnikom
to zrozumienie kontekstu, celów, wkładu, działań, wyników oraz zachodzących między
powiązań (tzw. logika interwencji) [Georghiou 2001].
Wyróżnia się różne grupy wskaźników ewaluacji. Jedna z nich obejmuje wskaźniki widziane pod kątem złożoności (wskaźniki pojedyncze oraz wskaźniki proporcji). Inna
zawiera w sobie wskaźniki dzielone wg elementu ewaluacji (wskaźniki wkładu, procesu,
produktu, efektu i wpływu, do których dodaje się czasem wskaźnik kontekstu). Jeszcze
inna grupa, obejmująca tylko wskaźniki proporcji, zróżnicowana jest wg pytań stawianych w ewaluacji (np. użyteczność, stosowność, skuteczność itd.). Wskaźniki grupuje się
też wg szerszych kategorii, takich jak np. jakość, wpływ i efektywność badań. Można też
zbudować zestaw, w którym znalazłyby się wskaźniki
•
•
•
•
•
•
wartości absolutnych (np. liczby publikacji i cytowań),
proporcji (liczby cytowań w stosunku do liczby pracowników),
udziału (np. w krajowej puli publikacji z dane dziedziny),
pozycji (np. w rankingu),
procentu realizacji celu,
sumaryczne i złożone (takie jak np. Impact Factor czasopism, Indeks Hirscha, wskaźniki
złożone, tzw. composite indicators, oraz wskaźniki określane przez panele peer review
oceniające np. wydziały, najczęściej w formie pozycji skali).
Wg R. Barré i P. Papona [Barré 1993] wskaźniki N+T+I posiadają następujące parametry: a) przedmiot pomiaru: ludzie (np. badacze i inżynierowie, personel pomocniczy; gdy
istnieje taka potrzeba - w podziale na stopnie i tytuły naukowe, wiek, płeć i specjalizację); zasoby finansowe (np. w rozbiciu wg źródeł finansowania i w podziale na wydatki
wewnętrzne i zewnętrzne, bieżące i inwestycyjne); wiedza skodyfikowana (publikacje,
patenty, kwalifikacje); wiedza ucieleśniona (urządzenia, komponenty lub dobra trwałego użytku o wkładzie myśli technicznej - nabyte lub sprzedane, importowane lub eksportowane); b) przestrzeń, wewnątrz której dokonuje się pomiaru: instytucja (laboratorium, przedsiębiorstwo, instytut państwowy, uniwersytet) lub terytorium (miasto, region kraju, kraj, region kontynentu); c) typ działalności, jaką mierzą (dyscyplina lub pole
badawcze; dziedzina technologii; branża przemysłu; cel społeczno-gospodarczy; typ badań - badania podstawowe, badania stosowane, prace rozwojowe); d) skala pomiaru:
mikro (instytucja naukowa, przedsiębiorstwo, uniwersytet), mezo (dyscyplina, pole badawcze, branża), lub makro (terytorium); e) typ pomiaru: parametr zasobu, który mierzy rozmiary (lub poziom) albo też parametr relacji (przepływu lub zależności pomiędzy
dwoma jednostkami).
Wskaźnik złożony powstaje wtedy, gdy poszczególne wskaźniki zestawia się w jeden indeks. Indeks powinien mierzyć pojęcia wielowymiarowe, które nie mogą być uchwycone
przez jeden wskaźnik, takie jak np. konkurencyjność, uprzemysłowienie, zrównoważony
rozwój, społeczeństwo oparte na wiedzy, itp.
297
Podsumowując, dwa najczęściej stosowane łącznie ze sobą podejścia w ewaluacji instytucji to panele ekspertów oraz wskaźniki i indeksy (wskaźniki złożone):
Panel ekspercki
Ewaluacja instytucji
Wskaźniki i indeksy
Łączenie podejść ilościowego i jakościowego. Choć ewaluacje sięgają po metody nauk
społecznych, często ich samych nie uznaje się za badania naukowe (choć czasami określa się je jako gałąź stosowanych nauk społecznych). Niemniej wyróżnione podejścia
ewaluacji instytucji – panel ekspercki i wskaźniki – wyraźnie i dość jednoznacznie
mieszczą się w obszarach badań jakościowych i badań ilościowych w naukach społecznych, a łączenie ich nazywane jest multimetodologią bądź triangulacją. Różnice pomiędzy podejściem ilościowym i jakościowym, także widoczne w różnicach metod stosowanych przez panel ekspercki oraz twórców indeksów, można ująć następująco:
Porównanie metod ilościowych i jakościowych w badaniach
Ogólne ramy
Ilościowe
Jakościowe
Próba testowania hipotez na temat
zjawiska
Próba zrozumienia zjawisk
Rygorystyczny styl formułowania i kategoryzowania odpowiedzi na pytania
Stosowanie systematycznych metod,
takich jak kwestionariusze, ankiety i
ustrukturyzowana obserwacja
Cele analityczne
Iteratywny styl formułowania i kategoryzowania odpowiedzi na pytania
Stosowanie pół-ustrukturyzowanych
metod, takich jak pogłębione wywiady,
grupy fokusowe, obserwacja uczestnicząca
Szacowanie zróżnicowań
Opis zróżnicowań
Przewidywanie powiązań przyczynowych
Opis i wyjaśnianie powiązań
Pomiar cechy społeczeństw
Format pytań
Bardziej elastyczne narzędzia
Zamknięty
Opis indywidualnych doświadczeń
Opis norm grupowych
Otwarty
298
Format danych
Elastyczność w
projektowaniu
badania
Numeryczny (uzyskany przez przypisanie wartości liczbowych do odpowiedzi)
Tekstualny (uzyskany z nagrań,
Badanie to stabilny projekt od początku do końca
Niektóre aspekty badania są elastyczne (np. włączenie lub wyłączenie
poszczególnych pytań do wywiadu)
Uczestnik nie ma wpływu na określanie przedmiotu i sposobu zadawanych przez badaczy pytań
Projekt badania statystycznego podlega rygorom metod statystycznych
dokumentów, notatek terenowych)
Odpowiedzi uczestnika mają wpływ na
sposób i treść następnych pytań badaczy
Projektu badań jest iteracyjny, czyli
zbieranie danych i pytania badawcze
są dostosowane do zdobywanej wiedzy
Qualitative Research Methods
Dylemat przedkładania ocen ilościowych (głównie wskaźników bibliometrycznych) oraz
ocen jakościowych (sądów) rozstrzygany jest w taki sposób, że choć w poszczególnych
krajach inaczej rozkłada się akcenty pomiędzy wskaźnikami ilościowymi i jakościowymi
(np. te pierwsze odgrywają większą rolę w Wielkiej Brytanii, a mniejszą rolę we Francji,
Niemczech i w Niderlandach, podczas gdy Australia łączy oba podejścia), oba typy ocen
uznaje się za komplementarne. Uważa się, że kryteria ocen, jakiekolwiek by były, włącznie z głównym kryterium „jakości badań”, są zbyt złożone, aby mogły być ujęte wyłącznie z pomocą wskaźników ilościowych, chwytających jedynie pewne (mierzalne) aspekty badań. Z drugiej jednak strony, podkreśla się, że wysoka jakość badań, która nie przekłada się na wskaźniki ilościowe (jak np. wysoką liczbę cytowań), budzi poważne wątpliwości i wymaga wyjaśnień. Wskaźniki ilościowe służą zatem jako wsparcie i udokumentowanie ocen jakościowych i nie powinny mieć rozstrzygającego znaczenia.
Jednoczesna krytyka obu podejść – ilościowego i jakościowego – skłania do szukania
sposobów ich wzajemnego uzupełniania i kontroli.
W odniesieniu do miar ilościowych, tematem debaty jest to, czy mierzyć ilość badań
(liczba publikacji), czy ich jakość (np. wyłącznie publikacje recenzowane, liczbę cytowań, wartość czasopism mierzoną przez Impact Factor (IF) itd.). Każdy wskaźnik jakości
badań ma swoje ograniczenia (np. problem auto-cytowań, istnienie kół wzajemnych cytowań itd.).
Wartość wskaźników bibliometrycznych różni się w zależności od dyscyplin. Wskaźniki
te nie nadają się do porównań międzydyscyplinowych, a w przypadku wąskich lub lokalnych pól badań są w ogóle nieprzydatne. Żadne wskaźniki statystyczne, bez względu
na ich charakter, nie wyjaśniają, dlaczego dana instytucja uzyskała dany wynik – ma wysoki poziom lub jest słaba. Tu konieczne są osądy lub odrębne badania. Podobnie, same
tylko i wyłącznie wskaźniki bibliometryczne nie powinny być podstawą decyzji co do
poziomu finansowania lub dalszych losów (wzmocnienie lub likwidacja) placówek. Konieczne jest także uwzględnienie potrzeb kraju i priorytetów rządowych.
299
Wskaźniki bibliometryczne łudzą obiektywizmem i jako takie bywają przeciwstawiane
peer review. Przeciwstawiając je ocenom jakościowym zapomina się, że same one mają
charakter ujętych ilościowo i zagregowanych decyzji jakościowych – czy cytować daną
publikację, czy jej nie cytować. Cytuje się z rozmaitych przyczyn, a badania nad przyczynami cytowania, choć zaowocowały wieloma publikacjami, nie przyniosły jednoznacznych konkluzji. Bibliometrię, w ogóle, uznaje się bardzo „miękką” dyscyplinę.
Zdarza się, że wyjątkowo wysoko cytowana publikacja jednego z badaczy podciąga ogólną ocenę instytucji ponad jej rzeczywistą wartość – choć np. badacz był tylko jednym z
wielu jej współautorów, a ponadto aktualnie nie pracuje w instytucie, którego nazwę
podał.
Stosowanie wskaźnika IF w ocenie instytucji jest łatwe, ale przeocza fakt dysproporcjonalnego rozkładu cytowań prac umieszczonych w danym czasopiśmie. To nie tyle czasopisma „podciągają” liczbę cytowań publikacji, co suma cytowań publikacji decyduje o IF.
Wartość wskaźnika IF dla pozycji czasopism, autorów oraz instytutów powoduje, że bywa poddawany manipulacji (np. czasopisma nalegają na cytowanie zamieszczanych w
nim prac).
Trzeba jednak podkreślić, że w przeciwieństwie do peer review, sumaryczne wskaźniki
cytowań są oparte na decyzjach środowiska naukowego, a nie decyzjach wąskiej grupy
recenzentów i panelistów. Pomimo czynnika „mody” lub istnienia „kół wzajemnych cytowań”, liczba cytowań jest w większym stopniu efektem niezależnych wyborów wielu
badaczy niż decyzji nielicznych uczonych, działających nieraz pod wpływem „myślenia
grupowego” [OECD 2009].
Stosowanie wskaźników bibliometrycznych różni się w zależności od kraju. I tak, w Stanach Zjednoczonych, mają one małe znaczenie, pomimo uznania dla miar dokonań jako
środka obiektywizacji decyzji budżetowych. Natomiast w Finlandii i w Polsce Impact
Factor czasopism „został niemal kanonizowany jako podstawa ocen” [Weingart 2005].
Krytyka w stosunku do wskaźników ilościowych zbiega się z krytyką wobec ocen jakościowych (sądów), uważanych za subiektywne i uznaniowe. Uznaje się, że w peer review
łatwiej o zgodę, czego nie finansować, niż o konsensus co do tego, co powinno zostać sfinansowane.
Czasami podkreśla się, że choć peer review może i jest najlepszym sposobem oceny propozycji badawczych, kandydatur na stanowiska lub publikacji, ale niekoniecznie dobrze
sprawdza się na wyższych poziomach agregacji. A wskaźniki bibliometryczne odwrotnie,
w zasadzie nie powinny być stosowane do oceny jednostek, ale są bardziej wiarygodne
do oceny wydziałów, dyscyplin lub krajów.
Za remedium na wady każdej z dwóch metod uznaje się tę przeciwną; zaleca się doskonalenie metod ilościowych i jakościowych ewaluacji, ostrożność w ich stosowaniu, uczenie się na doświadczeniach oraz ewaluacje ewaluacji. W odniesieniu do metod ilościowych podkreśla się zatem, że nigdy nie powinno się polegać na jednym wskaźniku, analizę danych powinni przeprowadzać biegli eksperci bibliometrii; w stosunku do metod
300
ilościowych – zwraca się uwagę na potrzebę wzmacniania opinii przez „twarde dane”, a
wobec całej ewaluacji – zaleca się łączenie obu podejść [OECD 2009]. Nieraz przywołuje
się badania, które stwierdzają dość silną korelację różnych miar – np. liczby publikacji i
liczby cytowań, a także wskaźników bibliometrycznych oraz ocen jakościowych [Andras
2007; Moed 2007].
Bibliografia
A. Andras, and B. Charlton, Evaluating universities using simple scientometric research output metrics: Total
citation counts per university for a retrospective seven-year rolling sample, “Science and Public Policy:, Vol.
34 (8): 2007, s. 555-563.
Badania ankietowe, Wikipedia.
Case studies, Wikipedia.
Content analysis, Wikipedia.
Evaluation of research. A selection of current practices, Paris OECD 1987.
H.F. Moed, The future of research evaluation rests with an intelligent combination of advanced metrics and
transparent peer review, “Science and Public Policy”, Vol. 34 (8): 2007, s. 575-583.
Liv Langfeldt, Decision-making in expert panels evaluating research. Constraints, processes and bias, NIFU
Oslo 2002. ,
Luke Georghiou, Evaluation in the Balance: Matching Methods and Policy Needs, PREST 2001.
Marcel Herbst, Financing public universities: the case of performance funding, Dordrecht, Springer, 2007, s.
66.
Michael Q Patton, How to use qualitative methods in evaluation, Newbury Park, Calif., Sage 1992, ss. 7-8.
Obserwacja (metoda badawcza) , Wkipedia
Performance-based models for publicly funded research in tertiary education institutions 2009, OECD.
Performance-based models for publicly funded research in tertiary education institutions 2009, OECD
DSTI/STP/RIHR(2009)7.
Performance-based models for publicly funded research in tertiary education institutions 2009.
Peter Weingart, Impact of bibliometrics upon the science system: inadvertent consequences?, “Scientometrics” vol. 62, no. 1, January 2005.
Qualitative Research, Wikipedia.
R. Barré, P. Papon, Indicators: Purpose and Limitations w: World Science Report 1993, UNESCO, Paris 1993,
s. 136.
Wywiady, Wikipedia.
Zogniskowany wywiad grupowy, Wikipedia.
PYTANIA I KRYTERIA W EWALUACJI INSTYTUCJONALNEJ
Por. też >EWALUACJA INSTYTUCJI PUBLICZNEGO SEKTORA NAUKI OPARTA NA POMIARZE DOKONAŃ; >ORGANIZACJA EWALUACJI INSTYTUCJONALNEJ; >FAZY EWALUACJI INSTYTUCJONALNEJ; >METODY STOSOWANE W EWALUACJI INSTYTUCJONALNEJ.
Zazwyczaj pytania i kryteria oceny stosowane w ewaluacji (zarówno w panelu eksperckim, jak i w indeksach) krążą wokół zasadniczych pojęć ewaluacji (potrzeby, celu, przebiegu, produktu, efektu, i wpływu) oraz relacji pomiędzy nimi. Dla ich opisu używa się
301
często (za Alvinem Weinbergiem) podziału na kryteria wewnętrzne i zewnętrzne, przy
czym wśród tych ostatnich rozróżnia się jeszcze wpływ ocenianych badań na całą naukę
(a nie tylko na określone pole badań), na gospodarkę oraz na społeczeństwo. Do tych pytań dodaje się jeszcze pytanie o jakość i potencjał środowiska instytucjonalnego, w jakim
przeprowadzono badania:
Wewnętrzne
Kryteria oceny
Zewnętrzne
Środowisko
instytucjonalne
Wpływ na
gospodarkę i
społeczeństwo
Wpływ na całą
naukę
Kryteria wewnętrzne odpowiadają na pytania: czy pole badawcze/instytucja jest dojrzałe/dojrzała? czy naukowcy są kompetentni? Jaka jest skala i znaczenie nowości i oryginalności pytań badawczych, ustaleń, odkryć, teorii, podejść, metod, danych, tematów i obszarów? Jakie postawiono najważniejsze pytania badawcze i jakie uzyskano najważniejsze wyniki?
Jaka jest wartość i poprawność stosowanych metod? Czy istnieje równowaga i wzajemne zasilanie pomiędzy różnymi metodami (np. obserwacją, obliczeniami i teorią w astronomii)?
Kryteria zewnętrzne pochodzą spoza poddawanego ocenie pola badań, instytucji lub programu. Mają one ocenić użyteczność ocenianych badań.
Kryteria zewnętrzne: znaczenie gospodarcze i społeczne. Czy technologia (w najszerszym
rozumieniu tego słowa, rozumiana jako oparty na badaniach naukowych zbiór instrukcji działania) jest dojrzała do eksploatacji, czy to rynkowej, czy też publicznej? Czy cele społeczne, którym
ma służyć, są same w sobie wartościowe? Czy istnieją możliwości jej komercjalizacji lub nierynkowego upowszechnienia? Czy instytucja, która ją rozwija, posiada (udokumentowane)
kompetencje w dziedzinie transferu technologii? Czy badania mogą mieć zastosowanie w inicjatywach służących rozwojowi gospodarczemu i społecznemu lub pomnażaniu wartości cenionych
przez społeczeństwo. Czy instytucja prowadząca badania ma dokonania na polu upowszechniania wiedzy wśród praktyków i ogółu społeczeństwa?
Kryteria zewnętrzne: znaczenie dla nauki. Oba wymienione wyżej kryteria zewnętrzne znaczenia gospodarczego oraz społecznego - pochodzą spoza nauki; odnoszą się one do nauk
stosowanych, oraz do tych badań podstawowych, które są zorientowane (przynajmniej ogólnie) na pewien cel technologiczny lub społeczny. U ich podstaw leży praktyczna użyteczność. W
przeciwieństwie do nich, trzecie kryterium pochodzi z wewnątrz nauki, ale na zewnątrz ocenianego pola badawczego; kryterium to stosuje się wyłącznie do nauk podstawowych. Miarą
wartości naukowej pracy badawczej w naukach podstawowych winien być zakres, w jakim
wpływa ona na sąsiednie dyscypliny naukowe [Weinberg 1962].
Oryginalność zreferowanych tu propozycji Alvina Weinberga (nie zawsze w stosowanych przez
niego kategoriach) leży nie tylko w podkreślaniu wagi kryteriów zewnętrznych, ale przede
wszystkim w postulacie oceny znaczenia badań dla całej nauki. Od chwili wysunięcia propozycji
była ona wielokrotnie stosowana, np. w Stanach Zjednoczonych (w kryteriach oceny propozycji
302
projektów badawczych) oraz w Wielkiej Brytanii (np. w decyzji o wycofaniu dotacji dla radiobiologii w latach 1980. Zdaniem brytyjskich decydentów radiobiologia brytyjska była wprawdzie
rozwijana na światowym poziomie, ale nie stała się siłą pociągową innych dyscyplin).
Do kryteriów Weinberga dodaje się jeszcze jedno – wartość środowiska instytucjonalnego.
Obejmuje ono m.in. badaczy – np. ich motywacje, ambicje, kompetencje; strukturę organizacji
(np. łatwość tworzenia powoływania nowych zespołów zadaniowych); misję i strategię (np. zapis misji oraz plan strategiczny; umiejętność chwytania nowych możliwości oferowanych przez
otoczenie, naukowe, rynkowe i społeczne); przywództwo i zarządzanie (zasady wewnętrznego
podziału środków; przebieg karier; struktura wieku pracowników; zakres umiędzynarodowienia badań; mobilność – instytucjonalna i geograficzna – personelu; umiejętność zamykania projektów, które nie są płodne), wyposażenie (np. nowoczesność i stopień wykorzystania aparatury), a także kształcenie (badaczy, studentów, doktorantów, obywateli) [Evaluation 2009]. O ile
poprzednie kryteria miały charakter retrospektywny i dotyczyły przeszłych dokonań ocenianych,
o tyle kryterium wartości środowiska instytucjonalnego ma w znacznej mierze charakter prospektywny, jest traktowane jako podstawa oceny potencjału i możliwości ocenianych.
Operacjonalizacja kryteriów: wymiary, wskaźniki i oceny skalowane, wagi, kategorie instytucji, zróżnicowania dyscyplinowe. Spośród wielkiej liczby zagadnień
związanych z projektowaniem, wdrażaniem, realizacją i oceną ewaluacji, zwróćmy uwagę na pięć naszym zdaniem podstawowych kwestii:
•
Jakie ustala się szersze kategorie (wymiary), w ramach których grupuje się wskaźniki
ilościowe oraz oceny jakościowe ujęte w skali,
•
Jakie dobiera się wskaźniki oraz oceny jakościowe ujęte w skali,
•
Jakie przypisuje się wagi poszczególnym wskaźnikom oraz ocenom jakościowym ujętym
w skali,
•
Jaki dopuszcza się stopień i formy różnicowania kryteriów wg dyscyplin,
•
Jakie przyjmuje się skale ocen końcowych („kategorie”).
W Wielkiej Brytanii planuje się, aby od roku 2013 każda jednostka była oceniana na
podstawie takich czynników, jak:
•
•
•
Produkty badań,
Wpływ (na gospodarkę, środowisko, politykę publiczną, kulturę i jakość życia),
Środowisko (w jaki sposób środowisko badawcze wspiera stały tworzenie doskonałych badań oraz ich skuteczne upowszechnianie i zastosowania).
Produkty każdej jednostki analizy mają być oceniane na podstawie
•
•
•
wskaźników bibliometrycznych lub oceny eksperckiej lub połączenia obu
innych wskaźników ilościowych
dodatkowych informacji jakościowych.
Gdy idzie o produkty, uczelnie dokonują selekcji publikacji, które przedkładają do oceny.
Publikacje te ma się oceniać pod względem oryginalności, rygoru metodologicznego oraz
znaczenia. Punktem odniesienia będzie poziom światowy. Panele ewaluacyjne mają się
posiłkować wskaźnikami cytowań tam, gdzie uzna się to za uzasadnione. Oczekuje się, że
wskaźniki cytowań będą brane pod uwagę np. w naukach medycznych, przyrodniczych i
303
inżynieryjnych, ale nie np. w humanistyce i sztukach. Planuje się opracowanie ścisłych
wytycznych co do sposobu wykorzystania wskaźników bibliometrycznych dla uniknięcia nieporozumień.
W odniesieniu do pomiaru wpływu, uwzględniane będzie oddziaływanie
•
•
•
•
•
•
•
gospodarcze
społeczne
kulturalne
na zdrowie
na środowisko
na politykę i usługi publiczne
na jakość życia.
Wpływ należy badać w odniesieniu do każdej „jednostki oceny”, a nie poszczególnych
badaczy. Podstawą oceny będzie: samo-ocena, studia przypadku, opinia użytkowników
badań. Kryterium oceny – zasięg i znaczenie (skala oddziaływania). W stosunku do oceny środowiska badawczego, wzięte zostaną pod uwagę
•
•
•
Zasoby (personel, przychody, infrastruktura i urządzenia)
Zarządzanie (strategia – planowanie strategiczne, kształcenie personelu, szkolenie badaczy – po licencjacie)
Zaangażowanie (imprezy i inicjatywy publiczne, wsparcie dla badań interdyscyplinarnych i opartych na współpracy).
Podstawą oceny będą świadectwa – głównie jakościowe, wsparte przez kluczowe
wskaźniki dotyczące przychodów oraz studentów badawczych (postgraduates). Ostateczna ogólna ocena jednostki (jej „profil”) ma być podsumowaniem tych trzech ocen, w
następujących proporcjach:
Ogólna ocena
Produkty
Wpływ
Środowisko
60%
25%
15%
The Research Excellence Framework 2009
Ocena jednostki zostanie ujęta w skali pięciostopniowej:
•
•
•
•
•
**** (wyjątkowo wybitne)
*** (wybitne)
** (bardzo dobre)
* (dobre)
Nieklasyfikowane.
Podstawą paneli eksperckich będą „jednostki oceny” (poddyscypliny) w ramach poszczególnych uczelni (units of assessments). Ma ich być 30, zgrupowanych w cztery
główne panele (nauki o życiu i medyczne; nauki fizyczne; nauki społeczne; sztuka i humanistyka) [The Research Excellence Framework 2009].
304
Główne kryteria oceny jednostek uczelnianych w Holandii wg Standardowego Protokółu
2009-2015 to:
•
•
•
•
Jakość
o
o
o
o
Jakość i naukowa relewantność badań,
Jakość przywództwa instytutu, jego strategii naukowej i zarządzania badaniami;
Prestiż akademicki badaczy,
Czynniki organizacyjne instytucji i programów badawczych, takie jak zasoby
ludzkie i finansowe,
o Szkolenie doktorantów w ramach instytucji i programów.
Produktywność (ocena jakości produktów w odniesieniu do misji instytucji i rozporządzanych zasobów)
Społeczna relewantność – ocena społecznej użyteczności badań (m.in. sposobu, w jaki
grupy badawcze współdziałają z interesariuszami), społeczny wpływ badań (np. badania
prowadzące do nowych praw i regulacji), oraz komercjalizacja badań (np. zastosowania
badań do nowych produktów i procesów).
Ocena potencjału i możliwości jego realizacji – jakość zarządzania oceniana w kategoriach strategii i umiejętności adaptacji do zmian otoczenia (nowe tematy badawcze,
polityka kadrowa itd.) [Standard 2009].
Te cztery główne kryteria zostały rozwinięte w kryteria niższego rządu, wraz z określeniem aspektów, które powinny być brane pod uwagę przez ewaluatorów:
KRYTERIA
Jakość
PODKRYTERIA
A1. Jakość i naukowa i relewantność badań
A2. Przywództwo
A3. Prestiż akademicki
A4. Zasoby
A5 Szkolenie
doktorantów
Produktywność
B1. Strategia
produktywności
B2. Produktywność
Relewantność
C Relewantność
społeczna
D1. Strategia
Żywotność i
wykonalność
ASPEKTY
Oryginalność koncepcji i podejścia badawczego, w tym aspektów technicznych; znaczenie wkładu do dyscypliny; spójność
programu, jakość publikacji naukowych; jakość inne produktów; znaczenie naukowe i technologiczne
Przywództwo najważniejszych jednostek; misja i cele; strategia i polityka
Pozycja w kraju i na świecie; uznanie dla programu dyrektora i
innych pracowników naukowych; wpływ i znaczenie wyników
badań naukowych w dziedzinie
Zasoby ludzkie; polityka finansowa i zdolność do pozyskiwania
środków; odpowiedniość urządzeń badawczych
Zadania i „instytucjonalne osadzenie (institutional embeding);
struktura programów; nadzór; stopa sukcesu; zasoby edukacyjne
Cele podniesienia produktywności; strategia publikacji; nagrody i sankcje
Scientific publications and PhD-theses; Professional publications; Output for wider audiences; Use of research facilities by
third parties
Społeczna użyteczność i wpływ badań; komercjalizacja
Planowanie strategiczne, inwestycje i współpraca, tematy badań zaplanowanych w najbliższej przyszłości i ich perspektywy, elastyczność oraz zdolność przewidywania spodziewanych
305
D2. Analiza
SWOT
D3.
Niezawodność i
stabilność
zmian.
Analizę sytuacji instytutu i programów, analiza mocnych i słabych stron
Urządzenia badawcze, środki finansowe; konkurencja wśród
pracowników; Mobilność i atrakcyjność instytucji; specjalizacja wewnątrz placówki
Standard 2009
Z kolei zapisane tu skrótowo aspekty zostały szczegółowo rozpisane w kwestionariuszu,
który otrzymują członkowie panelu, wraz ze skalą ocen (poniżej kwestionariusz do
Standard Evaluation Protocol 2003-2009):
Instytut
1
2
3
4
5
Jak ocenia Pani/Pan Instytut w odniesieniu do:
1.1 Przywództwa
1.2 Misji i celów
1.3 Strategii i polityki
1.4 Adekwatności środków
1.5 Wewnętrznej polityki alokacji funduszy
1.6 Urządzeń
1.7 Akademickiej reputacji
1.8 Społecznej relewantności instytutu
1.9 Bilans mocnych i słabych stron
Ogólna ocena instytutu
Uwagi i pytania
Program badań
Jak ocenia Pani/Pan program w odniesieniu do:
1.1 przywództwa
1.2 misji i celów
1.3 strategii i polityki
1.4 adekwatności środków
1.5 wewnętrznej polityki alokacji funduszy
1.6 aparatury badawczej
1.7 akademickiej reputacji
1.8 społecznej relewantności instytutu
1.9 Bilans mocnych i słabych stron
Ogólna ocena programu
Jakość
Jak ocenia Pani/Pan jakość badań w odniesieniu do:
1. oryginalności podejścia i pomysłów
2. znaczenia wkładu badań do pola badawczego
3. spójności programu
4. strategii publikacji
5. wybitności dyrektora programu
306
6. znaczenia pozostałych członków grupy badawczej
7. jakości publikacji naukowych (naukowo wpływu)
8. jakości innych wyników
Ogólna ocena jakości
Produktywność
Jak ocenia Pani/Pan produktywność badań w odniesieniu do:
1. liczby dysertacji doktorskich
2. liczby publikacji naukowych
3. liczby zawodowych publikacji
4. innych wyników (jeśli dotyczy)
5. dystrybucji dorobku publikacyjnego w ramach grupy
Ogólna ocena wydajności
Relewantność
Biorąc pod uwagę określone zadania tego programu, jak ocenia Pani/Pan relewantność badań w odniesieniu do:
1. pogłębiania wiedzy
2. upowszechniania wiedzy
3. wdrażania wiedzy
Ogólna ocena znaczenia
Potencjał oraz możliwości jego realizacji
Biorąc pod uwagę stan obecny i przyszły rozwój (jeśli jest znany) personelu i wyposażenia, jak ocenia Pan długoterminowe szanse programu:
1. w związku z dotychczasowymi wynikami naukowymi
2. w świetle przyszłych planów i pomysłów
3. ze względu na wiek i mobilność pracowników
Ogólna ocena potencjału oraz możliwości jego realizacji
Standard 2009
Instytucje oceniane są w pięciostopniowej skali: doskonały; bardzo dobry; dobry; satysfakcjonujący; niesatysfakcjonujący.
W Nowej Zelandii zaproponowano model oceny, który uwzględnia trzy podstawowe
wymiary, takie jak jakość, wpływ i potencjał badawczy [Measures 2005].
Jakość. Wszelkie oceny jakości badań powinny pochodzić z peer review wzmocnionego o
informacje o kluczowych wskaźnikach. Wskaźniki powinny być w dużym stopniu porównywalne między nauką i nie-nauką (sztuką) oraz pomiędzy różnymi dyscyplinami
badań. Jakość powinna być mierzona przez wpływ badań na inne badania w takich czterech kategoriach jak:
•
Tworzenie – odkrycia, wynalazki, ustalenia itd.
•
Manifestacje – publikacje, wystawy, przedstawienia
•
Akceptacja – cytowania, członkostwo towarzystw i akademii itd.
307
•
Reputacja – bilans badawczy, ważne granty, konsultacje, dotacje, itd.
Wpływ. Kluczowe wskaźniki wpływu badań na same badania oraz na otoczenie zewnętrzne powinny być różnorodne i specyficzne dla danej dyscypliny. Muszą one być
oceniane przez zespół ekspertów powołanych ze świata akademickiego oraz z grona
użytkowników korzystających z badań finansowanych ze środków publicznych. Wpływ
– mierzony przez siłę oddziaływania na otoczenie (polityczne, społeczne, gospodarcze,
artystyczne), zgodnie z naturą danej dyscypliny w takich czterech kategoriach jak:
•
Dyfuzja poprzez kształcenie, popularyzację, komunikację, media
•
Komercjalizacja
•
Współpraca badawcza i partnerstwo
•
Zaangażowanie – inne formy
Potencjał badawczy. Potencjał badawczy powinien odzwierciedlać zdolność jednostki
badawczej do przyczynienia się w przyszłości do realizacji celów badań oraz kształcenia
kadr badawczych, to jest, zapewnić żywotność i różnorodność badań w najbliższych latach. Potencjał powinien być oceniony przez panel ekspertów i osób korzystających z
badań. Potencjał powinien być mierzony przez zdolność do przyczynienia się w przyszłości do realizacji celów badań oraz kształcenia kadr badawczych w takich czterech
kategoriach jak:
•
Infrastruktura badawcza
•
Kultura badawcza – masa krytyczna naukowców i studentów
•
Kształcenie badawcze – studentów i naukowców
•
Strategia badawcza – planowanie strategiczne, sposób zarządzania projektami i
instytucją
Nie zawsze da się jednoznacznie odróżnić te trzy kategorie.
Każdej z kategorii przyznaje się wagi, różne w zależności od dyscypliny:
Jakość – 40-70%
Wpływ – 20-50%
Potencjał – 10-30%
Z chwilą osiągnięcia minimum (40% dla jakości, 20% dla wpływu oraz 10% dla potencjału) jednostka powinna sama określić, wg jakich zasad chciałaby być oceniana w pozostałych 30%.
Dla każdej z kategorii powinno się stosować inną jednostkę oceny: dla jakości – dyscyplinę; dla wpływu – projekt badawczy, dla potencjału – instytucję.
Proponowane w Nowej Zelandii zróżnicowanie jednostek oceny mogłoby stać się źródłem problemów, gdyby ewaluacja miała służyć określeniu poziomu finansowania instytutów.
Na ogół uznaje się, że to zespoły badawcze (a nie poszczególnie badacze lub wydziały)
powinny być główną jednostką oceny, gdyż to właśnie zespoły badawcze – a nie poszczególnie badacze, dyscypliny lub wydziały – prowadzą najczęściej badania. W praktyce jednak jednostką oceny są jednak wydziały (lub inne jednostki uniwersyteckie, ta308
kie jak kolegia czy fakultety). W Wielkiej Brytanii proponuje się, aby jednostką tą były
obszary badawcze wewnątrz poszczególnych uczelni [Hicks 2009].
Podsumowując, w Wielkiej Brytanii, Holandii oraz w Nowej Zelandii metody ewaluacji
instytucjonalnej ujmuje się w szerszych kategoriach (wymiarach):
Wielka Brytania
Holandia
Nowa Zelandia
Produkty
Jakość
Jakość
Wpływ
Produktywność
Wpływ
Środowisko
Społeczna relewantność
Potencjał badawczy
Żywotność i wykonalność
Ocena przeprowadzona w ramach każdego wymiaru opiera się na właściwych dla niego
metodach:
Wskaźniki
Wymiar
Metoda oceny
Peer review
Peer review
uzupełnione o
analizę wskaźników
Peer review może mieć charakter akademicki, z udziałem badaczy, bądź też łączony, z
nachyleniem w stronę oceny wpływu, z udziałem przedstawicieli użytkowników.
W Danii Rada Polityki Naukowej opracowała model oceny badań w sześciu wymiarach:
1) publikacji (liczba recenzowanych publikacji podzielona przez liczbę personelu mierzonego w ekwiwalentach pełnego czasu pracy w ciągu roku), 2) cytowań (w porównaniach międzynarodowych oraz z uwzględnieniem specyfiki dyscypliny), 3) zewnętrznych grantów lub kontraktów (przyznawanych na zasadach konkursowych na podstawie oceny jakości), 4) sformalizowanej międzynarodowej współpracy badawczej (wliczając w nią wspólne publikacje oraz granty badawcze), 5) relewantności w stosunku do
potrzeb biznesu (mierzona przez współpracę, patenty, osiągnięcia komercyjne, takie jak
np. firmy odpryskowe), 6) relewantności w stosunku do społeczeństwa (wliczając w nią
wkład do edukacji, doradztwa, ekspertyz dla rządu itd.). Rada zaleciła stosowanie tego
modelu do oceny badań na różnych poziomach, od badacza po instytucję, zarówno jako
podstawę samo-ewaluacji, jak i ewaluacji zewnętrznych. Wyniki przedstawia się w formie diagramu pająka [Hansen 2009].
Podsumowując, przytoczone przykłady wskazują m.in. na
309
•
uwzględnianie w ewaluacjach grup wskaźników mierzących zarówno produkty
badań (pod względem ich ilości i jakości), jak i oddziaływanie badań oraz potencjał badawczy instytucji,
•
przyznawanie priorytetu jakości (połączone z poszukiwaniem miar wpływu),
•
uwzględnianie zróżnicowań dyscyplinowych.
Bibliografia
Alvin Weinberg: Criteria for Scientific Choice, "Minerva" 1:1963, z. 2.
Evaluation of Swedish Research in Philosophy, 2009
The Research Excellence Framework: A brief guide to the proposals, October 2009,
The Research Excellence Framework: A brief guide to the proposals, October 2009,
HEFCE Circular Letters 27 May 2008 http://www.hefce.ac.uk/pubs/CircLets/2008/
Standard Evaluation Protocol (SEP) 2009-2015. Protocol For Research Assessment In The Netherlands,
VSNU, KNAW and NWO 2009
A Comparative Review of Research Assessment Regimes in Five Countries and the Role of Libraries in the Research Assessment Process, A Pilot Study Commissioned by OCLC Research. Prepared by Key Perspectives
Ltd Truro, UK, 2009.
Measures of quality and impact of publicly funded research in the humanities, arts and social sciences, 2005.
Diana Hicks, Overview of Models of Performance-Based Research Funding Systems, DSTI/STP/RIHR(2010)3
Hanne Foss Hansen, Research Evaluation: Methods, Practice and Experience, Danish Agency for Science,
Technology and Innovation, 2009, s. 27-28.
PROBLEM BEZSTRONNOŚCI EWALUATORA
Bezstronny ewaluator zawiesza osobiste preferencje badawcze i zobowiązania oraz
uznaje „kryteria” i „dowody” za jedyne legalne podstawy oceny, wstrzymując się z opinią
do czasu uzyskania wszystkich koniecznych danych. Tak nakazują zasady. Rzeczywistość jest bardziej złożona i to nie tylko z powodu świadomego łamania zasad. Pod wieloma względami ewaluacja badań, zwłaszcza podstawowych zorientowanych poznawczo, jest trudniejsza niż ocena innych działań ze względu na wielki stopień niepewności i
ryzyka, jakie się wiążą z badaniami. Oczekiwana od badacza oryginalność utrudnia
sformułowanie zasad oceny badań prowadzonych „na granicach poznania” [Georghiou
2003]. Możliwość porażki wpisana jest w każdą bardziej odważną i ryzykowną działalność nie tylko badawczą, ale także innowacyjną.
Życie jest prostsze dla ewaluatora, gdy przedmiotem jego zainteresowania jest prosty
program, ściśle określony w czasie i z jasno zarysowanymi celami.
Pojęcie bezstronności badacza znalazło się od końca lat 1960. pod obstrzałem krytyki
badań nad nauką, w szczególności socjologii nauki. Kwestionowanie możliwości obiektywizmu przeszło z badań nad nauką do badań nad ewaluacją nauki.
310
Najczęściej spotykane ograniczenia w pracy paneli to m.in. fakt, że większość ewaluatorów ma przyjaciół i kolegów wśród ocenianych, rozbieżne interesy konkurencyjnych
szkół badawczych oraz zbytnie zróżnicowanie podejść metodologicznych i zainteresowań oceniających [Langfeldt 2002].
Kryteria wewnątrz-naukowe, takie jak oryginalność, poprawność i głębia badań naukowych, są trudne do zastosowania. Ocena powinna opierać się na obiektywnych dowodach, a tymczasem ocenę opartą na tych kluczowych kryteriach uważa się często za subiektywną. Czy istnieją neutralne kryteria dobrych badań? „Pytanie ma kluczowe znaczenie. Jeśli nie ma niczego uchwytnego co stanowi o dobrych badaniach, wtedy wszystko jest jednakowo ważne i nie ma sensu mówić o neutralnych kryteriach. Jest jednak
oczywiste, że nie wszystko jest jednakowo ważne w badaniach – badania ocenia się i
niektóre z nich są chwalone, a inne odrzucane. Można więc powiedzieć, że istnieje pojęcie dobrych badań. Powstaje jednak pytanie, jak powstaje pojęcie dobrych badań – jaki
status ma to pojęcie? To pytanie nie ma rozstrzygających odpowiedzi [Langfeldt 2002].”
Badania nad peer review dowiodły braku wyraźnie wyartykułowanych zasad oceny, zależności peer review od wiedzy pozasłownej, istnienia nieformalnych hierarchii, uzależnienia od opinii innych, niskiego poziomu porozumienia pomiędzy ewaluatorami, faktu,
że oceniający stosują różne kryteria lub inaczej interpretują te same kryteria – co
wszystkie prowadzi do rozbieżnych ocen. To, co stanowi dobre badania, oraz czy są
można zidentyfikować obiektywne kryteria dobrego badań zależy od podejścia – idealizmu, realizmu i pragmatyzmu:
Realizm: istnieją niezależne normy w odniesieniu do badań naukowych. Optymistyczny
realizm: Normy te są oczywiste dla właściwych ekspertów. Pesymistycznego realizm:
Normy te nie są oczywiste dla oceniających. Panel może łatwo sformułować błędne sądy.
Idealizm: Normy są kulturowo i społecznie uwarunkowane, tj. jakość badań jest określana w trakcie procesu oceny. Optymistyczny idealizm: Proces ewaluacji określa dokładnie i bezstronnie, a zatem definitywnie jakość badań. Pesymistyczne idealizm: proces
ewaluacji jest pod silnym wpływem czynników nie-merytorycznych, a zatem jakość badań jest określana w sposób częściowy i często nie definitywny.
Pragmatyzm: pojęcie "jakości badań" nie ma jednego ogólnego znaczenia: różne dobre
projekty badawcze nie mają ze sobą nic wspólnego oprócz tego, że są określane jako dobre (nominalizm). Głównym celem ewaluacji badań jest osiągnięcie konkluzji. Aby je
osiągnąć, niezbędne są zasady podejmowania decyzji prowadzące do konsensusu
[Langfeldt 2002].
Jak dobór ekspertów do paneli wpływa na efekty ich pracy? (1) interakcje usprawniają
pracę (wymiana pomysłów i punktów widzenia prowadzi do wartościowej oceny), (2)
członkowie grupy pobudzają się wzajemnie, dzięki czemu wkładają w zadanie więcej
wysiłku niż gdyby pracowali oddzielnie (3) powstaje sytuacja wzajemnego przerzucania
odpowiedzialności, (4) zachodzi efekt myślenia grupowego i utraty krytycyzmu. Panele
ekspertów mogą być forum współpracy, negocjacji lub zaciekłych targów. Członkowie
panelu mogą być otwarci lub zamknięci na opinie innych. Nieraz panele dochodzą do
311
punktu, gdzie nie ma miejsca na zmianę opinii, a wnioski nie zostały jeszcze ustalone.
Członkowie komisji mogą mieć swoje interesy i lojalności – do zleceniodawcy, do cenionych przez siebie badaczy lub do innych ewaluatorów [Langfeldt 2002].
Zleceniodawca może postrzegać swoją rolę jako „neutralnego” organizatora, starając się
nie wpływać na wynik ewaluacji. Zleceniodawca może nie zdawać sobie sprawy ze skutków mianowania profesora X, Y i Z na dokonywanie ocen instytutu lub ze skutków mianowania profesora Y jako przewodniczącego zespołu oraz pani W jak sekretarza. Takie
skutki rzeczywiście mogą być trudne do przewidzenia. Zleceniodawca może być zatem
w swoim przekonaniu „neutralny”, choć jednocześnie mieć – poprzez zaniechanie – decydujący wpływ na wynik.
Z drugiej strony, zleceniodawca może chcieć zapewnić określony wyniku ewaluacji. Jest
to możliwe, gdy wie dostatecznie dużo o badaniach podlegających ocenie, o standardach,
kryteriach oceny oraz możliwych punktach widzenia powołanych przez siebie ewaluatorów. Wówczas zleceniodawca może przewidzieć, jak będzie działać panel i jakie zostaną podjęte decyzje. Sam proces oceny będzie wówczas tylko symboliczny.
Zleceniodawca może także definiować swoją rolę jako gwaranta jakości przebiegu ewaluacji. Może ją osiągnąć m.in. powołując do panelu najlepszych ekspertów, oraz zapewniając różnorodność punktów widzenia [Langfeldt 2002].
Por. też >EWALUACJA INSTYTUCJI PUBLICZNEGO SEKTORA NAUKI OPARTA NA POMIARZE DOKONAŃ; >ORGANIZACJA EWALUACJI INSTYTUCJONALNEJ; >FAZY EWALUACJI INSTYTUCJONALNEJ; >METODY STOSOWANE W EWALUACJI INSTYTUCJONALNEJ;
>PYTANIA I KRYTERIA W EWALUACJI INSTYTUCJONALNEJ.
Bibliografia
Luke Georghiou, Evaluation of research and innovation policy in Europe – new policies, new frameworks? w:
Learning from Science and Technology Policy Evaluation, ed. by Philip Shapira, Stephan Kuhlmann, Edward
Elgar, 2003, ss. 65.
Liv Langfeldt, Decision-making in expert panels evaluating research. Constraints, processes and bias, NIFU
Oslo 2002.
312
KONCEPCJE DLA POLITYKI NAUKOWEJ
BAZA NAUKOWA
[Science base]
Przez pojęcie to rozumie się wszystkie elementy które umożliwiają przeprowadzanie
wszelkiego rodzaju badań w sektorze badań publicznych (sprzęt, infrastruktura, personel).
Instrumenty wzmocnienia bazy nauki są jedną z najważniejszych grup instrumentów
polityki naukowej. Najważniejsze dylematy formułowania tych instrumentów to m.in.
zapewnienie właściwej równowagi pomiędzy finansowaniem instytucjonalnym a projektowym; finansowaniem ludzi i infrastruktury; finansowaniem ograniczonej liczby
centrów doskonałości a finansowaniem opartym (w większym stopniu) na zasadach
równości.
Bibliografia
OECD 2001, Workshop On Basic Research: Policy Relevant Definitions And Measurement.
European Commission – DG Research 2009, Designing Policy Mixes: Enhancing Innovation System Performance and R&D Investment Levels.
BIG DATA
Big data – „termin odnoszący się do dużych, zmiennych i różnorodnych zbiorów danych,
których przetwarzanie i analiza jest trudna ale jednocześnie wartościowa, ponieważ
może prowadzić do zdobycia nowej wiedzy. W praktyce pojęcie dużego zbioru danych
jest względne i oznacza sytuację, gdy zbioru nie da się przetwarzać przy użyciu trywialnych, powszechnie dostępnych metod. W zależności od branży i stopnia złożoności algorytmu może to oznaczać rozmiar terabajtów lub petabajtów (np. analiza zderzeń cząstek
elementarnych w fizyce wysokich energii), jednak w innych zastosowaniach będą to już
megabajty bądź gigabajty (np. porównywanie billingów telefonicznych w telekomunikacji)” [Wikipedia 2014].
Wielkie dane zmieniły sposób, w jaki żyjemy, prowadzimy działalność gospodarczą, zarządzamy organizacjami i prowadzimy badania. Wielkie dane są coraz bardziej paliwem
i motorem wzrostu gospodarczego i stanowią podstawę do nowych badań naukowych
[OECD 2013b]. Dawniej dane uznawano za bezużyteczne lub zdeaktualizowane, gdy tylko spełniły cel, dla którego je zebrano. Dziś dane stają się surowcem działalności gospodarczej i naukowej. Mogą być ponownie wykorzystane, by stać się źródłem innowacji
[Mayer-Schönberger 2013].
Określono sześć kategorii danych:
1. dane wynikające z działalności rządu;
2. dane opisujące oficjalne wymogi rejestracyjne lub licencyjne;
3. transakcje handlowe dokonywane przez osoby i organizacje;
313
4. dane Internetu pochodzące z wyszukiwarek i sieci społecznościowych;
5. monitoring osób lub obiektów fizycznych;
6. dane obrazowe, szczególnie zdjęcia lotnicze i satelitarne [OECD 2013b].
Astronomia i genomika, które jako pierwsze doświadczyły wybuch danych w 2000 roku,
ukuły termin "big data", który obecnie przeniesione na inne obszary [MayerSchönberger 2013].
Od zarania cywilizacji do 2003 roku stworzono pięć eksabajtów bajtów informacji; teraz
taka sama objętość powstaje w ciągu zaledwie dwóch dni. Ilość danych dramatycznie
wzrosła, obejmując dziś np. danych internetowych (np. media społeczne), dane z badań
(np. raportów branżowych), danych o lokalizacji (np. dane z urządzeń mobilnych) i dane
geo-przestrzennych (np. satelitarne), dane z łańcucha dostaw (np. katalogi dostawców) i
dane z urządzeń (np. czujniki). „Big data” to kolejne ogniwo w rozwoju teleinformatyki
(komputery mainframe, PC, komputery typu klient-serwer, Internet, cloud computing,
komputery przenośne i sieci społecznych, big data) [Chan 2013].
W 2001 roku META Group opublikowała raport, który opisuje big data w modelu 3V:
⋅
⋅
⋅
duża ilość danych (ang. volume);
duża zmienność danych (ang. velocity);
duża różnorodność danych (ang. variety).
Model ten uzupełniony został o kolejną składową - o ocenę (weryfikację), (ang. value)
posiadanych danych – dochodząc do modelu 4V [Wikipedia 2014].
Nauki społeczne i ekonomiczne, które tradycyjnie opierały się na statystykach spisowych i badaniach opartych na reprezentatywnych próbach populacji mogą teraz korzystać z danych w czasie rzeczywistym na poziomie całych populacji (OECD 2013b). Pozwala to odkryć wzory i korelacje, których nie bylibyśmy w stanie dostrzec pracując na
próbkach.
Praca na wielkiej ilości danych pozwala przywiązywać mniejsze znaczenie do dokładności. Popełniając mniej błędów niż w pracy próbach, można dopuścić większy błąd pomiaru.
Większa szersza możliwość odkrywania wzorów i korelacji pozwala też zmniejszyć zainteresowanie przyczynowością. Korelacja nie może nam powiedzieć, dlaczego coś się
dzieje, ale zwraca uwagę, że to się dzieje [Mayer-Schönberger 2013].
Wraz z pojawieniem się zaawansowanej eksploracji danych i analiz, zachodzą fundamentalne zmiany pod względem pytań badawczych oraz metod badawczych (Chang
2014). Np. szybko się zmienia charakter naukometrii (bibliometrii, informetrii), w miarę
jak coraz więcej (dużych) zbiorów danych staje się dostępne w formie elektronicznej;
duże zbiory danych są ze sobą łączone; rośnie zapotrzebowanie na indeksy, porównania,
benchmarkingi i oceny wpływu badań (OECD 2014b).
314
Bibliografia
Chan Joseph O. 2013, An Architecture for Big Data Analytics, “Communications of the IIMA”.
Chang R. M., Kauffman R. J. , Kwon J. 2014, Understanding the paradigm shift to computational social science
in the presence of big data, “Decision Support Systems” 63.
Mayer-Schönberger, Viktor and Kenneth Cukier 2013, Big data. A revolution that will transform how we
live, work and think, John Murray.
OECD 2013, New Data for Understanding the Human Condition: International Perspectives, Paris.
OECD 2013b, Exploring Data-Driven Innovation as a New Source of Growth: Mapping the Policy Issues
Raised by "Big Data", OECD Digital Economy Papers, No, 222, OECD.
OECD 2014, Findings From The OECD/NESTI Project On The Cognitive Testing Of Innovation Survey Concepts, Definitions And Questions, DSTI/EAS/STP/NESTI(2014)19.
OECD 2014b, Summary Record Of The OECD-Experts Dialogue On Scientometrics: Improving The Quality
And Use Of Indicators For Policy-Making, DSTI/EAS/STP/NESTI(2014)3.
DOSKONAŁOŚĆ BADAWCZA
[Research Excellence]
Od przełomu lat 1990. i 2000., a szczególnie od połowy I dekady XXI wieku, pojęcie doskonałości weszło do słownika europejskiej i światowej polityki naukowej. Excellence
(doskonałość, wyższość, wybitność) to dziś cel strategii, programów i instrumentów,
kryterium decyzji o finansowaniu, aspekt pomiaru dokonań badawczych, nazwa instytucji (centres of excellence, networks of excellence) oraz nazwa krajowych systemów oceny
badań (brytyjski Research Excellence Framework, The Excellence in Research for Australia).
Doskonałość badawczą określa się jako badania jakościowo i zdecydowanie lepsze od
zadowalających. Podkreśla się jednak, że doskonałość nie jest jakością bezwzględną,
możliwą do pomiaru za pomocą prostych obiektywnych kryteriów.
Pojęcie doskonałości badawczej jest trudne do zdefiniowania, ponieważ jest bardzo kontekstowe. Doskonałość oznacza różne rzeczy dla różnych społeczności dyscyplinarnych.
Nie ma uniwersalnej definicji doskonałości badawczej. Pojęcie to nabywa znaczenia tylko w kontekście. Np. w krajowych systemach ewaluacji doskonałość jest zazwyczaj definiowana jako produktywność. W panelach ewaluacji rad ds. badań doskonałość jest często rozumiana jako „propozycja projektu badawczego lepsza do wszystkich pozostałych”.
Pojęcie doskonałości badawczej jest również trudne do określenia gdyż milcząco zakłada bardzo różne opozycje. Tak więc, „doskonałe badania” mogą oznaczać "nieprzeciętne" lub "nie standardowe"; doskonałość jako kryterium oceny zazwyczaj przeciwstawiana jest kryteria relewantności; doskonałość jako cel programów i strategii jest
często wiązana (lub przeciwstawiana) innych celom, takim jak wpływ na gospodarkę i
społeczeństwo.
315
Co więcej, pojęcie doskonałości jest odnoszone do różnych elementów badań: doskonały
pomysł badawczy, świetny eksperyment, doskonałe środowisko badawcze, znakomity
artykuł, znaczny wpływ. Te pierwsze znaczenia - pomysł, doświadczenie lub środowiskowe - są zwykle stosowane w literaturze o zarządzaniu badaniami, a te ostatnie - wyniki badań lub ich wpływ - są wykorzystywane w różnych systemach ewaluacji.
Angielskie excellence i polska doskonałość mają źródła w łacinie ale różne: excello (celować, górować, odznaczać się) i perfectio (dokonanie, wykończenie).
Uznaje się, że nie ma jednej drogi do doskonałości badawczej. Istnieje czynników, które
mogą wywierać wpływ na wyniki badań danego kraju. Do ważniejszych należą:
•
•
Odpowiedni poziom wsparcia dla badań i szkolnictwa wyższego;
Konkurencyjne środowisko badawcze, nagradzające doskonałość, gdziekolwiek
się ona przejawia [1994 Group].
Brak zgody co do rozumienia „doskonałości badawczej”. Istnieją definicje dyscyplinowe,
a nawet kryteria w odniesieniu do rodzaju przeprowadzanych badań. Trwają dyskusje:
Co to jest doskonałość? Jakie są jej kryteria? Jak ją mierzyć – szczególnie w interdyscyplinarnych badaniach stosowanych? Czy wpływ badań powinien być wymiarem oceny
ich doskonałości? Co to jest wpływ i jak go mierzyć? Czy ocena doskonałości powinna
zostać pozostawiona samym badaczom?
Doskonałość badawcza w dokumentach unijnych. Pojęcie doskonałości badawczej
pojawia się w wielu dokumentach unijnych jako:
•
cel Europejskiej Przestrzeni Badawczej
•
cel Programów Ramowych („Horyzont 2020”, VI i VIII Program Ramowy, np. Program „Pomysły” w ramach VII PR (2007–2013)).
W szczególności jest ono obecne w takich dokumentach jak:
Wzmocnione partnerstwo w ramach europejskiej przestrzeni badawczej na rzecz doskonałości i wzrostu gospodarczego KOMUNIKAT KOMISJI DO PARLAMENTU EUROPEJSKIEGO, RADY, EUROPEJSKIEGO KOMITETU EKONOMICZNO-SPOŁECZNEGO I
KOMITETU REGIONÓW Bruksela, dnia 17.7.2012 r. COM(2012) 392 final (doskonałość oparta na o silną publiczną bazę naukową jest warunkiem trwałego wzrostu gospodarczego; warunkiem jej osiągnięcia jest m.in. skuteczne finansowanie i wykorzystanie infrastruktury badawczej oraz otwarcie rynku pracy dla naukowców)
ROZPORZĄDZENIE PARLAMENTU EUROPEJSKIEGO I RADY ustanawiające „Horyzont
2020” – program ramowy w zakresie badań naukowych i innowacji (2014-2020)
Bruksela, dnia 30.11.2011 COM(2011) 809 konc. (podstawowe moduły: 1) Doskonała baza naukowa; 2) Wiodąca Pozycja w Przemyśle; 3) Wyzwania Społeczne).
ZIELONA KSIĘGA. Jak zmienić wyzwania w możliwości: wspólne ramy strategiczne dla
finansowania unijnego na rzecz badań naukowych i innowacji. Bruksela, dnia
15.2.2011 KOM(2011) 48 wersja ostateczna/2 (Ustanowienie EPB jako jeden z
316
głównych kroków w kierunku zwiększenia doskonałości europejskiej bazy naukowej).
Budowa Europejskiej Przestrzeni Badawczej (ERA) wiedzy na rzecz wzrostu KOMUNIKAT KOMISJI Bruksela, dnia 6.4.2005 COM(2005) 118 końcowy
Nauka i technologia – kluczowe dziedziny dla przyszłości Europy – Kierunki polityki.
KOMUNIKAT KOMISJI Bruksela, dnia 16.6.2004 COM(2004) 353 ostateczny
Deklaracja Aarhus, przyjęta na „Konferencji Doskonałości” (Excellence Conference) w
Aarhus zorganizowanej w kwietniu 2012 w ramach duńskiej prezydencji „Inwestowanie
w doskonałości - Przygotowanie do jutra” wzywa Unię do finansowania ambitnych, oryginalnych i odważnych pomysłów badawczych, kwestionujących zastane paradygmaty,
przy zapewnieniu wybitnym badaczom dostępu do nowoczesnej aparatury, długoterminowego finansowania oraz swobody zarządzania. Deklaracja zaleca wybieranie najlepszych z najlepszych, nawołuje do upraszczania przepisów finansowania grantów, wzywa
do udzielania większej niezależności zespołom badawczym, oraz do silniejszego wspierania badań na froncie poznania.
Ocena i pomiar. Jak mierzyć doskonałość badań? Definicja doskonałości badań jest niezbędna przed ustaleniem zasad pomiaru. Jednak w odniesieniu do czegoś tak szerokiego
i różnorodnego jak badania pada często pytanie, czy definicja i pomiar jest możliwy lub
czy warto do nich dążyć.
Nie jest możliwe sporządzenie sztywnych zasad pomiaru jakości badań, istnieje jednak
zgoda co do tego, że produkty które można uznać za przejawy doskonałości badawczej
to np.:
•
•
•
•
•
•
•
publikacje w prestiżowych czasopismach lub w czołowych wydawnictwach
prace o wyjątkowej oryginalności
prace, które zainspirował innych i wpłynęły na programy badań
autorstwo wybitnych podręczników
zwycięstwa w konkursach, zwłaszcza w roli głównego badacza
zewnętrzne uznanie dla jakości badań
wpływ i wartość podejmowanych badań [Defining 2013].
W praktyce, wiele instytucji ustala własne operacyjne definicje doskonałości, aby na ich
podstawie oceniać jakość badań poszczególnych badaczy i grup badawczych, jednostek
naukowych (np. Stanowisko Komitetu Polityki Naukowej w zakresie wskaźników doskonałości naukowej) lub krajów (np. OECD 2013; 1994 Group).
•
•
•
•
•
publikacje (artykuły, publikacje, książki, monografie)
cytowania, indeks Hirscha, odczyty na prestiżowych międzynarodowych konferencjach
podejmowanie ambitnych i ryzykownych tematów badawczych
mobilność
współpraca interdyscyplinarna i międzynarodowa (członkostwo w międzynarodowych zespołach badawczych);
317
•
•
•
•
•
zasługi w kształceniu kadr, tworzeniu szkół naukowych;
prestiżowe nagrody;
udział w ciałach doradczych zw. z nauką i w instytucjach międzynarodowych;
zaangażowanie społeczne, w inicjatywy zw. z przedsiębiorczością, popularyzacją
nauki, itp.
skuteczność zw. z komercjalizacją wyników i ich wdrożeniem (nauki ścisłe i techniczne, przyrodnicze)
Idea doskonałości jako reakcja na następstwa wzrostu finansowania badań naukowych z funduszy publicznych. „Ruch doskonałości” (tworzenie procedur i instytucji
oraz wspieranie wysokiej jakości badań naukowych jako cel strategiczny polityki naukowej) to jedna z form reakcji na następstwa powojennego gwałtownego wzrostu finansowania badań naukowych z funduszy publicznych. Finansowanie budżetowe nauki nigdy nie jest bezproblemowe, gdyż inna jest logika badań a inna administracji publicznej;
im wyższe publiczne wydatki na naukę, tym skala problemu większa. Gdy projekt badawczy jest ambitny, trudno przewidzieć jego końcowy wynik; rozliczana ze swoich decyzji administracja nie lubi ryzyka.
Wzrost publicznych wydatków na naukę początkowo opierał się głównie na zasadzie
„każdemu po równo” (z uwzględnieniem – budzącej spory – oceny kosztochłonności
dyscyplin), bez względu na przeszłe zasługi i perspektywy na przyszłość, z finansowaniem statutowym jako najważniejszą formą transferu publicznych środków. W krajach
zachodnich trzema głównymi sposobami wyróżniania najlepszych badaczy były kryteria
wyboru na stałe stanowiska (tenure), a szczególnie na stanowiska kierowników katedr i
instytutów, peer review artykułów zgłaszanych do czasopism oraz finansowanie na zasadach konkursowych projektów badawczych. Początkowo system ten w miarę sprawdzał się: największe sukcesy nauka odniosła w latach 1950-tych i 1960-tych, gdy z jednej
strony rosły gwałtownie fundusze na badania, ale z drugiej stale jeszcze były obecne wysokie, wyśrubowane standardy, osiągnięte przed wojną, w okresie, gdy finansowano tylko
najbardziej obiecujące projekty(Jay W. Forrester).
Jednak od połowy lat 1960-tych obserwując skutki wzrostu zaczęto odczuwać niepokój.
Derek de Solla Price (1963) postawił tezę, że liczba przeciętnych badaczy wzrasta jako
kwadrat liczby wyjątkowo wybitnych; im większy wzrost, tym niższy przeciętny poziom.
Forrester z kolei opisywał (1965), jak wzrost nauki w ramach finansowania budżetowego obniża wydajność nauki: (…) w procesie budżetowym standardem jest przeszłość, a
nie jakiekolwiek obiektywne miary wyników i wydajności. Budżet na przyszły rok jest z reguły ustalany na bazie budżetu roku poprzedniego. Forrester uznał kulturę środowiska
naukowego za wrogą dążeniu do stałego podnoszenia jakości: Ponad dwie dekady ekspansji nauki sprawiły, że postawa „zróbmy jak najwięcej mając do dyspozycji skromne
środki” zamieniła się na postawę „zróbmy co się da, bez względu na koszty”. Efektem
wzrostu wydatków bez wzrostu starań o jakość były prace ciągnące się w nieskończoność, źle zaprojektowane, dublowanie badań i aparatury itd. Na domiar zła, od połowy
lat 1970-tych, gdy w państwach rozwiniętych wzrost nauki (badaczy, nakładów) zahamował, społeczność naukowa zaczęła się starzeć. Zahamowanie wzrostu nauki ozna318
czało mniej nowych miejsc pracy naukowej, niższe zarobki oraz słabszą selekcję. Inne
niż praca naukowa drogi kariery (np. biznes i medycyna) stały się bardziej atrakcyjne.
Polityki wspierania doskonałości. Jednym z działań mających na celu odwrócić ujemne następstwa odczuwanego spadku poziomu badań był wzrost udziału finansowania
projektów w trybie konkursu w stosunku do finansowania statutowego. Często powielanym wzorcem, także przez Komitet Badań Naukowych, stał się system grantowy amerykańskiej Narodowej Fundacji Nauki (1950).
Ponadto wprowadzono trzy nowe formy finansowania badań.
Pierwszą z nich było zmodyfikowane finansowanie instytucjonalne, tak zwane finansowanie oparte na rezultatach, performance based funding (wprowadzone po raz pierwszy
w roku 1986 przez brytyjski ogólnonarodowy program ewaluacji The Research Assessment Exercise (RAE)). Finansowanie to było oparte nie na kwotach z lat poprzednich,
tylko na osiągniętych wynikach oraz na ocenie potencjału organizacji. Do roku 2010
przykład brytyjski pociągnął za sobą 12 innych krajów, wśród nich Polskę (1991, ważne
ulepszenia w 1998, obecnie ocena przeprowadzana przez Komitet Ewaluacji Jednostek
Naukowych).
Drugą formą były różne programy agencji rządowych oraz fundacji non profit traktowane jako uzupełnienie podstawowych form – finansowania instytucjonalnego i finansowania projektów. Programy te (często otwarte dla naukowców z całego świata) miały
na celu wspieranie tych badaczy i te zespoły i pola badań, które rokowały wielkie nadzieje, ale nie mogły się przebić w istniejących systemach finansowania, choćby ze
względu na swój młody wiek i brak długiego ciągu udokumentowanych osiągnięć. Tego
rodzaju programy rozwinęły się po roku 1986 (program HHMI Investigators amerykańskiego Howard Hughes MedicalInstitute). Celowały w nich zwłaszcza Stany Zjednoczone
(np. NSF, MacArthur Foundation), Wielka Brytania (Wellcome Trust), Niemcy (Volkswagen Foundation, rządowa Inicjatywa Doskonałości), Holandia (NWO), Szwecja (Wallenberg Foundation), w Polsce – Fundacja Nauki Polskiej. W roku 2003 wprowadzono program Europejskiej Fundacji Nauki (European Young Investigator Award). Od roku 2007
podjęła działalność unijna Europejska Fundacja Nauki.
Trzecią formą, jeszcze silniej ukierunkowaną na wspieranie badań wysokiej klasy, były
tak zwane „inicjatywy naukowej doskonałości” (Research Excellence Initiatives). Zapewniały one długoletnie (najczęściej od 5 do 10 lat) finansowanie instytucji naukowych i
grup badawczych legitymujących się wyjątkowo wybitnymi wynikami oraz wyjątkowo
twórczym środowiskiem badawczym. Choć pierwsze przedsięwzięcia tego typu wprowadzono w USAjeszcze w roku 1978 (Experimental Program to Stimulate Competitive
Research), nieprzerwany pochód narodowych inicjatyw doskonałości zaczął się w roku
1998. Rok później w ramach V Programu Ramowego UE ogłosiła konkurs na centra doskonałości. Duńskim przykładem tego instrumentu jest program UNIK, szwedzkim Granty Linneusza a polskim KNOW-y – Krajowe Naukowe Ośrodki Wiodące.
Równolegle z tworzeniem nowych form zewnętrznych zachęt finansowych dla pobudzania przełomowych badań, kreatywność i dążenie do osiągania wybitnych wyników
319
stały się celami zarządzania na uniwersytetach oraz w wielkich organizacjach badawczych (polityka kadrowa, zasady wewnętrznej ewaluacji, szkolenia i elastyczne formy
organizacyjne).W wielu z nich podjęto starania, by podnieść pozycję w światowych rankingach. Wysiłki te były pobudzane przez akty prawne (np. austriacką Ustawę Uniwersytecką z roku 2002, ustawy MNiSW z lat 2010-2011), wzory sukcesu, klimat konkurencji,
książki, m.in. Jamila Salmiego i Burtona Clarka.
Jednym z zastosowanych rozwiązań były kursy w dziedzinie zarządzania – etyki w badaniach, przywództwa i komunikacji, pisania dobrych raportów i wniosków grantowych,
kierowania laboratoriami, mentoringu, alternatywnych karier badawczych (np. prowadzenia badań w przemyśle, administrowania badaniami, edukacji nauki, redagowania
czasopism naukowych).
Krytyka idei doskonałości badawczej. Doskonałość to pojęcie, które jest samo w sobie
argumentem na swoją rzecz: trudno polemizować z koniecznością osiągania doskonałości w badaniach. Jak się zdaje, jest to podstawowe kryterium prowadzenia badań:
wszystkie inne – np. tematyczne – są mniej ważne.
Jednak doskonałość z trudno osiągalnego ideału ludzi i instytucji, kształtowanego przez
wzorce kulturowe, stała się celem działania administracji. Pojęcie zrodzone w świecie
autorytetu osobowego, hierarchii i idealizmu, przeniesiono do świata procedur i polityki. Ze sfery idei i ideału jednostki przeszło ono do sfery strategii politycznych, zarządzania organizacją, przepisów finansowania i ewaluacji.
Przede wszystkim, zwraca się uwagę, że doskonałość utraciła siłę, zbanalizowała się,
spowszedniała. Stąd – tak jak gdyby sama nie oznaczała szczytowych osiągnięć – upowszechnił się nowy termin, „doskonałość klasy światowej”. Doskonałość to pojęcie relacyjne: można je odnosić do wyróżnionej pod jakimś względem bardzo nielicznej mniejszości. Obecnie jednak mechanizmy wspierania doskonałości stosuje się wobec w dziesiątkach krajów wobec kilku milionów naukowców.
Krytyce poddaje się nie tyle samą ideę doskonałości, co jej konkretne zastosowania.
Podkreśla się, że doskonałość w badaniach jest zawsze potrzebna. Częściej potrzeba dobrych niezawodnych badań, ale niekoniecznie doskonałej nauki; potrzeba standardowej
pracy badawczej, która ma być zrobiona w sposób wiarygodny, np. badań właściwości
tworzyw, doskonalenia metod leczenia, opracowania nowego sprzętu [Walloe].
Podnosi się fakt, że na uczelniach nacisk na jakość badań powoduje obniżenie jakości
nauczania. Często administratorzy uczelni badawczych nagradzają badania, która budują status uniwersytetu (miejsce w rankingach), gdyż za statusem płyną zwiększone
środki. Odbywa się to jednak kosztem jakości dydaktyki [Wolverton 1998].
Inicjatywy doskonałości mogą tworzyć wyspy wybitności, które zamiast podciągnąć otoczenie, obsuwają się z czasem do jego poziomu; pozwalają one budować paralelne struktury, które stają się bardziej źródłem tarć i napięć w systemie nauki publicznej niż motorem jego rozwoju; dla rozwoju nauki potrzeba równowagi konkurencyjności i współpracy, a opisywane instrumenty wzmacniają przede wszystkim rywalizację; doskona320
łość oznacza co innego w różnych dyscyplinach i na różnych etapach rozwoju dyscyplin,
ale inicjatywy doskonałości tego nie uwzględniają; w inicjatywach doskonałości to naukowy establishment określa reguły gry, ale prawdziwy postęp w badaniach dokonuje się
na przekór status quo [Excellence 2012].
Podkreśla się też, że problemem Europy jest nie tyle niedostatek badań podstawowych
przesuwających granice poznania, co podnoszą rzecznicy idei doskonałości, co niedowład działalności innowacyjnej. Usprawnić innowacje mogą nie tyle inicjatywy na rzecz
doskonałości, co programy sektorowe, nastawione na realizację celów gospodarczych
i społecznych. Okazuje się, że nawet z punktu widzenia celów stawianych sobie przez
rzeczników doskonałości, badacze współpracujący z przemysłem mają (wg tradycyjnych
miar cytowań i produktywności) większe osiągnięcia od swych kolegów nieskażonych
kontaktami z gospodarką. Publikacje naukowe oraz patenty, kontrakty oraz konsultacje
uzupełniają się [Technopolis 2012].
Doskonałość z perspektywy nauki światowej to nie to samo co doskonałość z perspektywy potrzeb kraju i regionu – nie można jej traktować jako wyabstrahowanej jakości,
pomijając kwestię, po co właściwie potrzebuje się konkretnych badań.
Nie jest udowodnione, że przesunięcie środków w stronę najlepszych naukowców i zespołów badawczych owocuje rozkwitem odkryć i innowacji. Rozwój wyjątkowo wybitnych uczonych nie sposób zaplanować. Gigantyczne środki wydawane przez Arabię Saudyjską i inne naftowe mocarstwa na ściągnięcie znakomitych badaczy i stworzenia im
warunków do pracy takich jak w znanych światowych centrach nauki nie stworzyły
jeszcze nowego Harvardu [Excellence 2012].
Bibliografia
1994 Group, Mapping Research Excellence: exploring the links between research excellence and research
funding policy, Research Report September 2011.
Defining Excellence - Guidance on the application of the promotion criteria 2013, University of Bristol,
http://www.bristol.ac.uk/hr/policies/promotion/guidance-excellence.html
Excellence 2012 Conference, Aarhus University, http://www.excellence2012.dk/
OECD 2013, “Research excellence”, w: OECD Science, Technology and Industry Scoreboard 2013: Innovation
for Growth, OECD Publishing, Paris.
Technopolis 2012, Getting the Balance Right
Walloe Lars, The meaning of excellence and the need of excellence in research.
Wolverton Mimi 1998, Treading the Tenure-Track Tightrope: Finding Balance Between Research Excellence
and Quality Teaching, “Innovative Higher Education”, Vol. 23, No. 1.
321
FAZY POLITYKI NAUKOWEJ
[Phases of science policy]
Polityka naukowa oznacza politykę rządową dotyczącą relacji pomiędzy rządem, nauką i
społeczeństwem. Jako odrębny obszar polityki wyłoniła się ona w latach po II Wojnie
Światowej. Przedtem istniała w formach niewykrystalizowanych i ad hoc.
Warunkiem narodzin polityki naukowej było ukształtowanie się trzech systemów – sytemu badań naukowych, systemu polityki publicznej oraz systemu powiązań między sferą nauki a sferą praktyki, przede wszystkim praktyki gospodarczej.
Polityka naukowa a inne formy decyzji wspierających badania naukowe. Kryteria
różnicujące politykę naukową od innych form decyzji wspierających badania naukowe
to:
1. Charakter decyzji dotyczących wsparcia badań naukowych (decyzje programowe i systemowe czy decyzje personalne)
2. Status decydenta (decyzje rządowe/państwowe czy decyzje instytucji)
3. Szczebel decyzji (szczebel szefa rządu, głowy państwa lub ministra czy też niższe szczeble władzy państwowej)
4. Sposób ujmowania nauki przez decydenta (ogląd całości nauki czy też ogląd poszczególnych dyscyplin lub zagadnień badawczych)
5. Odniesienie decyzji do wszystkich czy też do wybranych typów badań (komplementarność decyzji wspierających samoistny rozwój nauki oraz rozwój badań stosowanych i
transferu wiedzy naukowej do gospodarki i społeczeństwa w przeciwieństwie do decyzji
wspierających jedynie badania kierowane ciekawością lub jedynie wynalazczości i badania stosowane)
6. Oddziaływanie na system instytucji badań (lub/i innowacji) czy też oddziaływanie na
poszczególne instytucje lub poszczególnych badaczy
7. Ciągłość i systematyczność decyzji (czy też podejmowanie decyzji doraźnych i ad hoc)
8. Natura i efekty decyzji
a. decyzje traktowane jako inwestycja publiczna (w gospodarkę, obronność, prestiż
narodowy, dobra publiczne takie jak zdrowie, edukacja i środowisko) czy też decyzje traktowane jako konsumpcja dóbr kultury
b. decyzje traktowane jako realizacja celów, zadań i priorytetów czy decyzje zmierzające do „zaspakajania potrzeb badawczych” poszczególnych uczonych, instytucji lub dyscyplin
9. Istnienie podstaw merytorycznych decyzji (stałe wsparcie analityczno-informacyjne, w
przeciwieństwie do decyzji intuicyjnych lub opartych na informacjach, po które sięga się
sporadycznie)
10. Działanie w ramach tzw. cyklu polityki (definiowanie problemu, ocena opcji, formułowanie programu, wdrażanie i ewaluacja).
Polityka naukowa – całość czy suma? W poszczególnych krajach polityka naukowa
jest bądź odrębną całością, bądź też sumą poszczególnych decyzji rządowych. Ten drugi
typ polityki naukowej reprezentują Stany Zjednoczone i Izrael. Finansowanie badań
322
rozproszone jest wieloma nich między wieloma ministerstwami i agencjami rządowymi.
Badania rolnicze rywalizują w Ministerstwie Rolnictwa z wydatkami nie-badawczymi, a
nie z innymi programami B+R. W Stanach Zjednoczonych fundusze budżetowe na badania podstawowe przechodzą do rąk National Institutes of Health, NASA oraz National
Science Foundation, oraz 15 ministerstw oraz agencji federalnych (jednak 6 najważniejszych rozdziela 95% środków). Najczęściej badania podstawowe to tylko część (z reguły
nie najważniejsza) misji agencji rządowej. Badania podstawowe są elementem różnych
programów i projektów i nigdy nie są traktowane oddzielnie jako „badania podstawowe”. Istnieje mało okazji do porównywania programów badawczych różnych agencji.
Nie ma czegoś, co określa się jako „narodowe priorytety badawcze”. Badania naukowe
nie konkurują o środki z innymi celami, a poszczególne programy badawcze też nie konkurują pomiędzy sobą. Zasoby dzielone są w sposób, który jest zrozumiały w świetle historii, tradycji i polityki, ale nie racjonalnych zasad. Nie bierze się pod uwagę wagi poszczególnych dyscyplin dla kraju.
Katalityczna rola wojen. Powstanie polityki naukowej stało się możliwe dzięki przeobrażeniom, jakie zaszły zarówno w samej nauce, jak i w amerykańskiej polityce państwowej. Katalizatorem przyspieszającym budowę przyszłej polityki naukowej okazały
się obie Wojny Światowe, oraz okres Zimnej Wojny, z jego „szokiem sputnika” (1957).
„Rola katalityczna I Wojny nie była jednak tam mocna, aby zapoczątkować politykę naukową w czasach pokoju. Także choć kryzys lat 1930-tych skłonił niektórych do rozważenia roli nauki i techniki w rozwoju gospodarczym i społecznym, ale (prócz Francji,
1936) nie stało się to jeszcze bodźcem do zainicjowania takiej polityki. [Uncertain
1994]” W latach międzywojennych wzrosło mimo wszystko zrozumienie dla nauki jako
przedmiotu interwencji państwa. W następstwie Wielkiego Kryzysu nastąpiła zmiana filozofii politycznej w USA i krajach europejskich (zasada ingerencji państwa w sprawy
zatrudnienia, inwestycji i wzrostu gospodarczego).
Jednak dopiero II Wojna Światowa (a dokładniej, prace nad bombą atomową) stała się
punktem zwrotnym w stosunkach między nauką a państwem. Ze wszystkich funkcji
państwa (obrona, gospodarka, prestiż) funkcje obrony (bardziej niż jakiekolwiek inne)
stały się katalizatorem polityki naukowej.
Ale wojna – zarówno ta gorąca, jak i zimna – nie odegrałyby swojej roli, gdyby jednocześnie właśnie po II Wojnie Światowej innowacje techniczne nie awansowały do roli jednej
z głównych funkcji przedsiębiorstw, obok marketingu, produkcji i kontroli finansowej, a
wzrost – do pozycji ich głównego celu. Do tego czasu (choć z biegiem lat w coraz mniejszym stopniu), oprócz aktywności sławionego przez Schumpetera przedsiębiorcy, zmieniającego zastany układ rynkowy, działalność innowacyjną uznawano za ewenement w
stosunku do dominującej działalności reprodukcyjnej, a wzrost za ewenement w stosunku do utrzymywania raz zdobytej pozycji. Obie idee – wzrostu oraz innowacji technicznych – wspomagały się wzajemnie. Stopniowo, ze szczebla firm przeszły na poziom
polityk państwowych, najpierw wzrost, później innowacje. Stopniowo także, od II poł.
XIX w., nowa wiedza naukowa stawała się coraz ważniejszym czynnikiem obu.
323
Rozwój `wgłąb` i `wszerz`. Od momentu swoich narodzin w państwach rozwiniętych
gospodarczo polityka naukowa rozwijała się zarówno `wgłąb` (rozszerzanie instrumentów polityki, powoływanie nowego typu organów, jak np. agencji transferu technologii),
jak i `wszerz` (stosowana przez coraz większą liczbę krajów, z reguły o malejącym poziomie dobrobytu). Podobnej ewolucji –rozwój `wgłąb` i rozwój `wszerz` - podlegały
także poszczególne instrumenty polityki (jak np. foresight), koncepcje i pojęcia ogniskujące nowe nurty polityki (jak np. system innowacji, grona (clusters), sieci), metodologia
statystyki itd. Np. zasady metodologii statystyki B+R, spisane w roku 1963 w Podręczniku Frascati, dzisiaj opisane są nie tylko w kolejnej, poszerzonej edycji Podręcznika, ale
także w szerokiej rodzinie pokrewnych opracowań metodologicznych. Po roku 1963 zasady te były wprowadzane w życie przez kolejne kraje OECD; dziś stosowane są nie tylko przez wszystkie kraje poszerzonej w latach 1990-tych OECD, ale także przez (wzrastającą) grupę państw spoza OECD.
Kolejne kraje przejmowały `wzorcowe praktyki polityczne`, koncepcje i pojęcia oraz zasady metodologii statystyki – zarówno dzięki działalności organizacji międzynarodowych (OECD, UNESCO, UNIDO, Bank Światowy) i Unii Europejskiej, jak i dzięki własnej
`aktywnej absorpcji`. Z chwilą `krystalizacji` polityki naukowej, rozwijała się ona zatem
`wgłąb` i `wszerz`. Ale co pewien czas – co ok. 10-15 lat – przechodziła także istotną metamorfozę.
Fazy polityki naukowej w krajach OECD. Polityka naukowa przeszła w krajach OECD
tak wiele zmian, że jej komentatorzy dzielą ją na okresy, stadia lub fazy. B. Ruivo [1994]
mówi o „paradygmatach” w rozwoju polityki naukowej i udowadnia, że pomimo narodowych różnic istniała zawsze między różnymi krajami zgoda co do podstawowych poglądów i stosowanych instrumentów. Zdaniem J.J. Salomona [1970] świadczy to, że w
polityce naukowej uformowała się międzynarodowa wspólnota naukowców i polityków.
Wspólnota ta działa jak każda opisana przez T. Kuhna społeczność naukowa, tj. upowszechnia pomiędzy sobą poglądy, informacje, wiedzę o przeszłości.
Lata 1950. określa się jako okres „dzieciństwa” polityki naukowej. W latach tych rozwinęły się rady badawcze (m.in. National Science Foundation, USA, 1950), skrystalizowała
idea grantu badawczego, podjęto pierwsze próby pomiaru nauki.
Lata 1960. S. Blume [1985] nazywa dekadą „nauki jako motoru postępu”. Było to dziesięciolecie gospodarczej prosperity i (do 1968) wiary i optymizmu. Wierzono w możliwość racjonalnej polityki oraz (m.in.) w istnienie racjonalnych podstaw decyzji o podziale funduszy na badania; od roku 1963 zasady takie formułowali m.in. A. Weinberg i C.
Keysen. Wierzono także, że nauka jest niekwestionowanym motorem cywilizacyjnego
postępu. Działa ona na zasadzie domina, przy czym pierwsze pchnięcie należy do nauk
podstawowych, gdyż to one inicjują ciąg działań, wieńczony nowym produktem rynkowym. Z tego względu uważano, że nauki podstawowe oraz uniwersytety, w których są
one przede wszystkich uprawiane, zasługują na największe wsparcie. Sądzono, że badania powinno się prowadzić na wszystkich frontach, gdyż trudno przewidzieć, gdzie nastąpi technologiczny odprysk. „Potrzeby nauki” i „potrzeby (poszczególnych) dyscyplin”
324
były wówczas głównymi kategoriami polityki naukowej. Panowała zgoda, że potrzeby te
powinni określać sami uczeni, najlepiej zorientowani w naturze badań naukowych. Rząd
powinien zwłaszcza powoływać Rady Konsultacyjne ds. Polityki Naukowej, zapraszać do
nich wybitnych uczonych, wysłuchiwać ich opinii i wypełniać ich zalecenia. Wiara w
możliwość racjonalnej polityki oraz wiara w naukę jako źródło postępu legły u podstaw
narodzin polityki naukowej. Katalizatorem jej stały się w roku 1963 inicjatywy OECD konferencja ministerialna w sprawach nauki oraz raport pt. Science and the Policy of
Government (tzw. raport Piganiola). Racjonalna polityka, sądzono, wymaga koordynacji
badań na szczeblu centralnym.
Aby decyzje polityczne były optymalne, potrzeba rozwoju statystyki B+R. W roku 1963
OECD opublikowało kodyfikację zasad statystyki inputu B+R (Frascati Manual), zaadoptowaną przez kraje członkowskie organizacji, m.in. Holandię, w której gromadzeniem
danych statystycznych o nauce zajął się urząd Statistics Netherlands.
W Holandii rokiem przełomu dla polityki naukowej był 1966; wówczas to powołano Radę Konsultacyjną ds. Polityki Naukowej (RAWB) oraz po raz pierwszy przedstawiono
odrębny budżet nauki (w ramach Ministerstwa Edukacji). W roku 1968 z inicjatywy
RAWB utworzono komitety do oceny poszczególnych pól badawczych.
Polityka naukowa lat 1970. miała odmienny charakter. Załamała się powojenna prosperity, zachwiała wiara w naukę i możliwość racjonalnego planowania. Już od II poł lat
1960. zasada „zaspakajania potrzeb nauki” (zgłaszanych przez samych naukowców) była uzupełniania zasadą „ustalania priorytetów” (tj. wyboru obszarów badawczych zasługujących na wyjątkowe wysokie wsparcie ze względu na potrzeby nauki, administracji
lub gospodarki); priorytety wprowadzono m.in. we Francji (Programmed thematic actions, ATP, w CNRS) i w Niemczech (Sonderforschungsbereiche w DFG). Wprowadzanie
priorytetów było wyrazem przekonania, że nauka ma nie tyle skupiać się na wewnętrznych problemach dyscyplin, co - przede wszystkim - wspierać realizację celów pozanaukowych i służyć pomocą w rozwiązywaniu konkretnych problemów stawianych przez
polityki rządowe. Z tego względu S. Blume [1985] lata 1970. nazwał dekadą „nauki jako
narzędzia rozwiązywania problemów”. Nadal obowiązywał liniowy model innowacji, ale
teraz sądzono, że źródłem postępu są nie tyle przełomowe idee naukowe („science
push”), co potrzeby społeczne i gospodarcze, m.in. w zakresie energii, zdrowia, ochrony
środowiska, na które uczeni powinni szukać odpowiedzi („deman pull”). Przekonanie o
konieczności utrzymywania badań na wszystkich frontach uległo zachwianiu; podkreślano teraz znaczenie selektywności w rozwoju nauki. Nie badania podstawowe, tylko
stosowane uznawano teraz za źródło cywilizacyjnego postępu. Z tego też względu badania uniwersyteckie - w porównaniu z poprzednią i następną dekadą - były w l. 1970. stosunkowo zaniedbywane. Spadło znaczenie uczonych w formułowaniu polityki naukowej; wzrosło - ekonomistów, analityków rządowych, polityków. Autonomia uczonych i
nauki była łatwa do zaakceptowania przez społeczeństwo, gdy nakłady na B+R wynosiły
0,1-0,2 dochodu narodowego (jak przed wojną), i trudna do zaakceptowania, gdy wynosiły one 1-2%. Zaniepokojenie opinii publicznej efektami rozwoju nauki i techniki (zatrucie środowiska, niebezpieczeństwo samozagłady itd.) zrodziło żądanie uczestnictwa
325
społeczeństwa w decyzjach dotyczących zastosowań kluczowych technologii. W wielu
krajach zorganizowano referenda w sprawie energii nuklearnej oraz powołano urzędy
ds. wartościowania technologii (technology assessment), zajmujące się porównywaniem
kosztów ze spodziewanymi korzyściami oraz oceną możliwych następstw rozwoju i
upowszechniania technologii. Rady konsultacyjne ds. polityki naukowej padły w wielu
krajach ofiarą swego własnego sukcesu; postulat bardziej spójnej, uzasadnionej i zinstytucjonalizowanej polityki naukowej, którą wysuwały, znalazł swoje spełnienie w rządowych decyzjach powoływania ministerstw nauki (już w l. 1960.) oraz wzmacniania
funkcji wykonawczych i ewaluacyjnych rad badawczych. Przeniesienie punktu ciężkości
decyzji o nauce z rad doradczych do resortów było ilustracją przejścia od „epoki potrzeb” do „epoki priorytetów” oraz przejawem osłabienia wpływu badaczy na rozwój
nauki. Ministerstwa znacznie lepiej niż obsadzane przez wybitnych uczonych rady konsultacyjne pasowały do okresu selekcji i cięć budżetowych.
Wszystkie opisane tu przemiany polityki naukowej znalazły odbicie w statystyce N+T.
Osłabienie wiary w racjonalne planowanie spowodowało (przejściowe) kwestionowanie
jej użyteczności dla polityki naukowej. Z faktu, że Francuzi wydają na badania więcej niż
Brytyjczycy, nie wynika jeszcze żadna jasna wytyczna dla brytyjskiej polityki naukowej,
pisał w swym raporcie lord Rothshild (1971). Idea domina (badania podstawowe> stosowane>prace rozwojowe>innowacje) oraz przekonanie, że nauka jest samoczynnym
źródłem postępu cywilizacyjnego, skłaniały w l. 1960. do pomiaru wkładu do nauki (finansowanie, personel); od wielkości tego wkładu, jak sądzono, zależą, w sposób automatyczny, rozmiary dobroczynnych następstw, jakie niosą z sobą badania. Zmiana obrazu
nauki i zmiana procedur decyzyjnych o nauce zrodziła l. 1970. potrzebę uzupełnienia
statystyki inputu statystyką outputu (publikacje, patenty, bilans płatniczy w zakresie
technologii) oraz rozszerzenia statystyki nakładów na B+R o dane dotyczące nakładów
budżetowych na B+R w podziale wg celów społeczno-gospodarczych. Techniki prognozowania rozwoju nauki i techniki zostały rozbudowane i szerzej zastosowane. Od roku
1972 podjęto w USA publikację National Science Indicators.
W Holandii w latach 1970. powołano ministerstwo nauki z ministrem jako członkiem
gabinetu (1973). Ministerstwo nie dysponowało budżetem, pełniło tylko funkcje koordynacyjne. W roku 1979 wydano tu dwie Białe Księgi dotyczące badań na wyższych
uczelniach oraz innowacji, oparte na analizie danych statystycznych.
Decydującym czynnikiem, który wpłynął na kształt polityki naukowej lat 1980. i 1990.
było wejście państw rozwiniętych w fazę nowego cyklu techniczno-gospodarczego. Od
połowy lat 1970. o kształcie społeczeństwa, gospodarki, organizacji pracy i stylu zarządzania decydują w coraz większym stopniu nowe technologie, takie jak mikroelektronika, komputery i telekomunikacja.
Zachodzące przemiany określa się skrótowo „przejściem od społeczeństwa przemysłowego do poprzemysłowego”. Przemysł traci dominującą pozycję w zatrudnieniu i Produkcie Krajowym Brutto na rzecz sektora usług, w którym największą dynamiką rozwojową odznacza się sektor usług informacyjnych. Zmienia się model organizacji pracy i
326
struktura organizacji gospodarczych; wzrasta znaczenie gospodarcze małych i średnich
przedsiębiorstw. Zbliżają się do siebie nauka, edukacja, technika i gospodarka.
Opisane tu hasłowo przemiany spowodowały, że w l. 1980. na naukę spogląda się nie tyle jako na źródło samoczynnego postępu lub instrument rozwiązywania konkretnych
problemów, co na „strategiczną szansę” w osiąganiu długofalowych celów, takich jak
wzrost gospodarczy i polepszenie jakości życia. Szansa ta ma polegać na rozwoju i upowszechnianiu nowych radykalnych innowacji. Innowacje technologiczne stają się centralnym zagadnieniem polityki naukowej, a przemysły oparte na radykalnych innowacjach (oprócz wspomnianych także takich jak biotechnologia, nowe materiały, optoelektronika, robotyka, technologie medyczne) - jednym z najważniejszych zagadnień polityki
przemysłowej. Polityka naukowa przekształca się coraz bardziej w politykę naukowotechniczną i innowacyjną; polityka przemysłowa uwzględnia w coraz większej mierze
problematykę nauki i technologii; obie zbliżają się do siebie.
Zamiast rozumienia innowacji jako „pchnięcia nauki” (science push, l. 1960) lub „ciągnięcia potrzeb” (demand pull, l. 1970) upowszechnia się teraz bardziej złożony i interaktywny model tego zjawiska; dominuje przekonanie, że sukces innowacji zależy od pomyślnej współpracy wielu różnych aktorów gry gospodarczej - naukowców, inżynierów,
menedżerów, techników, specjalistów od marketingu, użytkowników. Nowe rozumienie
zjawiska wpływa na zmianę polityki innowacyjnej; bezpośrednie dotacje na rzecz programów technologicznych przestają być jej głównym instrumentem, polityka innowacyjna uwzględnia obecnie o wiele większą gamę środków - wspieranie infrastruktury
nauki i techniki, transfer technologii, tworzenie sieci informacyjnych, ulgi podatkowe i
kredyty, politykę regionalną.
Zgodnie z interaktywnym modelem innowacji ani badania podstawowe, jak w l. 1960.,
ani stosowane, jak w l. 1970., nie zajmują uprzywilejowanej pozycji w polityce naukowej. Podział na badania podstawowe i stosowane jest coraz częściej kwestionowany.
Specjalnymi względami cieszą się badania strategiczne (tj. podstawowe, ale podejmowane w dziedzinach związanych z nowymi technologiami), interdyscyplinarne (jako
źródła większości odkryć), przed-konkurencyjne, „bliskie rynkowi” oraz tzw. przenoszące (transfer sciences, pomiędzy czystą nauką a technologią).
Rośnie waga instytucji pełniących rolę interfejsu między nauką a techniką z jednej strony, a nauką i techniką a gospodarką i społeczeństwem, z drugiej (m.in. agencji transferu
technologii). Silniej niż w poprzednich dekadach podkreśla się też znaczenie badań
opartych na współpracy (collaborative research) pomiędzy firmami, instytutami naukowymi, nauką i przemysłem. Większe znaczenie posiada też współpraca międzynarodowa.
Obok polityki naukowej prowadzonej na szczeblu krajowym rośnie waga polityki
uzgadnianej na szczeblu międzynarodowym (UE, OECD, G7) oraz na szczeblach regionalnych i lokalnych.
Zmienia się znacznie badań uniwersyteckich. Po okresie względnego niedoceniania (i
niedostatecznego finansowania) w l. 1970. odzyskały one pozycję z lat 1960. O ile jednak
327
w l. 1960. były one cenione z powodu swej roli w rozwoju nauk podstawowych, teraz
znaczenie ich płynie ze spodziewanego wkładu w rozwój gospodarczy i społeczny, w innowacje technologiczne i organizacyjne, w politykę regionalną. Inaczej niż dawniej, w
uniwersytetach widzi się nie tyle samotne „świątynie wiedzy”, co bardzo ważne ogniwa
w sieci powiązań łączących badania, edukację, innowacje przemysłowe, zarządzanie
technologiami, planowanie regionalne oraz rozwój kultury. Z tego punktu widzenia
szczególne zainteresowanie budzą stosunki wyższych uczelni z przemysłem i administracją publiczną, zwłaszcza na szczeblu lokalnym. Uniwersyteckie parki nauki oraz odpryskowe firmy „wysokiej technologii” stają się niemal przedmiotem kultu. W przeciwieństwie do wcześniejszych dekad od badań uniwersyteckich oczekuje się teraz, aby
dotyczyły spraw mających choćby potencjalne znaczenie praktyczne i były prowadzone
oszczędnie i efektywnie.
Zmieniają się formy zarządzania nauką. Na szczeblu krajowym maleje (lub zanika) bezpośrednie administrowanie i odgórne zarządzanie, wzrasta rola wielostronnych konsultacji. Zadaniem ministerstwa jest teraz pełnienie funkcji negocjacyjnych i syntezujących
(rozpoznawanie różnych punktów widzenia i intersów ministerstw, instytutów naukowych, przemysłu i innych użytkowników N+T oraz przekładanie ich na dyrektywy polityczne). Na szczeblach niższych, w kierowaniu projektami badawczymi i technologicznymi (realizowanymi niejednokrotnie w dużych zespołach międzynarodowych korzystających z kosztownej aparatury) sięga się coraz częściej do technik menedżerskich,
opracowanych wcześniej na potrzeby biznesu.
Zmienia się także pojęcie priorytetu. W poprzedniej dekadzie priorytet odnosił się do
krótkoterminowych potrzeb artykułowanych przez rynek lub administrację; w l. 1980 do długofalowych potrzeb gospodarczych i społecznych związanych z kształtowaniem
się nowego paradygmatu techniczno-gospodarczego.
Te długofalowe priorytety ustala się coraz częściej dzięki stosowaniu technik prognostycznych (research foresight). Aby proces prognozowania był skuteczny, a) korzysta się
w nim z wielu aktualnych danych o światowych trendach w nauce, technice i gospodarce, b) nadaje się mu charakter wielostronnych konsultacji z udziałem nie tylko producentów, ale i użytkowników wiedzy, c) ogranicza się jego zadanie do identyfikacji głównych trendów (z pozostawieniem placówkom naukowym, stowarzyszeniom i firmom
zadania określenia bardziej szczególowych prognoz).
W l. 1980. wzrost kosztów uprawiania nauki postawił ostrzej niż dotąd problemy selekcji, odpowiedzialności za powierzone zadania i fundusze (accoutability), efektywności
mierzonej porównaniem nakładów i korzyści. Wpłynęło to na rozwój i upowszechnienie
odrębnej rachunkowości w zakresie badań, ewaluacji, zarządzania, prognozowania,
ustalania priorytetów, tworzenia budżetu nauki. To z kolei pociągnęło za sobą daleko
idące zmiany w statystyce B+R/N+T.
W ramach programu OECD TEP (The Technology/Economy Programme) podjęto prace
nad zintegrowaniem danych statystycznych uprzednio zbieranych, analizowanych i publikowanych osobno, szczególnie w zakresie B+R/N+T (B+R, patenty, TBP, bibliome328
tria), gospodarki (rachunki narodowe, dane makroeknomiczne, dane dotyczące przemysłu i handlu), zasobów ludzkich (kształcenie, szkolenie, zatrudnienie) i środowiska.
Rozwinięto nowe wskaźniki dla pomiaru
•
innowacji i ich dyfuzji;
•
współzależności dyscyplin naukowych i technologii przemysłowych;
•
inwestycji niematerialnych;
•
podaży i popytu na naukowców i inżynierów.
Rozwój prognostyki pociągnął za sobą rozwój takich nowych pól bibliometrii, jak cocitation clustering i keyword analysis.
W Holandii w latach 1980. skrystalizowała się odrębna od naukowej polityka technologiczna; odpowiedzialność za nią przeniesiono z Ministerstwa Edukacji i Nauki do Ministerstwa Spraw Gospodarczych. W l. 1980. zastosowano tu na większą skalę wskaźniki
outputu. Posłużono się nimi m.in. dla oceny zespołów badawczych w ramach polityki
koncentracji badań socjologicznych. W roku 1987 zainicjowano 5-letni program rozwoju
wskaźników bibliometrycznych dla oceny badań podstawowych. Pod koniec dekady
projekt budżetu nauki uwzględniał wskaźniki B+R/N+T i na ich podstawie przedstawiał
pozycję nauki holenderskiej na tle innych krajów.
W latach 1990. nasiliło się międzynarodowe współzawodnictwo gospodarcze pomiędzy
poszczególnymi krajami, regionami i firmami (wskutek m.in. zakończenia zimnej wojny i
osłabienia wyścigu zbrojeń; upadku autarkicznego bloku sowieckiego; postępującej globalizacji gospodarki, rozszerzania zasięgu działania na cały świat nawet małych przedsiębiorstw; przeprowadzanej w różnych krajach prywatyzacji i deregulacji; ekspansji
gospodarczej państw azjatyckich i postkomunistycznych). „Konkurencyjność gospodarcza” stała się nowym słowem kluczowym polityki, a autor najlepszej książki na jej temat,
Michael Porter, nowym guru ekonomii.
Polityka naukowa zostaje silniej podporządkowana strategii wzrostu gospodarczego i
poprawy konkurencyjności gospodarczej. Ale nie nauka, ale edukacja, jest priorytetem
tej strategii.
Problematyka polityki naukowej coraz częściej pojawia się w programach rządowych w
połączeniu z zagadnieniami edukacji, zatrudnienia, przemysłu i handlu zagranicznego.
W programach tych następuje przesunięcie zainteresowania z B+R na wiedzę, obejmującą nie tylko B+R, ale także umiejętności menedżerskie, organizacyjne i językowe, kwalifikacje techniczne, kompetencje kulturalne itd. Tak rozumianą wiedzę określa się jako
element każdego procesu społecznego i gospodarczego, każdego produktu i usługi.
Wraz z rozszerzaniem zainteresowania z B+R na wiedzę następuje równoległe poszerzenie pojęcia producenta wiedzy (już nie tylko badacze skupieni w uniwersytetach i instytutach państwowych, ale także w przemyśle i organizacjach niedochodowych; już nie
tylko badacze, ale także eksperci i analitycy pracujący w firmach doradczych, think tanks
itd.).
329
Również i innowację rozumie się szerzej; podkreśla się, że jej sukces zależy od szerokiej
grupy instytucji, instrumentów i czynników, od przemysłu po system bankowy, szkolenie zawodowe, a nawet ogólny poziom wiedzy i umiejętności społeczeństwa.
Nie tworzenie nowej wiedzy naukowej i technologicznej, ale jej upowszechnianie i zarządzanie stają się głównymi problemami polityki innowacyjnej.
W miarę jak wzrasta współpraca między naukowcami, zespołami badawczymi, instytucjami naukowymi, krajami, adresatem tradycyjnej polityki naukowej, wspierającej B+R,
są coraz częściej nie poszczególni naukowcy i zespoły badawcze, tylko (międzyinstytucjonalne i międzynarodowe) sieci badawcze.
Wsparcie B+R jest też coraz częściej kierowane na opracowanie, przewidywanie następstw lub dostosowanie pewnej dziedziny gospodarki lub życia publicznego do międzynarodowych norm i regulacji.
W l. 1990. powraca problem określenia funkcji badań podstawowych. Podkreśla się, że
badania te rozczepiły się na (rozszerzający się) obszar badań strategicznych oraz na
(kurczący się) obszar badań prowadzonych „z czystej ciekawości”, bez zewnętrznej presji
i bez myśli o jakichkolwiek zastosowaniach praktycznych (np. matematyka teoretyczna,
fizyka cząsteczek). Potrzebę wspierania badań podstawowych uzasadnia się dziś nie tyle
ich samoistną rolą, wartościami poznawczymi i znaczeniem dla kultury, co użytecznością ze względu na rozwój technologii. Poszukiwania nowych technologii są ograniczone
zarówno przez interesy, praktyki i zasoby finansowe firm, jak i przez „trajektorie rozwoju” samych technologii. Badania podstawowe stale zasilają laboratoria przemysłowe w
nowe narzędzia, metody i techniki analityczne, idee i koncepcje. Są one nieustannym
źródłem fermentu i różnorodności. Jako takie, potrafią przekraczać ograniczenia rynkowe i technologiczne w rozwoju techniki. Zwraca się uwagę, że nie ma obiektywnej, naukowej, optymalnej miary odsetka krajowych nakładów na B+R, który powinien być
przeznaczony na badania podstawowe. Doświadczenia krajów OECD wskazują, że odsetek ten waha się od 10% do 20%. Jeśli spada poniżej 10%, grozi to zahamowaniem innowacji w przemyśle, nastawionym coraz bardziej na wytwarzanie wyrobów wysokiej
technologii; jeśli przekracza 20%, jest oznaką, że krajowy przemysł jest niezdolny do
wchłaniania (poprzez badania stosowane) wyników badań podstawowych (co cechuje
kraje rozwijające się).
Bardzo mała część B+R zależy dziś od decyzji podjętych przez samych badaczy. Podkreśla się, że „środowisko naukowe musi zawrzeć nowy kontrakt z politykami, oparty nie
na żądaniach autonomii i stałego wzrostu budżetu nauki, lecz na realizacji jasno sprecyzowanego programu badawczego nastawionego na cele społeczne i gospodarcze”.
Opisane tu przemiany rzuciły nowe wyzwanie statystykom.
Nowa generacja statystyki outputu, której opracowania podjęło się OECD, powinna pokazać, w jaki sposób poszczególne kraje przekształcają wiedzę we wzrost gospodarczy i
wzrost zatrudnienia. Pozwoli to rządom na prowadzenie stałej oceny skuteczności polityk innowacyjnych oraz na wprowadzanie do nich stosownych korekt.
330
Zadaniem do wykonania pozostaje stworzenie statystyki wiedzy odnoszącej się do spraw
gospodarczych i społecznych (różnej od statystyki B+R).
W Holandii w latach 1990. w związku z ograniczeniami budżetowymi polityka naukowa
przybrała bardziej selektywny i strategiczny charakter. Dla pomocy w dokonywaniu
strategicznych wyborów powołano w roku 1992 Komitet Konsultacyjny Przed-glądu
Badań (The Consultative Committee for Research Foresight, OCV) oraz Holenderskie
Obserwatorium Nauki i Techniki (NOWT, 1992).
NOWT ma charakter konsorcjum trzech instytutów: Centrum Studiów nad Nauką i
Techniką (CWTS), Instytutu Badań nad Innowacją i Technologią (MERIT) oraz Holenderskiej Agencji Informacji Badawczych (NBOI). Po dwuletniej pracy nowa placówka
wydała pierwszą z serii dwuletnich raportów pt. Wskaźniki Nauki i Techniki (1994)
oceniających stan i trendy w nauce i technice w Holandii w porównaniu z innymi krajami.
Kolejny pięcioletni program rozwoju bibliometrii (1992-1997) rozszerzył swoje zadania
(oprócz oceny poziomu badań także studia nad „kartografią nauki” oraz powiązaniami
nauki z techniką) oraz bazę źródłową (oprócz danych bibliometrycznych także m.in. informacje patentowe oraz dane o formalnych powiązaniach badawczych).
Podjęto dyskusję nad rozszerzeniem kryteriów oceny wniosków badawczych o kryterium użyteczności społecznej.
W ramach publikacji budżetu nauki 1991 zamieszczono „Białą Księgę Wskaźników Nauki i Techniki”. Obejmowała ona typologię wskaźników, opis ich funkcji i rozwoju historycznego oraz informację o prowadzonych badaniach w zakresie statystyki N+T.
Wszystkie opisane tu w latach 1990. przedsięwzięcia wynikły z przekonania, że w latach
1990. zagregowane dane dotyczące inputu przestały być wystarczające dla formułowania polityki naukowej; obecnie potrzeba znacznie bardziej szczegółowych informacji o
placówkach naukowych, dyscyplinach, celach społeczno-gospodarczych badań oraz
produkcji naukowej i technologicznej.
Bibliografia
Barfield Claude E. 1982, Science Policy from Ford to Reagan Change and Continuity American Enterprise
Institute for Public Policy Research Washington and London
Blume Stuart 1985, The development of Dutch science policy in international perspective 1965-1985, The
Hague: Distributiecentrum Overheidspublikaties,
Handbook of Science and Technology Studies, 1995, ed. S. Jasanoff, G.E. Markle, J.C. Petersen, T. Pinch, s.
576;
Jabłecka Julita, Koordynacja badań akademickich – teorie, koncepcje i rzeczywistość, CBPNiSW, Warszawa
2002
Jacq François 1994, The Emergence of French Research Policy: Chance or Necessity? w: Science and Power.
The Historical Foundations of Research Policies in Europe, European Commission 1994
331
Kraemer Sylvia K. 2006, Science and Technology Policy in the United States. Open Systems in Action Rutgers
University Press New Brunswick, New Jersey and London
Krishna V.V. 2001, Changing policy cultures, phases and trends in science and technology in India, “Science
and Public Policy”, vol. 28, no. 3
Ruivo Beatriz, `Phases` or `paradigms` of science policy?, “Science and Public Policy”, vol. 21, no. 3, June
1994, s. 157-164;
Salomon Jean-Jacques, 1970. Science et politique. Paris: Le Seuil. Ré-édition, Paris: Économica.
Schon Donald A. 1967, Technology and change; the new Heraclitus, New York, Delacorte Press, s. 48.
Science
and
Technology
in
Times
of
www.nsf.gov/sbe/srs/seind00/access/c1/c1i.htm
Transition:
the
1940s
and
1990s,
Smith Bruce L.R. 1990, American science policy since world war II, Brookings Institution Press
Stichweh Rudolf 1994, Differentiation of Science and Politics: Science Policy in the 19th and 20th Century w:
Science and Power. The Historical Foundations of Research Policies in Europe, European Commission 1994
Teich Albert H. 1997, The political context of science priority-setting in the United States, w: Evaluating science and scientists. An East-West Dialogue on Research Evaluation in Post-Communist Europe, ed. by Mark S.
Frankel and Jane Cave.
The uncertain quest: science, technology, and development 1994, ed. by Jean-Jacques Salomon, Francisco R.
Sagasti, and Céline Sachs-Jeantet United Nations University Press, Tokyo - New York – Paris, The United
Nations University.
FAZY ROZWOJU GOSPODARCZEGO
Wg znanej i (w wielu odmianach) często stosowanej taksonomii Michael Porter’a, gospodarki „dościgające” (catching up) przechodzą przez trzy fazy rozwoju gospodarczego:
fazę sterowaną przez czynniki wytwórcze (factor-driven), fazę kierowaną przez inwestycje oraz fazę pobudzaną przez innowacje. Końcowa faza, gdy dzięki zmianom doganiają one czołówkę, zwana jest fazą „napędzaną dobrobytem” (wealth-driven). W fazie
sterowanej „przez czynniki wytwórcze” źródłem wzrostu gospodarczego jest przede
wszystkim mobilizacja podstawowych czynników produkcji: ziemi, surowców lub niewykwalifikowanej siły roboczej. Własne wysiłki, import i inwestycje zagraniczne mogą
wprowadzić kraj w fazę „sterowaną inwestycjami”, w której inwestuje się w nowoczesne
urządzenia, procesy i produkty technologiczne. Przejście do następnej fazy napędzanej
innowacjami, polega na przekształceniu gospodarki importującej technologie w gospodarkę wytwarzającą technologie. Każda faza charakteryzuje się innymi wyzwaniami. W
fazie sterowanej „przez czynniki wytwórcze” główne wyzwanie polega na tym, aby podstawowe czynniki – ziemia, praca i kapitał – właściwie funkcjonowały; w fazie pobudzanej inwestycjami głównym wyzwaniem jest stworzenie powiązań z międzynarodowym systemem produkcji przez dostateczny napływ inwestycji zagranicznych; w fazie
napędzanej innowacjami celem jest zapewnienie wysokiego poziomu innowacji i komercjalizacji nowych technologii. Czynniki wzrostu zależą zatem od fazy rozwoju. Zdolność
łączenia różnych czynników rozwojowych zależy od rodzaju obranej strategii. Np. istnieje trade off pomiędzy krajowym B+R a technologiami importowanymi przez bezpośrednie inwestycje zagraniczne.
332
W fazie sterowanej „przez czynniki wytwórcze” źródłem wzrostu gospodarczego jest
przede wszystkim mobilizacja podstawowych czynników produkcji: ziemi, surowców
lub niewykwalifikowanej siły roboczej. „Wzlot” (take off) do stałego wzrostu jest możliwy dzięki znalezieniu obszaru przewagi porównawczej dla inwestycji dostępnych
nadwyżek. Kraje „odrabiające opóźnienia” mogą zaczynać od zadań, do których są najlepiej przygotowane, starając się podejmować nowe zadania, wymagające wyższych kompetencji i lepszej koordynacji [UNIDO 2002/2003]. Wzorce konsumpcji muszą być stopniowo przekształcane we wzorce inwestycji, tak aby zysk był re-inwestowany, a nie
przejadany. Kompetencje muszą być cenione wyżej od powiązań rodzinnych lub relacji
patron-klient. Muszą także wyłonić się siły pro-modernizacyjne [Rostow 1960]. Aby kraj
mógł “poderwać się do lotu”, potrzebuje pewnych wyjściowych aktywów, określanych
jako „kompetencje społeczne” (social capabilities) i kongruencja technologiczna (technological congruence). Kompetencje społeczne oznaczają istnienie właściwych ram instytucjonalnych, zdolność rządu do prowadzenia skutecznej polityki gospodarczej oraz
(pewne) technologiczne umiejętności społeczeństwa. Kongruencja technologiczna –
zdolność absorpcji technologii krajów bardziej rozwiniętych gospodarczo [OECD 1998].
W omawianej fazie stopa inwestycji i działalności innowacyjnej jest niska, a główna forma działalności gospodarczej polega na montażu, rolnictwie i kopalnictwie oraz pracochłonnej produkcji. W kraju działa zaledwie kilka przedsiębiorstw międzynarodowych. Technologiczne „odrabianie zaległości” polega na pozyskiwaniu oraz asymilacji
technologii na drodze importu, inwestycji zagranicznych oraz naśladownictwu. Najważniejsze mechanizmy podnoszenia poziomu wiedzy to kształcenie oraz transfer technologii zagranicznych [Wu 2000].
Własne wysiłki, import i inwestycje zagraniczne mogą wprowadzić kraj w fazę „sterowaną inwestycjami”, w której inwestuje się w nowoczesne urządzenia, procesy i produkty technologiczne. Handel, inwestycje zagraniczne, joint ventures oraz outsourcing
służą jako osi integrujące indywidualne sieci powiązań gospodarczych i pomagają zintegrować krajową gospodarkę z globalnymi sieciami produkcyjnymi oraz (następnie)
technologicznymi. Kraje ścigające traktują te sieci jako aktywa i starają się wykorzystać
je dla usprawnienia produkcji. Ułatwiają one usprawnienia technologii i napływ zagranicznego kapitału i technologii. Ściągają one kapitał zagraniczny dla produkcji masowej
standardowych technologii, lecz jednocześnie stale starają się przechodzić od wytwarzania wyrobów pracochłonnych do produkcji dóbr bardziej złożonych, technologicznie
zaawansowanych i innowacyjnych.
Podstawą gospodarki są przemysły przetwórcze. Często lokalne firmy nie umiejąc samodzielnie uruchomić produkcji nabywają „pakiety” zagranicznych technologii, które
obejmują proces montażu, specyfikacje produktu, produkcyjny know how, szkolenia, informacje oraz komponenty. Produkcja polega głównie na montażu standardowych produktów. Do tego celu wymagany jest wyłącznie własny wysiłek inżynierski. Z chwilą gdy
technologia jest wdrożona, produkcja i projektowanie technologii (design) szybko upowszechniają się po całym kraju. Wzrost konkurencji pobudza własny technologiczny
wysiłek asymilacji technologii zagranicznych w celu wytwarzania coraz bardziej zróżni333
cowanych wyrobów. Punkt ciężkości wysiłku technologicznego leży bardziej w inżynierii i (w mniejszym stopniu) pracach rozwojowych niż badaniach naukowych. Stosunkowo pomyślne przyswojenie ogólnych technologii produkcji oraz wzrastający nacisk na
promocję eksportu, łącznie ze wzrostem kompetencji miejscowego personelu naukowego i inżynieryjnego prowadzi do stopniowego ulepszania dojrzałych technologii. Importowane technologie są stosowane w różnych liniach produkcyjnych dzięki pracom
inżynieryjnym, rozwojowym, a nawet badawczym [Conceição 2002; Radosevic 2004].
Rozwój eksportu jest siłą pociągową gospodarki, a sektory o stopniowo wzrastającym
zaawansowaniu technologicznym odgrywają we wzroście dominującą rolę. Wielkość i
zawartość eksportu zmienia się dzięki akumulacji kapitału finansowego i materialnego,
stałemu ulepszaniu produktów, procesów i procedur. Zmiana technologiczna nie jest łatwa ani nieunikniona, gdy kraj otwiera się na konkurencję. Wymaga ona wspólnego wysiłku podejmowanego przez rządy, przemysł oraz (szczególnie w późniejszych stadiach)
badań naukowych, jak również polityki interwencjonistycznej (zachęty podatkowe, subsydia, regulacje) oraz sieci biznesu [Guerrieri 2007]. Kraj „odrabiający opóźnienia”, który stawia na przetwórstwo eksportowe musi wprowadzać standardy i kontrolę jakości.
W efekcie, zyskuje doświadczenie z metodami masowej produkcji, które z czasem może
wykorzystać dla ulepszenia jakości wyrobów coraz wyższych technologii [OECD 1992].
“Zmiana na lepsze” technologicznych kompetencji jest możliwa we współpracy z zmieniającymi się rynkami, polityką rządową, strategią korporacyjną i kulturą społeczną. Polityki rządowe mają na celu uruchomienie i wzmocnienie transferu technologii, odwrócenie drenażu mózgów, B+R w biznesie oraz branżowe instytuty badawcze. W przypadku słabości nauki uniwersyteckiej rządy powołują rządowe instytuty badawcze,
ściągając do nich wykształconych za granicą naukowców i inżynierów. Rozwijają się
technologiczne kompetencje firm (szkolenia, transfer zagranicznych technologii, mobilność zatrudnionych posiadających wysokie umiejętności techniczne) [Kim 2000; Juma
2002].
Technologiczne umiejętności „spóźnialskich” są stopniowo ulepszane dzięki uczeniu się
przez „odwróconą inżynierię” importowanych dóbr oraz poprzez B+R. Ulepsza się zaawansowane technologie pozyskane na drodze licencji (jak w Polsce kasy rejestracyjne
Optimusa) lub też znajduje się dla nich zastosowania w mniej zaawansowanych technologiach. Technologiczne dościganie w coraz większym stopniu polega na twórczej imitacji oraz na innowacji „pierwszej w świecie” [Kim 2000].
Przejście do następnej fazy napędzanej innowacjami, polega na przekształceniu gospodarki importującej technologie w gospodarkę wytwarzającą technologie. Przynajmniej w niektórych sektorach gospodarki kraj przesuwa światowy front rozwoju technologii. Faza sterowana innowacjami cechuje się wykorzystywaniem złożonych technologicznych rozwiązań, wytwarzaniem nauko-chłonnych innowacji, oraz ciągłym uczeniem
się siły roboczej (także kształceniem opartym na badaniach naukowych), które umożliwia szybkie przyswajanie nowych technologii. Wzrasta i pogłębia się udział sektorów
przemysłu na rynkach międzynarodowych. W działalności firm rośnie znaczenie nowej
334
wiedzy oraz kompetencji technologicznych firm. Zwiększa się stopa wzrostu z inwestycji
w B+R. Kraj podejmuje się inwestycji zagranicznych. Gospodarka staje się bardziej odporna na szoki zewnętrzne.
„Zmiana na lepsze” w fazie innowacji często polega na dostosowaniu standaryzowanej
produkcji do wymagań wysoce wyspecjalizowanych rynków, w których o konkurencyjności decydują nie tyle koszty, co jakość. W pewnych przypadkach zakłada ona przyjęcie
nowych technologii, w innych ulepszenie procesów produkcyjnych lub wiedzy o zmieniających się wzorach popytu [Hershberg]. „Czasami polega na rezygnacji poprzez outsourcing zagraniczny z ogniw produkcji charakteryzujących się niższą wartością dodana
na rzecz pogłębiania specjalizacji w ogniwach cechujących się wyższą wartością dodaną.” [Pietrobelli 2002] Ważną właściwością fazy innowacji jest zdolność firm do integracji, koordynacji i kontroli międzynarodowej produkcji i sieci technologicznych.
Przedsiębiorstwa odważniej rozwijają strategie wzrostu (ekspansja wewnątrz łańcucha
wartości, np. hurtownik staje się także sprzedawcą detalicznym, rozwija się nowe produkty i usługi, zakłada nowe kanały dystrybucji, penetruje nowe rynki geograficzne i
segmenty popytu) [Zook 2004].
Technologiczne uczenie się (jak przyjmować i przyswajać oraz zmieniać istniejące technologie) pozwala przedsiębiorstwom tworzyć nowe technologie oraz rozwijać nowe
procesy w odpowiedzi na zmieniające się warunki ekonomiczne [Kim 2000].
Podczas gdy gospodarki „odrabiające opóźnienia” mogą doświadczać szybkiego wzrostu
gospodarczego oraz przeprowadzać zmiany struktur gospodarczych, prędzej czy później
ich potencjał „chwytania” (catch-up) jest wyczerpany i wtedy poszerzają one wewnętrzną bazę naukową i technologiczną [National Innovation Systems 1998]. W fazie
„pchanej przez innowacje”, w której struktura przemysłu ewoluuje w stronę bardziej zaawansowanych technologicznie produktów i sektorów B+R odgrywa coraz większą rolę
jako czynnik dościgania i wzrostu [Pietrobelli 2002]. Różnice pomiędzy krajami ujmowane w kategoriach czysto technologicznych kompetencji, np. patentowanie, stają się
ważniejsze w wyjaśnianiu różnic wzrostu gospodarczego [Verspagen 2001]. Przejście od
polityki wspierania pracochłonnych gałęzi przemysłu do wspierania gałęzi wysokiej
techniki (lub polityki podnoszenia poziomu technologicznego gałęzi średniej i niskiej
techniki) owocuje w gospodarce wzrostem umiejętności uczenia się, innowacji oraz powiązań z sektorami nauko-chłonnymi [Dietrichs 1995].
Gdy technologia jest prosta i dojrzała, jak to się działo w poprzednich fazach, miejscowe
firmy mogą stosować „odwróconą inżynierię” lub (gdy okaże się to trudne) mogą kupować i wdrażać licencje. W fazie inwestycji przedsiębiorstwa wzmacniają niekiedy poziom swego B+R celem powiększenia siły w negocjacjach technologicznych. W fazie innowacji sektor prywatny czasem wkracza na światowe rynki, aby być bliżej frontu technologicznego. Obejmuje to zakładanie zagranicznych stacji badawczo-rozwojowych, fuzje i nabywanie zagranicznych firm wysokiej techniki oraz strategiczne umowy z międzynarodowymi koncernami [Kim 2000]. Gdy rozszerzają się jego technologiczne kompetencje, firmy mogą stawać w obliczu barier w pozyskiwaniu zewnętrznych technolo335
gii. Wówczas to rządowe organizacje B+R przenoszą swoje zainteresowania z badań
podstawowych na badania stosowane rozwój [OECD 1992]. Istotnym czynnikiem w procesie innowacji jest zdolność łączenia różnych rodzajów wiedzy i umiejętności w kontekście innowacji oraz w ramach coraz bardziej integrującego się międzynarodowego
świata nauki i technologii [Metcalfe 2000].
Polityki rządowe mają na celu wspieranie badań podstawowych na uniwersytetach, badania stosowane “ukierunkowane na misję” w branżowych instytutach badawczo-rozwojowych, B+R biznesu, globalizację B+R oraz pozyskiwanie wysoko wykwalifikowanego personelu z zagranicy [Kim 2000].
Bibliografia
Bart Verspagen, Economic Growth And Technological Change: An Evolutionary Interpretation, STI Working
Papers 2001/1.
Calestous Juma and Norman Clark, Technological Catch-Up: Opportunities and Challenges for Developing
Countries, January 2002.
Carlo Pietrobelli, Industrial Districts” Evolution and Technological Regimes: Italy and Taiwan, Setembro,
2002.
Chris Zook, James Allen, Strategie ekspansji biznesu, ‘Gazeta Wyborcza” 7-8 2 2004.
Dieter Ernst, Catching-up, crisis and truncated industrial upgrading.
Eric Hershberg, Global Restructuring, Knowledge and Learning: Notes on Industrial Upgrading and Development, Working Paper No. 15.
Espen Dietrichs, Adopting a “High-Tech” Policy in a “Low-Tech” Industry. The Case of Aquaculture, STEP
rapport Oslo, June 1995.
Industrial Development Report 2002/2003. Competing through Innovation and Learning, UNIDO.
J. S. Metcalfe, Science, Technology and Innovation Policy in Developing Economies Fourth Draft, 21st July
2000.
Linsu Kim, The dynamics of technological learning in industrialisation, The United Nations University, Discussion Paper Series, October 2000.
Maarit Lindström, Globalisation and economic integration – what challenges economies in transition?.
Michael E. Porter, Jeffrey D. Sachs, John W. McArthur, Executive Summary: Competetiveness and Stages of
Economic Growth, World Economic Forum, Global Competitiveness Report 2001-2002.
Michael E. Porter, The Competitive Advantage of Nations, 1990.
National Innovation Systems: Analytical Findings, OECD 23-24 November 1998.
P. Guerrieri, Technology and Structural Change in Trade of the CEE Countries, NATO Advanced Workshop
Quantitative Studies for Science and Technology Policy in Transition Countries, Moscow, October 23-25
1997, mszp.
Pedro Conceição, Manuel Heitor and Pedro Oliveira, Technology Policies And Strategies For Late Industrialized Countries.
Slavo Radosevic, European Integration and Complementarities Driven Network Alignment: The Case of ABB
in Central and Eastern Europe, Centre for the Study of Economic and Social Change in Europe: Working
Papers, February 2002.
Slavo Radosevic, Growth Of Enterprises Through Alliances In Central Europe, Centre for the Study of Economic and Social Change in Europe: Working Papers. February 2004;
336
Stanisław Kubielas, Technology Transfer and the Restructuring of New Market Economies: The Case of Poland, SPRU, March 1996.
Tarmo Kalvet, Tarmo Pihl, Marek Tiits, Analysis of the Estonian ICT Sector Innovation System, Tartu 2002.
Technology and the Economy. The Key Relationships, OECD, Paris 1992.
W.W. Rostow, The stages of economic growth, Cambridge 1960.
Xiaobo Wu, Zhengwei Li, Globalization and leapfrogging: China”s Auto Parts Industry.
GOSPODARKA OPARTA NA WIEDZY
[Knowledge-Based Economy]
Gospodarki wiedzy opiera się na wykorzystywaniu wiedzy do wytwarzania wartości
materialnych i niematerialnych. Zwrot ten został spopularyzowany przez Petera Druckera w tytule rozdziału 12 w książce Wiek nieciągłości (The Age of Discontinuity, 1968).
OECD określa gospodarkę wiedzy jako „opartą bezpośrednio na produkcji, dystrybucji i
wykorzystywaniu wiedzy i informacji” [OECD 1996]. Gospodarka wiedzy, w przeciwieństwie do wszystkich poprzednich, nie jest gospodarką rzadkości (scarcity) lecz obfitości:
w przeciwieństwie do większości zasobów, które wyczerpują się w miarę ich wykorzystywania, informacją i wiedzą można się dzielić: ich zasoby rosną dzięki aplikacji. Kluczowym elementem gospodarki opartej na wiedzy jest przewaga wykorzystywania aktywów niematerialnych nad wykorzystywaniem ziemi, pracy kapitału fizycznego lub zasobów naturalnych.
Bibliografia
Wikipedia 2014 Knowledge-Based Economy
OECD 1996 The knowledge based economy
Powell Walter W. and Kaisa Snellman 2004, The Knowledge Economy, “Annu. Rev. Sociol.” 30:199–220
GOSPODARKA UCZĄCA SIĘ
[Learning economy, Economy of learning]
Istotą koncepcji “Gospodarki uczącej się” jest pogląd, że w nowoczesnych gospodarkach
wiedza jest kluczowym zasobem, a interaktywne uczenie się (firm, regionów i narodów)
najważniejszym procesem [Wikipedia 2014]. Autorzy koncepcji – Archibugi i Lundvall –
właśnie w uczeniu się (a nie w samym stosowaniu wiedzy) upatrują najważniejszą a cechę współczesnych gospodarek. Wg Lundvalla głównym celem polityki innowacyjnej
powinien być wzrost możliwości uczenia się firm, instytucjami naukowych i ludzi. Kluczowe obszary dla takiej polityki to rozwój zasobów ludzkich, rozwój organizacji firm,
tworzenie sieci, usługi biznesowe i uczelnie [Archibugi 2001].
Pojęcie gospodarki uczącej się w myśli ekonomicznej oznacza przesunięcie punktu ciężkości z traktowania gospodarki jako systemu alokacji na ujmowanie jej jako procesu
337
uczenia się. Przedtem wskazywano na „niedoskonałości alokacji”, teraz wskazuje się na
„niedoskonałości uczenia się”. Przejście z ekonomii alokacji na ekonomię uczenia się
prowadzi do szukania luk, barier i szans w innych obszarach działań. Skłania do zwracania większej uwagi na problemy interakcji, koordynacji, organizacji, norm i zasad, komunikacji, kooperacji, kształcenia, wzajemnego uczenia się, bliskości geograficznej [Hedberg 2003]. .
Od zdolności uczenia się jednostek, firm, regionów i krajów zależy ich efektywność gospodarcza. Uczenie się jest konieczne zarówno w celu adaptacji do szybko zmieniających
się rynków i warunków technicznych, jak i w celu wprowadzania innowacji produktów,
procesów, procesów form organizacji [Rycroft 2004].
Uczenie się nie jest prostą adaptacją. Adaptacja to proces dostosowania do nowych okoliczności na zasadach ad hoc. Uczenie się ma inny charakter. To kumulatywny proces,
dzięki któremu nowa wiedza przenika nowe zasady, konwencje, rutyny i filtry. Uczenie
się to od modyfikacji zasad i rutyn aż po przekształcenie wyobrażeń, celów, norm i strategii. Uczenie się wymaga dobrze zdefiniowanego milieu [Hedberg 2003].
Wg jednej z koncepcji, “uczenie się gospodarki” zachodzi na pierwszym, drugim i trzecim poziomie. Pierwszy poziom, to uczenie się wewnątrz przedsiębiorstwa. Drugi poziom, to uczenie się dzięki interakcjom przedsiębiorstw, dzięki podwykonawstwu, konsorcjom, partnerstwu, joint ventures. Trzeci poziom to „meta-uczenie się”, uczenie jak się
uczyć, które zachodzi zarówno wewnątrz, jak i na zewnątrz przedsiębiorstw, zarówno
całym systemie gospodarczym. Jego skuteczność zależy od ram instytucjonalnych gospodarki. Pewne gospodarki „uczą się” szybciej od innych, dzięki ramom instytucjonalnym wspierającym uczenie się na trzecim poziomie [Matthews 1996].
Uczenie się zapewnia możliwość inteligentnej reakcji na zmieniające się uwarunkowania
zewnętrzne. Jest ono oparte na tworzeniu nowych, przekształcaniu i pozbywaniu się istniejących rutyn i kompetencji. Istnieją takie rodzaje kompetencji, których siedliskiem są
nie tyle poszczególne organizacje, co instytucje obejmujące zarówno sektory prywatny,
jak i publiczny. Uczenie się gospodarki to umiejętność eksperymentowania z nowymi
formami organizacyjnymi, adaptowania skutecznych i likwidowania nieskutecznych,
oraz ich ulepszania dzięki kontrolowanej wariacji i selekcji. Np. rozwijanie nowych
branż i likwidacja starych, tworzenie warunków ułatwiających powstawanie firm w nowych sektorach oraz adaptację firm w istniejących sektorach. Upowszechnienie „rynkowej i technologicznej inteligencji” jest narzędziem uczenia się [Matthews 1996].
Uczenie się zachodzi przede wszystkim w sieciach. Sieci i powiązania sieciowe są raczej
heterarchiczne niż hierarchiczne. Są one oparte nie na władzy biurokratycznej czy administracyjnej, ani na powiązaniach rynkowych, tylko wymianie partnerskiej. Luźne
powiązania wewnątrz sieci stwarzają korzystne warunki dla interaktywnego uczenia się
i innowacji. Sieci otwierają dostęp do różnych źródeł informacji i w ten sposób oferują
lepsze możliwości uczenia się niż organizacje hierarchiczne. Zazwyczaj oparte są one na
wzajemnej wymianie pomiędzy partnerami, wzajemnym zaufaniu, rozumieniu potrzeby
uczenia się. Sieci te przybierają rozmaite formy, takie jak np. współpraca pomiędzy fir338
mami w B+R, kontakty wykonawców i pod-wykonawców, producentów i użytkowników
itd. [Gregersen].
Najbardziej wartościowe i złożone technologie w coraz większym stopniu odnawiają się
dzięki samo-organizującym sieciom. Sieci to te powiązane ze sobą organizacje (firmy,
uniwersytety, rządowe agencje), które tworzą, pozyskują i łączą różną wiedzę i umiejętności wymagane dla tworzenia i komercjalizacji złożonych technologii. Samo-organizacja to zdolność sieci do łączenia i rekombinacji umiejętności uczenia się bez scentralizowanego, szczegółowego przewodnictwa menedżerskiego. Rozprzestrzenianie sieci samo-organizującej innowacji można wiązać z wieloma czynnikami, lecz najważniejszy to
wzrost globalizacji [Rycroft 2004].
Jedno z najważniejszych ograniczeń globalizacji to przestrzenna mobilność wiedzy. Podczas gdy informację i wiedzę skodyfikowaną można łatwo przenosić, know how i wiedza
poza-słowna nie jest tak łatwo przenaszalna. W gospodarce uczącej się kluczowe elementy wiedzy pozostają specyficzne i poza-słowne, zakorzenione w określonej organizacji i miejscu [Lundvall 1997].
Koncepcja “Gospodarki uczącej się” - podobnie jak koncepcja „Krajowego Systemu Innowacji” – ma wiele rozwinięć i aplikacji; mówi się także o „uczących się regionach” i
„uczących się miastach”. Literatura na temat „miast uczących się” i „uczących się regionów” odnosi się do uczenia się w sensie zdobywania wiedzy, pogłębiania rozumienia i
umiejętności nie tylko poszczególnych osób (poprzez udział w jakiejś formie kształcenia,
formalnego lub nieformalnego) ale także w znaczeniu „nauki”, która odbywa się w ramach i pomiędzy organizacjami (firmami, instytutami badawczymi, agencjami rozwoju
gospodarczego, itd.). Nauka jest źródłem ciągłych innowacji (w zakresie produktów,
procesów i organizacji pracy). Innowacje najczęściej rodzą się w środowisku instytucjonalnym, w którym „nauka” jest wspierana poprzez intensywną wymianę informacji między organizacjami, i gdzie panuje wysoki poziom zaufania pomiędzy organizacjami. Sukces tego rodzaju sieci organizacji zależy od efektywnej wymiany informacji wewnątrz
organizacji: aby czerpać korzyści z oddziaływania zewnętrznego, firmy, instytucje publicznych muszą być "organizacjami uczącymi się" [OECD 2001].
Od regionów masowej produkcji do regionów uczących się
Region masowej produkcji
Region uczący się
Podstawy konkurencyjności
Porównawcza korzyść oparta na
zasobach naturalnych i pracy fizycznej
Trwała (sustainable) korzyść
oparta na tworzeniu wiedzy i stałych ulepszeniach
System produkcyjny
Produkcja masowa: praca fizyczna jako źródło wartości; oddzielenie innowacji od produkcji
Produkcja oparta na wiedzy: stałe tworzenie; wiedza jako źródło
wartości; synteza innowacji i
produkcji
Infrastruktura produkcyjna
Bliskie powiązania z dostawcami
Sieci firm oraz powiązania z do-
339
stawcami jako źródła innowacji
Infrastruktura ludzka
Praca o niskich kwalifikacjach i
niskich kosztach. Siła robocza
oraz tryb kształceń i szkoleń systemu Taylora.
„Robotnicy wiedzy” (knowledge
workers). Stałe ulepszanie zasobów ludzkich. Stałe kształcenie i
szkolenie. Globalnie zorientowana infrastruktura fizyczna i
komunikacyjna.
Elektroniczna
wymiana danych
Infrastruktura fizyczna i komunikacyjna
Infrastruktura fizyczna zorientowana na kraj
Relacje wzajemnie zależne. Organizacja sieciowa. Plastyczne ramy
regulacyjne
System zarządzania przemysłowego
Powiązania oparte na walce. Nakazowo-kontrolny system zarządzania
Powiązania oparte na współpracy i konkurencyjności.
Źródło: Mothe 1998.
Organizacje uczące się. Zbiór zaleceń dotyczących organizacji uczących się przygotował Ken
Ducatel [1998]:
Tworząc organizację uczącą się:
•
Wprowadź cykl `plan, robota, sprawdzenie, działanie` w celu wprowadzania
zmian w systematyczny sposób co pozwoli na późniejszą konsolidację doświadczeń;
•
Kładź nacisk raczej na dane niż na założenia, korzystaj z narzędzi statystycznych, zachęcaj do dokładności, precyzji i dyscypliny w myśleniu;
•
Zachęcaj do kwestionowania decyzji.
•
Zachęcaj do systematycznego, dobrze zaprojektowanego i udokumentowanego eksperymentowania w celu testowania nowej wiedzy;
•
Wynagradzaj podejmowanie ryzyka;
•
Przeprowadzaj ewaluacje stosując formalne techniki;
•
Analizuj eksperymenty, tak aby wiedza poza-słowny know how pozyskiwany
w trakcie realizacji projektów był przekształcany w możliwy do transferu
know why;
•
Upewnij się, że lekcje są upowszechniane.
Uczenie się z doświadczeń
•
Oceniaj systematycznie rezultaty i przeprowadzaj rutynowe oceny działań;
•
Ucz się na błędach.
Uczenie się od innych
•
Praktykuj benchmarking;
•
Badaj raczej praktyki niż rezultaty;
•
Bądź uważny i systematyczny w swojej pracy;
•
Wydobywaj idee od klientów o produktach, usługach, zmieniających się preferencjach;
•
Obserwuj klientów w działaniu. Rozwiń sztukę uważnego słuchania.
•
Raporty dla podsumowania ustaleń, opisu procesów i zdarzeń;
Usystematyzuj
rozwiązywanie problemów
Eksperymentuj z nowymi podejściami
Szybki i skuteczny
transfer wiedzy
340
•
Dobrze przemyślane study tours;
•
Rotacja personelu jako środek efektywnego transferu doświadczeń i umiejętności;
•
Praca zespołowa dla dzielenia się know how i dla tworzenia nowej wiedzy;
•
Edukacja i szkolenia;
•
Ewaluacje.
Bibliografia
Ducatel Ken 1998, Learning and skills in the Knowledge Economy, Druid Working Paper.
Gregersen Birgitte, Björn Johnson, Towards a Policy Learning Perspective on the Danish Wind-power Innovation System, http://www.esst.uio.no/posti/workshops/gregers.pdf
Hedberg Bo, 2003, How organization learn and unlearn, w: Knowledge, learning and routines. Knowledge
and learning, vol. 1, ed. By Nathalie Lazaric and Edward Lorenz.
Lundvall Bengt-Åke, Susana Borrás, 1997, The globalising learning economy: Implications for innovation
policy, December 1997, http://www.cordis.lu/tser/src/globec.htm
Matthews John 1996, Organisational foundations of the knowledge-based economy, in: Employment and
Growth in the Knowledge-based Economy, OECD.
Morgan Gareth 1997 Obrazy organizacji (oryg. Images of organization 1986) Warszawa PWN.
Mothe John de la i Gilles Paquet 1998, Local and Regional Systems of Innovation as Learning Socio-Economies, w: Local and Regional Systems of Innovation, ed. John de la Mothe i Gilles Paquet, Boston, Mass.,
Kluwer Academic Publishers.
OECD 2001 Cities and Regions in a New Learning Economy, Paris.
Rycroft Robert W. and Don E. Kash, 2004, Self-organizing innovation networks: implications for globalization, “Technovation” Volume 24, Issue 3 , March 2004.
The Globalizing Learning Economy 2001, Danielle Archibugi and Bengt-Åke Lundvall 2001, (eds.), Oxford:
Oxford University Press.
Wikipedia Learning Economy 2014.
INTELIGENCJA ROZPROSZONA
Inteligencja rozproszona (ang. distributed intelligence, collaborative intelligence) – umiejętność
czerpania wiedzy z sieci osób i sieci Internetu, a także tworzenie się współpracy pomiędzy wieloma sprawcami bez uprzednio zdefiniowanego planu i bez jasnego organu dowodzącego. Inteligencja rozproszona związana jest ze zjawiskiem globalizacji, które ułatwiło wymianę danych na
poziomie globalnym i pozwoliło na stworzenie nowych perspektyw w, m.in., edukacji. W informatyce istnieje analogiczny termin, rozproszona informatyka (ang. distributed informatics),
oznaczający współtworzenie narzędzi informatycznych przez wielu nieskoordynowanych
sprawców.
Bibliografia
Inteligencja rozproszona, Wikipedia 2014.
341
INTELIGENTNA SPECJALIZACJA
[Smart Specialisation]
„Inteligentna specjalizacja” (ang. smart specialization) to koncepcja oraz narzędzie planowania strategicznego, służącego do określania i budowania obecnego oraz przyszłego
miejsca (pozycji) regionu lub państwa w gospodarce opartej na wiedzy [Kardas 2010].
Koncepcja inteligentnej specjalizacji, opracowana w roku 2008, stała się od końca I dekady XXI wieku przedmiotem dużego zainteresowania ze strony przedstawicieli świata
nauki, biznesu i administracji publicznej. „Odniesienie do „inteligentnej specjalizacji”
znalazło się m.in. w dokumencie Europa 2020, opublikowanym przez Komisję Europejską w marcu 2010 roku [Kardas 2010].
W Strategii „Europa 2020” oraz w działaniach Komisji UE „inteligentna specjalizacja” jest
kluczowym rozwiązaniem dla unikania rozproszenia funduszy badawczych UE, polegającym na wspieraniu tych aktywów – badań, innowacji, zasobów ludzkich i finansowych
- które wynikają z istniejących lub przyszłych przewag komparatywnych i są najlepsze z
punktu widzenia długofalowych interesów gospodarczych, społecznych i ekologicznych
regionów i krajów [Rusu 2013].
Strategie inteligentnej specjalizacji różnią się od tradycyjnych inicjatyw polityki przemysłowej. Różnice polegają na
•
•
skupieniu się na konkretnych działaniach, a nie szerokich sektorach,
konsultacjach jako niezbędnej fazie w projektowaniu strategii [IPP OECD 2014].
Wsparcie statystyki. Z chwilą opracowania koncepcji i uwzględnienia jej w Strategii
„Europa 2020” opublikowano wiele ocen specjalizacji regionalnych, opartych na danych
statystycznych [KE 2009b, KE 2010c, Markowska 2012].
Historyczne źródła. „Założenia koncepcji nawiązują m.in. do takich teorii jak: teoria
produktu podstawowego, według której drogą do rozwoju regionalnego jest specjalizacja produkcyjna – skupienie się na określonej grupie towarów, które mogą być najbardziej konkurencyjne na rynkach zewnętrznych. Rolę specjalizacji podkreśla się również w koncepcji elastycznej produkcji, zgodnie z którą system oparty na elastycznej
produkcji stosowanej przez małe i średnie firmy, które mogą łatwo zmieniać produkcję i
dostosowywać ją do warunków rynkowych, zapotrzebowania konsumentów czy nowych rozwiązań technologicznych, pozwala uzyskać im specjalizację, dzięki której łatwiej znajdują niszę rynkową w gospodarce globalnej i mogą być wysoce konkurencyjne
w swojej dziedzinie. Teoria elastycznej produkcji wiąże się również z teorią dystryktu
przemysłowego Alfreda Marshalla, czyli obszaru na którym koncentrują swoją lokalizację wyspecjalizowane zakłady przemysłowe. Na podobnych założeniach opiera koncepcja klastra (cluster) przedstawiona przez Michaela Portera. Wzajemna kooperacja
przedsiębiorstw z danego sektora, współpraca z jednostkami takimi jak uniwersytety,
instytucje wspierające biznes, ale i wzajemna konkurencja, sprzyjają specjalizacji firm i
342
regionu, na którym funkcjonuje klaster. Koncepcją, która również posiada wiele elementów wspólnych ze strategią inteligentnej specjalizacji jest strategia rozwoju endogenicznego, czyli opartego na wewnętrznych zasobach i potencjale np. regionu. Potencjał
ten rozumiany jest jako możliwe do ujawnienia, dodatkowe możliwości rozwojowe regionu, które tkwić mogą w czynnikach produkcji, potencjale inwestycyjnym czy innowacyjności środowiska regionalnego [Sztorc 2012].”
Silne i słabe strony. „Jak podkreślają twórcy koncepcji, inteligentna specjalizacja jest
strategią dla wszystkich regionów, nie tylko liderów technologicznych. Jej wdrożenie ma
dać Europie szansę na zwiększenie konkurencyjności na rynku globalnym. Za koncepcją
przemawia konieczność koncentrowania środków na określonej liczbie priorytetów i celów tak, aby nie rozdrabniać i nie dublować działań. Pozytywne jest również wskazanie
na konieczność włączenia do strategii mechanizmów monitorowania i ewaluacji.
Jednocześnie jednak koncepcja ta budzi szereg obaw. Szybki rozwój nauki, jaki obecnie
obserwujemy powoduje, że nie jesteśmy w stanie dokładnie przewidzieć jakie technologie, w dłuższej perspektywie czasowej, będą rozwijać się w sposób najbardziej dynamiczny, a tym samym oparcie się na jakich dziedzinach zapewni regionom przewagę
konkurencyjną. Do pewnego stopnia wskazanie takich obszarów jest oczywiście możliwe np. w ramach badań typu foresight. Przy ich realizacji należy zwrócić szczególną
uwagę na sektor przedsiębiorstw – na to, jakie zapotrzebowanie na innowacje zgłaszają
firmy i jakie są ich prognozy w zakresie rozwoju danych dziedzin [Sztorc 2012].”
Bibliografia
EC-IPTS S3 2012, Guide on national/regional Research and Innovation Strategies for Smart Specialisation
(RIS3)
Foray D. 2009, Understanding “Smart Specialisation”, w: The questions of R&D Specialisation: Perspectives
and policy implications, Institute for Perspective Technological Studies - Joint Research Centre, Seville.
Foray D., Van Ark B. 2007, Smart specialization in a truly integrated research area is the key to attracting
more R&D in Europe, Knowledge Economists Policy Brief n˚ 1, October 2007.
Foray Dominique, Paul A. David, & Bronwyn H. Hall, 2011, Smart specialization. From academic idea to political instrument, the surprising career of a concept and the difficulties involved in its implementation, MTEI
Working Paper
IPP OECD 2014, Smart Specialization
Kardas Marcin, 2010, Inteligentna specjalizacja – (nowa) koncepcja polityki innowacyjnej, MNiSW.
Komisja Europejska 2009, Przygotowanie się na przyszłość: opracowanie wspólnej strategii w dziedzinie
kluczowych technologii wspomagających w UE, KOMUNIKAT KOMISJI DO PARLAMENTU EUROPEJSKIEGO,
RADY, EUROPEJSKIEGO KOMITETU EKONOMICZNO-SPOŁECZNEGO I KOMITETU REGIONÓW KOM(2009)
512 wersja ostateczna Bruksela, dnia 30.9.2009
Komisja Europejska 2010, EUROPE 2020 A strategy for smart, sustainable and inclusive growth, COMMUNICATION FROM THE COMMISSION, COM(2010) 2020, Brussels, 3.3.2010
Komisja Europejska 2010b, Document accompanying the Commission Communication on Regional Policy
contributing to smart growth in Europe 2020 COMMISSION STAFF WORKING DOCUMENT COM(2010) 553
final Brussels, 6.10.2010 SEC(2010) 1183
343
Komisja Europejska, 2009b, Exploring regional structural and S&T specialisation: implications for policy,
Prepared by Dr. Viola Peter and Rainer Frietsch.
Komisja Europejska, 2010c, International Science & Technology Specialisation: Where does Europe stand?
Prepared by Dr Viola Peter and Nelly Bruno.
Komisja Europejska, Inicjatywa rynków pionierskich dla Europy, COM(2007)860, Bruksela 21 grudnia
2007 r.
Markowska Małgorzata, Bartłomiej Jefmański, 2012, Fuzzy Classification of European Regions in the Evaluation of Smart Growth, “Przeglad Statystyczny” R. LIX – ZESZYT 1
Rusu Margareta 2013, Smart Specialization a Possible Solution to the New Global Challenges, “Procedia
Economics and Finance” 6
Sztorc Elżbieta 2012, Inteligentna specjalizacja – nowe wyzwanie dla regionów, Regioportal.
Zerka P., Turning gaps into niches. For a new innovation paradigm in Central Europe, demosEUROPA, Warszawa 2010.
INTELIGENTNE MIASTO
[Smart city]
Pojęcie inteligentnego miasta powstało na skrzyżowaniu pojęć „społeczeństwa wiedzy”
(czyli społeczeństwa, w którym kapitał ludzki i społeczny uznaje się za najcenniejszą
formę kapitału) i „miasta cyfrowego”. Opiera się ono na spostrzeżeniu, że funkcjonowanie miast nie zależy tylko od wyposażenia ich w twardą infrastrukturę ("kapitał rzeczowy"), ale również, i to w coraz większym stopniu, od dostępności i jakości kapitału
intelektualnego i kapitału społecznego jego mieszkańców. Trzy główne wymiary inteligentnego miasta to technologia (integracja infrastruktury i usług opartych na technologiach), ludzie (kształcenie) i zarządzanie w celu wzmocnienia instytucji i zaangażowania
obywateli. Teleinformatyka zmieniająca życie i pracę jest kluczem do inteligentnego
miasta. Ale inteligentne miasto to także miasto uczące się. Dla powstania inteligentnego
miasta potrzebne jest też wsparcie rządu i władz miejskich.
Inteligentne miasto nasyca informacją cyfrową infrastrukturę rzeczową celem poprawy
komfortu, ułatwiania mobilności, podnoszenia wydajności, oszczędzania energii, poprawy jakości powietrza i wody, identyfikacji i szybkiego rozwiązywania problemów,
zbierania danych dla podejmowania lepszych decyzji, oraz udostępniania danych służących współpracy całej społeczności. Jednak wprowadzanie cyfrowej informacji do każdego podsystemu miasta (transport, energia, edukacja, ochrona zdrowia, budynki, infrastruktura, żywność, woda, bezpieczeństwo publiczne) to nie wszystko. Inteligentne miasto powinno to jedna organiczna całość - powiązany system. Nowa „inteligencja miast”
tkwi w coraz bardziej efektywnym połączeniu cyfrowych sieci telekomunikacyjnych,
czujników i identyfikatorów oraz „oprogramowania” (wiedza i kompetencje poznawcze) [Nam].
W Polsce strategię Smart City dla Krakowskiego Obszaru Metropolitalnego opracowuje
Krakowski Park Technologiczny.
344
Bibliografia
Nam Taewoo & Theresa A. Pardo, Conceptualizing Smart City with Dimensions of Technology, People, and
Institutions, The Proceedings of the 12th Annual International Conference on Digital Government Research.
Stawasz Danuta, Dorota Sikora-Fernandez, Maciej Turała, 2012, Koncepcja Smart City jako Wyznacznik Podejmowania Decyzji Związanych z Funkcjonowaniem i Rozwojem Miasta, „Zeszyty Naukowe Uniwersytetu
Szczecińskiego” Nr 721 Studia Informatica Nr 29.
Smart city, 2014, Wikipedia.
INTERES PUBLICZNY
„Interes publiczny „jest interesem dającym się potencjalnie odnieść do wielu niezindywidualizowanych adresatów traktowanych jako wspólny podmiot. Interes społeczny
sprzyjać ma realizacji interesu indywidualnego, a nie odwrotnie.” „Interes publiczny jest
nieostrym pojęciem normatywnym; stanowi element systemu prawnego i wpływa na
podejmowane przez administrację działania. Na wykładnię tego pojęcia mają wpływ
czynniki zewnętrzne, polityczne, społeczne, gospodarcze i konkretyzuje je sytuacja. Decentralizacja władzy, jako zrzeczenie się odpowiedzialności publicznoprawnej administracji rządowej za wykonywanie części zadań publicznych na rzecz podmiotów spoza
administracji rządowej, powoduje „rozwarstwienie” interesu publicznego. Ze względu
na upodmiotowienie społeczności lokalnych należy przyjąć koncepcję odrębności interesu lokalnego od interesu państwa [E-Prawnik.pl].”
Dyskusja wokół pojęcia „interesu publicznego” skupia się wokół pytań: Jak definiować
„interes publiczny”? Jakie działania i polityki leżą w „interesie publicznym”? Kto ma decydować, co leży w interesie publicznym?
Rozróżnienie między pojęciami dobra wspólnego i interesu publicznego. Pojęcie
dobra wspólnego w średniowiecznych traktatach Tomasza z Akwinu i Suareza miało
charakter polityczny. Dobro wspólne było celem dla państwa. Państwo było postrzegane
jako narzędzie urzeczywistnienia celów wykraczających poza niego samego. Dobro
wspólne polegało na realizacji wielu konkretnych celów wspierających dobro ludzi, takich jak pokój, porządek, dobrobyt, sprawiedliwość i poczucie wspólnoty.
Ale dobro wspólne było więcej jednak czymś więcej niż agregacją poszczególnych dóbr.
Drugi aspekt powszechności dobra wspólnego to wymóg, aby korzyści dobra wspólnego
były dzielone. Dobro wspólne ma zwiększać poczucie dobrostanu poszczególnych osób,
ale nie może być sprowadzane do prywatnych korzyści. Nie może być pokoju, porządku,
dobrobytu, sprawiedliwości i wspólnoty bez współudziału społeczności; każda osoba zależy od współobywateli.
Z biegiem czasu pojęcie dobra wspólnego zostało zastąpione pojęciem interesu publicznego.
345
Wraz z rozpadem średniowiecznego feudalizmu i wzrostem znaczenia narodowych monarchii pojęcie dobra wspólnego coraz częściej było utożsamiane z interesami korony.
Było ono używane dla uzasadnienia królewskich żądań w stosunku do poddanych,
szczególnie w odniesieniu do poboru podatków koniecznych dla prowadzenia wojen. W
oczach poddanych zaczęło być obciążone negatywnymi konotacjami.
Rzecznicy interesu publicznego odnosili to pojęcie do prywatnego dobrobytu poszczególnych obywateli. Byli oni zainteresowani zwłaszcza dobrobytem materialnym, własnością i prawami majątkowymi. Rzecznicy interesu publicznego głosili tę ideę przeciwstawiając ją pojęciu dobra publicznego, łączonego z prerogatywami króla i honorem narodu. Interes publiczny zawierał w sobie myśl, że dobrobyt rodzi się z kultywowania
prywatnej własności (a nie toczenia wojen). Pojęcie interesu publicznego stało się szeroko znane w ramach liberalnego i demokratycznego buntu przeciw roszczeniom królewskiej, szczególnie w Anglii. Najczęściej pojęcie „interesu publicznego” oznaczało
wprost i dość bezkrytycznie realizację osobistych preferencji. "Wspólnota jest to fikcyjne
ciało, które składa się z poszczególnych osób uznawanych za stanowiących tę wspólnotę, jak gdyby byli jej członkami. Co zatem znaczy interes wspólnoty? Jest to suma interesów członków, którzy ją tworzą" – pisał Jeremy Bentham (1748-1832). W ten jednak
sposób pojęcie „interesu publicznego” gubiło pewne cenne elementy zawarte w średniowiecznym pojęciu „dobra wspólnego”.
Bibliografia
Benditt Theodore M. 1973, The Public Interest, “Philosophy and Public Affairs”, Vol. 2, No. 3.
Douglass Bruce 1980, The Common Good and the Public Interest “Political Theory, Vol. 8, No. 1.
E-Prawnik.pl http://e-prawnik.pl/narzedzia/slownik/interes-spoleczny--publiczny-.html
INTERESARIUSZE POLITYKI NAUKOWEJ
[Research Policy Stakeholders]
Termin ten odnosi się do osób, organizacji lub grup formalnych i nieformalnych, będących przedmiotem, pozostających pod wpływem lub też zainteresowanych formułowaniem polityki naukowej. Uważa się, że podczas gdy, że „podmioty polityki” (policy actors)
odgrywają aktywną rolę, starając się wpływać na politykę publiczną, interesariusze mogą odgrywać rolę bierną.
Aktorzy i interesariusze polityki naukowej mogą obejmować środowisko naukowe, decydentów, działaczy politycznych, urzędników, pracowników służby cywilnej, związki
zawodowe, przedsiębiorców, stowarzyszenia zawodowe, ośrodki analityczne, organizacje pozarządowe, media i grupy obywatelskie. Wiele krajów stara się włączać obywateli
w formułowanie polityki oraz ustalanie priorytetów badawczych.
Pomiędzy stronami uczestniczącymi i zainteresowanymi w formułowaniu zachodzi
przepływ informacji, zwany komunikacją polityczną.
346
KAPITAŁ INTELEKTUALNY
[Intellectual Capital]
Pojęcie kapitału intelektualnego (KI) – definiowane w zarządzaniu jako różnica między
wartością rynkową a wartością księgową przedsiębiorstwa – zostało rozszerzone tak, że
objęło inne rodzaje skupisk. Określa się nim ogół aktywów niematerialnych ludzi, przedsiębiorstw, społeczności, regionów, które mogą stanowić źródło obecnego i przyszłego
dobrobytu kraju [Raport 2008].
Unia
Europejska
Państwa
Regiony - Miasta
Firmy - Uniwersytety - NGOs
Punktem wyjścia koncepcji kapitału intelektualnego było spostrzeżenie Petera Druckera, że w post-kapitalistycznym społeczeństwie wiedza zastąpi maszyny, kapitał, surowce
i pracę jako podstawa działalności gospodarczej. Przewaga konkurencyjna będzie tkwić
nie tyle w kapitale fizycznym, takim jak grunty, sprzęt lub urządzenia, co w wartości aktywów niematerialnych oraz wiedzy.
Dawniej bogactwa narodów oceniano na podstawie ilości środków trwałych. Dziś coraz
częściej bierze się pod uwagę aktywa niematerialne, takie jak zdrowie, edukację, badania i rozwój [Yeh-Yun Lin 2011].
Składniki. Istnieje wiele propozycji klasyfikacji składników kapitału intelektualnego.
Wg N. Bontisa na kapitał intelektualny składa się
1) kapitał ludzki – zasób indywidualnej wiedzy pracowników, często trudno kodowalnej i transferowalnej,
2) kapitał strukturalny – procesy i wewnętrzne powiązania organizacyjne,
3) kapitał relacyjny - wiedza osadzona w międzyorganizacyjnych relacjach
4) kapitał społeczny - wzajemne relacje społeczne oparte na zaufaniu jednostek.
347
Dokumenty polityczne. Pojęcie kapitału z koncepcji akademickiej przeszło do dokumentów rządów i organizacji międzynarodowych, np.:
Dokumenty Unii Europejskiej:
•
Konkluzje Rady Europejskiej z 4.2.2011 r. w sprawie energetyki, innowacji i sytuacji gospodarczej
•
Konkluzje Rady Unii Europejskiej w sprawie:
- partnerstw na rzecz badań i innowacji z 6.12.2011 r.
- modernizacji szkolnictwa wyższego z 28-29.10.2011 r.
- kompetencji kulturowych i kreatywnych z 28-29.10.2011 r.
•
Pakiet dokumentów dotyczących programu Horyzont 2020
np. działania Marie Skłodowskiej-Curie.
Dokumenty Polski:
•
Raport o Kapitale Intelektualnym Polski, 2008, Warszawa, Zespół Doradców Strategicznych Prezesa Rady Ministrów.
•
Strategie zintegrowane (np. SIiEG, SRKL, SRKS)
•
Krajowy Program Badań
Organizacje badawcze. Jako przykład pomiaru KI organizacji badawczych można przytoczyć: Austrian Academy of Sciences Intellectual Capital Report 2012.
MSP. Podręcznik pomiaru KI w małych i średnich przedsiębiorstwach: Komisja Europejska, RICARDIS 2006, Reporting Intellectual Capital to Augment Research, Development
and Innovation in SMEs. Encourage corporate measuring and reporting on research and
other forms of intellectual capital.
Uczelnie
•
•
•
Gaweł-Brudkiewicz Katarzyna, Kapitał intelektualny uczelni wyższej – identyfikacja, pomiar i sprawozdawczość.
Fazlagić Jan 2012, Kapitał intelektualny szkoły wyższej z perspektywy studentów,
„E-Mentor”.
Kapitał Intelektualny Szkół Wyższych 2012, Konferencja na Uczelni Vistula.
Miasta
•
Ernst&Young 2008, Metodologia badania kapitału intelektualnego miast w Polsce.
Regiony
•
•
Rószkiewicz Małgorzata, Dorota Węziak, Andrzej Wodecki, 2007, Kapitał Intelektualny Lubelszczyzny – Propozycja Operacjonalizacji i Pomiaru, „Studia Regionalne i Lokalne” Nr 2(28)/2.
Jelonek Magdalena, Katarzyna Kwarcińska, Iwona Krzywda, Stanisław Mazur,
Marcin Zawicki 2013, Diagnoza kapitału intelektualnego powiatu jasielskiego, Jasło, Kraków.
348
Narody
•
•
•
•
•
•
•
•
•
The Ministry of Economic Affairs in The Netherlands, 1998, The Immeasurable
Wealth of Knowledge.
The Intellectual Capital of the State of Israel, 1999.
The Ministry of Economic Affairs in The Netherlands, 1998, The Immeasurable
Wealth of Knowledge.
Bontis Nick 2002, National Intellectual Capital Index: The Benchmarking of Arab
Countries.
Bontis Nick 2002, National Intellectual Capital Index: The Benchmarking of Arab
Countries.
IC report of Croatia, 2002.
Raport o Kapitale Intelektualnym Polski, 2008, Warszawa, Zespół Doradców Strategicznych Prezesa Rady Ministrów.
Yeh-Yun Lin C, Edvinsson L. 2008, National intellectual capital: comparison of the
Nordic countries “J. Intel. Capital”, 9(4): 525-545.
Yeh-Yun Lin Carol, Leif Edvinsson 2011, National Intellectual Capital. A Comparison of 40 Countries, Springer.
Prace metodologiczne:
•
•
•
Edvinsson, L., Stenfelt, C. 1999, Intellectual capital of nations for future wealth
creation, “Journal of Human Resource Costing and Accounting”, Vol. 4, No. 1.
Amidon, D.M. 2001, The intellectual Capital of Nations.
World Bank (2006) Where is the wealth of nations? Measuring Capital for the 21st
Century, The International Bank for Reconstruction and Development / The
World Bank.
Unia Europejska
•
•
•
Andriessen D.G. Stam C.D., Intellectual Capital Of The European Union, 2005, Paper For The 7t H Mcmaster World Congress On The Management Of Intellectual
Capital And Innovation, Hamilton, Ontario, Canada.
Stam Christiaan and Daan Andriessen 2008, Intellectual Capital of the European
Union 2008: Measuring the Lisbon Strategy for Growth and Jobs.
Navarro José Luis Alfaro, Víctor Raúl López Ruiz and Domingo Nevado Peña
2011, Estimation of intellectual capital in the European Union using a knowledge
model, “Zb. Rad. Ekon. fak. Rij” vol. 29 sv. 1
Ważniejsze prace metodologiczne
•
•
•
•
Serenko Alexander and Nick Bontis, 2004, Meta-Review of Knowledge Management and Intellectual Capital Literature: Citation Impact and Research Productivity
Rankings, “Knowledge and Process Management”, Volume 11 Number 3.
OECD 2008, W. Richard Frederick, Recent Developments in Intellectual Capital Reporting and their Policy Implications.
Ujwary-Gil Anna 2010, Kapitał intelektualny – Problem interpretacji kluczowych
terminów, „Organizacja i Kierowanie” nr 2.
Hervas-Oliver Jose-Luis, Ronald Rojas, Blanca-Maria Martins, Roberto Cervello´Royo 2011, The overlapping of national IC and innovation systems, “Journal of Intellectual Capital”, Vol. 12 No. 1.
349
Bibliografia
Raport o kapitale intelektualnym Polski 2008
Kardas Marcin 2012, Kapitał intelektualny w świetle dokumentów strategicznych¸ prezentacja na konferencji, Vistula, Kapitał intelektualny szkół wyższych, Warszawa 31 maja 2012.
Yeh-Yun Lin Carol, Leif Edvinsson 2011, National Intellectual Capital. A Comparison of 40 Countries, Springer.
KONWERGENCJA
(Convergence)
Pojęcie konwergencji w ekonomii (czasami znane jako efekt doganiania) to hipoteza, że
dochody na mieszkańca biedniejszych gospodarek rosną szybciej niż w bogatszych gospodarkach. Konwergencja bliska jest pojęciu „doganiania” (catching up). „Doganianie”
odnosi się do zdolności jednego kraju do zawężenia luki w produktywności i dochodach
w stosunku do kraju lidera, a „konwergencja” do tendencji do zmniejszenia ogólnych
różnic w produktywności i dochodach na świecie jako całości. Konwergencja jest ograniczona do grup krajów – tzw. „klubów konwergencji” - w określonych okresach czasu.
Konwergencja nie zachodzi dzięki prostemu naśladownictwu. Spóźnialscy (latecomers)
też ponoszą koszty, nawet jeśli skupiają się tylko na strategii imitacji (takich jak opłaty
licencyjne lub szkolenia do korzystania z imitacji).
W literaturze wzrostu gospodarczego termin „konwergencja” może mieć dwa znaczenia.
Pierwszy (czasami nazywany „sigma-konwergencja”) dotyczy zmniejszenia różnic w poziomach dochodów całej gospodarki. „Beta-konwergencja” następuje wówczas, gdy ubogie gospodarki rosną szybciej niż bogate.
Według historyka David Landes, 250 lat temu różnica w dochodach per capita między
najbogatszym i najbiedniejszym krajem na świecie wynosiła około 5:1, dzisiaj ta różnica
wzrosła do 400:1. Jednak pomimo tendencji do wzrostu różnic w poziomie życia, istnieje
wiele przykładów zacofanych krajów, którym – w różnym czasie – udało się zmniejszyć
różnice w produktywności i dochodach między sobą i krajami bardziej zaawansowanymi przez „nadrabiania zaległości”.
Bibliografia
Jan Fagerberg, Manuel Mira Godinho, Innovation and catching-up, w: Oxford Handbook of Innovation, edited by Jan Fagerberg, Richard R. Nelson and David Mowery.
KOREA JAKO KRAJ GONIĄCY CZOŁÓWKĘ
Jako wspólne elementy koreańskiego sukcesu uznaje się: po pierwsze, zdolność do oddziaływania na sektory i finansowania inwestycji przez pakiety polityk; po drugie,
350
zharmonizowanie rozwoju kompetencji z priorytetami industrializacji; po trzecie, zdolność do mobilizacji sektora prywatnego na rzecz wspierania celów rozwoju produkcji; i
po czwarte, realizacja zsynchronizowanych polityk w różnych dziedzinach, takich jak
promocja eksportu, importu i kontroli kapitału, bezpośrednie wsparcie dla przedsiębiorstw, oraz wsparcie rozwoju technologicznego i innowacji. Koreańska polityka jest
znana z umiejętności określenia celów, alokacji zasobów oraz orkiestracji działań. Koreańskie plany są skuteczne, ponieważ są wyposażone we „władzę wykonawczą”, tj. środki, skuteczne ramy prawne, jasno wytyczne, skuteczne rozpowszechnianie informacji,
które wyjaśniają cele i zakresy odpowiedzialności, a także regularne ewaluacje wyników. Koreańskie komisje prezydenckie były często wykorzystywane jako forum dialogu
politycznego i koordynacji między różnymi podmiotami, a bezpośredni związek z urzędem prezydenta był gwarantem ich skuteczności.
Cztery główne elementy mające wpływ na koreańską strategię dościgania to:
•
•
•
wieloletnie planowanie z jasno określonymi celami i związanymi z nich budżetami;
ukierunkowanych działania w celu wsparcia krajowego przemysłu, w tym wsparcia dla firm krajowych, rozwoju umiejętności, budowania infrastruktury i kontroli importu;
wspieranie eksportu;
• zarządzanie rynkami kapitałowymi.
Aż do końca 1990 Korea rozwijała zarówno planowanie przestrzenne jak i planowanie
gospodarcze, ale to dopiero pięcioletni Zrównoważony Narodowy Plan Rozwoju (200308) ustanowił koordynację między tymi trybami planowania.
We wczesnym okresie nadrabiania zaległości koreański eksport mierzony jako udział w
PKB był bardzo niski (poniżej 10%) i niższy niż import. Od 1980 roku koreański eksport
przewyższył import w relacji do PKB i odpowiada za ponad 40% PKB.
We wczesnej fazie doganiania, w latach 1960 i 1970 kładziono nacisk na kształcenie
techników o niskich kwalifikacjach w szkołach zawodowych dla przemysłu lekkiego, a
później ciężkiego i chemicznego. W tym czasie popyt ze strony sektora prywatnego koncentrował się na nisko płatnej i podstawowym wykwalifikowanej siły roboczej do pracy
na liniach montażowych oraz dla nisko wykwalifikowanych techników w zakładach
przemysłowych.
W latach 1960. rząd skoncentrował się na odwróconej inżynierii i uczeniu się z najlepszych zagranicznych praktyk; od 1970 roku inwestował w tworzenie rządowych instytutów badawczych. Jednak dopiero od lat 1980 Korea zaczęły masowo inwestować w badania i rozwój oraz w podnoszenie kwalifikacji w celu wzmocnienia krajowych zdolności
technologicznych i naukowych zgodnie z modernizacji krajowego aparatu produkcji. Od
tego czasu kraj doganiał przodujące gospodarki pod względem B+R na mieszkańca. W
roku 1982 uruchomiono krajowy program B+R w celu wspierania prywatnych inwestycji w badania i rozwój. Od tego czasu rządowe wydatki na badania i rozwój gwałtownie
351
rosły. Chociaż instytuty badawcze rządowe odgrywały ważną rolę w B+R w latach 1980.,
uniwersytety i przedsiębiorstwa zaczęły zwiększać swoje inwestycje w B+R w latach
1990. Liczba laboratoriów badawczych firm wzrosła z 46 w 1980 r. do 966 w 1990 roku.
Prywatne wydatki na badania i rozwój wzrosły gwałtownie w 1990. Od połowy lat 1990
po wstąpieniu do WTO koreańskie firmy znalazły się w sytuacji zaostrzonej konkurencji
na rynkach światowych, co zmusiło je do poprawy ich kompetencji technologicznych.
Gdy zwiększyły się prywatne inwestycje w badania i rozwój, rząd skoncentrował się na
promowaniu najnowszych technologii. Pod koniec lat 1990, Korea stała się światowym
liderem w wielu dziedzinach technologii, takich jak układy pamięci, telefony komórkowe, monitory ciekłokrystaliczne (LCD), a także w bardziej tradycyjnych sektorach, takich jak przemysł stoczniowy i samochodowy. Głównym powodem tego sukcesu było
rosnące zaangażowanie sektora prywatnego w innowacje.
Od lat 1990 wzrósł popyt sektora prywatnego na inżynierów i naukowców; równolegle
rząd zainwestował we wsparcie rozwoju doktorów. Liczba absolwentów studiów doktoranckich z koreańskich krajowych uczelni wzrosła z 530 w 1980 r. do ponad 11 645 w
2011 roku. Udział doktorantów w dziedzinie nauk przyrodniczych i technicznych wzrósł
z 26% w roku 1980 do 44% w roku 2011. Liczba naukowców w Korei wzrosła z mniej
niż 3 000 na koniec 1960 roku do 320 000 w roku 2009.
Dziś Korea jest jednym z czołowych krajów OECD pod względem udziału B+R w PKB. Zainwestowała ona 3,6% PKB w badania i rozwój w 2009 r., podczas gdy udział ten wynosił tylko 0,42% w roku 1970. Dzisiaj główne wyzwania dla Korei to zwiększenie inwestycji w badania podstawowe i zwiększenie inwestycji sektora prywatnego w badania i
rozwój w zielone technologie i przemysły. Korea zaczęła intensyfikować swoje wysiłki
patentowe po dużego nacisku na inwestycje w B+R w latach 1980. i stała się istotnym
graczem w dziedzinie patentowania w latach w 1990. [OECD 2012]
Z punktu widzenia B+R, cechy charakterystyczne “odrabiania zaległości” Korei to: wysoka korelacja wzrostu produkcji naukowej (publikacji) i technicznej (patentów); wysokie wskaźniki tzw. „korzystania z okazji” (relacja udziału w światowych patentach oraz
w światowych publikacjach) jako oznaka powiązań prac naukowych i technologicznych;
wysoka koncentracja w kilku powiązanych ze sobą dyscyplin naukowych; zwiększenie w
koncentracji w dyscyplinach naukowych oraz zmniejszenie koncentracji w klasach patentowych w okresie nadrabiania zaległości [Bernardes 2003].
Główne cele
I (1962-66)
Budowa krajowego przemysłu lekkiego: tekstylnego itd. Rozwój infrastruktury: elektrownie.
II (1967-72)
Budowa kluczowego przemysłu ciężkiego i chemicznego: stal, maszyny, chemikalia, stocznie itd. Rozwój infrastruktury: autostrada Gyeongbu (Seul-Busan)
III (1972-76)
Restrukturyzacja przemysłu: przemysł ciężki i chemiczny (kompleksy przemysłowe)
352
IV (1977-81)
Restrukturyzacja przemysłu: wzmocnienie przemysłu ciężkiego i chemicznego
(tworzenie podstaw umiejętności technologicznych)
V (1982-86)
Stabilizacja gospodarcza: konkurencyjność przemysłowa na drodze otwarcia i
racjonalizacji gospodarki
VI (1987-91)
Reformy regulacyjne i deregulacyjne. Wspieranie przemysłów wysokiej techniki. Kształtowanie kompetencji wysokiej techniki i innowacyjnych.
VII (1992-96)
Rewitalizacja gospodarki. Ustanowienie podstaw zrównoważonego rozwoju
sektorów i firm
Struktura przemysłu
1953
1970
1980
1990
2000
2010
Rolnictwo, polowanie, leśnictwo, rybołóstwo
47,3
29,1
16
8,7
4,6
2,6
Górnictwo i kopalnictwo
10,1
1,6
1,4
0,8
0,3
0,2
18,5
24,6
26,6
28,3
30,6
1,3
2,1
2,1
2,5
2,0
5,1
7,9
10,4
6,9
6,5
16,4
14,7
14,2
12,4
10,8
Transport
5,7
6,5
4,7
4,5
4,1
Finanse i ubezpieczenia
2,1
5,5
5,2
5,8
6,9
Nieruchomości i ich wynajem
4,1
3,9
6,5
9,2
7,1
Komunikacja
1,4
2,1
3,0
4,5
4,1
Usługi biznesowe
0,9
1,8
3,0
4,4
5,1
Inne usługi
13,7
13,5
14,8
16,6
20,2
Przemysł przetwórczy
Elektryczność, gaz, dostawa wody
2,6
Budownictwo
Handel, hotele i restauracje
40
1965
Wydatki na B+R :
rząd/prywatne
61/39
B+R/GDP
B+R jako % sprzedaży w
sektorze przemysłu przetwórczego
Liczba badaczy
1970
97 3
0,26
*
0,38
*
2 135
5 628
1975
71/29
1980
64/36
1985
25/75
1990
19/81
1995
19/81
2000
25/75
0,42
0,77
1,58
1,95
2,51
2,65
0,36
0,5
1,51
1,96
2,72
2,64
10 275
18 434
41 473
70 503
128 315
2005
23/76
2,79
129 767 179 812
2007
25/73
3,21
221
353
928
Instytuty rządowe
1 671
2 458
3 086
4 598
7 542
10 434
15 007
Uczelnie
352
2011
4534
8695
14935
21332
19 406
112
1 159
2 655
5 141
18 996
38 737
68 625
Rządowe instytuty badawcze (jako % całości)
78%
44%
30%
25%
18%
15%
Uczelnie (jako % całości)
16%
36%
44%
47%
36%
Sektor prywatny (jako
% całości)
5%
21%
26%
28%
0,7
1,7
2,9
0
1
12
Sektor prywatny
Badacze na 10 000
ludności
Liczba ośrodków B+R
korporacji
12 587
12 791
15 859
27 416
37 415
66 018
137 706
166
289
12%
10%
7%
7%
30%
35%
39%
15%
17%
46%
55%
53%
51%
77%
75%
4,8
10,1
16,4
28,6
27,9
37,4
45,8
54
183
966
2270
3760
Sources: Linsu Kim, The dynamics of technological learning in industrialisation, The United Nations University, Discussion Paper Series, October 2000; Main Science and Technology Indicators 2004/1, OECD
Paris 2004.
Bibliografia
OECD (2012), Industrial Policy and Territorial Development: Lessons from Korea, OECD Publishing.
Linsu Kim, The dynamics of technological learning in industrialisation, The United Nations University, Discussion Paper Series, October 2000.
Cross-over, thresholds, and interactions between science and technology. Lessons for less-developed
countries 2003 6
Américo Tristão Bernardes, Eduardo da Motta e Albuquerque, Cross-over, thresholds, and interactions between science and technology: lessons for less-developed countries, “Research Policy” 32 (2003) 865–885.
KRAJOWY KONTEKST POLITYKI NAUKOWEJ I INNOWACYJNEJ
[National Context of Policy Research and Innovation]
Unia i organizacje międzynarodowe są po to, aby zbliżać do siebie kraje członkowskie.
Potrzeba znalezienia wspólnego kierunku marszruty kieruje wzrok ku abstrakcyjnym
ideom, które od Oświecenia były znakiem rozpoznawczym modernizacji podejmowanej
w imię rozumu. Dopóki OECD i Unia były organizacjami grupującymi kraje o podobnym
poziomie rozwoju gospodarczego, „jedna miara pasowała na wszystkich”. Z chwilą jednak kiedy w połowie lat 1990. do OECD i dekadę później do Unii weszły kraje spoza
„klubu najbogatszych”, przyjęcie nowych krajów przyczyniło się do większego uwrażliwienia zarówno Unii jak i OECD na kwestie lokalnych różnic i kontekstów oraz niebezpieczeństw narzucania pochopnie uchwalonych zaleceń. W roku 2006 unijna Dyrekcja
Badań zamówiła raport na temat roli badań i technologii w długofalowym rozwoju no354
wych krajów członkowskich; pobudką (nieopublikowanego) raportu było stwierdzenie
faktu, że w fazie rozwoju gospodarczego, w jakiej się te kraje znajdują, badania i technologie pełnią inne funkcje niż w większości państw unijnej piętnastki. W roku 2008 w ramach czeskiej prezydencji z inicjatywy premiera Czech zorganizowano warsztaty dla
krytycznej oceny unijnej polityki innowacyjnej w stosunku do nowych państw członkowskich. Ideą warsztatów była myśl, że niektóre instrumenty polityki unijnej mogą być
nieskuteczne w krajach znajdujących się daleko od „frontu rozwoju technologii”. Wreszcie, w październiku 2011 MNiSW wspólnie z Komisją UE i fundacją K4I zorganizowały
międzynarodową konferencję poświęconą znaczeniu krajowego i regionalnego kontekstu w budowie strategii badań i innowacji.
Najważniejsze myśli wszystkich tych przedsięwzięć podsumowuje książka Challenges for
European Innovation Policy (opr. Slavo Radosevic, Anna Kaderábková, Edward Elgar,
2011), pokłosie inicjatywy czeskiej. Książka jest jak dotąd najpoważniejszym głosem na
rzecz samodzielnego rozpoznawania przez kraje „doganiające” charakteru luk i wąskich
gardeł cechujących ich własne systemy badań i innowacji. Autorzy – w większości profesorowie na zachodnich uniwersytetach – wzywają do samodzielności intelektualnej ekspertów i urzędników rządowych krajów Europy Środkowej w stosunku do zachodnich
koncepcji naukowych, wskaźników statystycznych i programów strategicznych. Nie
spoglądajcie na świat przez okulary zachodnich pojęć, starajcie się – korzystając ze
wszystkich wiarygodnych danych i badań – samodzielnie odczytywać problemy dławiące rozwój w waszych krajach. Inaczej wasze strategie, powielające ślepo rozwiązania
bardziej zaawansowanych państw, będą służyły rozwiązaniu cudzych problemów.
Zwróćcie uwagę, że kraje „ścigające”, pozostające poza frontem rozwoju technologii, mają inne motory wzrostu niż kraje zaawansowane gospodarczo; upraszczając, ich wzrost
jest w większym stopniu napędzany przez upowszechnienie i absorpcję wiedzy (dzięki
importowi produkcyjnemu i konsumpcyjnemu, inwestycjom zagranicznym i edukacji)
niż przez tworzenie nowej wiedzy. Pozabadawcze źródła wzrostu produktywności gospodarczej mają tu nadal większe znaczenie niż B+R. Polityka naukowa zapatrzona
w widmo rywalizacji ze światowymi potęgami oraz miraże osiągania „doskonałości naukowej” może stracić z oczu i zaprzepaścić okazję realizacji zadań, które są najważniejsze
„tu i teraz” – na tym etapie rozwoju techno-gospodarczego, na którym kraj się znajduje,
w ramach tych perspektyw, które się przed nim otwierają, z uwzględnieniem fazy paradygmatu technologicznego, w której jest świat (tzw. okna szansy dla państw słabiej rozwiniętych).
Eksperymentalny charakter Unii, która jest organem umykającym zastanym pojęciom
prawnym – nie jest ani federacją państw, ani układem międzynarodowym, ani organizacją międzynarodową – znajduje, do pewnego stopnia, odbicie w praktykach Unii,
w której, pomimo krzepnących ram prawnych w różnych sferach polityki stale podsyca
się debatę publiczną o politykach unijnych i dopuszcza dość znaczny rozrzut stanowisk.
Najważniejszym przesłaniem książki – powstałej jako głos w debacie unijnej – są nie tyle
jej różne ustalenia i rekomendacje (podobne już formułowano), co wezwanie do myślenia na własny rachunek, niezależnie od obowiązujących pojęć i formuł i nieraz na prze355
kór zastanym interesom grupowym badaczy, do budowania krajowych strategii rozwoju
nauki, które nie tylko wpisywałaby się w unijne ramy, ale także opierały na trafnym odczytaniu światowych trendów z punktu widzenia krajowych przewag, zagrożeń i szans.
TWÓRCZOŚĆ, INNOWACJE, BADANIA NAUKOWE, KSZTAŁCENIE I POLITYKA
Pojęcia twórczości (kreatywności) i innowacji od chwili zetknięcia się ze sobą w roku
1962 w tytule książki Johna W. Haefele (Creativity and innovation, New York, Reinhold)
stworzyły niezwykle płodną parę owocującą jak dotąd blisko 1000 pozycji. Po okresie
powolnego wzrostu, w latach 1990-tych liczba nowych książek zawierających w tytule
połączone ze sobą oba pojęcia zaczęła galopować; przełom nastąpił zwłaszcza w II połowie ostatniej dekady XX wieku, równolegle z boomem koncepcji kapitału intelektualnego, zarządzania wiedzą i gospodarki opartej na wiedzy.
Liczba tytułów książek ze zwrotem „creativity and innovation” w tytule
100
90
80
70
60
50
40
30
20
10
0
WorldCat
Liczba tytułów książek to tylko „wierzchołek góry lodowej” problemu zainteresowania
„twórczością i innowacją”; corocznie pod hasłem „creativity and innovation” publikuje
się dziesiątki materiałów oraz organizuje dziesiątki warsztatów i konferencji. Google pozwalają sięgnąć do blisko 3 milionów dokumentów, zawierających w sobie ten zwrot.
Każde z pojęć w kontekście drugiego zmieniło swój sens. Twórczość przestała być widziana jako (przede wszystkim) szczególna kompetencja jednostki, a na innowację spojrzano nie tylko (jak dotąd) od strony jej efektów (nowych produktów, procesów, usług
lub zmian organizacyjno-menedżerskich), ale (także) od strony szczególnych kompetencji jej twórców.
Z kolei oba połączone ze sobą pojęcia weszły w dalsze związki pojęciowe, z których
szczególnie płodne okazały się związki z edukacją, badaniami naukowymi i polityką.
356
Triada „twórczość – innowacje – edukacja” wzmocniła te poglądy i podejścia w pedagogice, które uczenie traktują nie jako „przekazywanie”, co „współ-tworzenie” wiedzy i
które sens edukacji widzą przede wszystkim w rozwijaniu umiejętności uczenia się i
twórczego rozwiązywania problemów.
W OECD opisana zmiana spojrzenia zaowocowała podjęciem badań nad kompetencjami
koniecznymi dla prowadzenia działalności innowacyjnej (projekt Measuring skills for innovation, 2008). Ustalenia mają posłużyć do rozszerzenia statystyki o dotąd niedoceniane aspekty osobowościowe i intelektualne działalności innowacyjnej oraz do sformułowania zaleceń w przyszłej Strategii Innowacji OECD dotyczących zmian w programach
kształcenia. W Unii Europejskiej przyczyniła się ona do ogłoszenia roku 2009 Rokiem
Twórczości i Innowacji, pomyślanego jako składnik Strategii Uczenia się przez Całe Życie, zaprojektowanego w kontekście Strategii Lizbońskiej. Celem inicjatywy jest „wspieranie działań państw członkowskich zmierzających do propagowania rozwoju kreatywności, w drodze uczenia się przez całe życie, jako siły napędowej innowacji i jako głównego czynnika rozwoju kompetencji osobistych, zawodowych, społecznych i związanych
z przedsiębiorczością.
Z kolei triada „twórczość – innowacje – badania naukowe” pobudziła do studiów nad
charakterem przełomowych badań naukowych i warunkami, które takim badaniom
sprzyjają. Ponadto, zachęciła ona do przeglądu stosowanych na świecie przez ministerstwa, agencje i fundacje zasad oceny i finansowania badań naukowych pod kątem wpływu – korzystnego lub szkodliwego – jaki zasady te wywierają na skalę ich nowatorstwa i
przyszłego oddziaływania. Oba te kierunki zainteresowań zbiegły się m.in. w projekcie
CREA (Measuring and Analyzing Highly Creative Scientific Research).
W odniesieniu do pierwszego problemu, pytania badawcze dotyczą roli odgrywanej
przez takie czynniki, jak motywacja badaczy, przywództwo zespołu, czy też panująca w
nim kultura organizacyjna.
W odniesieniu do drugiej kwestii, pytania koncentrują się wokół procedur i kryteriów
wyboru naukowców oraz typu i długości okresu finansowania w programach nastawionych na wyławianie i wspieranie naukowców stwarzających nadzieję, że „pchną front
poznania”. Pytania te podejmuje m.in. Thomas Heinze (2008). Uruchomienie programu
wspierania przełomowych badań okazuje się niemal równie trudne, jak ich dokonanie, a
to z tego względu, że jest uwarunkowane pokonaniem aż dwóch przeszkód: jedna z nich
to biurokratyczny wymóg inwestowania środków publicznych w najmniej ryzykowne
projekty, druga – to nacisk środowiska naukowego, aby kontynuować dotychczasowe
ścieżki rozwojowe badań. W efekcie, stworzenie takiego programu wydaje się przedsięwzięciem tego samego rodzaju, co rozwiązanie dylematu barona Münchausena. Niemniej jednak, takie programy powstają, choć najczęściej w krajach przodujących w nauce (w których są bardziej akceptowane) oraz w prywatnych fundacjach (nie zmuszanych
do rygorystycznego stosowania zasad accountability).
Wreszcie, triada „twórczość – innowacje – polityka” wzmocniła te nurty prób i poszukiwań w ramach Nowego Zarządzania Publicznego, które starają się tchnąć w administra357
cję publiczną ducha innowacyjności i przedsiębiorczości, przekształcić organa rządowe
w „organizacje uczące się” oraz wzmocnić umiejętność „uczenia się tworzenia polityki”
(policy learning). To, jak się okazuje, są zadania niemniej trudne, jak wyszukiwanie i popieranie naukowców chętnych i zdolnych do „ojcobójstwa” dotychczasowych autorytetów naukowych i narażenia się establishmentowi w nauce.
W jednej z najciekawszych pozycji tego nurtu Jake Chapman przeciwstawia dominującemu w administracji myśleniu mechanicystycznemu myślenie systemowe i dowodzi, że
coraz częściej politycy i administratorzy stają w obliczu problemów wymagających
umiejętności uwolnienia się spod nacisku obowiązujących mechanistycznych „ram” i
„metafor” i poszukiwania nowych, opartych na tym drugim podejściu.
„Założenie, że wie się najlepiej, całkowicie zamyka drzwi do wszelkiego doświadczenia i
uczenia się – pisze Chapman. Kiedy z góry zna się odpowiedź, nie ma żadnej potrzeby
uczenia się. Mechanistyczne podejście bardzo wzmacnia te postawy. Ludzie awansowani
na wysokie stanowiska interpretują nominację jako potwierdzenie faktu, że wiedzą najlepiej. Politycy wybrani w wyborach interpretują wybór jako potwierdzenie swoich
przekonań. Krótka rozmowa z politykami uświadamia że upatrują oni w rządach i urzędach maszyny: `maszyneria rządowa`, ‘stepping up a gear’, ‘changing direction’, ‘driving
through change’, ‘the machinery of government’ and ‘policy levers’, czy “delivery`: a
przecież – dowodzi autor – można dostarczyć klientowi pizzę, lecz nie zdrowie czy edukację.”
„Jest jeszcze dodatkowy powód, dlaczego tak trudno wprowadzić uczenie się do służby
cywilnej i rządu: uczenie interpretuje się jako potrzebę pozyskania nowej wiedzy oraz
umiejętności. Podczas gdy pozyskiwanie nowej wiedzy i umiejętności jest ważne, nie o
taki tryb uczenia chodzi. Chodzi o uczenie się systemowe, refleksyjne, takie, które zakłada umiejętność refleksji nad swym własnym doświadczeniem, pracę z ludźmi posiadającymi odmienne perspektywy poznawcze, oraz umiejętność oceny własnych działań
oraz wprowadzania stosownych modyfikacji na podstawie auto-refleksji. Ten tryb uczenia się jest różny od uczenia się opartego na uczęszczaniu na kursy oraz wysłuchiwaniu
wykładów instruktorów. Większość ludzi nie jest świadoma sposobu, w jaki myśli. W
szczególności, nie jest świadoma, do jakiego stopnia używa mechanistycznych wyobrażeń i metafor. Jest także nieświadoma, jak bardzo obawia się stracić kontrolę nad rzeczywistością. Kluczowym aspektem myślenia systemowego jest wspięcie się na wyższy
szczebel abstrakcji i umiejętność uznawania różnych perspektyw widzenia zagadnień i
sytuacji. Kluczowym ograniczeniem w tym trybie uczenia się jest nie tyle brak nowych
informacji, co nieumiejętność auto-refleksji, czyli zawieszania milcząco zakładanych
przesłanek oraz głośno wypowiadanych przekonań.”
„Obecny model tworzenia polityki, oparty na redukcji złożonych zagadnień na oddzielne
części, podatne do racjonalnej manipulacji, nie jest skuteczny w obliczu wyzwań stojących przed administracją publiczną. Wyzwania te obejmują: wzrost złożoności i powiązań (m.in. wskutek ICT); wzrost różnorodności typów organizacji włączonych do dostaw
usług; zacieranie się granic pomiędzy polityką krajową a międzynarodową wskutek po358
wstania międzynarodowych sieci komunikacji oraz liberalizacji działalności gospodarczej, co oznacza, że na krajowe sprawy w coraz większym stopniu oddziaływają międzynarodowe, i odwrotnie.”” Wzrasta skala porażek w decyzjach dotyczących spraw społecznych. Głównym źródłem porażek jest założenie separacji elementów, liniowości,
prostej przyczynowości oraz przewidywalności. Założenia te przestały obowiązywać.”
„Podejście systemowe jest najbardziej skuteczne odniesieniu do zawikłanych zagadnień, które są nieokreślone pod względem zakresu, czasu i zasobów, oraz co do których
istnieje wiele skrajnie odmiennych diagnoz i propozycji terapii.” [Chapman 2002].
Podsumowując, od połowy lat 1990-tych pojęcia twórczości, innowacji, badań naukowych, kształcenia i polityki zaczęły grawitować wokół siebie, łączyć się ze sobą, wzajemnie zapładniać.
Polityka
Badania
naukowe i
edukacja
Twórczość i
innowacje
Wzajemne zazębianie się pojęć prowadzi do ich redefinicji, a odmiennie rozumiane pojęcia sugerują zmiany podejść. Jeśli umiejętność znajdowania twórczych niestandardowych odpowiedzi na pogmatwane, złożone i niejasne sytuacje jest wyzwaniem naszych
czasów, wydaje się oczywiste, że zaszczepienie kreatywności i innowacyjności w edukacji oraz wsparcie dla badań rokujących nadzieję przełomowych odkryć musi być uwarunkowane nowym, twórczym i innowacyjnym podejściem w sposobie prowadzenia polityki wobec edukacji i nauki; te różne zagadnienia są od siebie wzajemnie zależne.
Bibliografia
Europejski Rok Twórczości i Innowacji (2009). DECYZJA PARLAMENTU EUROPEJSKIEGO I RADY, Bruksela,
dnia 28.3.2008 r. KOM(2008) 159 wersja ostateczna
Promowanie kreatywności i innowacji przez kształcenie i szkolenie. KONKLUZJE RADY I PRZEDSTAWICIELI
RZĄDÓW PAŃSTW CZŁONKOWSKICH ZEBRANYCH W RADZIE Z DNIA 22 MAJA 2008 r. w sprawie…
(2008/C 141/10)
359
Wspólne sprawozdanie Rady i Komisji z postępów w realizacji programu prac Edukacja i szkolenie 2010
Uczenie się przez całe życie dla wiedzy, kreatywności i innowacyjności (2008/C 86/01)
Jake Chapman, System failure. Why governments must learn to think differently, London, Demos 2002.
Joachim Burbiel, Creativity in Research and Development Environments: A Practical Review, “International
Journal of Business Science and Applied Measurement”, vol. 4, issue 2, 2009, ss. 35-51;
J. Rogers Hollingsworth, Organizational And Psychological Factors Influencing Creativity in Basic Science,
Atlanta Conference on Science and Technology Policy 2006, Session on Fostering Research Creativity, May
19, 2006.
Thomas Heinze, How to Sponsor Ground-Breaking Research: A Comparison of Funding Schemes „Science &
Public Policy” 35:2008, ss. 802-818.
MĄDROŚĆ TŁUMU
Mądrość tłumu to uwzględnianie opinii grupy osób, a nie jednego pojedynczego
eksperta. Ekspert. To jednocześnie tytuł książki Jamesa Surowieckiego o agregacji
grupowych informacji, które – wg autora – owocują lepszymi decyzjami niż te, które są
oparte na informacjach pojedynczych ekspertów. Nie wszystkie grupy („tłumy”) są
mądre. Nie są np. mądrzy inwestorzy biorący udział w bańkach inwestycyjnych na rynku
akcji. Cztery kryteria wg Surowieckiego odróżniają „mądry tłum” od tłumu kierującego
się „owczym pędem”:
1. Różnorodność opinii. Każda osoba powinna mieć własną informację, nawet jeśli
jest nią ekscentryczna interpretacja znanych faktów.
2. Niezależność. Opinie osób powinny być niezależne, formułowane bez wpływu
otaczających osób.
3. Decentralizacja. Osoby powinny sięgać do lokalnej wiedzy.
4. Agregacja. Powinny istnieć mechanizmy przekształcania prywatnych opinii w
decyzje zbiorowe.
Bibliografia
James Surowiecki, The Wisdom of Crowds: Why the Many Are Smarter Than the Few and How Collective
Wisdom Shapes Business, Economies, Societies and Nations, Doubleday, 2004.
N+T DLA ROZWOJU
[S&T for development]
Hasło Banku światowego i innych organizacji międzynarodowych nastawionych na pomoc dla krajów rozwijających się, oznaczający ukierunkowanie zarówno prowadzonych
w tych krajach badań naukowych i technologicznych, jak i pomocy zagranicznej ich
rzecz, na cele rozwojowe, takie jak wspomaganie rolnictwa, przeciwdziałanie degradacji
360
środowiska, zapewnianie dostępu do wody, zmniejszanie ubóstwa, zapewnianie taniej
energii, szerzenie oświaty.
Bibliografia
Bank Światowy, 2002, Strategic Approaches To Science And Technology In Development.
NAUKA W SPOŁECZEŃSTWIE
[Science in Society]
Hasło w retoryce politycznej, stosowane na określenie inicjatyw wspierających powiązania nauki ze społeczeństwem, podejmowane na szczeblu unijnych oraz na poziomie
poszczególnych krajów i regionów, ogniskują się wokół siedmiu bardzo różnych, choć
często warunkujących się wzajemnie obszarów, takich jak:
1. rozwój badań na rzecz sfery publicznej (edukacja, zdrowie, administracja, planowanie
regionalne), włączając w to badania dotyczące powiązań nauki i społeczeństwa,
2. uczestnictwo obywateli w ustalaniu kierunków badań naukowych i technologicznych
oraz w ocenie inicjatyw publicznych opartych na zastosowaniach nauki i technologii (np.
eksploatacji gazu łupkowego),
3. udział badaczy w doradztwie na rzecz polityki (na szczeblu rządowym i regionalnym)
4. udział wolontariuszy w prowadzeniu badań naukowych,
5. otwarcie dla każdego zasobów danych i publikacji naukowych (z pewnymi wyjątkami,
podyktowanymi potrzebą komercjalizacji wyników badań lub względami bezpieczeństwa),
6. nowoczesne, interaktywne formy edukacji naukowej,
7. zagadnienia szeroko rozumianej etyki badań (plagiaty, fabrykowanie danych, udział
w badaniach kobiet i mniejszości etnicznych, bioetyka, wykorzystywanie zwierząt
w badaniach laboratoryjnych itd.).
Wszystkie te siedem obszarów to pola inicjatyw nie tylko rządów, ale także środowiska
naukowego, organizacji pozarządowych, sieci, rynku (np. we włączaniu wszystkich zainteresowanych do rozwiązywania problemów naukowych i technologicznych) oraz instytucji międzynarodowych. W szczególności Unia Europejska wsparła „naukę
w społeczeństwie” przez Plan Działań Nauka i Społeczeństwo (2002), programy
w ramach VI i VII Programu Ramowego („Nauka a społeczeństwo”, 2002–2006, „Nauka
w społeczeństwie”, 2007–2013), a obecnie Horyzont 2020 , serwis informacji i analiz
MASIS, a także kolejne dokumenty oraz raporty komisji (Public Engagement in Science ,
2008; Challenging Futures of Science in Society , 2009; Final Synthesis Report on Science in
Society in Europe , 2012).
361
NOWA REWOLUCJA PRZEMYSŁOWA
[New industrial resolution]
Koncepcję „nowej rewolucji przemysłowej” przedstawił Peter Marsh. Zdaniem autora
nowa rewolucja przemysłowa rozpoczęła się około 2005. Charakteryzuje ją wzrost kustomizacji i personalizacji produkcji. Procesy takie jak B+R, produkcja i usługi są szerzej
rozłożone w łańcuchu wartości globalnej. Wzdłuż łańcucha wartości powstaje więcej
możliwości dla firm mających siedziby w wielu krajach, zarówno o wysokich jak i niskich kosztach pracy. Wzrastają możliwości produkcji i sprzedaży produktów w wąskich
niszach, skierowanych do konkretnych grup klientów, mieszkających na całym świecie.
Firmy uzyskują większe możliwości specjalizacji.
Producenci wykazują większą świadomość środowiska. Nowa rewolucja przemysłowa
jest pierwszą, która rozprzestrzenia się na całym świecie, a nie jest skoncentrowana w
ograniczonej grupy krajów bogatych.
Liczba osób biorących udział w produkcji pozostanie stosunkowo niska. Jednakże produkcja będzie nadal wywierać silny wpływ na gospodarkę globalną [Marsh 2012].
Bibliografia
Marsh Peter 2012, The new industrial revolution. Customers, globalization and the end of mass production,
Yale University Press.
ODPOWIEDZIALNE BADANIA I INNOWACJE
[Responsible Research and Innovation]
Odpowiedzialne Badania i Innowacje (OBI) to nowe podejście do działalności badawczorozwojowej i innowacyjnej, które bierze pod uwagę zarówno skutki tej działalności oraz
jej potencjalny wpływ na środowisko i społeczeństwo jak i sposób prowadzenia działalności badawczo-rozwojowej i innowacyjnej. Jest to podejście, które w sposób znacznie
szerszy niż do tej pory podkreśla kwestię współodpowiedzialności za badania i innowacje oraz formułuje wymagania nie tylko względem badaczy ale także szerokiego kręgu
innych osób i instytucji zaangażowanych w badania i innowacje bądź objętych potencjalnie ich skutkami. W ujęciu zaproponowanym przez Komisję Europejską postuluje się
aby podmioty zaangażowane w Odpowiedzialne Badania i Innowacje (w szczególności
naukowcy i innowatorzy ale także inni interesariusze np. decydenci): te,
•
dążyły do uzyskania odpowiedniej wiedzy na temat prowadzonych działań badawczych i innowacyjnych, brały pod uwagę możliwe konsekwencje tych działań oraz były świadome
możliwych scenariuszy rozwoju sytuacji,
•
projektując badania naukowe oraz nowe produkty i procesy brały pod uwagę wartości
etyczne i społeczne istotne dla społeczeństwa, takie jak dobrobyt, sprawiedliwość, równość,
prywatność, niezależność, bezpieczeństwo, zrównoważony rozwój, odpowiedzielność czy
demokracja,
362
•
oceniały zarówno rezultaty (badań czy innowacji) jak i możliwe scenariusze ich rozwoju czy
wykorzystania w perspektywie wymienionych wyżej wartości [EC 2013a].
Koncepcja OBI jest obecnie przedmiotem dyskusji i podejmowane są próby jej lepszego
zdefiniowania. Jednym z postulowanych rozwiązań jest rozróżnienie pomiędzy oczekiwanymi efektami odpowiedzialnych badań i innowacji a parametrami procesu badawczo-rozwojowego czy innowacyjnego koniecznymi do uznania go za odpowiedzialny w
rozumieniu OBI. W tym ujęciu efektami odpowiedzialnych badaniach i innowacji mogą
być np. badania naukowe zgodne z wartościami wyznawanymi przez społeczeństwo
bądź mające na celu znalezienie rozwiązania dla istotnych problemów społecznych. Proces badawczo-rozwojowy/innowacyjny można uznać za odpowiedzialny gdy odpowiadać będzie on parametrom takim jak antycypacja, włączenie, otwartość, przejrzystość
itd.
Koncepcję OBI stosuje się głównie do badań i innowacji a jej powstanie wiąże się często
z postępem w obszarze nauk ścisłych i technologii, w szczególności zaś zrozwojem nowych technologii, takich jak nanotechnologia, teleinformatyka, genomika, biologia syntetyczna czy geoinżynieria. Niektórzy autorzy twierdzą, że OBI mogą również obejmować
instrumenty finansowe, politykę publiczną lub innowacje społeczne [Stutcliffe 2011].
Komisja Europejska podkreśla, że głównymi przesłankami dla OBI powinny być wielkie
wyzwania społeczne (takie jak zmiana klimatu, degradacja środowiska, gwałtowny
wzrost popytu na energię, ograniczone zasoby, starzenie się społeczeństw, migracje),
którym łatwiej będzie sprostać, gdy wszystkie podmioty społeczne będą w pełni zaangażowane w poszukiwanie innowacyjnych rozwiązań, produktów i usług [ECC 2013b].
Zwrot „odpowiedzialne badania i innowacje” pojawia się w literaturze od roku 2006.
Źródeł tej koncepcji należ jednak szukać znacznie wcześniej. Już bowiem na przełomie
lat 1960/70 ruch kontrkultury, rozwój organizacji konsumenckich, klęska naukowotechnicznej wojny wietnamskiej oraz zanik wiary w naukę obwinianą o rujnowanie planety spowodowały, że część środowisk naukowych i obywateli, szczególnie w Stanach
Zjednoczonych i Europie, wysunęła postulat społecznej kontroli nauki, podważyła ideę
autonomii nauki oraz podjęła krytykę wojskowego kompleksu naukowo-technicznego.
W odniesieniu do ideologii autonomii nauki kwestionowano m.in.
•
•
obietnicę, że gdy tylko rząd będzie odpowiednio dobrze finansował badania naukowe i
pozostawi uczonym wolną rękę w doborze tematyki i metod badań, odkrycia, jakich dokonają, w dłuższym horyzoncie czasu zaowocują wynalazkami zapewniającymi dobrobyt
ludziom i potęgę państwom;
zapewnienie, że etyczne postępowanie uczonego w dziedzinie nauki wyraża się (wyłącznie) w umiejętności stosowania metody naukowej (nie ma zewnętrznych norm w stosunku nauki).
Efektem zmiany postaw wobec nauki były m.in. amerykańska organizacja Science for the
People (1969), powołany przez Kongres USA Urząd ds. Wartościowania Technologii
(The Office of Technology Assessment (OTA), 1972-1995) oraz międzynarodowa konferencja w Asilomar (Kalifornia), która po raz pierwszy wezwała do nałożenia embargo na
niektóre badania - eksperymenty w dziedzinie genetyki człowieka (1975).
363
W I dekadzie XXI wieku źródeł OBI należy szukać w ideach „Nauka i Społeczeństwo” i
„Nauka w Społeczeństwie”. Unia Europejska w 2001 r. uruchomiła Plan działania «Nauka i społeczeństwo» celem określenia wspólnej strategii dla trwałego dwustronnego dialogu pomiędzy nauką i społeczeństwem obywatelskim Europy. W 2007 roku, w ramach
VII Programu Ramowego w zakresie badań i rozwoju technologicznego (7PR), «Nauka i
społeczeństwo» stała się «Nauką w społeczeństwie» (Science in Society, SiS).
OBI stają się elementem narracji politycznych, zwłaszcza w Europie, gdzie są one zagadnieniem przekrojowym w ramach „Horyzont 2020”. Brak jednak jednej, ustalonej definicji tego pojęcia a także jednolitego stanowiska w sprawie sposobu realizacji postulatu wyrażonego przez OBI. W państwach członkowskich UE istnieją różne inicjatywy
wspierające OBI, zwłaszcza w ramach programów krajowych rad ds. badań (np. Wielka
Brytania, Niemcy i Holandia). [Von Schomberg 2013; Stucliffe 2011]. W roku 2014 realizowano co najmniej kilkanaście międzynarodowych projektów badawczych, w większości finansowanych lub współfinansowanych przez Komisję Europejską, dotyczących
problematyki OBI [The Res-Agora].
Pomimo wątpliwości odnoście definicji OBI istnieje zgodność co do tego, że wcielenie w
życie ideai OBI może:
•
•
•
uwrażliwić inwestycje w B&R na aspekty etyczne i potencjalne skutki społeczne i w ten
sposób zapobiec stratom wynikającym z odrzucenia badań i innowacjiprzez społeczeństwo;
wzmocnić przekonanie o szansach inwestycji w B+R i innowacji,
ocenić inwestycje w B+R i innowacje pod kątem aprobaty społecznej dla nich oraz zidentyfikować te z nich, które pomimo silnej aprobaty społecznej nie uzyskują dostatecznego
wsparcia finansowego [EC 2013a].
Pojęcie OBI ma charakter „parasolowy” i zawiera w sobie szereg innych pojęć/obszarów,
takich jak:
•
•
•
•
•
•
partycypacja - zaangażowanie wszystkich aktorów społecznych – naukowców, biznesmenów, polityków, obywateli – i ich łączny udział w procesach badań i innowacji,
równość płci,
>EDUKACJA NAUKOWA,
etyka,
>OTWARTY DOSTĘP,
Zarządzanie (odpowiedzialność decydentów za szkodliwy lub nieetyczny rozwój badań i
innowacji) [EC 2012].
Narzędzia OBI to m.in.:
•
•
•
•
•
•
>WARTOŚCIOWANIE TECHNOLOGII,
>FORESIGHT,
Stosowanie >ZASADY OSTROŻNOŚCI,
Etyczne zasady projektowania technologii,
Zarządzanie innowacjami i udział interesariuszy,
Zaangażowanie obywatelskie [Von Schomberg 2013].
364
Zaleca się, aby OBI było:
•
•
•
•
antycypacyjne
włączające różnych interesariuszy
refleksyjne – rozważające własne założenia etyczne, polityczne i społeczne
responsywne – elastyczne, w sensie zmieniania badań i innowacji zgodnie z wartościami
społecznymi [EC 2013a; Stilgoe 2013].
Efekty prac OBI to m.in.
•
•
•
•
•
•
•
•
Kodeksy postępowania i wytyczne, np. unijny Kodeks postępowania dotyczący odpowiedzialnego prowadzenia badań w dziedzinie nanonauk i nanotechnologii (2008),
Normy, np. normy ISO dotyczące charakterystyki, bezpieczeństwa i pomiaru nanomateriałów,
Inicjatywy zarządzania ryzykiem, np. Nano Risk Framework,
Ewaluacje regulacji,
Komitety naukowe, np. SCENIHR (Komitet Naukowy ds. Pojawiających i Nowo Rozpoznanych Zagrożeń dla Zdrowia) i komitety OECD i ONZ na temat nowych technologii i
zarządzania,
Organy odpowiedzialności komercyjnej, np. Global Reporting Initiative, Global Compact,
AA1000,
Systemy ochrony własności intelektualnej,
Zarządzanie odpowiedzialnością korporacyjną (Corporate responsibility governance) –
np. BASF Dialogueforum Nano, Du Pont Nano Risk Framework, Chemical Industry Association Responsible Care Code of Conduct, Swiss Retailers Nano Code [Sutcliffe 2011].
W najbliższych latach zaleca się m.in.
•
•
Komisji Europejskiej
o opracowanie europejskiej platformy najlepszych praktyk celem pomocy w znalezieniu odpowiednich metod oceny społecznej, etycznej i ekologicznej nowych
technologii
o budowanie zdolności zainteresowanych stron do udziału w OBI
o budowanie zrozumienia implikacji społecznych i etycznych OBI
rządom państw członkowskich UE
o zapewnienie odpowiedniego udziału społeczeństwa obywatelskiego na wszystkich etapach procesu badań i innowacji [Sutcliffe 2011].
Koncepcje pokrewne OBI to m.in. „Zrównoważony rozwój”, „Społeczna odpowiedzialność biznesu”, „Wartościowanie Technologii”, „Tworzenie Wspólnej Wartości”, „Zrównoważony rozwój korporacyjny” (“Sustainable development”, “Corporate Social Responsibility”, ”Technology Assessment”, ”Creating Shared Value”, “Corporate Sustainability”).
Bibliografia
2008 Kodeks postępowania dotyczący odpowiedzialnego prowadzenia badań w dziedzinie nanonauk i nanotechnologii. ZALECENIE KOMISJI z dnia 7 lutego 2008 r. w sprawie… (2008/345/WE)
EC 2012, Responsible Research and Innovation. Europe`s ability to respond to societal challenges, 2012.
365
EC 2013a, Options for Strengthening Responsible Research and Innovation, Report of the Expert Group on
the State of Art in Europe on Responsible Research and Innovation, 2013.
EC 2013b, Fact sheet: Science with and for Society in Horizon 2020.
Schomberg René von, A vision for responsible research and innovation, in: Richard Owen, John Bessant,
Maggy Heintz, Responsible innovation. Man aging the responsible emergence of science and innovation in society, London 2013, Wiley, pp. 51-74.
Stilgoe Jack, Richard Owen and Phil Macnaghten Developing a framework for responsible innovation, “Research Policy” 42: 2013, ss. 1568-1580.
Sutcliffe Hilary, A report on Responsible Research & Innovation [2011].
The Res-AGorA project consortium. "OBI Resources".
POJĘCIA POLITYKI NAUKOWEJ
[Science policy concepts]
Pojęcia polityki naukowej, abstrakcyjne, ogólne idee lub pojęcia stosowane do oznaczenia kategorii jednostek, zjawisk lub relacji, stosowane w formułowaniu polityki naukowej. Należą do nich zarówno szerokie i stosunkowo luźno określane pojęcia, metafory i
wizje, stosowane jako „przewodniki heurystyczne” w procesie politycznym, takie jak np.
krajowy system innowacji, po pojęcia precyzyjnie definiowane w prawie i podręcznikach metodologii statystyki, takie jak np. badania i rozwój. Znaczenie każdego pojęcia
jest określane przez opozycje do innych (np. pryncypał vs. agent; input vs. output); sieci
pojęć są często kodyfikowane w taksonomiach (np. instrumentów politycznych), typologiach (np. polityk upowszechniania technologii) lub w klasyfikacjach (np. dyscyplin naukowych).
Każde pojęcie naświetla i ukrywa pewne aspekty opisywanego przedmiotu. Pojęcia mogą otwierać nowe horyzonty i pytania oraz przyczyniać się do powodzenia procesu polityki opartej na faktach, ale mogą również powodować pojęciowe niejasności i prowadzić
do niewłaściwych zaleceń politycznych (na przykład koncepcja Krajowego Systemu Innowacji podkreśla znaczenie powiązań między elementami systemu i sugeruje, że aby
uczynić go bardziej skutecznym należy dalej wzmacniać te powiązania, np. poprzez tworzenie sieci instytucji pośredniczących). Niektóre pojęcia (np. systemu innowacji) są
jednocześnie wykorzystywane w różnych funkcjach przez środowisko badawcze (jako
narzędzie do badania zjawisk społecznych), polityków (jako ramy polityczne) oraz środowisko biznesowe (jako podstawa strategii firmy); w takich sytuacjach często wpływają na siebie nawzajem. Pojęcia są czasami określane za pomocą metodologii statystyki;
albo w metodologie statystyki zawierają definicje pojęć lub koncepcji przyczyniają się do
powstania specjalnych statystyk (np. gospodarki opartej na wiedzy).
Bibliografia
http://encyclopedia.thefreedictionary.com/concept
Miettinen Reijo 2002, National Innovation System. Scientific concept or political rhetoric?
366
Hers Johannes and Niek Nahuis, The Tower of Babel? The Innovation System Approach versus Mainstream
Economics, Economics Working Paper Archive at WUSTL w: “Method and History of Economic Thought”,
no. 0403001, ideas.repec.org/p/wpa/wuwpmh/0403001.html
Godin Benoît 2003, The Knowledge-Based Economy: Conceptual Framework or Buzzword?, http://www.
csiic.ca/PDF/Godin_24.pdf
Øverland Erik F. 2005, The use of heuristic terms in policy building. Dynamic and fallacies in policy building
process, Seminar at the IPTS June 6 2005.
POTRÓJNA SPIRALA
[Triple Helix]
Koncepcja Potrójnej Spirali powiązań uczelnia-przemysł-administracja, zainicjowana w
1990 przez Etzkowitza (1993) i Etzkowitza i Leydesdorffa (1995), podkreśla znaczenie
przejścia od diady relacji rząd-przemysł w społeczeństwie przemysłowym do relacji
triady uniwersytet-przemysł-administracja w społeczeństwie wiedzy. Główna teza Potrójnej Spirali głosi, że potencjał innowacji i rozwoju gospodarczego społeczeństwa
opartego na wiedzy polega na bardziej na hybrydyzacji elementów uczelni, przemysłu i
rządów w tworzeniu nowych form instytucjonalnych i społecznych w zakresie produkcji, transferu i stosowanie wiedzy. Koncepcja potrójnej spirali łączy perspektywę neoinstytucjonalną i neo-ewolucyjną.
Bibliografia
The Triple Helix concept, http://triplehelix.stanford.edu/3helix_concept
PUŁAPKA NISKIEGO DOCHODU
Pułapka niskiego dochodu, względnie „pułapka ubóstwa”, „pułapka rozwojowa” lub
„błędne koło ubóstwa”, to zestaw czynników wskutek których samoczynnie podtrzymuje się ubóstwo, samo-wzmacniający się mechanizm powodujący utrzymywanie się ubóstwa. Na poziomie krajów do czynników tych należą np. ograniczony dostęp do rynków
kredytowych i kapitałowych, ekstremalna degradacja środowiska, skorumpowane rządy, ucieczka kapitału, złe systemy edukacji, choroby (np. malaria), brak publicznej opieki
zdrowotnej, wojny i słaba infrastruktura.
Bibliografia
Powerty trap 2014 Wikipedia
367
PUŁAPKA ŚREDNIEGO DOCHODU
[Middle income trap]
Pułapka średniego dochodu to sytuacja, w której kraj, który przez dłuższy czas cieszy się
dość znacznym wzrostem gospodarczym, po osiągnięciu pewnego poziomu gwałtownie
spowalnia. Nie ma żelaznego prawa spowolnień. Istnieje znaczny rozrzut poziomu, na
którym wzrost spowalnia, oraz głębokości spadku. Spowolnienia występują najczęściej
na poziomie około 17.000 $US (w stałych międzynarodowych cenach roku 2005). Spadek wynosi średnio 3,5% (z 5,6% do 2,1$). Bank Światowy zna tylko 13 ze 101 krajów,
które były krajami o średnich dochodach w 1960 roku i przeszły do grupy bogatych.
Najbardziej znane to azjatyckie tygrysy. Te 12% to nieustanna nadzieja i wzór dla pozostałych 88% [WB 2010].
Określenie to pojawiło się po raz pierwszy w roku 2007 (raport Banku Światowego An
East Asian Renaissance).
Ekonomiści starają się nie tylko definiować pułapkę średniego dochodu, ale także opisać
jej źródła, charakter, powody uwięzienia w pułapce oraz sposoby na to, by ją uniknąć lub
ją opuścić.
Jednym zdaniem przyczyny pułapki opisuje się tak: kraje średniego dochodu osiągnęły
poziom rozwoju na tyle wysoki, aby nie móc konkurować z krajami o niskich dochodach
(np. przez koszty pracy), ale jednocześnie nie mają one trwałego zbioru czynników, aby
móc konkurować produktami i usługami opartymi na wiedzy.
Tę najogólniejszą diagnozę wspomaga się wielu szczegółowymi wyjaśnieniami. Np. Eichengreen pisze, że „o ile osiągnięcie średniego poziomu dochodu możliwe jest poprzez
odtwarzanie rozwiązań technicznych państw Zachodu, wykorzystanie taniej siły roboczej i oferowanie wysokiego zwrotu z inwestycji dzięki niskiemu nasyceniu kapitałem,
to model ten wyczerpuje się, gdy państwo osiąga PKB na osobę rzędu kilkunastu tysięcy
dolarów. W takim przypadku koszty pracy rosną, hamując wzrost pracochłonnej produkcji, następuje nasycenie inwestycjami kapitałowymi, a sprowadzanie zaawansowanych rozwiązań z zagranicy staje się coraz trudniejsze i bardziej kosztowne, gdyż rozwiązania które mogłyby podnieść produktywność takiego kraju znajdują się na tyle blisko światowej granicy technologicznej, że podlegają reglamentacji przez ulokowanych w
krajach rozwiniętych innowatorów” [Eichengreen 2011].
Wskazuje się też na demograficzne przyczyny pułapki. „Wzrost gospodarczy w krajach
rozwijających się jest związany z przemianami demograficznymi, które prowadzą do nagrody w jej wczesnym stadium, ale kary później”. O ile spadek śmiertelności, możliwy
dzięki postępom higieny i medycyny, pozwala na szybki wzrost siły roboczej, o tyle spadek dzietności, postępujący wraz ze wzrostem poziomu życia, powoduje starzenie się
społeczeństwa. Zwiększanie obciążeń osób w wieku produkcyjnym idzie w parze ze
wzrostem kosztów siły roboczej (presja na płace) [Eichengreen 2011].
Recepty. Najoryginalniejszym elementem koncepcji „pułapki średniego rozwoju” jest
samo dostrzeżenie problemu i zogniskowanie na nim uwagi polityków, mediów i opinii
368
publicznej. Recepty natomiast brane są z innych obszarów badań: ze studiów nad czynnikami wzrostu oraz z prac rozwijających koncepcję narodowego systemu innowacji.
Niemniej, są one brane pod kątem krajów zmagających się z pułapką.
Najczęściej receptach tych powtarzają się słowa: instytucje, edukacja, koordynacja, infrastruktura (drogi, mosty, telekomunikacja, usługi logistyczne) oraz większe zróżnicowanie dóbr i usług.
Gdy idzie o tę ostatnią kwestię, ustalono ścisłą korelację pomiędzy poziomem dywersyfikacji produkcji eksportowej a PKB na głowę (studia nad złożonością gospodarek [Atlas
2013]). W korelacji uwzględniono wskaźniki produktów eksportowych, gdyż są dla nich
porównawcze dane statystyczne; wskaźniki te traktuje się „pars pro to” i tezę tę formułuje szerzej: istnieje ścisłe powiązanie między skalą zróżnicowania produkcji i usług danego kraju a poziomem jego gospodarki. Wzrost gospodarczy wiążę się z rozszerzaniem
asortymentu produkcji i usług. Dywersyfikacja nie następuje sama z siebie, tylko jest
efektem wzrostu wiedzy i know how związanej z produkcją i usługami. Nowe produkty i
usługi to świadectwo nowo nabytej wiedzy. Efekt wzrostu wiedzy zależy z kolei od skuteczności edukacji i szkoleń w dostarczaniu zestawu umiejętności potrzebnych na rynku
pracy oraz od adekwatności i jakości badań naukowych, prowadzonych na uczelniach, w
instytutach i w firmach.
Skuteczność edukacji i badań zależy w części od rządu (polityka edukacyjna i naukowa),
a w części od aktywności oddolnej (obywateli, sieci, organizacji poza-rządowych, środowiska naukowego i nauczycielskiego). W części także od importu produkcyjnego i
konsumpcyjnego: każdy kto uczy się obsługiwać nowy tablet lub maszynę rozszerza pulę wiedzy. W części również od wzrostu klasy średniej, kupującej wysokiej jakości innowacyjne wyroby jako wyznaczniki statusu i inwestycję na poczet przyszłego awansu. W
części od badaczy, choćby byli humanistami lub rozwijali nie wiadomo jak abstrakcyjne
rozważania: nowe umiejętności, jakich nabywają, lub ustalenia, do jakich dochodzą, prędzej czy później, nawet przez wiele ogniw pośrednich, opuszczają ich dyscyplinowe
wspólnoty i promieniują na zewnątrz świata nauki. W części od każdego, gdyż nie ma
zawodu nie opartego jakiejś wiedzy, którą nie można ulepszyć.
Przejście na bardziej zaawansowany etap rozwoju zakłada wzmocnienie instytucji,
zwłaszcza tych, które zapewniają finansową i makroekonomiczną stabilność, korzystny
klimat dla inwestycji oraz podnoszenie wartości kapitału ludzkiego. Szczególnie ważne –
podkreśla Eva Paus – jest „wsparcie struktury, która umożliwia i zmusza lokalne firmy,
aby zbiorowo osiągnęły zdolność absorpcji technologii, a następnie przesuwały się po
drabinie technologicznej”. Sygnały dla gospodarki muszą być takie, aby biznes chciał inwestować w modernizację i dywersyfikację produkcji oraz w dostosowanie produkcji
eksportowej do ciągle zmieniającego się popytu międzynarodowego [Paus 2012].
Moment historyczny i położenie gospodarcze. Ważny jest moment historyczny i położnie geograficzne kraju skazanego na radzenie sobie z pułapką.
Moment historyczny rozpatruje się od dwóch stron. Po pierwsze, podkreśla się istnienie
tzw. „okien szans” (metafora budowlana), związanych z cyklem życia tzw. paradygmatu
369
techno-gospodarczego (obecnie nadal opartego na teleinformatyce). Kraj, który wie, jak
wskoczyć na wzbierającą się falę nowego paradygmatu, ma zapewnione przewagi tak
długo, jak jest niesiony falą. Niestety, zwykle gdy kolejny paradygmat staje się rzeczywistością, jest oczywisty dla wszystkich, a jego wczesne sygnały są oczywiste tylko ex post.
Prócz tego, kraje przodujące w ramach dominującego paradygmatu mają zwykle więcej
możliwości od spóźnialskich („latecomers”, metafora z języka potocznego), aby opanować i ten następny.
Po drugie, zwraca się uwagę na szanse i zagrożenia, jakie stwarza globalizacja.
Zagrożenie to skrócenie czasu potrzebnego, aby przenieść się do bardziej zaawansowanej technologicznie produkcji, gdyż zmiany technologiczne następują coraz szybciej. Jest
to przede wszystkim efekt teleinformatyki, która przenika inne technologie.
Szanse polegają na umiędzynarodowieniu innowacji oraz na rozszczepianiu tzw. łańcucha wartości („value chain”), czyli sekwencji działań, które tworzą wartość dla odbiorcy
(widzianych zarówno w samym przedsiębiorstwie, od B+R, przez produkcję, po sprzedaż i serwis gwarancyjny, jak i poza nim, jako ciąg powiązań dostawcy-klienci, od półproduktu po produkt finalny). Oznacza to, że poszczególne wysoko zaawansowane elementy ciągu produkcji wytwarza się nieraz w krajach dalekich od technologicznego
frontu. Np. iPhone i iPad nie mają jednego kraju pochodzenia. Kilkanaście firm z co najmniej pięciu krajów dostarcza do nich części.
Wysoko zaawansowane elementy nie są bynajmniej domeną branż wysokiej technologii.
Każda technologia ma swój koniec nisko zaawansowany i wysoko zaawansowany. Przesuwać się po drabinie technologicznej powinny także sektory tradycyjne. Wysoko zaawansowane technologie nie są monopolem branż wysokich technologii. Zaawansowane
technologicznie wyroby i usługi niekoniecznie zapewniają najwyższy zysk. Stwarza to
szansę dla państw borykających się z pułapką. Drewno, wino, łosoś i miedź przytacza się
jako przykłady tradycyjnych branż, które Chile potrafiło tak unowocześnić, że nie tylko
przodują w świecie, ale także są siłą pociągową innych chilijskich branż.
Sukces Chile był pochodną kolejnego czynnika walki z pułapką, a mianowicie koordynacji. Sukces ten zależał od skoordynowanych działań rządu, aktywnych firm prywatnych,
zagranicznych przedsiębiorstw chętnych do dzielenia się swoją wiedzą oraz krajowych
placówek badawczo-rozwojowych.
Położenie geograficzne oznacza nie tylko, jak zawsze, dostęp do mórz i ukształtowanie
terenu zapewniające łatwą komunikację, ale także obecność zaawansowanego gospodarczo sąsiada. Dzieje się tak m.in. dlatego, że – jak dowiedli tego Hausman i Hidalgo –
ważną rolę w tempie i kierunku dywersyfikacji produkcji i usług odgrywają tacy mocniejsi sąsiedzi. Japonia dla Korei, Ameryka dla Kanady i Meksyku, Niemcy dla Polski. Kraj
rozszerza asortyment produkcji i usług będąc nie tylko „zależnym od szlaku” („path dependency”), ale także od tego, w jakim kierunku postępuje zróżnicowanie u tego potężniejszego sąsiada. Koncepcja „zależności od szlaku” zwraca uwagę, że zakres zmiany ku
większej złożoności jest określony przez dostępne możliwości i odbywa się „krok po
kroku”. Z kolei spostrzeżenie o roli potężniejszego sąsiada podkreśla wagę zagranicz370
nych technologii, które stanowią źródło 90% (lub więcej) wzrostu produktywności w
większości państw świata. Potężniejszy sąsiad oddziałuje przez pod-wykonawstwo,
współpracę, wpływ kulturowy [Atlas 2013].
Bibliografia
Bukowski Maciej, Aleksander Szpor, Aleksander Śniegocki, Potencjał i bariery polskiej innowacyjności, Instytut Badań Strukturalnych, Warszawa 2012
Eichengreen Barry 2011, Escaping the Middle-Income Trap
Paus Eva 2012, Confronting the Middle Income Trap: Insights from Small Latecomers, “St Comp Int Dev” 47,
ss. 115–138.
WB 2010, World Bank Escaping middle income trap
When Fast Growing Economies Slow Down: International Evidence And Implications For China 2011, Barry
Eichengreen, Donghyun Park, Kwanho Shin, Working Paper
The Atlas of Economic Complexity: Mapping Paths to Prosperity, 2013, Ricardo Hausmann, César A. Hidalgo,
Sebastian Bustos, Michele Coscia, Alexander Simoes, Muhammed A. Yildirim.
REFLEKSYJNOŚĆ
Refleksyjność odnosi się do wzajemnych relacji pomiędzy przyczyną i skutkiem. Zwrotna relacja jest dwukierunkowa, zarówno przyczyna jak skutek mają wpływ na siebie
nawzajem w sytuacji [Wikipedia 2013]. Najczęściej relację tę odnosi się do powiązań
pomiędzy obserwatorem lub praktykiem a rzeczywistością społeczną, która stanowi
przedmiot działań lub obserwacji; refleksyjność – w ślad za łacińskim reflecto – oznacza
zwrotność, akt samo-odniesienia, ocenianie wiedzy będącej podstawą dotychczasowego
działania jako źródło nieustannego uczenia się.
Pierwsze książki z przymiotnikiem reflexive w tytule dotyczyły językoznawstwa (od
1909 roku) i matematyki (od 1921); w roku 1925 refleksyjny wkroczył na obszar filozofii. Odtąd podjął ekspansję na nowe obszary wiedzy. Początkowo stosowany w języku
francuskim i niemieckim, w połowie lat 1960-tych pojawił się w tytułach książek publikowanych po angielsku. Przymiotnik ten okazał się bardzo przydatny jako źródło inspiracji i forma językowa nowych subdyscyplin.
W latach 1990-tych, przedłożono różne pomysły refleksyjnych praktyk badawczych, metodologii oraz ewaluacji badań.
Refleksyjny okazał się także użyteczny jako określnik nowych koncepcji: zachowania
(1972), wszechświata (1972), ideologii (1974), praktyki (1983), strategicznej kontroli
wojskowej (1984), prawa (1987), polityki (1991), myślenia i rozumowania (1993,
1994), demokracji (1995), języka (1995), modernizacji (1996), edukacji (1997), teorii
gier (1997), intelektualisty (1997), rządzenia (1998), procesu politycznego (1998),
sprawiedliwości społecznej (1999), zarządzania efektywnością (2002), innowacji
(2002).
371
Ze wszystkich tych koncepcji największe znaczenie uzyskały koncepcje „refleksywnej
praktyki” [Schön 1983] oraz „refleksywnej modernizacji” [Beck 1994]; szansę taką ma
także nowa koncepcja innowacji jako „strategicznej refleksywności” [Fuglsang, 2003].
Ogólnie biorąc, refleksyjność mieni się od znaczeń, będąc już to postawą, już to cechą,
wartością, zasadą, praktyką, aktem, funkcją, umiejętnością, metodą badawczą, heurystyką lub nawet nazwą zbiorczą sformalizowanych procedur (takich jak foresight i wartościowanie technologii).
Najczęściej znaczenie refleksyjności waha się od indywidualnej samowiedzy traktowanej jako wartość sama w sobie do samowiedzy zbiorowej zdobywanej w stałych i nieustannie zmieniających się powiązaniach z otoczeniem, uznawanej jako konieczny czynnik “przeżycia”, “utrzymania się w grze”, “sprostania konkurencji”; od statycznego, raz
osiągniętego „samo-poznania”, po wiedzę rozwijaną w kontaktach ze środowiskiem zewnętrznym i służącą jako instrument działania.
Dla plastycznego uzmysłowienia sobie sensu tego pojęcia odwołajmy się do przykładu
przytoczonego w książce T. Winograda i F. Floresa. Stolarz wbija gwóźdź opierając się na
wiedzy pozasłownej (automatycznych odruchach). Gdy nagle wiedza ta zawodzi, odkłada młotek i zadaje sobie pytania, dlaczego tak się stało i co należy zmienić. Póki bił młotkiem, a gwóźdź wchodził zgodnie z planem, póki nie nastąpiło nieoczekiwane zakłócenie
podmiot (stolarz), narzędzia (młotek i gwoździe), otoczenie (deski) oraz wiedza (jak
wbijać) były działaniu jednym i tym samym. Młotek był takim samym elementem działania jak dłoń i mięśnie, które nim poruszały. Wiedza ukryta w nawykach nie była oddzielona od działania. By osiągnąć założony cel stolarz nie musiał myśleć w kategoriach
właściwości młotka, gwoździ, desek oraz stosowanej techniki. Dopiero gdy sytuacja stała
się problematyczna, a gwoździe, młotek, deski i stolarz – choćby na chwilę – bezużyteczne, w analitycznej refleksji poszczególne elementy działania zyskały samodzielność [Winograd 1986].
W akcie refeksyjności następuje oddzielenie człowieka od działania, narzędzi i otoczenia; aby zrozumieć powstały problem człowiek odwołuje się do istniejących lub tworzy
nowe modele sytuacji. Składnikami najprostszej refleksyjności są zatem: działanie (z
ukrytą w nim wiedzą) jako przedmiot analizy; cel, któremu działanie ma służyć, oraz
wartości, jakie ma realizować (takie jak np. skuteczność i efektywność); monitoring,
dzięki któremu dostrzega się problem; ewaluacja działania, dzięki której definiuje się
problem i proponuje metodę jego rozwiązania. Rozwiązując powstały problem stolarz
mógł sięgnąć po różne źródła wiedzy – od wcześniejszego doświadczenia aż po podręczniki stolarstwa. Mógł problem rozwiązać sam, na drodze myślowego lub realnego
eksperymentu, mógł też poprosić o pomoc kolegę.
Przytoczony przykład ilustruje najprostszą formę refleksyjności. W dzisiejszych czasach
sytuacje, do których odnosi się refleksyjność, są na ogół znacznie bardziej złożone:
człowiek działa w zespole, a jego narzędzia, środowisko i wiedza są znacznie bardziej
skomplikowane. Większy stopień złożoności świata społecznego powoduje, że refleksyjność nie tylko odgrywa nieporównanie większą rolę niż dawniej, ale także jest o wiele
372
bardziej rozbudowana i sformalizowana. Coraz częściej nie jest tylko aktem doraźnym,
po który sięga się w chwili dostrzeżenia problemu, tylko stałym. Dotyczy nie tylko zagrożeń, ale i szans, nie tylko stanu obecnego, ale i długofalowych perspektyw.
Pojęcie refleksyjności zawdzięcza swoje znaczenie nie tylko częstotliwości, z jaką jest
stosowane, ale także randze uczonych, którzy zogniskowali wokół niego swoje teorie,
przede wszystkim Pierre Bourdieu oraz Anthony Giddensowi i Ulrichowi Beckowi.
Pojęcie reflexivity Anthony Giddensa nie ma dobrego jednoznacznego odpowiednika w
języku polskim. Chodzi w nim nie tyle o refleksyjność w znaczeniu pasywnej zadumy
nad sobą, tylko o stałe i systematyczne intelektualne sprzężenie zwrotne z otoczeniem i
z samym sobą, zbieranie danych – o sobie, swojej organizacji i jej obszarze zainteresowania – analizowanie ich oraz wprowadzanie korekt do zasad działania, tak aby lepiej
realizować nakreślone cele. Giddens refleksyjność uznaje za atrybut nowoczesnego społeczeństwa. Jego zdaniem w coraz większym zakresie jest ona wspierana przez systemy
eksperckie (nauka, prawo, medycyna, technika) oraz coraz częściej polega nie tylko na
stałej konfrontacji z zastaną sytuacją, ale także uwzględnia różne możliwe sytuacje przyszłe. Zdaniem A. Giddensa reflexivity to konieczna postawa ludzi i organizacji w złożonym i szybko zmieniającym się świecie [Beck 1994].
W filozofii pojęcie refleksyjności pojawia się m.in. zarówno w koncepcjach praktyki, jak i
języka. „Filozofia hermeneutyczna” (Heidegger, Gadamer) zwraca uwagę na refleksyjność (samozwrotność) języka, jego zdolność oddziaływania na samego siebie. Jako przykład przytacza słowo „język”, który określając język jest jego częścią. Niezdolność do
opuszczenia systemu w języku nieuwarunkowanym systemowo ma niebagatelne znaczenie dla naszej wiedzy i pojęcia prawdy. Każda meta-koncepcja może zostać nakryta
nową. Warunkiem docierania do możliwie obiektywnej rzeczywistości jest rozmowa. W
konfrontacji z innymi punktami widzenia perspektywa, w jakiej sam widzę rzeczy, staje
się dla mnie samego problematyczna, patrząc innymi oczyma na coś, co inni widzą inaczej, mogę skorygować swoje (lub innych) przesądy.
W socjologii problematyka refleksyjności obecna jest zarówno w publikacjach nurtu
symbolicznego interakcjonizmu i etnometodologii (m.in. G. H. Mead, 1934, P. Bourdieu,
1990), jak i postmodernizmu (M. Foucault, 1980, A. Giddens, 1990). W tych pierwszych
nurtach umieścić trzeba tzw. socjologię refleksyjną, kładącą nacisk na auto-analizę przesłanek myślenia samej socjologii.
W psychologii wiedza do teorii refleksyjności znajduje się m.in. w modelu rozwoju poznawczego Jeana Piageta.
Na styku filozofii, socjologii, antropologii, psychologii, badań pedagogicznych i nauk o
zarządzaniu rozwijane są teorie praktyki oraz teorie uczenia się.
Idea refleksyjności pojawia się m.in. w koncepcjach trzech typów uczenia się G. Batesona, uczenia opartego na pojedynczej i podwójnej pętli oraz meta-uczenia (deuterolearning) C. C. Argyris i D.A. Schöna oraz uczenia się proceduralnego i konceptualnego.
Uczenie oparte na pojedynczej pętli to powielanie cudzych zachowań; uczenie oparte na
373
podwójnej pętli to modyfikowanie obowiązujących norm, meta-uczenie dotyczy uczenia
się sztuki uczenia. Nauczanie proceduralne to prosta bezrefleksyjna realizacja programu
nauczania; nauczanie konceptualne – to nauczanie na podstawie własnej strategii nauczania, modyfikowanej w miarę napływu informacji o skutkach jej stosowania, o jej wartości praktycznej lub spójności z innymi strategiami.
W ekonomii ewolucyjnej idee bliskie zagadnieniom refleksyjności rozwijane są w kontekście B+R i innowacji (typy procesów uczenia się, jak learning-by-doing, learning-bysearching, learning-by-using, spillover learning oraz „dynamiczne kompetencje”). Idea refleksyjności jest obecna w koncepcjach modeli innowacji, pięciu generacji procesu innowacji w przedsiębiorstwach, trzech generacji B+R przedsiębiorstw oraz trzech scenariuszy organizacji B+R.
Można postawić tezę, że tak nagły awans refleksyjności jako słowa, pojęcia i ogniska
koncepcji teoretycznych to przede wszystkim przejaw wejścia społeczeństw rozwiniętych gospodarczo w fazę określaną jako „gospodarka oparta na wiedzy”, „społeczeństwo
wiedzy”, „społeczeństwo poinformowane”. Językowi angielskiemu (a także innym językom) brakowało wcześniej określenia na (stale aktualizowaną) samowiedzę (jednostki,
rodziny czy organizacji), zdobywaną w relacjach z otoczeniem i służącą jako narzędzie
auto-korekty obranej strategii oraz adaptacji koniecznej dla radzenia sobie w zmieniających się sytuacjach. Lukę tę zapełniło słowo reflexivity. Jest charakterystyczne, że w
ostatnich latach równolegle z reflexivity zrobiły karierę inne terminy, takie jak np. organizational learning Kozłowski 2002].
Bibliografia
Lars Fuglsang, Jon Sundbo, Innovation as Strategic Reflexivity, Taylor & Francis, 2003, ss. 304.
Reflexivity Wikipedia 2013.
Schön D. (1983) The Reflective Practitioner, How professionals think in action, Basic Books.
Ulrich Beck, Anthony Giddens, Scott Lash, Reflexive modernization : politics, tradition and aesthetics in the
modern social order, Stanford, Calif. : Stanford University Press, 1994. Tłum. pol. Modernizacja refleksyjna :
polityka, tradycja i estetyka w porządku społecznym nowoczesności, Warszawa : Wydawnictwo Naukowe
PWN, 2009.
Terry Winograd, Fernando Flores, Understanding Computers and Cognition: A New Foundation for Design,
Intellect Books, 1986 ss. 207.
Jan Kozłowski, Refleksywność – jedna z kluczowych idei przełomu tysiącleci? w: Kreowanie nowego, Warszawa 2002, ss. 205-248.
REWOLUCJA 3D
[3D Revolution]
Ocenia się, że w ciągu następnej dekady lub dwóch, rewolucja druku 3D będzie miała
wpływ równy rewolucji PC z lat 1980 i 1990. Sądzi się, że w ciągu 20 lat, a może mniej
niż 10, większość ludzi w krajach rozwiniętych będzie regularnie korzystać z drukarek
374
3D do „ucieleśnienia” cyfrowego projektu, lub będzie regularnie kupowała zamówione
przez siebie w 3D produkty lub części zamienne.
Druk 3D stosuje się do poprawy projektowania produktu. Oprócz projektowania koncepcyjnego, drukarki 3D stosuje się także do tworzenia funkcjonalnych prototypów. Prototypy funkcjonalne buduje się podczas procesów projektowania, po to by sprawdzić
formę, dopasowanie i funkcję poszczególnych części danego produktu.
Drukarki 3D zaczynają być także stosowane w przemyśle w fazie przed-produkcyjnej.
Większość tradycyjnych procesów produkcyjnych wymaga stworzenia „szytych na miarę” przyrządów, narzędzi, wzorów i form, wykorzystywanych podczas produkcji do
kształtowania odpowiednich form metali i tworzyw sztucznych. Podobnie jak prototypy
produktów, przedmioty takie były tradycyjnie wykonywane ręcznie, co było zarówno
czasochłonne jak i kosztowne. Korzystanie z drukarek 3D celem oprzyrządowania produkcji pozwala zaoszczędzić sporo czasu i pieniędzy. Szczególnie obiecujące są zastosowania druku 3D w bezpośredniej produkcji form albo matryc z których można wykonać
ostateczne formy. Chociaż druk 3D ma już ustalone miejsce w pewnych pracach projektowych i wstępnych procesach wytwarzania, jednak ostateczne zastosowanie techniki
będzie polegać bezpośrednio na produkcji. W przyszłości możliwe będzie wytwarzanie
techniką druku 3D wszystkiego, nawet całego samolotu.
Jedną z głównych zalet druku 3D jest możliwość osiągnięcia masowej kastomizacji, gdyż
w przeciwieństwie do druku 2D kolejne obiekty produkowane tą techniką nie musza być
takie same. Tak jak masowa produkcja zrewolucjonizowała gospodarkę XX wieku, tak
masowa kastomizacja rewolucjonizuje gospodarkę XXI wieku.
Oprócz masowej kastomizacji druk 3D pozwala na tanie wytwarzanie wyrobów jednorazowych lub małych partii elementów. Druk 3D jest już stosowany dla wytwarzania rzeczy, które nie mogą być wykonane szybko i tanio przy użyciu tradycyjnych metod produkcji.
Jesteśmy świadkami narodzin tzw. otwartego hardwaru, gdy coraz większa liczba osób
mając dostęp do oprogramowania CAD (Computer-aided design) oraz drukarek 3D pobiera obiekty w formie cyfrowej, dokonuje w nim zmian, drukuje obiekt, oraz ponownie
udostępnia publicznie zmieniony projekt, aby inni mogli skorzystać z dokonanych modyfikacji.
Choć gdy większość rzeczy w 3D powstaje z tworzyw sztucznych lub metali, istnieją specjalistyczne drukarki 3D, które pozwalają na osadzanie kolejnych warstw żywych komórek. Takie bio-drukarki mają potencjał przekształcenia wielu obszarów medycyny, gdyż
umożliwiają powstawanie z hodowli komórek własnych pacjenta zastępczej skóry i narządów ludzkich. Jeśli tak się stanie - a pionierzy bio-druku spodziewają się, że stanie się
to w ciągu dwóch dekad - to rozwój druku 3D może zlikwidować listy pacjentów czekających na organa do przeszczepu. W ciągu najbliższych pięciu lat tkanki drukowane w
3D mogą być zastosowane w badaniach leków, zmniejszając tym samym skalę doświadczeń na zwierzętach.
375
Druk 3D stał się możliwy dzięki znacznej poprawie mocy obliczeniowej i pamięci komputera oraz infrastruktury sieciowej. Kiedy drukarki 3D pierwszej generacji weszły na
rynek pod koniec 1980 i na początku 1990, przemysłowe stacje robocze wykorzystywane do projektowania obiektów 3D były drogie, a idea wymiany dużych ilości danych
przez Internet – nierealna. Jednak dziś wiele smartfonów i tabletów – nie mówiąc już o
komputerach stacjonarnych i laptopach – jest na tyle silnych, aby móc służyć do projektowania złożonych obiektów 3D.
Druk 3D zawdzięcza także swoje powodzenie postępowi technicznemu w druku 2D.
Drukarki 3D są czymś radykalnie różnym od 2D, jednak opierają się na dość podobnych
siłownikach i mechanizmach zasilających, laserach, głowicach atramentowych i sterownikach elektronicznych. Zaawansowanie takiego sprzętu w ciągu ostatnich dwóch dekad
było warunkiem koniecznym rewolucji druku 3D.
Rozwój druku 3D musiał również zaczekać na rozwój samego druku 3D. Innowacje i lepsze modele tanich drukarek 3D wprowadzili pasjonaci, którzy korzystali z wczesnych
drukarek 3D.
Kolejnym katalizatorem rewolucji druku 3D był wzrost cyfryzacji działalności człowieka.
Dzisiaj miliardy ludzi korzysta z Internetu i posiada w wersji cyfrowej muzykę, zdjęcia
lub wideo. Pomysł wykorzystania drukarek 3D do wytwarzania obiektów fizycznych z
danych w Internecie cyfrowych jest o wiele bardziej naturalny niż w okresie narodzin
drukarek 3D.
Wreszcie, niektóre z patentów na technologie druku 3D, uzyskane w latach 1980 i na
początku 1990, wygasły lub wkrótce wygasną. Niektóre z potencjalnych barier prawnych, które spowolniły rewolucję 3D zostały więc pokonane [Barnatt].
Bibliografia
Barnatt Christopher, 3D Printing: The Next Industrial Revolution, 2013.
ROLA RZĄDU W BADANIACH I INNOWACJACH
[The Role Of Government In Research And Innovation]
Model gospodarki traktowanej jako samo-regulujący system rynkowy, wg którego rolą
rządu jest pilnowanie przestrzegania praw własności oraz interweniowanie tylko wtedy,
gdy to absolutnie konieczne („ułomność rynku”) głosi, że rynek pobudzają innowacje,
których autorami są firmy. Rola rządu, marginalna, ma tylko polegać na ułatwianiu życia
dynamicznemu biznesowi poprzez prywatyzację i deregulację, oraz wprowadzanie zachęt podatkowych, szczególnie wobec małych i średnich firm, z natury zwinniejszych i
bardziej przedsiębiorczych od wielkich zakładów przemysłowych.
Wszelako – argumentuje Keith Smith [2010] – historia cywilizacji mówi coś, co przeocza
dominujący model ekonomii. To państwo – nie biznes – odegrało kluczową rolę w radykalnych innowacjach, takich jak taśma montażowa (użyta po raz pierwszy do budowy
376
brytyjskich statków wojennych i zaadoptowana później w amerykańskim przemyśle
mięsnym i samochodowym), komputer, Internet, telefonia komórkowa, logistyka, bio-inanotechnologia, GPS, wielkie organizacje itd. Internet nie powstałby bez amerykańskiej
Agencji Zaawansowanych Badań Obronnych (DARPA), nanotechnologia bez amerykańskiego programu Narodowej Inicjatywy Nanotechnologicznej, a postulowana nowa zielona rewolucja przemysłowa czystej energii nie osiągnie „punktu, po którym nie ma odwrotu” bez długofalowej systematycznej interwencji państw zaawansowanych gospodarczo. Dzieje się tak z powodu skali, horyzontu czasowego, oraz ryzyka i niepewności,
jakie wiążą się ze stworzeniem tych przełomowych innowacji. To powód (jeden z wielu)
przemyślenia roli państwa w gospodarce. Zamiast mówić o „gospodarce rynkowej” powinno się mówić o „gospodarce państwowo-rynkowej”. Wielkie korporacje są trwale
zintegrowane z państwem i jego porządkiem prawnym. Także z powodu swej skali, sektor publiczny – edukacja, zdrowie, obrona, transport, infrastruktura, nauka, pomoc publiczna dla B+R w biznesie – to istotna część gospodarki [Smith 2010].
Idee Smitha rozszerza Mariana Mazzucato [2013]. Mitem jest stanowisko, że rola państwa w B+R i innowacjach powinna być marginalna, że twórczy i przedsiębiorczy mogą
być tylko przedsiębiorcy, ale nie państwo, z natury rzeczy skazane na rutyny, stagnację i
biurokrację (jak gdyby wiele państw, nie tylko Korea i Singapur, nie okazało się innowacyjnymi, i jak gdyby wiele firm, np. Encyklopedia Britannica, nawet rynek nie był w stanie pobudzić na czas do nowatorskich działań).
Rola państwa w innowacjach wcale nie jest marginalna, tylko kluczowa. Państwo powinno nie tylko finansować powstawanie wiedzy na uniwersytetach i w laboratoriach
rządowych, ale także dbać o jej szeroką dyfuzję we wszystkich sektorach gospodarki i
życia społecznego, wspomagać tworzenie sieci innowacji oraz budować strategie rozwoju gospodarczego w priorytetowych dziedzinach.
77 z 88 najważniejszych amerykańskich wynalazków (nagrodzonych przez R&D Magazine w latach 1971 – 2006) zależało w decydującej mierze od wsparcia państwa.
Za symbol kreatywności rynku uznaje się firmę Apple. Jej przełomowe produkty, które
wzbudziły na świecie niemal tyle entuzjazmu, co w latach 1960. przeboje bitlesów, to
iPod pierwszej generacji (2001), iPod dotykowy i iPhone (2007) oraz iPad (2010). Każde z nich oparte było na badaniach naukowych i technologicznych przeprowadzonych za
pieniądze amerykańskiego podatnika w publicznym sektorze badań (przede wszystkim
amerykańskim): DRAM – DARPA, click-wheel – CERN, baterie –Departament Energii,
kompresja sygnału – Urząd Badań Wojskowych, ciekłokrystaliczny wyświetlacz – National Institutes of Health, National Science Foundation, Department of Defence, twardy
mikro dysk – DARPA i Department of Defence, mikroprocesor – DARPA, ekran dotykowy
– Department of Energy, National Science Foundation, Department of Defence, CIA,
HTTP i HTML – CERN, technologia komórkowa – wojsko, SIRI (osobisty asystent i nawigator wiedzy) – DARPA, GPS – Department of Defence, Internet – DARPA. Amerykańska
polityka zamówień publicznych wspierała Apple w krytycznych fazach, kiedy zdawało
377
się, że los firmy jest przesądzony: przez całe lata 1990. Amerykańskie szkoły publiczne
kupowały jej produkty i oprogramowania.
Podobnie twórczą rolę w amerykańskich innowacjach odgrywa amerykański The Small
Business Innovation Research (SBIR) Programme, The Orphan Drug Act ODA (ustawa
która zapewniła możliwości rozwoju tak znanych firm biofarmaceutycznych jak Genzyme, Biogen, czy Genentech), czy też The National Nanotechnology Initiative (NNI).
Wszystkie te inicjatywy łączą politykę popytową (ODA, SBIR, NNI) z podażową (DARPA,
NNI). Dzięki nim rząd nie tyle i nie tylko „stwarza warunki dla innowacji” (minimalna rola państwa), co finansuje badania podstawowe oraz tworzy sieci powiązań pomiędzy
badaczami sektora publicznego a biznesem [Mazzucato 2013].
Krytykę modelu samo-regulującego się rynku podejmuje też m.in. Richard Nelson
[2000].
Bibliografia
Mazzucato Mariana 2013, The Entrepreneurial State: Debunking Public vs. Private Sector Myths, Anthem
Press.
Nelson Richard 2000, On the complexities and limits of market organization.
Smith Keith 2010, Public sector Innovation Indicators: Emerging Issues, Innovation in the Public Sector
Conference, Budapest 27-28 May.
ROZLICZALNOŚĆ
[Accountability]
Jednym z kluczowych słów w działalności sektora publicznego II poł. XX wieku stało się
słowo accountability. Nie ma ono jednoznacznego odpowiednika w języku polskim.
Najczęściej accountable tłumaczy się jako odpowiedzialny, zobowiązany do wyliczenia
się, wytłumaczalny, dający się usprawiedliwić [Jaślanowie 1991]. Accountable odnosi
się do sytuacji, w której np. administrator bezpośrednio odpowiedzialny przed radą
nadzorczą musi okazać, że potrafił wywiązać się z powierzonych mu obowiązków,
a z powierzonych mu rzeczy zrobił mądry użytek [Penguin 1971]. Accountable (rozliczane) są organizacje i ludzie, a nie programy czy instrumenty polityczne. Mówiąc opisowo, accountability to zobowiązanie stron uczestniczących we wprowadzaniu w życie
interwencji publicznej do tego, aby dostarczyć zwierzchnim władzom politycznym oraz
opinii publicznej informacji i wyjaśnień dotyczących oczekiwanych i aktualnych wyników działań. Osią informacji i wyjaśnień ma być sposób wykorzystania zasobów publicznych [Evaluating 1999].
Brak polskiego odpowiednika accountability rozumianego w sposób używany obecnie w
krajach OECD świadczy, że „rozliczanie” rozumiane jest w Polsce raczej w kategoriach
zgodności z prawem, a w szczególności z przepisami finansowymi, a nie zgodności z misją organizacji, mandatem społecznym, i zasadami skutecznego działania. Ponadto, definiowane jest ono raczej w sposób wąski i negatywny (kontrola i kara), podczas gdy dziś
378
w accountability nacisk położony jest bardziej na aspekt pozytywny (pomiar dokonań,
informowanie opinii publicznej o osiągniętych celach i rezultatach).
Accountability w dzisiejszym rozumieniu jest efektem zmian w rozumieniu zadań sektora publicznego w zachodnim świecie. Przed kilkoma dekadami słowo to także nie miało
dzisiejszego znaczenia. Dawniej, tak jak dziś w Polsce „rozliczanie”, dotyczyło tylko
zgodności z przepisami i spraw finansowych, a nie skuteczności i efektywności działania.
Zmiana znaczenia odzwierciedliła przejście od administracji „nakazu i kontroli” do nowoczesnej administracji.
Ale gdy w Polsce „rozliczanie” nie nabrało jeszcze dzisiejszego znaczenia accountability,
w krajach OECD słowo to rozszerza swój zakres, a zmiana ta odzwierciedla kolejną ewolucję sektora publicznego. W ostatnich dekadach accountability odnosi się do odpowiedzialności urzędników rządowych przed zwierzchnikami, zwierzchników przed ministrami, ministrów przed parlamentem, a parlamentu przed wyborcami. Wraz z ewolucją
systemu rządzenia ten prosty model jest coraz częściej w wieloraki sposób modyfikowany. Accountability oznacza coraz częściej „rozliczanie” nie tylko przed zwierzchnikiem, ale także przed interesariuszami i opinią publiczną, nie koniecznie bezpośrednie,
ale bardziej długofalowe, nie tyle oparte na kontroli zgodności wyników z zakładanymi
celami, co na osiągnięciu bardziej długofalowych pozytywnych efektów. W korporacjach
obejmuje ono przewidziane prawem konsultacje z interesariuszami, a w demokracji partycypacyjnej – udział obywateli w sprawowaniu władzy. Zmiana znaczenia i praktyk
„rozliczania” jest reakcją na sytuację, w której tradycyjne metody administracji często
zawodzą w zarządzaniu współczesnymi instytucjami rządowymi, instytucje dostarczające usług publicznych funkcjonują nieraz skuteczniej, gdy są zwolnione z codziennego
nadzoru, a w szybko zmieniającym się świecie stwierdza się potrzebę większej organizacyjnej elastyczności [OECD 1997].
Podsumowując, można accountability zdefiniować jako „układ, dzięki któremu osoby reprezentujące organizację rozliczają się przed swymi zwierzchnikami, parlamentem, opinią publiczną i użytkownikami. Skuteczne rozliczanie (accountability) obejmuje jasną
definicję zakresu odpowiedzialności, określenie stopnia samodzielności, instrukcje co do
sporządzania sprawozdań finansowych, wymagania odnośnie do przedkładania planów
organizacyjnych, pomiar wyników, monitoring dokonań, odpowiadanie na zadawane pytania, a także nominacje, nagrody i sankcje [Pigeon 2000].”
Porządek relacji oraz sposób ich egzekwowania określany mianem accountability wpisany jest w przepisy prawne, procedury i praktyki działania oraz cały cykl politycznoadministracyjny organizacji publicznych.
Bibliografia
J. i H. Jaślanowie, Słownik terminologii prawniczej i ekonomicznej angielsko-polski, Warszawa 1991.
The Penguin Modern Guide to Synonyms and Related Words, London 1971, s. 493.
Evaluating socio-economic programmes. Glossary of 300 concepts and technical terms, vol. 6, European
Commission, Luxembourg, 1999.
379
E. Richard Pigeon and Ralph Kellett, Glossary Of Common Terms Used In Research And Evaluation, RCMPGRC, 2000, Internet.
OECD Choice of Policy Instruments, 1997 PUMA/SBO(97)9
SKUMULOWANE KORZYŚCI
Ideę „skumulowanych korzyści” rozwinął przed laty socjolog Robert Merton [Merton
1968; 1988; 1995; Walberg 1983. Podczas gdy Merton opisał zjawisko na przykładzie
karier w nauce, jest ono (jak podkreślił sam autor) uniwersalne. Można je zaobserwować w różnych sektorach, sferach, obszarach geograficznych i okresach historycznych.
Pojęcie to jest obecnie stosowane w wielu dziedzinach nauki [Zuckerman 2010].
Wg Mertona, koncepcja kumulatywnej korzyści zwraca uwagę na sposób w jaki wykorzystuje się pewne wyjściowe przewagi dla uzyskania ich kolejnych małych przyrostów,
aż do osiągnięcia punktu wyczerpania możliwości lub wystąpienia procesu równoważącego (countervailing process).
Np. na poziomie organizacyjnym, początkowa korzyść porównawcza może polegać na
wielu czynnikach, takich jak przywództwo, strategia, reputacja, zasoby fizyczne, ludzkie
i informacyjne, wymagający klienci, zamówienia publiczne, relacje z klientami z przemysłu lub działalność w wyłaniających się i rokujących przyszłość obszarach techniki. W
pewnych okolicznościach te początkowe korzyści zaczynają być stale pomnażane dzięki
rodzajowi „pozytywnej ścieżki rozwoju” (virtuous circle).
Np. rządowy instytut badawczo-rozwojowy powiększa swoje aktywa inwestując w organizację i zarządzanie, marketing badań i kontakty z otoczeniem (public relations) itd.
Utalentowani badacze znajdują w nim warunki do prowadzenia badań na wysokim poziomie. Przyciągają oni innych dobrych badaczy, gdyż utalentowani grawitują ku ośrodkom, które oferują najlepsze szanse rozwoju, zarówno co do wynagrodzenia, jak i naukowej samo-realizacji. Instytut działa sprawniej, a jego badania zyskują uznanie. To z kolei przyciąga nowe fundusze badawcze i nowych utalentowanych badaczy i pozwala na
nowe inwestycje w kapitał ludzki i fizyczny. Do instytutu trafia coraz więcej ofert
współpracy, krajowej i międzynarodowej, co jest dodatkowym czynnikiem pobudzającym badania. Działalność instytutu zwraca uwagę biznesu, który w jego pobliżu zakłada
ośrodki badawczo-rozwojowe i podejmuje z nim współpracę [Freeman 1962]. Wymagający klienci wymuszają stosowanie wysokich standardów pracy, co umożliwia instytutowi przyciągnąć klientów z bardziej zaawansowanych krajów. Wdrożenie TQM pociąga
za sobą ulepszenia jakości usług, wzrost satysfakcji klientów, redukcję kosztów i polepszenie wizerunku firmy. Będąc magnesem talentów instytut przyciąga także absolwentów, który tworzą firmy odpryskowe i zachęcają inne przedsiębiorstwa do lokowania
swoich oddziałów w jego pobliżu [Geuna 1995; Florida 1999].
W innym instytucie zachodzi odwrotny proces. Kapitał wyjściowy jest marnotrawiony.
Najbardziej utalentowani mają jedynie niewielki wpływ na działalność badawczą instytutu. Establishment badawczy obawia się wspierać najbardziej utalentowanych widząc
w nich przyszłych konkurentów w walce o szczupłe zasoby. Instytut zachowuje się jak
380
„oblężona twierdza”. Badacze rozwijają strategie unikania współpracy. Klienci są niezadowoleni. Brak synergii i instytut staje się „mniej niż sumą swoich części”.
Koncepcję skumulowanych korzyści stosuje się często dla wyjaśnienia dlaczego pewne
kraje lub regiony odniosły sukces a inne nie. Jak i dlaczego pewne miejsca rozkwitają
podczas gdy inne nie są w stanie się rozwinąć to często nierozwiązana zagadka. Podkreśla się jednak, że problem tkwi nie tyle w układzie lokalnych cech lub warunków, co
(bardziej) w sekwencji kumulujących się interakcji pomiędzy nimi. Osie krystalizacji
wzrostu mogą być tak różne, jak czołowy uniwersytet badawczy, prestiżowy park nauki,
atrakcyjne środowisko gospodarcze przyciągające wysoko wykwalifikowanych specjalistów, obecność kapitału ryzyka, publiczne wsparcie dla innowacyjnych technologii
[Garnsey 1998]. W szczególności, coraz częściej to szkoły wyższe są „lokomotywami” lokalnego rozwoju [Florida 1999]. Zbieg różnych przyczyn nieoczekiwanie tworzy mieszankę wybuchową, która uruchamia procesy rozwojowe. Gdy osiąga się „masę krytyczną”, region wkracza na ścieżkę stałego wzrostu. Ożywiają się kontakty i obieg informacji. Skala regionu ułatwia wzajemne uczenie się. Procesy nabierają rozpędu. Rozwijają się sieci współpracy. Współdziałania ułatwiają adoptowanie się do nowych sytuacji.
Utrwala się ścieżka rozwoju: wcześniejsze sukcesy wpływają na dobór dostępnych opcji.
Części systemu są stale reorganizowane i różnicowane, np. kształtuje się lokalny rynek
pracy intelektualnej. Studenci studiujący pionierskie badania decydują się na karierę na
lokalnym uniwersytecie, tworząc specjalizacje w badaniach i dydaktyce, związane z regionalnymi kompetencjami. Silne regionalne sieci pomiędzy firmami oraz firmami i
uczelniami stają się wehikułami dla transferu wiedzy. Wzrasta podaż naukowców, inżynierów i doktorów. Firmy sukcesu zostają matkami innych firm (np. na drodze podwykonawstwa lub tworzenia przedsiębiorstw odpryskowych) [Garnsey 1998; Bent Dalum
1999].
W miarę upływu czasu, pojawiają się „wąskie gardła”. Korzyści zapewniające dynamiczny wzrost stopniowo wyczerpują się i tempo wzrostu spada. Jednakże, pewne regiony odnoszą sukcesy w kapitalizacji uzyskanych korzyści i wkraczają na nową trajektorię wzrostu, opartą na odmiennych czynnikach i mechanizmach. Sukcesy osiągnięte
przez pewne kraje w pewnych okresach rozwoju historycznego wyjaśnia się w podobny
sposób (np. poprzez opis wyłaniania się samo-wzmacniającego, spontanicznego, otwartego systemu gospodarczego i politycznego) [de Vries 1998].
Bibliografia
Robert Merton, The Matthew Effect in Science: The reward and communication systems of science are considered, “Science”, 159(3810):56-63, January 5, 1968;
Robert Merton, The Matthew Effect in Science, II: Cumulative advantage and the symbolism of intellectual
property, “ISIS”, 79: 606-623, 1988;
Robert Merton, The Thomas Theorem and The Matthew Effect, “Social Forces”, 74(2) 379-424, December
1995.
381
Herbert J. Walberg and Shiow-Ling Tsai, Matthew Effects in Education, “American Educational Research
Journal”, 1983, 20:359-373.
C. Freeman and A. Young, The Research and Development Effort, OECD 1962.
Aldo Geuna, European Universities: Relationships among Age, Dimension and Science Research Quality, December 1995;
Richard Florida and Wesley M. Cohen, Engine or Infrastructure? The University Role in Economic development, in: Industrializing knowledge: university-industry linkages in Japan and the United States, ed. by Lewis
M. Branscomb, Fumio Kodama, and Richard Florida, Cambridge, Ma. : MIT Press, 1999, p. 606.
Elizabeth Garnsey, The Genesis of the high technology milieu: a study in complexity, “International Journal
of Urban and Regional Research” 22 September 1998 nr 3 p. 361-377.
Bent Dalum at al., Changing the regional system of innovation, in: The Economic Challenge for Europe.
Adapting to innovation based growth, ed. By J. Fagerberger, P. Guerrieri, B. Verspagen, Edgar Elgar 1999, p.
192.
Jan de Vries, Innovation and growth in the Netherlands, in: Political Competition, Innovation and Growth, ed.
Roland Vaubel, Peter Bernholz, Manfred Streit, Berlin: Springer-Verlag, 1998.
Kaihua Chen, Jiancheng Guan, Mapping the innovation production process from accumulative advantage to
economic outcomes: A path modeling approach, “Technovation” 31 (2011) 336–346.
Hinnerk Gnutzmann, Network Formation Under Cumulative Advantage: Evidence from The Cambridge HighTech Cluster, “Comput Econ” (2008) 32:407–413.
Anatoly Oleksiyenko, Creso M. Sa, Resource asymmetries and cumulative advantages: Canadian and US research universities and the field of global health, “High Educ” (2010) 59:367–385.
Harriet Zuckerman, Dynamik und Verbreitung des Matthäus-Effekts. Eine kleine soziologische
Bedeutungslehre, “Berlin J Soziol” (2010) 20:309–340
Allison, Pd; Long, Js; Krauze, Tk, Cumulative Advantage And Inequality In Science, “American Sociological
Review”, Volume: 47 Issue: 5 Pages: 615-625, 1982.
Derek De Solla Price, A general theory of bibliometric and other cumulative advantage processes, “Journal of
the American Society for Information Science” Volume 27, Issue 5, ss. 292–306, September 1976.
SPOŁECZEŃSTWO INFORMACYJNE
[Information Society]
Społeczeństwo informacyjne to społeczeństwo, w którym tworzenie, dystrybucja, użytkowanie, integracja i manipulacja informacją jest kluczowym elementem działalności
gospodarczej, społecznej, politycznej i kulturalnej.
Wiele osób, w kręgach decyzyjnych, w prasie, na uniwersytetach, utrzymuje, że świat
wkroczył w nową erę, rządzoną przez „nowy paradygmat”, w którym społeczeństwo i
jego stosunki gospodarcze nie są dłużej organizowane przez dobra materialne. Pisarze i
komentatorzy często sugerują, że przyspieszone przepływy informacji i zwiększenie
wykorzystania wiedzy całkowicie przekształciły społeczeństwa. Zwracają oni uwagę na
spadek produkcji przemysłowej w stosunku do wzrostu sektora informacji [Key 2003].
Historia pojęcia. Zainteresowanie koncepcją i pojęciem „społeczeństwa informacyjnego” pojawiło się w latach 1970., wzrosło od poł. lat 1980., oraz osiągnęło szczyt w roku
2003 [Wikipedia, Information Society]. Pojęcie społeczeństwa informacyjnego wprowa382
dził w 1963 roku Tadlo Umeaso w artykule o teorii ewolucji społeczeństwa opartego na
technologiach informatycznych, a spopularyzowany przez K. Koyama w 1968 roku. Inne
pokrewne terminy to m.in.: Daniela Bella społeczeństwo postindustrialne, trzecia fala
Alvina Toffler`a, społeczeństwo oparte na wiedzy Petera Druckera, społeczeństwo sieci
Manuela Castellsa oraz społeczeństwa komunikacji Armanda Mattellarta [Becla 2012].
Jedną z pierwszych osób zajmujących się koncepcją społeczeństwa informacyjnego był
ekonomista Fritz Machlup. W 1933 roku Machlup rozpoczął studia nad wpływem patentów na badania. Praca ta doprowadziła go do studium The production and distribution of
knowledge in the United States (1962 r.). Książka ta została powszechnie uznana i przetłumaczona na język rosyjski i japoński. Krótko przed śmiercią Machlup ukończył trzecią
z serii dziesięciu planowanych tomów łącznie nazwanych Wiedza: jej tworzenia, dystrybucji i znaczenie gospodarcze.
Wpływowi pisarze tacy jak Robert Reich (1991), Peter Drucker (1993), Manuel Castells
(1996-8), sugerują, że gospodarka jest dziś kierowana dziś i zasilana przez ludzi, których
główną cechą jest zdolność do manipulowania informacji. Preferowane terminy różnią
się, od „symbolicznych analityków”, „ekspertów wiedzy", po „pracowników sektora informacyjnego”, ale jedna cecha jest stała: dzisiejsi ludzie czynu to osoby, których praca
wymaga tworzenia i korzystania z informacji [Webster 2002].
Wg Harolda Perkina historia Wielkiej Brytanii od 1880 roku może być napisana jako
wzrost znaczenia i udziału „specjalistów”. Wg Perkina certyfikowana wiedza to „zasada
organizacji współczesnego społeczeństwa”. Eksperci wypierają niegdyś dominujące
grupy (klasę robotniczą, kapitalistycznych przedsiębiorców i arystokrację) i ich przestarzałe ideały (współpracy i solidarności, własności i rynku, i ojcowskiej dżentelmena) zastępując je przez etos profesjonalnych usług, certyfikacji i efektywności [Perkin 1989].
James Beniger [1989] zasugerował, że powstanie społeczeństwa informacyjnego był poprzedzone przez „rewolucję sterowania”, która z kolei była reakcją na siły wywołane
przez rewolucję przemysłową. Istotą rewolucji sterowania było istnienie natychmiastowego feedbacku. Beniger podkreśla istnienie związku między mechanicznymi systemami kontroli i powstaniem społeczeństwa informacyjnego. Zwracając uwagę na znaczenie
przetwarzania informacji dla sterowania organizacją przemysłową i produkcją, oraz
koncentrując się na rosnącej zdolności technologii do kontroli procesów, podkreśla, że
rewolucja informacyjna nie jest to współczesne zjawisko [Key 2003].
Cechy. Cechy charakterystyczne społeczeństwa informacyjnego to:
⋅
⋅
⋅
⋅
⋅
⋅
wysoko rozwinięty sektor usług, przede wszystkim sektor usług nowoczesnych (bankowość, finanse, telekomunikacja, informatyka, badania i rozwój oraz zarządzanie), w
niektórych krajach w tym sektorze pracuje przeszło 80% zawodowo czynnej ludności,
przy czym sektor usług tradycyjnych przekracza nieznacznie 10%,
gospodarka oparta na wiedzy;
wysoki poziom skolaryzacji społeczeństwa
wysoki poziom alfabetyzmu funkcjonalnego w społeczeństwie,
postępujący proces decentralizacji społeczeństwa,
renesans społeczności lokalnej,
383
⋅
⋅
urozmaicanie życia społecznego
wpływa na upodmiotowienie społeczeństwa i tym samym kreowanie społeczeństwa
otwartego [Społeczeństwo informacyjne, Wikipedia].
Dokumenty Unii Europejskiej
•
•
2004 Wyzwania stojące przed Europejskim Społeczeństwem Informacyjnym po roku 2005.
KOMUNIKAT KOMISJI DO RADY, PARLAMENTU EUROPEJSKIEGO, EUROPEJSKIEGO
KOMITETU EKONOMICZNO-SPOŁECZNEGO ORAZ KOMITETU REGIONÓW Bruksela,
19.11.2004 COM(2004) 757 końcowy
2010 Europejska agenda cyfrowa. KOMUNIKAT KOMISJI DO PARLAMENTU
EUROPEJSKIEGO, RADY, EUROPEJSKIEGO KOMITETU EKONOMICZNO-SPOŁECZNEGO I
KOMITETU REGIONÓW Bruksela, dnia 26.8.2010 KOM(2010) 245 wersja ostateczna/2
„Jednym z siedmiu filarów przedstawionej przez Komisję Europejską Strategii Europa
2020 jest Agenda Cyfrowa. Głównym celem Agendy jest wsparcie wzrostu gospodarczego, wzrostu inteligentnego, zrównoważonego i sprzyjającego włączeniu społecznemu,
poprzez uzyskanie trwałych korzyści ekonomicznych i społecznych z jednolitego rynku
cyfrowego w oparciu o lepsze wykorzystanie potencjału technologii informacyjnych i
komunikacyjnych. Agenda Cyfrowa opracowana została by okreś lić rolę i znaczenie wykorzystania ICT w procesie realizacji ambitnych celów określonych na 2020 rok” [GUS
2014].
Pomiar. Statystyka społeczeństwa informacyjnego, jako odrębna gałąź statystyki, korzysta ze korzysta ze wskaźników zaczerpniętych z różnych dziedzin, w tym edukacji,
innowacji, przedsiębiorczości i gospodarki [OECD 2011;2014]. W Polsce zajmuje się nią
Urząd Statystyczny w Szczecinie [GUS 2014]. OECD [2011] proponuje następujący model
koncepcyjny statystyki społeczeństwa informacyjnego:
384
Bibliografia
Becla Agnieszka, Information Society and Knowledge-Based Economy - Development Level and the Main
Barriers - Some Remarks, “Economics & Sociology” January 1, 2012.
Webster Frank, Theories of the Information Society, London and New York 2002.
Perkin Harold 1989, The Rise of Professional Society. England since 1980, Routlege.
Information Society, Wikipedia.
Społeczeństwo informacyjne, Wikipedia.
Key Thinkers for the Information Society 2003, Ed. by Christopher May, London And New York , Routlege.
Beniger James 1989, The Control Revolution. Technological and Economic Origins of the Information Society,
Harvard University Press.
OECD Guide to Measuring the Information Society 2011; OECD Measuring the Digital Economy 2014
GUS 2014, Społeczeństwo informacyjne w Polsce. Wyniki badań statystycznych z lat 2010-2014., Warszawa.
WIEDZA JAKO DOBRO PUBLICZNE
[Knowledge as a public good]
Dobra publiczne to dobra, charakteryzujące się tym, że nie ma możliwości wyłączenia
ich z konsumpcji oraz jednocześnie nie są konkurencyjne w konsumpcji. Pierwszy warunek w definicji dobra publicznego oznacza, że dostawca dobra nie może legalnie zapobiec używaniu dobra przez innych. Drugi warunek oznacza, że konsumpcja dobra przez
jedną osobę, nie pozbawia innych osób możliwości konsumpcji tego samego dobra, a zatem bez żadnych konsekwencji dobro może być konsumowane przez wiele osób jednocześnie [Wikipedia 2014]. W odniesieniu do wiedzy George Bernard Shaw opisał te
cechy w następujący sposób: „Jeśli masz jabłko i ja mam jabłko i wymienimy te jabłka
wtedy nadal każdy z nas ma jedno jabłko. Ale jeśli ty masz pomysł i ja mam pomysł i
wymienimy te pomysły, to każdy z nas będzie miał dwa pomysły.”
Jednym z najważniejszych argumentów na rzecz Otwartego Dostępu jest to, że wiedza
jest i powinna być dobrem publicznym.
„Teksty na papierze, skórze, glinie lub kamieniu są to konkurencyjne przedmioty materialne. Nawet wtedy gdy używamy taniego nośnika jak papier i niedrogą metodę powielania jak kserografia, produkt jest konkurencyjny. Wszystkie teksty były konkurencyjne
przed erą cyfrową. Ale teksty cyfrowe nie są konkurencyjne. (…) Teksty na papierze,
skórze, glinie lub kamieniu są nie tylko konkurencyjne; są one również wykluczające się.
Nawet teksty cyfrowe umieszczone w Internecie, ale pobierane za opłatą lub hasłem, są
wykluczające. Jednak gdy zdecydujemy się umieścić w Internecie teksty cyfrowe bez
opłat lub hasła, nie będą one wykluczające, podobnie jak drogi, gdy postanowimy budować je bez punktów poboru opłat [Suber 2009].”
Wydawcy czasami sprzeciwiają się argumentowi Otwartego Dostępu podkreślając, że
publiczne pieniądze wspierają wiele dóbr, takich jak budynki, których nie można bezpłatnie dostarczać społeczeństwu. Problem z tymi zarzutami jest taki, że cytowane w
385
nich przykłady dotyczą konkurujących dóbr materialnych. W przypadku dóbr nie-konkurencyjnych, gdy nie ma ryzyka ich uszczuplenia, a wręcz przeciwnie, gdy ich racjonowanie lub ograniczanie do nich dostępu kosztuje, argument wydawców jest chybiony
[Suber 2009].
Problem wiedzy jako dobra publicznego jest także podnoszony w odniesieniu do badań
prowadzonych w publicznym sektorze nauki. Podkreśla się zatem, że skoro są one, w
dużej mierze, finansowane ze źródeł publicznych, powinny prowadzić badania „społecznie relewantne”. Społeczna relewantność powinna też być ważnym kryterium ich oceny,
jak to jest m.in. w Holandii [Bouter 2010].
Bibliografia
Wikipedia 2014 Dobro publiczne.
Bouter, Lex M. 2010, Knowledge as a common good: the societal relevance of scientific research, “Higher Education Management and Policy”, Vol. 22/1.
Suber Peter 2009, “SPARC Open Access Newsletter”, issue 139
386
ORGANIZACJA I MECHANIZMY
AGENCYFIKACJA
[Agencification, distributive governance]
Pojęciem agencyfikacji (lub rozproszonego zarządzania], jedno z kluczowych pojęć i
koncepcji >Nowego Zarządzania Publicznego, określa się zjawisko upowszechniania (od
poł. lat 1980. w Zachodniej Europie, od poł. lat 2000. w krajach Środkowej i Wschodniej
Europy; najwcześniej w krajach skandynawskich) tworzonych przez rząd organizacji
wykonawczych (>agencji). W różnych krajach rządowe agencje ds. nauki i technologii
powoływano na wiele lat przed falą agencyfikacji, przed I Wojną Światową (np. Rady
Badawcze, w Polsce Fundusz Kultury Narodowej, odpowiedzialny także za finansowanie
badań naukowych, 1928).
W porównaniu do krajów Europy Zachodniej agencji kraje Środkowej i Wschodniej Europy charakteryzują się mniejszą różnorodnością typów. Realizują jednak podobne zadania [Van Thiel 2011].
Bibliografia
Donald P. Moynihan, Ambiguity In Policy Lessons. The Agencification Experience, “Public Administration”
Vol. 84, No. 4, 2006, pp. 1029–1050.
OECD. 2002. Distributed Public Governance: Agencies, Authorities and Other Government Bodies in Canada.
Paris : OECD.
Talbot, C . 2004 . ‘ The Agency Idea ’ , in C . Pollitt and C . Talbot ( eds ), Unbundled Government: A Critical
Analysis of the Global Trend to Agencies, Quangos and Contractualisation . London : Routledge , pp . 1 – 21 .
Sandra Van Thiel, Comparing Agencification In Central Eastern European And Western European Countries:
Fundamentally Alike In Unimportant Respects? “Transylvanian Review Of Administrative Sciences” Special
Issue: ss. 15-32 2011.
EUROPEIZACJA
[Europeisation]
W naukach politycznych europeizacja to “proces adaptacji rządów i ich administracji do
norm i wartości ustanowionych przez Unię Europejską” [Pasarín]. Proces ten składa się
z „procesów: a) budowy, b) dyfuzji i c) instytucjonalizacji formalnych i nieformalnych
zasad, procedur, paradygmatów polityki, stylów, sposobów działania i wspólnych przekonań i norm, które są najpierw określone i skonsolidowanych w procesie tworzenia polityki Unii Europejskiej, a następnie włączone do logiki krajowego (krajowym i na niższych szczeblach) dyskursu, struktur politycznych i polityk publicznych. Ważnym elementem na wszystkich etapach europeizacji jest uczenie się, zwłaszcza gdy „UE nie działa jako system tworzenia prawa, ale bardziej jako platforma konwergencji idei i przeniesienia polityki między państwami członkowskimi. Jest to szczególnie w przypadku
otwartej metody koordynacji (OMK) [Bulmer 2004].”
387
Proces europeizacji następuje dzięki wielu kanałom: lekturom raportów unijnych ( (a
także OECD i Banku Światowego), udziałowi badaczy w Programach Ramowych, oraz
przede wszystkim dzięki udziałowi przedstawicieli MNiSW oraz badaczy w komisjach
eksperckich UE, w pracach COREPER (Komitetu Stałych Przedstawicieli) oraz Parlamentu Europejskiego.
W krajach Europy Środkowo-Wschodniej europeizacja wyraża się w:
•
•
staraniach poprawy jakości polityki naukowej i innowacyjnej,
zmianach tworzenia polityki naukowej i innowacyjnej
o od poziomu rządowego do poziomów rządowego, międzynarodowego i
regionalnego,
o od uwzględniania w tworzeniu polityki przede wszystkim interesów
korporacyjnych świata nauki do opierania się (także) na informacjach i analizach,
o od koncentrowania się na alokacji zasobów do strategii,
o od polityki opartej na kilku prostych pasywnych instrumentach (inicjatywa
aplikacji pochodzi od badaczy, organizacji badawczych i przedsiębiorstw) do
zróżnicowanej gamy pro-aktywnych środków,
o od koncentracji na polityce naukowej do szerszego uwzględniania kwestii
innowacji.
Bibliografia
Ana-Mar Fernández Pasarín, Change and stability of the EU institutional system and their impact on the
Member States: The case of the EU Council Presidency,
Simon J. Bulmer and Claudio M. Radaelli, The Europeanisation of National Policy?, Queen’s Papers on Europeanisation, No 1/2004.
Jan Kozlowski, Can Europeanisation improve the CEECs’ research systems?, 2006.
Margit Suurna and Rainer Kattel, Europeanization of innovation policy in Central and Eastern Europe, “Science and Public Policy”, 37(9), November 2010, ss. 646–664.
GOVERNANCE
Governance to w języku angielskim słowo i pojęcie, które w ostatnim czasie stało się
bardzo popularne. Przez długi czas słowo governance oznaczało po prostu „rządzenie”,
czyli rząd postrzegany jako proces. Jednak od lat 1970. jednak governance stał się terminem stosowanym głównie dla opisu nowego sposobu rządzenia, innego od starego modelu hierarchicznego. Governance odnosi się obecnie do trybu niehierarchicznego modelu rządzenia, w którym podmioty spoza sektora publicznego, takie jak korporacje prywatne i organizacje poza-rządowe, biorą udział w formułowaniu i wdrażaniu polityki
publicznej.
Nie-hierarchiczny tryb sprawowania władzy politycznej jest stosowany również w Unii
Europejskiej. Dominującą cechą unijnego sposobu sprawowania władzy są nie relacje
hierarchicznej władzy, a sieci – sieci przedstawicieli państwa członkowskiego, sieci łą388
czące krajowe i europejskie poziomy podejmowania decyzji, oraz sieci łączące podmioty
publiczne i prywatne reprezentujące różne sektory i szczeble polityki.
W Europie Zachodniej kluczowym doświadczeniem, które spowodowało przejście od interwencjonizmu państwowego i hierarchicznej kontroli w kierunku form zarządzania opartych w większym stopniu na współpracy było niepowodzenie ambitnych polityk reform, które były realizowane po zakończeniu II wojny światowej [Mayntz 2001].
Sposób sprawowania władzy zmienił się w ostatnich dekadach. Decentralizacja wzmocniła samorządy lokalne i regionalne. Pojawiły się prywatne podmioty, które biorą udział
w tworzeniu polityki; wzrosła liczba partnerstw publiczno-prywatnych. Władze lokalne
i regionalne – znacznie bardziej narażone na globalną konkurencję, niż dwadzieścia lat
temu – chcą mieć większy głos w ustalaniu i realizacji krajowych polityk [OECD 2006].
W tradycyjnym rządzeniu organizacje były kierowane silną ręką przez przywódców,
którzy dobrze rozumieli swoje otoczenie. Nauki społeczne sądziły, że zakładały istnienie
świata deterministycznych, przewidywalnych, mechanicznych procesów, opierających
się na prostej przyczynowości. Rządzenie było stosunkowo proste: na podstawie dobrze
zdefiniowanych celów należało napisać i wdrożyć plan dojścia do punktu, który chciał
osiągnąć przywódca [OECD 2000].
Zmiany sposobu sprawowania władzy rządowej podsumowuje się jako przejście od rządzenia (governing) do zarządzania (governance). Angielskie słowo governance, które robi zawrotną karierę w naukach politycznych i w naukach o zarządzaniu, nie ma dobrego
polskiego odpowiednika. Polskie odpowiedniki (“rządzenie”, „zarządzanie”, „kierowanie”) wskazują na te właśnie cechy, którym governance chce zaprzeczać, przesuwając
znaczenie z odgórnego sterowania na samo-zarządzanie. Brak polskiego odpowiednika
(tak jak i brak np. odpowiednika dla accountability) sam w sobie jest charakterystyczny,
świadcząc, że w Polsce przeważają jak dotąd tradycyjne układy zachowań społecznych i
organizacyjnych. Governance opisywano i oceniano z wielu perspektyw badawczych. Pojęcie to powstało w badaniach urbanistycznych w kontekście skutecznego sposobu radzenia sobie z rozwiązywaniem problemów na szczeblu lokalnym. Później rozszerzono
jego znaczenie, tak by objęło nawet „rządzenie” sprawami globalnymi. Powstanie jego
było świadectwem kryzysu rządzenia. Jak ujął to Daniel Bell, zorientowano się, że państwo jest zbyt wielkie dla małych problemów i zbyt małe dla wielkich. Rządy państw,
rządy regionalne i lokalne oraz władze związków państw (Unia Europejska) oraz organizacji międzynarodowych, takich jak Bank Światowy, dokonały reformy procesu budżetowego i zarządzania pod presją okoliczności. Dowodzono, że tradycyjny rząd, z charakterystycznym dla siebie naciskiem na hierarchię, pionowy i odgórny przepływ decyzji,
biurokrację i interwencjonizm, jest źle dostosowany do szybko zmieniającego się środowiska gospodarczego, społecznego i kulturalnego, w którym działa coraz więcej autonomicznych sił (np. koncerny), aktorzy sceny publicznej są coraz gęściej powiązani ze
sobą w sieci, zagadnien
Download