POLITYKA NAUKOWA – SŁOWNIK ENCYKLOPEDYCZNY (wersja robocza) Opr. Jan Kozłowski, Departament Innowacji i Rozwoju, [email protected] SPIS TREŚCI PROCES POLITYKI 6 AGENDA POLITYKI ............................................................................................................................................................6 ANALIZA POLITYKI ...........................................................................................................................................................6 BUDŻET NAUKI ................................................................................................................................................................ 10 BUDŻET ZADANIOWY ................................................................................................................................................... 10 CELE, ZADANIA I INSTRUMENTY POLITYKI ....................................................................................................... 14 CYKL POLITYKI ................................................................................................................................................................ 17 DEBATA PUBLICZNA NAD PROBLEMAMI NAUKI I INNOWACJI W POLITYCE ..................................... 18 DYLEMATY POLITYKI NAUKOWEJ I INNOWACYJNEJ ..................................................................................... 20 FORMUŁOWANIE POLITYKI....................................................................................................................................... 24 GLOBALNE (WIELKIE, SPOŁECZNE) WYZWANIA ............................................................................................ 25 HIERARCHIA DOKUMENTÓW POLITYCZNYCH ................................................................................................. 28 HOROZONT ANALIZY W POLITYCE ........................................................................................................................ 29 KLUCZOWE WYZWANIA POLITYKI NAUKOWEJ I INNOWACYJNEJ .......................................................... 30 KONTEKST TWORZENIA POLITYKI ........................................................................................................................ 31 KRYTERIA DECYZJI W NAUCE ................................................................................................................................... 31 KSZTAŁTOWANIE POLITYKI...................................................................................................................................... 44 LOGIKA INTERWENCJI ................................................................................................................................................. 44 MAPA DROGOWA WIELKIEJ INFRASTRUKTURY BADAWCZEJ................................................................... 47 PARTYCYPACYJNE TWORZENIE POLITYKI NAUKOWEJ................................................................................ 50 POLICY MIX W DZIEDZNIE B+R I INNOWACJI.................................................................................................... 58 POLITYKA PUBLICZNA ................................................................................................................................................. 64 POMIAR I EWALUACJA W POLITYCE NAUKOWEJ I INNOWACYJNEJ ....................................................... 65 PRIORYTETY W POLITYCE NAUKOWEJ I INNOWACYJNEJ ........................................................................... 66 PROBLEM POLITYCZNY ............................................................................................................................................... 69 PROCES POLITYKI .......................................................................................................................................................... 73 1 RAMY ANALIZY POLITYKI NAUKOWEJ I INNOWACYJNEJ ............................................................................ 80 RAMY POLITYKI .............................................................................................................................................................. 82 REFORMY BUDŻETU PAŃSTWA ............................................................................................................................... 84 RETORYKA POLITYCZNA............................................................................................................................................. 90 ROLA WIEDZY W PROCESIE POLITYCZNYM....................................................................................................... 93 SKŁADNIKI POLITYK NAUKOWEJ I INNOWACYJNEJ ....................................................................................... 97 SPÓJNOŚĆ POLITYKI ...................................................................................................................................................... 98 TWÓRCZA SWOBODA CZY STEROWANIE NAUKĄ ........................................................................................ 101 UMIĘDZYNARODOWIENIE POLITYKI ................................................................................................................. 108 UZASADNIENIA POLITYKI NAUKOWEJ I INNOWACYJNEJ ......................................................................... 109 WDRAŻANIE POLITYKI ............................................................................................................................................. 111 WDRAŻANIE REFORMY SZKOLNICTWA WYŻSZEGO ................................................................................... 112 ZAŁOŻENIA I RAMY KONCEPCYJNE POLITYK ................................................................................................. 117 ZARZĄDZANIE WIEDZĄ W ORGANIZACJACH RZĄDOWYCH..................................................................... 117 ZASADA OSTROŻNOŚCI ............................................................................................................................................. 118 FINANSOWANIE B+R I INNOWACJI 120 FINANSOWANIE BADAŃ W SEKTORZE PUBLICZNYM ................................................................................ 120 FINANSOWANIE BUDŻETOWE BADAŃ W SEKTORZE SZKÓŁ WYŻSZYCH ........................................ 121 FINANSOWANIE INSTYTUCJONALNE ................................................................................................................. 124 FINANSOWANIE PROJEKTÓW ............................................................................................................................... 125 FINANSOWE INSTRUMENTY WSPIERANIA B+R I INNOWACJI W PRZEDSIĘBIORSTWACH ...... 126 POMOC PUBLICZNA DLA B+R I INNOWACJI .................................................................................................... 133 EWALUACJA 134 EWALUACJA ................................................................................................................................................................... 134 ROZLICZALNOŚĆ .......................................................................................................................................................... 143 OCENA SKUTKÓW REGULACJI ............................................................................................................................... 145 KRAJOWE SYSTEMY EWALUACJI BADAŃ ......................................................................................................... 150 EWALUACJA KRAJOWEGO SYSTEMU BADAŃ I INNOWACJI ..................................................................... 156 OCENA WPŁYWU BADAŃ ......................................................................................................................................... 161 BENCHMARKING POLITYK ...................................................................................................................................... 185 EWALUACJA POLICY MIX ......................................................................................................................................... 197 EWALUACJA POLITYKI NAUKOWEJ I INNOWACYJNEJ ................................................................................ 198 EWALUACJA PROGRAMÓW NAUKOWYCH I TECHNOLOGICZNYCH...................................................... 213 EWALUACJA DYSCYPLIN NAUKOWYCH ............................................................................................................ 215 EWALUACJA INSTYTUCJI I GRUP BADAWCZYCH .......................................................................................... 217 2 EWALUACJA INSTYTUCJI PUBLICZNEGO SEKTORA NAUKI OPARTA NA POMIARZE DOKONAŃ ..... 220 ORGANIZACJA EWALUACJI INSTYTUCJONALNEJ .......................................................................................... 232 FAZY EWALUACJI INSTYTUCJONALNEJ ............................................................................................................. 237 EWALUACJA POZA-UCZELNIANYCH PUBLICZNYCH INSTYTUCJI NAUKOWYCH (PPIN) ............. 242 EWALUACJA EX-POST AGENCJI FINANSUJĄCYCH BADANIA NAUKOWE I TECHNOLOGICZNE 246 EWALUACJA APARATURY I INFRASTRUKTURY BADAWCZEJ ................................................................. 252 PEER REVIEW................................................................................................................................................................ 254 EWALUACJA EX ANTE WNIOSKÓW GRANTOWYCH..................................................................................... 273 EWALUACJA EX POST GRANTÓW BADAWCZYCH ......................................................................................... 273 EWALUACJA POLICY INTELLIGENCE – FORM WSPARCIA INFORMACYJNO-ANALITYCZNEGO POLITYKI NAUKOWEJ I INNOWACYJNEJ ........................................................................................................... 274 EWALUACJA PROGRAMU RAMOWEGO ORAZ „HORYZONTU 2020”...................................................... 275 EWALUACJA ZACHĘT PODATKOWYCH.............................................................................................................. 278 IMPACT FACTOR .......................................................................................................................................................... 279 METODY EWALUACJI B+R FINANSOWANYCH ZE ŹRÓDEŁ PUBLICZNYCH ....................................... 280 METODY STOSOWANE W EWALUACJI INSTYTUCJONALNEJ ................................................................... 294 PYTANIA I KRYTERIA W EWALUACJI INSTYTUCJONALNEJ...................................................................... 301 PROBLEM BEZSTRONNOŚCI EWALUATORA ................................................................................................... 310 KONCEPCJE DLA POLITYKI NAUKOWEJ 313 BAZA NAUKOWA .......................................................................................................................................................... 313 BIG DATA ......................................................................................................................................................................... 313 DOSKONAŁOŚĆ BADAWCZA ................................................................................................................................... 315 FAZY POLITYKI NAUKOWEJ .................................................................................................................................... 322 FAZY ROZWOJU GOSPODARCZEGO ...................................................................................................................... 332 GOSPODARKA OPARTA NA WIEDZY ................................................................................................................... 337 GOSPODARKA UCZĄCA SIĘ ...................................................................................................................................... 337 INTELIGENCJA ROZPROSZONA ............................................................................................................................. 341 INTELIGENTNA SPECJALIZACJA............................................................................................................................ 342 INTELIGENTNE MIASTO ........................................................................................................................................... 344 INTERES PUBLICZNY ................................................................................................................................................. 345 INTERESARIUSZE POLITYKI NAUKOWEJ.......................................................................................................... 346 KAPITAŁ INTELEKTUALNY ..................................................................................................................................... 347 KONWERGENCJA.......................................................................................................................................................... 350 KOREA JAKO KRAJ GONIĄCY CZOŁÓWKĘ ......................................................................................................... 350 KRAJOWY KONTEKST POLITYKI NAUKOWEJ I INNOWACYJNEJ............................................................. 354 TWÓRCZOŚĆ, INNOWACJE, BADANIA NAUKOWE, KSZTAŁCENIE I POLITYKA................................ 356 3 MĄDROŚĆ TŁUMU ....................................................................................................................................................... 360 N+T DLA ROZWOJU ..................................................................................................................................................... 360 NAUKA W SPOŁECZEŃSTWIE ................................................................................................................................ 361 NOWA REWOLUCJA PRZEMYSŁOWA .................................................................................................................. 362 ODPOWIEDZIALNE BADANIA I INNOWACJE ................................................................................................... 362 POJĘCIA POLITYKI NAUKOWEJ ............................................................................................................................. 366 POTRÓJNA SPIRALA ................................................................................................................................................... 367 PUŁAPKA NISKIEGO DOCHODU............................................................................................................................. 367 PUŁAPKA ŚREDNIEGO DOCHODU ........................................................................................................................ 368 REFLEKSYJNOŚĆ........................................................................................................................................................... 371 REWOLUCJA 3D ............................................................................................................................................................ 374 ROLA RZĄDU W BADANIACH I INNOWACJACH ............................................................................................. 376 ROZLICZALNOŚĆ .......................................................................................................................................................... 378 SKUMULOWANE KORZYŚCI .................................................................................................................................... 380 SPOŁECZEŃSTWO INFORMACYJNE ..................................................................................................................... 382 WIEDZA JAKO DOBRO PUBLICZNE ...................................................................................................................... 385 ORGANIZACJA I MECHANIZMY 387 AGENCYFIKACJA........................................................................................................................................................... 387 EUROPEIZACJA.............................................................................................................................................................. 387 GOVERNANCE................................................................................................................................................................ 388 KOORDYNACJA POLITYCZNA A ROZWÓJ NAUKOWY I TECHNOLOGICZNY JAPONII ..................... 392 NOWE ZARZĄDZANIE PUBLICZNE ....................................................................................................................... 394 STRATEGICZNE PLANY ROZWOJU NAUKI I TECHNIKI ............................................................................... 396 POLITYKA MIĘDZY SFERĄ RYNKU I INSTYTUCJI SPOŁECZNYCH .......................................................... 400 PRYNCYPAŁ-AGENT ................................................................................................................................................... 403 STYLE POLITYKI ........................................................................................................................................................... 404 POLITYKA „UCZĄCA SIĘ” - UCZENIE SIĘ POLITYKI....................................................................................... 406 TYPY POLITYK 412 POLITYKA INNOWACYJNA ....................................................................................................................................... 412 POLITYKA NAUKOWA................................................................................................................................................ 421 POLITYKA NAUKOWA UNII EUROPEJSKIEJ...................................................................................................... 423 POLITYKA OPARTA NA DOWODACH .................................................................................................................. 425 POLITYKA TECHNOLOGICZNA ............................................................................................................................... 427 4 BADANIA NAUKOWE I ANALIZY NA RZECZ POLITYKI NAUKOWEJ 429 ANALIZA KOSZTÓW I KORZYŚCI ........................................................................................................................... 429 BADANIA NA RZECZ POLITYKI .............................................................................................................................. 429 BADANIA NAD POLITYKĄ NAUKOWĄ I INNOWACYJNĄ ............................................................................ 431 DORADZTWO NA RZECZ POLITYKI NAUKOWEJ ............................................................................................ 442 EKSPLORACJA TEKSTU ............................................................................................................................................. 447 METODY GRUPOWANIA SŁUŻĄCE OKREŚLANIU KLUCZOWYCH KOMPETENCJI KRAJU............ 451 NAUKI SPOŁECZNE A POLITYKA RZĄDOWA ................................................................................................... 451 OTWARTA NAUKA 460 E-INFRASTRUKTURA OTWARTEGO DOSTĘPU............................................................................................... 460 NAUKA OBYWATELSKA ............................................................................................................................................ 467 OTWARTA NAUKA....................................................................................................................................................... 472 OTWARTE DANE .......................................................................................................................................................... 479 OTWARTE OPROGRAMOWANIA ........................................................................................................................... 482 OTWARTE PEER REVIEW ........................................................................................................................................ 482 OTWARTE ZASOBY EDUKACYJNE ........................................................................................................................ 483 OTWARTY DOSTĘP ..................................................................................................................................................... 483 OTWARTY MANDAT ................................................................................................................................................... 491 OTWARTY NOTATNIK BADAWCZY...................................................................................................................... 492 OTWARTY PODRĘCZNIK .......................................................................................................................................... 493 OTWARTY SPRZĘT BADAWCZY ............................................................................................................................ 494 5 PROCES POLITYKI AGENDA POLITYKI (Policy Agenda, research policy portfolio) Agenda polityki naukowej to zbiór kluczowych problemów (a także żądań i propozycji) które decydenci i ich doradcy uznają za ważne dla >kształtowania polityki. Problemy zgłaszane są przez interesariuszy, uczestników >debaty politycznej i >konsultacji, analityków i badaczy polityki, media i obywateli. Wkład to budowy agendy wnoszą także >ewaluacje wdrożonych wcześniej polityk. Agenda polityki jest częścią >procesu polityki i >cyklu polityki, do którego (w porządku chrono-logicznym) zalicza się także >formułowanie polityki, >podejmowanie decyzji, >wdrażanie polityki oraz jej >ewaluację. Często zbiór kluczowych problemów uznanych za ważne rząd przedstawia w formie >dokumentu politycznego (np. „Zielonej Księgi”). Agendę polityki wykorzystuje się jako punkt wyjścia dla opracowania bardziej szczegółowych definicji problemów oraz propozycji rozwiązań. >Problemy polityki muszą być określone w sposób uznający potrzebę podjęcia >interwencji publicznej. Spośród zgłaszanych problemów decydenci i ich doradcy wybierają ważniejsze i/lub możliwe do przekształcenia w >politykę, >program lub w >instrument polityki. O wyborze decydują m.in. możliwości finansowe rządu, panujące koncepcje ekonomiczne i polityczne, siła nacisku interesariuszy i mediów, skala spodziewanego oporu przeciwników interwencji itd. Termin w języku angielskim wprowadzony w życie w pod koniec lat 1970., upowszechniony w latach 1990. Bibliografia Handbook of Public Policy Analysis. Theory, politics and methods. Ed. By Frank Fischer, Gerald Miller and Mara S. Sidney, CRC Press, 2007, ss. 45-48. ANALIZA POLITYKI (Policy analysis) Analiza polityki to ocena bieżącej polityki w porównaniu z możliwymi alternatywami. Produkt analizy politycznej to porada wskazująca na prawdopodobne skutki proponowanych działań: wprowadzenie interwencji A spowoduje takie to a takie konsekwencje. Mówiąc bardzie szczegółowo, celem analizy polityki jest określenie, które z różnych alternatywnych polityk pozwolą najlepiej osiągnąć dany zestaw celów. Analizę polityk dzieli się na opisową i normatywną [Wikipedia 2013]. Analiza polityki uznaje się nieraz za jedną z faz >cyklu polityki i jeden z dwóch głównych podejść w >procesie politycznym (obok podejścia menedżerskiego). 6 Analityk polityki powinien wiedzieć jak zbierać, organizować i przekazywać informacje w sytuacjach ścisłych deadlinów i presji czasu. Musi umieć szybko rozumieć naturę problemów i umieć rozwijać strategię polityczną. Musi umieć określać (przynajmniej jakościowo, o ile tylko możliwe także ilościowo) spodziewane efekty polityk i przekazywać swoje ustalenia politykom [Dunn 1994; Weimer 1998]. Wg jednego z modeli analiza polityki składa się z czterech kroków: 1) weryfikacji, definiowania i uszczegółowienia problemu polityki, 2) ustalenia kryteriów oceny zgodnych z założonymi celami, 3) identyfikacji alternatywnych polityk, 4) oceny alternatywnych polityk [Por. Patton 1993]. Termin “analiza polityki” powstał w Stanach Zjednoczonych w latach 1950-tych. Analiza polityki wspiera definiowanie problemów politycznych, identyfikowanie „interesariuszy” i ich interesów, ustalanie priorytetów oraz budowę strategii politycznych. Określa się ją jako stosowaną naukę społeczną sięgającą po wiele metod badawczych w celu przygotowania informacji i analiz, które mogą zostać wykorzystane przez organa polityczne dla rozwiązywania problemów. Powstanie nowego terminu oznaczało, że informacje i analizy – nieodłączny składnik decyzji politycznych od starożytności – zaczęły być wytwarzane nie ad hoc na potrzeby konkretnych decyzji, tylko w sposób ciągły, systematyczny, wyprzedzający. Analiza polityki jest dziś nieodłączną częścią polityki definiowanej przez Michaela Oekshotta jako działalność dialektyczna oparta na refleksji > hipotezie > działaniu jako teście > refleksji itd. [Oekshott 1999]. Jako taka bywa ona zaliczana do szerszego pojęcia mechanizmów opartych na sprzężeniu zwrotnym, takich jak ewaluacja polityczna, audyt lub też pomiar dokonań (performance measurement). Analizę polityczną określa się nieraz jako ewaluację ex ante w badaniu przyszłych opcji politycznych [OECD 1999]. W Europie w latach 1990-tych upowszechnił się inny zbliżony termin, „strategic intelligence” lub też „strategic policy intelligence” (brak zręcznego polskiego odpowiednika, zob. >Wsparcie informacyjne i analityczne polityki). Nawet specjaliści mają kłopot ze wskazaniem różnic pomiędzy oboma terminami. Analiza polityki wydaje się odnosić raczej do jednej z funkcji >procesu politycznego, a „strategic policy intelligence” – raczej do zbioru określonych metod zbierania i przetwarzania informacji, takich jak m.in. >foresight, >ewaluacja polityk (policy evaluation), >wartościowanie technologii (techology assessment), >skanowanie widnokręgu (horizon scanning) oraz prognozowanie rozwoju technologii (technology forecasting). Każda z tych metod z kolei sięga po rozmaite techniki, takie jak np. technika delficka lub budowa scenariuszy. Granice każdej z tych metod nie są wyraźnie określone. Metody te odpowiadają nieraz na podobne pytania i służą podobnym celom, takim jak np. wkład w ustalenie >priorytetów w nauce i technice. Zasadą we współczesnej analizie politycznej jest stosowanie „pakietu” różnych metod. Zdaniem Ruuda Smitha czterema kanonami współczesnej analizy są partycypacja (oparta na założeniu, że nikt, nawet eksperci, nie są posiadaczami „jedynej prawdy”, a włączanie różnych interesariuszy zwiększa szanse sukcesu poznawczego i realizacyjnego metody), mediacja (poznawanie różnych punktów widzenia i wzajemne uczenie się ułatwia znalezienie konsensusu), obiektywizacja (ograniczenie subiektywizmu przez uwzględ7 nianie statystyk i analiz) oraz wspieranie decyzji (analiza wspiera nie tylko podejmowanie, ale także realizację decyzji) [Smith 2001]. W miarę zacieśniania więzi pomiędzy państwami, analiza polityki nabiera coraz bardziej międzynarodowego charakteru (OECD, EU). Koncepcja analizy polityki Giandomenico Majone. Najważniejsze składniki analizy politycznej to dane, informacje, dowody, argumenty i wnioski. Składnik analityczny Kryteria adekwatności Dane Rzetelność, odtwarzalność, wiarygodność Informacje Związek z zagadnieniem, wystarczalność, odpowiedniość, solidność Dowody Rzetelność, dopuszczalność, siła Argument Trafność, siła przekonywania, przejrzystość Wniosek Wiarygodność, wykonalność, dopuszczalność „Analiza zwykle zaczyna się od czegoś mniej zorganizowanego niż problem, mianowicie od sytuacji problemowej. Jest to świadomość, że powinno być inaczej, ale bez jasnego wyobrażenia o działaniach naprawczych. Przedstawienie problemu jest procesem przełożenia sytuacji problemowej na faktyczny problem polityki, określający cele, które mają być osiągnięte, oraz strategię ich realizacji. Ilość szczegółowych informacji, które przydają się na etapie określania problemu, jest inna niż w przypadku poszukiwania rozwiązań przy danym sformułowaniu. Właściwe sposoby analizy będą się odpowiednio różnić w tych dwóch sytuacjach. Ze względu na niezorganizowany charakter sytuacji problemowej wyobraźnia, oceny sytuacji oraz myślenie poprzez analogie s skojarzenia odgrywają w określeniu problemu większą rolę niż dyscyplina i umiejętności techniczne”. „Dane są (…) surowcem niezbędnym do zbadania problemu lub być może wynikiem pierwszej obróbki takich surowców. W analizie polityki dane często się „znajduje”, a nie „wytwarza”: to znaczy, że uzyskuje się je poprzez nieplanowane obserwacje (jak w przypadku szeregów czasowych), a nie na podstawie zaplanowanych eksperymentów. Ten fakt (…) wymaga umiejętności rzemieślniczych innych i pod wieloma względami trudniejszych do zdobycia niż te, które są potrzebne do analizy danych doświadczalnych. (…) dane są zwykle zbierane według kategorii, które rzadko idealnie pasują do celów konkretnej analizy.” „Zanim dane zostaną użyte jako argument, trzeba im zwykle nadać bardziej użyteczną i wiarygodną formę. To przekształcenie danych wymaga nowego zestawu umiejętności rzemieślniczych, zastosowania nowych narzędzi (często o charakterze statystycznym lub matematycznym) oraz dokonania nowych ocen. Tę nową fazę pracy analityka, wytwarzanie informacji, można zilustrować wieloma przykładami: obliczanie średnich oraz innych wskaźników i parametrów statystycznych, dopasowanie krzywej do zbioru 8 punktów, redukcja danych za pomocą jakiejś statystycznej metody analizy wielu zmiennych.” „Dowody nie są synonimem danych ani informacji. Są to informacje wyselekcjonowane z dostępnego zbioru i wprowadzone w konkretnym punkcie argumentu, aby przekonać określonych odbiorców o prawdziwości lub fałszywości pewnego stwierdzenia. Dobór nieodpowiednich danych lub modeli, umieszczenie ich w niewłaściwym miejscu argumentu albo wybór stylu prezentacji, który nie pasuje do docelowych odbiorców, może osłabić skuteczność informacji wykorzystywanych jako dowody, niezależnie od ich rzeczywistej wartości poznawczej. Dlatego kryteria oceny dowodów są inne niż kryteria stosowane do ewaluacji faktów. Fakty można osądzać w kategoriach mniej lub bardziej obiektywnych kanonów, lecz dowody muszą być oceniane stosowanie do wielu czynników właściwych danej sytuacji, takich jak swoisty charakter sprawy, rodzaj odbiorców, panujące zasady przedstawiania dowodów lub wiarygodność analityka.” „Wniosek analizy polityki może być prognozą, zleceniem, ewaluacją funkcjonujących programów, nową propozycją lub innym spojrzeniem na stary problem. Niezależnie od swojego charakteru, wniosek zależy zawsze od wielu założeń i wyborów metodologicznych. Inne określenie problemu, inne narzędzia i modele lub kilka odmiennych ocen sytuacji dokonanych w zasadniczych punktach argumentacji mogłyby doprowadzić do zupełnie różnych wniosków.” „Narzędzia analizy polityki można z grubsza sklasyfikować według ich funkcji w określaniu problemu, w generowaniu danych i wykonywaniu na nich operacji, a także w interpretacji. Kategoria narzędzi pojęciowych i interpretacyjnych obejmuje takie dyscypliny, jak matematyka, ekonomia, nauki polityczne i behawioralne, które analityk musi w pewnym stopniu opanować, aby być kompetentny w swojej pracy [Majone 2007].” Por. też >RETORYKA POLITYKI, PROBLEM POLITYCZNY I JEGO DEFINIOWANIE. Bibliografia OECD Improving evaluation practices: best practice guidelines for evaluation and background paper, OECD Working Papers, v. 7, no. 11, Paris 1999. Daniël Tijink, http://www.deruijter.net/ocv.htm Alexander Tübke, Executive Summary, w: Strategic Policy Intelligence: Current Trends, the State of Play and Perspectives, ed. by: Alexander Tübke, Ken Ducatel, James P. Gavigan, Pietro Moncada-Paternò-Castello, IPTS 2001. Ruud Smith, The New Role of Strategic Intelligence w: Strategic Policy Intelligence: Current Trends, the State of Play and Perspectives, ed. by: Alexander Tübke, Ken Ducatel, James P. Gavigan, Pietro Moncada-PaternòCastello, IPTS 2001 Robert Hoppe, Policy analysis, science and politics: from `speaking truth to power` to `making sense together`, “Science and Public Policy” vol. 26, nr 3, 1999. Michael Oakeshott 1991. Rationalism in Politics and Other Essays. Indianapolis: Liberty Press Wikipedia Policy analysis 2013. Handbook of Public Policy Analysis. Theory, politics and methods. Ed. By Frank Fischer, Gerald Miller and Mara S. Sidney, CRC Press, 2007. 9 Jac. L.A. Geurts, Cisca Joldersma, Methodology for participatory policy analysis, “European Journal of Operational Research” 128 2001 ss. 300-310. William N. Dunn, Public policy analysis: An introduction, Prentice Hall 1994. David L. Weimer, Aidan R. Vining, Policy Analysis. Concept and Practice, Prentice Hall 1998. Carl. V. Patton, David S. Sawicki, Basic Methods of Policy Alaysis and Planning, Prentice Hall 1993. Giandomenico Majone, Dowody, argumenty i perswazja w procesie politycznym, Wyd. Nauk. Scholar, Warszawa 2004. BUDŻET NAUKI Popularna nazwa określająca część 28 budżetu państwa W Polsce oraz wydatki na naukę zapisane w innych częściach budżetu. Ministerstwo Nauki i Szkolnictwa Wyższego publikuje rokrocznie Sprawozdanie z realizacji zadań i budżetu w 2001 r. w zakresie Nauki oraz realizacji budżetu w części 28 – Nauka. Sprawozdanie obejmuje dochody i wydatki z działów: 730 – Nauka, 750 – Administracja publiczna, 752 – Obrona narodowa, 921 – Kultura i Ochrona Dziedzictwa Narodowego. Sprawozdanie zawiera także tablice >budżetu zadaniowego. BUDŻET ZADANIOWY (Performance budget) Budżet zadaniowy to „metoda zarządzania finansami publicznymi, ukierunkowana na osiąganie większej skuteczności oraz efektywności i przejrzystości wydatkowania środków publicznych, polegająca na: 1. opracowywaniu budżetu państwa w oparciu o cele budżetu zadaniowego, zgodne ze wskazaniami zawartymi w dokumentach strategicznych i programowych rządu, w ramach których to celów, umieszczane są - właściwe przedmiotowo tym celom - zadania, wraz z adekwatnymi miernikami informującymi o rezultatach/wynikach realizacji tych zadań - a także o rezultatach/wynikach realizacji ich części składowych (a zarazem - o stopniu osiągania celów budżetowych zadań w aspekcie skuteczności oraz efektywności), 2. monitorowaniu oraz ewaluacji poszczególnych zadań budżetu zadaniowego za pomocą mierników, dzięki czemu wytwarzane są informacje efektywnościowe (ang. performance information) służące podnoszeniu jakości alokacji w planowaniu budżetu w kolejnych latach/okresach planowania budżetowego, 3. praktycznym stosowaniu informacji efektywnościowych w procesie planowania budżetu przez rząd, a także wykorzystaniu ich podczas prac parlamentarnych nad uchwalaniem ustawy budżetowej (najczęściej jako tzw.: performanceinformed budgeting) [Wikipedia 2013]” Polski odpowiednik ang. performance budget kładzie nacisk na inne elementy procesu budżetowego, nie na wyniki i wykonawstwo, tylko na zadania. Geneza. Rozrost sektora publicznego, zmiana struktury wydatków publicznych (np. zwiększenie udziału „twardych” wydatków na służbę zdrowia, spowodowanych starzeniem się społeczeństw), zaniepokojenie wzrostem zadłużenia budżetowego oraz skut10 kami nierównowagi budżetowej wpłynęły na zmianę w podejściu rządów do wydatków publicznych. W późnych latach 1970-tych i we wczesnych latach 1980-tych, po załamaniu się powojennej prosperity, zrozumiano potrzebę wprowadzenia nowego systemu budżetu, który pozwalałby na lepsze równoważenie celów w stosunku do możliwości finansowych rządów i lepiej łączyłby proces budżetowy z innymi funkcjami kierowniczymi. Tradycyjny roczny budżet faworyzuje wydatki krótko-terminowe. Skłania do tego, by brać pod uwagę wyłącznie skutki finansowe decyzji alokacyjnych. Środki przydziela nie ze względu na wagę celów i zadań oraz nie ze względu na wnioski płynące z analizy politycznej i ewaluacji, tylko z punktu widzenia organizacji wykonawczych. Decyzje co do podziału funduszy opierają się nie na np. ocenie krańcowej użyteczności (marginal utility) alternatywnych opcji ich wykorzystania, co na historycznych podziałach kwot oraz na presji interesariuszy. Organizacje wykonawcze wywierają nieustanny nacisk na budżet, dyktowany bardziej potrzebą zwiększenia ich własnego znaczenia niż koniecznością realizacji ważnych zadań [OECD 1998]. Sama tylko konstrukcja budżetu wystarczy np. do wytłumaczenia, dlaczego instytucje naukowe wyciągają stale ręce pod dodatkowe środki. Dzieje się tak m.in. dlatego, że szansa stworzenia czegoś nowego zależy od nowych funduszy, gdyż budżet tradycyjny tylko z trudem znosi redystrybucję funduszy rozdzielonych w przeszłości [Vessuri 2003]. Także sama tylko konstrukcja tradycyjnego budżetu wyjaśnia, dlaczego w krajach słabiej rozwiniętych instrumenty polityczne (np. stosowane dla rozwoju nauki) są z reguły proste, niezróżnicowane, statyczne oraz pasywne [Sagasti 1979]. Tworząc tradycyjny budżet zakłada się, że każdy dotychczasowy wysiłek powinien być kontynuowany, a organizacja utrzymana (jeśli tylko formalnie pozostaje w zgodzie z przepisami księgowania). Gdy brakuje celów jako punktów odniesienia, nie sposób w praktyce proponować alternatywnych rozwiązań podziału środków. W takiej sytuacji zapisy budżetowe to z reguły repetycja rozwiązań przyjętych w przeszłości. Kontrola realizacji konwencjonalnego budżetu ma wyłącznie formę audytu księgowości. Jest to związane z faktem, że >agencje wykonawcze i sami wykonawcy nie są w stanie odnieść swoich wydatków do żadnego celu. W tych warunkach, możliwa jest tylko wąsko księgowo-prawnicza ocena wyników. Rząd nie jest zatem w stanie utrzymywać merytorycznej (a nie czysto formalnej) kontroli nad wydatkami. Sztywność budżetu w zderzeniu ze złożonymi i szybko zmieniającymi się problemami rodzi pokusę tworzenia procedur koordynacyjnych oraz funduszy specjalnych. Jednak często systemy koordynacji są zbyt słabe by oprzeć się naciskowi wykonawców, a fundusze specjalne stwarzają szerokie pole do nadużyć oraz do niekontrolowanego wypływu pieniędzy budżetowych [UNESCO 1984]. Budżet zadaniowy a budżet tradycyjny. Tradycyjny proces budżetowy ukierunkowany na wkład (input-focused management and budgeting) kładzie nacisk na zasoby, personel, sprzęt i urządzenia. Wielkość funduszy to zazwyczaj główna miara wykonania. Nie przeprowadza się ewaluacji wyników. Jednak skoro ministerstwa i agencje rządowe mają wydawać środki dla osiągania celów, należy wymagać od nich, aby opisały i określiły ilościowo, co chcą osiągnąć lub co osią11 gnęły za pieniądze podatnika. Budżetowy zadaniowy wprowadza zatem kontrolę wydatków, której elementami są: Produkty (outcomes) Wartość za pieniądze (value for money) Efekty (outputs) Efektywność (effectiveness) Proces (process) Wydajność (efficiency) Wkłady (inputs) Koszty (costs) Ekonomiczność (economy) Źródło: Kristensen 2002. W budżecie zadaniowym oblicza się, ile dostarczono usług lub wytworzono wyrobów. Wyniki definiuje się jako dobra lub usługi (zazwyczaj te ostatnie), które agencje rządowe dostarczają obywatelom, biznesowi lub innym agencjom rządowym. W budżecie zadaniowym określa się, co poszczególny program ma osiągnąć w kategoriach dobra publicznego, dobrobytu, lub bezpieczeństwa. Np. obniżyć śmiertelność wypadków drogowych o 20% w następnych 5 latach, zmniejszyć liczbę zachorowań na określoną chorobę lub zapewnić większości studentów pewien poziom osiągnięć edukacyjnych w kolejnych 3 latach. Po zdefiniowaniu efektów rząd ocenia, czy programy, jakie wprowadził, zapewniają ich osiągnięcie [OECD 1998]. Uznaje się, że budżet zadaniowy stanowi dobrą platformę integracji planowania, zarzą- dzania, monitoringu i ewaluacji (wraz z jednostkami odpowiedzialnymi za te funkcje). Jego zaletą jest fakt, że uczy myśleć w ciągu: „pożądane rezultaty > konieczne wydatki, aby je osiągnąć”, lub „uzyskane rezultaty > informacja, czy uzasadniają one kontynuowanie wydatków”, zamiast ciągu myślenia: „zasoby > rezultaty, które należy wyszukać, aby uzasadnić wydatki”. Podejście to przesuwa nacisk z wielkości zużytych zasobów na zakres i jakość osiągniętych krótko-i-długofalowych rezultatów. Łączy koszty z rezultatami programu. Dostarcza porównawczej oceny efektywności, skuteczności i sprawności programów [Kristensen 2002]. Metody podejmowania decyzji budżetowych. W procesach decyzyjnych, dotyczących np. projektu budżetu, ustaw lub programów rządowych, stosuje się wiele trybów podejmowania decyzji. Należą do nich np. metoda ekspercka (decyzję podejmują zaufani eksperci, ministerialni lub kontraktowi), negocjacje (decyzję podejmują grupy interesariuszy), polityczna (politycy), benchmarking (decyzja oparta na wzorcowych praktykach), empiryczna (decyzja oparta na zastosowaniu metod analizy danych). W procesie budżetowym stosuje się zwykle wszystkie opisane tu tryby, choć w różnych formach i proporcjach. Do metod najważniejszych należą: ekonometryczne (kryteria określane jako stopień zysku, cost/benefit, ogólne koszty finansowe, itd.), metoda wielo-kryterialna (bierze pod uwagę niewspółmierne kryteria i punkty widzenia), analiza kosztu i efektywności, symulacje i scenariusze, program budgeting, zero-base budgeting, relevance graphs, badania rynkowe, badania prognostyczne itd. Negocjacje ważne są w pewnych kulturach administracyjnych (jak np. w Niderlandach) i mniej ważne w innych. Konsensus uzgadniany jest pomiędzy różnymi interesariuszami, takimi jak obywatele, lokalne społeczności, przemysł, ministerstwa itd. Każdy z trybów podejmowania decyzji wyróż12 nia inny typ osoby odpowiedzialnej za proces: metoda ekonometryczna – ekonomistę; metoda wielo-kryterialna – analityka; negocjacje – mediatora, prawnika, negocjatora [UNESCO 1984]. Ważnym środkiem pomocniczym w tworzeniu budżetu jest >analiza wpływu regulacji (Regulatory Impact Analysis). Poziomy decyzji budżetowych. Decyzje budżetowe podejmowane są na wielu poziomach. Zazwyczaj wyróżnia się następujące: a. Ustalenie wielkości publicznych wydatków. (Poziom zagregowanych decyzji politycznych, aggregate policy-making). b. Podział pomiędzy główne sektory, takie jak obrona, bezpieczeństwo publiczne, edukacja, nauka, i inne. (Poziom podziału między-sektorowego). c. Przydział zasobów do poszczególnych programów wewnątrz sektorów, np. edukacja pielęgniarek, szkolnictwo średnie, oraz uniwersytety, wewnątrz budżetu edukacji. (Poziom między-sektorowej strategii politycznej). d. Przydział zasobów do poszczególnych działań lub organizacji w ramach poszczególnego programu, np. przydzielenie większych funduszy uniwersytetowi X niż uniwersytetowi Y, gdyż X ma lepsze wyniki w badaniach naukowych lub też szybciej wzrosła w nim liczba studentów w kierunkach uznawanych przez rząd z priorytetowe. (Poziom zarządzania priorytetami programowymi). e. Przydział pieniędzy wewnątrz poszczególnych instytucji lub typów działań (np. gdy uniwersytet zdecyduje przesunąć zasoby z budżetu wynagrodzeń do budżetu podróży). Rzeczywisty proces budżetowy i finansowy nie zawsze aranżowany jest w tak prosty sposób. Linia podziału pomiędzy tworzeniem (ustalaniem) budżetu a jego realizacją przedstawia się różnie, w zależności od poziomu, na który się na to patrzy. Z punktu widzenia ministra, punkty d. i e. to nie tworzenie, lecz realizacja budżetu. Jednak z punktu widzenia osób decydujących o podziale funduszy publicznych na tych szczeblach, to nadal tworzenie budżetu (dostępne zasoby są przydzielane pomiędzy konkurującymi ze sobą celami) [OECD 1998]. Przejście z budżetu tradycyjnego na budżet oparty na wynikach angażuje wszystkie kolejne piętra jego tworzenia i realizacji. Tą drogą także ewaluacja „schodzi” ze szczebla rządowego na szczeble wykonawcze. Próby integracji procesu budżetowego, audytu i ewaluacji. Jak dotąd jednak proces budżetowy, audyt i ewaluacja rzadko tylko są w pełni zintegrowane. W przeszłości podejmowano wiele prób integracji projektowania budżetu, audytu i ewaluacji. Powiązania te nie były jednak pełne lub nie zawsze kończyły się sukcesem. Za pierwszą próbę łączenia ewaluacji i procesu budżetowego uznaje się system PPBS (Planning-ProgrammingBudgeting) wprowadzony przez Roberta McNamarę w amerykańskim Departamencie Obrony w początkach lat 1960-tych. PPBS miało być super-racjonalną teorią podejmowania decyzji, w której wybory będą opierane na systematycznej ilościowej analizie [OECD 1993]. W Australii (proces budżetowy 1995/96) rezultaty ewaluacji wspierały 77% nowych propozycji politycznych i 65% propozycji dotyczących oszczędności. Proces łączenia procesu budżetu z ewaluacją był kierowany przez Ministerstwo Finansów [OECD 1997]. 13 Ocena budżetu zadaniowego. Mimo swej popularności, budżet zadaniowy nie został wprowadzony we wszystkich krajach rozwiniętych. Kraje, które nadal stosują budżet tradycyjny (np. Norwegia) osiągają cele stawiane przed budżetem zadaniowym za pomocą innych narzędzi, takich jak audyt, ewaluacje i planowanie. Budżet zadaniowy lepiej nadaje się do zarządzania pewnych dziedzin (np. inwestycji drogowych), a gorzej innych (np. inwestycji w badania podstawowe). Szczególne trudno w jego ramach oceniać programy, które posiadają długi horyzont czasowy (np. odnowy środowiska, rozwoju broni lub badań podstawowych) lub mają charakter chroniczny (zmniejszenie przestępczości lub likwidacja ubóstwa). Często zdarza się, że sukces lub porażka takiego programu zależą w mniejszym stopniu od podjętych działań, co od przypadkowej koincydencji z warunkującymi je zjawiskami leżącymi poza zasięgiem interwencji publicznej (np. spadek przestępczości w mieście wskutek zmian demograficznych) [UNESCO 1998]. Bibliografia H. Vessuri, Science, politics, and democratic participation in policy-making: a Latin American view, “Technology in Society”, Volume 25, Number 2 (2003), pp. 265-266. Jens Kromann Kristensen, Walter S. Groszyk and Bernd Bühler, Outcome focused management and budgeting OECD 2002. Jens Kromann Kristensen, Walter S. Groszyk and Bernd Bühler, Outcome focused management and budgeting OECD 2002 Katherine G. Willoughby and Julia E. Melkers, Performance Budgeting in the States, Internet. OECD In Search Of Results: Performance Management Practices, Paris 1997, ss. 140. OECD Integrating financial and performance management: a concept paper 1998 OECD Linking evaluation with budget, PUMA/SBO(97)7 OECD Using evaluation PUMA/SBO/RD(93)1 UNESCO Manual on the national budgeting of scientific and technological activities : integration of the "science and technology" function in the general State budget. Paris 1984. CELE, ZADANIA I INSTRUMENTY POLITYKI Cele i zadania polityki to „zamierzone infrastrukturowe, finansowe, instytucjonalne, społeczne, środowiskowe, lub inne rezultaty, do których polityka ma się przyczynić”, „opis pożądanego stanu przyszłego systemu”. „Nie ma absolutnego kryterium rozróżnienia celów i zadań (...)” Cele wydają się być zdefiniowane jako oświadczenia, zwykle ogólne i abstrakcyjne, o pożądanym stanie, ku któremu skierowana jest polityka, podczas gdy zadania to konkretne, zoperacjonalizowane oświadczenia o szczegółowych pożądanych rezultatach. Zadania, zintegrowane w ramach procesu planowania programu zapewniają pomost między celami i etapem realizacji interwencji [Glossary 2002; Yolles; Preparing 2003]. Polityka jest, z definicji, zorientowana na cele. Zakres celów jest bardzo szeroki, od np. poprawy umiejętności pracowników do np. zwiększenia liczby kobiet absolwentów w szkołach technicznych (bardziej szczegółowe cele określa się często jako zadania). Cele 14 wyłaniają się z >AGENDY POLITYKI i są częścią >CYKLU POLITYKI. Są one kształtowane przez interesy, poglądy, przekonania i modele koncepcyjnych osób uczestniczących w >PROCESIE POLITYCZNYM. W ustalaniu celów dużą rolę odgrywa >ZALEŻNOŚĆ OD SZLAKU. W oparciu o cele wysokiego szczebla oraz uzasadnienia dla interwencji politycznej (zob. >UZASADNIENIA DLA POLITYKI), formułuje się bardziej konkretne cele polityczne. Cele mogą być bardzo zróżnicowane pod względem podmiotów, którymi się zajmują i rezultatów, jakie starają się osiągnąć. Cele różnią się również pod względem szczebla artykulacji - niektóre z nich są bardzo ogólne, np. zwiększenie działalności komercjalizacyjnej uczelni, podczas gdy bardziej szczegółowe, np. powoływanie biur transferu technologii. Rzeczą użyteczną jest budowa hierarchii celów. Instrumenty polityki są zróżnicowane. Można je podzielić w różny sposób, • wg dominujących mechanizmów zastosowania, np. zachęty finansowe, regulacje i informacje (czasami określane jako „marchew, kij i kazanie”), • • wg grup docelowych celów, np. firm, uczelni itp., celów, które mają one dotyczyć. Z reguły poszczególne kraje mają pełny zestaw instrumentów polityki naukowej i innowacyjnej, ale sposoby ich opracowania i wdrażania mogą być bardzo różne [IPP 2014]. Sukces polityki zależy od określenia jasnych celów. Jeśli istnieje ich wiele, muszą być ze sobą zgodne. Muszą także być na tyle elastyczne, aby zmieniać się w miarę okoliczności. Cele muszą: • Opisywać obecną sytuację. • Wskazać kierunki działań. • Określać bariery w realizacji celów. • Określić sposób rezultaty zostaną oceniane i zmierzone. • Określać kroki konieczne dla osiągnięcia sukcesu [Slack]. Wzajemną zależność pomiędzy obszarami polityki, jej celami i środkami przedstawia następująca tabela: POLITYKA NAUKOWA I INNOWACYJNA – OBSZARY, CELE , ŚRODKI I PRZYKŁADY Obszar Cel polityki Środki Przykłady z poszczególnych krajów Zabezpieczanie właściwych warunków ramowych Rozwijanie zasobów ludzkich w B+R Zachęcanie rynku do finansowania innowacji Reformy edukacji na poziomie wyższym Wspieranie przez rządy i przemysł edukacji zawodowej Ustanowienie ram prawnych dla kapitału ryzyka Austria – kursy zawodowe Finlandia – program partnerstwa publiczno-prywatnego Węgry – ustawa o kapitale ryzyka Tworzenie kul- Obniżenie asymetrii in- Oparta na Internecie sieć in- Kanada – Inicjatywa 15 tury innowacyjnej formacyjnej Upowszechnienie najlepszych praktyk w zarządzaniu innowacjami Wspieranie tworzenia innowacyjnych firm formacji biznesowych Finansowanie dyfuzji narzędzi benchmarkingu i diagnostyki Publiczne inwestycje w kapitał ryzyka Strategiczna Norwegia – program BUNT Hiszpania – program MINER USA – program SBIC Pobudzanie dyfuzji technologii Pobudzanie zdolności absorpcyjnych firm Ulepszenie powiązań mię-dzy MSP i badaniami publicznymi Współfinansowanie konsultantów dla podnoszenia poziomu kompetencji organizacyjnych firm Współfinansowanie awansu tech-nologicznego firm via programy publiczno-prywatnego partnerstwa Norwegia – program BUNT Hiszpania – Centra CDTI Wspieranie tworzenia sieci i klastrów Pobudzanie tworzenia kla-strów innowacyjnych firm Zapewnianie lepszej harmo-nizacji pomiędzy infrastru-kturą N+T i potrzebami przemysłu Polityki zamówień i pośrednictwa Współzawodnictwo pomiędzy regionami o finansowanie inicjatyw klastrowych Współfinansowanie ośrodków doskonałości dla wsparcia powiązań między uniwersytetami a przemysłem Niderlandy – polityki tworzenia klastrów Niemcy – Inicjatywa BioRegio Szwecja – Program Centrum Kompetencji NUTEK Francja – Réseaux Nationaux de la Reherche (RNS) Wspieranie B+R Podtrzymywanie długofalo-wych szans technolo-gicznych Wzrost wydatków rządowych na badania podstawowe Partnerstwo publiczno-prywatne Australia – Program CRC Austria – Program CD Społeczeństwo i Laboratoria Odpowiedź na globalizację Wzrost powiązań między firmami o kapitale krajowym i zagranicznym Tworzenie sieci krajowych konkurencyjnych firm technologicznych Irlandia - Program Narodowych Powiązań Ulepszenie tworzenia polityk Wspieranie koordynacji politycznej Ulepszanie ewaluacji polityk Podnoszenie funkcji koordynacyjnych na najwyższy szczebel polityczny Korea – Narodowa Rada Nauki i Technologii Wielka Brytania – ROAME OECD, 1999. Bibliografia Brian Slack, The Policy Process. Glossary of Key Terms in Evaluation and Results Based Management (OECD, 2002). IPP, Innovation Policy Platform, Policy goals and means, 2014-01-13 J. S. Metcalfe, Science, Technology and Innovation Policy in Developing Economies, 2000. Paper prepared for the workshop on Enterprise Competitiveness and Public Policies, Barbados 22nd – 25th November 1999. 16 Maurice Yolles, Organization as a Complex Systems: Social cybernetics and knowledge in theory and practice. Michael Quinn Patton, Qualitative Research and Evaluation Methods. Sage Publications, California 1990. OECD, Managing Innovation Systems: overview, 1999. Preparing Program Objectives. Theory and Practice, prepared by Alex Iverson for the Evaluation Unit, The International Development Research Centre, 2003, Toronto. Slavo Radosevic, Strategic Technology Policy for Eastern Europe, "Economic Systems", Vol. 18, No. 2, June 1994. CYKL POLITYKI (Policy cycle) W naukach politycznych cykl polityki to narzędzie stosowane w analizie rozwoju polityki. Najczęściej w ramach cyklu polityki wyróżnia się cztery fazy: ustalania >agendy polityki, >formułowania polityki, >wdrażania oraz >ewaluacji. W pierwszej fazie następuje rozpoznanie kwestii wymagających uwagi rządu. W drugiej fazie kwestie te przekształca się w >problemy polityczne, dokonuje się oceny możliwych opcji ich rozwiązania oraz ustala ostateczny kształt >polityki, >programu lub >instrumentu polityki. W trzeciej fazie wprowadza się w życie podjęte decyzje. W fazie czwartej – ocenia efektywność polityki (polityk) w kategoriach zamierzeń i rezultatów [Nakamura 1987]. Narzędziami stosowanymi w czasie Cyklu Polityki są m.in. >Definiownie Problemu, >Logika Interwencji, >Analiza Polityki, >Ocena Wpływu (ex ante i ex post), >Monitoring, >Ewaluacja Polityki (ex ante, mid-term i ex post). Niektóre >agencje stosują sformalizowany zestaw Logiki Interwencji, Monitoringu, Ewaluacji i Oceny Wpływu, np. szwedzka Vinnova [Delanghe 2013]. Warren E. Walker [2003] proponuje podział cyklu na osiem faz: 1. Identyfikacja problemów 2. Określenie celów 3. (Wstępny) wybór środków 4. Identyfikacja alternatywnych polityk 5. „Badania przesiewowe” (screening) alternatywnych polityk oraz szczegółowa analiza obiecujących polityk (ocena wpływu, impast assessment) 6. Wybór polityki 7. Wdrożenie wybranej polityki 8. Monitoring i ewaluacja rezultatów. Fazy 4-6 zalicza się do >analizy polityki. Australijski podręcznik polityki [Bridgman 2004] także proponuje podział na osiem faz: 1. Identyfikacja problemów 2. Analiza polityki 3. Rozwój instrumentu polityki 4. Konsultacje (które powinny przenikać przez cały >proces polityki) 17 5. Koordynacja 6. Decyzje 7. Wdrażanie 8. Ewaluacja Perspektywa cyklu podkreśla zwrotność (pętlę) poszczególnymi cyklami polityki (ewaluacja jako wkład do budowy agendy), co prowadzi do ciągłego utrwalania procesu politycznego. Podział procesu polityki na fazy zaproponował jako pierwszy Harold Laswell (1956). Cykl polityki jest idealizacją. Jednak pomimo swych ograniczeń, koncepcja cyklu polityki jest jedną z najczęściej stosowanych w naukach politycznych. Zwraca się uwagę na dwa problemy związane z modelem cyklu polityki. Po pierwsze, stwarza on wrażenie racjonalnego procesu składającego się z wyraźnie wyodrębnionych faz. Jednak proces polityczny rzadko ma jednoznaczny początek i koniec. Cechuje go stałe dostosowywanie się do zmieniających okoliczności. Agenda polityki to w rzeczywistości ciągła działalność. Poszczególne etapy cyklu polityki zazębiają się ze sobą. Po drugie, jest on wizją odgórnej realizacji polityki. Rzeczywista polityka coraz częściej łączy podejście odgórne z oddolnym. Podkreśla się też, że w warunkach rzeczywistych polityki rzadko są przedmiotem całościowych ewaluacji. Z reguły polityka jest stale monitorowana, kontrolowana i modyfikowana w trakcie jej realizacji [OECD 2009]. Bibliografia Robert T. Nakamura, The Textbook Policy Process And Implementation Research, “Review of Policy Research”, Vol. 7, Issue 1, pages 142–154, September 1987. Bridgman and Glyn Davis, The Australian Policy Handbook, Allen & Unwin, 2004. Handbook of Public Policy Analysis. Theory, politics and methods. Ed. By Frank Fischer, Gerald Miller and Mara S. Sidney, CRC Press, 2007, ss. 43-53. Warren E. Walker, The Use of Screening in Policy Analysis, Management Science, Vol. 32, No. 4. Apr., 1986, ss. 389-402. Henri Delanghe, Peter Teirlinck, Optimizing the Policy Mix by the Development of a Common Methodology for the Assessment of (Socio-)Economic Impacts of RTDI Public Funding. Literature Review, December 2013. OECD Country Reviews Of Innovation Policy, 2009. DEBATA PUBLICZNA NAD PROBLEMAMI NAUKI I INNOWACJI W POLITYCE [Public debate on science and innovation issues] Debata publiczna nad problemami nauki i innowacji w polityce, to dyskusja połączona z przedstawianiem przeciwstawnych punktów widzenia w sprawach istotnych dla interesu publicznego, prowadzona w mediach komercyjnych i społecznych, angażująca naukowców, decydentów, dziennikarzy, czasem także obywateli. Debata odbywa się bądź wewnątrz środowiska akademickiego lub politycznego, bądź też ma charakter ogólnokrajowy i angażuje szerszą opinię publiczną. 18 Jeśli chodzi o debatę publiczną na temat nauki i innowacji, można wyróżnić trzy poziomy: • narodowy (ogólnopolskie gazety, telewizja i radio); • debaty naukowców (np. w miesięczniku "Forum Akademickie", czytanym przez menedżerów, decydentów i administratorów nauki, kilka tysięcy czytelników); • debaty ekspertów i zainteresowanych stron (np. w kwartalniku "Nauki i Szkolnictwa Wyższego" lub w trakcie Kongresów Instytutu Gospodarką Rynkową), kilkuset czytelników i uczestników. W krajach EU oraz krajach stowarzyszonych przeprowadzono w ostatnich latach ok. 150 debat publicznych nt. zagadnień nauki i innowacji w polityce. Pięć najważniejszych grup tematycznych to: • • • • • • • Zmiana klimatu, polityka energetyczna i ochrona środowiska, związana z rolą nauki w redukcji emisji CO2, a także (w mniejszym stopniu) sprawy zrównoważonego rozwoju (różnorodności biologicznej, gospodarki odpadami i recyklingu, zanieczyszczenia wody i powietrza). Reforma szkół wyższych, nowe ustawy, fuzje uczelni, koncentracja wysiłków w szkołach wyższych na obszarach strategicznych, w szczególności sprawa wiązania strategii uczelni z potrzebami społecznymi. Krajowe strategie B+R, sposób ustalania krajowych celów i priorytetów. Gospodarka oparta na wiedzy, ze szczególnym uwzględnieniem roli nauki w rozwoju gospodarczym oraz rozpoznania i wzmocnienia krajowych przewag konkurencyjnych na rynkach międzynarodowych. Dyskusje dotyczące technologii, w szczególności biotechnologii, ale także nanotechnologii oraz technologii związanych ze zdrowiem i bezpieczeństwem. Autonomia uniwersytecka, zawód nauczyciela akademickiego. Finansowanie publicznego sektora nauki, ewaluacja badań [MASIS 2010]. W Polsce następujące kwestie związane z nauką i innowacjami były w ostatnich latach przedmiotem ogólnokrajowych debat: • • • • In vitro jako metody leczenia niepłodności (głównie w kontekście społecznym i religijnym). Czy in vitro powinno być dozwolone czy zabronione? Jeśli dozwolone, w jakim zakresie i na jakich warunkach? Zmiany klimatu (głównie w kontekście skutków propozycji Komisji Europejskiej dotyczących bilansu energetycznego). Czy nowe wymagania unijne mogą spowolnić wzrost gospodarczy Polski i czy Polska może uzyskać ich czasowe odroczenie? Strategia innowacji. Czy w Polsce jako kraju goniącym europejską czołówkę instrumenty polityki innowacyjnej przejęte z krajów rozwiniętych są skuteczne? Jak podnosić świadomość znaczenia innowacji wśród przedsiębiorców? Nowa reforma nauki i szkolnictwa wyższego (od 2008 r.), a w szczególności o Koncepcja "flagowych" uniwersytetów badawczych (Krajowe Naukowe Ośrodki Wiodące). Czy KNOW poprawi jakość polskiej nauki? 19 o Nowy model uczelni, ich autonomii i kontroli rządowej, relacje między szkołami publicznymi i prywatnymi, opłaty za studia. Jak pogodzić odgórną reformę z zachowaniem tradycyjnej autonomii akademickiej? o Nowy model kariery akademickiej, a zwłaszcza przyszłość habilitacji. Jak poprawić i usprawnić przebieg studiów bez utraty mechanizmów kontroli jakości? Bibliografia MASIS Final synthesis report 2012. MASIS, Niels Mejlgaard, Tine Ravn, Lise Degn, Common Issues and Research Priorities, Preliminary report, December 2010. MASIS, National Report, Poland, October 2011. DYLEMATY POLITYKI NAUKOWEJ I INNOWACYJNEJ Przed polityką staje m.in. zadanie określenia strategicznych celów nauki i techniki. • W jakiej mierze nauka i technika winny służyć celom czysto ekonomicznym, a w jakim powinny one budować tożsamość narodową i prestiż kultury narodowej w świecie? • W jakich dziedzinach kraj powinien znaleźć się na (światowym) froncie badawczym? W jakim zakresie powinien przejmować i wykorzystywać dokonane za granicą odkrycia i wynalazki? • Do jakiego stopnia powinien wspierać adaptację stworzonych i wyprodukowanych za granicą urządzeń, maszyn i technologii? • Jak określić społecznie optymalny poziom inwestycji w B+R? • Jak dokonać społecznie optymalnego podziału pieniędzy na B+R spośród różnych opcji? • Co zrobić, aby szczupłe środki na B+R były wydajnie wykorzystywane? • Jak uniknąć dublowania badań bez gaszenia konkurencji i tworzenia monopoli? • Jak wynagradzać innowatorów pobudzając jednocześnie dyfuzję innowacji (np. patenty wynagradzając wynalazców często hamują upowszechnianie wynalazków). Łatwiej odpowiedzieć na te pytania „w zasadzie”, niż w praktyce. Problem zasad finansowania B+R zogniskowany jest wokół pytania, jaki poziom oraz ukierunkowanie tematyczne i geograficzne B+R finansowanych ze źródeł publicznych byłyby optymalne z punktu widzenia zapewnienia maksymalnego zwrotu (ekonomicznego i społecznego). Rozstrzygnięcie tego problemu jest trudne i wymaga uwzględnienia wielu dylematów związanych z ekonomicznym aspektem prowadzenia działalności B+R. Np. konfliktu interesu pomiędzy wynalazcą a społeczeństwem: wynalazcy zależy na wynagrodzeniu za wynalazek, społeczeństwie na jego upowszechnieniu. Trudność rozstrzygnięcia problemu optymalnego poziomu finansowania B+R wynika z samego charakteru B+R. B+R jest kosztowne. Co gorsza, często jego koszty nie mają końca (nigdy dokładnie nie wiadomo, jak wiele czasu zabierze odkrycie tego, czego się szu20 ka) oraz są jak studnia bez dna (jeśli nie znalazło się tego, czego się szukało, nie ma wielu szans na odzyskanie zainwestowanych pieniędzy). B+R z reguły jest ryzykowne, gdyż (pomijając jego bardziej rutynową część, bliską pomiarom i testowaniu) leży ono w sferze niepewności: niepewności badawczej, technologicznej, rynkowej, niepewności co do rezultatu pojedynku z konkurencją, czy też niepewności co do tego, czy uda się ochronić własność intelektualną uzyskaną dzięki badaniom. Wszystko to czyni B+R działalnością, która niezwykle trudno ocenić. To z kolei powoduje, że niełatwo znaleźć inwestora chętnego do podjęcia ryzyka inwestycji. Ale B+R nie tylko trudno finansować, ale także trudno nim zarządzać. Działalność innowacyjna to zajęcie dla wielu różnych grup ekspertów: naukowców, projektantów, specjalistów od marketingu, inżynierów produkcji, dostawców, klientów, szkoleniowców. Skuteczna koordynacja jest konieczna, ale trudna i kosztowna. Do tego dochodzą jeszcze trudności z komórkami B+R w przedsiębiorstwach (określenie właściwych zadań, ustalenie kontraktów, monitoring prac). Jednym z kluczowych problemów zarówno finansowania, jak i zarządzania B+R są trudności transakcji spowodowane asymetrią informacji. Asymetria informacji to sytuacja, gdy jedna ze stron transakcji wie więcej od innej. Badacz wie zwykle więcej o rzeczywistych technicznych i rynkowych perspektywach B+R niż bankier, a menedżer – od kierownictwa przedsiębiorstwa. W jaki sposób bankier lub też dyrektor firmy mieliby lepiej wiedzieć od badacza, czy pieniądze na B+R są wykorzystywane z pożytkiem dla przedsiębiorstwa, czy też dla pomnożenia sławy naukowej? Ocena zewnętrzna jest możliwa, ale wymaga monitoringu i negocjacji. Nieraz trudno wyciągnąć korzyści nawet z inwestycji zakończonych sukcesem. Nie tylko z powodu problemów związanych z ochroną własności intelektualnej (jak zabezpieczyć produkt przed łatwym skopiowaniem i uzyskać za niego zysk przekraczający koszty wprowadzenia go na rynek), ale i z tego powodu, że często przedsiębiorstwom brakuje aktywów uzupełniających, takich jak umiejętności produkcyjne lub nawet marketingowe. Każda państwowa polityka N+T oraz indywidualne strategie przedsiębiorstw muszą brać pod uwagę i rozstrzygać zarysowane tu dylematy, m.in. dylemat zabezpieczenia i upowszechnienia wynalazku, dylemat niepewności i ryzyka, dylemat asymetrii informacji, dylemat zarządzania i koordynacji [Strahlcyde], nie mówiąc już o takich dylematach, jak • Zasad podziału funduszy pomiędzy różnymi, często nieporównywalnymi dyscyplinami (np. biologią molekularną a fizyką wysokich energii), a zwłaszcza pomiędzy różnymi gałęziami dyscyplin, a także pomiędzy różnymi sektorami nauki (instytuty państwowe, uczelnie i przemysł)? • Ustalenia odpowiednich proporcji pomiędzy finansowaniem badań podstawowych i stosowanych oraz prac rozwojowych, a dokładniej, badań, które rozwija się nie dla określonego zleceniodawcy, tylko w celach czysto poznawczych, badań które uprawia się dla ściśle określonego celu gospodarczego oraz badań które rozwija się nie dla bezpośredniego celu gospodarczego, tylko dla "ulepszenia jakości życia społeczeństwa" 21 (wskutek czego nie mogą one być finansowane przez gospodarkę). Doświadczenie pokazuje, że takie kraje, jak Szwecja, które zaniedbały budżetowego finansowania badań podstawowych, zapłaciły za to słono w następnych dziesięcioleciach; uprawa ich działa bowiem ożywczo na rozwój nauk stosowanych [OECD 1992]. • Dylematu: wspierać rozwój czy zastosowania technologii; wspierać technikę jako wiedzę, jako umiejętności czy jako urządzenia; wspierać B+R, usługi naukowo-techniczne czy uczenie się; rozwój technologii w kraju czy międzynarodowy [Metcalfe 1995]. • Swobody i kierowania: w jakiej mierze w nauce powinna nadal obowiązywać tradycyjna europejska idea wolności badań, a w jakiej nauka powinna być rządzona przez priorytety i zadania, służące interesom społeczeństwa i gospodarki? Jaki zakres niezależności powinni mieć poszczególni uczestnicy systemu nauki i techniki? Jaką rolę powinno odgrywać planowanie? • Wszechstronnego rozwoju lub specjalizacji. Żaden kraj, nawet Stany Zjednoczone, nie powinien rozwijać wszystkich dziedzin nauki i techniki; winien szukać "nisz badawczych", w których mógłby odnieść największe - z punktu widzenia nauki, techniki i gospodarki - sukcesy; obok (niewielu) priorytetów badawczych powinien ustalać posteriorytety, tj. listę pól lub dyscyplin nie zasługujących na wsparcie finansowe z budżetu państwa [OECD 1992]. • Wyboru jednego z dwóch podejść co do określania rozmiarów krajowego wysiłku B+R: „podażowego” i „popytowego”. Wg pierwszego, powinno się utrzymywać sporą nadwyżkę badań nad aktualnymi potrzebami, biorąc pod uwagę możliwość wystąpienia nieoczekiwanych „fuzji”,. „przecięć”, „odprysków”, zmian trendów rozwojowych nauki i techniki itd.. Wg drugiego, zakres wysiłku powinien być (w zasadzie) dostosowany do aktualnych potrzeb. (W okresie komunistycznym rozmiary B+R wykraczały znacznie poza potrzeby gospodarcze i społeczne. Jest zatem zdrowiej, gdy dopuści się obecnie do głosu podejście „popytowe”) [Andreff 1997]. • Określenia optymalnych relacji pomiędzy priorytetami ustalanymi na różnych szczeblach: a) poszczególnych uczonych oraz kierowników zespołów; b) dyscyplin lub regionów; c) rządu. • Określania optymalnych proporcji pomiędzy nakładami na prace badawczo-rozwojowe oraz nakładami na obsługę nauki (tj. na transfer technologii, informację naukową i techniczną, kształcenie naukowców i inżynierów i in.) • Określania optymalnych dla danego typu badań struktur organizacyjnych. • Ustalania najwłaściwszych proporcji między finansowaniem badań z budżetu nauki i techniki oraz z budżetu innych resortów (zdrowia, edukacji i in.). • Określenia proporcji między bezpośrednimi (fundusze na działalność naukową i techniczną z budżetu państwa) a pośrednimi środkami polityki naukowej i technicznej (polityki: kredytowa, podatkowa, patentowa i licencyjna, zachęcające przemysł do finansowania prac badawczych i rozwojowych). • Ustalania proporcji między działaniami krótko-terminowymi a długofalowymi. Kolejne dylematy dotyczą wyboru najlepszych rozwiązań instrumentów politycznych. Np. czy proponowane instrumenty dotykają rzeczywistych potrzeb innowacyjnych firm? Jaka jest ich 22 efektywność mierzona stosunkiem kosztów do korzyści? Jakie są ich efekty i wpływ? Jak są one koordynowane z pozostałą częścią systemu politycznego? [Nauwelaers 2002]. Żaden z dylematów nie jest łatwy do rozwiązania. Istnieją rozmaite sposoby ich rozwiązywania. Jedne z nich polegają na takim rozgraniczeniu sfer, dzięki której z dwóch konfliktowych opcji każda obowiązywałaby na innym poziomie albo obszarze. Np. dylemat swobody i sterowania w nauce rozwiązywany jest w taki sposób, że kryteria decyzji o projektach badawczych opiera się na zasadach swobody (peer review), a kryteria decyzji o podziale pieniędzy dyscyplinami na priorytetach rządowych. Inny sposób rozwiązania, to twórcza fuzja obu opcji. Np. • dylemat „import technologii zagranicznych albo tworzenie ich w kraju” rozwiązywany bywa przez tworzenie zachęt dla ulepszania zakupionych technologii zagranicznych (I tak, Korea preferowała własne B+R, podczas gdy Irlandia, Singapur i Hong Kong ukierunkowały swoje polityki na wzrost działalności innowacyjnej podejmowanej przez trans-narodowe korporacje. Jeszcze inne kraje po prostu pozostawiły sprawę upgradingu technologii siłom rynkowym) [UNIDO 2002/03]; • dylemat wyboru formy procesu politycznego (analiza polityczna ekspertów albo negocjacje i konsultacje ze wszystkimi interesariuszami) rozwiązywany jest np. przez realizację foresight`u. Kolejny sposób to znajdowanie nowej formuły instrumentu politycznego. Dylemat „czy dla pobudzania rozwoju technologii stosować ulgi podatkowe, które stwarzają pokusę nadużycia firm, czy też dotacje dla firm, które stwarzają pokusę nadużycia agencji rządowych” rozwiązywany jest coraz częściej przez dofinansowanie realizacji projektów technologicznych konsorcjów opartych na partnerstwie publiczno-prywatnym, w którym każdy z udziałowców (np. uniwersytety, laboratoria rządowe i przedsiębiorstwa prywatne) nie tylko dzieli się z pozostałymi kosztami, ryzykiem i (ewentualnymi) korzyściami, ale także ich kontroluje. Jeszcze inny sposób to znalezienie „optymalnego punktu równowagi” (np. dla rozwiązania dylematu interesu wynalazcy i interesu społeczeństwa - takiej poprawy własności intelektualnej, która nie blokowałaby dyfuzji innowacji oraz takiej dyfuzji, która zabezpieczałaby prawa innowatora; redukcji niepotrzebnego dublowania B+R z jednoczesnym zachowaniem pożądanego poziomu współzawodnictwa w B+R) [Strahlcyde]. Nieraz rozwiązanie dylematu zależy od osiągniętego poziomu gospodarczego. Np. dylemat czy finansować projekty badawcze i technologiczne stosunkowo tanie i mało ryzykowne (których efekty w sensie naukowym lub ekonomicznym będą miały ograniczoną wartość), czy też projekty kosztowne i ryzykowne, ale obiecujące znaczną „wypłatę” w wypadku wygranej, rozwiązywany jest w ten sposób, że w miarę wzrostu dobrobytu finansuje się coraz więcej projektów tej drugiej grupy. Bez pewnej swobody w ustalaniu priorytetów na niższych szczeblach, priorytety wyższego szczebla nie spełnią swego zadania, np. bez puli badań i projektów badawczych instytutów rolniczych trudno dokonać właściwego wyboru celów wielkich programów 23 badań rolniczych; bez zdobycia umiejętności naukowych i menedżerskich w realizacji małych projektów, trudno kierować wielkimi programami, itd. [OECD 1992]. Nakreślone wyżej dylematy polityki N+T i innowacji nie są bynajmniej dane „raz na zawsze”; tajemnica pomyślnej polityki polega też nieraz na trafnym i szybkim odczytaniu zmian otoczenia, które powodują konieczność modyfikacji pola sensownych wyborów, a nawet zmianę kategorii pojęciowych stosowanych w podejmowaniu decyzji. Np. zwraca się uwagę, że problem decydentów polega dziś nie tyle na wyborze pomiędzy badaniami podstawowymi a stosowanymi, ale m.in. na formułowaniu priorytetów w taki sposób, aby podkreślały one bezpośrednie powiązanie pomiędzy badaniami podstawowymi i przełomami teoretycznymi z jednej strony, a badaniami stosowanymi i pracami rozwojowymi z drugiej strony; aby służyły one mobilizacji dodatkowych zasobów finansowych, zarówno publicznych, jak i prywatnych, na rzecz badań podstawowych i stosowanych [Rodrigues 2003]. Różnice w rozwiązaniach dylematów mogą wynikać z takich zmiennych jak: wielkość rynku, położenie geograficzne, zasoby naturalne, zewnętrzne presje, historia, początkowa, baza kompetencji, itd. Bibliografia C. Nauwelaers, and R. Wintjes, Innovating SMEs and regions: the need for policy intelligence and interactive policies, “Technology Analysis and Strategic Management”, (2002) 14 (2), 201-215. Industrial Development Report 2002/2003. Competing through Innovation and Learning, UNIDO. J.S. Metcalfe, Technology systems and technology policy in a evolutionary framework, “Cambridge Journal of Economics” 1995, 19, s. 25-46. Maria João Rodrigues, European Policies for a Knowledge Economy, Edward Elgar, 2003. Public Funding Of R&D: Emerging Policy Issues 13-14 March 2001. Reviews of National Science and Technology Policy: Czech and Slovak Republic, OECD 1992. Reviews of National Science and Technology Policy: Czech and Slovak Republic, OECD 1992. University of Strathclyde Business School, http://www.economics.strath.ac.uk/Teaching/3rd_Year/ 31_341_ Econ_Org_and_Econ_Perf/ PDF/341~prod.doc Wladimir Andreff, wypowiedź na konferencji NATO „Institutional Transformation of S&T Systems and S&T Policy in Economies in Transitions”, Budapeszt, 28-30 sierpnia 1997. FORMUŁOWANIE POLITYKI [Policy formulation] Formułowanie polityki to druga faza >cyklu polityki, podczas której żądania, problemy i propozycje zgłaszane zarówno z kręgu ministerstwa i/lub agencji wykonawczych (urzędnicy, doradcy polityczni, analitycy polityki), jak i z zewnątrz ministerstwa (>sieci polityki, media, badacze polityki, obywatele) są przekształcane w >polityki, >programy oraz >instrumenty rządowe (cele, zadania, środki realizacji, mierniki wykonania, harmonogram). W fazie formułowania kwestie przeformułowuje się w >problemy polityczne oraz dokonuje się oceny możliwych opcji ich rozwiązania. 24 Od lat 1960. w fazie formułowania polityk administracje rządowe często korzystają z pomocy >analizy polityki, >doradztwa na rzecz polityki, >badań na rzecz polityki, wspomaganych przez różne techniki, takie jak analiza kosztów i korzyści, analiza systemowa, badania operacyjne i inne. W fazie formułowania opracowuje się często >logikę interwencji oraz rozpatruje planowane działania w kontekście wcześniej wdrożonych i planowanych (tzw. >mieszanka polityk). Niektórzy teoretycy oprócz fazy formułowania polityki wyróżniają także fazę podejmowania decyzji. Dominujące przekonanie dotyczące relacji ministerstwo-agencje w demokracjach parlamentarnych głosi, że ministerstwa są odpowiedzialne za formułowanie polityki i bezpośrednie wsparcie polityczne, natomiast agencje wdrażają polityki. Oddzielenie polityki i działań jest głównym postulatem >Nowego Zarządzania Publicznego, wysuwanym w celu poprawy wydajności sektora publicznego [Döhler 2007]. Jednak, w rzeczywistości, agencje cieszą się, mniejszą lub większą autonomią oraz udziałem w formułowaniu polityk. Badania niemieckich agencji pokazały, że zakres autonomii zależy bardziej od charakteru zadań niż od kulturowych lub organizacyjnych cech agencji [Bach 2012]. Bibliografia Handbook of Public Policy Analysis. Theory, politics and methods. Ed. By Frank Fischer, Gerald Miller and Mara S. Sidney, CRC Press, 2007, ss. 45-51. Jack Barkenbus, Expertise and the Policy Cycle, Energy, Environment, and Resources Center, The University of Tennessee, 1998. Tobias Bach, The involvement of agencies in policy formulation: Explaining variation in policy autonomy of federal agencies in Germany, „Policy and Society” Vol. 31, Issue 3, September 2012, ss. 211–222. M. Döhler, Die politische Steuerung der Verwaltung, Nomos, Baden-Baden 2007. GLOBALNE (WIELKIE, SPOŁECZNE) WYZWANIA [Global challenges] Globalne Wyzwania – hasło w polityce popularne od II poł. I dekady XXI wieku, sformalizowane w ramach The Millenium Project ONZ, obecne w retoryce politycznej Unii Europejskiej (np . w strategii Europa 2020 [EC 2010]). Podkreśla się, że wyzwania te • • • • • • • • wykraczają poza misją jednego ministerstwa i jednego kraju, są problemem intelektualnym, są problemem praktycznym, są problemem o dużej skali, wymagają badań interdyscyplinarnych, zarówno podstawowych, jak i stosowanych; wymagają prac komitetów i debat publicznych, wymagają użycia znacznych zasobów, są problemem rozwiązywalnym [OECD 2014]. Globalne Wyzwania stały się ważnym punktem odniesienia w rozwoju międzynarodowej polityki naukowej i innowacyjnej. Podkreśla się, że zmiana klimatu, globalne zdrowie, bezpieczeństwo żywności i wiele innych globalnych wyzwań przekracza granice 25 państw. Jednak najczęściej poszczególne rządy nie może dostarczyć skutecznych rozwiązań. Globalne wyzwania wymagają współpracy w skali globalnej zarówno na poziomie krajowym i międzynarodowym. Międzynarodowo skoordynowane lub zbiorowe wysiłki N+T+I mogą wytworzyć korzyści skali. Jest to szczególnie cenne w odniesieniu do inicjatyw badawczych wymagających inwestycji wykraczających poza możliwości krajowych budżetów nauki. Świat zawsze stał w obliczu ogromnych wyzwań. Kryzysy żywnościowe wielokrotnie prowadziły do głodu i emigracji. W dzisiejszym bardziej zglobalizowanym świecie wzrósł zasięg takich wyzwań. Globalne ocieplenie i zmiany klimatyczne wpływają na całą planetę. Swobodny przepływ osób i towarów oznacza niebezpieczeństwo rozprzestrzeniania się chorób zakaźnych. Istnieją globalne wyzwania bezpieczeństwa i stabilności dostaw energii i żywności, zagrożenia chorami zakaźnymi, zmiany klimatu i utraty różnorodności biologicznej. Jednocześnie poziom wiedzy naukowej potrzebnych aby zrozumieć genezę globalnych wyzwań oraz aby opracować odpowiednie strategie i technologie nie ma precedensu. Walka z globalnymi wyzwaniami wymaga zdecydowanych działań w różnych dziedzinach polityki publicznej, często w ścisłej współpracy z sektorem prywatnym i społeczeństwem obywatelskim. Nauka, technologia i innowacje odgrywają kluczową rolę w zrozumieniu współdziałania istotnych czynników środowiskowych, technologicznych i społecznych, w ocenie ryzyka i ewentualnych niezamierzonych negatywnych skutków strategii, w tworzeniu rozwiązań. Mechanizmy międzynarodowego zarządzania dla rozwiązania globalnych problemów zależą od cech specyficznych wyzwań, ich pilności, czynników sprawczych, zaangażowanych podmiotów i ich specyficznych interesów, problemów władzy, itp. Nie ma tu prostej formuły. W przeszłości badania naukowe pozwoliły na rozumienie relacji między działaniem (np. stosowaniem freonów) a jego wpływem na środowisko (zmniejszenie grubości warstwy ozonowej) i zdrowie (zwiększenie liczby nowotworów skóry). Pięć najważniejszych problemów związanych z międzynarodowa współpracą w dziedzinie walki z globalnymi wyzwaniami określa się następująco:: • Ustalanie priorytetów. Jakie są mechanizmy określania programów i priorytetów współpracy międzynarodowej w dziedzinie N+T+I? • Finansowanie i wydatki. Jak są finansowane istniejące międzynarodowe programy N+T+I? Jakie wnioski można wyciągnąć dla przyszłej współpracy, być może na większą skalę niż w programach obecnie realizowanych? • Dzielenie się wiedzą i własność intelektualna. Jakie podejście mają organizacje międzynarodowe w kwestiach własności wiedzy gromadzonej przez międzynarodowe badania naukowe i technologiczne? Jakie są mechanizmy dzielenia się wiedzą i korzyściami? • Przenoszenie wiedzy do praktyki. Jakie mechanizmy ułatwiają szybką aplikację nowej wiedzy naukowej i technologicznej, wytworzonej dzięki wspólnym wysiłkom międzynarodowym? • Budowanie potencjału w zakresie badań i innowacji. W jakim stopniu organizacje międzynarodowe podchodzą do zadania podnoszenia potencjału N+T+I w słabszych krajach partnerskich? 26 Koordynacją badań służących walce z globalnymi wyzwaniami zajmuje się wiele organizacji międzynarodowych, np. Grupa Konsultacyjna ds. Międzynarodowych Badań Rolniczych (CGIAR), Fundacja Billa i Melindy Gates`ów, Grupa ds. Obserwacji Ziemi (GEO), Amerykański Instytut Badań nad Globalną Zmianą (IAI), Międzynarodowa Agencja Energii Atomowej (MAEA), Wspólne Inicjatywy Programowania UE, Globalny Instytut Przechwytywania i Magazynowania Węgla (Global CCS Institute). Nie zawsze rozwiązania dla globalnych wyzwań wychodziły ze współpracy międzynarodowej. Niejednokrotnie ważne odkrycia powstały w pojedynczych laboratoriach, np. tzw. złoty ryż (ryż zmodyfikowany genetycznie celem poprawy stanu odżywiania w krajach rozwijających się) był głównie owocem współpracy szwajcarskiego instytutu badawczego i niemieckiego uniwersytetu we Freiburgu [OECD 2012]. Wyzwania określone w Programie „Horyzont 2020” • Zdrowie, zmiany demograficzne i dobrostan; • Bezpieczeństwo żywnościowe, zrównoważone rolnictwo, badania morskie i morskie oraz gospodarka ekologiczna; • Inteligentny, zielony i zintegrowany transport; • działania w dziedzinie klimatu, efektywna gospodarka zasobami i surowcami; • Integracyjne, innowacyjne i bezpieczne społeczeństwa. 15 Globalnych Wyzwań ONZ ONZ-owskie 15 Globalnych Wyzwań tworzy ramy oceny globalnych i lokalnych perspektyw dla ludzkości. Ich opis wyzwań jest aktualizowany corocznie od 1996 roku: 1 . W jaki sposób można osiągnąć zrównoważony rozwój dla wszystkich z jednoczesnym przeciwdziałaniem zmianom klimatycznym? 2 . Jak każdy może mieć wystarczającą ilość czystej wody bez konfliktów? 3 . Jak można uzyskać równowagę wzrostu ludności i zasobów? 4 . Jak może prawdziwa demokracja wyłonić się z autorytarnych reżimów? 5. Jak polityki mogą w większym uwzględniać długofalowe globalne perspektywy? 6. Jak można globalna konwergencja technologii informacyjnych i komunikacyjnych służyć wszystkim? 7. Jak można wspierać etyczne gospodarki rynkowe w celu zmniejszenia przepaści między bogatymi i biednymi ? 8. Jak można zmniejszyć groźbę nowych i pojawiających się na nowo chorób i mikro-organizmów? 9. Jak można ulepszyć kompetencje decyzyjne w miarę jak zmienia się charakter pracy i instytucji? 10. Jak wspólne wartości i nowe strategie bezpieczeństwa mogą ograniczyć konflikty etniczne, terroryzm, oraz użycie broni masowego rażenia? 11. Jak można zmieniając status kobiet przyczynić się do poprawy kondycji ludzkiej? 12 . Jak można powstrzymać ponadnarodowe sieci przestępczości zorganizowanej przed przekształceniem się w coraz bardziej potężne i wyrafinowane przedsiębiorstwa globalne? 27 13. Jak można rosnące zapotrzebowanie na energię zaspokoić bezpiecznie i skutecznie? 14. Jak można przyśpieszyć dokonywanie odkryć naukowych i technologicznych, aby poprawić kondycję ludzką? 15. Jak względy etyczne mogą być bardziej rutynowo uwzględniane w decyzjach globalnych? [ONZ] Bibliografia EC, Communication From The Commission, Europe 2020. A European strategy for smart, sustainable and inclusive growth, Brussels, 3.3.2010 COM(2010) 2020 OECD 2012 Meeting Global Challenges through Better Governance. International Co-operation In Science, OECD 2014, Assessing The Impact Of State Interventions In Research – Techniques, Issues And Solutions DSTI/STP(2014)24 ONZ The Millenium Project, http://www.millennium-project.org/millennium/challenges.html HIERARCHIA DOKUMENTÓW POLITYCZNYCH Przez hierarchię dokumentów politycznych rozumie się różnice i zależności pomiędzy dokumentami wynikające z różnic: • • • • • w pozycji w hierarchii prawa (prawo międzynarodowe, >Konstytucja, >ustawy rządowe, >rozporządzenia ministerstw, >zarządzenia ministerstw, >decyzje administracyjne), szczebli formułowania i realizacji polityk (np. polityka unijna>polityki narodowe>polityki regionalne>polityki lokalne), zakresu merytorycznym polityk (ogólna polityka rządowa; polityki sektorowe i horyzontalne; polityki w ramach polityk sektorowych i horyzontalnych), horyzontu czasowego strategii (np. Długookresowa Strategia Rozwoju Kraju. Główne Trendy i Wyzwania – do 2030, >Strategia Rozwoju Kraju do 2020), zakresu i szczebla strategii rządowych (np. w Polsce Długookresowa Strategia Rozwoju Kraju do roku 2030> Strategia Rozwoju Kraju do roku 2020 (jako odpowiedź na unijną Strategię Europa 2020) >dziewięć strategii sektorowych, > Koncepcja Przestrzennego Zagospodarowania Kraju do roku 2013; >strategie rozwoju województw; >strategie rozwoju lokalnego; >strategie rozwoju powiatów i gmin). 28 Ministerstwo Infrastruktury i Rozwoju 2013 Por. też >RAMY POLITYKI; HORYZONT ANALIZY. Bibliografia Ministerstwo Infrastruktury i Rozwoju, Programowanie perspektywy finansowej 2014 -2020 Umowa Partnerstwa, grudzień 2013 r. Yinglie Zhou, Cunkuan Bao, Hierarchical methodological framework to improve Policy Environmental Assessment: Based on policy layer research, “Front. Environ. Sci. Engin. China” 2010, 4(1): 82–90. HOROZONT ANALIZY W POLITYCE Zwraca się uwagę na konieczność jednoczesnego uwzględniania różnych horyzontów czasowych w >FORMUŁOWANIU POLITYKI: Potrzeby analityczne Charakterystyka Wymagania Przykłady Foresight (długofalowy >10-30 lat) Antycypacja i przygotowanie na tak przewidywalne jak i niszczące trendy; wliczając przyszłe koszty dzisiejszych decyzji Stałe skanowanie (zbieranie informacji) i konsultacje; rozpoznawanie wzorów; analiza „słabych sygnałów”; badania prognostyczne Skanowanie widnokręgu; długofalowe szacunki budżetowe; planowanie scenariuszy Planowanie strategiczne (średnio-okresowe: 3-10 lat) Antycypacja i przygotowanie na przewidywalne trendy; priotetyzacja; wliczając przyszłe koszty dzi- Analiza historycznych danych; analiza trendów; informacje i analizy rządowe; konsultacje dotyczące warto- Programy rządowe; średniookresowe ramy budżetowe; planowanie siły roboczej; planowanie przestrzenne 29 Podejmowanie decyzji (krótkoterminowe: 1-2 lata) siejszych decyzji; zarządzanie ryzykiem ści i wyborów i inwestycyjne; strategie innowacji Szybkość reakcji; rozliczalność; zdolność określenie szczebla, na którym należy podjąć decyzję Szybki dostęp do odpowiednich informacji i analiz; umiejętność relokacji; znajomość preferencji interesariuszy Działania; roczne i średniookresowe budżety; reakcje na kryzys Internet Cykl 10-30 lat foresight Cykl 3-10 lat – strategia Cykl 5 lat – priorytety Cykl 1-2 lata – decyzje Cykl roczny – budżet państwa na naukę KLUCZOWE WYZWANIA POLITYKI NAUKOWEJ I INNOWACYJNEJ Pojęcie stosowane dla opisu konfrontacji decydentów z palącymi i zawikłanymi problemami, takimi np. jak pogodzić rosnące wymagania konkurencyjności opartej na wiedzy z zapewnieniem bezpieczeństwa socjalnego dla wszystkich obywateli (na szczeblu rządów krajowych) lub też jak jednocześnie otworzyć narodowe programy badawcze oraz traktować badania naukowe jako źródło krajowej konkurencyjności. Zazwyczaj kluczowe wyzwania wynikają z (narastających stopniowo lub radykalnych) zmian sceny geopolitycznej lub paradygmatów techno-gospodarczych. Kluczowe wyzwania różnią się od innych problemów polityki, zazwyczaj określanych w terminach „luk”, „barier”, lub „dysproporcji”, tym, że są one bardziej pilne i mają szersze konsekwencje. Kluczowe wyzwania są rozpoznawane przez >ANALIZĘ POLITYKI oraz przez narzędzia >INFORMACYJNEGO I ANALITYCZNEGO WSPARCIA POLITYKI, takie jak >FORESIGHT i >SKANOWANIE WIDNOKRĘGU, oraz uwzględniane przez >INTERWENCJĘ PUBLICZNĄ. 30 Polityka naukowa i innowacyjna mogą odegrać ważną rolę w radzeniu sobie z takimi wyzwaniami, jak: • • • Wzrost gospodarczy i zatrudnienie, Wyzwania ochrony środowiska, takich jak ograniczenie zmian klimatu i globalnej emisji gazów cieplarnianych oraz zachowanie różnorodności biologicznej Wyzwania społeczne, takie jak np. starzenie się społeczeństw, zdrowie, wykluczenie i nierówności społeczne. Por. >GLOBALNE WYZWANIA. Bibliografia IPP, Contributions to socio-economic objectives, 2014. KONTEKST TWORZENIA POLITYKI Kontekst kształtowania polityki odnosi się do zbioru czynników politycznych, społecznych, gospodarczych i kulturowych, które kształtują >PROCES POLITYCZNY . Obejmują one, między innymi, wpływ interesów; profesjonalizm i kompetencje administracji publicznej, w tym poziom korupcji; dostępność środków pieniężnych, a także ideologie i przekonania, które sprawiają, że niektóre typy interwencji uznaje się za właściwe a inne za niemożliwe. Czynniki te różnią się w poszczególnych krajach, gdyż zostały ukształtowane przez historię, oraz zmieniają się w czasie - jako takie , stanowią one wyzwanie dla polityki międzynarodowej analizy porównawczej i transferu polityki. Są one istotne w fazie >ANALIZY POLITYKI (wyjaśnianie czynników sukcesu i porażki polityki) i >FORMUŁOWANIA POLITYKI (uwzględnianie barier lub czynników ułatwiających realizację określonych celów politycznych oraz stosowanie określonych środków) [IPP 2014]. Bibliografia IPP Innovation Policy Platform, Policy making contexts, 2014-01-16 KRYTERIA DECYZJI W NAUCE Problem kryteriów decyzji finansowania badań i prac rozwojowych na ich różnych szczeblach (rządu, przemysłu, uczelni, pojedynczych firm, placówek naukowych oraz samych badaczy) jest bardzo złożony. Decyzje o podziale funduszy pomiędzy rywalizującymi politykami, programami i projektami badawczymi to kamień węgielny polityki naukowej. Problem wyboru wyłania się na każdym szczeblu nauki. Czy powinno się zbudować akcelerator elektronów czy też akcelerator protonów? Czy walcząc z rakiem powinniśmy w większym stopniu finansować badania nad wirusami czy też badania nad środowiskowymi substancjami rakotwórczymi? [Ziman 1992] Unika się podawania reguł ważnych dla różnych krajów i okresów, dyscyplin i sektorów przemysłu. Niemniej, zwraca się m.in. uwagę na następujące problemy. 31 • • • Problem skali podejmowanej działalności. Planując podjęcie realizacji jakiegokolwiek projektu badawczego należy przede wszystkim ustalić, czy istnieje w nim „poziom krytyczny” zasobów koniecznych dla jego powodzenia. Problem organizacji badań i prac rozwojowych. Gdy badania mają służyć określonym celom i użytkownikom, winny one być zorganizowane i prowadzone zgodnie z (zewnętrznymi) celami i w stałej łączności z (przyszłymi) użytkownikami. Udział menadżerów marketingu w różnych fazach prac B+R znacznie zwiększa prawdopodobieństwo sukcesu projektu. Problem związku projektu z już istniejącą i dostępną wiedzą. Każdy menadżer powinien ustalić, czy nie zdobędzie potrzebnej wiedzy szybciej i taniej przeprowadzając text mining lub nabywając ją od firm konsultingowych, względnie też kupując inną firmę, know-how albo licencję (praktyki „otwartej innowacji”) [Freeman 1992; Ziman 1992]. Zwraca się uwagę, że, w uproszczeniu, podziałem pieniędzy rządzą trzy zasady. Pierwsza z nich, to inercja. Bardzo trudno zmienić podział pieniędzy na pola badań. System badań ma w sobie mnóstwo oporu przeciwko zmianom. Istnieje zjawisko inercji systemu finansowania. Zmiana polegająca na przesunięciu pieniędzy pomiędzy dyscyplinami na ogół możliwa jest jedynie gdy nowy minister podeprze się wiarygodnym raportem na początku swego rządu. Radom ds. badań niesłychanie trudno zmienić proporcje między różnymi dyscyplinami. Druga zasada to „prawo proporcjonalności”, które mówi, że popyt na pieniądze rośnie wraz z liczbą badaczy. Trzecia zasada, równości, głosi, że badacze oczekują równego finansowania nawet gdy potrzeby finansowe ich dyscyplin są nieporównywalne. [Por. van Duinen 2002]. Podkreśla się, że szczególnie trudno oceniać projekty badawcze. Choć na papierze brzmią one przekonywująco, są z istoty swojej niepewne: bardziej przypominają loterię niż bezpieczną inwestycję. Wybór pomiędzy nimi jest trudny, gdyż każdy z nich może wydawać się równie atrakcyjny, a projekt, który nie niesie z sobą ryzyka porażki, nie jest w ogóle godny poparcia. Jednym z głównych zagadnień polityki naukowej jest pytanie, czy istnieją ogólne kryteria podejmowania decyzji przy podziale funduszy. Kryteria ekonomiczne mają zastosowanie jedynie w końcowych stadiach prac rozwojowych; obliczenia kosztów i nakładów dają natomiast tylko niewielką pomoc w badaniach nastawionych na określony cel (mission-oriented R&D) oraz są całkowicie niewiarygodne w odniesieniu do badań podstawowych i strategicznych (tj. badań podstawowych podejmowanych w nadziei na pomoc w stworzeniu nowego produktu rynkowego). Czy zatem istnieją jakieś jakościowe, racjonalnie uporządkowane zasady wyboru pomiędzy porównywalnymi projektami badawczymi? Kryteria takie zaproponował w roku 1963 Alvin Weinberg. Podzielił je na zewnętrzne i wewnętrzne. Kryteria zewnętrzne odpowiadają na następujące pytania: Czy proponowane badania mają potencjalne zastosowania o dużej wartości społecznej? Czy badania te prowadzą do naprawdę istotnych ulepszeń istniejących lub przyszłych technik? Czy rozwój pola badawczego, w którym mieści się projekt, ma istotne następstwa dla rozwoju innych pól i dyscyplin naukowych? 32 Kryteria wewnętrzne odpowiadają na pytania: Czy temat dojrzał do opracowania? Czy jest coś sensownego do roboty na polu badawczym, z którym się ten temat wiąże? Czy przedmiot pracy nie jest zbyt banalny lub zbyt wyeksploatowany? Czy proponowany zespół badawczy ma wystarczające kompetencje? Kryteria Weinberga, choć bardzo ogólne, dają jednak wartościowe wytyczne dla polityki naukowej. Dwa pierwsze kryteria zewnętrzne – wartości społecznej i technologicznej – mają największe zastosowanie przy ocenie prac rozwojowych oraz w badaniach nastawionych na określony cel (mission-oriented R&D). Są one przekonywujące i zrozumiałe dla osób spoza środowiska naukowego. Mają jednak bardzo ograniczone zastosowanie przy ocenie badań podstawowych oraz strategicznych. Trzecie kryterium zewnętrzne – wartości naukowej – kładzie nacisk na postęp nauki jako takiej i nie bierze pod uwagę kwestii pożytku badań dla gospodarki i społeczeństwa. Kryterium to wprowadza jednak ważną korektę do – dominującej do lat 1960. – postawy indywidualizmu uczonych, którzy ograniczali pole swoich zainteresowań do zakresu swoich ścisłych kompetencji, inne pola badawcze traktując jako "zewnętrzne" i pozbawione znaczenia dla ich własnych badań. Ponieważ rozwój nauki zależy od krzyżujących się powiązań pomiędzy różnymi specjalnościami badawczymi, kryterium wartości naukowej jest ważną wskazówką dla strategii rozwoju badań podstawowych. Kryteria wewnętrzne stosują od dawna recenzenci indywidualnych projektów badawczych. W przeciwieństwie do kryteriów wewnętrznych, przeznaczonych jedynie dla znawców danej specjalności, kryteria zewnętrzne opracowano dla grup recenzentów złożonych nie tylko ze specjalistów ocenianej problematyki, ale także z ekspertów sąsiednich pól badawczych oraz z przedstawicieli użytkowników. Criteria for Scientific Choice. Criteria for Scientific Choice to tytuł artykułu Alvina Weinberga (“Minerva” 1:1963, z. 2, ss. 159-171), uznawanego za klasyczną i najczęściej cytowaną pozycję z badań nad polityką naukową, nazwa debaty sprowokowanej przez ten artykuł, nazwa publikacji zbierającej głosy w dyskusji, oraz tytuły innych artykułów – Weinberga i innych uczonych – nawiązujących do jego tez. Oddziaływanie tez Weinberga (wygłoszonych po raz pierwszy w formie wykładu w roku 1961) było bardzo duże; wywołały one dyskusję prowadzoną na łamach „Minerwy”; dyskusję tę opublikował w formie książkowej w roku 1968 redaktor naczelny „Minerwy” Edward Shils. Dyskusja o kryteriach nie ograniczyła się do łamów „Minerwy”; pod wpływem impulsu, jakim był artykuł Weinberga, podjęto ją w wielu krajach na łamach różnych czasopism. Zasięg dyskusji był tak duży, że doczekała się ona osobnej bibliografii [Vlachy 1982]. Co więcej, oddziałała silnie na praktykę administracyjną w różnych krajach; jako przykład bezpośredniego wpływu inicjującego artykułu Weinberga można przytoczyć Information for Reviewers amerykańskiej National Science Foundation. Kryteria Weinberga, które doczekały się kilku przedruków, rozwijano i modyfikowano, a także poddawano formalizacji; dość wspomnieć tu podręcznik UNESCO Method for priority determination in science and technology (Paryż 1968). Wielokrotnie do dyskusji włączał się sam jej inicjator, rozszerzając lub komentując swoje propozycje. 33 Dziś kryteria Weinberga stały się dobrem publicznym, weszły do krwiobiegu polityki naukowej [Weinberg 1991]. Dlaczego sformułowanie kryteriów jest ważne. Aby uzasadnić znaczenie kryteriów Weinberg sięga po kilka argumentów. Pierwszy argument dotyczy zawodności wyborów dokonywanych przez panele ekspertów. Raporty dotyczące stanu dyscypliny dokonywane przez uczonych uprawiających tę dyscyplinę są zawsze do siebie podobne, bez względu na kraj i rodzaj specjalności: dyscyplina jest bardzo obiecująca; jej znaczenie dla kultury, gospodarki, społeczeństwa nie do przecenienia; badacze - wybitni; potrzeby - wielkie; sumy konieczne dla zaspokojenia potrzeb - wysokie; odmowa spełnienia żądań - szkodliwa dla nauki i kraju. Raporty takie są sygnowane przez czołowe autorytety dyscypliny, co ma być gwarancją ich wiarygodności oraz zabezpieczeniem przed krytyką: kwestionowanie zawartych w nich wniosków, mówią autorzy, dowodzi niekompetencji krytyków - tylko uznane autorytety mają dostateczny zakres wiedzy, by ocenić stan i perspektywy dyscypliny, jaką uprawiają; każda dyscyplina tworzy własny świat, trudny do przeniknięcia dla osób z zewnątrz. Choć trzeba się zgodzić, że uznanie prawa do formułowania oceny przez niespecjalistów mogłoby obniżyć obowiązujące w dyscyplinie standardy metodologiczne, to z drugiej jednak strony opinie ekspertów stają się w ten sposób nieweryfikowalne. Uczeni stają się świadkami i sędziami w swojej sprawie, co jest niezgodne z zasadami regulującymi życie publiczne. Dyscyplina (pole badawcze) może mieć charakter schyłkowy, a liczba publikacji (na świecie) kurczyć się; badacze mogą być przeciętni; problemy, jakie stawiają - wtórne, a stosowane koncepcje - zapożyczone; fundusze przeznaczone na jej rozwój (w dużym stopniu) marnotrawione; odmowa spełnienia żądań - korzystna dla nauki jako całości, gdyż umożliwiająca skierowanie funduszy na rozwój dyscyplin o większym potencjale badawczym i lepszych perspektywach. Opinie uczonych o poziomie, potrzebach i perspektywach dyscypliny, jaką uprawiają, mogą być weryfikowane za pomocą metod ilościowych (badania bibliometryczne), jak i jakościowych (przegląd dokonany przez zagranicznych ekspertów). Nawet jednak łączne zastosowanie obu metod (co pozwoliłoby usunąć "skrzywienia", jakie każda z nich powoduje) nie dostarczy przesłanek dla decyzji o podziale funduszy na naukę w skali całego kraju, gdyż w dobie „wielkiej nauki” jakość badań w danej dyscyplinie jest wprawdzie kryterium koniecznym, ale nie wystarczającym. Modele zarządzania nauką: leseferyzm a sterowanie przez centrum decyzyjne. Drugi argument Weinberga dotyczy zmian charakteru badań naukowych. Dopóki (tak jak przed II Wojną Światową) posad w nauce było stosunkowo niewiele, kryteria rekrutacji do zawodu były ostre, potrzeby poszczególnych dyscyplin (w porównaniu z kosztami uprawiania "wielkiej nauki") - umiarkowane, opinie pochodzące od 34 uczonych o potrzebach finansowych uprawianych przez nich dyscyplin miały często moc wiążącą. Jak pisze Alvin Weinberg, w „małej nauce” obowiązywał opisany przez Michaela Polanyi`ego [Polanyi 1962] model "rzeczpospolitej uczonych", w której nauką rządzi intelektualny "wolny rynek", polityka naukowa zależy od współgrania tysięcy niezależnych decyzji naukowców, a badania naukowe są prowadzone na zasadach nieplanowanej rywalizacji pomiędzy różnymi rodzajami projektów badawczych, z których każdy domaga się uznania środowiska naukowego według standardów metodologii nauk. Opisane tu zasady "rzeczpospolitej uczonych" mogłyby nadal obowiązywać w "małej nauce" i na poziomie indywidualnych projektów badawczych, pisze Weinberg, a jej regulatorem mogłoby być nadal peer review. Odkąd jednak o wiele więcej funduszy płynie na finansowanie "wielkiej" niż "małej" nauki, strategiczne decyzje nie powinny zależeć jedynie od kryterium jakości uprawiania nauki oraz od opinii peers (ekspertów z tej samej dziedziny). Model leseferyzmu traci tutaj rację bytu; nieodzowne stają się elementy zarządzania przez centrum decyzyjne. Aby lepiej objaśnić tę kwestię, wprowadza Weinberg rozróżnienie pomiędzy uprawianiem nauki a zarządzaniem nauką. Uprawianie nauki a zarządzanie nauką. Działalność naukowa obejmuje zarówno uprawianie nauki, jak i zarządzanie nią. Przez uprawianie nauki Weinberg rozumie prowadzenie badań: dokonywanie pomiaru i obserwacji, układanie teorii, interpretowanie i przekazywanie wyników badań; przez zarządzanie - sztukę wybierania zagadnień wartych zbadania. Inaczej mówiąc, zarządzanie dotyczy kwestii co, uprawianie nauki - jak badać; administrowanie jest rodzajem strategii, uprawianie nauki - taktyki. Rozróżnienie pomiędzy administrowaniem a uprawianiem nauki ma zastosowanie na każdym szczeblu nauki. Każdy uczony musi na własną rękę decydować, jakie badania powinien podjąć; następnie, musi te badania przeprowadzać. Jest zatem zarówno "praktykiem", jak i "administratorem nauki" w jednej osobie. Suma jego indywidualnych decyzji świadczy o jego naukowym smaku. Dyrektor badań musi decydować, jakie projekty skierować do realizacji, a jakie utrącić. Przedstawiciel rządowej administracji musi decydować nie tylko, jakie programy wspierać, ale i komu je powierzyć: uniwersytetowi, laboratorium rządowemu czy laboratorium przemysłowemu. Suma oddzielnych decyzji naukowców, dyrektorów oraz urzędników rządowych określa krajową politykę naukową. Rozdział między uprawianiem a administrowaniem nauki powiększa się w miarę: • przechodzenia na coraz wyższe szczeble decyzyjne (gdy rozważamy hierarchię decyzji o nauce); • postępu transformacji (od końca II Wojny Światowej) „małej nauki” w „wielką naukę” (gdy rozważamy historyczny rozwój organizacji nauki). Typy decyzji o nauce. Decyzje administratorów nauki na szczeblu rządowym Weinberg dzieli na naukowe i instytucjonalne. 35 Pierwsze polegają na odpowiedzi na pytanie: jak rząd powinien dzielić środki pomiędzy różnymi, często nieporównywalnymi dyscyplinami (np. biologią molekularną a fizyką wysokich energii), a zwłaszcza pomiędzy różnymi gałęziami dyscyplin? Drugie polegają na odpowiedzi: jak rząd powinien dzielić swoje fundusze pomiędzy instytuty państwowe, uczelnie i przemysł, tj. pomiędzy różne sektory nauki? Oprócz administratorów nauki decyzje o nauce podejmuje też społeczeństwo (reprezentowane przez rząd i parlament). Decyzje te dotyczą przede wszystkim wielkości państwowego budżetu na naukę. Propozycje Weinberga. Odpowiednio do tych trzech postawionych tutaj pytań Weinberg rozwija najogólniejsze kryteria pomocne w ustaleniu na nie odpowiedzi. Problem decyzji naukowych podejmuje w artykule Criteria for Scientific Choice, "Minerva" 1:1963, z. 2, s. 159-171. Problem decyzji instytucjonalnych - w artykule Criteria for Scientific Choice II: The Two Cultures, "Minerva" 3:1964, z. 1, s. 3-14. Problem decyzji dotyczących nakładów na naukę z budżtu państwa - w artykule The Philosophy and the Practice of National Science Policy [w:] Decision Making in National Science Policy, ed. A. de Reuck, M. Goldsmith, J. Knight, Londyn 1968, s. 26-43. Celem artykułów Weinberga jest pomoc w konceptualizacji debaty nad postawionymi tu pytaniami, a nawet więcej, próba sformułowania kryteriów służących ustaleniu na nie odpowiedzi. Autor problem zasad podziału państwowych funduszy na naukę rozpatruje z filozoficznego punktu widzenia: szuka ogólnych, czysto racjonalnych kryteriów, które mogłyby być stosowane we wszystkich krajach. Zdaje sobie przy tym sprawę, że oprócz logiki na decyzje o nauce wielki wpływ ma też historia (ciążenie tradycji) i polityka (układ sił i gry interesów, w środowisku naukowym i poza nim). Kryteria naukowe (dotyczące podziału funduszy pomiędzy dyscyplinami naukowymi). Często w sytuacji wymagającej wyboru administrator nie zna wszystkich opcji i przez to nie może dokonać wyboru w sposób przemyślany. Inaczej jest z decyzjami o nauce, które najczęściej podejmuje się znając wszystkie opcje. Zobowiązuje to do dokonania wyboru w sposób systematyczny. Ponieważ tak wiele dyscyplin - pisze autor - zalicza się obecnie do "wielkiej nauki" (a zatem wymagają one wysokich nakładów, skomplikowanych urządzeń oraz wielkich zespołów badawczych), strategiczne wybory pomiędzy dyscyplinami powinny być przeprowadzane w sposób możliwie świadomy oraz oparty na wyraźnie wyeksplikowanych przesłankach. Weinberg proponuje dwa kryteria administracyjnych decyzji o podziale funduszy na naukę - wewnętrzne i zewnętrzne (te ostatnie dzieli jeszcze na kryteria wartości technologicznej, znaczenia społecznego oraz znaczenia naukowego). Kryteria wewnętrzne odpowiadają na pytania: - czy pole badawcze jest dojrzałe? 36 - czy naukowcy są rzeczywiście kompetentni? Na oba te pytania mogą odpowiedzieć jedynie eksperci, którzy bezpośrednio znają swoje pole badawcze oraz pracujących na nim badaczy. Kryteria wewnętrzne stosują najczęściej panele decydujące o grantach; pierwsze pytanie, jakie sobie zadają, brzmi: jak kompetentnym uczonym jest wnioskodawca? Gdy te kryteria wewnętrzne nie są spełnione, nie ma sensu stosować następnych, gdyż wysiłek badawczy będzie prawdopodobnie bezowocny. Kryteria zewnętrzne wyrastają spoza nauki lub spoza poddawanego ocenie pola badawczego. Podczas gdy intencją kryteriów wewnętrznych jest ocena, czy prowadzona działalność naukowa jest efektywna pod względem naukowym, intencją kryteriów zewnętrznych jest ocena, czy dane badania, jeśli zakończą się powodzeniem, będą użyteczne. Kryteria zewnętrzne: znaczenie technologiczne Kwestia, czy cel technologiczny jest sam w sobie wartościowy, musi być rozstrzygnięta częściowo dzięki ocenie danej technologii: - czy dana technologia jest dojrzała do eksploatacji? - czy badacze, którzy ją rozwijają, są kompetentni?, częściowo zaś dzięki odpowiedzi na pytanie: - czy cele społeczne, którym ma służyć technologia, są same w sobie wartościowe? Przykładowo, badania nad plazmą wysokich temperatur miały wielkie znaczenie technologiczne, odkąd mogły prowadzić do kontrolowanego połączenia energii. Bardzo często na pytania te trudno odpowiedzieć, pisze Weinberg, a czasami odpowiada się na nie niewłaściwie. Kryteria zewnętrzne: znaczenie społeczne Innym zewnętrznym kryterium jest znaczenie społeczne, czyli zastosowanie badań w działaniach służących rozwojowi gospodarczemu i społecznemu lub pomnażaniu wartości cenionych przez społeczeństwo. Przykładowo, ekonomia może być wysoko ceniona, gdy proponuje środki zaradcze pozwalające osiągnąć pełne zatrudnienie, wzrost gospodarczy oraz stabilne ceny. Kryteria zewnętrzne: znaczenie dla nauki Oba wymienione wyżej kryteria zewnętrzne - znaczenia technologicznego oraz znaczenia społecznego - pochodzą spoza nauki; odnoszą się one do nauk stosowanych, oraz do tych badań podstawowych, które są zorientowane (przynajmniej ogólnie) na pewien cel technologiczny lub społeczny. U ich podstaw leży praktyczna użyteczność; stosując te kryteria, wspieramy projekty badawcze o społecznej lub technologicznej użyteczności. W przeciwieństwie do nich, trzecie kryterium wyrasta wewnątrz nauki, ale na zewnątrz ocenianego pola badawczego; tylko to kryterium stosuje się jedynie do nauk 37 podstawowych. Miarą wartości naukowej pracy badawczej w naukach podstawowych winien być zakres, w jakim wpływa ona i oświetla sąsiednie dyscypliny naukowe. Aby lepiej uzasadnić swoje propozycje, Weinberg powołuje się na opinię Johna von Neumanna: „W miarę jak matematyka odpływa daleko od swych empirycznych źródeł, lub więcej, jeśli jest ona drugim lub trzecim pokoleniem tylko pośrednio inspirowanym przez idee pochodzące z rzeczywistości, narażona jest na bardzo poważne niebezpieczeństwo. Staje się ona coraz bardziej i bardziej czystą "sztuką dla sztuki". Nie musi to być złe, jeśli tylko dyscyplina jest otoczona przez współzależne tematy, posiadające nadal bliższe empiryczne powiązania lub jeśli dyscyplina pozostaje pod wpływem człowieka o nadzwyczajnie rozwiniętym smaku. Istnieje jednak wielkie niebezpieczeństwo, że przedmiot będzie rozwijany po linii najmniejszego oporu, strumień, daleko od swego źródła, będzie się dzielił na niezliczoną ilość mało znaczących strumyczków, i w rezultacie dyscyplina stanie się niezorganizowaną masą szczegółów i zagmatwań. Innymi słowy, daleko od swych empirycznych źródeł lub po usilnym hodowaniu abstraktów, przedmiotowi matematyki zagraża degeneracja. W fazie narodzin styl jest zwykle klasyczny; oznaki przechodzenia w barok są objawem nadchodzącego niebezpieczeństwa [Von Neumann 1946].” Bardzo wiele przykładów świadczy, pisze Weinberg, że uwagi von Neumanna o matematyce mogą odnosić się także do nauk empirycznych. Podstawowe nauki empiryczne, które zbytnio oddalają się od sąsiednich nauk, w których są osadzone, mają tendencję do barokizacji. Odpowiedniość (relevance) w stosunku do innych nauk jest przeto ważną miarą naukowej wartości każdego pola nauk podstawowych. Trzeba przy tym stwierdzić, że pewne specjalności dają większy wkład w zrozumienie świata niż inne. Pole badawcze, które pełni rolę „wąskiego gardła” w zrozumieniu innych pól, zasługuje na większe wsparcie niż pola, które są izolowane od pozostałych. Odkrycia, które uznano za najważniejsze w nauce, jak m.in. odkrycie promieni X, najsilniej zarazem oddziałały na otaczające dziedziny. Weinberg proponuje zatem, aby znaczenie naukowe pola badawczego było mierzone wielkością 1)wkładu, 2)pomocy w zrozumieniu zagadnień, 3)wpływu na wzrost spójności sąsiednich pól. Kryteria instytucjonalne (dotyczące podziału funduszy pomiędzy różnymi sektorami nauki). Na jakich z kolei kryteriach powinniśmy oprzeć się dokonując podziału funduszy państwowych pomiędzy różnymi sektorami nauki? Względnie prosty jest podział funduszy pomiędzy laboratoriami rządowymi. Laboratoria te są zwykle powoływane nie tyle dla uprawiania określonych pól badawczych, co dla pełnienie społecznych misji (w wyjątkowych przypadkach - badań nad energią atomową lub nad przestrzenią kosmiczną zachodzi zbieżność pomiędzy misją a polem badawczym). Podział funduszy pomiędzy nimi następuje najczęściej → zgodnie ze strukturą rządu, czyli strukturą organów centralnych, którym podlegają laboratoria; 38 → nie tyle według dyscyplin, ile według różnych celów polityki państwowej, takich jak m.in. rozwój energii nuklearnej lub wzrost innowacyjności gospodarki. Wysokość dotacji zależy od wagi przypisywanej przez rząd każdemu z celów. Podział według priorytetów państwa i zgodnie ze strukturą rządu jest łatwiejszy i bardziej naturalny niż podział pomiędzy pola badawcze. Pola badawcze (inaczej niż laboratoria) są abstrakcjami i nie posiadają aparatu do pozyskiwania pieniędzy. W przeciwieństwie do podziału funduszy wewnątrz sektora państwowego, w wielu krajach duże problemy stwarza podział rządowych dotacji pomiędzy sektorem państwowym a sektorem szkolnictwa wyższego. Weinberg uważa, że przed przystąpieniem do racjonalizacji systemu podziału funduszy pomiędzy uczelnie i laboratoria, powinno się najpierw odpowiedzieć na pytanie: co jest podstawowym celem obu tych instytucji, tak różnych lecz uzupełniających się? Według autora głównym celem laboratoriów (oprócz kilku ustanowionych dla uprawiania takich dziedzin wielkiej nauki, jak fizyka wysokich energii lub badania kosmiczne) jest wykorzystywanie nauki i techniki dla rozwiązywania problemów społecznych, podczas gdy głównym celem uczelni jest kształcenie. Nie oznacza to, że w zakres misji uniwersytetów nie wchodzą zadania rozwoju wiedzy lub że laboratoria rządowe nie powinny uczestniczyć w kształceniu lub uprawianiu badań podstawowych. Niemniej Weinberg uważa, że gdziekolwiek pojawia się konflikt pomiędzy laboratorium lub uniwersytetem, przede wszystkim powinno się brać pod uwagę misję instytucji pozostających ze sobą w konflikcie. W chwili gdy uzgodni się w ten sposób podstawowy cel laboratorium rządowego i uniwersytetu, należy postawić następne pytanie: Jak wiele badań podstawowych potrzeba w laboratoriach rządowych dla pełnienia ich misji - tzn. rozwiązywania wielkich problemów, postawionych przez rząd; i jak wiele badań podstawowych potrzeba na uczelniach dla pełnienie ich misji, tj. kształcenia? W wypadku laboratorium rządowego odpowiedź na pytanie brzmiałaby: "względnie stała część budżetu przeznaczonego dla osiągnięcia (konkretnego) celu końcowego"; wielkość owej części powinna być przedmiotem dyskusji pomiędzy laboratorium a agencją, której ono podlega, i zależeć od oceny wagi badań podstawowych dla realizacji zadania, nałożonego laboratorium przez agencję. Nie oznacza to, pisze Weinberg, umniejszania znaczenia badań podstawowych w laboratoriach: pełnią one rolę okna na całą naukę oraz zapewniają atmosferę i standard badań, których często brakuje w laboratoriach ograniczonych do uprawiania jedynie badań stosowanych. W wypadku uniwersytetu za dobry punkt odniesienia przy ustalaniu pożądanego poziomu badań podstawowych uważa autor liczbę absolwentów. Weinberg jest przy tym zdania, że badania podstawowe w laboratoriach rządowych powinny być rozważane (i finansowane) oddzielnie w stosunku do badań podstawowych uprawianych na uczelniach, skoro cele obu instytucji są różne. 39 A zatem, autor proponuje rozwiązanie postawionego problemu przez odniesienie go do celu instytucji (zakładając, że cele te są jasno określone). Kryteria oceny wielkości funduszy na naukę płynących z budżetu państwa. Na jakich kryteriach, wreszcie, powinniśmy oprzeć się oceniając wielkość nakładów na naukę z budżetu państwa (w przeciwieństwie do innych pozycji budżetowych, takich jak edukacja, zdrowie publiczne, pomoc społeczna i inne)? Zdaniem Weinberga powinno się tu zastosować podobne kryteria, jak przy ocenie podziału funduszy pomiędzy współzawodniczące dyscypliny. Naukowcy lubią wierzyć, pisze autor, że uprawianie nauki jest najwyższym dobrem społecznym, lecz opinia ta wcale nie jest sama przez się zrozumiała. Społeczeństwo wcale nie jest zobowiązane wspierać naukowców, nawet tych najlepszych, bardziej niż pisarzy lub artystów. Zwiększanie liczby naukowców ponad rozsądne granice wcale nie musi leżeć w interesie społecznym; rozwijając się, instytuty medyczne i prawnicze mogą odciągać od praktyki zawodowej najzdolniejszych absolwentów uniwersytetów. Nauka powinna szukać społecznego wsparcia na innej podstawie niż tylko dlatego, że jest dojrzała oraz uprawiana kompetentnie; jest niesłuszne, gdy naukowcy oczekują od społeczeństwa funduszy na badania tylko dlatego, że są one dla nich wspaniałą rozrywką. Poszukując usprawiedliwienia dla finansowania nauki, pisze Weinberg, w sposób nieunikniony rozważamy zewnętrzne kryteria ważności nauki - zewnętrzne w stosunku do nauki w ogóle lub w stosunku do danej dyscypliny. Społeczeństwo (reprezentowane przez parlament, środki masowego przekazu, opinię publiczną) wspierając naukę zakłada, że jest ono przedsięwzięciem prowadzonym w sposób kompetentny i odpowiedzialny. Jest usprawiedliwione, gdy szuka uzasadnień dla swych nakładów na naukę. Społeczeństwo oczekuje od nauki, by w jakiś sposób służyła pewnym celom społecznym, leżącym poza nauką. Oceniając rolę nauki w stosunku do innych dziedzin aktywności, stosuje ono wobec niej kryteria pochodzące spoza niej samej (ogólnie mówiąc, kryteria dotyczące wartości społecznych). Weinberg argumentuje, że problem, jaką część budżet państwa powinien przeznaczać na naukę, jest źle postawiony, gdyż pojęcie "nauki" (jako takiej) jest mylące; nauki podstawowe i nauki stosowane nie powinny być traktowane jako konkurenci do tych samych funduszy, gdyż ich racje bytu są zdecydowanie różne. Nauki stosowane uprawia się, pisze autor, dla osiągnięcia pewnych celów leżących zwykle poza nauką. Gdy decydujemy, jakie fundusze powinniśmy przeznaczyć na realizację projektu badawczego w naukach stosowanych, choćby implicite oceniamy, czy cel ten możemy lepiej i szybciej osiągnąć dzięki badaniom naukowym, czy też w inny sposób. Badania podjęte dla uzyskania konkretnego, uznanego za pożądany, celu, powinniśmy finansować z funduszy przeznaczonych na realizację tego celu, a nie z "budżetu nauki". Jedynie badania naukowe prowadzone dla osiągnięcia celu leżącego wewnątrz samej nauki powinny być finansowane z budżetu nauki. Rozwiązanie to, pisze autor, miałoby tę wartość, że pozwoliłoby na lepszą kontrolę badań w laboratoriach państwo40 wych; inicjowane dla uzyskania konkretnego celu, badania te mają z czasem tendencję do autonomizacji. Autor ma jednak świadomość, że rzeczywistość nie jest aż tak prosta, jak w przedstawionym przez niego schemacie. Po pierwsze, nauki podstawowe i stosowane rywalizują między sobą o wykwalifikowany personel; jakiekolwiek decyzje podjęte na rzecz jednych, mają więc konsekwencje dla poziomu i możliwości drugich. Po drugie, cele każdej z gałęzi badań stosowanych mają tendencję do rozpraszania się. Każda z wielkich "zorientowanych na misję" agencji rządowych inicjuje badania po to, aby osiągnąć pewien konkretny cel. Jednakże, w miarę upływu lat, cel ten staje się coraz bardziej mglisty, a badania prowadzone są w coraz większym stopniu dlatego, że są interesujące same dla siebie. Po trzecie wreszcie, motywy podejmowania badań podstawowych rzadko wynikają wyłącznie z czystych zainteresowań naukowych. Obok pobudek wewnętrznych, które nasuwa sama logika sytuacji problemowej (uczony kieruje się często poczuciem estetycznym, szuka intelektualnego porządku, jest zainteresowany nie tyle poznaniem odpowiedzi, co sprawdzeniem, czy da się ją uzyskać), źródłami inspiracji dla niego są też sąsiednie dyscypliny, nauki stosowane, otoczenie. Mimo tych wszystkich zastrzeżeń Weinberg uważa, że proponowana przezeń zasada, aby finansować badania stosowane nie z budżetu nauki, a z funduszy przeznaczonych na rozwój tych dziedzin życia gospodarczego i społecznego, w którym mają one zostać wdrożone, jest słuszna, gdyż pozwala na ich lepszą kontrolę. Gdy idzie o kwestię, jaka część funduszy dziedzinowych powinna być kierowana na badania naukowe, Weinberg sądzi, że jest to problem, którego nie mogą rozstrzygać sami uczeni. Uczeni zapytywani, jak należy rozwiązać złożone problemy społeczne z reguły odpowiadają, że dzięki zwiększeniu zakresu prowadzonych badań (podobnie jak fizycy zapytywani o priorytety w nauce, postulują więcej fizyków, a biologowie więcej biologów). Przecenianie możliwości badań naukowych jako techniki rozwiązywania trudnych kwestii społecznych nie ma jednak więcej racji niż niedocenianie ich. Tak więc, podobnie jak personel decydujący o finansowaniu pewnej dyscypliny naukowej powinien składać się z przedstawicieli sąsiednich dyscyplin, tak i panel decydujący o wielkości funduszy na naukę winien składać się zarówno z uczonych, jak i z zainteresowanych badaniami przedstawicieli innych dziedzin życia społecznego. Gdy idzie o kwestię, w jakim zakresie finansować z budżetu państwa nauki podstawowe, tj. nauki, których potrzeby według Weinberga nie da się uzasadnić inaczej niż argumentem, że zaspokajają one ciekawość, stanowisko autora jest następujące. Niektóre fragmenty nauk podstawowych są bezpośrednio ważne dla badań stosowanych; powinny być one finansowane z funduszy nauk stosowanych; w skali całego kraju, zawsze wtedy, gdy badania podstawowe wiążą się ze stosowanymi, winny być one traktowane jako narzuty na kosztach rozwoju nauk stosowanych. 41 W odniesieniu do pól badawczych bardziej odległych od zagadnień nauk stosowanych, rozwijanych jedynie dlatego, że są interesujące, powinny być one (podobnie jak muzyka, literatura czy film) finansowane jako gałąź kultury. Nie wolno jednak zapominać, że nawet najbardziej odległe od praktycznych zastosowań specjalności warunkują poziom badań w pozostałych naukach podstawowych i stosowanych oraz są współzależne od całości wiedzy naukowej. Patrząc jeszcze ogólniej można by traktować badania podstawowe jako narzuty na kosztach całego krajowego wysiłku w dziedzinie nauki i techniki. Podsumowując, Alvin Weinberg postawił na początku pytanie, na jak wiele "nauki jako takiej" może sobie społeczeństwo pozwolić. Rozwijając to pytanie, autor dokonywał kolejnych redukcji nauki, która współzawodniczy o publiczne fundusze z innymi dziedzinami życia. Po pierwsze, sprowadził koszty nauk stosowanych do narzutów na kosztach zadań, którym mają one służyć; Po drugie, sprowadził koszty mission-related basic science do narzutów na kosztach mission-related applied science; Po trzecie, sugerując, aby "czyste" badania podstawowe traktować jako narzuty na kosztach całego wysiłku w dziedzinie nauki i techniki. Weinberg nie odrzuca w ten sposób poglądu o naukach podstawowych jako części kultury (w świetle których współzawodniczyłyby one o fundusze z innymi rodzajami działalności kulturalnej). Uważa jednak, że traktowanie ich w kategorii narzutów na kosztach realizacji zadań służących praktyce lepiej uzasadnia ich żądania, niż traktowanie na podobieństwo sztuki. Komentarze dotyczące Kryteriów… z punktu widzenia zarządzania nauką. Criteria for scientific choice obrosły wieloma komentarzami, zarówno Weinberga, jak i uczestników debaty. 1. Istota trudności, przed jakimi staje administrator nauki Administracja musi decydować nie po, a przed podjęciem badań. Ewaluacja prospektywna jest wszelako o wiele trudniejsza od ewaluacji retrospektywnej. Dopiero w następstwie dokonanych odkryć okazuje się bowiem, że pewna dyscyplina może mieć dalekosiężne zastosowania. Kto był na tyle mądry, pisze Weinberg, by przewidzieć, że odkrycie magnetycznego nuklearnego rezonansu Purcella i Blocha stanie się ważnym narzędziem analitycznym w biochemii lub że studia radiochemiczne Hahna i Strassmanna będą prowadzić do energii nuklearnej? Kto był w stanie przewidzieć zastosowania lasera? Wypadki takie występują jednak zdaniem Weinberga rzadko, a decyzje a priori muszą być podejmowane stale. 2. Główna wartość kryteriów Kryteria decyzji wówczas są najbardziej użyteczne, gdy mają zastosowanie do (pozornie) nieporównywalnych sytuacji. Takie właśnie kryteria potrzebne są administrato- 42 rom, dzielącym fundusze pomiędzy różnymi dyscyplinami. Weinberg sądzi, że jego propozycje zaspakajają te potrzeby. 3. Zastosowania kryteriów Jedno z możliwych zastosowań swoich kryteriów (zwłaszcza kryterium znaczenia dla nauki) widzi autor w dyskusjach nad możliwością zaprzestania dotacji dla schyłkowych pól badawczych. Inne - w panelach oceniających wnioski o granty. Panel, pisze Weinberg, jest władny ocenić stopień kompetencji badaczy przedkładających wnioski o dotacje: jego wszyscy członkowie są ekspertami i orientują się, kto jest dobrym badaczem w danej specjalności. Lecz właśnie dlatego, że panel składa się z ekspertów reprezentujących tylko pewne punkty widzenia, mniej nadaje się do tego, by orzekać, czy dany projekt badawczy zasługuje na uwagę z punktu widzenia całej nauki. W ramach danego układu odniesienia możemy udzielać odpowiedzi jak, ale nie dlaczego. Panel ekspertów mógłby zostać ulepszony, gdyby na jego posiedzeniach wartość projektów badawczych oceniali także przedstawiciele sąsiednich pól badawczych. Panel oceniający fizykę wysokiej energii winien zatem obejmować fizyków niskiej energii; w skład panelu oceniającego fizykę nuklearną powinni wchodzić fizycy wysokiej energii, a jeśli to możliwe, także fizycy energii konwencjonalnej oraz astrofizycy. 4. Ograniczenia w stosowaniu kryteriów Strategiczne decyzje w sprawach nauki są z konieczności decyzjami politycznymi, pisze Weinberg. Podobnie jak decyzje prezydenta Kennedy`ego podróży na księżyc i Regana rozwoju Strategicznej Inicjatywy Obronnej miały charakter polityczny i mimo olbrzymiego wpływu zaangażowania potencjału naukowego zostały podjęte bez konsultacji z doradcami naukowymi, tak i obecnie, pisze (w roku 1992) Weinberg, decyzje dotyczące Superconducting Super Collider oraz Human Genome Project zostaną zapewne podjęte w podobnym trybie. W ostateczności, będą one zależały od tego, jak politycy określają priorytety społeczne i w jakim stanie jest budżet państwa [Weinberg 1963; 1964; 1967a; 1967 b; 1984; 1986; 1991]. Bibliografia Alvin Weinberg, Criteria for Scientific Choice II: The Two Cultures, "Minerva" 3:1964, z. 1, ss. 3-14. Alvin Weinberg, Criteria for Scientific Choice, "Minerva" 1:1963, z. 2, ss. 159-171. Alvin Weinberg, Origins of Criteria for Scientific Choice, “Current Contents” no. 32 August 12, 1991. Alvin Weinberg, Revisiting criteria for scientific choice, "Czechoslovak Journal of Physics", 36: 1986, ss. 195-199. Alvin Weinberg, The Philosophy and the Practice of National Science Policy w: Decision Making in National Science Policy, ed. A. de Reuck, M. Goldsmith, J. Knight, Londyn 1968, ss. 26-43. Alvin Weinberg a, The Problems of Big Science: Scientific Communication w: Reflection on Big Science, Oxford 1967, ss. 39-64. Alvin Weinberg b, Universities and Disciplines, w: Reflection on Big Science, Oxford 1967, ss. 145-163. 43 Alvin Weinberg, Values in Science: Unity sas a Criterion of Scientific Choice, "Minerva" 22:1984, z. 1, ss. 112. Christopher Freeman, Science and economy at the national level, w: The Economics of Hope, Essays on technical change, economic growth and the environment, London-New York 1992, ss. 31-49. Criteria for Scientific Development, Public Policy and National Goals: A Selection of Arrticles from Minerva, Cambridge 1968. Criteria for evaluation, a generation later w: The evaluation of scientific research, Chichester 1989, ss. 3-15; Eugene Garfield, This Week`s Citation Classic, “Social Science Current Contents” 1991 nr 32, s. 10. Jan Vlachy: Bibliographies of Scientometric Literatures - Priorities, Scientific Choice, CSAZ-URVS, Praga 1982. John von Neumann, The mathematician w: The works of the mind, ed. R.B. Heywood, Chicago 1947, ss. 196. John Ziman An introduction to science studies. The philosophical and social aspects of science and technology, Cambridge 1992. Michael Polanyi, The Republic of Science: Its Political and Economic Theory, "Minerva", 1:1962, ss. 54-73. Reider van Duinen, Some reflections concerning the distribution of funds between disciplines, w: Science between evaluation and innovation: a conference on peer review, DFG 2002. Tomas Hellström, Merle Jacob, Revisiting ‘Weinberg’s Choice’: Classic Tensions in the Concept of Scientific Merit, Minerva (2012) 50 ss. 381–396. KSZTAŁTOWANIE POLITYKI [Policy-making] Ogólny termin, używany jako synonim >procesu polityki, obejmującego kolejne >cykle polityki. Wyróżnia się oś pionową oraz oś poziomą kształtowania polityki. Oś pionowa oznacza relacje hierarchiczne, typu >pryncypał-agent, podczas gdy oś pozioma – relacje negocjacji, targowania się i perswazji stosowanych w ustalaniu >agendy polityki oraz podczas >formułowania polityki. Bibliografia Craig Matheson, Policy Formulation in Australian Government: Vertical and Horizontal Axes, “Australian Journal of Public Administration” Vol. 59, Issue 2, ss. 44–55, June 2000. LOGIKA INTERWENCJI Logika interwencji (ang. logic of intervention, znana również jako model logiczny, ang. logic model lub matryca programowania, ang. program matrix) to narzędzie stworzone przez Martina Quigley stosowane najczęściej przez menedżerów i ewaluatorów programów do oceny skuteczności programu: diagram lub macierz pokazujące serię oczekiwanych następstw, przyczynowo-skutkowych powiązań pomiędzy działaniami a bezpośrednimi i długofalowymi efektami polityki. Modele logiczne to graficzne przedstawienia zasadniczych elementów programu, a zwłaszcza logicznych relacji między zasobami, działaniami, produktami (rezultatami), efektami i wpływem programu. Zachęcają one do 44 systematycznego myślenia o programie i jego założeniach bazowych, a do pewnego stopnia także o innych czynnikach zewnętrznych mających wpływ na osiągnięcie celu. Ułatwiają identyfikację powiązań pomiędzy elementami programu i mogą być stosowane do identyfikacji przyczynowości i naświetlanie luk. Modele logiczne mogą służyć jako idealny przewodnik do planowania, monitorowania i ewaluacji. Logikę interwencji stosuje się szczególnie w >Ocenie Wpływu (ex ante i ex post) oraz w Ewaluacji Polityki (ex ante, mid-term i ex post). Istnieje wiele sposobów, wg którym można ująć modele logiczne. Celem budowy modelu logicznego jest ocena „jeśli-to” relacji między elementami programu: jeśli są dostępne środki dla realizacji programu, to następnie działania mogą być realizowane, jeżeli działania takie są realizowane pomyślnie, to następnie można oczekiwać takich to a takich rezultatów, efektów i oddziaływań: Wkład Działania Rezultaty Efekty Wpływ Modele logiczne najczęściej stosuje się na etapie ewaluacji programu (ex ante i ex post), można je jednak stosować podczas planowania i realizacji. W najprostszej postaci model zawiera cztery części: Wkład Działania Rezultaty Efekty i wpływy Jakie zasoby przeznacza się na realizację programu Jakie działania realizuje się w ramach programu? Co się wytwarza dzięki tym działaniom? Zmiany lub korzyści wynikające z programu Np. pieniądze, personel, urządzenia Np. szkolenia Np. podręczniki, warsztaty Np. wzrost kompetencji Logic 2014 W bardziej rozwiniętej formie: Potrzeba Wpływ Efekt Cel/zadanie Wkład Działania Produkt 45 Zalety modelu logicznego to: • • • • • • Przejrzystość wskaźników, metod i założeń Zachęta do oceny postępów realizacji programu i podejmowania działań naprawczych Zachęta do aktywnego udziału przez angażowanie interesariuszy w wyjaśnieniu celów i projektowaniu działań Dobre praktyki i dostępna literatura Pomoc w przygotowaniu i zarządzaniu planów operacyjnych [Monitoring 2008]. Pomoc w systematycznym myśleniu o różnych elementach programu oraz o powiązanich między nimi [RAND Europe 2013]. Wady to: • • • • • • • Ma ograniczoną wartość, jeśli stosuje się go w izolacji Założenie przyczynowości może być słabo udokumentowane Czasami trudno uwzględnić nieoczekiwane zdarzenia Potrzebuje szkoleń / wiedzy do skutecznego projektowania i wykorzystywania Jeśli nie aktualizowany w trakcie realizacji, może nie odzwierciedlać zmieniających się warunków [Monitoring 2008]. Nie chwyta sytuacji kontrfaktycznych. Nie pokazuje, co by się stało bez interwencji lub gdyby inna interwencja została wdrożona. Modele logiczne są liniowe i mogą w związku z tym przegapiać pętle sprzężenia zwrotnego i nie odzwierciedlać uczeniu się podczas realizacji inicjatyw [RAND Europe 2013]. Bibliografia Chistopher Pollit and Geert Bouckaert, Public Management Reform, Oxford University Press 2000. E. Geisler, Integrated Figure of Merit of Public Sector Research Evaluation, “Scientometrics” vol. 36 1996 no. 3 Erik Arnold, Ken Guy, Technology diffusion programmes and the challenge for evaluation, w: Policy evaluation in innovation and technology. Towards the best practices, OECD 1997. European Commission (2002), An RTD Evaluation Toolbox. European Commission (2004), Evaluating EU Activities – A Practical Guide for the Commission Services, Luxembourg: Office for Official Publications of the European Communities. Evaluating socio-economic programmes. Glossary of 300 concepts and technical terms, vol. 6, European Commission, Luxembourg, 1999. Henri Delanghe, Peter Teirlinck, Optimizing the Policy Mix by the Development of a Common Methodology for the Assessment of (Socio-)Economic Impacts of RTDI Public Funding. Literature Review, December 2013. Ken Guy, Beyond Socio-economic Impact Evaluation: The challenge for the next millennium, w: Socioeconomic Impact Evaluation Workshop, Helsinki 26-27 November 1999, Helsinki 2000. Logic model, Wikipedia 2014 RAND Europe, Measuring research A guide to research evaluation frameworks and tools, July 2013 The Monitoring and Evaluation Handbook. Prepared by the IFC Advisory Services Business Enabling Environment Business Line in association with GTZ and DFID, June 2008. 46 MAPA DROGOWA WIELKIEJ INFRASTRUKTURY BADAWCZEJ W ostatnich latach szczególną popularność zyskała instytucja mapy drogowej, czyli >planów strategicznych sporządzanych wspólnie przez naukowców i polityków, pod egidą tych ostatnich, z wyraźnie określonymi celami, procedurami i efektami. Rola naukowców w tworzeniu „map drogowych” jest koncepcyjnie prosta, chociaż w praktyce bywa trudna i czasochłonna. Zazwyczaj polega ona na rozległych oddolnych konsultacjach prowadzących do trudnych wyborów między konkurencyjnymi projektami. Rola polityków pracujących w administracji rządowej jest zupełnie inna. W procesie tworzenia planów decydenci muszą często wprowadzać problemy i >priorytety pozanaukowe, w tym: (1) >cele polityczne i społeczne, takie jak zrównoważony rozwój, ochrona środowiska, bezpieczeństwa energetycznego, budowanie potencjału (w krajach rozwijających się) (2) cele krajowe i/lub regionalne, w tym rozwoju i zmiany charakteru istniejącej infrastruktury (np. dużych laboratoriów i ośrodków badawczych), (3) potrzeby związane z innowacją, konkurencyjnością gospodarczą, rozwojem technologii i tworzeniem nowych miejsc pracy. Wymienione względy społeczne, polityczne i gospodarcze mają wysoki priorytet, dlatego niektóre z istotnych infrastruktur badawczych buduje się nawet jeśli nie zostały one wybrane przez naukowców. Cele planów bardzo się różnią. Tworzenie map drogowych jest oznaką przejścia do nowych zasad >kształtowania polityki >wielkiej infrastruktury badawczej, odmiennych od stosowanych dawniej, gdy propozycje dużej infrastruktury rozpatrywano oddzielnie, ulegając lobbingowi silnie zmotywowanych uczonych lub środowisk naukowych. (Por. też >Partycypacyjne Tworzenie Polityki Naukowej). Niektóre Mapy to szerokie „deklaracje wizji”, mające na celu pobudzić dyskusję o przyszłych projektach, podczas gdy inne wnikają głęboko w szczegóły konkretnych propozycji, opierają się na starannie sformułowanych ocenach, i przesądzają o losach głównych inicjatyw w zakresie infrastruktury. W rzadkich przypadkach Mapa staje się planem działań, tzn. jest ona traktowana jako lista projektów, które otrzymają finansowanie i będą realizowane zgodnie z opisem. Jednak częściej Mapa Drogowa odzwierciedla intencje konsensusu zarówno polityków jak i naukowców. Klasyfikując i porównując Mapy Drogowe bierze się pod uwagę następujące parametry: Zakres naukowy. W niektórych przypadkach proces tworzenia planów dotyczy infrastruktury z wielu nie pokrywających się dziedzin nauki. Najbardziej znany przykład to Mapa Drogowa Forum Strategii Europejskiej Infrastruktur Badawczych (ESFRI). Kiedy indziej, zakres naukowy Mapy odzwierciedla mandat agencji. W wielu przypadkach bierze się pod uwagę pojedynczą dziedzinę nauki lub też pojedynczy ważny problem badawczy. Coraz większą interdyscyplinarność badań prawdopodobnie doprowadzi do większej liczby przypadków planów opartych na ocenie infrastruktury w wielu dyscyplinach. Zasięg geograficzny i/lub administracyjny. Prawdopodobnie najmniejsza skala, w której da się sensownie realizować plan działań (Mapę Drogową) to krajowa agencja. Częściej plany tworzy się na poziomie krajowym. Ostatnio tworzenie map stało się popularne 47 pod auspicjami Komisji Europejskiej, Europejskiej Fundacji Nauki oraz innych podmiotów, w szczególności ESFRI . Cele krajowej mapy drogowej, nie zawsze oczywiste na podstawie pobieżnej lektury dokumentu, dotyczą zwykle utrzymania doskonałości w badaniach naukowych, polepszenia pozycji naukowej kraju, pobudzenia myślenia strategicznego, >rozliczalności i interdyscyplinarności, lepszego wykorzystania ograniczonych zasobów, poprawy koordynacji decyzji inwestycyjnych lub też wspierania rozwoju regionalnego. Zakres czasowy. Niektóre plany bardzo wyraźnie określają okres czasu, dla którego planuje się rozwój infrastruktury, np. amerykański USDOE „20-years Outlook” lub „ESA Cosmic Vision 2015-2025”. W większości jednak przypadków horyzont czasowy jest tylko mgliście określony lub wcale. W niewielkiej liczbie przypadków (np. plany NASA i ESA) dokument końcowy zawiera sekwencję budowy urządzeń, które mają być zbudowane w określonym ważnym z punktu widzenia nauki porządku. Niektóre Mapy są aktualizowane lub periodycznie powtarzane. Wielkość infrastruktury. Proces tworzenia planów idzie gładko, gdy rozpatrywane urządzenia nie różnią się zbytnio pod względem wielkości i typu. Istnieją oczywiste trudności metodyczne oceny i ustalania priorytetów odnośnie do projektów o różnej wielkości i różnych kosztów. Myślenie strategiczne o infrastrukturze jest cenne dla nowych i/lub interdyscyplinarnych dziedzin, których przyszłe potrzeby mogą nie być znane decydentom, zwłaszcza jeśli finansowanie i struktury administracyjne w tych dziedzinach nie są jeszcze w pełni rozwinięte na poziomach instytucjonalnym i rządowym. Dla decydentów nauki tworzenie Map jest okazją do nowego spojrzenia przyszłe opcje, oraz do pracy z urzędnikami z innych agencji, zarówno wewnątrz kraju jak i poza jego granicami. Dla przyszłych użytkowników nowych urządzeń proces tworzenia planów może być jedynym mechanizmem zapewnienia sobie masy krytycznej zainteresowanych z różnych dziedzin, dzięki czemu mają oni razem szansę ubiegać się o budowę aparatury, która mogłaby zostać przeoczona w konwencjonalnym procesie planowania. Opracowanie nowego planu działań na rzecz danej dziedzinie naukowej jest okazją do systematycznego zbadania kluczowych warunków, niekoniecznie natury naukowej, ale jednak bardzo istotnych dla powodzenia w dłuższej perspektywie programów badawczych. Do warunków tych należą m.in.: Popyt i podaż zasobów badawczych. Ważne jest, że aby zasoby sprzętu były równe (zarówno pod względem jakości jak i ilości) rozmiarom środowiska naukowego. Nie jest dobrze, gdy z najwyższej klasy aparatury (np. dużych teleskopów i detektorów cząstek elementarnych) kupuje się wyłącznie mały zestaw bardzo drogiego sprzętu do dyspozycji stosunkowo ograniczonej liczby badaczy. Wielkość środowiska naukowego w różnych dyscyplinach, w wartościach absolutnych i w stosunku do innych dyscyplin. Tworzenie Mapy Drogowej daje okazję do obliczenia wielkości środowiska naukowego (np. w astronomii, fizyce, biologii molekularnej, inżynierii lotniczej). Informacje takie, zebrane podczas sporządzania Mapy, miałyby duże 48 znaczenie dla decydentów planujących opracować zrównoważone i spójne programy badawcze. Warunki dostępu do infrastruktury badawczej. Istnieje duża różnorodność polityk określających warunki dostępu badaczy do dużej infrastruktury. Nawet wtedy, gdy uważa się, że dostęp jest oparty na zasługach (tzn. nie zależy od tego, czy naukowiec jest związany z infrastrukturą lub pochodzi z kraju, który ją finansuje) istnieją różne niewypowiedziane explicite warunki. Kwestie zatrudnienia. Wszystkie gałęzie nauki muszą nieustannie odnawiać się poprzez przyciąganie i zatrzymywanie utalentowanych młodych ludzi. Zapewnianie nowoczesnej infrastruktury oraz jej rola w szkoleniu nowych pokoleń badaczy i w innych kwestiach związanych z karierą naukową może być jednym z tematów poruszanych w trakcie sporządzania Mapy. Powiązania z przemysłem i konkurencyjnością. Budowa nowej infrastruktury badawczej może wiązać się z poważnymi wyzwaniami technologicznymi, które mogą z kolei przyczyniać się do powstawania „odprysków przemysłowych” o potencjale komercyjnym. Zaangażowanie potencjalnych partnerów w proces tworzenia planów może pomóc w rozpoznaniu takich możliwości, a także może być przydatne przy tworzeniu wiarygodnych prognoz kosztów proponowanych projektów. Sporządzanie Map powszechnie uznaje się za przejaw polityki naukowej prowadzonej w sposób strategiczny, systematyczny i obiektywny. Jest to jednak zadanie koszto-i-czasochłonne, obarczone różnymi problemami. 1. Wielka infrastruktura, przedmiot Map, jest bardzo kosztowna. Ponieważ coraz więcej planuje się i buduje wielkich urządzeń, finansowanie badań nie opartych na wielkiej infrastrukturze z konieczności się kurczy. 2. Mapy Drogowe mogą prowadzić do zakłóceń w finansowaniu małych i średnich projektów aparaturowych. 3. Mapy oparte na wieloletnich zobowiązaniach krytykuje się jako zbyt sztywne. 4. Gdy interdyscyplinarne mapy drogowe ujmują coraz większą liczbę różnych dziedzin nauki, włącznie z naukami społecznymi, a nawet humanistyką, powstają trudności metodologiczne, szczególnie gdy próbuje się ustalić priorytety. 5. Samo upowszechnienie map drogowych może powodować zamieszanie, szczególnie gdy brak jasności co do zakresu, statusu i metodologii poszczególnych dokumentów. Najważniejsze pytania zadawane w stosunku do Map to: 1. Jaki jest status podmiotu, który zleca i realizuje Mapę? 2. Jakie przepisy regulują sposób opisu infrastruktury i kryteria wyboru? 3. Czy szacuje się koszty infrastruktury, a jeśli tak, to jak? 4. Jaki jest kontekst międzynarodowy Mapy? 5. Czy proces tworzenia Mapy jest kontynuowany, zarówno w zakresie realizacji jak i okresowego powtarzania? 49 Przyporządkowanie (lub nie) infrastruktury do poszczególnych priorytetów jest poważnym problemem. Niektóre plany wyraźnie zabraniają ustalania priorytetów, w innych przypadkach dokonywanie trudnych wyborów jest główną racją bytu całej procedury. Istnieje znaczna różnorodność sposobów, w jaki koszty włącza się do planów. W niektórych przypadkach kwestia ta jest celowo pominięta. W innych dokumentach znajdują się skomplikowane obliczenia kosztów budowy, rozruchu, eksploatacji i zaprzestania eksploatacji. Tworzenie planów, które nie dają żadnych konkretnych perspektyw finansowania, wzbudza mimo to duże zainteresowanie środowiska naukowego. Coraz częściej w Mapach uwzględnia się międzynarodowy kontekst infrastruktury. Nawet w krajowych planach i priorytetach bierze się pod uwagę inne kraje i regiony. „Strategia” CERN uzupełnia Mapę ESFRI, która celowo wyklucza infrastrukturę fizyki cząstek. Coraz częściej Mapy odsyłają do istniejących planów. Tak więc Mapa Drogowa Wielkiej Brytanii 2007 wyraźnie odnosi się do ESFRI. Z kolei Mapa ESFRI była inspirowana przez projekt USDOE. Por. >PRIORYTETY POLITYKI NAUKOWEJ. Bibliografia OECD Global Science Forum, Report on Roadmapping of Large Research Infrastructures, December 2008. PARTYCYPACYJNE TWORZENIE POLITYKI NAUKOWEJ [Participatory Science Policy Making] Pomysły dotyczące udziału społeczeństwa w podejmowaniu decyzji w sprawie rozwoju nauki i techniki nie są nowe, sięgają lat 1960. i 1970. Jednak jeśli dawniej dotyczyły tylko wybranych dziedzin, to obecnie są znacznie bardziej upowszechnione, choć z reguły odnoszą się do pewnych kwestii, do niektórych faz badań lub do wykorzystywania ich wyników. Najczęściej dotyczą one zagadnień, które są ważne, których nie można zostawić samych sobie, gdyż zaniedbanie ich niesie za sobą ryzyko, dla których brak niezawodnych standardowych rozwiązań (prawnych, administracyjnych, technicznych) i których rozstrzygnięcie łączy się z wyborem wartości. Zagadnienia te mogą dotyczyć całej planety (globalne ocieplenie) lub spraw małej lokalnej społeczności (np. zatrucie ołowiem). Niektóre kraje mają sformalizowane procedury włączania obywateli w ustalanie priorytetów polityki naukowej oraz ocenę możliwych szans i zagrożeń związanych z rozwojem niektórych badań i technologii, np. w formie specjalnych praw lub możliwości wysłuchań. W wielu innych powszechne są praktyki oddolnej aktywizacji obywateli. Wysoki poziom angażowania obywateli cechuje kraje nordyckie, szczególnie Danię, a także Francję, Belgię i Szwajcarię. Obywatele i organizacje społeczeństwa obywatelskiego działają poprzez udział w radach konsultacyjnych i komisjach doradczych, szczególnie w takich sprawach jak ustalanie przepisów wpływających na działalność gospodarczą (Albania), ustalanie priorytetów finansowania badań (Belgia, Chorwacja, Holandia, Rumunia), polityka N+T (Tur- 50 cja), etyka w nauce (Norwegia, Islandia), powiązania technologii i społeczeństwa (Norwegia), budownictwo i planowanie (Izrael) oraz energia jądrowa (UK). W niektórych krajach, takich jak Islandia i Austria, brak konkretnych sformalizowanych procedur udziału szerszego społeczeństwa w decyzjach dotyczących nauki i techniki, jednak obowiązują w nich ugruntowane ogólne zasady bezpośredniego angażowania szerszej publiczności w procesach podejmowania decyzji, szczególnie w sprawach dotyczących ochrony środowiska. Partycypacyjną politykę na szczeblu Unii i w wielu jej krajach członkowskich wspierają instrumenty polityki, takie jak np. DECIDE (Deliberative Citizens' Debates in European science centres and museums) czy Mobilizacja i Wzajemne Uczenie się (Mobilisation and Mutual Learning Actions). Koncepcje partycypacji obywatelskiej w rządzeniu. Zjawisko partycypacyjnego tworzenia polityki naukowej wpisuje się w szersze ramy, ujmowane przez takie (pokrewne choć zróżnicowane) idee, jak: • Partycypacja publiczna • Partycypacja obywatelska • Deliberacyjna demokracja • Dyskursywna demokracja • Pozyskiwanie informacji od obywateli (ang. Citizen sourcing) • Otwarty rząd • Rząd 2.0 • E-rząd • Partycypacja 2.0 • Partycypacja on-line • E-partycypacja • Rozpoznawanie „open source” (ang. Open Source Intelligence). Partycypacja publiczna. Partycypacja publiczna to ogólna nazwa związku obywateli z władzami rządowymi i samorządowymi; może ona przybierać formy jednokierunkowych „informacji dla obywateli” lub „konsultacji obywatelskiej” względnie też partycypacji obywatelskiej, w której informacje przesyła się „w obie strony”, między przedstawicielami społeczeństwa oraz administracją publiczną w drodze dialogu, w rezultacie którego ulegają zmianie przekonania obu stron [Rowe 2000]. Przykładowe formy to konferencje konsensusu, jury obywatelskie i fora obywateli. W roku 1970. Amerykańska Narodowa Fundacja Nauki ustanowiła Program Nauka dla Obywateli (Science for Citizens Program) aby zapewnić wsparcie techniczne obywatelom pragnącym brać udział w procesie kształtowania polityki. Od tego okresu na rzecz partycypacji obywatelskiej dla polityki naukowej działają takie amerykańskie organizacje, jak the Center for Science and the Public Interest, Union of Concerned Scientists, the Coalition for Responsible Genetic Research, oraz Science for the People. Poniższa tabela przedstawia poszczególne szczeble partycypacji publicznej: 51 Im wyżej tym trudniej Współdecydowanie Rady Konsultacje Informacje Demokracja deliberatywna (dyskursywna). Demokracja deliberatywna formą demokracji, w której deliberacja (rozważanie, naradzanie się) jest w centrum podejmowania decyzji. Przyjmuje ona zarówno elementy konsensualnego podejmowania decyzji jak i rządów większości. Demokracja deliberatywna da się pogodzić zarówno z demokracją przedstawicielską jak i demokracją bezpośrednią [van Dijk]. W przeciwieństwie do demokracji przedstawicielskiej demokracja „obradująca” podkreśla konieczność uzasadnienia decyzji zbiorowych w drodze otwartego i racjonalnego dialogu między wolnymi i równymi obywatelami. Pojawienie się nowego deliberatywnego nurtu w liberalnych społeczeństwach demokratycznych przejawia się w eksperymentach partycypacyjnych, takich jak jury obywatela i deliberacji wyborczych w Stanach Zjednoczonych oraz europejskie konferencje konsensusu, jury obywatelskie, dialogi interesariuszy. Teoria demokracji zainteresowała się nurtem w latach 1990. Demokracja uczestnicząca. Demokracja uczestnicząca (ang. participatory democracy) to proces kolektywnego podejmowania decyzji z wykorzystaniem kombinacji elementów demokracji bezpośredniej i przedstawicielskiej. Znajduje zastosowanie w samorządach lokalnych i samorządach pracowniczych oraz realizuje się zwykle poprzez budżet obywatelski (także praktykowana w Polsce). Pozyskiwanie informacji od obywateli. Adopcja przez rząd technik crowdsourcingu dla (1) próby pozyskania obywateli w zakresie projektowania i realizacji usług administracji publicznej (2) sięgania do zbiorowej inteligencji obywateli w poszukiwaniu rozwiązań problemów społecznych. Zastosowania obywatelskiego sourcingu obejmują m.in. platformy kontaktu z obywatelami, dotyczące m.in. zgłaszania informacji o przestępstwach lub awariach oraz monitorowanie przez władze mediów społecznych, takich jak Twitter. Otwarty rząd. „Open Government (ang. Open Government) jest koncepcją zmian funkcjonowania instytucji publicznych, których celem jest zwiększanie dostępu do informacji publicznej i innych zasobów informacyjnych będących w posiadaniu instytucji publicznych, jak również działania na rzecz zwiększenia poziomu transparentności administracji publicznej. Rozwój koncepcji otwartego rządu jest ściśle związany z postępem technologicznym, dostępnością cyfrowych narzędzi ułatwiających komunikację oraz usieciowieniem funkcjonowania jednostek i instytucji. Historyczne korzenie open govern- 52 ment tkwią w oświeceniowej debacie o kształcie powstającego wtedy demokratycznego społeczeństwa. Główne wartości, do których odwołuje się koncepcja otwartego rządu to: • • • Przejrzystość i związana z tym wiarygodność działań państwa, Zaangażowanie obywateli poprzez uczestnictwo w procesach podejmowania decyzji oraz inne formy obywatelskiej współpracy w działaniach instytucji państwowych, Szeroko rozumiana otwartość instytucji publicznych, która jest warunkiem realizacji powyższych wartości. W Unii Europejskiej elementy filozofii otwartego rządu pojawiły się w Deklaracji z Visby z 2009 roku oraz sformułowanej na jej podstawie Cyfrowej Agendzie dla Europy”. Rozwiązania spod znaku otwartego rządu są obecnie adaptowane przede wszystkim przez władze szczebla lokalnego, m.in. w Nowym Jorku, Londynie, czy Hongkongu. [Open Government 2014]”. Rząd 2.0. Gov 2.0 łączy podstawy Web 2.0 z e-administracją zwiększając uczestnictwo obywateli za pomocą platformy open-source, która umożliwia obywatelom i firmom rozwijać innowacyjne aplikacje. Rolą rządu jest dostarczanie otwartych danych, usług internetowych i platform, co polepsza przejrzystość i skuteczność działań rządu [Gov 2.0 2014]. e-government. „e-government (z ang. e-administracja) – według definicji Komisji Europejskiej, jest stosowaniem technologii informatycznych w administracji publicznej. Wiąże się to ze zmianami organizacyjnymi i nowymi umiejętnościami służb publicznych, które mają poprawić jakość świadczonych przez administrację usług. e-government to ciągły proces doskonalenia jakości rządzenia i świadczenia usług administracyjnych poprzez przekształcanie relacji wewnętrznych i zewnętrznych z wykorzystaniem Internetu i nowoczesnych środków komunikacji. Relacje zewnętrzne to relacje typu urządobywatel, urząd-podmiot gospodarczy oraz urząd-usługodawca, natomiast spośród relacji wewnętrznych wyróżniamy urząd-urząd oraz urząd-pracownicy [e-government 2014]. e-Partycypacja. Dwustronne powiązania prowadzące do lepszego rozumienia pomiędzy rządem a obywatelami zapośredniczone przez technologie Web 2.0. Sukces epartycypacji zależy od łączenia danych rządowych z danymi tworzonymi przez media społeczne [Reddick 2012]. Wykorzystywanie technologii informacyjnokomunikacyjnych do mediacji i przekształcania stosunki obywateli do rządów i administracji publicznej w kierunku większej udziału obywateli. Rozpoznawanie „open source”. Forma zarządzanie zapewnianiem wiedzy i informacji dla decydentów poprzez ustalanie, wybór i pozyskiwania informacji z publicznie dostępnych źródeł i analizowanie ich w ramach >ANALIZY POLITYKI [Rowe 2002]. Wykorzystywanie technologii informacyjno-komunikacyjnych do mediacji i przekształcania relacji obywateli i rządów oraz administracji publicznej w kierunku większego udziału obywateli [Van Dijk 2009]. 53 Formy obywatelskiej partycypacji Metoda Uczestnicy Trwanie Cechy / mechanizmy Przykłady Referenda Potencjalnie wszyscy członkowie kraju lub regionu 1 dzień Zazwyczaj wybór jednej z dwóch opcji Biotechnologia w Szwajcarii (1997); składowanie śmieci w Szwecji (1997) Publiczne wysłuchania Zainteresowani obywatele, politycy i eksperci Mogą trwać przez wiele tygodni, zazwyczaj w ciągu dni roboczych Prezentacje władz dotyczące planów. Obywatele mogą wyrażać opinie, ale nie mają bezpośredniego wpływu na zalecenia. Częsty mechanizm, np. w USA (od wczesnych lat 1960.), Australii Ankietowanie opinii publicznej Wielkie próbki (setki lub tysiące), zazwyczaj reprezentatywne dla zainteresowanej społeczności Zazwyczaj nie dłużej niż kilka minut Często przeprowadzane za pomocą kwestionariusza lub przez telefon. Ankieta może zawierać wiele pytań. GMO w Wielkiej Brytanii (1998); kwestie biotechnologii Panel doradczy Kompetentni obywatele Miesiące Panel obywatelski Grupa 12 obywateli wybranych na drodze losowania Spotkania periodyczne (np. 4 razy do roku) Uzgodnienia tworzenia przepisów Mała grupa przedstawicieli interesariuszy Dni – tygodnie miesiące Proces w amerykańskim prawie administracyjnym, stosowany przez agencje federalne, w którym przedstawiciele agencji rządowych i grup interesu dotkniętych negocjuje warunki proponowanego prawa administracyjnego Metoda stosowana przez US Envirionmental Protection Agency Trybunał ukowy Naukowcy nie zainteresowani bezpośrednio w przedmiocie dyskusji. Dzień Wzorowany na procedurach sądowych. Panel wysłuchuje „zeznań” dwóch przeciw- Idea dyskutowana od wielu lat, nie zrealizowany w praktyce. na- Amerykański Recombinant DNA Advisory Committee (1974) powołany w celu doradztwa dyrektowowi NIH w sprawach badań genetycznych 54 stawnych stron. Rezultat to orzeczenie dotyczące stanu faktycznego kwestii pod względem ryzyk i korzyści. Konferencje w sprawie porozumienia Najczęściej 12-20 przedstawiciele lokalnej społeczności wybrani przez panel interesariuszy Zwykle od 4 do 10 dni Panel z niezależnym moderatorem kwestionuje opinie ekspertów. Spotkania z reguły otwarte. Wnioski zawarte w raporcie lub przedstawione na konferencji prasowej. Stosowane w Danii i w Holandii na tematy od skażenia żywności po zanieczyszczenie powietrza; w Wielkie Brytanii w kwestiach biotechnologii roślin Obywatelskie komitety doradcze Wąska grupa przedstawicieli różnych grup lub społeczności Wiele dni Grupa bada ważne kwestie. Współdziała z przedstawicielami przemysłu. USA Grupy fokusowe Wąska grupa od 5 do 12 osób wybrana jako przedstawicielstwo publiczności Jedno spotkanie, zwykle ok. 2 godzin Swobodna dyskusja, nagrywana, z niewielką pomocą moderatora. Stosowana dla zbierania opinii. Wielka Brytania Konferencje konsensualne Uczestnicy (12-24) wybrani z grupy obywateli, którzy zgłosili się. Zaproszeni nie mają określonej wiedzy o dyskutowanej kwestii. Zazwyczaj 4dniowe konferencje Wybrana grupa obywateli bada zagadnienia, a następnie spotyka się z ekspertami. Po spotkaniu formułują oni samodzielnie raport z zaleceniami, przedstawiany politykom i opinii publicznej. Dania Warsztat scenariuszowy Od 24 do 32 obywateli Dwa dni Spotkania osób zainteresowanych planowaniem miejskim, na których omawia się i ocenia różne rozwiązania technologiczne dla rozwiązania konkretnych problemów (np. energia, woda, mieszkalnictwo i transport) Miasta w Holandii Wspólnotowe badania partycy- W badaniach biorą Obie wspólnie strony i na 55 pacyjne udział eksperci i przedstawiciele wspólnoty (lokalnej, zawodowej, etnicznej, grupy osób dotkniętej przez ten sam problem itp.). Jury skie 12-20 obywateli wybranych na drodze losowania obywatel- Procesy dialogu równych prawach definiują problem i projekt badawczy, przeprowadzają badania, interpretują wyniki i decydują, w jaki sposób te wyniki wykorzystać. Badania nie tyle dla postępu wiedzy, co dla rozwiązania kwestii dla których brak rutynowych rozwiązań. 4 do 5 dni Obywatele spotykają się dla wysłuchania opinii ekspertów. Po ostatnich obradach jury przedstawia rekomendacje. USA, Niemcy Kilka-kilkanaście dwu-lub-trzy godzinnych sesji Obywatele na otwartych warsztatach korzystają z przewodnika zawierającego podstawowe informacje o problemie. Kanada Deliberacyjne mapowanie Panel 8-10 obywateli zróżnicowany w zależności od płci i statusu społeczno-ekonomicznego. 6 wieczorów Warsztaty dla oceny opcji technologicznych z udziałem obywatele i ekspertów Sondaż ractyjny delibe- Reprezentatywna próba mieszkańców spośród uczestników sondażu Kilka dni Spotkania dla rozwiązania lokalnych kwestii Poznań Forum obywatelskie Szeroka reprezentacja obywateli Bywają stałą działalnością prowadzoną przez organizacje Forum identyfikuje podstawowe parametry problemu politycznego, naradza się i przygotowuje zalecenia. Norwegia, Youth Forum for Democracy Źródła: Rowe 2000; UN 2012. 56 Poziomy partycypacji Poziom systemu - ustawy Poziom rząduurzędy rzeczników praw Poziom lokalny wysłuchania; referenda; komitety doradcze; ankiety obywatelskie i in. OECD 2001 Bibliografia Albert Meijer, Nils Burger and Wolfgang Ebbers, Citizens4Citizens: Mapping Participatory Practices on the Internet. Charles Thorpe, Participation as Post-Fordist Politics: Demos, New Labour, and Science Policy, “Minerva” (2010) 48:ss. 389–411. Christopher G. Reddick, Stephen K. Aikins, Web 2.0 Technologies and Democratic Governance: Political, Policy and Management Implications, 2012, ss. 286. Citizen Participation in Science Policy 1984 ed. by James C. Petersen The University of Massachusetts Press Amherst, 1984. Dennis Hilgers & Frank T. Piller, Extending Open Innovation to Open Government: a Roadmap for New Opportunities in Citizensourcing. e-government, Wikipedia 2014. EU Public engagement in science 2007. Portuguese Presidency Conference The Future Of Science and Technology in Europe, Lisbon, 8-10 October 2007. Eva Lövbrand, Roger Pielke, Jr., and Silke Beck, A Democracy Paradox in Studies of Science and Technology, “Science, Technology, & Human Values” 2010. Gene Rowe and Lynn J. Frewer, Public Participation Methods. A Framework for Evaluation, “Science, Technology, & Human Values”, Vol. 25, No. 1 (Winter, 2000), ss. 3-29. Gov 2.0, Wikipedia 2014. Guide to Online Participation Jan A.G.M van Dijk, Participation in Public Policy Making, University of Twente, June 2009. Jill Chopyak, Peter Levesque, Public participation in science and technology decision making: trends for the future, “Technology in Society” 24 (2002) ss. 155–166. Mapa drogowa otwartego rządu w Polsce. Centrum Cyfrowe, 8 lipca 2011. OECD Mind The Gap: Fostering Open And Inclusive Policy Making An Issues Paper, 2008. OECD Strengthening government-citizens connections using consensus conferences 2001. Open Government, Wikipedia 2014. 57 Pierwszy Sondaż Deliberatywny® w Polsce. UN, Guidelines on Citizens’ Engagement for Development Management and Public Governance, 2012. Using consensus conference to learn about public participation in policy-making 2001. POLICY MIX W DZIEDZNIE B+R I INNOWACJI (Policy Mix for R&D and Innovation) Mieszanka Polityki (ang. Policy Mix) w dziedzinie B+R i innowacji to zestaw >instrumentów polityki, które oddziałując na siebie wpływają na ilość i jakość inwestycji B+R w sektorze publicznym i prywatnym [Policy Mixes 2009]. Celem koncepcji policy mix jest pomoc w uniknięciu stosowania różnych instrumentów polityki oddzielnie lub w sposób chaotyczny i nieskoordynowany [Raising 2003]. Por. >Spójność Polityki. W ostatnich latach przedmiotem wielu analiz i dyskusji stał się problem właściwego doboru instrumentów, czyli stworzenia najlepszego tzw. policy mix. Pojęcie Mieszanki Polityk stało się bardzo popularne w OECD i w Unii Europejskiej. Stosowane sporadycznie w II połowie XX wieku, weszło do języka polityki w II poł. lat 1990., a stało się tematem wielu książek, artykułów i raportów od połowy I dekady XXI wieku [WordCat 2013]. Problematykę Policy Mix podejmuje tzw. trzecia generacja teorii wyboru instrumentu polityki: pierwsza generacja zajmowała się analizą oddzielnych instrumentów, druga generacja badaniami porównawczymi nad instrumentami, a trzecia – zagadnieniami projektowania i doboru optymalnej Mieszanki Polityki w złożonych sytuacjach decyzyjnych i wykonawczych [Howlett 2007; OECD 2009]. Koncepcja Mieszanki Polityki zwraca uwagę, że instrumenty polityki nigdy nie działają bez interakcji z innymi instrumentami, najczęściej (dobrze dobrane) wspomagają się wzajemnie, lub też (nie zharmonizowane ze sobą) obniżają wzajemnie swoją skuteczność lub też niwelują wzajemnie swoje efekty. Poszczególne instrumenty osiągają nieraz zakładany cel cząstkowy (np. zwiększenie wydatków biznesu na B+R), ale cel ten często ma szerszy sens społeczny tylko pod warunkiem, że jest sprzęgnięty z wieloma innymi celami, wspieranymi przez inne instrumenty [Benchmarking 2002]. Nowatorstwo koncepcji policy mix polega na założeniu, że nie instrumenty stosowane w izolacji, tylko połączenie oddziaływujących na siebie instrumentów politycznych wpływa na B+R i innowacje. Drugim kluczowym pomysłem jest założenie, że na B+R i innowacje wpływ mają nie tylko instrumenty z tego obszaru polityki (np. dotacje rządowe lub zachęty podatkowe itp.), ale również polityki z innych dziedzin, takie jak np. przepisy ochrony środowiska [Policy Mixes 2009]. Z reguły każdy instrument ma sens pod warunkiem istnienia innych instrumentów, bądź też mechanizmów rynkowych i społecznych. Np. finansowany przez rząd „fundusz zasiewny” na wstępne fazy innowacji ma sens pod warunkiem istnienia źródeł finansowania kolejnych faz (np. kapitału ryzyka). W systemie finansowania badań naukowych wielkie projekty i programy badawcze, granty tradycyjne oraz granty specjalne, służące np. finansowaniu propozycji nadsyłanych przez młodych badaczy oraz idei nieortodok58 syjnych i oryginalnych uzupełniają się wzajemnie; granty pełnią funkcję „laboratorium nowych form” w stosunku do wielkich programów. Instrumenty finansowania badań przemysłowych prowadzonych w uczelniach mają sens pod warunkiem równoległego istnienia mechanizmów transferu technologii, mobilności naukowców i inżynierów pomiędzy nauką a gospodarką oraz partnerstwa publiczno-prywatnego. Korzyści ze wspierania prac B+R w przedsiębiorstwach wzrastają gdy towarzyszy temu pomoc w zakresie zarządzania, podnoszenia kompetencji oraz wprowadzenia na rynek nowych produktów i usług. Myśląc o pojedynczym instrumencie nastawionym na osiągnięcie pewnego celu, politycy powinni brać pod uwagę szersze spektrum już istniejących lub możliwych do wprowadzenia narzędzi [OECD 2001; NESTA 2013]. Mieszanki polityki można opisywać wg dziedzin polityki, których dotyczą (Policy Mix może nie ograniczać się do jednej domeny), wg >agend polityki i >uzasadnień polityki, wg grup i procesów docelowych oraz wg typu zastosowanych instrumentów [NESTA 2013]. W polityce naukowej i innowacyjnej OECD dzieli Policy Mix instrumentów na mieszanki instrumentów wspierających a) >podstawy nauki i technologii (ang. science and technology base), b) B+R biznesu i innowacji, c) >powiązania nauki i gospodarki, d) >zasoby ludzkie dla N+T, e) system >zarządzania badaniami i innowacjami [OECD 2007]. Niezależnie od pojęcia Mieszanki Polityki proponuje się także pojęcie „Mini Mieszanki” oznaczającej zestaw instrumentów (takich jak np. programy mobilności, bodźce fiskalne, granty, nowe regulacje) ukierunkowanych na osiągnięcie jednego konkretnego celu, takiego np. jak podnoszenie badań i poziomu inwestycji w określonych obszarach technologii czy wspieranie konkretnych grup docelowych (np. nowych firm opartych na technologii) [Designing 2009]. Ewaluacja „Policy Mix” może opierać się na ustaleniach ewaluacji „Mini Mieszanek”. Pojęcie policy mix odnosi się także do łączenia ze sobą rozmaitych narzędzi analizy politycznej, także zwłaszcza takich, które ze względu na szeroki udział grup nie-rządowych mają równocześnie charakter instrumentów politycznych. M.in. dla wspomożenia procesu podejmowania decyzji zaleca się stosowanie kombinacji >ewaluacji polityk, >foresightu i >wartościowania technologii dla (efekt synergii, wzajemnego wspomagania) [Kuhlmann 2003]. Zalecenia. Podstawowe wymiary Mieszanki Polityk to: • • • • Głębokość – ranga instrumentów; Gęstość – liczba instrumentów; Luka pomiędzy instrumentami stosowanymi w danym kraju a stosowanymi na świecie (np. brak zachęt podatkowych na B+R lub innowacyjnych zamówień publicznych); Równowaga między różnymi rodzajami instrumentów, np. instrumentami bezpośredniego wsparcia, jak dotacje, oraz instrumentami pośrednimi, jak zachęty podatkowe na B+R; lub pomiędzy konkurencyjnym finansowaniem projektów oraz finansowaniem instytucjonalnym [Designing 2009]. 59 Podstawowe funkcje systemu B+R brane pod uwagę podczas tworzenia Mieszanki Polityki to: • • • • Mobilizacja zasobów finansowych, aparaturowych i ludzkich, publicznych i prywatnych; Popyt na wiedzę. Należy rozpoznać potrzeby wiedzy oraz sposoby ich zaspokojenia. Tworzenie wiedzy naukowej i technologicznej. Obieg wiedzy. Zapewnienie odpowiedniego przepływu i upowszechnienia wiedzy ma zasadnicze znaczenie dla jej dalszego wykorzystania w gospodarce i społeczeństwie, albo też jako podstawa do dalszych postępów w produkcji wiedzy[Designing 2009]. Wskazówki i porady przydatne przy konstruowaniu Mieszanki Polityki: • Zastosuj modele zarządzania oraz modele systemu innowacji jako sposobów zrozumienia ról i obowiązków głównych podmiotów systemu B+R i innowacji, etapu oraz kontekstu polityki B+R i innowacji; • Zastosuj proste modele dziedzin polityki celem odróżnienia różnych zestawów polityk i ich strefy oddziaływania oraz bardziej szczegółowych lub zaawansowanych modeli celem odróżnienia różnych zestawów instrumentów polityki; • Zastosuj charakterystyki Mieszanek Polityki jako ramy do kompilacji listy kluczowych kwestii, które powinny zostać uwzględnione podczas projektowania lub modyfikowania Policy Mix; • Opracuj modele funkcjonalne celem analizy i oceny wpływu Mieszanki Polityki lub zmian zachodzących w Mieszance Polityki na efektywność systemu B+R i innowacji [Designing 2009]. Pięć kluczowych kwestii projektowania Mieszanki Polityk akcentujących potrzebę spójności, efektywności i koordynacji to: 1. Wyzwania: jak zbudować mieszankę polityk, która odpowiadałaby na konkretne wy2. 3. 4. 5. zwania stojące przed krajowym lub/i regionalnym systemem innowacji? Koordynacja policy mix: jak zapewnić właściwą koordynację polityki w różnych dziedzinach polityki i na różnych poziomach władz? Angażowanie interesariuszy Mieszanki Polityki: jakie są plusy i minusy z udziału wielu zainteresowanych stron w opracowaniu i wdrażaniu instrumentów polityki? Projektowanie Mieszanki Polityki: jak zaprojektować spójną politykę? Jakie są wzory do naśladowania? Jak pobudzić pozytywne i uniknąć negatywnych interakcji pomiędzy politykami (biorąc pod uwagę od nie tylko polityki w dziedzinie badań i rozwoju oraz innowacji, ale także te oddziaływujące na te sfery)? Wdrożenie, ewaluacja i skutki Mieszanki Polityk: jak przejść od ewaluacji instrumentów do ewaluacji zestawów instrumentów? Jakie są warunki dla skutecznego wdrażania kombinacji instrumentów? Jakie narzędzia informacyjno-analitycznego wsparcia polityk użyć do tego celu? [Designing 2009] Dziesięć podstawowych kwestiach dotyczących Projektowania mieszanki polityk: Wyzwania. Jakie główne wyzwania stoją przez Narodowym Systemem Innowacji, w jaki sposób zmieniły się one w ciągu ostatnich pięciu lat, i jaki miały one wpływ na działalność B+R? Cele. Jakie są główne cele i priorytety polityki badań i rozwoju w danym kraju i jak się one zmieniły się w ciągu ostatnich pięciu lat? Jak jakie znaleźć balanse i kompromisy 60 (ang. trade-offs, coś za coś) związane z realizacją różnych celów? Jak sekwencjonować cele i instrumenty? Luki (między wyzwaniami a celami). Czy istnieje różnica między wyzwaniami a głównymi celami i priorytetami polityki rządu? Czy Mieszanka Polityki reaguje na główne wyzwania stojące przed krajem? Instrumenty. Jakie stosuje się instrumenty polityki w celu wspierania działalności B+R w sektorach prywatnym oraz publicznym? Jakie instrumenty poza domeną polityki badań i rozwoju (np. polityki zasobów ludzkich, polityki innowacji, polityki stymulacji rynku, itp.) mają szczególne znaczenie dla działalności B+R i wzrostu inwestycji w badania i rozwój? Czy jest zbyt mało czy zbyt dużo instrumentów i czy mają one odpowiednią skalę? Czy poszczególne instrumenty są dobrze zaprojektowane i skuteczne? Czy zachodzi synergia pomiędzy poszczególnymi instrumentami oraz ich grupami? Jak sekwencjonować (wprowadzać w określonym porządku) cele i instrumenty? Luki (między celami i instrumentami). Czy istnieje luka lub niedopasowanie głównych celów polityki oraz instrumentów do ich osiągnięcia? Historia. Jak ewoluowało stosowanie instrumentów polityki badań i rozwoju oraz innowacji? Beneficjenci. Na jakie grupy beneficjentów ukierunkowane są instrumenty polityki? Znaczenie. Które instrumenty polityki miały największy wpływ na poziom wydatków na B+R? Interakcje. Czy istnieje jakikolwiek dowód na to, że instrumenty polityki oddziałują na siebie pozytywnie lub negatywnie? Rządzenie. Czy istnieje jakakolwiek forma koordynacji polityki B+R i innowacji oraz innych polityk mających potencjalne skutki dla poziomu inwestycji w B+R i innowacje? [Designing 2009; OECD 2010] Pytania te stały się osią ewaluacji Policy Mix polityki naukowej w Polsce [Policy Mix Poland 2007]. Nową propozycję uporządkowania analizy i ewaluacji Mieszanki Polityki zaproponowali Magro i Wilson [2013], nawiązując do idei zaproponowanych przez Flangana [2011] oraz OECD [2012]. W przeciwieństwie do koncepcji Policy Mix opartych na uwzględnianiu zestawu instrumentów krajowej polityki innowacyjnej, wzięli oni pod uwagę trzy dodatkowe elementy – domeny (dziedziny) polityk, >uzasadnienia polityk oraz poziomy polityki (ponad-narodowy; krajowy; regionalny; lokalny): 61 Propozycję swoją nazwali oni „Protokołem Mixu Ewaluacji”, ujmując ją w sześciu krokach: Krok 1 – Nakreśl system polityczny i ustal jego zakres odnośnie do uzasadnień, domen i instrumentów (policy mix) oraz poziomów. Krok 2 – Sporządź listę uzasadnień polityki. Krok 3 – Przeprowadź analizę mixu domen i instrumentów wiążących się z różnymi uzasadnieniami na różnych poziomach administracyjnych, biorąc pod uwagę dublowania i komplementarności. Krok 4 – Rozpoznaj aktualne praktyki ewaluacji oraz zakres, w jakim uwzględniają one interakcje między instrumentami polityki. Krok 5 - Zaprojektuj i przeprowadź zintegrowaną ewaluację instrumentów polityki związanych z danym uzasadnieniem. Krok 6 – Zintegruj te ewaluacje w formie całościowej oceny: mixu ewaluacji. Znaczenie koncepcji Policy Mix w polityce naukowej i innowacyjnej. Jak dotąd polityka rozwija się bardziej wskutek kolejnych bieżących „przyrostów” (dodawania nowych i usuwania dawniejszych instrumentów) niż wskutek świadomych i przemyślanych działań w celu konstruowania Policy Mix. Ta sytuacja powoli się zmienia, w miarę jak koncepcja ta staje się coraz bardziej znana politykom i szerokim kręgom zainteresowanych [Designing 2009]. W latach 2006-2009 na zlecenie Komisji Unii Europejskiej instytut UNU-MERIT w Maastrich realizował projekt badawczo-ewaluacyjny mający na celu zarówno pogłębienie rozumienia problematyki Policy Mix w dziedzinie B+R, jak i przeprowadzenie oceny „mieszanek polityki” naukowej w niektórych krajach członkowskich. W ramach projektu opublikowano wiele raportów metodologicznych, problemowych i ewaluacyjnych, m.in. UNU-Merit Policy Mixes for R&D in Europe 2009 oraz UNU-Merit Monitoring and analysis of policies conducive to higher levels of R&D. Country Review Poland 2007. Bibliografia Benchmarking Of National Policies Public And Private Investments In R&D. Final Report Expert Group, OECD June 2002. Benchmarking Of National Policies Public And Private Investments In R&D. Final Report Expert Group, OECD June 2002. 62 C. Nauwelaers, and R. Wintjes, Innovating SMEs and regions: the need for policy intelligence and interactive policies, “Technology Analysis and Strategic Management”, (2002) 14 (2), 201-215. Claire Nauwelaers & René Wintjes, Innovating SMEs and Regions: The Need for Policy Intelligence and Interactive Policies, ”Technology Analysis & Strategic Management”, Vol. 14, No. 2, 2002. Designing Policy Mixes: Enhancing Innovation System Performance and R&D Investment Levels, March A study funded by the European Commission – DG Research 2009. J. S. Metcalfe, Science, Technology and Innovation Policy in Developing Economies, 2000; Raising EU R&D Intensity. Improving the Effectiveness of the Mix of Public Support Mechanisms for Private Sector R&D, Report to the European Commission by an Independent Expert Group. Kieron Flanagan, Elvira Uyarra, Manuel Laranja, Reconceptualising the ‘policy mix’ for innovation, “Research Policy” 40 (2011) ss. 702–713. Michael Howlett and Jeremy Rayner, Design Principles for Policy Mixes: Cohesion and Coherence in ‘New Governance Arrangements’, ”Policy and Society” 01/2007; 26(4):1-18. NESTA Paul Cunningham, Jakob Edler, Kieron Flanagan, Philippe Larédo, Innovation policy mix and instrument interaction: a review, November 2013 OECD (2012), Innovation policy mix for business R&D and innovation, w: OECD Science, Technology and Industry Outlook. OECD Policy Mix for Innovation In Poland. Key Issues and Recommendations, 2007. OECD Public Funding Of R&D: Emerging Policy Issues, 13-14 March 2001. OECD The Innovation Policy Mix, w: STI Outlook 2010 Optimising the Policy Mix by the Development of a Common Methodology for the Assessment of (Socio)Economic Impacts of RTDI Public Funding, Brussels, December 2013 Paul Cunningham, Jakob Edler, Kieron Flanagan, Philippe Larédo, Innovation policy mix and instrument interaction 2013. Policy Mixes for R&D in Europe, UNU-MERIT, A study commissioned by the European Commission – Directorate-General for Research, April 2009. Policy-Mix Country Review US 2007 Policy-Mix Methodological Report 2006 Policy-Mix Monitoring and analysis of policies and public financing instruments conducive to higher levels of R&D investments. Country Review Poland, 2007. Policy-Mix R&D Policy and Non-R&D Policy Interactions and Impacts 2008 Policy-Mix Thematic Report Governance 2008 Policy-Mix Thematic Report Mini-Mix 2007 Policy-Mix Thematic Report R&D – R&D Policy Interactions 2008 Policy-Mix Thematic Report Routes 2008 Raising EU R&D Intensity. Report to the European Commission by an Independent Expert Group Improving the Effectiveness of the Mix of Public Support Mechanisms for Private Sector Research and Development, European Commission 2003. Stefan Kuhlmann, Evaluation as a source of `strategic intelligence`, w: Learning from Science and Technology Policy Evaluation, ed. by Philip Shapira, Stephan Kuhlmann, Edward Elgar, 2003. The Impact Of Public R&D Expenditure On Business R&D, OECD 1999. Edurne Magro, James R. Wilson, Complex innovation policy systems: Towards an evaluation mix, “Research Policy” 42 (2013) 1647– 1656. 63 POLITYKA PUBLICZNA Polityka publiczna (ang. public policy) – dziedzina zracjonalizowanych i systemowych działań państwa i społeczeństwa wokół problemów publicznych, także dyscyplina nauk społecznych zapoczątkowana przez Harolda Lasswella. W języku polskim nie mamy właściwego, czy może jednoznacznego terminu, na oddanie tego, co w języku angielskim oznacza termin „public policy”, albo samo słowo „policy” [Wikipedia 2014]. Przeprowadzanie przez władze publiczne zmian, w których interwencję traktuje się jako inwestycję, która ma zapewnić oczekiwany zwrot • na podstawie znajomości – przedmiotu – celu – logiki (koncepcji tłumaczącej mechanizm, dzięki któremu osiągnie się zakładane cele) – narzędzi interwencji • dzięki stosowaniu policy intelligence na kolejnych etapach cyklu polityki • w danych ramach prawno-politycznych (zobowiązania, zalecenia i priorytety, zarówno unijne, jak i krajowe; doświadczenia z przeszłości; negocjacje i konsultacje; debata publiczna; względy polityczne; intuicja). Polityka niemal zawsze ujmowana jest w aktach prawnych. Związki między polityką a prawem różnią się w zależności od porządku prawnego kraju, obszaru działania, kategorii spraw [Nauka 2009]. Instrumenty prawne powinny być zharmonizowane i osadzone w instrumentach poza-prawnych. Ograniczeniem prawa jako instrumentu zmiany jest prawniczy styl tworzenia prawa, który narzuca prawnikom „końskie okulary” w ocenie możliwych rozwiązań i który jest głównym powodem faktu, że zmiany są najczęściej inkrementalne [Sigler 1978]. Prawo (krajowe i międzynarodowe) to • ramy procedur decyzyjnych w polityce • ramy możliwych rozwiązań prawnych i nie-prawnych • instrument działań politycznych (obok nie-prawnych instrumentów polityki, takich jak np. oświadczenia, informacja, konsultacje społeczne, foresight, decyzje adm.) • uzasadnienie. Często polityki realizuje się za pomocą programów (pakietów instrumentów), programy za pomocą instrumentów, a instrumenty – projektów: 64 Polityka Programy Instrumenty Projekty Ciąg działań rządu ujmuje się nieraz w formie następującego schematu: Dostępne środki Wkład Procesy (co i jak rząd robi) Produkty i usługi Wpływ na obywateli i biznes Bibliografia Nauka administracji, red. Barbara Kudrycka, B. Guy Peters, Patrycja Joanna Suwaj, Warszawa Wolters Kluwer Polska, 2009. Jay A. Sigler; Benjamin R. Beede, The Legal Sources of Public Policy, “The Journal of Politics”, Vol. 40, No. 3 (Aug., 1978), ss. 823-825. Wikipedia, Polityka publiczna, 2014. POMIAR I EWALUACJA W POLITYCE NAUKOWEJ I INNOWACYJNEJ Odpowiednie pomiary i ewaluacja są kluczowe dla sukcesu polityki naukowej i innowacyjnej, umożliwiają one decydentom i analitykom: • • • • Ocenić wkład B+R i innowacji do realizacji celów społecznych i gospodarczych, Zrozumieć uwarunkowania i bariery B+R i innowacji, których znajomość jest niezbędna dla projektowania skutecznej polityki, Ustalić wpływ polityki i programów oraz to, czy polityka przyczyniła do korygowania lub łagodzenia problemu który miała rozwiązać (np. zawodność rynku we wspomaganiu innowacyjnej przedsiębiorczości pod takimi względami jak finansowanie, szkolenia, doradztwo i technologie), Ocenić skuteczność różnych opcji polityk, umożliwiając rządowi podejmowanie świadomych decyzji dotyczących alokacji środków, 65 • • • Ciągle ulepszać projektowanie i zarządzania programami. Ewaluacja jest kluczowym narzędziem uczenia się jak formułować polityki i programy, jakie problemy się pojawiają, jakie praktyki działają dobrze, co należy w przyszłości zrobić lepiej, Pobudzanie świadomej debaty. Wyniki ewaluacji mogą zachęcać do debaty publicznej, stwarzając możliwość interesariuszom - od sponsorów i menedżerów do beneficjentów programu - do refleksji na temat adekwatności i skuteczności polityk, programów i instytucji, Zwiększyć publiczną odpowiedzialność polityk (zob. >ROZLICZALNOŚĆ). Por. >EWALUACJA POLITYKI NAUKOWEJ I INNOWACYJNEJ. Bibliografia IPP Innovation Policy Platform, The role of measurement and evaluation in policy and governance, 2014-0116. PRIORYTETY W POLITYCE NAUKOWEJ I INNOWACYJNEJ Ustalanie priorytetów to dokonywanie pewnych wyborów mających wpływ na podział publicznych środków kosztem innych wyborów (kto ma dostać pieniądze, jak wiele i na co). Priorytety to preferencje w stosunku do wybranych alternatyw w procesie >KSZTAŁTOWANIA POLITYKI w odpowiedzi na >KLUCZOWE WYZWANIA i >PROBLEMY POLITYCZNE; albo explicite, sporządzone na podstawie wcześniej publikowanych >DOKUMENTÓW POLITYCZNYCH, lub niejawne („de facto”). Priorytety stwarzają ramy dla decyzji bieżących; są one zwykle uzupełniane przez „posteriorities” (decyzje aby porzucić pewne cele i zadania). Rozróżnia się priorytety „strukturalne” (np. wzrost finansowania badań, wspieranie badań podstawowych, szkolenie pracowników badawczych) i priorytety „tematyczne” (np. ICT, biotechnologia, nauki o morzu). Priorytety mogą być ustalane odgórnie lub oddolnie, lub też przez kombinację obu podejść. Oprócz krajowych priorytetów istnieją również priorytety w UE oraz na poziomach regionalnym, mezo (realizacji) lub na poziomie taktycznym (np. organizacji badawcza lub firmy). Priorytety w nauce odnoszą się do • • • podstawowych celów finansowania badań ze źródeł publicznych (takich jak np. jakość badań; wpływ na technologie, rozwój społeczny i wzrost gospodarczy); decyzji co do podziału funduszy na B+R pomiędzy dyscyplinami i instytucjami; decyzji rozstrzygających najważniejsze opcje polityczne (kształt systemu nauki, np. finansowanie B+R przez Ministerstwo Nauki czy też przez wiele ministerstw; więcej badań poznawczych czy ukierunkowanych na cele; więcej małej czy więcej wielkiej nauki; więcej rynku czy więcej państwa; koncentracja wysiłku badawczego w centrach doskonałości czy też rozproszenie badań po wielu wydziałach uniwersyteckich i instytutach; więcej badań podstawowych czy więcej strate66 gicznych i stosowanych; klasyczne peer-review, tj. akademickie kryteria oceny projektów i programów czy też peer-review uzupełnione o kryteria użyteczności technologicznej, społecznej i gospodarczej itd.). Pojęcie priorytetu w polityce naukowej ma z reguły dość szeroki i nie zawsze określony zakres. Istnieją priorytety explicite, które choć nagłaśniane, nie skutkują w istotnych decyzjach finansowych, oraz priorytety ukryte. W wielu krajach takimi ukrytymi pełzającymi priorytetami były np. zmiany proporcji w finansowaniu uczelni i poza-uczelnianych instytucji badawczych oraz nauk biologicznych i fizycznych (na korzyść tych pierwszych), które, choć nieznaczne w skali roku, skumulowane, okazały się istotne w skali dwóch dekad. Priorytety bywają rodzajem ogólnej wytycznej dla przyszłych decyzji, podkreśleniem wagi pewnych kwestii i rozwiązań w białych lub zielonych księgach, bywają też metodą zarządzania środkami publicznymi. Coraz częściej bywają tym drugim. Od lat 1990., wraz z rosnącą popularnością Nowego Zarządzania Publicznego i budżetu zadaniowego, wyznaczanie celów, zadań, priorytetów i wskaźników wykonania dla organizacji i programów rządowych stało się coraz częstsze, zinstytucjonalizowane i obligatoryjne. W konsekwencji, coraz częściej priorytety łączy się z określaniem oczekiwanych „rezultatów” i „wpływów” polityk oraz z budowaniem wskaźników i podejmowaniem ewaluacji, mającej ocenić ich zasadność i skuteczność. Nie jest jednak łatwe (a nawet możliwe) w odniesieniu do badań ukierunkowanych tylko na cele poznawcze. Najczęściej priorytetami w nauce nazywa się dziś systematycznie podejmowane i w miarę zobiektywizowane decyzje co do preferowanych obszarów zmian w podziale środków na B+R. Priorytety są rodzajem wędzidła nakładanym na pokusę działań niejawnych, nie motywowanych interesem publicznym. Priorytety opiera się o uzgodnione wcześniej przesłanki oraz zasady wyboru, a ustala w wyniku procesu politycznego angażującego różnych interesariuszy. Priorytety są elementem cyklu polityki, dźwignią uruchamiającą kolejne decyzje (na coraz niższym szczeblu) w ramach pewnego porządku podejmowania decyzji. W zależności od charakteru systemu władzy i decyzji co do ulokowania spraw nauki (odrębne ministerstwo, wiele ministerstw) ustalanie priorytetów jest mniej lub bardziej zcentralizowane, bardziej odgórne lub bardziej oddolne. Zdecentralizowane systemy sterowania nauką, jak w Stanach Zjednoczonych i w Izraelu, nie wykluczają istnienia wielkich narodowych strategicznych inicjatyw, takich jak amerykańska National Nanotechnology Initiative (2000). Często celem priorytetów jest „naprawa tego, co się popsuło”, „wzmacnianie zalążków przyszłości”, np. pewnych pól badań, jak technologie konwergencji (ICT, nano, bio), „zapobieganie rysującym się zagrożeniom” (np. zewnętrznym, jak starzenie się społeczeństw, oraz wewnętrznym, jak starzenie się środowiska naukowego). Priorytety są „miękkie”, kiedy są finansowane z dodatkowych źródeł budżetowych, ponad kwoty przekazane poprzednich latach, oraz „twarde”, kiedy łączą się z decyzjami o zaprzestaniu (lub zmniejszeniu) finansowania pewnych pól badan lub zadań. W Niemczech te „ujemne priorytety” nazywa się posteriorytetami. 67 Czasami termin ten stosuje się w nazwach pewnych konkretnych procedur, np. sposobu dochodzenia do decyzji w sprawie długofalowego finansowania wielkiej aparatury badawczej. Na wybór priorytetów mają wpływ >TYP SYSTEMU NAUKI, >RAMY POLITYK, >ANALIZY POLITYK, >KONSULTACJE, wydarzenia (np. demonstracje przeciwko ACTA, energii nuklearnej, badaniom prenatalnym), media („czwarta władza”) oraz aktywność obywateli (sieć, organizacje pozarządowe). W scentralizowanym systemie nauki priorytety ustala się odgórnie, a interesariusze zabierają głos tylko jako doradcy; w systemie zdecentralizowanym przeciwnie, decydujący głos ma środowisko naukowe; w systemie mieszanym łączy się wybór odgórny z oddolnym. O kryteriach selekcji priorytetów decyduje zarówno wewnętrzna logika rozwoju wiedzy naukowej i technologicznej, jak i potrzeby oraz perspektywy gospodarcze, społeczne i polityczne kraju. Jednoczesne uwzględnienie tych różnych wymiarów oraz uporanie się z nadmiarem informacji płynących z diagnoz, prognoz i opinii jest zadaniem polityki jako sztuki opartej na wiedzy. Aby w miarę racjonalnie ustalać priorytety, trzeba mieć dane do analiz, znać potrzebne kategorie i klasyfikacje, umieć stosować schematy analityczne i procedury decyzyjne. Nie jest to, wbrew pozorom, łatwe; wiele administracji uczyło się sztuki priorytetyzacji od swoich bardziej zaawansowanych sąsiadów. Takim nauczycielem dla Finów byli Szwedzi. Aż do początków lat 1960. przeważała opinia, że kwestię ustalania priorytetów w nauce powinno się pozostawić samym badaczom. Rozwój nauki jest nieprzewidywalny, a naukowcy najlepiej wiedzą, co dla nauki dobre. Zakwestionował tę zasadę Alvin Weinberg (1962), argumentując, że przy wyborze priorytetów wewnętrzne kryteria – dojrzałość pola badawczego i kompetencje badaczy – powinny zostać uzupełnione przez kryteria zewnętrzne, takie jak znaczenie tego pola dla 1) rozwoju innych pól badawczych oraz 2) osiągnięcia ważnych celów technologicznych, gospodarczych i społecznych. Jednak w rzeczywistości priorytety stosowano, odkąd tylko podczas I (a potem II) Wojny Światowej gwałtownie wzrosły rządowe wydatki na B+R. Priorytetem było wówczas naukowe wsparcie zwycięstwa wojennego, a po wojnie zwycięstwo w zimnej wojnie. Priorytetowe stały się odgórnie wybrane przez rząd dziedziny, takie jak energia nuklearna, podbój kosmosu, fizyka, poza-uczelniane instytuty badawcze. Obecnie system wyboru priorytetów jest coraz bardziej zdecentralizowany i wielopoziomowy (specjalności wybrane przez agencje, wielkie organizacje badawcze, uczelnie). Priorytety są ustalane na poziomie europejskim (np. Horyzont 2020), krajowym (np. Krajowy Program Badań) i regionalnym (np. regionalne strategie innowacji, inteligentna 68 specjalizacja). Informacje o rządowych priorytetach w dziedzinie nauki, technologii i przemysłu zamieszcza OECD Science, Technology and Industry Outlook. Nowe kraje członkowskie Unii Europejskiej muszą stosować nieco inne perspektywy w zbieraniu i analizowaniu danych niż rozwinięte. Obok perspektywy diagnostycznej (np. jak działa system nauki) i prognostycznej (jakie dyscypliny i technologie stają się lub staną się podstawą przyszłego paradygmaty techno-gospodarczego) niemniej ważne są dla nich perspektywa dościgania (jak powinny zmieniać się funkcje badań jako motoru rozwoju w kolejnych fazach rozwoju?) oraz perspektywa specjalizacji (jakie są przewagi porównawcze kraju i jak je wykorzystywać?). Bibliografia. Priority Setting and the Coordination of International Cooperation OECD 2008 R&D specialisation strategic intelligence in priority setting OECD 2008 S&T Foresight & Horizon scanning Influencing R&D priorities Netherlands OECD 2008 Towards Good Practices in Priority Setting OECD 2008 Priorities in Science & Technology Policy. An International Comparison 2004 Emerging Thematic Priorities for Research in Europe IPTS 2000 Setting Priorities for the Science Base, POST, Parliamentary Office of Science and Technology, 1993. Gabriel Drillhon, Choosing priorities in science and technology, OECD, Paris 1991. A. Rip, R. Hagendijk, Implementation of Science Policy Priorities, SPSG Concept Paper No. 2, 1988. PROBLEM POLITYCZNY Proces >FORMUŁOWANIA POLITYKI w ramach >CYKLU POLITYKI zaczyna się od zdefiniowania problemu. Wg Giandomenico Majone (…) najważniejszą funkcją zarówno debaty publicznej, jak i formułowania polityk jest ustalanie norm, które określają, kiedy pewne warunki należy uznać za problemy polityki. Obiektywne warunki rzadko są tak ważne i jednoznaczne, że określają program polityki lub narzucają odpowiednie sformułowane zagadnienie. W latach 50. problem ubóstwa miał niewielkie znaczenie w amerykańskiej świadomości społecznej. W latach 60., przy nieznacznych zmianach dystrybucji dochodu, stał się ważną częścią polityk publicznych [Majone 2007].” Problemy mogą być konceptualizowane w różnych skalach i z różnym stopniem skomplikowania. Skala lub jednostki analizy (np. poziom mikro lub makro) i złożoności (pojedyncza kwestia lub gniazdo pokrewnych zagadnień) mają wielkie znaczenie gdy idzie o to, jak problemy polityczne przedstawia się, dyskutuje i bada. Opis problemu politycznego obejmuje następujące elementy: podstawowe fakty; charakter i waga zagadnienia; informacja, kogo problem dotyczy (np. małych i średnich firm), jakie są jego źródła i jakie następstwa. Najczęściej budowę strategii innowacyjnych poprzedza analiza krajowego systemu innowacji, kładąca nacisk na jego „ułomności” (Por. 69 >UZASADNIENIA POLITYKI NAUKOWEJ I INNOWACYJNEJ), „luki”, „bariery”, „dysproporcje”, „pułapki rozwoju” i „wąskie gardła”. W trakcie analizy zwraca się m.in. uwagę na luki: wiedzy, popytu, przedsiębiorczości, zasobów ludzkich, infrastruktury, a także na lukę inwestycyjną i instytucjonalną. Następnie, ustala się źródła i uwarunkowania każdej z luk oraz proponuje sposoby ich usunięcia lub ograniczenia. Luki mogą dotyczyć m.in.: kapitału ryzyka; dostosowania podaży i popytu w produkcji wiedzy naukowej i technologicznej; niedostatecznego popytu ze strony firm na nowe technologie (zwłaszcza informacyjnymi i telekomunikacyjnymi) z powodu słabej wiedzy o ich zaletach; przeszkód w tworzeniu małych innowacyjnych firm z powodu nieefektywności rynku kapitałowego oraz braku klimatu przedsiębiorczości; braku infrastruktury upowszechniania wiedzy i technologii; niedostatecznej mobilności pracowniczej i in.) itd. Pytania odnoszące się do „luk” powinny wynikać z analizy powiązań gospodarczych branży lub regionu. Np. – w jakim punkcie łańcucha powiązań gospodarczych ujawniają się ułomności rynku? Czy luka istnieje po stronie popytu czy po stronie dostaw? Czy problem zachodzi w B+R, produkcji czy marketingu? Czy bariery mają charakter techniczny, strukturalny, organizacyjny czy finansowy? Czy nie dofinansowanie B+R ze strony biznesu ma związek ze specjalnymi cechami B+R, czy też jego źródłem jest niechęć do podejmowania ryzyka? Jeśli bariera ma charakter techniczny, czy problem jest przede wszystkim efektem nadzwyczajnego ryzyka technicznego, nierównowagi w B+R, nieadekwatnej infrastruktury, czy jeszcze innych czynników? Jeśli bariera ma charakter strukturalny, czy problem wynika z braku `masy krytycznej` badaczy w firmie, z niedostatecznej wielkości firmy, z `barier wejścia`, czy też ze słabej pionowej integracji? Jeśli bariery mają charakter menedżersko-organizacyjny, czy problem jest związany z nowym lub wysokimi wymaganiami co do koordynacji B+R, produkcji i marketingu, czy też z potrzebą nowych praktyk lub technik? [Tassey 1997] „Luka” jest zarazem wskazaniem dla polityki. Np. w opinii Banku Światowego czynnikami odpowiedzialnymi za niski poziom przedsiębiorczości w Polsce są wysokie koszty rejestracji firmy, niekorzystne przepisy podatkowe i regulujące rynek pracy, wysoki poziom składek na ubezpieczenie społeczne, a także uciążliwa biurokracja i niska skuteczność sądownictwa [Bank Światowy]. Każda z rozpoznanych luk to jednocześnie obszar poszukiwanych rozwiązań oraz podstawa do ustalenia zasad oceny proponowanych rozwiązań. W określaniu luk pomocne jest sięganie po metafory, uznane i sformalizowane, takie jak krajowy system innowacji, otwarta metoda koordynacji, czy też konkurencyjna przewaga, oraz nowe i własne (por. >METAFORY W NAUCE). Metafory to “sposób wyboru, organizowania, interpretacji oraz nadawania sensu złożonej rzeczywistości w celu budowy drogowskazów dla poznawania, analizowania, argumentowania oraz działania” [Øverland 2005]. 70 Luki Luka wiedzy. Niedopasowanie podaży i popytu w produkcji wiedzy. Wyższe uczelnie i instytuty państwowe nie są w dostatecznym stopniu ukierunkowane na dziedziny o strategicznym znaczeniu dla przedsiębiorczości. Z drugiej strony, MŚP nie wykorzystują w wystarczającej mierze wiedzy wytwarzanej w tych instytucjach z powodu trudności dostępu do nich lub też braku świadomości potencjalnych korzyści ze stosowania wiedzy. / Luka pomiędzy wzrastającą potrzebą skutecznego upowszechniania wiedzy a istniejącą infrastrukturą upowszechniania, rozwiniętą w okresie dominacji liniowego modelu innowacji. / Firmy nie wykorzystują wiedzy swych dostawców oraz klientów. Luka popytu. Niedostateczne zainteresowanie ze strony firm nowymi technologiami (zwłaszcza informacyjnymi i telekomunikacyjnymi) z powodu słabej wiedzy o ich zaletach. Luka przedsiębiorczości. Niskie tempo tworzenia nowych firm z powodu nieefektywności rynku kapitałowego oraz braku klimatu przedsiębiorczości Luka inwestycyjna. Publiczne i prywatne wydatki na B+R nie są w stanie zapewnić produkcji wiedzy naukowej i technologicznej odpowiadającej potrzebom gospodarczym i społecznym. / Względnie niski poziom prywatnych inwestycji w B+R. Brak prywatnego kapitału ryzyka. Luka instytucjonalna. Nadmierna koncentracja badań w sektorze szkolnictwa wyższego, z jej konsekwencją - nadmiernymi inwestycjami w badania podstawowe. Brak masy krytycznej badań stosowanych. / Komercjalizacja wyników B+R uzyskanych w wyższych uczelniach i w laboratoriach państwowych hamowana przez utrudnienia w wymianie personelu i funduszy między przemysłem, wyższymi uczelniami i laboratoriami państwowymi. / Nadmiernie rozbudowane B+R w stosunku do innych form działalności naukowej i technicznej. Stosunkowo słabe powiązania uczelni z przemysłem. Instytucjonalne bariery utrudniające skuteczne interakcje pomiędzy różnymi elementami systemu innowacji. / Sieć instytucji działających na rzecz transferu technologii jest niepełna, co prowadzi do wielu luk i dublowań. Poziom umiejętności technicznych MŚP stosunkowo niski w porównaniu z zagranicą. / Brak poczucia tożsamości w tzw. gronach przemysłowych / Firmy zaniedbują możliwości współpracy z innymi firmami. Luka infrastrukturowa. Brak wystarczającej infrastruktury B+R (urządzenia, wyposażenie) w publicznych organizacjach badawczych. / Niski poziom wykorzystywania publicznej infrastruktury nauki przez MŚP. Luka w zasobach ludzkich. Niski udział personelu B+R wśród ogółu zatrudnionych, co odzwierciedla nie tylko niską naukochłonność gospodarki, ale także nieefektywność systemu zatrudnienia. / Niedostatek badaczy zatrudnionych w twórczą działalność B+R (w przeciwieństwie do prac B+R o charakterze ewaluacyjnym, adaptacyjnym i postlicencyjnym). / Niedostateczna mobilność pracownicza. Sposób definiowania luki jest zatem jedną z ważniejszych przesłanek doboru instrumentu politycznego. Pomocne w uświadomieniu sobie wszystkich komponentów problemu politycznego są opracowania zawierające propozycję map problemowych: LUKI ORAZ SPOSOBY ICH PRZEZWYCIĘŻANIA Źródła branżowych ułomności innowacji Typowe branże Instrumenty polityczne Finansowe koszty transakcji, z jakimi spotykają się MSP; ryzyko związane ze standardami nowych technologii Oprogramowania, wyposażenie, instrumenty Wspieranie kapitału ryzyka; instytucje pomostowe dla ułatwienia adaptacji standardów Mała wielkość firm; wielkie ze- Rolnictwo, przemysł Instytucje pomostowe niskich 71 wnętrzne zyski; ograniczona możliwość przywłaszczenia zysków lekki technologii (tzw. extension services) dla ułatwienia transferu technologii Wysoki koszt, ograniczona możliwość przywłaszczenia zysków (szczególnie dla technologii infrastrukturowych) Przemysł lotniczy i kosmiczny, technologie elektryczne i elektroniczne, ICT, półprzewodniki Współpraca B+R, subsydia; instytucje pomostowe dla ułatwienia rozwoju technologii infrastruktury Wiedza powstaje poza sektorem biznesu; jej twórcy mogą nie rozpoznać potencjalnych zastosowań lub też mogą nie umieć skutecznie przekazywać potencjalnym użytkownikom informacji o postępie badań Biotechnologia, chemia, materiałoznawstwo, przemysł farmaceutyczny Instytucje pomostowe dla ułatwienia dyfuzji postępu badań w tzw. wielkiej nauce. Martin 2000 Modele innowacji, źródła branżowych ułomności innowacji oraz odpowiedzi polityki Główny tryb innowacji Źródła branżowych ułomności innowacji Typowe branże Instrumenty polityczne Rozwój wkładu dla branż użytkowników Finansowe koszty transakcji, z jakimi spotykają się MSP; ryzyko związane ze standardami nowych technologii Oprogramowania, wyposażenie, instrumenty Wspieranie kapitału ryzyka; instytucje pomostowe dla ułatwienia adaptacji standardów Aplikacja wkłady rozwiniętego w branżach dostawców Mała wielkość firm; wielkie zewnętrzne zyski; ograniczona możliwość przywłaszczenia zysków Rolnictwo, przemysł lekki Instytucje pomostowe niskich technologii (tzw. extension services) dla ułatwienia transferu technologii Rozwój złożonych systemów Wysoki koszt, ograniczona możliwość przywłaszczenia zysków (szczególnie dla techno-logii infrastrukturowych) Przemysł lotniczy i kosmiczny, technologie elektryczne i elektroniczne, ICT, półprzewodniki Współpraca B+R, subsydia; instytucje pomostowe dla ułatwienia rozwoju technologii infrastruktury Aplikacja technologii wysoce nauko-chłonnych Wiedza powstaje poza sektorem biznesu; jej twórcy mogą nie rozpoznać potencjalnych zastosowań lub też mogą nie umieć skutecznie przekazywać potencjalnym użytkownikom informacji o postępie badań Biotechnologia, chemia, materiałoznawstwo, przemysł farmaceutyczny Instytucje pomostowe dla ułatwienia dyfuzji postępu badań w tzw. wielkiej nauce. 72 Martin 2000 Kolejne kroki służące definiowaniu problemu ujmuje się w następujący sposób: KROK 1 Stan aktualny KROK 2 Aspekty zadawalające > Oczekiwania Aspekty pożądane w przyszłości Wizje przyszłości KROK 3 Wąskie gardła Bariery Definiowanie problemu Øverland 2005 Bibliografia Bank Światowy, Perspektywy gospodarki opartej o wiedzę w Polsce 2004. Head Brian 2009, Evidence-based policy: principles and requirements, University of Queensland. Majone Giandomenico, Dowody, argumenty i perswazja w procesie politycznym, Wyd. Nauk. Scholar, Warszawa 2004. Martin Stephen, John T. Scott, The nature of innovation market failure and the design of public support for innovation, “Research Policy” 29 (2000), s. 439. Øverland Erik F., The use of heuristic terms in policy building. Dynamic and fallacies in policy building process, Seminar at the IPTS June 6 2005. Tassey Gregory, The economics of R&D policy, 1997. Walker Warren E., The Use of Screening in Policy Analysis, Management Science, Vol. 32, No. 4. Apr., 1986, ss. 389-402. PROCES POLITYKI [Policy process] W naukach politycznych cykl polityki to narzędzie stosowane w analizie rozwoju polityki, bliskie pojęciu >CYKLU POLITYKI. Podobnie jak w cyklu polityki, w procesie polityki wyróżnia się cztery fazy: ustalania >agendy polityki, >formułowania polityki, >wdrażania oraz >ewaluacji. Podstawowe kwestie rozważane w procesie • • Jakie są główne etapy procesu decyzyjnego polityce naukowej i technicznej, jacy interesariusze odgrywają w nich główną rolę i po jaki typ wiedzy sięgają? W jaki sposób a) rozumie się, b) określa się o problemy polityczne? 73 • • • • • o cele i zadania i tzw. targety polityki? o instrumenty polityczne? o tzw. agendę polityczną? o priorytety? Jakie główne ramy koncepcyjne mają wpływ na wybór i określenie problemów itd.? Jakie wyróżnia się podstawowe wzorce systemów zarządzania rozwojem nauki i techniki i co charakteryzuje każdy z nich? Jakie stosuje się klasyfikacje instrumentów polityki naukowej i technicznej? Jak ocenia się użyteczność poszczególnych instrumentów na podstawie doświadczeń z ich zastosowaniami w odmiennych kontekstach politycznych różnych krajów? Jakiego typu przeprowadza się monitoringi i ewaluacje? W jaki sposób określenie problemów, celów i zadań wybór agendy i priorytetów wyniki monitoringu i ewaluacji inne polityki, mające wpływ na politykę naukową i techniczną (np. gospodarcza, monetarna, przemysłowa) o wielkie strategie rządowe - wpływa(ją) na wybór instrumentów politycznych (lub korektę istniejących)? o o o o • • Jakie narzędzia informacyjno-analitycznego wsparcia stosuje się w procesie decyzyjnym (np. analizę polityki, benchmarking polityk, foresight, prognozy rozwoju nauki, modele ekonometryczne)? W jaki sposób statystyka nauki i techniki służy jako narzędzie w ustalaniu agendy politycznej, problemów, priorytetów, monitoringu i ewaluacji? W jaki sposób zapewnia się o tzw. policy mix (synergię pomiędzy różnymi instrumentami, np. wzajemne ukierunkowanie ich na siebie lub też skierowanie dwóch lub więcej instrumentów na wspólny cel lub tzw. target)? o sekwencjonowanie instrumentów (następstwo w czasie w pewnym logicznym porządku)? • • W jaki sposób organizacje mające wpływ na politykę naukową i techniczną dokonują auto-korekty swoich decyzji (uczą się na błędach)”? Jakie wśród państw UE występują trendy polityki naukowej i technicznej, w szczególności w odniesieniu do o procesu decyzyjnego, o instrumentów politycznych, o priorytetów, o koncepcji politycznych i ekonomicznych? 74 Zmiana charakteru procesu polityki. Badacze podkreślają zmianę charakteru procesu polityki. Liniowy model polityki w procesie sekwencyjnym (formułowanie, ustalanie agendy, decyzje, wdrożenie, ewaluacja, formułowanie ...) nie jest dłużej aktualny, przynajmniej w dziedzinie polityki naukowo-technicznej. Wszystkie typowe kroki są bardziej lub mniej interakcyjne. Polityka innowacyjna jest coraz bardziej kwestią tworzenia sieci między zróżnicowanymi zorganizowanymi podmiotami, zamiast odgórnym podejmowaniem decyzji. Udane tworzenie polityki zazwyczaj opera się na kompromisach i przewartościowaniach perspektyw interesariuszy. Podmioty prowadzące negocjacje realizują różne – częściowo rozbieżne – interesy, różnie postrzegają „rzeczywistość” [Kuhlmann 1999]. Obecny model polityki publicznej, oparty na redukcji złożonych problemów do postaci oddzielnych, racjonalnie zarządzanych części, nie jest już odpowiedni w obliczu do wyzwań stojących przed rządami oraz zmian w szerszym środowisku, w którym działają. Kluczowe wyzwania to: • • • zwiększona złożoność spowodowana przez wpływ teleinformatyki oraz wzrost interakcji między różnymi organizacjami i agencjami; bardziej zróżnicowana gama organizacji zaangażowanych w świadczenie usług publicznych zatarcie granic między polityką wewnętrzną i międzynarodową w wyniku zglobalizowanych sieci łączności oraz liberalizacji działalności gospodarczej, co oznacza, że krajowe wydarzenia pozostają pod coraz wpływem czynników międzynarodowych, i odwrotnie [Chapman]. Proces polityki traktuje się coraz częściej jako proces debat i negocjacji, podczas którego w różnych ramach interpretacji poddaje się ocenie różne cele, założenia, opinie, zasady i działania [Lundvall 1997]. Koncepcja Edelenbosa, Monnikofa i van de Riet ”podwójnej spirali” procesu polityki. Wg koncepcji Edelenbosa, Monnikofa i van de Riet istnieją dwa główne podejścia w procesie politycznym: podejście analityczne i menedżerskie. Pierwsze kładzie nacisk na budowę strategii politycznej dzięki serii analiz, drugie – na poszukiwanie konsensusu. Oba podejścia starają się określić własną tożsamość przez odrzucenie przeciwnego stanowiska. Pierwsze często lekceważy polityczne aspekty podejmowania decyzji, drugie – lekceważy analityczne, zarzucając mu naiwność i oderwanie od rzeczywistości polityki. Jednak walka pomiędzy tymi dwoma obozami jest nieproduktywna i niepotrzebna, gdyż uzupełniają się wzajemnie. Tak więc, powinno dokonać się ich syntezy. Taką proponowaną przez nas syntezą byłoby podejście podwójnej spirali. Podejście analityczne. Przez stulecia mędrcy, rady, błazny, szpiedzy, żony i nałożnice doradzały decydentom. Wszyscy oni byli źródłem informacji, pomagali ją zinterpretować i doradzali, jak ją wykorzystać. Z czasem rozwój polityki oddzielił decydenta od doradcy. Szczególnie w XIX w. postępy wiedzy naukowej wzmocniły wiarę w możliwość zastosowania metody naukowej do ulepszenia warunków życia. Powstała potrzeba zapewnienia racjonalnego doradztwa decydentom. Podejście analityczne wyłoniło się pod 75 koniec II Wojny Światowej z badań operacyjnych stosowanych do rozwiązania zagadnień wojskowych. Analiza matematyczna systemu broni dała początek szerszej perspektywie analizy systemowej. Analiza ta została później zastosowana w świecie polityki cywilnej. W pierwszych dekadach po II Wojnie Światowej nauki ekonomiczne stały się głównym źródłem idei i metod dla polityki publicznej. Ekonomia określiła zasady analizy systemów, przyczyniając się do powstania zmatematyzowanej analizy systemów. Aby umożliwić obliczenia, brano pod uwagę wyłącznie wartości wyrażane w pieniądzu. Jednak szybko okazało się, że podejście to pozostawia na boku „miękkie” efekty, społeczne i środowiskowe. Aby temu zaradzić, stworzono „społeczną analizę kosztów i korzyści”, w której czynniki zazwyczaj nie wyrażane ilościowo ujmowano w wartościach pieniężnych. Zamiana czynników jakościowych na ilościowe zrodziła jednak wiele trudności, których uświadomienie dało początek analizie wielo-kryterialnej i scorecards („Balanced scorecard” definiuje się jako zbiór miar, które dają menedżerom szybki i obszerny pogląd na stan biznesu, wliczając w to satysfakcję klientów, poziom innowacji organizacyjnych i sytuację finansową. Metoda stosowana także w szkolnictwie wyższym i administracji rządowej, z reguły służy jako narzędzie stałego organizacyjnego uczenia się i stopniowego doskonalenia). Metody te rezygnowały z odnoszenia wszystkich wartości do wartości pieniężnych; to politycy mieli teraz dokonywać wyborów, przypisując własne wagi do różnych kryteriów. Z czasem w analizach wzrosło znaczenie czynników nie-materialnych, takich jak kulturalne i polityczne. Rozszerzenie zakresu pod koniec lat 1950-tych przekształciło analizę systemów w analizę polityczną. Podejście analityczne ma na celu wspieranie polityki na podstawie wiedzy naukowej. W jej ujęciu problem polityczny to w znacznej mierze rezultat braku wiedzy. Cel analizy politycznej to pogłębienie rozumienia sytuacji problemowej, możliwych rozwiązań i ich następstw. Najlepszą opcję można wybrać gromadząc wiedzę o celach, warunkach i efektach różnych opcji. Kluczowe pojęcie analizy politycznej to (techniczna) racjonalność. Decydenci mają postępować racjonalnie, a jest to możliwe dzięki racjonalnej analizie. Przez racjonalność rozumie się wybór najwłaściwszych środków dla realizacji danych celów. W ewaluacji polityk, główną rolę odgrywa skuteczność (osiągnięcie celu) i wydajność (relacja między środkami a celami). Brak racjonalności w życiu codziennym analitycy upatrywali w braku informacji i/lub braku zdolności do ich przetwarzania. Odkrycia Simona i in. zwróciły jednak uwagę na ograniczenia racjonalności podejmowania decyzji w świecie polityki. W tradycyjnej analizie politycznej proces polityczny postrzega się jako racjonalno-hierarchiczny i złożony z różnych faz. Z biegiem czasu narosła krytyka tradycyjnego podejścia analizy politycznej. Stwierdzono, że z reguły brak wielu danych potrzebnych dla przeprowadzenia analizy, a jeśli są, to niekompletne albo niejednoznaczne. Ponadto, obiektywizm czy neutralność badacza czy polityka jest mitem. Wyznawane idee i teorie zabarwiają każdą obserwację, a narzędzia analizy i metody mają swoje ukryte założenia. Sposób, w jaki traktuje się informację, w silnym stopniu zależy od sposobu, w jaki polityk patrzy na świat. Fakty to produkty definicji i zasad. Kształtowane są one przez światopoglądy, koncepcje, mapy 76 mentalne. Co więcej, decydenci często kierują się nie tyle interesem publiczny, co względem na reelekcję, status, prestiż, wpływ, zarobki itd. Naukowcy, doradcy i politycy mogą też być, dzięki wspólnemu wykształceniu i ideologii, częścią tej samej grupy technokratów. Politycy nieraz wykorzystują analizy jako symbol racjonalnego procesu decyzyjnego, aby wzmocnić swoją pozycję oraz wyjaśnić i usprawiedliwić swe działania wyborcom. Politycy podatni są na myślenie grupowe. Decyzje rzadko są dziełem ich indywidualnego namysłu, a z zasady zapadają w kręgach politycznych, do których należą. Kręgi te starają się urabiać decyzje zgodnie z własnym interesem (lub własnym pojmowaniem interesu publicznego), a blokować lub zamrażać decyzje, które kłócą się z ich poglądami. W efekcie rutyny, metoda prób i błędów, negocjacje, targi, perswazje, retoryka, szantaż, lobbowanie itd. zazwyczaj mają silniejszy wpływ na rezultat polityki niż racjonalne analizy. Proces polityczny okazuje się często nieprzewidywalny: nie-liniowy, pozbawiony ustalonej struktury, jasnego i wyraźnego początku lub końcowych sekwencji. Jednym z najpoważniejszych problemów w analizie politycznej jest znalezienie silnych dowodów empirycznych dla przedstawianych rekomendacji. Politycy proszą analityków o radę, a zadaniem ekspertów (lub ciał doradczych) jest oparcie zaleceń na „ogólnych ustaleniach” lub „stylizowanych faktach”. Jednak nie jest to proste. W wielu dziedzinach ekonomii współistnieją sprzeczne teorie, a świadectwa empiryczne są często poplątane. Np. teorie dotyczące wzrostu gospodarczego, innowacji, technologii czy prawa o konkurencyjności zawierają tezy nie zawsze mocne, trudne do kondensacji w formie prostych zaleceń, a czasem nawet sprzeczne ze sobą. Źródłem tych sprzecznych rezultatów są rozbieżne zespoły założeń (w teorii) i różne standardy i metody (w badaniach empirycznych). Wśród ekonomistów istnieje pewien podstawowy konsensus w odniesieniu do pewnych zagadnień, ale tylko na wysokim szczeblu abstrakcji, a nie w odniesieniu do konkretnych zaleceń. Zgodę co do poglądów, założeń i metod można osiągnąć w ramach szkół naukowych, ale nie pomiędzy szkołami. Choć współzawodnictwo pomiędzy szkołami prowadzi do coraz większej liczby nowych teorii, nieraz wartościowych w kategoriach mocy dowodowej i liczby zastosowań, niemniej różnią się one w podstawowy sposób pod względem ogniska zainteresowań, założeń i metod, a zatem są niewspółmierne wobec siebie. Jakkolwiek tradycyjne analizy biorą dziś pod uwagę fakt, że model racjonalny nie odzwierciedla rzeczywistości, nadal jest on uznawany za normę. Tradycyjny analityk trzyma się z dala od świata polityki. Dzieje się tak głównie z powodu jego politycznej słabości. Wpływ analizy politycznej na decyzje jest często bardzo słaby. Wzrastająca krytyka podejścia analitycznego nie pozostała bez wpływu na samych analityków. Zawsze ten czy tamten oddalał się od nurtu ortodoksyjnego, proponując podejście zmodyfikowane lub alternatywne. Z biegiem czasu coraz więcej analityków uświadomiło sobie ograniczenia swojego podejścia. Doprowadziło to do powstania partycypacyjnej analizy politycznej. Kładzie ona nacisk na pluralizm wartości i argumentów. Analizy i badania są interpretowane poprzez dialog i interakcje społeczne. 77 Krytyka podejścia analitycznego zrodziła serię alternatywnych modeli procesu podejmowania decyzji, bądź empirycznych (opisujących, jak naprawdę przebiega), bądź normatywnych. Obraz, jaki szkicują, jest znacznie bardziej chaotyczny niż model sekwencyjny. I tak, Lindblom w modelu przyrostowym (inkrementalnym) zastępuje racjonalność faz modelem, w którym decydenci rozważają jedynie niewielką liczbę opcji i ich następstw, przy czym opcje te różnią się od już stosowanych rozwiązań nie jakościowo, a jedynie co do stopnia. Cohen w modelu zorganizowanej anarchii podkreśla, że strategie polityczne to efekt czterech stosunkowo niezależnych strumieni: problemów, rozwiązań, uczestników oraz okazji wyboru. Uczestnicy wrzucają problemy i rozwiązania do „kosza na śmieci” i starają się rozwiązywać je w sieci wzajemnych interakcji. Wg Kingdona możliwe rozwiązania problemów wyłaniają się (jako wynik planowania lub przypadku) wtedy, gdy przetną się ze sobą sfery problemu, strategii (policy) i polityki (political). Wszystkie te trzy sfery charakteryzują się własną wewnętrzną dynamiką, i przecięcia takie sa jedynie chwilowe. Jeszcze inny model kładzie nacisk na sieciowy charakter decyzji, podejmowanych z uwzględnieniem roli i siły wzrastającej liczby organizacji, starających się nagiąć proces polityczny do swych własnych interesów. Podejście menedżerskie. Kluczowe w podejściu menedżerskim to wzajemne percepcje uczestników procesu decyzyjnego i ich wzajemne interakcje. Uczestnicy mogą mieć różny pogląd o faktach, lub też mogą zgadzać się co do faktów, ale przypisywać każdemu różne wartości. Uczestniczą oni w zmieniających się koalicjach i starają się dojść do rozwiązań na drodze mediacji i negocjacji, targowania się i konfrontacji. Problemy polityczne to rezultat konfliktów interesów i rozbieżności w sferze władzy. W grze o władzę, badacze są wykorzystywani po to, by nadać głębi stronniczym argumentom i dostarczyć uzasadnień dla wcześniej ustalonych opinii. Podejście menedżerskie, choć bardziej realistyczne (czy nawet cyniczne) też nie uniknęło krytyki. Nie przyniosło ono samych tylko dobrych doświadczeń. Częściowo wynikało to z braku doświadczenia stron uczestniczących w procesie decyzyjnym. Ale wypływało też z istotnych wad metody, nacisku na kwestie proceduralne, braku jasno sprecyzowanego porządku postępowania oraz wyraźnie określonych oczekiwań co do wyniku procesu politycznego. Wadą podejścia bardziej realistycznego okazało się to, co było zaletą podejścia bardziej idealistycznego: większa normatywność, wskazywanie zasad postępowania. Ku syntezie: podejście „podwójnej spirali”. Z powodu ograniczeń obu alternatywnych podejść autorzy proponują taką ich syntezę, która połączyłaby ich zalety, jednocześnie minimalizując ich wady. Jak dotąd oba obozy walczą ze sobą, starając się wchłonąć tyle ile się da zalet przeciwnego podejścia. Obóz analityczny włącza interakcję, polityczny – badania. Warto jednak oba te dążenia połączyć, proponując syntezę. Wymaga to spojrzenia na te podejścia nie jako na alternatywy, ale jako rozwiązania komplementarne. Nie jest to łatwe, gdyż oba oparto na różnych metodologiach. Podejście analityczne oparte jest na ideach pozytywizmu (w tym czy innym jego wariancie). Współczesne wersje pozytywizmu uznają subiektywizm poznania jako nieunikniony, ale stawiają obiektywizm jako ideał. Podejście menedżerskie z kolei jest często oparte na przeciwstawnej 78 postawie filozoficznej, (społecznego) konstruktywizmu, zakładającej, że wiedza to konstrukcja indywidualna lub społeczna. Zgodnie z tą perspektywą, nie sposób przeprowadzić ostatecznego testu empirycznego badanego obiektu, gdyż nie ma czegoś takiego, jak obiektywna rzeczywistość. Jeśli tak, to gdy brak niezmiennych praw, przewidywania pozbawione są sensu. Skoro obie epistemologie w swych dzisiejszych wersjach uznają subiektywizm i społeczny charakter wiedzy, podejście „podwójnej spirali” upatruje swoje podstawy w epistemologii pragmatyzmu. Pragmatyzm zakłada istnienie rzeczywistości zewnętrznej w stosunku do badacza oraz prowizoryczny charakter wiedzy. Kluczowy test dla wiedzy to stopień, w jakim pozwala ona kontrolować następstwa działań podjętych na jej podstawie. Pragmatyzm jest w stanie wykorzystać najbardziej wartościowe elementy zarówno pozytywizmu, jak i konstruktywizmu, i dostarczyć użytecznej podstawy metodologii działań. Jest oczywiste, że fuzja wymaga czegoś więcej niż tylko prostego zsumowania obu podejść. Podejście podwójnej spirali stanowi pomost pomiędzy dwoma wcześniej opisanymi podejściami. Ma ono na celu uniknięcie sytuacji, z których każde z nich – analityczne i menedżerskie – dryfowałoby w przeciwną stronę. Wymaga ono, aby oddzielić od siebie tak, jak tylko możliwe, proces tworzenia percepcji i proces działania (ucierania zgody). Niezależność obu procesów można osiągnąć dzięki wielu różnym posunięciom, zapobiegającym niebezpieczeństwom i pułapkom związanym z każdym z podejść. I tak, ryzyko związane z podejściem analitycznym to np. mit wspólnego interesu, zakrywający realny partykularyzm proponowanych rozwiązań, obstrukcja ze strony stron przeciwnych proponowanemu rozwiązaniu itd. Z kolei, ryzyko związane z podejściem menedżerskim to: uwięzienie w kwestiach proceduralnych, pogrążenie się w niekończącym się poszukiwaniu celu lub niekończącej się wzajemnej krytyce, chaosie cząstkowych raportów, bez pogłębienia rozumienia problemu, itd. [Edelenbos 2005]. Bibliografia Giandomenico Majone, Dowody, argumenty i perswazja w procesie politycznym, Scholar 2004. Jurian Edelenbos, René Monnikof, Odette van de Riet, A double helix approach: a proposal to forge a better integration of analysis and process in policy development, “International Journal of Technology, Policy and Management”, Vol. 3, No. 1, 2003, s. 1-21. Brian Slack, The Policy Process, w: The Geography Of Transport Systems. Stefan Kuhlmann et. al., Improving Distributed Intelligence in Complex Innovation Systems, Final Report of the Advanced Science & Technology Policy Planning Network (ASTPP), a Thematic Network of the European Targeted Socio-Economic Research Programme (TSER), 1999 Jake Chapman, System failure. Why governments must learn to think differently, Demos. Bengt-Åke Lundvall, Susana Borrás, The globalising learning economy: Implications for innovation policy, Report based on contributions from seven projects under the TSER programme, DG XII, Commission of the European Union, December 1997. 79 RAMY ANALIZY POLITYKI NAUKOWEJ I INNOWACYJNEJ Istnieją rozmaite propozycje ram analiz wspomnianych polityk, ułatwiające uchwycenie ich głównych parametrów i wymiarów. Tworzenie instrumentarium polityki N+T i innowacji jest pewnego rodzaju grą, której składnikami są cele i zadania, problemy polityczne, priorytety rządowe, aktorzy, siły sprawcze (jak np. ministerstwa), kryteria decyzji, koncepcje (wśród nich modele innowacji), istniejące praktyki w świecie nauki, gospodarki i polityki. Każdy element jest zależny od pozostałych, wszystkie zmieniają się w czasie. Propozycja ram analizy polityki N+T Proces formułowania rządowej polityki naukowej i innowacyjnej obejmuje: ustalenie celów, określenie sposobów interwencji i jej operacjonalizacji, wzięcie pod uwag otaczającego kontekstu i sposobów, za pomocą których cały proces miałby zostać oparty, metody ewaluacji, mechanizmów legitymizacji i interfejsów z innymi politykami rządowymi (polityki dodatkowe i komplementarne). Cele: ogólne, strategiczne i operacyjne. Muszą być shierarchizowane, ilościowe, realistyczne i wewnętrznie spójne. Cele strategiczne mogą być różnego rodzaju, ekonomiczne, polityczne, kulturalne, społeczne, edukacyjne. Cele: rozwój wiedzy na froncie poznania; odrabianie zaległości w rozwoju N+T; tworzenie umiejętności ogólnych, itd. Cele operacyjne: tworzenie nowej wiedzy, absorpcja nowej wiedzy, upowszechnianie wiedzy. Skala czasowa: krótko-średnio-albo długo terminowa. Aspekt ekspansji, utrzymani oraz ograniczania. (A tworzenie nowego?) Ramy interwencji. Obszar geograficzny (region, kraj, obszra ponad narodowy, świat), typ działalności naukowo-technicznej (badania podstawowe czyste i strategiczne, stosowane, prace rozwojowe, inne rodzaje działalności N+T), pole działania (odkrycie, wynalazki, innowacje), problem synergii, sposób określania operacjonalizacji. Operacjonalizacja. Sektor działalności (szkolnictwo wyższe, laboratoria rządowe, przedsiębiorstwa, organizacje pozarządowe), pole operacyjne (tworzenie i wzmacnianie infrastruktury, wspieranie kształcenia badaczy, tworzenie i wzmacnianie sieci tworzenia, absorpcji i upowszechniania wiedzy; informacja naukowa i polularyzacja nauki itd.), typ wsparcia (bezpośrednie lub pośrednie finansowanie > instrumenty polityki), wewnętrzna dynamika interwencji (tempo, wewnętrna spójność, moment uruchomienia). Czynniki warunkujące: strategiczne (masa krytyczna, dostęp do koniecznej aparatury), taktyczne (np. programy współpracy) i operacyjne (np. fundusze). Tutaj trzeba wziąć pod uwagę wszystkie zalecenia, jake daje podejście systemowe! Niepewność wyniku. Synergia. PEST. Możliwe przeciwdziałanie ze strony interesariuszy. Możliwa sprzeczność z innymi politykami. Finansowanie. Typ (bezpośrednie – pośrednie), możliwość zastosowania (wydatki inwetycyjne – bieżące), filozofia (finansowanie pobudzające [mniej niż 25% + kapitał zasiewny, kapitał ryzyka, joint venture, kredyty]), operacjonalizacyjne [koszty dzielone], strukturalne [integralne]), operacjonalizacja, formy transferu, środki wspierania. Ewaluacja i przecinanie się polityk. Caraça 1999 Często buduje się diagramy pomagające dostrzec i powiązać ze sobą podstawowe składniki polityki, np.: 80 SKŁADNIKI POLITYK I ICH WZAJEMNE POWIĄZANIA Cele polityczne: sektorowe; pomoc kryzysowa; B+R; rozwój regionalny; inwestycje; MSP; praca; eks-port; energia; środowisko Subsydiowane: produkcja; inwestycje; inwestycje specjalistyczne; transport; B+R; instytucje nonprofit PROGRAM WSPIERANIA Z BUDŻETU PAŃSTWA Instrumenty: dotacje; dotacje zwrotne; pożyczki; pożyczki warunkowe; gwarancje; equity capital; ulgi podatkowe Struktura zarządzania: rząd centralny; władze regionalne; wspólnie – centralny i regionalne; instytucje publiczne; instytucje prywatne; wspólnie instytucje publiczne i instytucje prywatne OECD 1995 Nieraz także buduje się taksonomie głównych elementów polityki w powiązaniu z otoczeniem, na które ma ona oddziaływać. Tak np. stworzono taksonomię celów, instrumentów i instytucji składających się na krajowy system innowacji. Taksonomia ta ułatwia budowę matryc oraz uświadamia sposób, w jaki poszczególne czynniki mogą być ze sobą związane. Obejmuje ona pięć podstawowych powiązań instytucjonalnych: środowiskowe (ramy prawne i infrastruktura fizyczna oraz polityki mające wpływ na system innowacji, takie jak rynku pracy, przemysłowej, handlowej, fiskalnej i monetarnej), przestrzenne (zmieniające się powiązania pomiędzy różnymi poziomami, takimi jak międzynarodowy, krajowy, regionalny i lokalny), polityczne (narzędzia polityczne pozostające do dyspozycji rządu w celu kierowania i pobudzania działalności innowacyjnej), organizacyjne (aktorzy sceny, tacy jak MSP, wielkie przedsiębiorstwa, uniwersytety, laboratoria rządowe, organy rządu oraz władzy regionalnej i lokalnej, instytucje pomostowe i pośredniczące, takie jak parki nauki itd.) oraz powiązania branżowe [Capron]. Bibliografia Technology and the Economy. The Key Relationships, OECD, Paris 1992. Fernando Gonçalves João Caraça, A Framework for analysing government S&T policy interventions, CISEP CONVERGE, June 1999 Henri Capron and Michele Cincera, Assessing the Institutional Set-up of National Innovation Systems OECD National Systems for Financing Innovation 1995. 81 RAMY POLITYKI Pojęcie ram polityki stosuje się w dwóch różnych znaczeniach. Wg jednego znaczenia to akty prawne lub długoterminowe plany i strategie opisujące cele polityki, ramy odniesienia dla bardziej szczegółowych polityk, programów i instrumentów. Wg drugiego znaczenia, to sposoby wyboru, organizacji, interpretacji i nadawania sensu złożonej rzeczywistości w celu zapewnienia wytycznych dla wiedzy, analizy, argumentacji i działań. Ramy prawne i programowe. Np. ramy prawne i programowe ustaw dotyczących nauki i szkolnictwa wyższego w Polsce (2010-2011) to m.in.: • Ustawy budżetowe • Uzasadnienie do Projektu Ustawy Budżetowej Na Rok 2009 w Układzie Zadaniowym • Unijna „Strategia Europa 2020” • Krajowy Program Reform „Europa 2020” • Krajowy Program Reform „Europa 2020” – coroczne aktualizacje • Coroczne unijne wytyczne i zalecenia polityczne (Country-specific recommendations to Annual Growth Survey) • Ustawa o zasadach prowadzenia polityki rozwoju (2006) • Długookresowa Strategia Rozwoju Kraju do 2030. Trzecia fala nowoczesności (2013) • Średniookresowa Strategia Rozwoju Kraju do 2020. Aktywne Społeczeństwo, Konkurencyjna Gospodarka, Sprawne Państwo (2012) • Koncepcja Przestrzennego Zagospodarowania Kraju 2030 (2011) • Dziewięć Zintegrowanych strategii • Strategia Innowacyjności i Efektywności Gospodarki • Strategia Rozwoju Kapitału Ludzkiego • Strategia Rozwoju Transportu • Strategia Bezpieczeństwo Energetyczne I Środowisko • Strategia Sprawne Państwo • Strategia Rozwoju Kapitału Społecznego • Strategia Rozwoju Regionalnego • Strategia Rozwoju Systemu Bezpieczeństwa Narodowego RP • Strategia Zrównoważonego Rozwoju Wsi, Rolnictwa I Rybactwa • Koncepcja Przestrzennego rozwoju Kraju do 2030 82 • Strategie sektorowe • Strategia Rozwoju Szkolnictwa Wyższego (2009) • Krajowy Program Badań. Założenia polityki naukowo – technicznej i innowacyjnej państwa. Załącznik do uchwały nr 164/2011 Rady Ministrów z dnia 16 sierpnia 2011 r. Zależność między dokumentami krajowymi a unijnymi Średniookresowa Strategia Rozwoju Kraju do 2020 Ramy postrzegania. Ramy postrzegania obejmują zarówno cele, jak i założenia dotyczące przyczyn problemów oraz wskazówki co do odpowiednich rozwiązań. 83 Bibliografia Måns Nilsson, Learning, Frames and Environmental Policy Integration: the case of Swedish energy policy, Environment and Planning C: Government and Policy 23(2) 2005 ss. 207 – 226. REFORMY BUDŻETU PAŃSTWA W ostatnich dwóch dekadach w krajach OECD punkt ciężkości procesu budżetowego i zarządzania (oba procesy były ze sobą powiązane) przesunął się od pomiaru „wkładu” (input) do pomiaru produktu (output), efektu (outcome) i wpływu (impact) [PUMA 2001]. W praktyce procesu budżetowego (projektowania, realizacji i oceny budżetu) nastąpiło przejście od budżetu jako środka kontroli legalności i celowości wydatków publicznych do budżetu jako narzędzia wspierania zarządzania i efektywności realizacji programu sektora publicznego. Reformy budżetu państwa przeprowadzono np. w Australii (1985), Austrii (1987), Danii (1983), Finlandii (1977 i 1990) [OECD 1995]. Zmiany te dalekie są od zakończenia i następują w różnym tempie w różnych krajach. Zmiany systemu budżetu wiązały się z ogólną reformą administracji publicznej, wprowadzaniem zarządzania zorientowanego na dokonania (performance management). Rozrost sektora publicznego, zmiana struktury wydatków publicznych (np. zwiększenie udziału „twardych” wydatków na służbę zdrowia, spowodowanych starzeniem się społeczeństw), zaniepokojenie wzrostem zadłużenia budżetowego oraz skutkami nierównowagi budżetowej wpłynęły na zmianę w podejściu rządów do wydatków publicznych. W późnych latach 1970-tych i we wczesnych latach 1980-tych, po załamaniu się powojennej prosperity, zrozumiano potrzebę wprowadzenia nowego systemu budżetu, który pozwalałby na lepsze równoważenie celów w stosunku do możliwości finansowych rządów i lepiej łączyłby proces budżetowy z innymi funkcjami kierowniczymi. Tradycyjny roczny budżet faworyzuje wydatki krótko-terminowe. Skłania do tego, by brać pod uwagę wyłącznie skutki finansowe decyzji alokacyjnych. Środki przydziela nie ze względu na wagę celów i zadań oraz nie ze względu na wnioski płynące z analizy politycznej i ewaluacji, tylko z punktu widzenia organizacji wykonawczych. Decyzje co do podziału funduszy opierają się nie na np. ocenie krańcowej użyteczności (marginal utility) alternatywnych opcji ich wykorzystania, co na historycznych podziałach kwot oraz na presji interesariuszy. Organizacje wykonawcze wywierają nieustanny nacisk na budżet, dyktowany bardziej potrzebą zwiększenia ich własnego znaczenia niż koniecznością realizacji ważnych zadań [Robinson]. Sama tylko konstrukcja budżetu wystarczy np. do wytłumaczenia, dlaczego instytucje naukowe wyciągają stale ręce pod dodatkowe środki. Dzieje się tak m.in. dlatego, że szansa stworzenia czegoś nowego zależy od nowych funduszy, gdyż budżet tylko z największym trudem znosi redystrybucję funduszy rozdzielonych w przeszłości [Vessuri 2003]. Także sama tylko konstrukcja budżetu wyjaśnia, dlaczego w krajach słabiej rozwiniętych instrumenty polityczne (np. stosowane dla rozwoju nauki) są z reguły proste, niezróżnicowane, statyczne oraz pasywne [Sagasti 1979]. Tworząc tradycyjny budżet zakłada się, że każdy dotychczasowy wysiłek powinien być kontynuowany, a organizacja utrzymana, nawet gdy oddala się od swojej misji i 84 marnotrawi publiczne środki (jeśli tylko formalnie pozostaje w zgodzie z przepisami księgowania). Gdy brakuje celów jako punktów odniesienia, nie sposób w praktyce proponować alternatywnych rozwiązań podziału środków. W takiej sytuacji zapisy budżetowe to z reguły repetycja rozwiązań przyjętych w przeszłości. Brak elastyczności pociąga za sobą szczególnie opłakane skutki w tak dynamicznie rozwijających się dziedzinach, jak rozwój nauki i techniki. Kontrola realizacji konwencjonalnego budżetu ma wyłącznie formę audytu księgowości. Jest to związane z faktem, że agencje wykonawcze i sami wykonawcy nie są w stanie odnieść swoich wydatków do żadnego celu. W tych warunkach, możliwa jest tylko wąsko księgowo-prawnicza ocena wyników. Rząd nie jest zatem w stanie utrzymywać merytorycznej (a nie czysto formalnej) kontroli nad wydatkami. Sztywność budżetu w zderzeniu ze złożonymi i szybko zmieniającymi się problemami rodzi pokusę tworzenia procedur koordynacyjnych oraz funduszy specjalnych. Jednak często systemy koordynacji są zbyt słabe by oprzeć się naciskowi wykonawców, a fundusze specjalne (jak w Polsce) stwarzają szerokie pole do nadużyć oraz do niekontrolowanego wypływu pieniędzy budżetowych. Jako jedną z najwcześniejszych nowych form budżetu cytuje się francuską Rationalisation des choix budgétaire (1968). Mówiąc ogólnie, proces budżetowy przechodzi przez następujące fazy: analiza celów oraz definicja ilościowych wskaźników ich realizacji; analiza dostępnych zasobów w kategoriach siły roboczej, finansów, instytucji, wyposażenia oraz informacji (pomoc statystyki); określenie relacji pomiędzy środkami a celami i zadaniami (analiza systemów), która może zaowocować modelem ekonometrycznym; opracowanie alternatywnych programów jako pomoc w uzyskaniu definitywnej wersji programu; ewaluacja ex ante programów za pomocą najbardziej odpowiednich metod (metody ekonometryczne, metody wielkryterialne, lub negocjace); wybór programów oraz określenie celów priorytetowych, środków oraz zasad finansowania i sposobów realizacji programów, biorąc pod uwagę informacje dostarczone przez analizy i opcje makroekonomiczne planu; wykonanie i kontrola dokonana za pomocą nowoczesnych metod (zarządzanie z pomocą celów oraz ewaluacja ex post skuteczności i sprawności); ocena środków i celów w świetle istotnych rozbieżności pomiędzy kosztami i rezultatami. Reformę budżetu państwa ujmowano dychotomicznie, przeciwstawiając „zarządzanie i proces budżetowy ukierunkowany na wkład” (input focused management and budgeting) – „zarządzaniu i procesowi budżetowemu ukierunkowanemu na efekt” (outcome focused management and budgeting), a schodząc na poziom zasad tworzenia budżetu, system księgowania oparty na gotówce (cash-based accounting system) - „przyrostowemu” systemowi księgowania (accrual-based cost accounting system). Nowe formuły procesu budżetowego miały też wiele innych określeń, jak np. budżet oparty na dokonaniach czy też budżet dla rezultatów. Proste porównanie chronologii wprowadzania nowych zasad z wprowadzaniem nowych form ewaluacji B+R (koniec lat 1970-tych i lata 1980-te) ujawnia zadziwiającą zbieżność. Także zaskakujące jest porównanie terminologii nowego zarządzania i procesu 85 budżetowego z terminologią stosowaną w ewaluacji społeczno-gospodarczej (np. input, output, outcome, impact). Nie są to zbieżności przypadkowe, tylko przyczynowe. Zarządzanie i proces budżetowy ukierunkowany na wkład (input-focused management and budgeting) kładzie nacisk na zasoby, personel, sprzęt i urządzenia. Wielkość funduszy to zazwyczaj główna miara wykonania. Nie przeprowadza się ewaluacji wyników. Jednak skoro ministerstwa i agencje rządowe są nie po to, aby wydawać pieniądze, należy wymagać od nich, aby opisały i określiły ilościowo, co chcą osiągnąć lub co osiągnęły za pieniądze podatnika. Zarządzanie i proces budżetowy wprowadza zatem kontrolę wydatków, której elementami są: Produkty (outcomes) Wartość za pieniądze (value for money) Efekty (outputs) Efektywność (effectiveness) Proces (process) Wydajność (efficiency) Wkłady (inputs) Koszty (costs) Ekonomiczność (economy) Źródło: PUMA 2001. W zarządzaniu i procesie budżetowym ukierunkowanym na produkty oblicza się, ile dostarczono usług lub wytworzono wyrobów. „Produkty” definiuje się jako dobra lub usługi (zazwyczaj te ostatnie), które agencje rządowe dostarczają obywatelom, biznesowi lub innym agencjom rządowym. W zarządzaniu i procesie budżetowym zorientowanym na efekty określa się, co poszczególny program ma osiągnąć w kategoriach dobra publicznego, dobrobytu, lub bezpieczeństwa. Np. obniżyć śmiertelność wypadków drogowych o 20% w następnych 5 latach, zmniejszyć liczbę zachorowań na określoną chorobę lub zapewnić większości studentów pewien poziom osiągnięć edukacyjnych w kolejnych 3 latach. Po zdefiniowaniu efektów rząd ocenia, czy programy, jakie wprowadził, zapewniają ich osiągnięcie. Tradycyjny budżet „line item” (zawierający oddzielne przydziały na wynagrodzenia, podróże, sprzęt biurowy itd.) jest prosty dla nie-eksperta, ale trudny do zmiany, gdyż wrośnięty w tradycję. Zmiana tego systemu wymaga znacznie więcej niż tylko nauczenia się nowych zasad księgowania. Pociąga ona za sobą konieczność przeprowadzenia głębokich zmian w organizacji i zarządzaniu, wprowadzenia tzw. zarządzania dokonaniami (performance management), większej samodzielności i wyższych kwalifikacji menedżerów programów i projektów [Integrating 2001]. Mimo to państwa i organizacje coraz powszechniej przechodzą na budżet ukierunkowany na rezultaty. Budżet taki stanowi dobrą platformę integracji planowania, zarządzania, monitoringu i ewaluacji (wraz z jednostkami odpowiedzialnymi za te funkcje). Dla tego typu budżetu głównymi kategoriami są nie tylko „przychody” i „wydatki”, ale także „produkty”, „efekty”, „efektywność”, „wydajność” i „ekonomiczność”. Jego zaletą jest to, że uczy myśleć w ciągu: „pożądane rezultaty > konieczne wydatki, aby je osiągnąć”, lub „uzyskane rezultaty > informacja, czy uzasadniają one kontynuowanie wydatków”, zamiast ciągu myślenia: „zasoby > rezultaty, które należy wyszukać, aby uzasadnić 86 wydatki” (lub, co wychodzi na to samo, historycznie ukształtowana struktura wydatków). Podejście to przesuwa nacisk z wielkości zużytych zasobów na zakres i jakość osiągniętych krótko-i-długofalowych rezultatów. Łączy koszty z rezultatami programu. Dostarcza porównawczej oceny efektywności, skuteczności i sprawności programów [OECD 2001]. W procesach decyzyjnych, dotyczących np. projektu budżetu, ustaw lub programów rządowych, stosuje się wiele trybów podejmowania decyzji. Należą do nich np. metoda ekspercka (decyzję podejmują zaufani eksperci, ministerialni lub kontraktowi), negocjacje (decyzję podejmują grupy interesariuszy), polityczna (politycy), benchmarking (decyzja oparta na wzorcowych praktykach), empiryczna (decyzja oparta na zastosowaniu metod analizy danych). W procesie budżetowym stosuje się zwykle wszystkie opisane tu tryby, choć w różnych formach i proporcjach. Do metod najważniejszych należą: ekonometryczne (kryteria określane jako stopień zysku, cost/benefit, ogólne koszty finansowe, itd.), metoda wielo-kryterialna (bierze pod uwagę niewspółmierne kryteria i punkty widzenia), analiza kosztu i efektywności, symulacje i scenariusze, program budgeting, zerobase budgeting, relevance graphs, badania rynkowe, badania prognostyczne itd. Negocjacje ważne są w pewnych kulturach administracyjnych (jak np. w Niderlandach) i mniej ważne w innych. Konsensus uzgadniany jest pomiędzy różnymi interesariuszami, takimi jak obywatele, lokalne społeczności, przemysł, ministerstwa itd. Każdy z trybów podejmowania decyzji wyróżnia inny typ osoby odpowiedzialnej za proces: metoda ekonometryczna – ekonomistę; metoda wielo-kryterialna – analityka; negocjacje – mediatora, prawnika, negocjatora [Robinson; PUMA 1996]. Tak więc w procesie budżetowym sięga się nieraz po metody i techniki ewaluacji. Decyzje budżetowe podejmowane są na wielu poziomach. Zazwyczaj wyróżnia się następujące: a. Ustalenie wielkości publicznych wydatków. (Poziom zagregowanych decyzji politycznych, aggregate policy-making). b. Podział pomiędzy główne sektory, takie jak obrona, bezpieczeństwo publiczne, edukacja, nauka, i inne. (Poziom podziału między-sektorowego). c. Przydział zasobów do poszczególnych programów wewnątrz sektorów, np. edukacja pielęgniarek, szkolnictwo średnie, oraz uniwersytety, wewnątrz budżetu edukacji. (Poziom między-sektorowej strategii politycznej). d. Przydział zasobów do poszczególnych działań lub organizacji w ramach poszczególnego programu, np. przydzielenie większych funduszy uniwersytetowi X niż uniwersytetowi Y, gdyż X ma lepsze wyniki w badaniach naukowych lub też szybciej wzrosła w nim liczba studentów w kierunkach uznawanych przez rząd z priorytetowe. (Poziom zarządzania priorytetami programowymi). e. Przydział pieniędzy wewnątrz poszczególnych instytucji lub typów działań (np. gdy uniwersytet zdecyduje przesunąć zasoby z budżetu wynagrodzeń do budżetu podróży). Rzeczywisty proces budżetowy i finansowy nie zawsze aranżowany jest w tak prosty sposób. Linia podziału pomiędzy tworzeniem (ustalaniem) budżetu a jego realizacją przedstawia się różnie, w zależności od poziomu, na który się na to patrzy. Z punktu wi87 dzenia ministra, punkty d. i e. to nie tworzenie, lecz realizacja budżetu. Jednak z punktu widzenia osób decydujących o podziale funduszy publicznych na tych szczeblach, to nadal tworzenie budżetu (dostępne zasoby są przydzielane pomiędzy konkurującymi ze sobą celami) [Integrating 2001]. Przejście z budżetu tradycyjnego na budżet oparty na rezultatach angażuje wszystkie kolejne piętra jego tworzenia i realizacji. Tą drogą także ewaluacja „schodzi” ze szczebla rządowego na szczeble wykonawcze. Tradycyjny cykl polityczny składa się z przygotowania, podziału zasobów, realizacji, audytu oraz z decyzji wynikających z audytu. Z kolei, tradycyjny budżet skład się z propozycji i decyzji budżetowych, raportów finansowych (realizacja) oraz audytu. W zarządzaniu dokonaniami (performance management) budżety ukierunkowane na wkład (input-oriented budget) przekształca się w budżety ukierunkowane na rezultat (performance budget), systemy księgowania oparte na gotówce (cash-based accounting systems) przekształca w systemy „przyrostowe” (accrual-based cost accounting systems) lub też systemy sprawozdań informujących o wynikach, a audyty finansowej zgodności uzupełnia o audyty dokonań oraz ewaluacje. Gdy warunki te są spełnione, proces budżetowy staje się kluczowym elementem albo szerszego systemu zarządzania, albo cyklu zarządzania finansami, składającego się z procesu budżetowego, księgowania i audytu. Przestaje w ten sposób pełnić funkcję (jedynie) narzędzia gospodarki przychodami i wydatkami [OECD 1997]. Staje się praktycznym wyrazem rządowej strategii i rządowego planu wieloletniego [OECD 1997]. Wówczas to główne funkcje polityki – formułowanie, podejmowanie decyzji, podział funduszy, realizacja i ocena – są znacznie lepiej ze sobą zintegrowane [OECD 2001], monitoring i kontrola wykonania budżetu nie są wyłącznie formalne, ale także rzeczowe (czy wydatki osiągnęły wyznaczone cele), a kontrola parlamentu na budżetem jest znacznie bardziej wnikliwa i kompetentna [OECD 1996]. Tworzenie budżetu staje się częścią ogólnego procesu podejmowania decyzji, a nie – zadaniem podporządkowującym sobie wszystkie inne. Budżet przestaje być jednie dokumentem księgowym (zestawienie przychodów i wydatków), uzyskując dodatkowo wymiar prawny (ocena, uzasadnienie i autoryzacja przychodów i wydatków) i polityczny. Ważnym środkiem pomocniczym w tworzeniu budżetu jest ewaluacja zwana analizą wpływu regulacji (Regulatory Impact Analysis). Celem jej jest ocena wpływu interwencji rządowych (w kategoriach kosztu i korzyści), pomoc w zharmonizowaniu różnych celów politycznych, accountability. RIA to nie tylko narzędzie analityczne, ale także narzędzie koordynacji uzgadniania różnych interesów. Cele i rola RIA w procesie administracyjnym różnią się w poszczególnych krajach. Niektóre analizy oceniają wpływ gospodarczy i społeczny legislacji metodą kosztu/korzyści, inne obciążenia administracyjne. Ocena wpływu na środowisko (Environmental impact assessment) ocenia wpływ regulacji na jakość środowiska naturalnego. Inne analizy oceniają wpływ ustaw i zarządzeń na działalność samorządu terytorialnego, MSP, handel zagraniczny itd. [PUMA 1996]. Reformy zarządzania publicznego (public management reforms) przeprowadzane przez różne kraje od późnych lat 1970-tych dokonały decentralizacji zarządzania finansami oraz wprowadziły zachęty do większej samodzielności urzędników różnych szczebli. Jedną z postaci reform była tendencja rozluźnienia lub zniesienia ścisłych powiązań po88 między różnymi rozdziałami i paragrafami (lines) budżetu. Poszerzyło to możliwości przenoszenia funduszy przez menedżerów średniego i niższego szczebla. Ostatecznym rezultatem był tzw. budżet blokowy, gdzie lokalni menedżerowie mogą przenosić zasoby pomiędzy różnymi rozdziałami budżetu. Na dwóch najwyższych szczeblach budżetu – na poziomie zagregowanych decyzji politycznych oraz na poziomie podziału między-sektorowego – najtrudniej stosować informacje o wykonaniu. O decyzjach na tych najwyższych szczeblach decydują polityczne ideologie i wartości, polityka makroekonomiczna itd. [Integratring 2001]. Legalność wydatków pozostała ostoją w finansach publicznych. Fundusze budżetowe nadal mogą być wykorzystane zgodnie z celami zaaprobowanymi przez parlament. Jednak do tej podstawowej zasady projektowania, realizacji i oceny budżetu dodano funkcje menedżerskie. Łączy się to z przesunięciem z kontroli ex ante do kontroli wewnętrznej, z pre-audytu na post-audyt oraz z bardzo szczegółowych przydziałów pieniędzy budżetowych do przydziałów blokowych. Ewolucja ta nie była stopniowa; często następowała ona skokowo. Przeniesienie odpowiedzialności budżetowej na menedżerów programu w sposób nieunikniony odmieniło rolę organizacji budżetu centralnego. Uwolniony od rutynowej kontroli, urząd budżetu został przekształcony w główną instytucję dbającą o poprawę zarządzania. Przekształcenie budżetu w instrument korekt menedżerskich i programowych zależy od wielu zmian w praktykach administracyjnych. Menedżerowie mogą odpowiadać za wykonanie, gdy mają większą swobodę działania w wydatkowaniu pieniędzy. Postanowiono zatem, aby ministerstwa miały prawo zachować całą (lub część) oszczędności oraz aby menedżerowie mieli więcej swobody w odniesieniu do wydatków bieżących i kapitałowych, w stosunku do podziału pieniędzy pomiędzy programami i działaniami, a także w wykorzystywaniu opłat użytkowników. Opisanej zmianie towarzyszyło przejście od ścisłego trzymania się zapisu budżetowego do nacisku na wskaźniki wykonania (performance indicators), sprawozdawczość oraz negocjacje w ramach układu patronagent. Głównym celem reform jest osiągnięcie większej produktywności sektora publicznego. [OECD 1995] Zmiana układu wydatków publicznych (stosunkowo więcej na płatności transferowe i stosunkowo mniej na wydatki operacyjne, zwane też administracyjnymi lub bieżącymi) zmniejszyła wagę rocznych alokacji (w stosunku do całego budżetu). Dawniej dominującą praktyką było dostarczanie projektów wydatków w formie „pozycji”, długiej listy szczegółowych wydatków budżetowych takich jak personel, urządzenia, itd.. Dziś pozycje określane są mniej szczegółowo, co daje agencjom rządowym więcej swobody w ich wydatkowaniu. Dawną kontrolę budżetową zastępują ewaluacja oraz wskaźniki wykonania. Zamiast szczegółowych pozycji parlamenty państw OECD przegłosowują dziś wydatki ujęte w szerszych ramach, w „blokach” lub „tekach” (portfolio). W efekcie, do pewnego stopnia kontrola parlamentarna została zastąpiona kontrolą administracyjną [OECD 1995]. 89 Wydaje się, że zapoczątkowana w latach 1970-tych modernizacja administracji rządowych była „przewrotem kopernikańskim” w sposobach myślenia o obowiązkach i praktykach działania administracji publicznych. Bez wprowadzonych przez nią zmian trudno byłoby sobie np. wyobrazić procesy prywatyzacji i deregulacji, podjęte od lat 1980-tych. Bibliografia OECD 1995, Budgeting for results. Perspectives on Public Expenditure Management, Paris. OECD 1997, In search for results. Performance management practices, Paris. Integrating Financial and Performance Management, 2001 “OECD Journal of Budgeting” PUMA 2001, Outcome focused management and budgeting, OECD, PUMA/SBO. PUMA 1996, Regulatory Impact Analysis, PUMA. Sagasti F.R., 1979 The science and technology policy instruments project, “Science and Public Policy”. Vessuri H. 2003, Science, politics, and democratic participation in policy-making: a Latin American view, “Technology in Society”, Volume 25, Number 2. Robinson Marc, Performance Budgeting Models and Mechanisms, http://www.focusintl.com/RBM137- 0230553567.pdf RETORYKA POLITYCZNA Retoryka – krasomówstwo, sztuka wymowy, umiejętność opisania swojego punktu widzenia i przekonywania słuchaczy do swoich racji, czyli sztuka perswazji. Giandomenico Majone w książce Dowody argumentacja i perswazja w procesie politycznym (1989, wyd. pol. 2004), określa starożytną tradycję retoryki jako konieczny punkt wyjścia dla współczesnej >ANALIZY POLITYKI. Klasyczne tryby perswazji w retoryce to: etos, patos i logos. ETOS STRATEGIE ARGUMENTACJI LOGOS PATOS 90 Gootweis 2007 Wg Majone „Chociaż politykę można najlepiej określić jako działania grup dążących do egoistycznych celów, to jednak ludzie pragnący uzasadnić politykę muszą odwoływać się do jej intelektualnej wartości i interesu publicznego. (…) aspekt argumentacyjny analizy polityki odróżnia ją od akademickich nauk społecznych z jednej strony oraz od metodologii rozwiązywania problemów, takich jak badania operacyjne…, z drugiej strony. Argumenty, które przedstawiają analitycy, mogą być mniej lub bardziej specjalistyczne, mniej lub bardziej wyrafinowane, lecz jeśli mają być traktowane poważnie na formach debaty publicznej, muszą być przekonujące. Dlatego wszystkie problemy techniczne problemy językowe, łącznie z problemami retoryki, będą zawsze dotyczyć analityków, tak jak prawników, polityków i innych osób, których działalność zasadza się na odpowiednim operowaniu językiem [Majone 2007].” Przełom argumentacyjny. W latach 1980. analitycy polityki udowodnili, że dobra analiza polityka koncentruje się wokół konstruowania argumentu, a nie stosowania logiki i nauki [van Eeten 2007]. W latach 1960. i 1970. praktyka analizy polityki jaka wyłoniła się była, po większej części, technokratyczna. Analiza polityki rozwinęła się w dominujących w owym czasie metod neopozytywistycznych w naukach społecznych. Skutkiem był nacisk na dokładną analizę ilościową, oddzielenie faktów i wartości oraz poszukiwanie ogólnych ustaleń, których ważność byłaby niezależna od konkretnego kontekstu społecznego, dla którego zostały sporządzone. Analiza polityki miła zatem służyć jako wkład do „racjonalnego modelu” podejmowania decyzji, wg którego racjonalni decydenci postępowali ściśle wg zasad badań naukowych. Najpierw mieli oni identyfikować problem na podstawie danych empirycznych, a następnie formułować cele i zadania prowadzące do optymalnych rozwiązań. Po określeniu odpowiednich prawdopodobieństw i konsekwencji związanych z alternatywnymi rozwiązaniami, analitycy przypisywali wartości liczbowe dla różnych kosztów i korzyści związanych z przewidywanymi skutkami. Łącząc informacje i dowody na temat prawdopodobieństwa, skutków oraz kosztów i korzyści, wybierali oni najbardziej skuteczną alternatywę. Pomimo poświęcenia dużej ilości czasu, pieniędzy i energii, ta forma analizy polityki okazała się nie być skuteczna [Fischer 2007]. Taki tryb podejmowania decyzji, zwany decyzjonizmem, cechowała ograniczona liczba aktorów politycznych zaangażowanych w dokonywanie przemyślanych wyborów pomiędzy precyzyjnie obmyślonymi opcjami. Jednak z biegiem lat „zarówno charakter problemów badanych przez analityków, jak i organizacyjny oraz polityczny kontekst ich działania uległ radykalnej zmianie. Problemy, które wymagały uwagi analitycznej, stawały się ogólniejsze i bardziej złożone. Coraz większego znaczenia nabierały kwestie strategiczne, a nie taktyczne, zaś subiektywną niepewność postrzegano jako istotniejszą niż prawidłowości statystyczne zakładane we wcześniejszych modelach. Jednocześnie rosnąca rola analizy w debacie publicznej ozna91 czała, że analitycy – już nie dyskretni doradcy arystokraty, lecz aktorzy w procesie politycznym, w którym orędownictwa i perswazji nie można było wyraźnie oddzielić od obiektywnej analizy – musieli zwrócić uwagę na kwestie bezstronności i wykonalności politycznej [Majone 2007].” Od lat 1980. rosnąca liczba badaczy skupiała się na roli argumentacji w analizie polityki, przyczyniając się do tego, co określono jako „przełom argumentacyjny” (argumentive turn) i praktyk „deliberacyjnej analizy polityki” (deliberative policy analysis). „Przełom argumentacyjny” w analizie polityki wyłonił się w wyniku ograniczeń neopozytywistycznego podejścia i technokratycznego modelu podejmowania decyzji. Zwolennicy nowego podejścia nie twierdzą, że badania naukowe nie mają wpływu na sprawy publiczne. Uważają oni, że rolą badań jest raczej pobudzanie procesów podejmowania decyzji niż do udzielenia odpowiedzi lub rozwiązywania problemów. „Przełom argumentacyjny” uznaje wielość perspektyw używanych w interpretacji rzeczywistości społecznej i politycznej oraz wielość konkurencyjnych definicji problemów politycznych. Poza zaspokajaniem potrzeb decydentów administracyjnych, „deliberacyjny praktyk” stara się uwzględniać szerszy zakres interesów, argumentów i dyskursów w procesie analitycznym, przede wszystkim interesy obywateli [Fischer 2007]. Perswazja i uzasadnienie odgrywają ważną rolę w każdym etapie procesu politycznego, począwszy od ustalania problemów gdy należy ustalenie co oznacza „problem” polega na użyciu metod retorycznych i interpretacyjnych praktyk, po określenie alternatyw i rekomendacji oraz uzasadnienie polityki. Struktura argumentu polityki to zazwyczaj złożona mieszanka twierdzeń merytorycznych, interpretacji, opinii i ocen. Argument łączy odpowiednie dane i informacje z wnioskami analizy. Logika argumentacji polityki opiera się na dwóch podstawowych poziomach, jednym dotyczącym konkretnego programu, jego uczestników, konkretnej sytuacji problemowej, do której odnosi się program, i drugiego, dotyczącego bardziej abstrakcyjnego poziomu systemu społecznego, na który program ma oddziaływać. Także i ocena argumentu polityki powinna uwzględniać te dwa aspekty, makro i mikro [Fischer 2007]. Zwroty i sformułowania stosowane w argumentach analizy polityki • • • • • Czy korzyści z X uzasadniają koszty X i Y są przyczyną, że Z rośnie w zastraszającym tempie. Potrzebne są skuteczne strategie dla a, b, c, jeśli g X staje się coraz bardziej powszechne, co sprawia, że potrzeba regulacji i wytycznych staje się coraz bardziej nagląca X może być pomocna w dostrajaniu podaży kompetencji do popytu na kompetencje X ma ogromny potencjalny zakres zastosowań, ale ich wykorzystywanie opiera się na błędnych przekonaniach co do ich właściwości. Potrzeby zatem szkoleń aby ich potencjał mógł być wykorzystywany 92 • • • • • • • • • X jest kluczowym wyzwaniem dla Y X to Y typowa odpowiedź na wyzwania Z. Jednak efekt strat Z w stosunku do A i B narzuca pytanie, czy korzyści wynikające z X uzasadniają koszty X jest coraz częściej uznawane za kluczowy czynnik Y. wynika z tego, że konieczna jest interwencja w celu zapewnienia standardów, dostępu do kredytów, odpowiedniego szkolenia X… X przyczynia się do Y. Jednakże, proces ten jest obszerny i złożony. Potrzebne są… X powoduje Y i Z. To może mieć daleko idące konsekwencje zarówno dla W i jak i V X zapowiada Z. Jednak to rodzi wiele nowych kwestii, które muszą zostać uwzględnione… X, aby pomóc sprostać wyzwaniom Y… X powoduje spadek Y i ma to konsekwencje dla A X oznacza znaczny krok naprzód. Niektóre aspekty wymagają jednak dalszego zbadania [IPTS Reports]. Bibliografia Giandomenico Majone, Dowody, argumenty i perswazja w procesie politycznym, Wyd. Nauk. Scholar, warszawa 2004. Handbook of Public Policy Analysis. Theory, politics and methods. Ed. By Frank Fischer, Gerald Miller and Mara S. Sidney, CRC Press, 2007. Michel J. G. van Eeten, Narrative Policy Analysis¸ w: Handbook of Public Policy Analysis. Theory, Politics, and Method, ed. Frank Fischer, Gerald J. Miller, Mara S. Sidney, 2007. Frank Fischer, Deliberative Policy Analysis as Practical Reason: Integrating Empirical and Normative Arguments, w: Handbook of Public Policy Analysis. Theory, Politics, and Method, ed. Frank Fischer, Gerald J. Miller, Mara S. Sidney, 2007. Herbert Gottweis, Rhetoric in Policy Making: Between Logos, Ethos, and Pathos, w: Handbook of Public Policy Analysis. Theory, Politics, and Method, ed. Frank Fischer, Gerald J. Miller, Mara S. Sidney, 2007. IPTS Reports. ROLA WIEDZY W PROCESIE POLITYCZNYM [The role of knowledge in Policy process] Nowoczesna polityka (także polityka naukowa i innowacyjna) traktuje instrumenty i programy polityczne jako rodzaj inwestycji, która ma dać oczekiwany zwrot ekonomiczny, społeczny czy kulturowy. Obok zasady legalizmu drugą podstawową zasadą obowiązującą w polityce jest zasada efektywności. Agenda polityki oraz instrumenty i programy polityczne są ustalane, monitorowane i rozliczane za pomocą takich narzędzi, jak cele i zadania, mierniki realizacji, monitoring i ewaluacja; każde z tych narzędzi opiera się na danych, informacjach, analizach. 93 Badania przeprowadzone na zlecenie Komisji Unii Europejskiej wykazały, że efektywność wydatkowania publicznych środków na badania i rozwój wzrasta wraz z ich skalą; jest znacznie wyższa w krajach zaawansowanych gospodarczo, które wydają na B+R znacznie więcej, zarówno w wartościach bezwzględnych, jak i relatywnych [EC 2009]. Najogólniej biorąc, dzięki zapleczu eksperckiemu powinno się znajdować propozycje rozwiązań w następujących kwestiach: • Co powinno się robić? (tworzenie agendy, ustalanie priorytetów), • W jaki sposób działa system nauki i techniki (teorie, dane, interpretacje), • W jaki sposób powinno się decydować, co należy robić? (projektowanie mechanizmu decyzyjnego), • Jak działała polityka (program, instrument)? (ewaluacja) [Feller 2007]. Wiedza ekspercka pozwala na: • obiektywizację problemu poprzez oderwanie go od kontekstu realizacji, • spojrzenie na problem wolne od rutyny bieżącej pracy urzędniczej oraz układów grupowych interesów, • spojrzenie na problem z dystansu, a zarazem z różnych perspektyw, • ograniczenie subiektywizmu, uznaniowości i dowolności w formułowaniu i realizacji decyzji, • poznanie szerszego kontekstu problemu (decyzji) oraz jego/jej pogłębienie rozumienia, np. w świetle a. ustaleń oceny skutków dotąd stosowanych rozwiązań, b. międzynarodowego benchmarkingu polityk, c. lekcji z takich narzędzi >WSPARCIA INFORMACYJNO-ANALITYCZNEGO POLITYKI (tzw. strategic policy intelligence), jak foresight, audyt technologii, d. wiedzy rozwijanej zarówno w tzw. > BADANIACH NAD POLITYKĄ NAUKOWĄ I INNOWACYJNĄ, jak i w ramach ekonomii, socjologii, wiedzy o organizacji i zarządzaniu, naukoznawstwa. Bez zaplecza eksperckiego problemy kwalifikujące się często do interwencji publicznej często nie są dostrzegane i badane z braku znajomości odpowiednich struktur poznawczych (np. pojęć, technik prognostycznych, metod analiz statystycznych), oraz nie są rozwiązywane z braku odpowiednich procedur ich rozwiązywania. Rolę wiedzy eksperckiej podkreśla w szczególności Otwarta Metoda Koordynacji, pomyślana jako główne narzędzie Strategii Lizbońskiej (2000) i potwierdzona w tzw. Nowym Starcie Strategii Lizbońskiej (2005). Nie tyle legislacja, co wiedza ekspercka (wskaźniki i analizy statystyczne, prace studialne, międzynarodowy benchmarking polityk itd.) pełnią rolę głównego narzędzia koordynacji politycznej, zarówno pomiędzy krajami członkowskimi Unii, jak i pomiędzy różnymi poziomami zarządzania wewnątrz poszczególnych państw (poziom rządowy i poziom regionalny). Dodatkowo, w ostatnich dwóch latach w Unii i wśród jej państw członkowskich wzrosło znaczenie rozwijanej lokalnie wiedzy na użytek polityk. Po raporcie Willema Koka (Enlarging the European Union: 94 Achievements and Challenges, 2003) a także wskutek narastającej krytyki tzw. konsensusu waszyngtońskiego) Komisja Europejska uświadomiła sobie, że większość skutecznych rozwiązań w dziedzinie administracji publicznej nie da się przenosić z kraju do kraju jako tzw. „wzorcowe praktyki”, bez uwzględnienia wielu szczegółowych, kontekstualnych informacji. Zwiększyło to znaczenie wiedzy politycznej rozwijanej na szczeblu krajowym i regionalnym. Wzrost „wiedzo-chłonności” polityki naukowej jest oznaką zarówno ogólnego trendu, cechującego większość dziedzin aktywności zawodowej rodzącego się „społeczeństwa wiedzy”, jak i w szczególności cechą przeobrażeń polityk naukowej. Ewolucja polityk naukowej polega na przejściu od decyzji podejmowanych przez samych uczonych opartych na uwzględnianiu potrzeb dyscyplin, do decyzji podejmowanych na szczeblu rządowym, biorących pod uwagę priorytety społeczno-gospodarcze oraz opartych na różnego rodzaju wskaźnikach i analizach. Traktowanie badań nie jako dobra kulturalnego, a inwestycji zakłada zatem rozwój wiedzy eksperckiej wspomagającej budowę i realizację programów i instrumentów. Przez dekady wzrostowi wydatków na B+R towarzyszył rozwój koncepcji i procedur polityki naukowej, służących lepszej alokacji środków publicznych. Pojęcia „cyklu polityki”, „celów strategicznych”, „priorytetów”, „instrumentów polityki”, „analizy” i „ewaluacji polityk” – weszły do języka i praktyk zarządzania nauką. Jeśli polityka jest korektą stanu zastanego podejmowaną dla osiągnięcia celów społecznych, gospodarczych i politycznych w odpowiedzi na wcześniej zdiagnozowane problemy i wyzwania, źródłem wiedzy dla decyzji są techniki diagnostyczne i prognostyczne oraz ustalenia wcześniejszych ewaluacji. Problemy i wyzwania przekłada się na priorytety, czyli wyróżnione obszary i rozwiązania, a priorytety na cele i zadania. Cele i zadania – na programy instrumenty. Projektując programy i instrumenty określa się tzw. logikę interwencji, czyli tłumaczy, dlaczego uważa się, że programy i instrumenty przyniosą spodziewane skutki. Określa też oczekiwane krótkoterminowe i długofalowe efekty działania (ujęte opisowo i w formie wskaźników) oraz metody ich ewaluacji. Instrumenty dobiera się tak, aby wspierały się wzajemnie, a nie blokowały (mieszanka polityk) i były zgodne z krajowymi i międzynarodowymi ramami prawno-politycznymi, aby były wprowadzane w logicznym porządku (sekwencjonowanie), i aby osiągnęły zakładane cele. Przy tym dba się, aby robiąc politykę uczyć się na błędach i korzystać z własnych i cudzych doświadczeń. Typy wiedzy wykorzystywane w procesie polityki to: • • • wiedza empiryczna, oparta na badaniach ilościowych i jakościowych, wiedza teoretyczna, sięgająca po różne ramy teoretyczne, czasami wsparta na badaniach empirycznych, czasami na intuicji lub wiedzy praktycznej, wiedza praktyczna – oparta na doświadczeniu, często pozasłowna i niekodyfikowana [Nutley 2007]. 95 Rola wiedzy w procesie polityce naukowej i innowacyjnej w Polsce (propozycje) Etap procesu politycznego Wybór priorytetów badawczych (MNiSW, NCBiR, NCN) Zadania Krajowy Program Badań (NCBiR) • Określenie priorytetowych obszarów badawczych • Ustalenie strategicznych programów B+R • Określenie priorytetowych kierunków badawczych • Ustalenie zadań badawczych Priorytety NCN Strategia rozwoju nauki Diagnozowanie sytuacji Źródła wiedzy Foresight Ramy prawne i programowe polityki naukowej i innowacyjnej Diagnozy i prognozy stanu nauki, zwłaszcza Analiza źródeł wtórnych, Raport wskaźnikowy nauki i innowacji, Technologiczna mapa drogowa, Analizy sektorowe i regionalne badań naukowych i technologicznych oraz innowacji, Specjalne badania i analizy Badania, ekspertyzy oraz debata publiczna Formułowanie celów i zadań Instrumenty i programy polityki naukowej i innowacyjnej Ustalanie wskaźników realizacji Schematy i zbiory informacji stosowane w polityce naukowej i innowacyjnej (raport; bazy) Ustalanie trybu monitorowania i ewaluacji realizowania strategii Budżet zadaniowy Analiza dokumentów strategicznych Ramy prawne i programowe polityki naukowej i innowacyjnej Określenie celów i zadań Diagnozy i prognozy stanu nauki, zwłaszcza raport wskaźnikowy nauki i innowacji Wybór mierników Zbieranie danych Ocena danych w świetle celów i zadań Formułowanie programów i instrumentów Definiowanie problemów Analiza polityki. Uwzględnianie aspektu sekwencji, synergii (z innymi instrumentami) Wybór mierników oraz trybu ewaluacji Uzasadnianie (koncepcje np. niedoskonałości rynku, rządu, systemu) Ramy prawne i programowe polityki naukowej i innowacyjnej Instrumenty i programy polityki naukowej i innowacyjnej Diagnozy i prognozy stanu nauki, zwłaszcza Analiza źródeł wtórnych, Raport wskaźnikowy nauki i innowacji, Technologiczna mapa drogowa, Analizy sektorowe i regionalne badań naukowych i technologicznych oraz innowacji, Specjalne badania i analizy Badania, ekspertyzy oraz debata publiczna Schematy i zbiory informacji stosowane w polityce naukowej i innowacyjnej (raport; bazy) Realizacja programów i instrumentów Monitoring realizacji System informacji o badaniach Ewaluacja ex post produktu Analizy sektorowe i regionalne badań naukowych i technologicznych oraz innowacji, Specjalne badania i analizy Ewaluacja ex post efektywności i skuteczności (produktu i wpływu), 96 Podejmowanie decyzji administracyjnych w ramach programów i instrumentów Rozpoznanie System informacji o badaniach Analizy sektorowe i regionalne badań naukowych i technologicznych oraz innowacji, Specjalne badania i analizy Bibliografia EC European Commission, Measuring The Efficiency Of Public Spending OnRED, Final Report to EPC, 2009. Irwin Feller, The Science of Science Policy, PRIME Annual Conference, Pisa, Włochy, Styczeń 2007. Sandra M. Nutley, Isabel Walter, Huw T. O. Davies, Using Evidence: How Research Can Inform Public Services, The Policy Press, 2007. SKŁADNIKI POLITYK NAUKOWEJ I INNOWACYJNEJ Każda z tych dwóch polityk składa się z wielu programów, zawierających pakiety instrumentów politycznych. Programy te określa się często także mianem polityk. Pojęcie polityki naukowej odnosi się zwykle do polityki naukowej (w węższym zakresie) oraz do polityki technologicznej. I tak, w skład polityki naukowej (w węższym zakresie) wchodzi m.in. polityka rozwoju badań podstawowych, wspierania współpracy międzynarodowej, przeciwdziałania drenażowi mózgów czy też edukacji naukowej; w skład polityki technologicznej – polityki pobudzania i wdrażania tzw. technologii ogólnego zastosowania (generic technologies), rozwoju badań przemysłowych, wspierania technologii zaawansowanych, fuzji technologicznych lub też konwersji B+R wojskowego na cywilne. Szczególnie bogaty jest zakres strategii zaliczanych do polityki innowacyjnej, np. polityka wspierania tzw. gron przemysłowych (ang. cluster policy), transferu technologii, komercjalizacji badań, partnerstwa publiczno-prywatnego, patentowa, upowszechniania technologii, powiązań nauki i przemysłu, promocji nowych firm technologicznych, wspierania inkubatorów technologii czy też rozwoju kapitału ryzyka. Przedmiotem tej ostatniej są np. kwestie bezpośredniej podaży kapitału w formie pożyczek lub inwestycji, tworzenia zachęt finansowych dla inwestycji kapitału ryzyka, ustanawianie prawa dotyczącego typów inwestorów kapitału ryzyka itd. Polityki naukowa, technologiczna i innowacyjna są z kolei uzależnione od innych polityk, takich jak przemysłowa, modernizacji branż, finansowa (wspierania funduszy emerytalnych i ubezpieczeniowych, długoterminowego oszczędzania, stowarzyszeń kapitału ryzyka, funduszy gwarancyjnych i in.), monetarna (niska stopa procentowa pobudzająca aktywność inwestycyjną czy też wysoki kurs wymiany promujący krajową technikę i eksport), makroekonomiczna, obrony. Sądzi się nawet, że uprawiane w sposób tradycyjny polityki naukowa i technologiczna mogą mieć słabszy wpływ na sferę N+T i innowacji niż np. polityka monetarna, określająca stopę zysku, polityka podatkowa, a także polityki eksportowa, edukacji, konkurencyjności, rynku pracy, ochrony własności intelektualnej, a nawet polityka regulacji funduszy emerytalnych. Jednak nakreślając pro97 gram tych innych polityk, nie zawsze uwzględnia się wpływ, jaki mogą one mieć na innowacje [PREST 2004]. A zatem, polityka innowacyjna jest czymś odrębnym od polityki naukowej i polityki technologicznej; cele, instrumenty i uczestnicy każdej z nich są (w pewnej mierze) różne. W ten sposób polityka naukowa jako taka zajmuje się przede wszystkim badaniami podstawowymi, ukierunkowanymi poznawczo, natomiast polityki technologiczna i innowacyjna – badaniami podstawowymi ukierunkowanymi strategicznie, badaniami stosowanymi i tzw. pracami rozwojowymi, a także szeroką sferą działalności inwestycji rozwojowych, polegających na technologicznym i organizacyjno-menedżerskim odnawianiu gospodarki. Patrząc od strony trzech funkcji wiedzy (produkcja – upowszechnianie (transmisja i transfer) – wykorzystanie i absorpcja) polityka naukowa skupiona jest przede wszystkim na wytwarzaniu wiedzy, a polityki technologiczna i innowacyjna – na jej upowszechnianiu i implementacji. W odniesieniu do rozwoju nauki, polityka naukowa interesuje się przede wszystkim sektorem publicznym, podczas gdy polityki technologiczna i innowacyjna – prywatnym. Bibliografia Public Funding Of R&D: Emerging Policy Issues, OECD 13-14 March 2001. Assessing the Socio-economic Impacts of the Framework Programme, PREST, January 2004. SPÓJNOŚĆ POLITYKI [Policy coherence] OECD określa spójność polityki jako systematyczne zapewnianie synergii działań służących realizacji uzgodnionych celów we wszystkich resortach i agencjach rządowych. Na szczeblu rządów krajowych kwestie spójności polityki powstają między różnymi rodzajami polityk publicznych, między różnymi szczeblami administracji, między różnymi zainteresowanymi stronami, a także pomiędzy polityką krajową a międzynarodową. Postulat Spójności Polityki ma na celu przeciwdziałanie stałej tendencji do autonomizacji poszczególnych polityk i programów, związanej brakiem przepływu informacji oraz odmiennymi interesami odrębnych komórek organizacyjnych. Autonomizacja charakteryzuje zarówno powiązania pionowe, np. pomiędzy ministerstwami i agencjami (Por. PRYNCYPAŁ-AGENT), jak i poziome, pomiędzy różnymi departamentami ministerstw oraz pomiędzy różnymi ministerstwami. W ostatnich latach wiele uwagi skupiano na idei zastąpienia patchworków polityk publicznych w poszczególnych obszarach przez bardziej skoordynowane i zintegrowane strategie polityczne [Rayner 2009]. Specjalny numer „Science and Public Policy” (35/2 2008) przedstawiał problemy i działania podjęte w dziedzinie polityki naukowej i innowacyjnej przez m. in. Danię [Koch 2008], Niemcy [Edler 2008] i Szwajcarię [Griessen 2008]. 98 Zalecane środki przeciwdziałania autonomizacji i zapewniania spójności to m.in.: • Ponad-resortowe jednostki koordynujące (np. Rada ds. Innowacji) • Super-resorty (np. Gospodarki i Pracy; Rozwoju Regionalnego i Transportu) • Wspólne praktyki ponad-resortowego programowania (np. w odniesieniu do takich wyzwań, jak starzenie się, ochrona środowiska) • Narodowe wizje lub strategie, planowanie strategiczne, mapy drogowe (np. w Polsce powstał porządek strategii, powiązanych ze strategiami unijnymi (Strategia 2030; Strategia średniookresowa 2020; dziewięć strategii dziedzinowych), który ma na celu zapewnienie ponad-resortowej spójności realizacji polityki) • Analogiczne praktyki (podobieństwo form działań na różnych szczeblach – ministerstwa, agencji, wielkich organizacji badawczych, uczelni i instytutów rządowych - uwzględniających takie elementy zarządzania, jak misje, „mapy drogowe” (strategie); cele, zadania, priorytety, doradztwo, analizy oraz wskaźniki i ewaluacje • Wspólne pojęcia diagnostyczne i polityczne: taksonomie, klasyfikacje • Narzędzia prognostyczne, takie jak horizontal scanning (poziome skanowanie) • >POLICY MIX – myślenie w kategoriach równowagi i spójności zadań, dziedzin polityki, celów oraz instrumentów polityki. Jest to narzędzie diagnostyczne i polityczne, które podkreśla znaczenia koordynacji różnych polityk, programów i instrumentów. Policy mix dla B+R - “kombinacja instrumentów politycznych, które współdziałają ze sobą aby wspierać inwestycje w B+R w sektorze publicznym i prywatnym” • Zarządzanie >CYKLEM POLITYKI (np. dzięki platformie informatycznej) • >BUDŻET ZADANIOWY. Uwagi OECD nt. spójności: Polityka to nie nauka ścisła. Doświadczenie praktyków mówi, że istnieje niewiele twardych i mocnych zasad w dziedzinie kształtowania polityki i że żaden konkretny model nie może zagwarantować lepszej spójności. Istnieje luka pomiędzy potrzebą spójności a umiejętnością jej osiągnięcia. Luka wynika zarówno ze złożoności zadań realizowanych dzisiaj przez rządy, jak i z braku precyzji pojęcia spójności. Pojęcie spójności polityki jest wielowymiarowe. W najszerszym znaczeniu, oznacza stan zgodności pomiędzy różnymi politykami. Lecz sfera polityki ma zbyt wiele aspektów aby tak szerokie pojęcie było użyteczne w praktyce. Istnieją różne sfery spójności (np. ekonomicznej, społecznej, politycznej), każda z własną wewnętrzną logiką. Pojęcie spójności musi być dostosowane do realiów i praktycznych możliwości w złożonym środowisku politycznym. Podejmowanie decyzji w demokratycznym systemie politycznym musi prowadzić do pewnym stopniu niespójności polityki. Spójność jest tylko jednym spośród wielu kryteriów dobrych rządów w społeczeństwach demokratycznych. Oczekuje się, że rządy będą uwzględniać konkurencyjne interesy. Są zatem zmuszone do prowadzenia polityk, które niekoniecznie są zgodne ze sobą. Dobre tworzenie polityki jest mniej kwestią unikania sprzeczności niż jednego zarządzania nimi. 99 Spójność tkwi bardziej w procesie polityki niż w jej produktach. Pojęcie to pozostaje w centrum ulepszania tworzenia polityki. Służy ono wspieraniu pewnych wartości organizacyjnych, takich jak orientacja strategiczna, spoistość, podejście horyzontalne. Pojęcie to wzmacnia również dążenia do budowy państwa partycypacyjnego, zorientowanego na poszukiwanie konsensusu w procesie tworzenia polityki. Nie ma żadnego pojedynczego modelu polityki gwarantującego spójność polityki. Wszystko zależy m.in. od takich czynników, jak dynamika systemu polityki, metody pracy przywódców, kultura administracyjna służby cywilnej, charakter powiązań między głównymi aktorami. Niemniej, istnieją narzędzia poprawy spójności. Istnieje też możliwość wzajemnego uczenia się pomiędzy krajami. • • • • • • • • Zaangażowanie przywódców to niezbędna przesłanka spójności. Istnienie strategicznych ram polityki ułatwia uzgadnianie poszczególnych polityk z celami i priorytetami rządowymi. Umiejętność nadzoru i koordynacji jest kluczowa by zapewnić poziomą spójność polityk. Instytucje szybkiego antycypowania, rozpoznawania i rozwiązywania konfliktów politycznych wzmacniają spójność. Decyzje polityczne są też bardziej spójne, jeśli istnieją instytucje pozwalające na systematyczny dialog pomiędzy kręgami politycznymi. Proces polityczny musi być tak zorganizowany, aby godził priorytety rządowe i wymogi budżetowe. Systematyczny przepływ informacji pomaga dostosować polityki do nowych okoliczności. Kultura administracyjna aktywnie wspierająca współpracę przyczynia się do wzmacniania spójności polityki. Najważniejszy sposób zapewniania spójności to “poinformowane podejmowanie decyzji” [OECD 1994; OECD 2002]. Bibliografia Antti Pelkonen, Tuula Teräväinen and Suvi-Tuuli Waltari, Assessing policy coordination capacity: higher education, science, and technology policies in Finland, “Science and Public Policy”, 35(4), May 2008, ss. 241– 252. Benedetto Lepori, Coordination modes in public funding systems, “Research Policy” 40 (2011) ss. 355–367. Christian Koch, The superministry approach: integrated governance of science, technology and innovation with contracted autonomy, “ Science and Public Policy”, 35(4), May 2008, ss. 253–264. EC, Work Programme 2011 Capacities Part 6, Support For The Coherent Development Of Research Policies, 19 July 2010. Jakob Edler and Stefan Kuhlmann, Coordination within fragmentation: governance in knowledge policy in the German federal system, “Science and Public Policy”, 35(4), May 2008, ss. 265–276. Jeremy Rayner, Michael Howlett, Introduction: Understanding integrated policy strategies and their evolution, “Policy and Society” 28 (2009) ss. 99–109. OECD (2002), Policy coherence, OECD Journal on Development, Vol. 3/3. 100 OECD Coherence In Policy Making, 1994. OECD Policy Coherence for Development: Promoting Institutional Good Practice, 2005. Thomas Griessen and Dietmar Braun, The political coordination of knowledge and innovation policies in Switzerland, “Science and Public Policy”, 35(4), May 2008, ss. 277–288. TWÓRCZA SWOBODA CZY STEROWANIE NAUKĄ Doświadczenie wskazuje, że największe postępy w badaniach są dziełem uczonych, którym pozwala się rozwijać własne zainteresowania. II poł. XX to lata przełomu w formach kierowania badaniami naukowymi i technologicznymi. Zmiana okazała się nieunikniona, biorąc pod uwagę gwałtownie rosnące koszty badań oraz z fakt, że naukowcy z samodzielnych artystów przeobrazili się w pracowników wielkich hierarchicznych organizacji (nie tylko uniwersytetów, ale także laboratoriów przemysłowych oraz agencji rządowych). Budżety państw rozwiniętych gospodarczo nie mogły dłużej wspierać badań prowadzonych przez coraz większe zespoły, pracujące z coraz bardziej kosztowną i skomplikowaną aparaturą. Sfera dawnej samodzielności w doborze tematyki i metod oraz na wpół feudalnych relacji mistrza i ucznia skurczyły się. Nauka stała się szczuplejsza, bardziej zracjonalizowana, zarządzanie instytucją naukową upodobniło się do zarządzania firmą, z indywidualnego przedsięwzięcia przekształciło się w przedsięwzięcie zbiorowe. Proceduralizacja, standaryzacja, oceny efektywności itd. okazały się znakomitym antidotum przeciwko pracom ciągnącym się w nieskończoność, źle zaprojektowanym, niekonkluzywnym, przeciwko dublowaniu aparatury itd. W efekcie wszystkich opisanych zmian ministerstwa oraz agencje rządowe finansujące badania przeszły od prostego podziału funduszy do ich profesjonalnego zarządzania [Ziman 1994]. Od autonomii do zarządzania. Historię finansowania badań naukowych w Europie można podsumować jako przejście od względnej autonomii nauki w okresie powojennym, poprzez stadia wzrastającej presji na rozliczanie (finansowe i społeczne) oraz relewantność, aż do dzisiejszej sytuacji, gdy większość badaczy zachęca się do ukierunkowania badań na tematy, które mają znaczenie gospodarcze i społeczne [Calvert]. Perspektywa akademicka i menedżerska badań naukowych różnią się zasadniczo, a normy i wartości, którymi kierują się badacze, są z reguły przeciwne polityce i zarządzaniu. Rewolucja menedżerska postawiła polityków i naukowców przed dylematem, w jaki sposób zwiększyć efektywność badań naukowych i ukierunkować je silniej na potrzeby społeczne nie tracąc przy tym korzyści płynących z pozostawienia badaczom znacznej swobody w wyborze celów i metod badań. W dyskusjach dylemat przybrał postać sporu pomiędzy linią instrumentalnego podejścia do nauki J.D. Bernala (The social role of science, 1939) a linią podejścia autotelicznego Michaela Polanyi`ego (The republic of science, 1962). 101 Jednak w krajach zachodnich tak żywe w Polsce zagrożenie planem i urzędnikiem, które przybrało formę stworzonego w odruchu samoobrony Komitetu Badań Naukowych, nigdy nie dało asumptu do buntu, pomimo postępującej „rewolucji menedżerskiej”. Twórczość i użyteczność, instrumentalne i autoteliczne podejście do nauki – okazały się w dużej mierze fałszywą dychotomią. Rozwój nauki: motywy uczonego i motywy państwa. Stało się tak dlatego, że (jak podkreśla Nathan Rosenberg) istnieje istotna różnica pomiędzy motywami i priorytetami zatrudnionych badaczy oraz motywami i priorytetami organizacji, które ich zatrudniają i państwa, które finansuje ich badania. Podczas gdy decyzje co do zatrudnienia i finansowania badaczy podejmowane są na podstawie przesłanek utylitarnych, badacze pozostają często (jak dawniej) pasjonatami oddanymi bez reszty swoim zainteresowaniom. Decyzje co do rozmiarów budżetów nauki dla różnych dyscyplin naukowych opierają się na celach społecznych, z uwzględnieniem (przede wszystkim) korzyści ekonomicznych. Względy ekonomiczne mają zatem decydujący wpływ na budżety nauki zarówno w sektorze biznesu, jak i rządowym. Wydatki rządowe na badania traktowane są jako uzasadniona (w świetle nie tylko modeli ekonometrycznych, ale także setek szczegółowych ocen ich wpływu) inwestycja gospodarcza i społeczna. Takie narzędzia polityki i zarządzania, jak priorytety, ewaluacje, foresight, itd. pozwalają na wybór optymalnych obszarów badań, form ich wykonania oraz wykonawców. Nie ma to jednak związku z często bezinteresownym uprawianiem badań traktowanych jako sposób samorealizacji [Rosenberg 2002], choć „gra o przeżycie” (wnioski grantowe, ewaluacje) odbiera czasami naukowcom smak „gry z poznaniem” oraz poczucie samo-sterowności. Doświadczenie wskazuje, że największe postępy w badaniach są dziełem uczonych, którym pozwala się rozwijać własne zainteresowania. Najbardziej twórcze umysły są najskuteczniejsze wtedy, gdy mogą kierować się swą własną logiką i zainteresowaniami naukowymi. Nie można z góry określić, jaka część wiedzy podstawowej pomoże w rozwiązaniu pojedynczego praktycznego problemu. Gdy uczeni szukają odpowiedzi na naglące, praktyczne problemy, czynią postępy korzystając z istniejącego zasobu wiedzy podstawowej. Gdy zasób jest niedostateczny, postęp nie zachodzi nawet pomimo wielkich programów rządowych (jak w np. latach 1960-tych w badaniach nad rakiem) [Research 1978]. Dlatego też najczęściej w krajach rozwiniętych sterowanie rządowe dotyczy nie tyle zachowań samych badaczy, co form infrastruktury instytucjonalnej i kompetencji; tworzenie programów badań pozostawia się w znacznej mierze samym naukowcom [Rip 1996]. Rozwój badań naukowych wiedzionych ciekawością, a do pewnego stopnia także i strategicznych, to rozwiązywanie zadań, dla których rozwiązania nie są znane lub ich w ogóle nie ma. Jest to dziedzina bardziej sztuk pięknych niż biurokracji. Nie sposób ich do końca zaprogramować. Prowadząc je, niepodobna przyjąć za drogowskaz reguł metodologicznych, gdyż te można sformułować ex post, ale nigdy ex ante. Rola przypadku, wyobraźni, intuicji, twórczej metafory jest tu decydująca. Bywa tak, „że jakaś zupełnie pozbawiona oparcia, nasunięta przez wyobraźnię hipoteza pobudza badacza do ekspery102 mentów, które ją następnie potwierdzą”. Kiedy indziej „doświadczenia nad jakimś obiektem prowadzą do wyników, o których badacz w ogóle na początku nie myślał, a które doszły do skutku w rezultacie pojawienia się przypadkowych czynników nadających jego pracy inny i niespodziewany kierunek”. W innych wypadkach „badacz skłania się do określonego rozwiązania pewnego problemu wskutek działania czynników najzupełniej irracjonalnych – gustu, intuicji, względów estetycznych lub ideologicznych” [Kołakowski 1989]. Wybitni uczeni postępują w myśl tradycyjnej hiszpańskiej piosenki ludowej, która głosi, że „podróżnik nie ma drogi, on ją tworzy, gdy idzie” [Rip 1996]. Trudny kompromis. Łączenie obu perspektyw – akademickiej i menedżerskiej – jest (do pewnego stopnia) możliwe. Tylko pozostawienie badaczom pewnego zakresu wyboru problemów badawczych gwarantuje postęp badań. Od badaczy oczekuje się tworzenia nowości, a to z założenia utrudnia biurokratyczne sterowanie i stanowi argument za pozostawieniem autonomii. Dzisiejsze społeczeństwo innowacyjne potrzebuje więcej badań kierowanych przez potrzeby społeczne, lecz jednocześnie wykonywanych w wyjątkowo kreatywnym środowisku z wyobraźnią, elastycznością i kompetencjami charakterystycznymi dla badań podstawowych. Z drugiej jednak strony potrzebuje też badań bardziej rutynowych, ukierunkowanych na usprawnienia, testowanie i ewaluację, opartych na algorytmach i zarządzanych w sposób bardziej restrykcyjny [Branscomb; Rip 1998]. Po roku 1945 w krajach zachodnich zarządzano nauką na bazie kompromisu między podejściem Polanyi’ego i Bernala. Znaczna część finansowania nauki była ukierunkowana na programy i cele, szczególnie w dziedzinach wojska i służby zdrowia, lecz w tym samym czasie również znaczna część była dzielona na zasadach autonomii nauki. Kryteria decyzji o projektach oparte były na podejściu Michaela Polanyi’ego (peer review), a kryteria decyzji o podziale pieniędzy dyscyplinami na podejściu J.D. Bernala (np. foresight). Ogólna równowaga pomiędzy tymi dwoma podejściami zmieniała się w czasie, szczególnie od lat 80-tych ubiegłego wieku. Dziś większość funduszy publicznych jest skoncentrowana w praktycznie zorientowanych dyscyplinach, takich jak inżynieria, medycyna i nauki rolnicze [Laursen 2002]. Jednak realizacja badań w priorytetowych dziedzinach nauki, wyznaczonych dzięki dogłębnym rozeznaniu całego obszaru nauki i techniki na tle nauki i techniki na świecie, nie wyklucza znacznego marginesu swobody samych badaczy. W Stanach Zjednoczonych nawet badania strategiczne dla Departamentu Obrony finansowane są z reguły na drodze konkursu propozycji badawczych. Pozostawienie swobody wyboru propozycji badawczej (w z góry określonych ramach) uznaje się za najlepszą gwarancję trafnej decyzji oraz wysokiej jakości wykonania badań. Instrumentem godzenia obu perspektyw okazały się w wielu krajach Rady ds. Badań: w jednym ciele parlament uczonych oraz biurokracja rządowa [Rip 1996]. Równowaga pomiędzy sterowaniem zewnętrznym a samo-sterownością kształtuje się odmiennie w różnych krajach. Bilans oraz formy równowagi zależą od tradycji politycznych i naukowych. „Program” nauki budowany jest zarówno przez samych badaczy, jak i przez rządy (w coraz większej mierze wspomaganych radą przez „interesariuszy” oraz obywateli). 103 Radykalna interwencja rządu jest często konieczna, ale jednocześnie niesłychanie trudna, gdyż skuteczność każdego systemu N+T (jakkolwiek by ją definiować) zależy od tysięcy niejasnych zasad i powiązań, tylko w niewielkim stopniu odsłoniętych przez socjologię czy badania nad zarządzaniem. Nieracjonalne i nielogiczne z pozoru zasady mogą być warunkiem niezwykłej produktywności systemu, zapewniającego optymalną równowagę pomiędzy „twórczością” i „sterowaniem” nauką. Doświadczenia amerykańskie. Asumpt do takiej dyskusji daje opis polityki N+T w Stanach Zjednoczonych Alberta H. Teich’a [Teich 1997]. Podobnie jak w innych krajach rozwiniętych, w Stanach Zjednoczonych umiejętnie godzi się potrzeby utylitarne z potrzebą samodzielności badaczy. Badania wiedzione ciekawością i strategiczne niekoniecznie wykluczają się, mówią doświadczenia amerykańskie. Można dzielić pieniądze wg zasady strategicznej i jednocześnie pozwalać, aby badacze wybierali problemy wg tradycyjnych zasad naukowych. Nie sposób bowiem skutecznie kierować indywidualnymi projektami, chyba że agencja rządowa ma jasne oczekiwanie określonego wyrobu lub wyniku. Ale istnieje jedna istotna cecha systemu N+T, która odróżnia Stany Zjednoczone od innych państw świata rozwiniętego i która powoduje, że godzenie swobody i sterowania odbywa się tu w inny sposób. Tą cechą jest decentralizacja decyzji. Proces budżetowy jako mechanizm podziału środków na rozwój badań podstawowych w Stanach Zjednoczonych nie jest ani racjonalny, ani systematyczny, tylko pod wieloma względami niesystematyczny, zawstydzający oraz irracjonalny, pisze Teich. Jedyną jego zaletą jest to, że działa i że pomógł stworzyć unikalny, twórczy system badań naukowych, nie mający sobie równego w świecie. Przede wszystkim nie jest to ani system zracjonalizowany, ani oparty na jednym budżecie nauki, jak w Polsce. Z zasady projekt budżetu państwa, zawierający zapisy dotyczące badań, przygotowany przez prezydenta, poddawany jest ocenie obu izb Kongresu. Podstawowe środki na badania podstawowe przekazuje się National Institutes of Health, NASA oraz National Science Foundation. Prócz tego fundusze na badania podstawowe przechodzą do rąk 15 ministerstw oraz agencji federalnych (jednak 6 najważniejszych rozdziela 95% środków). Najczęściej badania podstawowe to tylko część (z reguły nie najważniejsza) misji agencji rządowej. Badania podstawowe są elementem różnych programów i projektów i nigdy nie są traktowane oddzielnie jako „badania podstawowe”. Istnieje mało okazji do porównywania programów badawczych różnych agencji. Nie ma czegoś, co określa się jako „narodowe priorytety badawcze”. Badania naukowe nie konkurują o środki z innymi celami, a poszczególne programy badawcze też nie konkurują pomiędzy sobą. Zasoby dzielone są w sposób, który jest zrozumiały w świetle historii, tradycji i polityki, ale nie racjonalnych zasad. Nie bierze się pod uwagę wagi poszczególnych dyscyplin dla kraju. System taki spotyka się z zarzutem braku wizji i priorytetów. Zarzuca się mu, że nie faworyzuje, tak jak należy, badań wspierających konkurencyjność gospodarczą i nie zapewnia właściwej równowagi pomiędzy różnymi dziedzinami badań. Jego słabym punk104 tem ma też być proces wyboru między różnymi inicjatywami badawczymi. Z kręgów środowiska naukowego wychodzą od czasu do czasu projekty zmian. Proponuje się, aby badacze w ramach komitetów ekspertów współdecydowali o priorytetach badawczych w sposób uregulowany i systematyczny. Jednak, zdaniem Teicha, projekty te zakładają stopień organizacji środowiska, ducha wspólnoty oraz racjonalne zachowania, które są obce środowisku naukowemu. Po drugie, zakładają one, że Kongres, ministerstwa i agencje odpowie na te projekty w sposób spójny i racjonalny, a jest to naiwny punkt widzenia. Idea ogólnego odgórnego wyboru pomiędzy dyscyplinami wydaje się nieproduktywna i niesłuszna. Istniejący w Ameryce zdecentralizowany system lepiej reprezentuje punkt widzenia ekonomiczno-społeczny i polityczny, niż potrafiłby to proponowany system scentralizowany, oparty na decyzjach podejmowanych przez badaczy na podstawie racjonalnych przesłanek. Istniejący system zmusza do uwzględniania przede wszystkim potrzeb pozanaukowych, żądając odpowiedzi na następujące pytania: dla danego konkretnego celu narodowego (np. niezależności energetycznej kraju lub poprawy transportu publicznego) jakie badania są najbardziej potrzebne? Jakie mechanizmy administrowania, realizacji i oceny badań są najlepsze, by ten konkretny cel osiągnąć? Doświadczenia izraelskie. Podobne myśli głosi, opisując system finansowania badań naukowych w Izraelu, Haim Harari, prezydent the Weizmann Institute of Science (19982001) [Harari 2002]. Jedynym dobrym rozwiązaniem problemu finansowania nauki i jedną dobrą reakcją na ograniczenia peer review jest zróżnicowanie źródeł finansowania, pisze Harari. Scentralizowane finansowanie, oparte na planowaniu i przewidywaniu rozwoju nauki, ma niewielką wartość i może prowadzić do ujemnych następstw. Zróżnicowane finansowanie opiera się na wielu różnych źródłach i sięga po wiele różnych narzędzi. Przypomina ono zachowanie gracza giełdowego. Wiele różnych nie powiązanych ze sobą typów ryzyka daje znacznie większą szansę, że niektóre z nich zaowocują sukcesem. Jeden system daje większe szanse ogólnej porażki. System zróżnicowany zapewnia optymalizację warunków odkryć naukowych. Podobnie jak w Stanach Zjednoczonych, system finansowania badań w Izraelu powstał w sposób organiczny, poprzez ciąg historycznych zdarzeń. Nikt go nie zaprojektował. Żaden komitet nie udzielił mu poparcia. Żaden rząd nie uchwalił go i żaden parlament nie zatwierdził na mocy ustawy. Niemniej, jest to bardzo dobry system. W Izraelu badania naukowe na uniwersytetach (głównie badania podstawowe) finansowane są przez Uniwersytecki Komitet Grantów. Granty badawcze finansuje także Ministerstwo Nauki, ale ma ono bardzo szczupłe środki i niewielki wpływ na rozwój nauki. Budżet całego ministerstwa jest zbliżony do budżetu jednego wydziału Instytutu Weizmanna. Więcej władzy ma w swych rękach Główny Naukowiec Ministerstwa Przemysłu. Rozporządza on dużymi środkami na badania w przemyśle oraz na badania w ramach partnerstwa nauki i przemysłu. Oferuje dotacje dla startujących firm, dla firm średniej wielkości, oraz dla koalicji takich firm z akademickimi zespołami badawczymi. 105 Pieniądze przyznaje w ramach różnych programów oraz wg różnych formuł. Główny Naukowiec ma też największy wpływ na rozwój nauki w Izraelu. Poszczególne ministerstwa, jak Zdrowia czy Rolnictwa, mają niewielkie budżety N+T dla finansowania swoich programów. Ministerstwo Obrony dysponuje większymi środkami. Prócz tego istnieje też Narodowa Fundacja Nauki, stosunkowo niewielka i silnie zróżnicowana, która oferuje grany badawcze, finansuje wielkie centra doskonałości, udziela dotacji na uruchomienie nowych pól badań, oraz przyznaje granty dla młodych badaczy. Finansowanie badań rozproszone jest między wieloma ministerstwami. Badania rolnicze rywalizują w Ministerstwie Rolnictwa z wydatkami nie-badawczymi, a nie z innymi programami B+R. Uczelnie wyższe nie są instytucjami rządowymi, podobnie jak w Stanach Zjednoczonych, a inaczej niż w Europie. Podobne są do amerykańskich, są niezależne, korzystają z pomocy rządowej oraz ze wsparcia fundacji non-profit (głównie zarządzanie określonymi projektami badawczymi). Uniwersytety są też zróżnicowane, są i państwowe, i prywatne. Prawa własności intelektualnej należą do uniwersytetów, które dzielą się z nimi z badaczami. Taki system jest sprawą życia i śmierci dla małego kraju, w którym zawsze istnieje niebezpieczeństwo, że wpływowa osobistość będzie decydować o naukowcach, instytutach i dyscyplinach. Ogromnie zróżnicowane są fundacje non-profit. Zawsze znajdzie się ktoś, kto ma pieniądze i wyłoży na finansowanie badań nad rakiem, dla uczczenia pamięci zmarłego członka rodziny. Dywersyfikacja ważna jest także dlatego, że lepiej chroni pieniądze na badania przed zakusami polityków. Lepiej mieć jajka w 15 koszykach niż w jednym. Bardzo podobny jest system amerykański. Niech kwitnie tysiąc kwiatów. Chaotyczny system może okazać się lepszy niż system z centralnie planowanymi priorytetami (jak w Europie) lub z repetycją z roku na rok raz ustalonych kwot (jak to się dzieje w krajach Ameryki Łacińskiej oraz w krajach Europy Środkowo-Wschodniej). Podobne zasady zróżnicowania i konkurencji można też spotkać na niższych szczeblach podziału publicznych pieniędzy na badania. Np. Instytucie Weizmanna nie ma stałych katedr. Są wprawdzie stałe stanowiska profesorskie (tenured), ale z chwilą odejścia profesorów ich „katedry” automatycznie przestają istnieć. Nie ma zatem warunków dla powstania wielu ujemnych cech życia naukowego, tak charakterystycznych dla Europy (rozwój dyscyplinowych „księstw”). Np. pewnego roku odchodzi trzech chemików, ale na ich miejsce przyjmuje się komputerowców, bo są lepsi. Lub odwrotnie. Zapewnia to dużą elastyczność pól badawczych. Instytut stale odnawia się. W ten sposób np. w sposób niemal bezbolesny zanikł departament fizyki nuklearnej, a urósł informatyczny czy neurobiologiczny. Wymagało to zastosowania specjalnego systemu peer review, porównania ludzi z różnych dyscyplin. Zadanie to wykonuje komitet dwunastu (stale zmienianych) osób reprezentujących różne dyscypliny, którzy wspólnie debatują nad zaletami każdego kandydata (oddzielnie, a nie jednego przeciw drugiemu). 106 W Instytucie pracuje 200 zatrudnionych na stałe profesorów. Każdy ma do swojej dyspozycji 2,5 razy więcej środków niż przed dekadą. Jest to zrozumiałe, gdyż badania stają się coraz bardziej kosztowne. Lepiej zatem zachować stałą liczbę profesorów, ale dać każdemu więcej pieniędzy, niż cienko smarować po równo. Instytut nie inicjuje nowego pola, dopóki nie zdobędzie pierwszej klasy badacza. Podobne zasady stosowane są dziś też w Max Planck Gesellschaft (tzw. zasada Harnacka). Nie znaczy to, że pole nie ma znaczenia. Ale kiedy mimo poszukiwań nie znajdzie się odpowiedniego kalibru uczonego, nie podejmuje się uprawy pola. Wszystkie ewaluacje przeprowadzane są przez zewnętrznych ewaluatorów, niemal zawsze zagranicznych. Jeśli świat nauki ciebie nie zna, my ciebie nie chcemy. System finansowania jest bardzo antydemokratyczny. Działa tu wielu drobnych dyktatorów. Zewnętrzni recenzenci dokonują też okresowych ewaluacji pól badań. Instytut korzysta z dwunastu różnych źródeł finansowania. Wewnętrzne granty (m.in. w rękach m.in. dziekana lub dyrektora studium doktoranckiego) udziela na zasadach konkursu (np. doktorski i post-doktorski dla młodego badacza). W Instytucie działa też kilka centrów badawczych, finansowanych z fundusze na rozwój badań międzydyscyplinarnych. Podsumowując, doświadczenia amerykańskie i izraelskie uczą, że nauka jest tak ekscytująca dlatego, że jest nieprzewidywalna, a zbyt wiele planistyki czyni ją przewidywalną, a przez to mniej ekscytującą. Ponadto, że harmonizacja interesu środowiska naukowego z ogólnym interesem społecznym udaje się najlepiej, gdy jest połączona z dokonywaniem wyborów co do kierunków badań na najniższym możliwym szczeblu i gdy wybory te dokonuje się w znacznej mierze w ramach struktur, które nie zostały stworzone dla rozwoju samej tylko nauki. Bibliografia Albert H. Teich, The political context of science priority-setting in the United States, w: Evaluating science and scientists. An East-West Dialogue on Research Evaluation in Post-Communist Europe, ed. by Mark S. Frankel and Jane Cave, 1997. Arie Rip and Barend J.R. van der Meulen, The post-modern research system, „Science and Public Policy“ December 1996. Erno-Kjolhede Erik et al., Managing university research in the triple helix, “Science and Public Policy” vol. 28 nr 1 February 2001. Jane Calvert and Ben Martin, Science funding: Europe, w: International Encyclopaedia of the Social and Behavioural Sciences. John M. Ziman, Prometheus Bound, Cambridge University Press, 1994. Keld Laursen and Ammon Salter, The Fruits of Intellectual Production: Economic and Scientific Specialisation Among OECD Countries, DRUID Working Paper no 02-03, 2002. Leszek Kołakowski, Nauka jako sztuka piękna, w: Pochwała niekonsekwencji 3, Nowa, Warszawa 1989. 107 Lewis M. Branscomb, The False Dichotomy: Scientific Creativity and Utility, Internet; Arie Rip, The Dancer and the Dance: steering in/of science and technology, w: Steering and effectiveness in a developing knowledge society, ed. Arie Rip, 1998. Nathan Rosenberg, Schumpeter and the Endogeneity of Technology, Routlege, 2002. Research Universities and the National Interest. A Report from 15 University Presidents, New York 1978. UMIĘDZYNARODOWIENIE POLITYKI Globalizacja zmieniła kontekst, w którym działają rządy. Nawet tradycyjnie krajowe problemy coraz bardziej pozostają pod wpływem międzynarodowych organizacji i wydarzeń. Uczestnictwo w organizacjach międzynarodowych lub adaptacja umów międzynarodowych – w efekcie dobrowolne zrzeczenie się suwerenności – jeszcze bardziej zmniejsza pole manewru krajowych decydentów politycznych. Globalna polityka ogranicza autonomię krajowych rządów, jednak zarazem pozwala rządom mieć więcej wpływu na politykę w innych krajach. Rządy są coraz bardziej świadome, że poprawa mechanizmów koordynacji polityki wewnętrznej jest niezbędna aby sprostać wyzwaniom globalizacji [OECD 1995]. Rośnie uzależnienie i uwikłanie rządów w sprawy i stosunki międzynarodowe. Te uzależnienia i uwikłania narzucają urzędnikom wymagania co do wiedzy i umiejętności oraz co do dostosowania kwalifikacji przedstawicieli narodowych. Przedstawiciele muszą z założenia wykazywać zbliżone kwalifikacje intelektualne, wiedzę oraz praktyczne umiejętności prowadzenia dyskusji i negocjacji. Narzuca to kwestię wyboru, przygotowania oraz rozwoju urzędników, którzy mają pełnić rolę za granicą. Wzrastające umiędzynarodowienie państw i polityk wywiera wpływ na role odgrywane przez wyższych urzędników państwowych. Urzędnik musi odtąd znać się nie tylko na własnej specjalności, ministerstwie lub sektorze gospodarki narodowej. W porównaniu z latami 19701980 dwie cechy zmieniły zasadniczo horyzonty i założenia pracy służby cywilnej. W wielu obszarach pracy rządu, włączając w to rządy lokalne, instytucje europejskie stały się obecnie częścią procesu decyzyjnego. Żaden ważniejszy urząd nie powstaje poza wpływem decyzji podejmowanych przez Brukselę czy Waszyngton. Zmieniło to zasady rekrutacji i awansu, środki pobudzania mobilności, szkolenia, analizy i badania, warunki zatrudnienia oraz kształt pracy. Np. w Danii dawniej zatrudniano w służbie publicznej głównie prawników, następnie ekonomistów, a następnie pozostałych (przedstawicieli nauk politycznych i socjologów). Teraz proporcje zmieniły się na korzyść dwóch pozostałych grup [OECD 1992]. Sytuacja ta wynika z wpływu globalizacji na zasady westfalskie. Traktat westfalski (1648) który zakończył Wojnę Trzydziestoletnią stał się kamieniem węgielnym porządku światowego przez 350 lat. Najważniejsze zasady westfalskie to: a) prymat suwerenności jako absolutnego punktu odniesienia w globalnych powiązaniach, ostatecznej zasady, wg której powinno budować się wszystkie koncepcje globalnego porządku, b) znaczenie kontroli nad terytorium geograficznym, c) rządy narodowe jako podmioty systemu westfalskiego (na miejsce feudałów, papieża oraz Kościoła), d) ukształtowanie się zespołu praw 108 międzynarodowego opartego na traktatach pomiędzy suwerennymi państwami, e) wojna pozostaje uznanym instrumentem stosunków międzynarodowych. Cechą stosunków międzynarodowych po roku 1945 było podważanie systemu westfalskiego przez globalizację (rozumianą szeroko jako rozszerzenie ludzkiej aktywności z wąskich ram państw narodowych); globalizację nie tylko w sensie handlu, ale i samej produkcji, przepływu przedsiębiorców, siły roboczej, finansów, technologii, zorganizowanej przestępczości i terroryzmu. Obecny okres charakteryzuje się zmniejszeniem politycznej zdolności rządów narodowych (wpływ ONZ, EU, OECD, WTO, globalna współzależność) oraz ich politycznej legitymizacji, rozwojem „multilateralizmu” jako współczesnej formy globalnego rządu (NAFTA, EU, ADEC, MERCOSUR, NATO, WTO). Nowe instytucje, które współistnieją z państwem narodowym – WTO, EU, to nie tylko miejsce dyskusji i negocjacji, lecz również oficjalne organy ze specjalną jurysdykcją i uprawnieniami legislacyjnymi [OECD 2001]. Zob. też >OECD, >Unia Europejska, >UNESCO, >ONZ. Bibliografia OECD Internationalisation and management development. A background paper, 1992. OECD Kimon Valaskakis, Long-term trends in global governance: from “Westphalia” to “Seattle”, 2001. Sigma, Carlo Nizzo, National Public Administration and European Integration, 1999. OECD The Impacts Of Globalisation On Policy Making 1995. OECD 21st century governance: power in the global economy and society, EXPO 2000. Klaus-Heinrich Standke, The Impact of International Organisations on National Science and Technology Policy and on Good Governance, European Institute for International Economic Relations, Discussion Paper 104, Potsdam, March 2003. UZASADNIENIA POLITYKI NAUKOWEJ I INNOWACYJNEJ (Policy Rationale for science and innovation policy ) W demokracji uzasadnienie jest niezbędnym elementem każdej interwencji publicznej podejmowanej za pieniądze podatnika. Zob. >ROZLICZALNOŚĆ. Przez lata najważniejszym uzasadnieniem dla polityki naukowej i technologicznej była ułomność rynku. Rynek – podkreślano – nie działa skutecznie z wielu powodów: • • • • • • • asymetrii informacji, barier wejścia, efektów zewnętrznych (kosztów lub korzyści mających wpływ na podmioty, które nie zamierzały z nich korzystać lub je ponosić), ekonomii skali lub zakresu, monopoli lub nie dostatecznej konkurencji, nierównego rozkładu dochodów, istnienia dóbr publicznych (które stwarzają problemy „jazdy na gapę” lub „tragedii pastwiska”). 109 Koncepcje ułomności rynku rozwinęli Arrow (1962) i Nelson (1959). Zwrócili oni uwagę na podstawowe czynniki ograniczające osiągnięcie optimum społecznego poprzez prywatną optymalizację zysku: • • • • • Wiedza ma charakter quasi-publicznego dobra, co oznacza, że te same idee mogą być dostępne i wykorzystywane dowolną ilość razy przez dowolną liczbę osób. Produkty wiedzy są niepewne – trudno przewidzieć koszt, okres trwania i efekt poznawczy, technologiczny i komercyjny działalności badawczo-rozwojowej i innowacyjnej. Porażki są bardzo częste. Bardzo trudno zabezpieczyć prawa własności twórców pomysłów. Pomysły cechuje niepodzielność. Nie można mieć pół innowacji, wszystkie składniki muszą być obecne, aby innowacja działała. Koszty przeprowadzenia innowacji mogą z tego powodu być wysokie. Gdy są one wysokie, a koszty przekazywania o nich informacji niskie, łatwość rozchodzenia informacji i trudność zagwarantowania strumienia zysków mogą zniechęcać do podejmowania działalności innowacyjnej. Produkcja wiedzy tworzy asymetrie informacji pomiędzy sprzedawcami i kupującymi, a asymetrie te mogą prowadzić obie strony do pokusy nadużyć. Kupujący chce znać wartość wiedzy, którą kupuje (aby „nie kupować kota w worku”), ale z chwilą gdy ją pozna, nie potrzebuje za nią płacić. W kolejnych latach zwrócono uwagę na ułomności systemowe: • • • • • • • Ułomność kompetencji – niezdolność firmy do działania w swoim najlepszym interesie, np. z powodu deficytu umiejętności zarządczych, słabych umiejętności absorpcji technologii powstałych na zewnątrz, niskich zdolności do rozwijania technologii, Ułomność twardych instytucji – niezdolność do adaptacji do zmieniających się okoliczności takich instytucji, jak uczelnie, poza-uczelniane instytuty badawcze, urzędy patentowe, Ułomność miękkich instytucji – takich jak kultura polityczna i kapitał społeczny, Ułomność sieci – niedostateczna ilość i jakość wzajemnych powiązań pomiędzy aktorami systemu innowacji, Ułomność regulacji, Ułomność infrastruktury (sieci teleinformatyczne, drogi, koleje), Ułomność polityki – niedostateczne zainteresowanie kwestiami badań naukowych i informacji ze strony polityki rządowej [OECD 2009; EC 2006; Woolthius 2005; Metcalfe 2000; Hauknes 1999]. Ułomności te nabrały dodatkowego znaczenia w czasach kryzysu, gdy badania i innowacje uznaje się za ważne sposoby wyjścia z kryzysu. Zwraca się uwagę, że ułomności systemowe są charakterystyczne dla „myślenia modernistycznego”, kładącego nacisk na wydajność, efektywność, racjonalne działanie, budowanie strategii, przewidywanie, kontrolę i ewaluację, podczas gdy ułomności systemowe są przejawem myślenia „post-modernistycznego”, które zwraca bardziej uwagę na proces uczenia się, budowania zaufania, współpracę, kapitał społeczny i moderowanie [Braun 2006]. 110 Bibliografia Dietmar Braun, The mix of policy rationales in science and technology policy, “Melbourne Journal of Politics”, November 2006. EC, European Commission DG Research Benchmarking national research policies: The Impact of RTD on Competitiveness and Employment (IRCE) A STRATA-ETAN Expert Group Index of contents. J. S. Metcalfe, Science, Technology and Innovation Policy in Developing Economies 21st July 2000. Johan Hauknes, Lennart Nordgen, Economic rationales of government involvement in innovation and supply of innovation-related services, STEP 1999. OECD Country Reviews Of Innovation Policy 2009. Richard R. Nelson, On The Complexities And Limits Of Market Organization, LEM Working Paper 2003. Rosalinde Klein Woolthuis, Maureen Lankhuizen, Victor Gilsing, A system failure framework for innovation policy design, “Technovation” 25 (2005) ss. 609–619. STI Review no. 22. Special Issue on “New Rationale and Approaches in Technology and Innovation Policy" Featuring papers from a Conference jointly organised by the OECD and the Austrian Government, held in Vienna on 30-31 May 1997. WDRAŻANIE POLITYKI [Policy implementation] Wdrażanie (implementacja) to jedno z ogniw >CYKLU POLITYKI, obok ustalania >agendy polityki, >formułowania polityki, oraz >ewaluacji. Wdrażanie polityki określa się ogólnie jako to, co dzieje się pomiędzy wyrażeniem zamiaru podjęcia działania ze strony rządu a jego zakończeniem. Składniki wdrażania to: • • • • Specyfikacja programu działania (Która agencja odpowiada za jego wykonanie? W jaki sposób? Kto?) Opracowanie regulacji (ustaw, rozporządzeń, zarządzeń, przepisów) Przydzielenie zasobów (Jak zostanie podzielony budżet?) Sformułowanie szczegółowych decyzji. Wdrażanie polityki to kolejna faza >cyklu polityki, obok wcześniejszego ustalania >agendy polityki i >formułowania polityki oraz późniejszej >ewaluacji polityki. Podkreśla się, że różne typy >polityk, >programów i >instrumentów charakteryzują się różnymi typami problemów pojawiających się w trakcie wdrażania [Handbook 2007]. Ponadto zwraca się też uwagę, że sformułowanie polityki nie jest równoznaczne z jej wdrożeniem, bądź dlatego, że bywa ono zbyt szerokie i optymistyczne, bądź z powodu braku umiejętności agencji wykonawczej, bądź też z tego względu, że grupy interesu lub osoby dotknięte polityką starają się wywrzeć wpływ na przebieg realizacji polityki [Smith 1973]. Zwraca się też uwagę, że polityki są reinterpretowane na niższych szczeblach implementacji: cele i założenia ministerstwa (i/lub agencji) są mieszane z własnymi interesami i wymaganiami wykonawców, przez co osiągnięte wyniki bywają dalekie od założonych [Butler 2008]. 111 Piśmiennictwo ostatnich lat zwraca uwagę na potrzebę partycypacji obywateli, szczególnie osób zainteresowanych polityką, nie tylko w fazie ustalania agendy, ale także >wdrażania i >ewaluacji polityk. Faza wdrażania polityki została teoretycznie wyodrębniona w latach 1970. Z biegiem czasu, w ślad za narastającymi praktykami, ujęcie odgórne wdrażania, kładące nacisk na rolę >ministerstw, uzupełniono u ujęcie oddolne, akcentujące funkcje >agencji wykonawczych. W naukach politycznych istnieją trzy podejścia do wdrażania polityk: 1. Modele odgórne (ang. top-down) kładą nacisk na umiejętności decydentów do stawiania jednoznacznych celów oraz kontroli etapu realizacji. 2. Modele oddolne (ang. bottom-up) interesują się przede wszystkim urzędnikami niższego szczebla jako głównymi wykonawcami polityki oraz traktują wdrażanie jako proces negocjacji w sieci wykonawców. 3. Teorie hybrydowe starają się pokonać przepaść między dwoma poprzednimi podejściami. Bibliografia Handbook of Public Policy Analysis. Theory, politics and methods. Ed. By Frank Fischer, Gerald Miller and Mara S. Sidney, CRC Press, 2007, ss. 51-53. Michael J. R. Butler & Peter M. Allen, Understanding Policy Implementation Processes as Self-Organizing Systems, “Public Management Review” Vol. 10, Issue 3, 2008, ss. 421-440. Thomas B. Smith, The policy implementation process, “Policy Sciences”, June 1973, Volume 4, Issue 2, ss. 197-209. WDRAŻANIE REFORMY SZKOLNICTWA WYŻSZEGO Reformy szkół wyższych przeprowadza się wielokrotnie, dekada po dekadzie, we wszystkich niemal krajach świata. Jednak nie wszystkie reformy udają się, a niektóre powodują nieprzewidziane i niezamierzone skutki uboczne, pogarszają sytuację, którą miały naprawić. Raport OECD (2008) informuje, dlaczego w niektórych krajach reformy udały się, a w innych nie. Streśćmy lub zacytujmy jego najważniejsze fragmenty. Interesariusze. Szkolnictwo wyższe wywiera wpływ na wielu różnych interesariuszy, których interesy, poglądy na jego rolę i cele, a przez to i opinie na temat strategii i polityk służących osiągnięciu tych celów bardzo się od siebie różnią. Zależnie od zajmowanej pozycji mogą oni w różny sposób zagrażać polityce wobec szkolnictwa wyższego. W efekcie, wyzwaniem dla decydentów jest znalezienie równowagi pomiędzy celami polityki a tymi różnymi punktami widzenia w taki sposób, by budować konsensus i zapewnić, że żadna pojedyncza grupa nie zawetuje ani nie zagrozi wdrażaniu polityki. Interesariuszy można określić jako osoby lub organizacje, które albo mogą wpływać na szkolnictwo wyższe, albo podlegają jego wpływom. Interesariusze często mają różne cele i motywy w odniesieniu do szkolnictwa wyższego, a gdy idzie o zmiany, każda grupa ma skłonność do podkreślania ich innego aspektu. Np. studentów i absolwentów intere112 suje jakość kształcenia i szanse zatrudnienia, a także zaspokojenie osobistych zainteresowań i samo-realizacja. Pracodawcy chcą, aby uczelnie przekazywały wiedzę, umiejętności i cechy przygotowujące studentów do późniejszej pracy. Ponadto, chcą oni także, aby uczelnie przyczyniały się do innowacji i rozwoju regionalnego. Dla kontrastu, nauczycieli akademickich bardziej interesuje polityka odnosząca się do transferu wiedzy, motywacji studentów, jakości badań, powiązań badań i dydaktyki, a także – może przede wszystkim – kwestii stałego zatrudnienia dla nich samych (ang. tenure). Ta różnorodność punktów widzenia czyni politykę wobec uczelni szczególnie trudną, zwłaszcza że decydenci reprezentują tylko jedną z grup interesariuszy – władz rządowych – i dlatego muszą godzić różne perspektywy i unikać wrażenia, że politykę narzuca się odgórnie. Powody porażek reformy. Mianem luki wdrożeniowej określa się różnicę między planowanymi a uzyskanymi rezultatami. Reynolds and Saunders stworzyli pojęcie “schodów wdrażania” pokazując, w jaki sposób umiejscowienie jednostek i grup interesariuszy w hierarchii procesu polityki – od decydentów po dziekanów, liderów środowiska akademickiego i studentów – kształtuje interesy i percepcje dotyczące poszczególnych polityk. Inni badacze zwracają uwagę, że relacje pomiędzy inicjatywą polityczną na szczycie schodów oraz jej rezultatami u ich podnóża są dość luźne. Podkreśla się też, że jednym z najważniejszych źródeł porażek odgórnych polityk jest dominująca tradycja autonomii akademickiej, wysoko cenionej na wszystkich poziomach systemu szkolnictwa wyższego. Każdego typu interwencja (rząd-uczelnie, uczelnie-katedry oraz katedryindywidualni badacze) spotyka się z oporem gdyż jest postrzegana jako zagrażająca autonomii i przez to bezprawna. Inny powszechny problem reform szkolnictwa wyższego wynika z częściowego wdrożenia. Proces tworzenia polityki często charakteryzuje się trudnymi kompromisami, które polegają na pakietach reform, w których różne inicjatywy polityczne mają na celu zrównoważenie ubocznych następstw innych propozycji. Jeśli zastosuje się tylko niektóre środki, reforma może pociągnąć za sobą niezamierzone i szkodliwe konsekwencje. Np. częściowe reformy wprowadzające opłaty za naukę, lecz bez programów pożyczek zależnych od dochodów, mogą mieć katastrofalne skutki przez ograniczanie dostępu na uczelnie mniej zamożnych studentów. Dwa przykłady dobrze pokazują pułapki częściowych reform. Nieoczekiwane skutki przyniosła podjęta w latach 1980. reforma przyznająca hiszpańskim uniwersytetom więcej autonomii w ustalaniu ich własnych programów. Z braku równoległej reformy, polegającej na wzmocnieniu menedżerskiej formy zarządzania, autonomia ta zaowocowała nie tyle usprawnieniem zarządzania, tylko mnożeniem stanowisk, popychając społeczność akademicką do zwiększania liczby specjalizacji jako sposobu na wzrost liczby katedr. 113 Inną ilustracją niezamierzonych następstw wdrożenia tylko części reformy była fuzja uczelni holenderskich podjęta w latach 1980. i 1990. Fuzja miała na celu redukcję kosztów utrzymania uczelni w celu zrównoważenia spadku dochodów od studentów. Jednak reforma przyniosła przeciwne skutki, owocując ogromnym wzrostem kosztów ogólnych i spadkiem środków na dydaktykę i badania naukowe w przeliczeniu na jednego studenta. Niezamierzone następstwa przypisuje się brakowi równoległych reform pobudzających konkurencję między uczelniami. W braku takich reform, wzrost skali stworzył uniwersyteckie oligopole, co pociągnęło za sobą niekorzystne skutki dla dyscypliny zarządzania finansami uczelni. Częściowe reformy wynikają często z niewystarczających zasobów dla wdrożenia pakietu pełnych reform lub z lęku przed oporem wobec bardziej kontrowersyjnych środków. Jednak doświadczenie uczy, że kontrowersje wokół inicjatyw politycznych niekoniecznie stają się barierą hamującą ich wdrożenie. Zdarza się osiągnąć konsensus w pozornie trudnych reformach. Np. rektor Uniwersytetu Sonora w Meksyku zawarł ugodę z pracownikami i studentami dotyczącą studenckiego wkładu do nauczania, podczas gdy nie udało się to w innych uczelniach Meksyku. Powody powodzenia reform. Są dowody na to, że presja międzynarodowa i konkurencyjne otoczenie stwarza wśród wszystkich zainteresowanych i całego społeczeństwa poczucie tego, że reforma jest nieunikniona. W Europie ponadnarodowa konwencja Procesu Bolońskiego pociągnęła za sobą restrukturyzację programów akademickich w celu zwiększenia porównywalności i wzajemnego uznawania kwalifikacji. Podobnie, pomimo początkowego oporu wdrożenie wielkich szeroko zakrojonych reform szkolnictwa wyższego w Japonii w 2004 powiodło się wskutek podzielanego powszechnie przekonania, że reformy są konieczne, gdyż uczelnie japońskie pozostają w tyle za światem. Nie tylko porównania i konkurencja międzynarodowa mogą ułatwić akceptację reform, ale także konkurencja wewnątrz krajowego systemu edukacji. Powodzeniu reform sprzyja także konsensualny tryb jej wprowadzania. Badacze szkolnictwa wyższego są niemal jednomyślni w opinii, że jeśli chce się z powodzeniem przeprowadzić decentralizację i jeśli ma ona mieć dodatni wpływ na jakość nauczania, musi ona być przeprowadzona na podstawie szerokiego konsensusu pomiędzy interesariuszami. Tam gdzie uprawia się konsensualną politykę, łatwiej o sukces reformy. Jest tak dlatego, że konsensualne tworzenie polityki – charakterystyczne dla krajów skandynawskich i dla Wielkiej Brytanii – polegające na stałym feed-backu propozycji i opinii - pozwala decydentom wcześnie uwzględniać uzasadnione obiekcje, co zmniejsza prawdopodobieństwo silnego sprzeciwu niektórych grup interesariuszy. Główna zaleta ugodowego tworzenia polityki polega na budowaniu zaufania między różnymi grupami interesariuszy i decydentów. Zwraca się uwagę na inny czynnik sukcesu reform, jakim jest koncentracja i klarowność (a nie wieloznaczność) celów. Jasna wizja celów i środków przeprowadzenia reformy zapobiega działaniom ad hoc i poddawaniu się naciskom różnych interesów. Reformy formułowane pod presją różnych interesariuszy mają niejasne intencje i wiele często 114 sprzecznych celów. Niejasne uzasadnienia interwencji publicznych osłabiają ich akceptację ze strony tych, którzy będą je wdrażali. Powody oporu wobec reform. Powszechne źródło oporu wobec reform bierze się z przekonania – uzasadnionego lub wyimaginowanego – że w jej wyniku dozna się strat, w finansach, stanowiskach lub prestiżu. I tak, wspieranie badań interdyscyplinarnych wzbudza sprzeciw ze strony badaczy rozwijających ustabilizowane pola, a fuzje uczelni wzbudzają lęk z powodu możliwych zwolnień personelu. Studenci opierają się jakimkolwiek reformom polegającym na zwiększeniu opłat za studia. Reformy mogą także znaleźć przeciwników wśród urzędników, obawiających się, że zwiększenie autonomii uczelni odbierze im władzę i stanowiska. Podczas gdy grupy zagrożone (rzeczywiście lub tylko we własnym pojęciu) sprzeciwiają się reformom, beneficjenci reform często nie potrafią zorganizować się dla ich poparcia. Dzieje się tak głównie z tego powodu, że reformy często pociągają za sobą koncentrację kosztów oraz rozproszenie korzyści. Inny powód słabej mobilizacji wygranych wynika z odstępu czasu pomiędzy kosztami, które trzeba ponieść od razu, oraz korzyściami, które są oddalone w czasie. Wiele przeszkód w reformach bierze się z postaw decydentów, działających w perspektywie kolejnych wyborów. Przede wszystkim, w szkolnictwie wyższym znaczenie zewnętrznej presji jest stosunkowo słabe. W przeciwieństwie do polityki makroekonomicznej, w której groźba odpływu kapitału zmusza rządy do zacieśnienia dyscypliny finansowej, uczelnie nie stają w obliczy podobnych sankcji za brak świadczenia usług o najwyższej jakości. Pojawienie się gospodarki opartej na wiedzy i przyspieszenie tempa postępu technicznego zwiększa obecnie koszty bezczynności, ale nie dość silna konkurencja międzynarodowa w szkolnictwie wyższym nadal hamuje długoterminowe działania na rzecz jego poprawy. Jeszcze inne wyjaśnienie trudności reformowania szkół wyższych leży w problemach z informacją. Często beneficjenci reformy nie są dostatecznie świadomi jej korzyści i z tego powodu nie wywierają na decydentów dostatecznej presji, by ją przeprowadzić. Kiedy indziej interesariusze nie są dostatecznie poinformowani o charakterze i wpływie reformy, przez co ją kwestionują i opierają się jej. Niepewność agentów i interesariuszy co do rezultatów reformy dla ich własnej sytuacji – czy wygrają czy przegrają – może skłaniać ich do obrony status quo, chociaż poparcie dla reformy leżałoby w ich interesie. Opór może też mieć charakter psychologiczny i polegać na odrzucaniu zmian których nie jest się sprawcą. Opór może też znaleźć pożywkę w wysokich kosztach reformy – np. kosztach programów pożyczkowych dla studentów, łączenia instytucji, planowania, restrukturyzacji wydziałów, scalania bibliotek i systemów informatycznych, wyrównywania wynagrodzeń, odpraw dla zwalnianych pracowników itd. Jednak pomimo wszystkich opisanych tu przeszkód, w wielu krajach reforma szkolnictwa wyższego udała się. Jak pokonano w nich przeszkody? 115 Czynniki sukcesu. Głównym argumentem za reformą były wysokie koszty zaniechań dla międzynarodowej pozycji kraju. Jakie warunki były spełniane w krajach, w których udała się reforma? Jednym z warunków jest utworzenia niezależnego komitetu ad hoc celem zainicjowania reformy. Polityka częściej odnosi skutek, kiedy jest oparta na uzgodnieniach pomiędzy interesariuszami. Regularne spotkania pomagają budować zaufanie, a przez to i kompromis. Ponadto, dają one szanse, aby przedstawiciele różnych grup interesariuszy uznali reformę za własną, za swoje dzieło. Innym warunkiem jest stworzenie platformy ogólnonarodowych konsultacji lub też Internetowych grup dyskusyjnych. Dla osiągnięcia sukcesu reformy trzeba zadbać o informację o problemach szkół wyższych oraz o metodach ich rozwiązania. Diagnozy, analizy i badania mogą pobudzić debatę, uświadomić potrzebę zmian. Różnorodność poglądów o szkolnictwie wyższym wśród różnych grup interesariuszy jest dużym atutem dla decydentów. Konfrontacja różnych poglądów podczas projektowania polityki pozwala na rozpoznanie pełnego zakresu skutków ubocznych i wad propozycji politycznych na długo przed ich realizacją. Czasami reformy udają się, gdy politycy decydują się na eksperymenty polityczne polegające na wprowadzaniu reform pilotażowych, testujących na próbie skuteczność proponowanych rozwiązań. Dopóki nie osiągnie się szerokiej zgody na reformę, lepiej wprowadzać reformę stopniową i „kroczącą” niż szeroką. Dobrze unikać sytuacji, gdy skutkiem reformy będzie koncentracja kosztów i rozproszenie korzyści. Jednym z możliwych rozwiązań jest zapewnienie rekompensat interesariuszom tracącym na reformie, polegających np. na podwyżkach pensji pracowników lub programach stypendialnych dla uboższych studentów. W celu osiągnięcia konsensusu ważne jest, aby wszystkie zainteresowane strony widziały reformę w ramach szerszej strategii politycznej. Jednostki i grupy są bardziej skłonne zaakceptować zmiany, które niekoniecznie leżą w ich interesie, jeśli rozumieją ich powody oraz rolę, jaką mają do odegrania w szerszej narodowej strategii. Reformy szkół wyższych często składają się z pakietu różnych powiązanych ze sobą instrumentów, z których każdy ma określoną rolę do odegrania w ramach ogólnej strategii. Dlatego należy unikać wprowadzania częściowych reform. Kluczowe dla sukcesu reformy jest poparcie interesariuszy. Jednym ze sposobów jego uzyskania są towarzyszące reformie szkolenia przygotowujące wszystkich do nowych ról i odpowiedzialności. 116 Bibliografia OECD (2008), What Next? The Challenges of Policy Implementation, in Tertiary Education for the Knowledge Society: Volume 1 and Volume 2, OECD Publishing. ZAŁOŻENIA I RAMY KONCEPCYJNE POLITYK Na ramy koncepcyjne, w jakich dokonuje się oceny sytuacji problemowej polityki oraz na wybór rozwiązań wpływ mają dominujące wizje rozwoju. Np. takimi ramami w krajach słabiej rozwiniętych, starających się „odrabiać zaległości cywilizacyjne”, jest teoria modernizacji, stwierdzająca, że wszystkie społeczeństwa przechodzą przez określoną sekwencję faz, kończącą się nowoczesnością. Choć znajdują się one w różnych fazach rozwoju, w państwach rozwiniętych znajdą obraz własnej przyszłości oraz wskazania co do pożądanych dróg dojścia do dobrobytu [Wallerstein 2004]. Podobnie w Polsce, zarówno polska socjologia badająca tzw. transformację post-komunistyczną, jak i praktyka polityczna, opiera się na wspólnych założeniach i przekonaniach bliskich ideom teorii modernizacji [Sosnowska 1998]. Milczące i bezdyskusyjne przyjęcie takich założeń utrudnia dostrzeżenie innych możliwych scenariuszy, sugerowanych np. przez teorię systemu światowego Na niższym poziomie, przemożny wpływ na instrumenty mają koncepcje ekonomiczne, zwłaszcza w tych działach i kierunkach ekonomii, które podejmują problemy ważkie z punktu widzenia danego obszaru polityk. Polityka zatrudnienia do dziś czerpie inspiracje z keynesizmu; monetarna – z monetaryzmu. Dzisiejszym źródłem inspiracji polityk B+R i innowacji są tzw. nowa teoria wzrostu, ekonomia ewolucyjna oraz ekonomika zarządzania [Sartori 1998]. Bibliografia Wallerstein Immanuel 2004, Koniec świata jaki znamy, Wydawnictwo Naukowe Scholar, Warszawa 2004, s. 233. Sosnowska Anna 1998, Teorie zmiany i rozwoju społecznego a zmiany w Europie Wschodniej. O potrzebie perspektywy ogólnej, „Kultura i Społeczeństwo” 42:1998, nr 1. Sartori Giovanni 1998, Teoria demokracji, Warszawa 1998, s. 71-72. ZARZĄDZANIE WIEDZĄ W ORGANIZACJACH RZĄDOWYCH Zarządzanie wiedzą (ang. Knowledge Management, KM) – „to zespół sformalizowanych sposobów gromadzenia i wykorzystywania wiedzy formalnej oraz wiedzy cichej uczestników organizacji (np. pracowników firmy). Zarządzanie wiedzą to próba jak najlepszego wykorzystania wiedzy, która jest dostępna w organizacji, tworzenie nowej wiedzy oraz zwiększanie jej zrozumienia” [Wikipedia 2014]. Zarządzanie wiedzą (ZW) oparte jest na spostrzeżeniu, że „organizacja wie znacznie więcej niż sądzi, że wie”, to znaczy, że posiada ona ukryte zasoby wiedzy. Komputery i Internet pozwalają na cyfryzację i zapewnienie szerszego niż dawniej dostępu do danych – niektórych zastrzeżonych tylko dla pewnych stanowisk, ale większości – dla całej or117 ganizacji oraz dla opinii publicznej. Umożliwia to dzielenie się wiedzą w znacznie większym stopniu niż w epoce „papierowej”. Jednocześnie coraz bardziej dostępne metody analityczne pozwalają na poszukiwanie regularności w gąszczu danych, na ich „czyszczenie” i interpretację. Interpretacje mogą być oparte na porównaniach, stąd znaczenie badań porównawczych, które stosuje się w sektorze publicznym jako sposób tworzenia wiedzy na temat funkcjonowania organizacji. Np. po analizie danych na temat wypadków drogowych Francuzów powstaje pytanie dlaczego więcej Francuzów umiera na drogach we Francji niż w Anglii w przeliczeniu pasażer/km? Wzrost znaczenia wiedzy w organizacjach rządowych wpływa na zmiany hierarchii: umiejętności interpretacji wysuwają się na pierwszy plan jako podstawa awansu i pozycji [OECD 2003]. Proponuje się następujące kroki dla zapewnienia dobrego zarządzania wiedzą w organizacjach publicznych: • • • • • • • • Uzyskaj poparcie kierownictwa organizacji. Powołaj zespół ds. zarządzania wiedzą. Przeprowadź “audyt wiedzy”. Opracuj całościowe podejście (plan) dotyczące ZW. Ustal kamienie milowe i wskaźniki dla ZW. Pokaż korzyści płynące z ZW. Wprowadź zachęty i nagrody za stosowanie ZW. Zwróć uwagę na trudności zmiany zachowań [O’Riordan 2005]. Bibliografia Joanna O’Riordan, A Review of Knowledge. Management in the Irish Civil Service, CPMR Discussion Paper 2005. OECD Saussois, Jean-Michel (2003), Knowledge Management in Government: An Idea Whose Time Has Come, “OECD Journal on Budgeting”, Vol. 3/3. Wikipedia, Zarządzanie Wiedzą, 2014. ZASADA OSTROŻNOŚCI „Zasada ostrożności (od ok. 1988 roku) – zasada etyczna, zgodnie z którą jeśli istnieje prawdopodobne, chociaż słabo znane, ryzyko negatywnych skutków nowej technologii, jest lepiej jej nie wprowadzać w życie zamiast ryzykować niepewne, ale potencjalnie bardzo szkodliwe konsekwencje.” „Zasada ta jest przywoływana w dyskusjach nad dopuszczalnością nowych leków czy produkcją żywności (GMO) wobec braku jednoznacznych naukowych dowodów szkodliwości danych technologii lub nawet dowodów temu zaprzeczających. Zasada ostrożności jest krytykowana jako nieracjonalna i nienaukowa.” „Według Davida Deutscha zasada ostrożności jest wyrazem głębokiego konserwatyzmu i cały postęp ludzkości jest historią łamania istniejących w różnych kulturach "zasad ostrożności". Zjawiska o wielkiej skali, będące z punktu widzenia ludzkości katastrofami wydarzają się bowiem niezależnie od jej woli lub działań. Ich przetrwanie wymaga wie118 dzy i postępu, zaś jedyną metodą zdobywania wiedzy jest podejmowanie eksperymentów, a co za tym idzie ryzyka eksperymentów nieudanych. Szkoda płynąca z innowacji jest zawsze skończona, tymczasem korzyści mogą być potencjalnie nieskończone.” „Michael Crichton zwrócił uwagę, że zasada ostrożności jest wewnętrznie sprzeczna i, w dosłownym rozumieniu, uniemożliwia stosowanie samej siebie.” „Yaneer Bar-Yam, Rupert Read i Nassim Nicholas Taleb przedstawili sformalizowaną definicję zasady ostrożności, która ma rozwiązać problemy związane z zakresem jej stosowania. Według nich zasadę ostrożności należy opierać na możliwości nieliniowego rozrostu danego zjawiska i prawdopodobieństwie pojawienia się „skutków systemowych” czyli niszczących w skali całej planety, ekosystemu itd. Jako przykład zjawiska nie mającego takich skutków autorzy podają energetykę jądrową, mającego — GMO. W pierwszym przypadku potencjalne awarie mogą mieć charakter poważny, ale nadal lokalny i jednostkowy, podczas gdy negatywne skutki rozprzestrzenienia się zmodyfikowanych genetycznie roślin mają charakter nieliniowo rosnący i globalny.” Bibliografia Zasada ostrożności, Wikipedia. 119 FINANSOWANIE B+R I INNOWACJI FINANSOWANIE BADAŃ W SEKTORZE PUBLICZNYM [Funding Research In The Public Sector] Środki na badania dostarczone przez rządy (lub stany, prowincje, samorząd terytorialny), albo bezpośrednio przez ministerstwa ds. nauki lub za pośrednictwem agencji rządowych. Dwa podstawowe sposoby finansowania badań w sektorze publicznym to „finansowanie instytucjonalne” i „finansowanie projektów". Pierwszy tryb polega na przekazywaniu instytucjom blokowych dotacji wg pewnej formuły, na podstawie wskaźników wyników (Por.> EWALUACJA INSTYTUCJI PUBLICZNEGO SEKTORA NAUKI OPARTA NA POMIARZE DOKONAŃ) lub na podstawie negocjacji, bez bezpośredniego wyboru projektów lub programów, które mają być wykonywane. Drugi – na przekazywaniu grantów badaczom lub zespołom badawczym o ograniczonej wielkości, budżecie i czasie, zwykle na podstawie przedłożenia propozycji projektu opisującej planowaną działalność badawczą, na zasadzie konkursu [Van Steen 2012; OECD IPP]. Od ok. 2005 upowszechnia się nowe podejście do finansowania – wysokie wieloletnie dotacje dla na badania o wyjątkowej jakości dla wybranych jednostek badawczych, oparte na zasadach konkurencji [OECD 2013]. Trwa debata na temat tego, czy wzrost konkurencyjnego finansowania projektów lub finansowania programów kosztem dotacji blokowej i długoterminowego finansowania instytucjonalnego • • nie spowoduje, że publicznego sektor nauki będzie preferował krótkoterminowe projekty o niskim ryzyku kosztem badań podstawowych od dłuższej perspektywie, nie wpływa negatywnie na zdolność instytucji do inwestowania w infrastrukturę. Por. >FINANSOWANIE INSTYTUCJONALNE, FINANSOWANIE PROJEKTÓW. Bibliografia Committee For Scientific And Technological Policy. Governing The Science System - Challenges And Responses, OECD DSTI/STP(2003)9/REV1; Committee For Scientific And Technological Policy. Ad Hoc Working Group On The Steering And Funding Of Research Institutions. Public Funding of R&D - Trends and Changes, OECD DSTI/STP(2003)9/ANN3. Steen, J. v. (2012), Modes of Public Funding of Research and Development: Towards Internationally Comparable Indicators, OECD Science, Technology and Industry Working Papers. OECD, Promoting Research Excellence: New Approaches to Funding, 2013. OECD IPP, Innovation Policy Platform, Issue Brief: Public Sector Research Funding, 120 FINANSOWANIE BUDŻETOWE BADAŃ W SEKTORZE SZKÓŁ WYŻSZYCH Finansowanie badań naukowych w szkołach wyższych ze środków publicznych stało się w krajach OECD instrumentem polityki państwa i zarządzania nauką około połowy lat 80-tych zeszłego wieku. Wcześniej zakładano za najlepszą strategia uznawano przekazywanie uczelniom funduszy na badania z pozostawieniem im autonomii, oraz zapewnianie samym uczonym swobody co do dysponowania środkami oraz wyboru tematyki badań. „Stopniowe zmiany sytuacji zewnętrznej uczelni, w otoczeniu ekonomicznym, społecznym, politycznym, w ideologii oraz w sytuacji wewnętrznej, w kulturze akademickiej i procesach rozwoju nauki spowodowały zmianę założeń w polityce państwa. Dotyczyły one warunków uprawiania nauki w uczelniach, a także roli i miejsca nauki akademickiej w całokształcie działalności badawczej krajów. W efekcie tych przemian w Europie Zachodniej zrewidowano zasady finansowania badań w uniwersytetach i stopniowo wprowadzano nowe rozwiązania. Ujęcie uproszczone. Rozpatrując zasady finansowania badań w uniwersytetach Europy mówi się najczęściej o dualnym systemie finansowania uczelni, wyróżniając dwa podstawowe strumienie/ kanały finansowania. Rozróżnienie na 2 kanały/strumienie finansowania: 1. Pierwszy strumień finansowania stanowią tzw. środki własne, za które uważa się środki uzyskane przez uczelnię z własnych przychodów, z inwestycji, oprocentowania kapitału itp., ale przede wszystkim do pierwszego strumienia zalicza się finansowanie instytucjonalne (tzw. general university fund, GUF), uzyskiwane przez uczelnię na swą działalność od ministerstwa odpowiadającego za edukację w postaci dotacji lub kontraktu dla uczelni i przyznawane uczelni jako całości. 2. Drugi strumień są to tzw. finansowanie zewnętrzne, uzyskiwane na zasadzie konkurencyjnej od państwa, poza dotacją instytucjonalną, od instytucji innych, niż odpowiednie ministerstwo edukacji; są to dotacje na projekty badawcze uzyskiwane od rad badawczych, a także kontrakty zawarte z państwowymi sponsorami lub z przemysłem, władzami lokalnymi itp. 3. Niektórzy autorzy wyróżniają trzy strumienie finansowania badań: pierwszy strumień oznacza dotację podstawową (instytucjonalną), drugi to dotacje na projekty badawcze od rad badawczych, a trzeci to zlecenia - umowy (kontrakty) z ministerstwami lub prywatnymi organizacjami. Powyższe rozróżnienie niewiele mówi o tym, jaki może być zakres interwencji państwa przy różnych rozwiązaniach, jakie są zalety i wady różnych sposobów finansowania, nie mówi też o rozmaitości rozwiązań. Przewyższa ona stosowane do tej pory klasyfikacje. Ujęcie rozwinięte. Istniejące rozwiązania można charakteryzować bardziej szczegółowo ze względu na kilka rozmaitych aspektów. Ze względu na obiekt finansowania: finansowanie podmiotowe, przedmiotowe lub strukturalne. 121 • • • Finansowanie podmiotowe to – mówiąc w uproszczeniu - finansowanie działalności badawczej konkretnej osoby (badacza) lub jednostki organizacyjnej (uczelni, wydziału, instytutu); ten drugi rodzaj zwany jest także finansowaniem instytucjonalnym. Finansowanie przedmiotowe nastawione jest na wspieranie określonego zadania, celu lub działalności (jest to np. finansowanie konkretnych programów badań, konkretnych inwestycji czy projektów badawczych). Finansowanie strukturalne stosowane jest w celu stworzenia możliwości powstania lub utrzymania określonych struktur, powiązań instytucjonalnych lub międzyinstytucjonalnych czy formy współdziałania (jest to np. finansowanie powiązań uczelnianych czy uczelniano- przemysłowych, np. w formie konsorcjów) Ze względu na swobodę korzystania ze środków: finansowanie bezwarunkowe i warunkowe. • • Finansowanie bezwarunkowe polega na przekazaniu funduszy bez stawiania określonych ograniczeń czy wymogów dotyczących sposobu wykorzystania środków. Finansowanie warunkowe oznacza obwarowanie finansowania konkretnymi warunkami dotyczącymi sposobu wykorzystania środków, przedmiotu finansowania lub okresu finansowania (wyznaczenie terminu zakończenia pracy). Ze względu na charakter relacji podmiotu i przedmiotu finansowania wyróżnimy różne mechanizmy: np. dotację lub kontrakt (opisane dalej przy omawianiu finansowania projektów badawczych). Ze względu na zasady określania wysokości przyznanych środków wyróżnić można: • • finansowanie którego wysokość ustalana jest w wyniku negocjacji między sponsorem a wykonawcą badań finansowanie biorące za punkt wyjścia poziom dotacji z poprzedniego roku (tzw. metoda historyczna czy inkrementalna) finansowanie na podstawie przedstawionej kalkulacji kosztów i planu rzeczowego realizacji zadań finansowanie wykorzystujące algorytmy • finansowanie oparte o wyniki oceny. • • Z kolei finansowanie na podstawie wyników oceny może być • • oparte o określone kryteria i procedury oceny ex ante (np. plan działalności w rocznym czy np. w 3-letnim okresie, algorytm uwzględniający wskaźniki wejść, takich jak np. liczba studentów) oparte o określone kryteria i procedury oceny ex post, (także przyznawane w oparciu o algorytm, kombinację różnych wskaźników, wyniki działalności w poprzednim okresie, liczbę publikacji, cytowań, nadanych stopni naukowych). Finansowanie na podstawie wyników oceny może dotyczyć 122 • • • oceny jakościowej (czyli, oceny wewnątrz-środowiskowej przez ekspertów - uczonych z danej dziedziny nauki) oceny ilościowej (opartej na liczbie publikacji, cytowań, oraz na innych wskaźnikach) mieszanych metod oceny (np. jakościowe, przy wykorzystaniu metod ilościowych, np. oparte na wskaźnikach inputu i outputu) Można tu dodatkowo uwzględnić dwie kwestie: • • czy wyniki oceny (ilościowej ) są w sposób mechaniczny przekładane na algorytm? kto określa wysokość ostatecznej oceny i dokonuje przełożenia na wartość elementów tworzących algorytm – czy robią to pracownicy administracyjni organizacji finansującej badania (urzędnicy) czy też uczeni – eksperci? Ze względu na metodę dystrybucji środków: • • finansowanie „miękkie” np. przy zasadzie określania wielkości przyszłej dotacji na podstawie dotacji z przeszłości (ubiegły rok)- to metoda historyczna. Do finansowania miękkiego zaliczyć też można przyznanie dotacji wynikające z samego istnienia danej instytucji prowadzącej badania(np. wszystkie uczelnie otrzymują środki na kształcenie, a z nimi część na finansowanie funkcji badawczej (płace kadry, utrzymanie infrastruktury badawczej- budynki, wyposażenie) finansowanie „twarde” mające charakter selektywny i oparte o kryteria prowadzące do wartościowania lub rankingu z którego bezpośrednio wynika wielkość finansowania. Ze względu na charakter źródeł finansowania • • • finansowanie centralne, regionalne, lokalne, a także finansowanie wyłącznie przez państwo i współfinansowanie przez państwo i źródła prywatne ( tzw. marching funds) • finansowanie przez odpowiednie ministerstwo (edukacji i nauki czy np. przemysłu) lub też przez tzw. ciała pośredniczące, pomostowe (rady badawcze) Ponadto, w zależności od liczby źródeł zasilania, system finansowania może być • • scentralizowany (jedno źródło finansowania, np. jedna rada badawcza) o różnym stopniu decentralizacji (dwa i więcej źródeł finansowania np. przez jedną lub kilka rad badawczych) Powyższy opis różnych sposobów finansowania miał charakter czysto analityczny i opierał się na wyróżnieniu każdorazowo tylko jednego kryterium (aspektu). Istniejące w praktyce formy finansowania badań trudno byłoby tak charakteryzować, ze względu na znaczny stopień zróżnicowania. Trzeba brać pod uwagę kilka cech jednocześnie, a i tak występuje przy tym wiele różnych odmian rozwiązań. W ciągu ostatnich dziesięciu lat pojawiły się pewne innowacje w metodach finansowania. Są one powiązane ze zmianą organizacji badań. Innowacją jest przede wszystkim 123 sama rozmaitość form, kryteriów, mechanizmów finansowania a także oparcie się - przy konstruowaniu tych mechanizmów - na założeniu, że uniwersytet będzie reagować na określone bodźce w postaci określonych mechanizmów finansowania. Do takich najbardziej nowatorskich instrumentów finansowania należą tzw. centra doskonałości oraz finansowanie strukturalne tzn. wspieranie różnego rodzaju kontaktów, powiązań współpracy i sieci naukowych”. Bibliografia Julita Jabłecka, Budżetowe finansowanie w sektorze szkół wyższych w krajach OECD, w: Budżetowe instrumenty finansowania B+R w Polsce. Propozycja na lata 2005-2015, s. 120-200, Instytut Społeczeństwa Wiedzy, Krajowa Izba Gospodarcza, 2005. FINANSOWANIE INSTYTUCJONALNE Finansowanie Instytucjonalne to środki, które rządy lub agencje finansujące badania przeznaczają corocznie dla instytucji naukowych. Instytucje mogą korzystać z tych środków w sposób elastyczny, w ramach obowiązujących przepisów. Zazwyczaj ten mechanizm stosuje się do finansowania badań podstawowych [OECDa 2003; OECDb 2003]. Blokowe finansowanie instytucjonalne zapewnia instytucjom naukowym stabilne podstawy dla działalności badawczej. Pomaga to instytucjom uzyskać środki z innych źródeł, dostarcza pewnej autonomii w wyborze swoich badań, oraz pozwala na budowanie kompetencji w nowych dziedzinach. Odwrotnie, nadwyżka środków bloku może demotywować organizacje i naukowców do poszukiwania finansowania z innych źródeł. Finansowanie instytucjonalne dla uczelni i organizacji badawczych nie jest bezpośrednio związane z projektami lub programami. Umożliwia ono instytucji wypełnienie jej podstawowych zadań. Ta forma finansowania (nieraz udzielana na zasadach konkurencyjnych) jest zazwyczaj kierowana przez rządy do instytucji jako całości, a nie do konkretnych programów lub jednostek. Finansowanie instytucjonalne może być przyznawane na kilka sposobów, np. w formie rocznych korekt budżetów ubiegłorocznych lub na podstawie algorytmów opartych na wskaźnikach, np. sprzętu, zatrudnienia, liczby studentów oraz osiągnięć badawczych lub dydaktycznych. Często ważną podstawą finansowania instytucjonalnego jest pomiar ex post wyników wykonania [OECD 2014]. Odnosząc się do finansowania instytucjonalnego, warto dokonać rozróżnienia pomiędzy „czystym finansowaniem blokowym”, w którym odbiorcy mają stosunkowo dużą swobodę decyzji w jaki sposób korzystać ze środków, a "celowymi funduszami", które mogą być stosowane tylko na pokrycie szczególnych kosztów, takich jak koszty wynagrodzeń pracowników zatrudnionych na stałe. W wielu krajach zwiększono finansowanie projektów kosztem finansowania instytucjonalnego. Jednakże, większość europejskich systemów badawczych nadal charakteryzuje się wyższym udziałem finansowania bloku w porównaniu do systemu amerykańskiego [OECD IPP]. 124 Por też >FINANSOWANIE PROJEKTÓW, >INICJATYWY DOSKONAŁOŚCI BADAWCZEJ. Bibliografia OECDa Governing The Science System - Challenges And Responses, 2003. OECDb Public Funding of R&D - Trends and Changes, 2003. OECD IPP, Innovation Policy Platform, Issue Brief: Public Sector Research Funding. OECD Promoting Research Excellence. New Approaches to Funding, 2014. FINANSOWANIE PROJEKTÓW Finansowanie projektów to finansowanie na zasadach konkurencyjnych propozycji zgłaszanych oddolnie przez badaczy lub zespoły badawcze. Rozróżnia się różne tryby finansowania projektów: • • • Finansowanie przez rządy lub agencje grantowe (często rady ds. badań) na zasadach konkurencyjnych wniosków grantowych, bez względu na tematykę proponowanych badań; Finansowanie przez rządy lub agencje grantowe (często rady ds. badań) wniosków w ramach programów mających na celu rozwój pewnych dyscyplin lub sektorów; Finansowanie projektów przez biznes lub prywatne organizacje non-profit. W przeciwieństwie do >FINANSOWANIA INSTYTUCJONALNEGO, finansowanie projektów daje organizacjom finansującym większą kontrolę nad badaniami. Obecny wzrost finansowania projektów kosztem finansowania instytucjonalnego uzasadnia się przekonaniem, że ten pierwszy tryb owocuje większym zwrotem pod względem wytworzonej wiedzy oraz lepszym dostosowaniem badań do potrzeb społeczno-gospodarczych. Organizacje zapewniające finansowanie projektów wykorzystują różne mechanizmy. Pierwszy odnosi się do trybu składania wniosków przez naukowców w konkursach grantowych. Takie podejście jest stosowane głównie przez rady badawcze dla finansowania badań podstawowych. W drugim trybie instytucje finansujące badania dyktują z góry obszary, w których naukowcy mogą ubiegać się o granty. Często takie projekty wymagają współpracy krajowej lub międzynarodowej. Jako przykład można przytoczyć Program Ramowy i Horyzont 2020 Unii Europejskiej. Od lat 1980. tryb ten stał się popularny w Stanach Zjednoczonych, Japonii, Unii Europejskiej i Chinach. Trzeci tryb oferuje finansowanie projektów badawczych służących rozwiązaniu konkretnego problemu. Po ten tryb sięgają organizacje prywatne i publiczne. Podział funduszy między konkurującymi propozycjami jest zwykle oparty na systemie >PEER REVIEW, w którym eksperci oceniają jakość wniosku zgodnie z ustalonymi wcze- 125 śniej kryteriami. Kryteria te mogą obejmować wartość naukową, jak i względy społeczno-gospodarcze. Bibliografia OECD IPP, Innovation Policy Platform, Issue Brief: Public Sector Research Funding, OECD Committee For Scientific And Technological Policy. Governing The Science System - Challenges And Responses; OECD Committee For Scientific And Technological Policy. Ad Hoc Working Group On The Steering And Funding Of Research Institutions. Public Funding of R&D - Trends and Changes. FINANSOWE INSTRUMENTY WSPIERANIA B+R I INNOWACJI W PRZEDSIĘBIORSTWACH „Działalność badawczo-rozwojowa jest tą dziedziną aktywności ekonomicznej, w której silnie odczuwana jest niesprawność alokacji rynkowej, co w rezultacie prowadzi do mniejszej od optymalnej alokacji środków, wolniejszego wzrostu gospodarczego, a w końcu stagnacji. Wprawdzie ekonomiści już od dawna dostrzegali, że prosta akumulacja kapitału podlega prawu malejących przychodów i bez innowacji prowadzi do stagnacji, to jednak dopiero nowa teoria wzrostu i przyspieszenie ewolucji w kierunku gospodarki opartej na wiedzy uświadomiły znaczenie wiedzy i innowacji dla gospodarki. (…) we współczesnej gospodarce opartej na zaawansowanych technologiach procesy innowacyjne wymagają coraz większych nakładów kapitałowych oraz obfitych źródeł finansowania. (…) nie byłoby dalej problemu, gdyby rynki kapitałowe były doskonałe i dysponowały pełna informacją o przyszłości, a wiedza była czynnikiem produkcji w pełni zawłaszczalnym i konkurencyjnym (o koszcie reprodukcji równym kosztowi wytworzenia). Wówczas można byłoby się spodziewać, że każdy projekt uzyska automatycznie taki poziom finansowania, jaki wynika z odpowiadającej mu zgodnie z racjonalnym oczekiwaniem stopy zwrotu, gdyż rynkowa rekompensata finansowa byłaby adekwatnym motywem alokacji. Tak jednak nie jest, ponieważ wszystkie wyżej wymienione założenia nie są spełnione i sektor B+R w warunkach czystej gospodarki rynkowej musi pozostawać niedoinwestowany z oczywistym negatywnym skutkiem dla rozwoju gospodarczego. Najczęściej wymieniane są następujące argumenty za potrzebą wsparcia sektora badań, w tym zwłaszcza wysiłku badawczo-rozwojowego przedsiębiorstw ze strony państwa: • • • wysoki stopień niepewności powoduje, że podmioty gospodarcze będą niechętne angażować się w działalność innowacyjną, asymetria informacji utrudnia wytworzenie się efektywnego rynku produktów prac badawczych, zarówno od strony podaży jak i popytu, awersja do ryzyka rynków finansowych prowadzi do skracania horyzontu inwestycyjnego poniżej progu niezbędnego dla wyceny efektów badań, 126 • • • • publiczny charakter dobra ekonomicznego jakim jest wiedza, co implikuje niepełną zawłaszczalność korzyści z rezultatów prac badawczych, a zatem suboptymalny poziom skłonności do inwestowania w B+R przez prywatnych inwestorów, efekty zewnętrzne wynikające z dyfuzji wiedzy /spillover/, której koszt reprodukcji jest znacznie niższy od pierwotnego kosztu wytworzenia – społeczna stopa zwrotu szacowana jest kilkakrotnie wyżej od prywatnej (np. wg Saltera, 2000, 5 razy), publiczny charakter popytu na niektóre innowacje (zdrowie, obrona, bezpieczeństwo, środowisko, standardy regulacyjne), o charakterze nieekskluzywnym, bariery transferu technologii wynikające z ograniczonej zdolności firm prywatnych do absorpcji badań wykonanych w instytucjach publicznych. Główny problem w konstruowaniu systemów finansowych wspierających badania i innowacje w sektorze przedsiębiorstw polega na tym, aby korekta niesprawności rynku nie powodowała zniekształceń alokacji rynkowej tam, gdzie ona działa sprawnie. Prawidłowo skonstruowany system publicznego wsparcia B+R w sektorze przedsiębiorstw przede wszystkim nie powinien zastępować (substytuować) mechanizmu konkurencji rynkowej, ale raczej uzupełniać i wzmacniać jego działanie w najsłabszych punktach. Powinien nosić charakter uzupełniający, pomocniczy i wspierający (additionality). Nie może powodować nadmiernej nieuzasadnionej płynności i zakłócać równe warunki konkurencji podmiotów prywatnych. Można sformułować następujące cele systemu finansowego wspierającego działalność badawczo-innowacyjną przedsiębiorstw, uwzględniającego powyższe postulaty i zidentyfikowane niesprawności rynku: • • • • • • • • • • • wspieranie a nie wypychanie (substytucja) działań badawczych i wdrożeniowych, które i tak zostałyby podjęte przez sektor prywatny, dostarczanie dźwigni finansowej neutralizującej awersję do ryzyka i wzmacniającej motywację finansową (obniżając koszty po stronie nakładów lub/i podwyższając zawłaszczalność rezultatów badań), dostarczanie alternatywnych źródeł finansowania wobec niesprawności rynków kapitałowych, koncentracja wysiłku badawczo-rozwojowego na obszarach priorytetowych, o największym efekcie dyfuzji /spillover/ oraz najwyższej przewidywanej społecznej stopie zwrotu, zapewnienie efektywnej ewaluacji, selekcji, elastycznego wyjścia z projektu, zabezpieczenie przed efektem zaklinowania /lock-in/, wydłużenie horyzontu optymalizacji decyzji ekonomicznych dotyczących badań i innowacji, wzmocnienie zdolności absorpcji technologii przez przedsiębiorstwa i minimalizacja barier dyfuzji zwłaszcza w warunkach wyraźnej luki technologicznej, wspieranie efektów sieciowych przy transferze technologii – tworzenie systemów innowacyjnych i klastrów, dobór pakietu instrumentów finansowych dostosowanych do lokalnej struktury przemysłowej, ograniczenie możliwości nadużyć np. w formie unikania opodatkowania, czy stwarzania barier wejścia prowadzących do nieuczciwej i nierównej konkurencji, niskie koszty transakcyjne administracji systemu, 127 • możliwie maksymalna neutralność wobec reguł konkurencji rynkowej. Problem doboru odpowiednich instrumentów finansowych dla pobudzania B+R w sektorze przedsiębiorstw sprowadza się do dwóch zasadniczych kwestii: wyboru kierunku alokacji inwestycji B+R, oraz wyboru źródła finansowania. W praktyce stosowane są dwie grupy instrumentów w różny sposób rozwiązujące te kwestie: ulgi podatkowe i subsydia (granty). Przy ulgach podatkowych zasadniczy wybór kierunku alokacji należy do przedsiębiorstwa i na nim też spoczywa głównie zadanie zapewnienia źródła finansowania, bądź w ciężar kosztów bieżących bądź przyszłych. Przy subsydiach wybór kierunku alokacji leży w gestii sponsora, najczęściej agendy budżetu państwa, który zapewnia podstawowe źródło finansowania. Wynika stąd, że subsydia stanowią znacznie silniejszą ingerencję w funkcjonowanie mechanizmu rynkowego. W tym ostatnim przypadku agenda państwowa udzielająca subwencji musi dysponować rozwiniętym systemem selekcji projektów opartym na odpowiedniej kompetencji w zakresie ewaluacji technologii, co jest podstawowym warunkiem sprawnego funkcjonowania takiego systemu. Uważa się, że w krajach wysoko rozwiniętych, gdzie ponoszone są wysokie nakłady na badania, system hojnych ulg podatkowych mógłby się okazać zbyt kosztowny i o zbyt rozproszonym oddziaływaniu, często wypierając wydatki przedsiębiorstw, które i tak byłyby poniesione. Dlatego często rezygnuje się z takiego rozwiązania na rzecz bezpośredniego pobudzania przy pomocy selektywnie dobranych pakietów subsydiów państwowych. Z drugiej strony właśnie w tych krajach przedsiębiorstwa są bardziej dojrzałe i kompetentne technologicznie do samodzielnego wyboru alokacji środków na badania niż w krajach bardziej zacofanych. Z kolei argument dyfuzji przemawia na rzecz wykorzystania instrumentów wspierania pośredniego tam, gdzie celem polityki jest głównie pobudzanie absorpcji innowacji dobrze znanych i sprawdzonych w krajach na granicy technologicznej. To raczej w tym ostatnim przypadku należałoby szerzej wykorzystywać bezpośrednie dotacje dla realizacji polityki zorientowanej na określone misje technologiczne. Oba instrumenty cechują odmienne właściwości, które określają pole ich celowego stosowania. Wśród cech instrumentów podatkowych należy wymienić: • • • • • • łatwość i niskie koszty w administrowaniu przez agendy rządowe i przedsiębiorstwa elastyczność w profilowaniu i celowaniu w określone grupy beneficientów np. małe przedsiębiorstwa rynkowa alokacja inwestycji w B+R na podstawie decyzji przedsiębiorstwa, generalnie faworyzowanie dużych przedsiębiorstw, które często nie potrzebują pomocy, kosztem małych, i wspierają badania, które i tak byłyby podjęte; ryzyko wypychania /crowding out/, brak możliwości skoncentrowania wsparcia na badaniach przemysłowych o największej społecznej stopie zwrotu (dlatego zrezygnowano z nich w niektórych krajach np. Finlandii), co implikuje mniejszy spillover niż przy bezpośrednim finansowaniu, zagrożenie neutralności systemu podatkowego, zwłaszcza przez duże ryzyko pokusy nadużycia w omijaniu i unikaniu opodatkowania; możliwości arbitrażu podatkowego przy zróżnicowanych stawkach podatku korporacyjnego między krajami, 128 • • duży i mało przewidywalny koszt dla budżetu przy rozproszonym powszechnym stosowaniu tego instrumentu, przy stosunkowo niskiej intensywności pobudzania, ograniczony horyzont i zakres zasilania do bieżących dochodów firmy. W odróżnieniu od instrumentów podatkowych granty i subsydia cechuje: • • • • • • przejrzystość i możliwość selektywnej koncentracji na projektach o wysokiej społecznej stopie zwrotu, kontrola nad kierunkami badań wspieranych przez państwo, np. o dużym efekcie spillover technologii ogólnego zastosowania /GPT/, przy badaniach podstawowych, dłuższy horyzont czasowy i swoboda wyboru poziomu zasilania niezależnie od bieżących dochodów beneficientów, zniekształcenie równych warunków konkurencji ryzyko alokacji bezpośredniej związane z nietrafnym wyborem beneficientów /picking winners/ i niebezpieczeństwem zaklinowania /lock-in/, problem z wykształtowaniem odpowiedniego systemu ewaluacji i selekcji, wymagającego także znacznych kosztów bieżących administracji. Wykorzystanie tych dwóch rodzajów instrumentów w krajach OECD jest bardzo zróżnicowane, chociaż można zauważyć w ciągu ostatnich 20 lat tendencję do coraz szerszego stosowania obu sposobów pobudzania aktywności badawczo-rozwojowej firm. Jest to wynikiem uświadomienia sobie przez rządy wielu państw znaczenia badań zwłaszcza podejmowanych przez przedsiębiorstwa dla wzrostu produktywności, konkurencyjności kraju i tempa rozwoju gospodarczego. Warto zauważyć, że siła oddziaływania ulg podatkowych jest proporcjonalna do wysokości marginalnej stawki podatkowej obciążającej dochody przedsiębiorstw. Stąd kraje o niższych stawkach podatkowych często rezygnują z dodatkowych ulg na B+R, licząc, że niski poziom obciążenia podatkowego sprzyja wszelkim inwestycjom, również badawczym. Występuje tu pewna iluzja, wynikająca z nieuwzględniania efektów globalizacji i arbitrażu podatkowego. Samo obniżenie marginalnej stawki podatkowej CIT może prowadzić w konsekwencji do ucieczki inwestycji B+R do krajów o wyższym opodatkowaniu i dużych ulgach, gdzie relatywne korzyści podatkowe z wykorzystania ulg, jeżeli istnieją dochody pozwalające na dokonanie odpisów, są znacznie wyższe [OECD 2002]. Z punktu widzenia firmy niski ogólny poziom opodatkowania nie stwarza żadnej dodatkowej dźwigni finansowej akurat dla inwestycji B+R, neutralizującej wysokie ryzyko i dyskontującej efekty zewnętrzne. Dla uniknięcia arbitrażu podatkowego i przyciągnięcia inwestycji B+R kraje o niskim opodatkowaniu (jak np. Polska) powinny stosować znacznie bardziej agresywne ulgi podatkowe, aby zrównoważyć krańcowe korzyści fiskalne dostępne z tytułu takich inwestycji w krajach o wysokim opodatkowaniu. Z drugiej strony oparcie systemu tylko na bezpośrednim finansowaniu w postaci subsydiów i grantów wymaga rozwiniętej i dojrzałej polityki naukowo-technologicznej państwa, czy w ogóle agend i instytucji, które odpowiedzialne są za dystrybucję takich funduszy. Jest to znacznie bardziej kosztowne w wymiarze zarówno finansowym, jak i kapitału ludzkiego i talentu menadżerskiego, niezbędnych dla efektywnego funkcjonowania takiego systemu wspierania badań. Można powiedzieć, że im bardziej zaawansowany 129 jest dany kraj w sensie zasobu kompetencji koniecznych dla efektywnej ewaluacji i selekcji projektów, w dyspozycji agend prowadzących politykę naukowo-technologiczną, tym większe szanse na sprawne funkcjonowanie systemu opartego na grantach i subsydiach oraz osiągnięcie oczekiwanych rezultatów. Brak odpowiednich kompetencji w prowadzeniu polityki naukowo-technologicznej w systemie grantów i subsydiów stwarza ryzyko poważnych strat, zarówno ze względu na pokusę nadużycia ze strony urzędników dysponujących tymi funduszami jak i deformację warunków konkurencji. Niewielkim ułatwieniem jest dla krajów mniej zaawansowanych wzorowanie się na modelu krajów z granicy technologicznej, który czasami starają się one kopiować. Takie mechaniczne uprawianie polityki naukowo-technologicznej nie uwzględnia lokalnych przewag komparatywnych, prowadzi do błędnej alokacji środków i strat. W efekcie w większości krajów OECD stosowane są różne kombinacje obu instrumentów dostosowane do warunków lokalnych i dotychczasowych doświadczeń. Np. USA, Wielka Brytania i Francja stosują zarówno obfite finansowanie bezpośrednie jak i korzystne traktowanie podatkowe wydatków na B+R w prywatnych przedsiębiorstwach. Szwajcaria, Włochy i Nowa Zelandia stosują subsydia bezpośrednie nie wykorzystując preferencji podatkowych. Podobnie Niemcy zrezygnowały z instrumentu podatkowego uznając go za nieskuteczny z uwagi na efekt wypychania zwłaszcza w przypadku dużych przedsiębiorstw, które i tak zmuszone są przez konkurencję do ponoszenia własnych wydatków na B+R, chociaż rozważa się wprowadzenie ulg dla małych przedsiębiorstw wobec braku elastycznych źródeł kapitału ryzyka Na drugim końcu spektrum znajdują się takie kraje jak Australia i Kanada, a także Hiszpania, Portugalia, które hojnie oferują ulgi podatkowe przy niewielkim poziomie finansowania bezpośredniego. Jest też grupa krajów o wysokich nakładach B+R w sektorze przedsiębiorstw prywatnych, które nie stosują ani preferencji podatkowych ani nie wykorzystują na szerszą skalę instrumentów finansowania bezpośredniego. Do grupy tej należą Japonia i kraje skandynawskie, szczególnie Finlandia. W tym przypadku dźwignia finansowa jest bliska zero a nawet często ujemna. Są nawet w OECD kraje, które w ogóle nie stosują ani zachęt podatkowych ani bezpośredniego wspierania badań w sektorze przedsiębiorstw, jakkolwiek niewiele wydają na badania, jak Meksyk czy Polska. Instrumenty podatkowe mają tą właściwość, że o ich wykorzystaniu decydują same przedsiębiorstwa, jednak potencjalne korzyści do uzyskania zależą od rozmiarów dochodu do opodatkowania. Wymaga to z jednej strony wypracowania strategii badawczoinnowacyjnej na poziomie firmy, a z drugiej osiągania wysokich dochodów bieżących umożliwiających odpisy podatkowe i gwarantujących wysoki stopień płynności dla finansowania prac badawczych i wdrożeniowych o długim okresie zwrotu. Przesądza to o wysokiej skuteczności oddziaływania instrumentów podatkowych na firmy duże, ustabilizowane, o znacznych i rosnących przychodach i wysokich wskaźnikach płynności finansowej. Trudno oczekiwać, by małe firmy, zwłaszcza technologiczne w początkowym stadium rozwoju i bez dostatecznej płynności, były w stanie efektywnie i w pełni wykorzystać oferowane ulgi podatkowe. W przypadku firm dużych podstawowym warunkiem jest najczęściej posiadanie koncepcji i strategii innowacyjnej. 130 Ulgi podatkowe mogą być oferowane zasadniczo w dwóch postaciach: odpisu od dochodu do opodatkowania poprzez powiększenie kosztów uzyskania przychodów, lub odpisu od zobowiązania podatkowego. W pierwszym przypadku mogą występować w formie odroczenia podatkowego przez przyspieszenie amortyzacji niektórych pozycji nakładów, lub bieżącego zaliczania danej pozycji do kosztów uzyskania przychodów. Podstawą wykorzystania ulgi w obu formach jest dochód bieżący. Dlatego coraz częściej preferowana jest ulga w postaci odpisu od zobowiązania podatkowego określona w procencie poniesionych wydatków i funkcjonująca w formie roszczenia kredytowego do wykorzystania w określonym czasie, zwykle dłuższym niż bieżący okres podatkowy (nawet do 10 lat). Ta forma ulgi łagodzi ograniczenie płynności, gdyż może być wykorzystana w okresach przyszłych, gdy np. inwestycje w B+R zaczną przynosić dochody lub przynajmniej zmniejszy się obciążenie kosztami prac badawczych. Pozwala to wydłużyć horyzont czasowy przy podejmowaniu decyzji o inwestycji w B+R. Ponadto ulga w postaci odpisu od podatku w odróżnieniu od zwykłych ulg podatkowych nie zależy od wysokości stawki podatkowej, co czyni ją atrakcyjnym instrumentem w krajach o niskiej krańcowej stawce podatkowej, minimalizując ryzyko arbitrażu podatkowego. Zwykle odmiennie traktuje się wydatki bieżące i kapitałowe. Wydatki bieżące na B+R we wszystkich krajach OECD odpisywane są od dochodu do opodatkowania w roku, w którym zostały poniesione. Dodatkowe preferencje podatkowe dla B+R polegają na podwyższeniu kwoty odpisu w stosunku do faktycznie poniesionych kosztów (np. do 125% w Australii). Niektóre kraje (5 krajów OECD) dopuszczają całkowity odpis nakładów kapitałowych na B+R w roku, w którym zostały poniesione, podczas gdy inne (10 krajów OECD) pozwalają jedynie na przyspieszenie amortyzacji. Podstawą naliczania ulg może być kwota wydatków B+R w roku podatkowym lub ich przyrost w stosunku do określonej bazy z okresu poprzedniego (roku poprzedzającego rok podatkowy, lub średniej z okresu kilku lat poprzedzających, ustalonego jako stały punkt odniesienia lub rolowany z roku na rok). Stosowane są również kombinacje obu wariantów. Uprawnienia do ulg według obu wariantów mogą być kumulowane (dodawane) (Australia, USA, Austria, Węgry), lub wykluczające się z opcją wyboru przez podatnika (Korea). Często stosuje się minimalne progi wydatków uprawniające do korzystania z ulgi, oraz maksymalne pułapy ograniczające wysokość odpisów. Pozwala to na większą kontrolę nad wielkością obciążenia budżetu z tytułu oferowanych przedsiębiorstwom ulg podatkowych. Biorąc pod uwagę dwa warianty ulgi podatkowej, zwykłe bezpośrednie odpisy i kredytowe, oraz dwie metody naliczania, od kwoty bieżącej lub przyrostu wydatków, mamy praktycznie możliwe cztery kombinacje. Ulgi od kwoty wydatków i przyrostowe często są dodawalne, chociaż stosuje się też rozwiązanie opcjonalne pozwalające przedsiębiorstwu wybrać bardziej odpowiedni z wykluczających się wariantów. Ulgi przyrostowe są oparte na bardziej skomplikowanej procedurze, ale premiują nowe firmy startujące z niskiej bazy. Zasadniczo pobudzają dynamiczne zmiany strukturalne wydatków B+R, premiując szybkie przyrosty w gałęziach o dużym potencjale rozwojowym. Dyskryminują jednak firmy duże o ustabilizowanym budżecie rozwojowym, oraz nie uwzględniają cy131 kliczności nakładów B+R wynikającej z wahań koniunktury. Natomiast warianty zwykłych odliczeń i kredytowych, jeżeli występują równocześnie, stosowane są zazwyczaj na zasadzie alternatywy, pozostawiając płatnikom wybór rozwiązania optymalnego z punktu widzenia wymogów płynności finansowej firmy. W najbardziej elastycznych rozwiązaniach dopuszcza się możliwość wykorzystania obu wariantów jednocześnie, z tym że od kwoty bezpośredniego odpisu od dochodu podatkowego potrąca się kwotę ulgi kredytowej, tak aby się nie kumulowały (USA) [Sawyer]. W końcu ulgi podatkowe mogą być selektywne nakierowane na określone wybrane cele jak MSP, nowe innowacyjne firmy NTBF (new technology based firms), wspólne publiczno-prywatne konsorcja badawcze, współpraca badawcza uczelni z przemysłem, badania podstawowe, koszty zatrudnienia personelu badawczego, zakup obcych usług badawczych, szczególne rodzaje nakładów o znacznym spillover np. ICT, badania firm krajowych realizowane w kraju, badania firm krajowych realizowane zagranicą, wydatki B+R inwestorów zagranicznych realizowane w kraju. Wiele krajów decyduje się na stworzenie silniejszej dźwigni podatkowej dla małych firm (choć z innych względów może to być mało skuteczne), które są mniej skłonne do ponoszenia ryzyka własnych prac badawczych, nie są w stanie udźwignąć kosztów zatrudniania wysoko-kwalifikowanej kadry badawczej, lub wręcz utrzymywać własnej bazy badawczo-rozwojowej. Do tej klasy instrumentów można także zaliczyć specjalne ulgi podatkowe z tytułu zakupu obcych usług badawczych (gdy brak własnej bazy), czy zatrudniania personelu badawczego (w formie kwotowej na zatrudnionego - Belgia, lub zwolnień od podatku od płac i składek ubezpieczeniowych - Holandia) [Sawyer]. Ten ostatni instrument jest łatwy i przejrzysty w administrowaniu, ponieważ nietrudno zidentyfikować badawczy charakter nakładów przyporządkowując wyniki prac bezpośrednio kosztom zatrudnienia ich autorów. Ponadto ma charakter ulgi podatkowej u źródła, gdyż dotyczy kapitału ludzkiego, bezpośredniego czynnika produkcji nowej wiedzy, niezależnie od firmy, w której w danym momencie funkcjonuje. Efekty sieciowe systemu innowacyjnego uwzględniane są w konstrukcji ulg wspierających transfer technologii, zorientowanych na badawcze konsorcja publiczno-prywatne, współpracę uczelni z przemysłem (Japonia, Norwegia, Hiszpania, W. Brytania), prace badawcze prowadzone zagranicą, czy przyciąganie zagranicznego kapitału badawczego w formie inwestycji bezpośrednich. W tym kierunku działają np. ulgi na badania finansowane, a nie tylko wykonywane, przez przemysł, jeżeli są one kontraktowane w uczelniach (W. Brytania). W okresie narastającej globalizacji istotną rolę odgrywa przyciągnięcie zagranicznego kapitału badawczego i przeciwdziałanie ucieczce tego kapitału spowodowanej arbitrażem podatkowym. W tym celu coraz częściej poszerza się zakres ulg podatkowych dla B+R firm zagranicznych lub zależnych od kapitału zagranicznego zlokalizowanych w kraju (W. Brytania, Węgry – 200% ulgi) [European Innovation Trend Chart]. Efekty spillover, czyli duża rozpiętość między społeczną a prywatną stopą zwrotu, są argumentem za stosowaniem szczególnych ulg podatkowych do wydatków na badania 132 podstawowe prowadzone w przedsiębiorstwach (Japonia, Kanada, Dania), czy na rozwój i upowszechnienie tzw. technologii ogólnego zastosowania (GPT – general purpose technologies, generic technologies)”. Stanisław Kubielas, Finansowe Instrumenty Wspierania B+R I Innowacji W Sektorze Przedsiębiorstw, w: Budżetowe instrumenty finansowania B+R w Polsce. Propozycja na lata 2005-2015, Krajowa Izba Gospodarcza – Instytut Społeczeństwa Wiedzy, Warszawa 2005. Bibliografia A. Salter, et al., Talent not Technology: Publicly Funded Research and Innovation in the U.K., SPRU University of Sussex, May 2000. Science, Technology and Industry Outlook 2002, OECD, Paris 2002. Tax incentives for research and development: trends and issues, OECD, Paris 2002; European Innovation Trend Chart Thematic Report ‘Innovation Financing” October 2002 – September 2003, European Commission Enterprise Directorate-General. Potential Implications of Providing Tax Incentives for Research and Development in New Zealand, A Report for the Royal Society of New Zealand, Department of Accountancy, Finance and Information Systems, University of Canterbury, Christchurch, New Zealand, s. 13-14. European Innovation Trend Chart Thematic Report ‘Innovation Financing” October 2002 – September 2003. POMOC PUBLICZNA DLA B+R I INNOWACJI W roku 2006 Komisja Europejska przyjęła zasady ramowe dotyczące pomocy państwa na działalność badawczą, rozwojową i innowacyjną, a w roku 2008 – ogólne rozporządzenie w sprawie wyłączeń grupowych. „Zarówno zasady ramowe, jak i rozporządzenie zawierają nowe przepisy dotyczące innowacji, które opracowano specjalnie z myślą o małych i średnich przedsiębiorstwach i które mają również służyć lepszemu ukierunkowaniu pomocy na tworzenie miejsc pracy i zwiększanie wzrostu gospodarczego z celami wyznaczonymi w strategii lizbońskiej, kontynuowanymi obecnie przez strategię „Europa 2020””. Bibliografia 2006 Community Framework for State Aid for Research, Development and Innovation (2006/C 323/01) 2006 Plan Działań W Zakresie Pomocy Państwa. Gorzej i lepiej ukierunkowana pomoc państwa: mapa drogowa reformy pomocy państwa na lata 2005 – 2009 (Dokument konsultacyjny), Bruksela, dnia 7.6.2005 COM(2005) 107 końcowy 2006 Wytyczne Wspólnotowe W Sprawie Pomocy Państwa Na Wspieranie Inwestycji Kapitału Podwyższonego Ryzyka W Małych I Średnich Przedsiębiorstwach (2006/C 194/02) 2008 Rozporządzenie Komisji (WE) nr 800/2008 z dnia 6 sierpnia uznające niektóre rodzaje pomocy za zgodne ze wspólnym rynkiem 9.8.2008 „Dziennik Urzędowy Unii Europejskiej” L 214/3 Piotr Podsiadło, Pomoc publiczna na badania, rozwój i innowacje w kontekście kryzysu gospodarki Unii Europejskiej. 133 EWALUACJA EWALUACJA (Evaluation) Ewaluacja to zestaw działań generujących wiedzę dotyczącą zasadności, przebiegu i oddziaływania interwencji polityki publicznej. Ewaluacja jest zazwyczaj ukierunkowana na instrumenty, programy i polityki. Niekiedy ewaluacja odnosi się nie do interwencji publicznej, lecz do organizacji publicznej (np. uniwersytetu czy laboratorium rządowego), sektora publicznego lub też innych jednostek, utrzymywanych w całości lub częściowo z pieniędzy podatnika. Ewaluacja jako nieodłączny element działalności administracji rządowych w krajach rozwiniętych gospodarczo sięga lat 1950-tych (choć sporadyczne ewaluacje przeprowadzano także w II poł. XIX w.). Choć ewaluacja badań naukowych ma wielowiekową tradycję, stała i systematyczna ewaluacja programów i instrumentów politycznych w sferze N+T oraz organizacji badawczych, finansowanych z budżetu państwa, jest świeżej daty (II poł. lat 1970-tych – lata 1980-te). Wiąże się ona z modernizacją administracji rządowej oraz z przemianami funkcji badań naukowych i technologicznych. Z punktu widzenia ogólnego zarządzania systemem badawczym ewaluacja pełnie dwie funkcje. Z jednej strony jest „narzędziem sterowania”, to znaczy instrumentem organizowania i zarządzania badaniami. Z drugiej strony, wraz z funkcją sterowania, może ona pełnić funkcję dystrybucyjną, czyli być stosowana do przydzielania różnych rodzajów nagród i zasobów różnym rodzajom podmiotów - osobom, grupom lub organizacjom. Zachęty te mogą być ekonomiczne (dotacje, premie wynagrodzenia) i/lub symboliczne (reputacja i prestiż)[Cruz-Castro 2006]. Cele i motywy ewaluacji. Ewaluacja dostarcza wiedzy o skuteczności i efektywności polityk zrealizowanych (ewaluacja ex post), realizowanych (ewaluacja mid term) lub planowanych (ewaluacja ex ante) w celu kształtowania i uzasadniania przyszłych interwencji. Stwarza ona szansę wspólnego refleksji interesariuszy – szczególnie polityków, użytkowników i beneficjentów – nad ocenianymi politykami, czyli uczenia się, jak robić lepszą politykę i lepsze ewaluacje. Jest także narzędziem rozliczania (ang. accountability). Z punktu widzenia accountability ma ona wyjaśnić, w jaki sposób zostały wykorzystane środki publiczne, jakie przyniosły one efekty i jak uzasadnia się ich użycie. Ewaluacja to także środek legimityzacji, pomoc w ustaleniu >priorytetów polityki, narzędzie podziału funduszy, metoda zarządzania, która służy ulepszaniu realizacji już podjętych decyzji oraz decyzji, które mają być podjęte w przyszłości. Istnieje zasadnicza zgoda, że wszystkie interwencje polityczne powinny być poddawane ewaluacji. Jednak powstaje problem gdy trzeba decydować: • Kiedy jest właściwy czas, aby przeprowadzić ocenę? 134 • Jaki jest właściwy poziom agregacji, np. dla oceny na poziomie projektu, programu, polityki, Policy mix, organizacji lub systemu B+R i innowacji? • Jakie kryteria oceny powinno się stosować? Pytania te często rozstrzyga się w zgodzie z potrzebami decydentów i/lub zarządzających programami. Ewaluacje ex ante, w połowie okresu (ang. mid term) lub ciągłe (ang. ongoing) i ex post odgrywają ważną rolę w >cyklu polityki; różne rodzaje pytań można podnosić i różne kryteria stosować na różnych poziomach ewaluacji. Początkowy etap ewaluacji polega na określeniu zakresu ewaluacji, jej celów, przedmiotu i kryteriów oceny. Prace te najlepiej przeprowadzać w porozumieniu z wielu różnymi zainteresowanymi stronami. W niektórych sytuacjach parametry ewaluacji są określone przez prawo. Niezbędnym elementem tego etapu jest ustalenie (zapisanej lub zrekonstruowanej przez ewaluatorów) >logiki interwencji polityki (instrumentu, programu) [OECD IPP 2013]. Pytania stawiane w ewaluacji. Najczęściej zadaje się pytania dotyczące produktu, procesu (działań), efektu i wpływu oraz powiązań: potrzeb z produktem/efektem/wpływem (użyteczność), potrzeb z celem (stosowność), celów z produktem/efektem/wpływem (skuteczność), działań z produktem/efektem/wpływem (efektywność). Rozszerzona lista pytań dotyczy m.in. następujących kwestii: Kryterium Pytanie Stosowność Czy podjęcie działania było uzasadnione? Odpowiedniość Czy cele działania służyły rozwiązaniu problemu, jaki został przed nim postawiony? Spójność Czy logika interwencji nie była sprzeczna z innymi interwencjami podejmowanymi w podobnych celach? Ekonomiczność Czy działanie okazało się tańsze niż zakładaliśmy? Czy kosztowało mniej niż oczekiwano? Efektywność (wydajność) Czy działanie spełniło nasze oczekiwania? Produktywność Czy produkt (efekt, wpływ) wart był zainwestowanego weń wkładu? Sprawność procesowa Czy działanie przebiegło sprawnie? Umiejętności Jakie kwalifikacje posiadali wykonawcy i czy były one na miarę wykonywanych przez nich zadań? Skuteczność Czy cele programu zostały osiągnięte? Jaki jest zwrot z inwestycji (return on investment, ROI)? Czy uzyskany zwrot z inwestycji odpowiada zakładanemu? Jakość Jak wartościowy jest wynik (output)? Jak dobre są efekty? Użyteczność Czy produkt-efekty-wpływ działania rozwiązał problem lub zaspokoił potrzebę? Trwałość Czy efekty trwają w horyzoncie średnio-i-długo terminowym? Konsystencja Do jakiego stopnia pozytywne / negatywne skutki pośrednie w innych obszarach polityki gospodarczej, społecznej i środowiskowej zostały 135 zmaksymalizowane / zminimalizowane? Alokacja zasobów / Efekty dystrybucyjne W jakim stopniu negatywne/pozytywne skutki dystrybucyjne polityki zostały zminimalizowane/zmaksymalizowane? Dodatkowość Co się wydarzyło poza i ponad to, co by się wydarzyło bez podjętego działania? Zastąpienie Co się nie stało, a co by zaszło, gdyby nie oceniane działania? Ulepszenia procesu W jaki sposób można by to robić lepiej? Delanghe 2013; European Commission 2004; Guy 2000; Pollit 2000; Evaluating 1999; Arnold 1997 Pytania stawia się w Ocenie Wpływu oraz w Ewaluacjach Polityk w następujący sposób: Ex-ante ewaluaOcena okresowa cja/ocena wpływu Ewaluacja ex post Odpowiedniość X Spójność X Ekonomiczność X X X Efektywność X X X Produktywność X X X Ocena wpływu expost X X Trwałość X X Użyteczność X X Konsystencja X X X X Efekty dysctrybucyjne X X X X Gdy to możliwe, dla każdego modułu dobiera się odpowiednie wskaźniki, np.: • produktu działalności badawczo-rozwojowej (publikacje, patenty, raporty, prototypy, produkty, procesy, usługi, standardy, cytowania, uzyskane nagrody, widza i umiejętności). • efektu – produkty działalności badawczo-rozwojowej przekształcone przez sektorze gospodarczym w nowe produkty, materiały, procesy, a w sektorze publicznym w nowe prawa, metody nauczania, leczenia, przesyłu energii, transportu itd. • wpływu – wpływ naukowy i technologiczny: nowa wiedza; kultura współpracy; powstanie sieci; reputacja; wpływ ekonomiczny: długofalowe efekty, które pociągnęły za sobą wzrost gospodarczy; konkurencyjność przemysłowa; innowacje; wzrost zatrudnienia; wpływ społeczny: poprawa jakości życia, spadek śmiertelności; rozwój społeczny; wpływ polityczny: wkład do polityk; zmiana ustaw [EU 2002; Geisler 1996]. Dodatkowość. Wśród pytań stawianych podczas ewaluacji szczególne znaczenie mają pytania dotyczące dodatkowości polityki, tzn. rozważenia, w jakim stopniu pożądane 136 efekty wystąpiłyby bez interwencji publicznej. Istnieją różne formy dodatkowości, a mianowicie: i) dodatkowość wkładu – w jakim stopniu interwencja jest uzupełnieniem lub substytutem wkładów zapewnianych przez rynek lub inne podmioty (np. przez środki własnych firm). ii) dodatkowości efektów – jaka proporcja efektów została stworzon bez interwencji publicznej. iii) dodatkowość zachowania – jaka jest różnica w zachowaniu grupy docelowej interwencji publicznej w porównaniu ze stanem sprzed interwencji lub w porównaniu z podobną grupą, która nie była przedmiotem interwencji. Nacisk na dodatkowość rodzi pytania wokół możliwości jednoznacznego przypisania zaobserwowanych rezultatów do interwencji publicznej. Istnieją dwie przeciwstawne tendencje: po pierwsze, tendencja do przeszacowania, w której wyniki, które są w rzeczywistości kumulatywne i zależą od wielu czynników są całkowicie (albo w przeważającej większości) przypisane do interwencji, a po drugie tendencja do niedoszacowania z powodu niewłaściwego horyzontu oceny (gdy wyniki nie mogły jeszcze wystąpić lub wystąpiły tak dawno temu, że beneficjenci nie mogli ich przypisać do interwencji publicznej). Znajomość tych tendencji jest ważna nawet w przypadku gdy problemy jakie stwarzają nie mogą być w pełni rozwiązane [OECD IPP 2013]. Metody. W ewaluacji stosuje się wiele różnych metod. Najbardziej popularne są badania ankietowe, wywiady, analiza statystyczna i analiza dokumentów, analiza porównawcza, panel ekspertów i studia przypadku. Wszystkie metody mają swoje zalety i ograniczenia, które powinny być w pełni rozpoznane przed przystąpieniem do oceny[OECD IPP 2013]. Choć ewaluacje sięgają po metody nauk społecznych, często nie są same uznawane za badania naukowe (choć czasami określa się je jako gałąź stosowanych nauk społecznych). W procesie kształtowania polityki i zarządzania programem ewaluacja to tylko jedno ze źródeł informacji wśród wielu innych. Wykorzystanie wyników ewaluacji jest często pośrednie. Jeśli ewaluacja jest otwarta i ma charakter partycypacyjny, korzyść odnosi większa grupa osób. Inicjatorzy. Ewaluacja albo ma charakter odgórny, albo oddolny. Inicjatorami ewaluacji odgórnej są organa rządowe (ministerstwa, agencje technologiczne), organizacje działające w ich imieniu (rady ds. badań), lub też specjalne agencje ds. ewaluacji (np. Comité National d`Évaluation de la Recherche oraz Comité National d` Evaluation des Universités we Francji, Agencia Nacional de Evaluación y Prospectiva (ANEP) w Hiszpanii). Inicjatorami oddolnej ewaluacji są organizacje badawcze, jak uniwersytety czy laboratoria rządowe. Ewaluacje przeprowadza się na mocy ustaw (np. w Stanach Zjednoczonych) lub jako część rutyny, jako follow-up kontraktu lub ad hoc. Ewaluatorami są zespoły powołane ad hoc, krajowi eksperci z ocenianej dziedziny (peers), eksperci krajowi wspólnie z zagranicznymi lub tylko eksperci zagraniczni, specjalnie do tego celu powołane organy względnie prywatni kontraktorzy (zawodowi ewaluatorzy ze świata nauki oraz 137 konsultingu) czy wreszcie odrębne instytucje publiczne. Wiele ewaluacji przeprowadzają komórki wewnątrz danej organizacji, oceniając głównie administracyjne, menedżerskie i finansowe aspekty działań. Gdy tylko można, łączy się ewaluację wewnętrzną i zewnętrzną, co pozwala na większy obiektywizm i niezależność ocen. Ewaluatorzy to najczęściej: • zespoły powołane ad hoc, • krajowi eksperci z ocenianej dziedziny (peers), • eksperci krajowi wspólnie z zagranicznymi • tylko eksperci zagraniczni, • specjalnie do tego celu powołane organy • prywatni kontraktorzy (zawodowi ewaluatorzy ze świata nauki oraz konsultingu) • odrębne instytucje publiczne. • komórki wewnątrz danej organizacji (w Polsce z reguły jest to tylko wąsko pomyślany audyt), oceniając głównie administracyjne, menedżerskie i finansowe aspekty działań. Gdy tylko można, łączy się ewaluację wewnętrzną i zewnętrzną, co pozwala na większy obiektywizm i niezależność ocen. Inicjowanie, adaptowanie i rozwój ewaluacji. Najczęściej ośrodkami nie tylko rozwoju metodologii ewaluacji w dziedzinie nauki i techniki, ale także jej edukacji i upowszechniania były narodowe organa rządowe i parlamentarne, Unia Europejska, oraz organizacje międzynarodowe, takie jak UNDP, UNIDO i OECD, np. w Japonii Komitet Wytycznych Ewaluacji Badań działający pod egidą Rady ds. Badań i Technologii (1988), we Francji Parlamentarne Biuro Ewaluacji Wyborów Naukowych i Technologicznych (1991),w Wielkiej Brytanii Krajowe Biuro Audytu oraz Ministerstwo Handlu i Przemysłu (1997) itd. M.in. UNDP opracował Podręcznik Polityki i Procedur (Policy and Procedures Manual) zawierający rozdział pt. Evaluation and Reporting. Opracowany w Komisji Europejskiej Good Practice Guidelines for the Management of the Commission`s Evaluation Function¸ 2000, nakazuje organom Komisji sporządzanie planu ewaluacji. Plan, zatwierdzany przez Dyrekcję Generalną jako integralna część Rocznego Planu Pracy, powinien antycypować przyszłe priorytety polityczne oraz potrzeby operacyjne, a przy tym być realistyczny. Brytyjskie Ministerstwo Przemysłu i Handlu opracowało „ROAME (Rationale, Objectives, Appraisal, Monitoring, Evaluation) Guidance for Collaborative Research and Development”. Ewaluacja a formy pokrewne. Ewaluację odróżnia się od form pokrewnych: monitoringu, audytu, sprawozdawczości itd.. Różnice pomiędzy ewaluacją a niektórymi innymi mechanizmami ujmuje następująca tabela: Różnica pomiędzy ewaluacją a innymi mechanizmami opartymi na feedbacku Opracowania kowe nau- Tradycyjny audyt Ewaluacja kładzie nacisk na praktyczne wykorzystanie informacji Ewaluacja ocenia wydatki publiczne z szerszego punktu widzenia (bierze także pod uwagę pytania, czy cele programu są właściwe oraz czy zostały skutecznie i 138 efektywnie osiągnięte). Monitoring Ewaluację przeprowadza się jako przedsięwzięcie jednorazowe. Podczas ewaluacji poszukuje się bardziej wnikliwych informacji dotyczących badanego programu. Przy tym istnienie systemu stałego monitoringu to często podstawa pomyślnej ewaluacji. Pomiar dokonań (Performance indicators) Ewaluacja bada nieraz oceniany obiekt za pomocą tych samych kategorii (np. jakość, efektywność), ale stara się osiągnąć więcej próbując znaleźć wyjaśnienie dla osiągniętych wyników i zrozumieć logikę działania publicznego. Benchmarking Benchmarking ma węższe znaczenie. Jest jedną z metod oceny organizacji. Ewaluacja może sięgać po tę metodę. Analiza polityki Ewaluacja kładzie nacisk na ocenę ex post. Analizę polityczną określa się nieraz jako ewaluację ex ante w badaniu przyszłych opcji politycznych. OECD (1999) Audyt ma dłuższą tradycję od ewaluacji. Jego celem jest sprawdzenie zgodności z prawem oraz prawidłowości gospodarki finansowej, ustalenie, czy przepisy i procedury były przestrzegane. Ewaluacja jest z reguły bardziej elastyczna. Wykonawcami jej są często nie tylko upoważnieni licencjonowani eksperci, ale także interesariusze. Procedury ewaluacji zależą z reguły w większym stopniu od wstępnych ustaleń wykonawców. Dla właściwego wyboru strategii ewaluacji od przyszłych wykonawców ewaluacji oczekuje się zrozumienia kontekstu (dlaczego i dla kogo zlecono ewaluację), uzasadnienia i zadań. Nie ma żadnych złotych recept ewaluacji i na ogół sądzi się, że (biorąc pod uwagę swoistość każdego ocenianego obiektu) cele, zadania i metody powinny być otwarcie dyskutowane przed ich podjęciem. W przeciwieństwie do audytu, ewaluacja jest wykorzystywana bardziej jako narzędzie zarządzania programami niż dla publicznej accountability. Mimo tych wszystkich różnic granice między tymi dwiema formami kontroli zacierają się. Tradycyjny audyt finansowy jest często uzupełniany o audyt efektywności. Audyt dokonań (performance audit) jest bliski ewaluacji. Z kolei zarządzanie dokonaniami (performance management) jest młodsze od ewaluacji i niekoniecznie ją obejmuje. Rozwinięto je nawet w reakcji na dostrzegane braki ewaluacji. Zawiera ono krytyczną ocenę procesów zarządzania. Jego realizacja leży w obowiązkach menedżerów, podczas gdy przeprowadzenie ewaluacji powierza się wszystkim zewnętrznym ekspertom. Monitoring, wyczerpujące i regularne sprawdzanie zasobów, efektów i rezultatów interwencji publicznej, oparty jest na takich źródłach informacji, jak raporty, przeglądy, bilanse, wskaźniki itp. Monitoring przeprowadzają najczęściej organizacje odpowiedzialne za interwencję publiczną. Podobnie jak ewaluacja, monitoring jest traktowany jako narzędzie doskonalenia działalności. Ewaluacja morze korzystać z benchmarkingu. Benchmark to po angielsku miara, kryterium. Benchmarking to „miarowanie”. Menedżerowie nieraz rozumieją benchmarking jako technikę bliską „mapowania procesu”, t.j. analizowania procesów pracy i ich ulepsznia przez porównywanie ze wzorcowymi praktykami procesów pracy w innych organizacjach. Inni menedżerowie rozumieją benchmarking jako działalność polegającą na porównywaniu rezultatów osiąganych przez podobne organizacje. Benchmarking procesów odnosi się do działań stosowanych dla przetwarzania „wkładu” w „rezultaty”. Benchmarking rezultatów obejmuje ocenę działań organizacji na 139 podstawie wskaźników dokonań (performance indicators), nie tyle standardów (tj. ideałów lub norm), co miar sprawności i efektywności (np. wielkość eksportu). Benchmarking umożliwia personelowi ocenę w stosunku do innych (bądź innej organizacji, bądź też innego działu tej samej organizacji). Benchmarking procesów może prowadzić do pytań dotyczących zadań organizacji. Benchmarking rezultatów – do pytań dotyczących różnic w efektywności. Benchmarking musi uwzględniać cele organizacji, cechy klientów itd.. Aby był skuteczny, organizacja musi uznać, że istnieje wiele źródeł poprawy efektywności, wliczając w nie porównanie z nawet bardzo różnymi organizacjami (np. szpitala z hotelem). Benchmarking pozwala organizacjom lepiej zrozumieć procesy wiodące do osiągnięcia zakładanego rezultatu. Krytyczne czynniki sukcesu benchmarkingu i ewaluacji są podobne – udział klientów, ostrożna selekcja wskaźników dokonań oraz ocena skuteczności stosowanych metod. Trendy w rozwoju ewaluacji B+R finansowanych ze źródeł publicznych 1950 2000 Program, organizacja + Polityka Ocena jakości naukowej Relewantność, wpływ, efekty systemowe Ocena jakościowa (w skali) + Ocena ilościowa Zróżnicowane praktyki krajowe Wzorcowe praktyki Fragmentaryzacja Standardy Izolowane ewaluacje System ewaluacji Jedna prosta metoda „Zestaw narzędzi” Ewaluacja Integracja: ewaluacja, statystyka, foresight... Polityka B+R Polityka innowacyjna Dobre praktyki Czynniki sukcesu ewaluacji: • Dobrze od samego początku określony cel i zakres ewaluacji, ale z wbudowaną elastycznością w celu dostosowania ich do pojawiających się ustaleń. • Zgranie ewaluacji z harmonogramem cyklu polityki. • Zaangażowanie wielu interesariuszy. Czynniki ryzyka: • Ewaluację przeprowadza się jako rytuał. • Wyniki ewaluacji stosuje się mechanicznie w podejmowaniu decyzji politycznych i finansowych, bez wprowadzania istotnych niuansów. • Ewaluację przeprowadzają niedoświadczeni praktycy. 140 Wiele publikacji stara się sformułować wzory dobrej ewaluacji lub udzielić rad i wskazań, jak przeprowadzać ewaluację skutecznie. Podkreśla się np., że standardyzacja procedur ewaluacji zmniejsza jej czas i koszty i ułatwia porównania pomiędzy programami, że ewaluacja powinna być traktowana jako proces uczenia się, zarówno dla ocenianych, jak i dla oceniających, jako okazja zdobycia użytecznych, skądinąd nieosiągalnych informacji, że jej wyniki powinny by powiązane z procesem podejmowania decyzji, że np. ewaluacja szkół wyższych nie powinna zabijać kreatywności (np. wydział uniwersytecki powinien być oceniany jako ekosystem, habitat, środowisko, wg jakości życia, szans zdobywania doświadczenia, troski o wzrost, a nie jako maszyna do wytwarzania oczekiwanych wyników) itd. Zwraca się uwagę, że ewaluacje obok zamierzonego wpływu pociągają za sobą także skutki uboczne (np. wzmacniają najlepszych ponad należne zasługi, zaostrzają zatargi, podcinają motywacje). Wskaźniki ewaluacji powodują, że celem ocenianych staje się nie tyle osiągnięcie stanu postulowanego, co ich formalne wypełnienie. Dzięki dotychczasowym praktykom ewaluacji zebrano niezliczone doświadczenia. Jedna z nich stwierdza „malejący zwrot” z ewaluacji określonego typu (pomimo stosowania mechanizmów auto-korekcyjnych). Gdy dany typ ewaluacji jest powtarzany, maleje szansa na niespodziewane lekcje, nawet gdy nowe okoliczności przynoszą ze sobą nowe wyzwania. Pod wieloma względami ewaluacja badań, zwłaszcza podstawowych zorientowanych poznawczo, jest trudniejsza niż ocena innych działań ze względu na wielki stopień niepewności i ryzyka, jaki się z nimi wiąże. Oczekiwana od badacza oryginalność utrudnia sformułowania zasad oceny badań prowadzonych „na granicach poznania”. W żartobliwym powiedzeniu, że Kopernik i młody Einstein nie uzyskaliby nigdy od współczesnych grantu, kryje się wiele prawdy. Dziś Craig Venture nie dokonałby tylu odkryć genomu człowieka, gdyby sam nie finansował badań, którymi kierował. Życie jest prostsze dla ewaluatora, gdy przedmiotem jego zainteresowania jest prosty program, ściśle określony w czasie i z jasno zarysowanymi celami. Jednak np. koncepcja Europejskiej Przestrzeni Badawczej narzuca nowe wyzwania ewaluacji, takie jak np. większy nacisk na wartości społeczne i etyczne oraz większy nacisk na aspekty międzynarodowe (np. powiązania nauki z przemysłem nie tylko w granicach narodowych, rozwój B+R dla przyciągania i zatrzymywania zagranicznych inwestycji). Te nowe wyzwania zmuszają do adaptacji metod zarządzania przemysłem (benchmarking). Bibliografia Amir Piric i Neville Reeve, Evaluation of public investment in R&D – towards a contingency analysis w: Policy evaluation in innovation and technology. Towards best practices, 1997 OECD. Chistopher Pollit and Geert Bouckaert, Public Management Reform, Oxford University Press. Dimitris Sotiriou, Current practice and guidelines in France, Italy and Greece, and in international organizations, w: Evaluation of Research and Development. Current Practice and Guidelines. Synthesis report, 1991. Erik Arnold, Ken Guy, Technology diffusion programmes and the challenge for evaluation, w: Policy evaluation in innovation and technology. Towards the best practices, OECD 1997. European Commission (2002), An RTD Evaluation Toolbox. 141 European Commission (2006), Smart Innovation: A Practical Guide to Evaluating Innovation Programmes. Evaluating socio-economic programmes. Glossary of 300 concepts and technical terms, vol. 6, European Commission, Luxembourg, 1999. Evaluation of technology policy programmes in Germany, ed. Gerhard Becher, Stefan Kuhlmann, Dordrecht i in 1995. Evanthia Kalpazidoun Schmidt, Evaluation and science policy, w: The use of Evaluation in Europe, November 2002. George Papaconstantinou, Wolfgang Polt, Policy evaluation in innovation and technology: an overview, 1997 w: Policy evaluation in innovation and technology. Towards best practices, 1997 OECD. Irwin Feller, The academic policy analyst as reporter: the who, what and how of evaluating science an technology programs, w: Learning from Science and Technology Policy Evaluation, ed. by Philip Shapira, Stephan Kuhlmann, Edward Elgar, 2003. Jack Spaapen and Christian Sylvain, Societal quality of research. Toward a method for the assessment of the potential value of research for society, SPSG Concept Paper No. 13, 1994. John Irvine, Evaluating Applied Research: Lessons from Japan, 1988. Kalpazidou Schmidt, E. and K. Siune, The Use Of R&D Evaluations In European Science Policy, www.cfa.au.dk/Staff/eks.htm L.G. Georghiou, J.S. Metcalfe, Evaluation of the impact of European community research programmes upon industrial competitiveness, ”R&D Management” 23, 2, 1993. Laura Cruz-Castro and Luis Sanz-Menéndez, Research Evaluation In Transition: Individual Versus Organisational Assessment In Spain, Unidad de Políticas Comparadas (CSIC), October 2006. Leszek Korporowicz, Ewaluacja - zaproszenie do rozwoju, Internet. Luke George, Issues in the evaluation of innovation and technology policy, w: Policy evaluation in innovation and technology. Towards best practices, 1997 OECD. Luke Georghiou, Evaluation of research and innovation policy in Europe – new policies, new frameworks? w: Learning from Science and Technology Policy Evaluation, ed. by Philip Shapira, Stephan Kuhlmann, Edward Elgar, 2003, s. 65. Luke Georghiou, Research evaluation in European national science and technology system, “Science and Public Policy” vol. 5 no. 1. OECD (1999) Improving Evaluation Practices. OECD (2006), Evaluation of Publicly Funded Research: Recent Trends and Perspectives, w: STI Outlook 2006. OECD (2006), Government R&D Funding and Company Behaviour: Measuring Behavioural. OECD Government R&D Funding and Company Behaviour. Measuring Behavioural Additionality, Paris 2006. Papaconstantinou George, Wolfgang Polt, Policy evaluation in innovation and technology: an overview, 1997 w: Policy evaluation in innovation and technology. Towards best practices, 1997 OECD. Paul Jedamus, Marvin W. Peterson and Associates, Improving Academic Management. A Handbook of Planning and Institutional research, Jossey-Bess Publishers, 1989, s. 452-455. RAND Europe, Measuring research A guide to research evaluation frameworks and tools, July 2013 RAND Measuring research. A guide to research evaluation frameworks and tools, 2013. S. Lahlou, R. van der Meijden, M. Messu, G. Poquet, F. Prakke, A Guideline for Survey-Techniques in Evaluation of Research, 1992. 142 Stefan Kuhlmann, Evaluation as a source of `strategic intelligence`, w: Learning from Science and Technology Policy Evaluation, ed. by Philip Shapira, Stephan Kuhlmann, Edward Elgar, 2003. Tamás Balogh, From peer review to portfolio analysis. Evaluation of applied research and development, mszp.. Terttu Luukkonen, Bertel Ståhle, Evaluation of research fields. Scientists` Views, 1993. The use of R&D evaluations in European science policy. Virginia Acha and Lucia Cusmano, Sharing Capabilities. Patterns of R&D co-operation in the upstream petroleum industry. Wilhem Krull, Current practice and guidelines in a selection of industrialized countries w: W. Krull, D. Sensi, D. Sotiriou, Evaluation of Research and Development. Current Practice and Guidelines. Synthesis report, 1991. ROZLICZALNOŚĆ Jednym z kluczowch słów w działalności sektora publicznego II poł. XX wieku stało się słowo accountability. Nie ma ono jednoznacznego odpowiednika w języku polskim. Najczęściej accountable tłumaczy się jako rozliczalny, odpowiedzialny, zobowiązany do wyliczenia się, wytłumaczalny, dający się usprawiedliwić [Jaślanowie 1991]. Accountable odnosi się do sytuacji, w której np. administrator bezpośrednio odpowiedzialny przed radą nadzorczą musi okazać, że potrafił wywiązać się z powierzonych mu obowiązków, a z powierzonych mu rzeczy zrobił mądry użytek [Penguin 1991]. Accountable (rozliczane) są organizacje i ludzie, a nie programy czy instrumenty polityczne. Mówiąc opisowo, accountability to zobowiązanie stron uczestniczących we wprowadzaniu w życie interwencji publicznej do tego, aby dostarczyć zwierzchnim władzom politycznym oraz opinii publicznej informacji i wyjaśnień dotyczących oczekiwanych i aktualnych wyników działań. Osią informacji i wyjaśnień ma być sposób wykorzystania zasobów publicznych. Brak polskiego odpowiednika accountability rozumianego w sposób używany obecnie w krajach OECD świadczy, że sektor publiczny w Polsce nie działa jeszcze wg zasad obowiązujących w państwach rozwiniętych. „Rozliczanie” nadal rozumiane jest u nas w kategoriach zgodności z prawem, a w szczególności z przepisami finansowymi, a nie zgodności z misją organizacji, mandatem społecznym, i zasadami skutecznego działania. Ponadto, definiowane jest ono w sposób wąski i negatywny (kontrola i kara), podczas gdy dziś w accountability nacisk położony jest bardziej na aspekt pozytywny (pomiar dokonań, informowanie opinii publicznej o osiągniętych celach i rezultatach). Ale accountability w dzisiejszym rozumieniu jest efektem zmian w rozumieniu zadań sektora publicznego w zachodnim świecie. Przed kilkoma dekadami słowo to także nie miało dzisiejszego znaczenia. Dawniej, tak jak dziś w Polsce „rozliczanie”, dotyczyło tylko zgodności z przepisami i spraw finansowych, a nie skuteczności i efektywności działania. Zmiana znaczenia odzwierciedliła przejście od administracji „nakazu i kontroli” do nowoczesnej administracji. Ale gdy w Polsce „rozliczanie” nie nabrało jeszcze dzisiejszego znaczenia accountability, w krajach OECD słowo to rozszerza swój zakres, a zmiana ta odzwierciedla kolejną ewo143 lucję sektora publicznego. W ostatnich dekadach accountability odnosi się do odpowiedzialności urzędników rządowych przed zwierzchnikami, zwierzchników przed ministrami, ministrów przed parlamentem, a parlamentu przed wyborcami. Ale wraz z ewolucją systemu rządzenia ten prosty model jest coraz częściej w wieloraki sposób modyfikowany. Accountability oznacza coraz cześciej „rozliczanie” nie tylko przed zwierzchnikiem, ale także przed interesariuszami i opinią publiczną, nie koniecznie bezpośrednie, ale bardziej długofalowe, nie tyle oparte na kontroli zgodności wyników z zakładanymi celami, co na osiągnięciu bardziej długofalowych pozytywnych efektów. W korporacjach obejmuje ono przewidziane prawem konsultacje z interesariuszami, a w demokracji partycypacyjnej – udział obywateli w sprawowaniu władzy. Zmiana znaczenia i praktyk „rozliczania” jest reakcją na sytuację, w której tradycyjne metody administracji często zawodzą w zarządzaniu współczesnymi instytucjami rządowymi, instytucje dostarczające usług publicznych funkcjonują nieraz skuteczniej, gdy są zwolnione z codziennego nadzoru, a w szybko zmieniającym się świecie stwierdza się potrzebę większej organizacyjnej elastyczności. Podsumowując, można accountability zdefiniować jako „układ, dzięki któremu osoby reprezentujące organizację rozliczają się przed swymi zwierzchnikami, parlamentem, opinią publiczną i użytkownikami. Skuteczne rozliczanie (accountability) obejmuje jasną definicję zakresu odpowiedzialności, określenie stopnia samodzielności, instrukcje co do sporządzania sprawozdań finansowych, wymagania odnośnie do przedkładania planów organizacyjnych, pomiar wyników, monitoring dokonań, odpowiadanie na zadawane pytania, a także nominacje, nagrody i sankcje.” Porządek relacji oraz sposób ich egzekwowania określany mianem accountability wpisany jest w przepisy prawne, procedury i praktyki działania oraz cały cykl politycznoadministracyjny organizacji publicznych. Np. w Szwecji accountability opiera się ma ministerstwach, określających jakich wyników oczekują od podległych sobie agencji oraz agencji, przesyłających sprawozdania informujące o osiągniętych wynikach. Narzędziem określania wyników są Listy Instrukcji, wysyłane do agencji bezpośrednio po uchwaleniu budżetu przez parlament. Podczas gdy niektóre formy ewaluacji służą nie tyle jako narzędzie „rozliczania”, co zarządzania programami, inne, jak np. analiza wpływu regulacji (Regulatory Impact Analysis), czyli ocena, w jaki sposób decyzje rządowe pomnożą pożytek społeczny, stosowana jest dla wspomożenia „accountability”. Bibliografia Jaślanowie J. i H., Słownik terminologii prawniczej i ekonomicznej angielsko-polski, Warszawa 1991. The Penguin Modern Guide to Synonyms and Related Words, London 1971. Evaluating socio-economic programmes. Glossary of 300 concepts and technical terms, vol. 6, European Commission, Luxembourg, 1999. Pigeon Richard E. and Ralph Kellett, Glossary Of Common Terms Used In Research And Evaluation, RCMP-GRC, 2000, Internet 144 OCENA SKUTKÓW REGULACJI (Regulatory Impact Assessment, Regulatory Impact Analysis, RIA) Ocena Skutków Regulacji (OSR) to dokument lub fragment dokumentu (w Polsce – załącznik do projektów aktów normatywnych) zawierający szczegółową i systematyczną ocenę potencjalnych skutków nowych regulacji dla ustalenia, czy osiągną one pożądane cele. OSR to ocena wpływu opcji polityki w zakresie kosztów, korzyści i ryzyka projektu. Główny cel OSR to polepszenie jakości prawa. OSR ma zapewniać korzyści ustawodawcom (dzięki OSR mają szerszą wiedzę jako podstawę decyzji), obywatelom (OSR wzmacnia demokrację poprzez ujawnienie podstaw podejmowanych decyzji, co pozwala każdemu wpływać na kształt polityki), biznesowi oraz służbie cywilnej (przez zapewnienie przejrzystych ram >PROCESU POLITYCZNEGO) [Goggin 2008]. Wg OECD „OSR obejmuje szereg metod mających na celu systematyczną ocenę negatywnych i pozytywnych skutków proponowanych i istniejących przepisów [OECD 1995].” Ocena Skutków Regulacji dzieli się na ex ante (przewidywane skutki regulacji) i ex post (ocena istniejących regulacji) [OECD 2005]; na „specyficzną” (ocena wg jednego typu kryteriów, np. środowiskowych) oraz „zintegrowaną” (ocena wg pakietu różnych kryteriów); oraz wg rodzaju wiedzy i zakres uczestnictwa – od OSR opartej na wiedzy ekspertów (wewnętrznych i zewnętrznych) do OSR opartej na udziale interesariuszy [Ruddy 2007]. Potrzeba OSR bierze się z faktu, że regulacje często mają wiele następstw, często trudnych do przewidzenia bez szczegółowych badań i konsultacji z zainteresowanymi stronami. Bywa, że koszty regulacji przekraczają korzyści. Z tego punktu widzenia głównym celem OSR jest zdobycie pewności, że korzyści z regulacji przekroczą jej koszty i ryzyka [EU Impact Assessment]. Inne cele OSR to pomoc w zharmonizowaniu różnych celów politycznych i >ROZLICZALNOŚĆ (ang. Accontability). OSR to nie tylko narzędzie analityczne, ale także narzędzie koordynacji uzgadniania różnych interesów [OECD 2009] (Por. > Spójność Polityki). Cele i rola OSR w procesie administracyjnym różnią się w poszczególnych krajach. Niektóre analizy oceniają wpływ gospodarczy i społeczny legislacji metodą kosztu/korzyści, inne jej oddziaływanie na środowisko naturalne (Environmental impact assessment), na działalność samorządu terytorialnego, MSP, handel zagraniczny itd. [OECD 1996]. Por. >OCENA WPŁYWU BADAŃ. Kluczowe składniki OSR. Wg polskiego Ministerstwa Gospodarki [2006] kluczowe elementy OSR to: „1. Identyfikacja problemu. Właściwe przygotowanie analizy problemu jest warunkiem dokonania poprawnej oceny skutków regulacji oraz wyboru optymalnej formy zachowania instytucji publicznej wobec danego problemu lub procesu. 145 2. Określenie celów regulacji. Właściwe zdefiniowanie celu regulacji jest warunkiem określenia sposobu zweryfikowania czy zmierzenia jego realizacji oraz dokonania wyboru sposobów osiągnięcia tego celu. 3. Określenie alternatywnych opcji realizacji celów. Ten etap oceny skutków regulacji poświęcony jest analizie możliwości realizacji celów zidentyfikowanych w trakcie opracowywania propozycji regulacji. OSR identyfikuje dostępne rozwiązania i ocenia ich potencjalną skuteczność w realizacji zakładanych celów. 4. Przeprowadzenie konsultacji. Pozyskanie od podmiotów uczestniczących w życiu gospodarczym opinii oraz informacji i danych może znacząco poprawić jakość przygotowywanych rozwiązań, nawet jeśli będzie to oznaczać zaniechanie interwencji. Sondowanie opinii partnerów społecznych dostarcza informacji, które z alternatywnych rozwiązań jest najbardziej preferowane przez społeczeństwo, zawsze wtedy, gdy: • Istnieje więcej niż jedno możliwe rozwiązanie, • Brak jest pewności czy w ogóle warto podejmować określone działania, • Ciekawi nas, jaka jest opinia społeczna w tej kwestii. Pozwala także na wzmocnienie legitymacji demokratycznej dla działań administracji oraz zwiększenie współodpowiedzialności za podejmowane działania. 5. Analiza kosztów i korzyści opcji. OSR pozwala na obiektywne porównanie rożnych rozwiązań pod kątem ich ekonomicznej efektywności. Badanie kosztów i korzyści poszczególnych opcji rozwiązań pozwala ograniczyć ryzyko stanowienia takich regulacji, które przy stosunkowo niewielkich efektach przynoszą nieproporcjonalnie duże obciążenie finansowe i społeczno-gospodarcze. 6. Określenie planu wdrażania. Ocena jak długo i jakimi nakładami odbywać może się wdrażanie w Życie danego rozwiązania ma także istotne znaczenie przy wyborze najkorzystniejszej opcji działania. 7. Porównanie opcji i rekomendacja najlepszej z nich po przeprowadzonych analizach kosztów i korzyści każdego z rozwiązań konieczne jest porównanie wyników każdej z nich. Na podstawie tego możliwe jest wydanie rekomendacji dla najlepszego rozwiązania.” Dobre praktyki. W OECD Unii Europejskiej i w poszczególnych krajach opracowano wytyczne przeprowadzania dobrego OSR [OECD 2005, 1997; EU 2005; Ministerstwo Gospodarki 2006; Better policy 2004]. OECD [2002] zaleca m.in.: 1. 2. 3. 4. Zapewnij wysoki status OSR w polityce rządowej. Rozdziel obowiązki wobec OSR pomiędzy ministerstwa i organa kontroli jakości legislacji. Kształć osoby zaangażowane w tworzenie ustaw. Użyj spójnej, ale elastycznej metody analitycznej, takiej jak: >ANALIZA KOSZTÓW I KORZYŚCI, >ANALIZA KOSZTÓW I EFEKTYWNOŚCI, >ANALIZA WPŁYWU SPOŁECZNOGOSPODARCZEGO (socio-economic impact analysis), analiza konsekwencji (consequence ana- 146 lysis), analiza kosztu zgodności (compliance cost analysis) oraz analiza wpływu na biznes (business impact analysis). 5. Opracuj i wprowadź w życie strategie gromadzenia danych, obejmujące otwarte mechanizmy konsultacji społecznych i grup ekspertów, które nie mających silnych interesów sektorowych. 6. Zadbaj, aby ilość czasu i wysiłku poświęconego OSR były współmierne do skutku, jaki się od OSR oczekuje. 7. Zintegruj OSR z procesem tworzenia polityki. 8. Przekazuj wyniki OSR. Powinno się jasno komunikować założenia OSR, wykonalność propozycji, zakres rozważanych alternatyw oraz stopień akceptacji przez interesariuszy. 9. Zapewnij szeroki udział społeczeństwa w tworzeniu regulacji. Konsultacje należy rozpocząć tak szybko, jak to możliwe, oraz kontynuować w trakcie całego procesu legislacyjnego. 10. Stosuj RIA zarówno do istniejących, jak również nowych regulacji. OSR pomaga: • przemyśleć oddziaływanie propozycji legislacyjnych; • określić alternatywne opcje dla osiągnięcia celów polityki; • ocenić opcje (prawne i pozaprawne); • upewnić się, że konsultacje obejmują wiele zainteresowanych stron oraz • określić, czy korzyści uzasadniają koszty. Podkreśla się, że OSR powinno przeprowadzać się na wczesnym etapie procesu ustawodawczego, gdy rozważa się różne opcje polityki. Dobry ORSR • zawiera najlepsze informacje dostępne w danym czasie; • jest jasny, zwięzły i proporcjonalny do problemu; • jest dokumentem samodzielnym, jasno określającym alternatywy dla regulacji dokumenty; • unika terminów technicznych niezrozumiałych dla laika [Better policy 2004]. Oceny skuteczności OSR pokazały wady i zalety tego podejścia. Do zalet należy wczesne wskazanie na słabości planowanych aktów prawnych [Caroll 2010; Bäcklund 2009]. OSR na świecie. OSR został po raz pierwszy wprowadzony w życie przez w USA administrację Cartera w roku 1974, a następnie rozbudowany przez administrację Reagana (>ANALIZA KOSZTÓW I KORZYŚCI jako jej główna metoda) oraz upowszechniony w krajach OECD [OECD 2009]. Obecnie rosnąca liczba krajów o niskim i średnim dochodzie wdrożyła jakąś formę OSR, jednak najczęściej OSR w tych krajach nie jest stosowany systematycznie w całym rządzie [Kirckpatrick 2004]. OSR stosowany w USA ocenia różne opcje przede wszystkim na podstawie ilościowej analizy ekonomicznej. W przeciwieństwie do USA, Komisja Europejska stosuje podejście zintegrowane, które ocenia następstwa gospodarcze, społeczne i środowiskowe rozważanych opcji politycznych [O`Connor 2007]. OSR w Komisji Europejskiej. W Komisji Europejskiej od 2003 r. w ramach OSR rozpoznaje się i ocenia problem regulacji i postawione przez nią cele, określa się główne opcje prowadzące 147 do osiągnięcia tych celów oraz analizuje ich prawdopodobny wpływ na gospodarkę, środowisko i społeczeństwo. OSR ustala zalety i wady każdej z opcji oraz analizuje możliwe synergie i kompromisy (ang. trade-offs). W latach 2005, 2006 i 2009 r. Komisja aktualizowała procedury związane z OSR. „OSR UE dostarcza decydentom informacji dotyczących zalet i wad wyboru polityki. Wyjaśnia, dlaczego należy (lub nie należy) podjąć działania na szczeblu UE i dlaczego proponowana interwencja jest właściwa. Jak tylko Sekretariat Generalny, Rada ds. Oceny Skutków (ang. Impact Assessment Board), oraz Komisja zdecydują, że konieczna jest ocena wpływu, planuje się podjęcie prac. OSR w UE sporządza się dla: • wniosków legislacyjnych, które mają istotne skutki gospodarcze, społeczne i środowiskowe; • inicjatyw nie-legislacyjnych (białe księgi, plany działania, programy finansowe, wytyczne negocjacyjne dla umów międzynarodowych), które określają przyszłe polityki • rozporządzeń wykonawczych i aktów delegowanych” [EU Impact Assessment]. Pod koniec 2006 roku powołano Radę ds. Oceny Skutków. Zadaniem Rady jest kontrola jakości i wsparcie pracy przewodniczącego Komisji. Rada jest niezależna od służb tworzenia polityki. Jej członkami są urzędnicy wysokiego szczebla z departamentów Komisji bezpośrednio związanych z trzema wymiarami oceny oddziaływania - gospodarczym, społecznym i środowiskowym. Członkowie Rady są powoływani osobiście oraz na podstawie ich wiedzy eksperckiej. Rada bada i ocenia wartość poszczególnych ocen skutków przygotowanych przez służby Komisji. Rada korzysta również z pomocy ekspertów zewnętrznych. Zapewnia ona także doradztwo dla służb Komisji w sprawach metodyki na wczesnych etapach sporządzania OSR [Impact 2013]. OSR w Polsce. „W Polsce system OSR został wprowadzony w 2001 r. zgodnie z Regulaminem pracy Rady Ministrów z 19 marca 2002 r. – wyniki OSR stanowią część uzasadnienia do aktów normatywnych” [Ministerstwo Gospodarki 2013]. W Polsce OSR (…) opisuje przewidywane skutki proponowanych regulacji na podstawie analizy kosztów i korzyści. „W założeniu OSR powinna zapewniać podmiotom odpowiedzialnym za tworzenie prawa świadomość konsekwencji, jakie przygotowany akt prawny może wywołać w życiu społecznym. OSR stanowi ważny element w procesie stanowienia dobrego prawa, gdyż pozwala na dostarczenie konkretnych merytorycznych argumentów dla wprowadzenia danej legislacji”. „Obowiązek wykonania OSR reguluje Regulamin pracy Rady Ministrów, natomiast zakres wykonywania OSR precyzują Wytyczne do oceny skutków regulacji przygotowane przez Ministerstwo Gospodarki, które wprowadzają wiele wskazówek praktycznych.” „W 2013 roku Ministerstwo Sprawiedliwości opublikowało propozycję systemowej reformy procesu stanowienia prawa. W towarzyszącym jej uzasadnieniu potwierdzone zostały wcześniej zdiagnozowane patologie polskiej legislacji. Jako najbardziej palące wskazano „niedokładność, nierzetelność i ogólnikowość” sporządzanych ocen skutków regulacji, nietrafne decyzje legislacyjne, iluzoryczne konsultacje społeczne [MG 2013]”. 148 W roku 2013 na podstawie „Programu Lepsze Regulacje 2015” przygotowano nowe wzory dokumentów związanych z rządowym procesem legislacyjnym, tj.: Testu Regulacyjnego, Oceny Skutków Regulacji i Oceny Skutków Regulacji ex-post. Zmieniony został formularz Testu Regulacyjnego. Ocena Skutków Regulacji ma być przedstawiana w formie formularza. W całej administracji rządowej zostanie wprowadzony formularz: Ocena Skutków Regulacji ex-post, który dotychczas funkcjonował wyłącznie w Ministerstwie Gospodarki. OSR ex-post będzie zawierała ocenę działania obowiązującej regulacji, pod kątem realizacji jej celów, doboru sposobów ich osiągania oraz skutków. Wprowadzenie formularzy poprawi przejrzystość i jakość nowo tworzonego prawa. Proces legislacyjny będzie bardziej transparentny dla przedsiębiorców i obywateli [MG 2013]. Bibliografia A Regulatory Impact Analysis, Wikipedia 2013 Ann-Katrin Bäcklund, Impact assessment in the European Commission – a system with multiple objectives, “Environmental Science and Policy” 12 (2009) ss. 1077–1087. Better Policy Making & Regulatory Impact Assessment: A Guide For Northern Ireland, December 2004 Cavan O’Connor Close and Dominic J. Mancini, Comparison of US and European Commission guidelines on Regulatory Impact Assessment/Analysis, Industrial Policy and Economic Reforms Papers No.3, Enterprise and Industry Directorate-General European Commission, April 2007 Colin Kirkpatrick, David Parker and Yin-Fang Zhang, Regulatory Impact Assessment in Developing and Transition Economies: A Survey of Current Practice, June 2004. EU Impact Assessment, http://ec.europa.eu/smart-regulation/impact/index_en.htm EU Impact Assessment Guideliness, 2009 Isolde Goggin & Gillian Lauder, Review of the Operation of Regulatory Impact Analysis, July 2008 Jacopo Torriti, Ragnar E. Löfstedt: The first five years of the EU Impact Assessment system: a risk economics perspective on gaps between rationale and practice, “Journal of Risk Research”, Vol. 15 No 2, (2012), ss. 169-186. Ministerstwo Gospodarki, Wytyczne do oceny skutków regulacji, 2006 http://www.mg.gov.pl/files/ upload/ 8668/publikacja_6.pdf Ministerstwo Gospodarki, Ocena Skutków regulacji, http://www.mg.gov.pl/Prawo+dla+przedsiebiorcy/ Ocena+Skutkow+Regulacji 2013; http://www.mg.gov.pl/node/19377 Ministerstwo Gospodarki, Wytyczne Do Oceny Skutków Regulacji, 2006 Ministerstwo Sprawiedliwości, Koncepcja Usprawnienia Konsultacji Publicznych Rządowych Projektów Aktów Normatywnych Oraz Oceny Skutków Regulacji, Projekt z dnia 26 lutego 2013 r. Niestroy, Ingeborg (2010), Sustainability Impact Assessment and Regulatory Impact Assessment, w: OECD, Conducting Sustainability Assessments. Ocena Skutków regulacji, Wikipedia 2013 OECD 1997 Regulatory Impact Analysis: Best Practices in OECD Countries. OECD 2005 Guiding Principles for Regulatory Quality and Performance OECD, 1995. Recommendation of the Council of the OECD on Improving the Quality of Government Regulation. OECD Publications, Paris. OECD, 2002. Regulatory Policies in OECD Countries: From Interventionism to Regulatory Governance. OECD Publications, Paris. 149 OECD, 2009. Regulatory Impact Analysis. A Tool For Policy Coherence. Reviews of Regulatory Reform OECD 2009. Peter Carroll, Does regulatory impact assessment lead to better policy?, “Policy and Society” 29 (2010) 113– 122 Regulatory Impact Analysis, OECD PUMA 1996 Szpringer W., Ocena skutków regulacji, C.H. Beck, Warszawa 2007 Thomas F. Ruddy, Lorenz M. Hilty: Impact assessment and policy learning in the European Commission, “Environmental Impact Assessment Review”, Vol. 28, No. 2-3. (2007), ss. 90-105 Impact Assessment Board (IAB), 2013, http://ec.europa.eu/smart-regulation/impact/iab/iab_en.htm KRAJOWE SYSTEMY EWALUACJI BADAŃ (National Research Evaluation System) Przez Krajowe Systemy Ewaluacji Badań można rozumieć dwa zjawiska: sformalizowane systemy ewaluacji wprowadzone odgórnie i umocowane prawnie oraz luźniejsze systemy de facto, będące zbiorem różnych stosowanych w danym kraju trybów ewaluacji, połączonych przez podstawy prawne, instytucjonalne i programowe, a także przez wspólną kulturę ewaluacji. W niektórych krajach, krajowe systemy ewaluacji badań istnieją od wielu lat, w innych nie istnieją lub istnieją w zalążkowej postaci. Coraz więcej państw inicjuje wprowadzenie takich systemów. Istniejące systemy są w ciągłych procesie zmian, choć określenie kierunku zmian nie jest łatwe. Podstawą krajowego systemu jest w wielu krajach >EWALUACJA INSTYTUCJI PUBLICZNEGO SEKTORA NAUKI OPARTA NA POMIARZE DOKONAŃ. Z reguły systemy ewaluacji dotyczą badań prowadzonych w szkołach wyższych ( por. >EWALUACJA POZAUCZELNIANYCH PUBLICZNYCH INSTYTUCJI NAUKOWYCH). Trzy kraje były pionierami w odniesieniu do rozwoju trzech różnych typów systemów, które znacznie różnią się w odniesieniu do celów, organizacji oraz metod. Holandia stworzyła system oparty na dialogu i >PEER REVIEW, w którym oceny są ujmowane w skali w wielu wymiarach, a ocena służy przede wszystkim auto-korekcie. Anglia stworzyła system oparty na peer review, w którym – podobnie jak w Holandii – oceny są ujmowane w skali w wielu wymiarach, jednak służą one jako podstawa do podziału środków. Wreszcie, Australia – podobnie jak Anglia stworzyła system wykorzystywany jako podstawa do podziału środków, ale oparty na wskaźnikach. Norwegia łączy elementy wymienionych krajów [Hansen 2009]. Różnice pomiędzy tymi krajami ujmuje się w następującym schemacie: Odpowiedzialna organizacja Norwegia Norwegia Holandia Wielka Brytania Australia Norweska Rada Badawcza Norweski Związek Szkół Wyższych Poszczególne uczelnie od 2002 roku. W latach 19932002 VSNU Rada Finansowania Szkolnictwa Wyższego w Anglii (HEFCE) m.in. Rząd australijski: Departament Edukacji, Zatrudnienia i Stosunków 150 Pracy Przedmiot ewaluacji Pola badań Produkcja badawcza uniwersytetów i innych instytucji szkolnictwa wyższego Uniwersytety określają przedmiot oceny, np. pole badawcze, dział wydziału Wydziały uniwersytetów (personel aktywnie zaangażowany w badaniach) Uniwersytety Główny cel Podnoszenie jakości Podział ków środ- Rozwój jakości Podział środków Podział środków Metoda Peer review wzbogacone o informacje Pomiar publikacji Samo-ewaluacja i peer review Peer review Wskaźniki Corocznie Samoocena co trzy lata. Ewaluacja zewnętrzna co sześć lat. RAE przeprowadzono 1986, 1989, 1992, 1996, 2001 i 2008. REF w 2013 Corocznie Punkty za publikacje Raport ze stopniami w 5 punktowej skali, za pomocą czterech kryteriów Ocena (skala zmieniała się z czasem) Podział ków Częstotliwość Raport, kontynuacja dialogu, plany środ- Hansen 2009 Podstawy prawne, instytucjonalne i programowe ewaluacji. Rękojmią trwałości, jednolitości oraz utrzymywania dobrych praktyk w krajowych systemach ewaluacji badań finansowanych z funduszy publicznych są ustawy, rządowe strategie i systemy ewaluacji, kodeksy etyki, ogłoszone oficjalnie standardy i procedury, oraz – w kilku krajach – zespoły metodologiczne, a także agencje ds. ewaluacji (które obejmują swoim zakresem bądź ewaluację ogółu publicznych inicjatyw, bądź też – specjalnie – badań i rozwoju). Gdy idzie o ustawy, wystarczy np. wymienić amerykański The Government Performance and Results Act (1993), kładący podwaliny pod budżet zadaniowy, zobowiązujący ustawodawcę do określania w każdej ustawie wskaźników wykonania oraz do monitorowania poziomu ich realizacji. Podstawy prawne ewaluacji Kraj Podstawy prawne Australia Wszystkie polityki muszą mieć określone zasady ewaluacji, ale zasady te mogą się różnić w zależności od programu Kanada Ewaluacja obowiązkowa w ramach Rządowej Polityki Audytu i Ewaluacji, prowadzonej przez Skarb Państwa Komisja Europejska Podobne zasady ewaluacji dla wszystkich programów ustanowione na mocy 151 prawa i nadzorowane przez Parlament Finlandia Francja Zasady ewaluacji ustanawiane przez organizacje wdrażające polityki Loi organique relative aux lois de finance (2006), zasady ustanawiane przez programy Niemcy Holandia Nowa Zelandia Norwegia Wielka Brytania Stany Zjednoczone Porządek ewaluacji ustanawiany przez organizacje (ministerstwa, rady badawcze) odpowiedzialne za programy Ewaluacja obowiązkowa na mocy prawa Brak ogólnego prawnego zobowiązania do ewaluacji Økonomireglement for staten (1996), zasady ustalane przez organizacje Ogólne zasady ustanowione przez rząd Ewaluacja na mocy prawa – The Government Performance and Results Act (1993) Technopolis 2001 oraz aktualizacje W odniesieniu do rządowych strategii ewaluacji, trzeba wymienić holenderski program „Od Politycznego Budżetu do Politycznej Rozliczalności” (From Policy Budgets to Policy Accountability), nakładający na instytucje rządowe obowiązek wiązania ze sobą celów, dokonań i zasobów. W odniesieniu do sfery nauki – duński „Plan Działania na Rzecz Ewaluacji Badań 2008-2010”, zawierający opis zamierzeń rządu. W wielu krajach istnieje jeden, dwa lub więcej rządowych systemów monitoringu i ewaluacji rządowych programów i instrumentów. Jeden zintegrowany system obowiązuje m.in. w Hiszpanii („Zintegrowany System Monitoringu i Ewaluacji”), Kolumbii („Public Management Results Evaluation System” SINERGIA), Kostaryce (“National Evaluation System” SINE) oraz Urugwaju (“Results-Based Management Evaluation System” SEV). Dwa różne systemy działają m.in. w Chile (“Management Control System” MCS i “Governmental Programming Monitoring System” SSPG). Trzy systemy funkcjonują w Argentynie ( “Physical and Financial Monitoring System” PFMS Państwowego Biura Budżetu; “System of Information, Monitoring and Evaluation of Social Programs” SIEMPRO oraz “Results-Based Management System” RBMS). Zazwyczaj każdy system jest wdrażany za pomocą jednej ustawy (jak w Stanach Zjednoczonych) lub pakietu praw oraz jest utrzymywany przez różne instytucje, lepiej lub gorzej koordynujące ze sobą swoje zadania. Z reguły podstawowe elementy oceny są określane przez instytucję odpowiedzialne za system. Instytucje te odpowiadają też za rozwój metodologii oraz za określenie wskaźników i celów systemu. Menedżerowie ocenianych polityk, programów i instytucji dostarczają potrzebnych informacji, mając przy tym mniejszy lub większy wpływ na określenie celów i wskaźników, wg których są oceniani. Monitoring i ewaluacje z reguły zleca się na zewnątrz na drodze przetargu. Końcowym rezultatem oceny są raporty, najczęściej upubliczniane, także poprzez konferencje prasowe i przez media [Zaltsman 2005]. Jeśli chodzi o zasady i standardy ewaluacji badań, trzeba wspomnieć o austriackich Standardach Ewaluacji Polityki Badawczej i Technologicznej, brytyjskich Praktycznych Wytycznych Ewaluacji, duńskich Wytycznych Ewaluacji Badań, holenderskich Standar152 dowym Protokole Ewaluacji, japońskich Krajowych Wytycznych Odnośnie do Metody Oceny Rządowego B+R, niemieckich Zadaniach, Kryteriach i Procedurach Komitetu Oceniającego Rady Nauki, unijnych Standardach i Dobrych Praktykach Ewaluacji, oraz o Wytycznych co do Dobrych Praktyk Ewaluacji OECD. Niezależnie od samych instytucji, ewaluacji instytucji naukowych dokonują specjalne agencje ds. ewaluacji badań, np. włoska Agencja Ewaluacji Badań (ANVUR) lub francuska Agencja Ewaluacji Badań i Szkolnictwa Wyższego (AERES), rady ds. badań, a także ogólne agencje ds. audytu i ewaluacji, jak hiszpańska Krajowa Agencja Ewaluacji, szwedzkie organy: Krajowy Urząd ds. Audytu, Szwedzka Agencja Publicznego Zarządzania, amerykańskie urzędy Biuro Zarządzania i Budżetu (Office of Management and Budget OMB) i Rządowy Urząd Rozliczania (Government Accountability Office GAO). Najczęściej ośrodkami nie tylko rozwoju metod krajowych ewaluacji interwencji publicznych, ale także jej standaryzacji, edukacji i upowszechniania były i są narodowe organa rządowe i parlamentarne, Unia Europejska, organizacje międzynarodowe, takie jak Bank Światowy (zespół Evaluation Capacity Development (ECD)), UNDP, UNIDO i OECD oraz think tanki działające w porozumieniu z agencjami finansującymi badania, jak holenderski sci_Quest. Np. brytyjski system ROAMEF (Rationale, Objectives, Appraisal, Monitoring, Evaluation and Feedback) został ogłoszony przez Brytyjskie Ministerstwo Skarbu (The Green Book. Appraisal and Evaluation in Central Government, HM Treasury, London 2003). W działał Japonii Komitet Wytycznych Ewaluacji Badań pod egidą Rady ds. Badań i Technologii (1988), we Francji – Parlamentarne Biuro Ewaluacji Wyborów Naukowych i Technologicznych (1991),w Wielkiej Brytanii – Krajowe Biuro Audytu oraz Ministerstwo Handlu i Przemysłu (1997). Istnieje wiele podręczników ewaluacji badań i polityki naukowej: • • IPTS RTD evaluation toolbox 2002 Hanne Foss Hansen, Research Evaluation: Methods, Practice, and Experience, Danish Agency for Science, Technology and Development, 2009 Wzorowe praktyki, to m.in. OECD Framework For Monitoring And Impact Analysis: – Case Tekes, Finland, 2008, OECD Evaluation Of Scientific Research, Selected Experiences 1997, RAND Europe Historical reflection on research evaluation studies, their recurrent themes and challenges 2009. W popularyzacji i standaryzacji ewaluacji badań naukowych w Austrii wielką rolę odegrała Platforma Ewaluacji Polityki Badawczej i Technologicznej, zainicjowana jako nieformalny zespół w roku 1996 oraz zinstytucjonalizowana w roku 2006, a w Niderlandach zespół sci_Quest, działający początkowo jako nieformalny zespół na Uniwersytecie Amsterdamskim, a następnie jako niezależna instytucja od roku 1995. W Polsce kluczową rolę w adaptacji i rozwoju metod ewaluacji odgrywa Ministerstwo Rozwoju Regionalnego (MRR) oraz Polska Agencja Rozwoju Przedsiębiorczości (PARP). Por. strony [MRR] i [PARP] 153 Europeizacja ewaluacji. Jakob Edler i Stefan Kuhlmann zgłosili propozycję europejskiej “izby obrachunkowej” ewaluacji (clearing house). Wg ich propozycji izba mogłaby świadczyć usługi w zakresie gromadzenia, przetwarzania i przekazywania danych na temat wkładów, produktów, efektów i struktur badań naukowych w instytucjach finansowanych ze środków publicznych w Europie [Edler 2006]. „Izba” ta byłaby przejawem dostrzeganej europeizacji ewaluacji badań (Meulen 2004]. Nowym zjawiskiem w krajach UE są wspólne ponad-narodowe ewaluacje. Mają one kilka form. Pierwsza grupa dotyczy ewaluacji na poziomie europejskim badań finansowanych w ramach Programów Ramowych UE. Druga grupa to ewaluacje krajowych systemów B+R przeprowadzane przez ekspertów z innych krajów. Por. >EWALUACJA KRAJOWEGO SYSTEMU BADAŃ I INNOWACJI. Trzecia grupa to ewaluacje regionalne, przeprowadzane w ramach Nordyckiej Rady Badawczej programów finansowanych przez tą Radę. Czwarta grupa to współpraca międzynarodowa w ocenie wpływu udziału krajów w Programach Ramowych. Większość krajów ujawnia procedury i wyniki ewaluacji służącej określeniu poziomu finansowania instytucjonalnego (a także innych typów ewaluacji nauki i innowacji) [OECD 2010]. W wielu krajach ewaluacje finansowania instytucjonalnego (zob. >EWALUACJA INSTYTUCJI PUBLICZNEGO SEKTORA NAUKI OPARTA NA POMIARZE DOKONAŃ) są wplecione w system wielu typów ewaluacji (np. ewaluacji programów i instrumentów, ustaw, ministerstw i agencji, dyscyplin naukowych, badaczy itd.), przeprowadzanych na ogół przez zawodowych i doświadczonych ewaluatorów w warunkach rozwiniętej kultury ewaluacji, a wyniki tych ewaluacji są wykorzystywane w procesie decyzyjnym (np. w ustalaniu priorytetów) [OECD 2010; OECD 2003; Steen 2008]. Do tych innych, uzupełniających form oceny należą też np. raporty wskaźnikowe oraz rankingi uczelni, mające wpływ na poziom finansowania lub mające tylko znaczenie informacji zarządczej (np. w Niemczech, Niderlandach i Australii). Podobnie jak szybki wzrost liczby polityk programów i instrumentów powoduje konieczność ich koordynacji, tak i wzrost liczby różnego typu ewaluacji pociąga za sobą potrzebę ich harmonizacji. Problem ten dostrzeżono m.in. w Australii. „Różne kanały finansowania badań mogą powodować wewnętrzne napięcia, gdy brak pomiędzy nimi koordynacji. Np. w Australii dostrzeżono możliwość napięć w finansowaniu badań przez różne strumienie (dotacje blokowe, środki na projekty), różne resorty, a nawet różne szczeble zarządzania (federalny, stanowy i terytorialny)”. „Jako narzędzia regulujące działalność badawczą i sterujące instytucjami badawczymi, systemy finansowania oparte na dokonaniach istnieją obok (a w sytuacji idealnej uzupełniają) inne instrumenty polityki w obrębie kraju, szkolnictwa wyższego i badań naukowych. Czasem te inne in154 strumenty mogą w praktyce działać przeciwko celom finansowania opartego na dokonaniach. W Niemczech inicjatywy państwa na rzecz restrukturyzacji szkół wyższych przez ich łączenie lub zamykanie postrzega się jako zamach na autonomię uniwersytecką, a z kolei wzmocnienie autonomii i odpowiedzialności instytucjonalnej były głównymi celami postawionymi przed finansowaniem opartym na wynikach w niemieckich landach” [OECD 2010]. Istnieją tylko szczątkowe informacje na temat wydatków na ewaluacje: Kraj Programy, obszary, instytucje Estonia Finansowanie B+R sektora publicznego Łotwa Rada Nauki Niemcy Program "Research bonus" Niemcy Program EXIST III Norwegia Norweska Rada Badawcza Słowenia Słoweńska Agencja Badawcza Szwajcaria Narodowa Fundacja Nauki Szwajcaria Uniwersytety Szwajcaria Organizacje badawcze Szwajcaria Wsparcie Działalności Innowacyjnej Wielka Departament Innowacji, Uczelni Brytania Umiejętności Włochy Region Emilia Romagna RTD and innov. European RTD Evaluation 2008 Szacunki % wydatków na B+R przeznaczonych na ewaluacje 0,16% & 2,8% 0.4% 1.5% n/a >0,1% 0,2% 0,5% 1% 6% 0,05 -0,5% Szacunki wielkości wydatków na B+R przeznaczonych na ewaluacje 100 000 EUR na rok 0,23 milion euro x x 10,1 milion Euro >155000 euro 5,9 milion euro 11,4 milion euro 1,1 milion euro 31,9 milion euro x ~0,4% x Bibliografia Ariel Zaltsman, Evaluation Capacity Development. Experience with Institutionalizing Monitoring and Evaluation Systems In Five Latin American Countries: Argentina, Chile, Colombia, Costa Rica and Uruguay, Independent Evaluation Group The World Bank, May 2005. Barend van der Meulen, National research evaluation systems and ERA, 2004. Benedetto Lepori, Conceptualising Public Funding, DSTI/EAS/STP/ NESTI(2008)26; Governance of Public Research. Toward Better Practices, OECD 2003. Best Practice Guidelines For Evaluation, OECD 1998. Dimitris Sotiriou, Current practice and guidelines in France, Italy and Greece, and in international organizations w: Evaluation of Research and Development. Current Practice and Guidelines. Synthesis report, 1991; Erawatch European RTD Evaluation Network, Joint research evaluations – European experience, 2008. Hanne Foss Hansen, Research Evaluation: Methods, Practice, and Experience Research: Analysis and Evaluation Danish Agency for Science, Technology and Innovation, 1/2009. Jakob Edler, Stefan Kuhlmann in co-operation with Sybille Hinze and Mark Beatson, Data Clearing House for Research Evaluation and Monitoring. Opportunities, Hindrances and Suggestions for Further Developments, Background Paper for the RTD Evaluation Network Meeting, Helsinki 20 September 2006. Jan van Steen, GBOARD: Can we do more with it? Analysis of 30 years of public funding in the Netherlands, DSTI/EAS/STP/NESTI(2008)25; 155 Laurence Esterle, Comparing and evaluating public research organisations: a unique, participatory mechanism in place in France, “Research Evaluation” 2005 vol. 14 no. 2. Liv Langfeldt, Decision-making in expert panels evaluating research. Constraints, processes and bias, NIFU Oslo 2002. MRR https://www.ewaluacja.gov.pl/Strony/glowna.aspx OECD Sarah Box, Ester Basri, Performance-Based Funding for Public Research in Tertiary Education Institutions: Country Experiences. Summary of country questionnaire responses, 2010. Papponetti, Valeria and Bucchi, Massimiano, Research Evaluation as a Policy Design Tool: Mapping Approaches across a Set of Case Studies, Fondazione Eni Enrico Mattei Working Papers. Paper 136 July 2007. PARP http://www.parp.gov.pl/index/index/110 Technopolis, International review of methods to measure relative effectiveness of technology policy instruments 2001. EWALUACJA KRAJOWEGO SYSTEMU BADAŃ I INNOWACJI Ewaluacja krajowego systemu badań i innowacji (lub systemu badań i innowacji oraz polityki naukowej i innowacyjnej) przeprowadzana przez zagranicznych ekspertów z ramienia przez OECD, Unii Europejskiej lub firm konsultingowych w porozumieniu i na zaproszenie ministerstwa ds. nauki (i/lub innowacji) ma na celu dokonanie zewnętrznej bezstronnej oceny przez wybitnych naukowców lub administratorów nauki nie uwikłanych w krajową walkę interesów. Raporty noszą zwykle w tytule słowa i zwroty „Reviews”, „Peer review”, „Policy Mix”. Podobnie jak jednej z form ewaluacji instytucji naukowej, ewaluacja zewnętrznych ekspertów ma charakter „wizyty terenowej” składającej się z wielu spotkań i rozmów z miejscowym środowiskiem naukowym i/lub innowacyjnym. Często wizytację poprzedza przygotowanie przez zamawiającego raportu naświetlającego stan i problemy będące przedmiotem ewaluacji. Raport wstępny ułatwia zaplanowanie programu wizyty. Zwykle ministerstwo zamawia raport gdy zamierza dokonać istotnych zmian w systemie badań i/lub innowacji. Raport końcowy ułatwia ich przeprowadzenie. Najbardziej znane są serie: • • OECD EU (CREST, ERAC, UNU-MERIT, Trendchart, Erawatch). OECD. Raporty zostały zapoczątkowane w roku 1963 przez serię OECD Country reports on the organisation of scientific research, poświęconą krajom członkowskim organizacji. Od lat 1970. Zastąpiła ją seria OECD Reviews of National Science Policy. W przeciwieństwie do pierwszej serii, opis systemu i polityki (przygotowany przez przedstawicieli ocenianego kraju) łączyła ona z raportem egzaminatorów, przedstawiającym wnioski i zalecenia. Od połowy lat 1980. seria zmieniła nazwę na OECD Reviews of national science and technology Policy. W I poł. lat 1990. nazwę uzupełniono o jeszcze jeden człon: OECD Science, technology and innovation policies (choć nadal ukazywały się raporty z poprzednim tytułem, np. OECD Reviews of national science and technology policy: Poland, 1996). Łącznie w latach 1963-1996 ogłoszono drukiem 38 przeglądów. Po dziesięcioletniej 156 przerwie od poł. I dekady XXI wieku raporty noszą z reguły tytuł OECD Reviews of innovation policy (najczęściej) lub Peer review of the policy mix for innovation względnie Policy Mix for innovation (np. OECD Peer review of the policy mix for innovation in Poland 2006), przy czym obejmują zarówno problematykę B+R, jak i innowacji: główną osią koncepcyjną przeglądów jest >KRAJOWY SYSTEM INNOWACJI. Celem ostatniej edycji raportów OECD jest całościowa analiza krajowego systemu innowacji, z naciskiem na rolę polityki publicznej. Podstawowe elementy przeglądu to: • • • • • • • • • Innowacje i wyniki gospodarcze warunki ramowe dla innowacji (stabilność makroekonomiczna, ramy prawne, konkurencja itp.) Międzynarodowa analiza porównawcza innowacyjności Wspieranie działań w zakresie badań i rozwoju oraz innowacji Rola uniwersytetów i publicznymi organizacjami badawczymi – powiązania uniwersytetów i gospodarki Umiędzynarodowienie B+R Zasoby ludzkie dla nauki i techniki Infrastruktury wiedzy Zarządzanie w systemie innowacji, policy mix, ewaluacje. Przegląd jest zaprojektowany tak, aby przyczynić się do • • • • • • • • rozwoju świadomość innowacji rozwoju agendy polityki innowacyjnej poprawy integracji polityki N+T+I w polityce gospodarczej pobudzenia dialogu między głównymi zainteresowanymi stronami rozpoznania barier ograniczających poprawę stanu innowacji pomocy w lepszej koordynacji polityki poprawy rozwiązań instytucjonalnych oraz mechanizmów zarządzania optymalizacji Policy Mix oraz projektowania i realizacji poszczególnych instrumentów polityki Standardowa procedura przeglądu obejmuje następujące fazy: • porozumienie w sprawie zakresu zadań między OECD i Ministerstwem • raport wstępny (zazwyczaj przygotowany przez ekspertów krajowych) • misja zespołu ekspertów OECD; wywiady z głównymi zainteresowanymi stronami w krajowym systemie innowacji • zespół OECD przygotowuje projekt sprawozdania, w tym ogólną ocenę i zalecenia • konsultacje z krajowymi ekspertami • przesłanie raportu do Komitetu OECD ds. Polityki Naukowej i Technologicznej (CSTP) Grupy Roboczej ds. Polityki Technologicznej i Innowacyjnej (TIP) • publikacja raportu końcowego pozostawiona w gestii Sekretarza Generalnego OECD • wnioski i zalecenia przeglądu prezentowane na jednym lub więcej konferencji w ocenianym kraju. Zazwyczaj całość powstaje w ciągu 12 miesięcy [Goldstein]. 157 W ostatnich latach OECD publikuje także raporty ewaluacyjne dotyczące polityki regionalnej. Pomocą w ewaluacji systemów i Polityk B+R i innowacji są też wydawnictwa OECD Science, Technology and Industry Outlook oraz OECD Science, Technology and Industry Scoreboard, ukazujące się od II poł. lat 1990. Science, Technology and Industry Outlook gromadzi następujące informacje: SEKCJA A. ZARZĄDZANIE POLITYKĄ INNOWACYJNĄ Krajowa strategia lub plan N+T+I Zarządzanie krajową polityką N+T+I Praktyki ewaluacji SEKCJA B. UNIWERSYTETY I BADANIA PUBLICZNE Reforma badań publicznych Finansowanie badań publicznych Publiczna infrastruktura badawcza Badania multidyscyplinarne SEKCJA C. INNOWACJE W FIRMACH Policy mix dla innowacji w biznesie Finansowanie innowacji w biznesie Nie-finansowe wsparcie dla B+R w biznesie i innowacji Pobudzanie popytu na innowacje Sektorowe i technologiczne programy ukierunkowane na innowacje w biznesie Innowacyjna przedsiębiorczość SEKCJA D. SIECI, KLASTRY I TRANSFERY Innowacyjne sieci i klastry Prawa własności intelektualnej Transfer technologii i dyfuzja SEKCJA E. MIĘDZYNARODOWE POWĄZANIA W N+T+I Ponad-narodowe zarządzanie N+T+I Umiędzynarodowienie uniwersytetów i poza-uczelnianych publicznych instytutów badawczych Umiędzynarodowienie firm Międzynarodowa mobilność zasobów ludzkich SEKCJA F. ZASOBY LUDZKIE Edukacja dla innowacji Wykorzystywanie innowacyjnych umiejętności Kultura innowacyjna 158 SEKCJA G. NOWE WYZWANIA Wyzwania w zakresie ochrony środowiska Wyzwania społeczne Wyłaniające się pola badań CREST/ERAC. Inne serie raportów opartych na ocenie zagranicznych raportów wprowadził CREST. Komitet CREST (ang. Scientific and Technical Research Committee) – Komitet Badań Naukowo-Technicznych, organ doradczy wspomagający zarówno Radę Unii Europejskiej, jak też Komisję Europejską we wszystkich sprawach dotyczących polityki UE w dziedzinie badań i rozwoju technicznego. Komitet Działał w latach 1974-2000. Do jego zadań należało m.in. dokonywanie ocen krajowych systemów badań i technologii w ramach >Otwartej Metody Koordynacji oraz 3% Action Plan. CREST przeprowadził ewaluacje w ramach czterech cykli: I (2004), II (2006), III (2007), IV (2008). Raporty i niektóre zadania CREST zostały podjęte przez ERAC (Komisję Europejskiej Przestrzeni Badawczej), powołany w 2010. ERAC jest, podobnie jak CREST, organem doradczym wspierającym politykę Rady Unii Europejskiej i Komisji Europejskiej w dziedzinie badań, innowacji i rozwoju technologicznego. Główną misją ERAC jest zapewnienie wkładu strategicznego w sprawach badań i innowacji istotnych dla rozwoju ERA. ERAC publikuje raporty ewaluacyjne od 2010 r. EU/UNU-MERIT. W latach 2006-2009 na zlecenie Komisji Unii Europejskiej instytut UNU-MERIT w Maastrich realizował projekt badawczo-ewaluacyjny mający na celu zarówno pogłębienie rozumienia problematyki >Policy Mix w dziedzinie B+R, jak i przeprowadzenie oceny „mieszanek polityki” naukowej w niektórych krajach członkowskich. W ramach projektu opublikowano wiele raportów metodologicznych, problemowych i ewaluacyjnych, m.in. UNU-Merit Policy Mixes for R&D in Europe 2009 oraz UNU-Merit Monitoring and analysis of policies conducive to higher levels of R&D. Country Review Poland 2007. Coroczne raporty dotyczące polityki naukowej i innowacyjnej publikowano w ramach serwisów informacyjnych Komisji UE Inno-Policy Trendchart i Erawatch (połączonych w roku 2011). Inne ewaluacje. Ministerstwa ds. nauki i innowacji zlecają nieraz sporządzenie raportów niezależne od Unii Europejskiej i organizacji międzynarodowych – przez konsorcja firm konsultingowych i instytutów naukowych, np. Evaluation of Government Funding in RTDI from a Systems Perspective in Austria (2009) lub Evaluation of the Finnish National Innovation System – Full Report (2009). Łotwa zleciła trzy różne ewaluacje całego krajowego systemu B+R: 1992 – Ocena łotewskiego systemu badań i rozwoju technologicznego (Duńska Rada ds. Badań Naukowych); 1997 – Analiza struktury zarządzania systemu B+R („Coopers & Lybrand”) oraz 2002 – Ocena stanu gospodarki opartej na wiedzy na Łotwie (Bank Światowy) [European RTD 2008]. M.in. Estońskie Ministerstwa Gospodarki i Komunikacji zamówiło w roku 2005 raport "Ewaluacja projektu i realizacji estońskiej polityki badań, rozwoju technologii i innowacji: implikacje dla planowania polityki”. Ogólny cel raportu to: „Ocena adekwatności celów strategicznych polityki N+T+I 159 oraz działań podjętych przez Estonię w obliczu najpilniejszych wyzwań stojących przed Estonią oraz w kontekście strategicznych kierunków rozwoju w krajach UE”; zapewnienie krytycznego wkładu do dokumentów programowych na lata 2007-2013. Cele szczegółowe opracowania to: • • • Ocena adekwatności i skuteczności koncepcji i instrumentów bieżącej polityki N+T+I; Propozycja opracowania strategii N+T+I na lata 2007-2013 Ocena budżetu polityki N+T+I i jej rocznego podziału w latach 2007-2013 Podstawowe metody to analiza dokumentów, analiza statystyk oraz rozmowy z kluczowymi interesariuszami [Technopolis 2005]. Meta-ewaluacje. Meta-ewaluacje starają się ogarnąć wszystkie metody stosowane w ewaluacjach systemów i ustalenia, do jakich doszły. Np. meta-ewaluacja przeprowadzona przez ISI Fraunhofer [2009] starała się odpowiedzieć m.in. na następujące pytania: • • • Jak wyglądają krajowe systemy innowacji w wybranych krajach? Kto jest w nich głównym aktorem? Jak są rządzone? W jaki sposób rządy starają się wpływać lub sterować nimi? Czy istnieją krajowe strategie innowacji? Jakie są cele, a jakie zadania strategii innowacji w tych krajach? Jak ocenia się adekwatność celów i zadań oraz funkcjonowanie, wydajność lub skuteczność strategii innowacji oraz samych krajowych systemów innowacji? Jeśli krajowe strategie innowacji istnieją, kto je rozwija i kto wywiera wpływ w procesie ich budowy? Czy ministerstwa i ich agencje prowadzą polityki zgodne z tymi strategiami? Kto przeprowadza ewaluacje na czterech poziomach – strategicznym, rządowym (ministerialnym), agencji oraz programów i instrumentów? Jakie stosuje się metody podczas tych ewaluacji? Jaka jest ich częstotliwość? Kto je przeprowadza? Dla kogo? Czego one dotyczą? Jakie są ich polityczne następstwa – reakcje rządu? Czy prowadzą one do restrukturyzacji systemów innowacji? Jakie reakcje wywołują działania rządu wynikające z ustaleń ewaluacji? Bibliografia Andrea Goldstein, OECD Reviews of Innovation Policy European RTD Evaluation Network, Joint research evaluations – European experience, 2008. Gang Zhang, OECD country reviews of national innovation system- An introduction, The Scientific And Technical Research Committee (CREST). Its Origin, Role And Function, 1975. Technopolis, Evaluation of the design and implementation of Estonian RTDI policy: implications for policy planning, Final Report, December 2005. Fraunhofer ISI, Joachim Hemer, Elisabeth Baier, Análisis nacional e internacional de evaluaciones de Sistemas Nacionales de Innovación, Consejo Nacional de Innovación para la Competitividad (CNIC) de Chile, 2009. 160 OCENA WPŁYWU BADAŃ Ocena wpływu badań (ang. Research Impact Assessment) ma na celu pomiar efektów realizacji wcześniej postawionych celów polityki naukowej, jej programów i instrumentów (ocena ex post) lub też ustalenie kto, gdzie i ile powinien inwestować w badania naukowe, a także przewidywanie, co społeczeństwo dostanie w zamian (ocena ex ante). Celem oceny wpływu jest określenie zarówno efektów ekonomicznych inwestycji publicznych w badania i rozwój, jak również skutków społecznych (np. poprawy stanu zdrowia społeczeństwa) i środowiskowych [Cervantes 2009]. Ocena Wpływu może mieć dwie formy: • • Ocena Wpływu ex ante polega na analizie prospektywnej, jaki może być wpływ interwencji. Ocena Wpływu ex post ma na celu zrozumienie, w jakim stopniu i w jaki sposób interwencja polityki rozwiązuje problem którym zamierzano się zająć [OECD 2014]. Ocena ex ante i ocena ex post powinny być ze sobą zharmonizowane w ramach >CYKLU POLITYKI; ocena ex ante powinna być punktem wyjścia dla oceny ex post [Optimising 2011]. Głównym celem analizy wpływu jest wspieranie rozwoju polityki. Wybór technik stosowanych należy zatem od potrzeb politycznych, a nie od realizacji jakichś „najlepszych praktyk metodologicznych”. Dobrą praktyką w zakresie oceny jest wykorzystywanie wielu metod. Pojedyncze podejścia wydają się być zawodne; wykorzystywanie wielu metod to dobry sposób na zwiększenie zaufania do wiarygodności wyników [OECD 2014]. Relacje pomiędzy oceną wpływu badań a >EWALUACJĄ POLITYKI NAUKOWEJ I INNOWACYJNEJ, jej programów i instrumentów są różnie ujmowane; dla niektórych ocena wpływu jest częścią ewaluacji, inni traktują oba terminy zamiennie. Nie zawsze da się jednoznaczne odróżnić Ocenę Wpływu Badań od innych ewaluacji, szczególnie ewaluacji określanej jako „ocena zwrotu” (ang. payback assessment) [Aymerich 2012]. Głównym celem ewaluacji jest wspieranie i wzmacnianie jakości badań; Oceny Wpływu mają szerszy cel: uzyskanie gruntownej wiedzy o związku między działaniami i efektami [ESF 2012]. Wg jednego z ujęć Ocena Wpływu Badań rozwinęła się ze wcześniejszej ewaluacji ex post, wzbogacając ją o interaktywny proces uczenia się ukierunkowany na budowanie długofalowych strategii, ustalanie priorytetów i projektowanie programów badań [OECD 2007]. Podkreśla się też, że Ocena Wpływu koncentruje się na skutkach interwencji, podczas gdy ewaluacja może obejmować szerszy zakres zagadnień, takich jak stosowność projektu interwencyjnego, koszty i efektywności interwencji czy też jego niezamierzone następstwa, a także kwestię, jak wykorzystać doświadczenia z interwencji dla poprawy przyszłych działań [OECD 2014]. Ocenę wpływu przeprowadza się na poziomie krajów, ale także programów i instrumentów, agencji finansujących B+R [por. MRC 2011], dziedzin nauki (np. nauk medycznych i rolniczych) oraz uczelni. Metody Oceny Wpływu stosuje się m.in. w trakcie >OCENY SKUTKÓW REGULACJI (and. Regulatory Impact Assessment), gdzie służą ulepszeniu >IN161 STRUMENTÓW POLITYKI i decyzji budżetowych [OECD 2001], oraz w ocenie >POLICY MIX, portfela programów i instrumentów rządowych [Optimising 2011]. Wpływ publicznego B+R na społeczeństwo i gospodarkę stał się przedmiotem wzmożonego zainteresowania polityków od poł. lat 1990.. Rządy coraz usilniej starają się ustalić, ile powinny inwestować w B+R, w co inwestować i co społeczeństwo otrzymuje w zamian. Analiza wpływu pomaga w określeniu zarówno efektów ekonomicznych inwestycji publicznych w B+R, takich jak wkład we wzrost gospodarczy, jak i skutków społecznych, takich jak poprawa stanu zdrowia społeczeństwa. Co więcej, w coraz większym stopniu decydenci chcą aby inwestycje publiczne w B+R odpowiadały na globalne wyzwania, takie jak energia, bezpieczeństwo i zmiany klimatu [OECD 2008]. Temu zapotrzebowaniu odpowiada rozwój ewaluacji od pomiaru wkładu do pomiaru „produktu”, „efektu” i „wpływu” inwestycji publicznych, co wynika zarówno z przenikania idei tzw. nowego zarządzania publicznego, jak i przemian praktyk w działalności badawczej, innowacyjnej i gospodarczej (wzrost rynkowego ukierunkowania badań i nasilenie powiązań nauki z gospodarką oraz sferą publiczną i społeczną, m.in. wskutek wpływu ICT). Szczególna potrzeba, a zarazem trudność w przeprowadzaniu Oceny Wpływu bierze się z faktu, że w wielu krajach wzrasta liczba instrumentów polityki naukowej i innowacyjnej, sięgając ponad sto. Często rządy korzystają z kilku instrumentów aby osiągnąć jeden cel lub tworzą jeden instrument dla realizacji wielu celów, takich jak promowanie doskonałości badań, pobudzanie B+R biznesu lub wspieranie transferu technologii i komercjalizacji badań. Ponieważ poszczególne instrumenty często mają wiele celów, a wiele instrumentów służy osiągnięciu różnorodnych celów, zakres potencjalnych interakcji pomiędzy wszystkimi tymi instrumentami jest ogromny, a ich wpływ na ogólny wpływ polityki niełatwy do ustalenia [OECD CSTP 2014]. Pomiar wpływu badań uznaje się za trudny, zwłaszcza w odniesieniu do wykazania przyczynowości. Podkreśla się, że wybór metody oceny powinien zależeć od kontekstu. Aby pomiar miał silniejsze podstawy empiryczne, zaleca się systematyczne gromadzenie informacji o produktach, efektach i oddziaływaniach w bazach danych, takich jak amerykańska STAR METRICS, brytyjski Research Outcomes System lub brazylijska Lattes Platform. Por. >BAZY DANYCH O PRODUKTACH, EFEKTACH I WPŁYWIE BADAŃ. Większość Ocen Wpływu polityk naukowych i innowacyjnych szeroko wykorzystuje metody badań jakościowych, w tym ankietowanie beneficjentów i studia przypadków. W części wynika to z braku alternatyw, ale także z wymagań polityków szybkiego dostarczania informacji, zanim efekty polityk staną się w jakikolwiek sposób mierzalne [OECD 2014]. Ocena wpływu (ang. Impact Assessment), także unijnej polityki naukowej, wpisana jest w procedury Unii Europejskiej. Unijna Ocena Wpływu składa się z trzech głównych faz, którym zwykle towarzyszą konsultacje z zainteresowanymi stronami [von Raggamby 2010]. Procedury Oceny Wpływu unijnego Programu Ramowego Badań i Innowacji „Horyzont 2020” (2014-2020) opisują dokumenty unijne [EC 2011; EC 2005; EC 2009]. Ocena wpływu badań jest najpowszechniej stosowana w krajach anglosaskich, przede wszystkim w Wielkiej Brytanii, oraz w krajach nordyckich [Smart 2009; Framework 162 2008]. Obserwuje się także wzmożone zainteresowanie Oceną w krajach romańskich (Włochy, Francja, Hiszpania) w Belgii i Holandii oraz w krajach latynoamerykańskich (Brazylia). W Ocenie Wpływu Badań finansowanych ze źródeł publicznych przeważają analizy następujących rodzajów wpływów: Wpływ % analiz Technologiczny 24% Gospodarczy 86% Społeczny (wliczając wpływ na środowisko) 29% Delanghe 2013 W krajach unijnych stosuje się następujące metody Oceny Wpływu: Metody zbierania danych Metody analizy danych Istniejące badania ankietowe i bazy danych 67% Analiza studiów przypadku 48% Badania ankietowe uczestników 62% Statystyka opisowa 48% Wywiady 52% Analizy ekonometryczne 38% Badania dokumentacji 24% Analiza dokumentów 38% Dane z monitoringu 19% Analiza wkładu / rezultatu 29% Badania bibliometryczne i technometryczne 19% Podejście kontr-faktyczne 24% Grupy fokusowe, warsztaty, spotkania 19% Metoda kosztów i korzyści 24% Badania ankietowe nie-uczestników 14% Analiza kontekstu 19% Inne metody 10% Podejście grupy kontrolnej 19% Panele ekspertów 10% Porównanie “przed – po” 10% Delanghe 2013 W Ocenie Wpływu biorą udział następujące grupy: Urzędnicy 95% Zarządzający programem 48% Analitycy polityki 48% Beneficjenci 43% Politycy 43% Potencjalni użytkownicy interwencji 33% Audytorzy – władze finansowe 14% Obywatele 14% Krajowi lub międzynarodowi spon sorzy programu 10% Delanghe 2013 163 Dokument unijny podkreśla zwiększone zainteresowanie w Europie Oceną Wpływu Badań (OWB) w kształtowaniu polityki naukowej i innowacyjnej, choć często w trybie adhoc. Wg opinii tego dokumentu stosuje się różne podejścia do OWB; niewielką wagę przywiązuje się do szerszej społecznej analizy wpływu B+R i innowacji finansowanych ze źródeł publicznych, chociaż polityka ta coraz bardziej stara się odpowiedzieć na wielkie wyzwania społeczne, co wynika głównie z braku odpowiednich danych i wskaźników. Także niewielką wagę przywiązuje się do zagadnienia dodatkowości; cykl tworzenia polityki rzadko uwzględnia ustalenia OWB; ponadto, zbyt mało uwagi poświęca się wkładowi OWB w zapewnienie efektywności realizacji polityk. Mniej niż 50% badań OWB wymaganych przez rządowe agencje angażuje na wczesnym etapie decydentów i/lub menedżerów programu. Istnieje potrzeba dalszej harmonizacji koncepcyjnej i praktycznej OWB, przy jednoczesnym poszanowaniem zasady uwzględniania kontekstu. Ocenę skutków powinno się rozumieć jako otwarty proces uczenia się, wsparty o doświadczenia międzynarodowe. Powinno się szkolić polityków i urzędników w dziedzinie OWB. Warto rozważyć utworzenie unijnej platformy wymiany doświadczeń [Optimizing 2011]. Typy wpływu. Analizy wpływu badań (B+R) opierają się na a) taksonomii sfer oddziaływania B+R, b) taksonomii wyników B+R, c) taksonomii form oddziaływania, d) metodach i technikach. Najbardziej przemyślaną taksonomię typów sfer oddziaływania B+R zaproponowali Godin i Doré: 1. Wpływ naukowy: badania mają wpływ na późniejsze badania dzięki rozwojowi teorii, danych, podejść, metod, modeli, tematów i ustaleń. Mają one wpływ na powstawanie i rozwój dyscyplin naukowych, na badania interdyscyplinarne oraz na kształcenie. Bibliometria (oraz jej rozgałęzienia, takie jak webometria) pozwalają mierzyć skalę tego wpływu. 2. Wpływ technologiczny: nowe produkty, procesy i usługi oraz techniczny know how są częściowo efektem badań naukowych, tych dawniejszych oraz tych prowadzonych obecnie. Badania patentowe oraz badania działalności innowacyjnej pozwalają ocenić zakres tego wpływu. 3. Wpływ gospodarczy odnosi się do oddziaływania na sytuację budżetową firm, ich koszty operacyjne, przychody, zyski ze sprzedaży produktów i usług; na źródła finansowania, inwestycje i działalność produkcyjną oraz na rozwój nowych rynków; na poziomie zagregowanym odnosi się także do wpływu na wzrost gospodarczy i wzrost produktywności krajów i regionów. 4. Wpływ kulturalny odnosi się do tego, co (w krajach anglosaskich) nazywa się rozumieniem nauki przez społeczeństwo (ang. public understanding of science), oraz – przede wszystkim – odnosi się do wpływu na cztery rodzaje wiedzy: wiedzy co, dlaczego, jak i kto. Innymi słowy, chodzi tu o wpływ na wiedzę jednostek oraz rozumienie idei i rzeczywistości, a także wpływ na umiejętności intelektualne i praktyczne, na postawy, zainteresowania, wartości i przekonania. Źródłem wiedzy o zakresie tego wpływu (podobnie jak i kolejnych) są przede wszystkim badania jakościowe. 5. Wpływ społeczny: badania naukowe wpływają na dobrobyt, zachowania, praktyki i działania osób i grup, w tym na ich dobre samopoczucie i jakość życia. Doty164 czy to także zwyczajów i nawyków: konsumpcji, pracy, seksu, sportu, jedzenia. Badania mogą też przyczynić się do zmiany poglądów społeczeństwa oraz do unowocześnienia sposobów prowadzenia działalności gospodarczej. 6. Oddziaływanie polityczne: badania wpływają na sposób i zasady działania decydentów i polityk. Mogą one dostarczać dowodów wpływających na decyzje polityczne oraz przyczyniać się do wzrostu udziału obywateli w podejmowaniu decyzji naukowych i technologicznych. Skuteczna administracja i zarządzanie zależą częściowo od jakości wiedzy i informacji dostępnych dla polityków i decydentów. Niezależne badania mogą ulepszyć decyzje polityczne. Badania w takich dziedzinach jak ekonomia, prawo i nauki społeczne stanowią teoretyczne i empiryczne podstawy dla działań ministerstw. Ponadto, badania i ekspertyzy są zasobem, do którego rządy mogą sięgnąć aby wiedzieć jak reagować na nieprzewidziane zdarzenia. 7. Skutki organizacyjne odnoszą się do wpływu na działalność instytucji i organizacji: planowanie, organizację pracy, administrację, zasoby ludzkie, itp. 8. Wpływ na zdrowie dotyczy oddziaływania badań na zdrowie publiczne, np. na długość życia, zapobieganie chorobom, system opieki zdrowotnej. Publiczne B+R może przyczynić się do poprawy zdrowia publicznego poprzez stworzenie nowych metod leczenia (np. urządzeń, leków i szczepionek) lub też wnosząc wkład do wiedzy, która wpływa na rozwój nowych metod leczenia i doradztwo w sprawach zdrowia dla rządów i innych organizacji. 9. Wpływ na środowisko odnosi się do wpływu badań na zarządzanie środowiskiem i zasobami naturalnymi oraz na przeciwdziałanie zanieczyszczeniu, a także na klimat i meteorologię. 10. Wpływy symboliczne dotyczą korzyści czerpanych przez uczelnie i instytuty badawcze z tytułu swojej reputacji naukowej. 11. Wpływ edukacyjny dotyczy wpływu badań naukowych na programy, narzędzia pedagogiczne, kwalifikacje, rynek pracy, itp. [Godin 2006; OECD 2013]. Trzy pierwsze sfery oddziaływania są znane statystykom i uchwytne statystycznie, pozostałe – trudno mierzalne. Z kolei najbardziej znaną taksonomię a wyników B+R – Salter i Ben Martin: Wyniki B+R to: • • • • • • • • • wiedza skodyfikowana (publikacje, raporty techniczne, patenty, prototypy), umiejętność stawiania i rozwiązywania problemów, znajomość metod i technik badawczych, nowe prototypy, produkty i usługi, nowe firmy, nowa aparatura, metody i techniki, wykształceni i wyszkoleni absolwenci szkół wyższych, sieci naukowe i zawodowe oraz przepływ informacji wiedza społeczna, jak np. dostarczanie politykom ustaleń dla decyzji [Salter 2001, 2007]. Wyłącznie pierwszy typ wyników – a właściwie tylko publikacje i patenty – jest znany i wykorzystywany w statystyce. Jeśli idzie o formy wpływu, stosuje się, po pierwsze, podział na produkty (rezultaty) wpływu, efekty i wpływy: 165 • produkty działalności badawczo-rozwojowej (publikacje, patenty, raporty, prototypy, produkty, procesy, usługi, standardy, cytowania, uzyskane nagrody, widza i umiejętności). • efekty – produkty działalności badawczo-rozwojowej przekształcone przez sektorze gospodarczym w nowe produkty, materiały, procesy, a w sektorze publicznym w nowe prawa, metody nauczania, leczenia, przesyłu energii, transportu itd. • wpływ – wpływ naukowy i technologiczny: nowa wiedza; kultura współpracy; powstanie sieci; reputacja; wpływ ekonomiczny: długofalowe efekty, które pociągnęły za sobą wzrost gospodarczy; konkurencyjność przemysłowa; innowacje; wzrost zatrudnienia; wpływ społeczny: poprawa jakości życia, spadek śmiertelności; rozwój społeczny; wpływ polityczny: wkład do polityk; zmiana ustaw [EU 2002; Geisler 1996]. Koniecznym uzupełnieniem jest uwzględnienie wkładu (input). Po drugie, proponuje się podział wpływu na następstwa: • • • instrumentalne (decyzje polityczne, oficjalne wytyczne, nowe technologie, firmy odpryskowe) koncepcyjne – nowe rozumienie szerokie - dobrobyt, poprawa zdrowia, zrównoważony rozwój. Dla oceny produktów, efektów, wpływu stosuje się • • metody ilościowe (np. bibliometria; analizy patentowe; analizy ekonometryczne; metoda kosztów i korzyści; analizy statystyczne) metody jakościowe (np. badania ankietowe; panel ekspertów; wywiady; studia przypadku; metoda przed-po; benchmarking [ESF 2012]. Badania bibliometryczne i patentowe pozwalają m.in. zbadać zakres powiązań pomiędzy B+R publicznego sektora nauki a biznesem (współautorstwo instytucji naukowych i przemysłowych, wzajemne cytowania, odwoływania się do publikacji naukowych w patentach). Niemniej cennym źródłem są cytowania do literatury naukowej w takich źródłach, jak znaki towarowe, raporty branżowe, podręczniki techniczne, media, biuletyny itd. Dane o przepływie absolwentów oraz naukowców pomiędzy sektorem publicznym a biznesu to kolejne ważne źródło informacji o transferze wiedzy, a zatem o wpływie B+R. Społeczny wpływ badań można badać korzystając m.in. z pomocy OECD Better Life Index lub The Environmental Performance Index zbudowany przez uniwersytet w Yale. Gdy idzie o kwestie zdrowia, wskaźniki śmiertelności i przeciętnej długości dostarczają wskazówek dotyczących wpływu B+R [OECD RIHR 2013]. Pytania i kryteria ewaluacji efektów społeczno-gospodarczych wynikają z porównania ze sobą pewnych podstawowych elementów interwencji publicznej, takich jak potrzeba (problem lub trudność dotykająca pewną grupę, którą interwencja stara się rozwiązać albo przezwyciężyć), cel (objective, jasne i wyraźne wyartykułowanie zakładanych efektów), wkład (input, zasoby finansowe, ludzkie, materialne, organizacyjne i prawne mobilizowane na rzecz interwencji), produkt (output), czyli bezpośredni rezultat uzyskany wskutek interwencji, efekt (outcome), czyli zmiana społeczno-gospodarcza lub poznaw166 cza wynikająca bezpośrednio lub pośrednio z interwencji, wpływ (impact), czyli bardziej długofalowe następstwa interwencji [EC 1999; Pollit 2004]. Trzy elementy interwencji, które często najtrudniej odróżnić, dotyczą produktów, efektów i wpływu działania (outputs, outcomes, impacts). Produkty (outputs) Efekty (outcomes) Wpływ (impact) Co wytworzono dzięki podjętemu działaniu? Jakie efekty uzyskano? Co się wydarzyło w następstwie działania i osiągniętego rezultatu? Np. wyroby, takie jak np. software; narzędzia; patenty; publikacje; raporty; prototypy; pokaz działania; konferencje i inne formy upowszechnienia wiedzy; kwalifikowani ludzie. Np. zmiany w kompetencjach firmy; zmiany w strategii firmy; tantiemy z licencji i patentów; zyski z inwestycji; mobilność personelu. Np. podniesienie poziomu produkcji branży; poprawa efektywności gospodarczej; wzrost konkurencyjności; wzrost usług eksportowych. Evaluation 1995 Szczególnie trudno ustalić efekty i wpływy (outcomes i impact). Są one niezliczone, powiązane ze sobą w skomplikowany sposób, czasami niezamierzone, trudne do opisu i pomiaru, czasami pozytywne, czasami negatywne. Subiektywizm w ich ocenie jest nieunikniony. Z powodu wszystkich tych komplikacji nie sposób określić precyzyjnie, obiektywnie czy ilościowo np. wkład gospodarczy szkolnictwa wyższego [Evaluation 1995]. Pytania i kryteria ewaluacji dotyczą relacji pomiędzy tymi podstawowymi jednostkami, choć jak dotąd brak jednej standardowej wykładni. Np. pytanie o odpowiedniość (relevance) tłumaczy się (najczęściej) jako relację pomiędzy celami i potrzebami/problemami, pytanie o efektywność dotyczy porównania celu z efektami, pytanie o wydajność – porównania wkładu z produktem, pytanie o użyteczność – potrzeby/problemu z wpływem itd. [Pollitt 2004]. Stopniowo coraz większą wagę wiąże się z oceną „efektów” i „wpływów” badań i działalności naukowo-technicznej (w porównaniu do oceny „produktów” B+R). A zatem, choć takie produkty, jak artykuły w recenzowanych czasopismach, książki, materiały konferencyjne, patenty, wzory użytkowe czy oprogramowania itd., są ważnym elementem oceny, od ponad dekady punkt ciężkości ocen przesunął się w stronę oceny efektów i wpływów, za pomocą np. takich wskaźników jak • • • • • • • • liczba absolwentów (licencjatu, magisterium, studiów doktoranckich), zastosowania badań, np. w innowacjach technologicznych, liczba zawartych kontraktów, wskaźniki komercjalizacji (sprzedaż patentów i licencji, firmy „odpryskowe”) wskaźniki kompetencji eksperckich, doradczych i konsultacyjnych, mierniki wkładu (doradczego) do planowania oraz polityki – na szczeblu regionalnym, krajowym i międzynarodowym, mierniki wkładu do powszechnej edukacji (uczenie się przez całe życie, szkolne i pozaszkolne formy kształcenia naukowego) wskaźniki wkładu do życia kulturalnego i społecznego (m.in. współpracy lub prac na rzecz organizacji poza-rządowych). 167 Wskaźniki stosowane w amerykańskich ewaluacjach ukierunkowanych na B+R biznesu przedstawiają się w następujący sposób: Kategorie efektu Typy skutków Wkłady Rezultaty (produkty) Efekty Miękkie skutki Powiązania Konsorcja Nowe sieci ze stałymi partnerami Umowy o współpracę B+R Partnerzy projektu Wpływy (poza uczestnikami) Prośby o wsparcie Kompetencje innowacyjne Strategie komercjalizacji Wzrost chęci i zdolności do poprawy wydajności Strategie własności intelektualnej Plany marketingowe Skutki namacalne Efekty dźwigniowe z innymi funduszami Łatwiejszy dostęp do kapitału ryzyka Patenty i licencje Patenty wynikłe z projektu B+R Finansowanie nowych projektów Wzrost efektywności B+R Personel B+R Ogólna liczba zatrudnionych w projekcie Projekt korzysta ze zwiększenia wydatków na B+R Nowe źródła finansowania Lepiej przeszkolony personel B+R Liczba naukowców i techników zatrudnionych w projekcie Innowacje produktowe - Cele kosztowe - Cele w zakresie efektywności - Liczba nowych produktów - Ogólna liczba produktów - Liczba projektów w stosunku do innowacyjnych produktów - Poprawa satysfakcji klien- Wzrost liczby personelu Wzrost liczby naukowców i techników Dyfuzja wewnątrz branży Dyfuzja pomiędzy branżami 168 ta Innowacje procesowe Skutki społecznogospodarcze - Cele kosztowe - Cele w zakresie efektywności Dyfuzja wewnątrz branży - Liczba nowych procesów - Ogólna liczba procesów - Liczba projektów w stosunku do innowacyjnych procesów - Poprawa satysfakcji klienta Dyfuzja pomiędzy branżami Sprzedaż - Dodatkowe sprzedaż wynikła z pracy nad projektem - Wejście na nowe rynki prywatne - Wejście na nowe rynki rządowe Nowe przedsięwzięcia biznesu Liczba firm odpryskowych Wzrost konkurencyjności Zwrot z inwestycji firmy Wzrost jakości usług Ekspansja rynkowa Zatrudnienie - Liczba miejsc pracy zachowanych w projekcie - Liczba miejsc pracy utworzonych w projekcie - Liczba miejsc pracy zachowanych w kraju - Liczba miejsc pracy utworzonych w kraju Efekty ska - Firmy uczestniczące w projekcie korzystające z bardziej ekologicznych technologii - Czystsze technologie stosowane przez inne firmy środowi- Oddziaływanie społeczne - Przyrost lub utrata miejsc pracy Wzrost z inwestycji podatnika; efekty odpryskowe Supporting 2006 169 Ocena Wpływu jako analiza oparta na teorii. Ocena Wpływu wiąże się z ustanowieniem "teorii zmiany"lub "logiki interwencji", czyli opisu kaskady przyczyn i skutków prowadzących od interwencji do jej pożądanych efektów. Istotą Oceny Wpływu jest stworzenie takiego domniemanego łańcucha przyczynowości od interwencji do oddziaływania oraz dokonanie pomiaru lub opisu zmian wywołanych wzdłuż tego łańcucha. Podejście to ma tę zaletę specyfiki i ostrości, ale także ma tendencję do ograniczenia stwierdzonych efektów do kategorii wcześniej ustalonych, z pominięciem nieoczekiwanych następstw, w tym przewrotnych lub niepożądanych, których projektanci interwencji nie przewidzieli. Teoria zmiany opiera się na koncepcjach teoretycznych. Np. teoria zmiany oparta na idei systemów innowacji podkreśla rolę kontekstu oraz działań podejmowanych przez różnych interesariuszy, a podejście neoklasyczne skupia się na bodźcach i sygnałach ekonomicznych odbieranych przez indywidualne podmioty gospodarcze. Pomimo wielu analiz powiązań badań i innowacji modele „wpływu” pozostają nadal liniowe. Idea "wpływu" ma oczywisty sens w modelu liniowym, gdzie oczekuje się, że zmiany w badaniach mogą być przyczyną zmian w społeczeństwie. Jednak strzałka przyczynowości może także biec w drugą stronę. Obecne teorie innowacji podkreślają nieliniowość procesu innowacji i jej zależność od otaczającego „systemu” innowacji, czyli instytucji, podmiotów i szerszego kontekstu społecznego, w którym przebiega innowacja. Sugeruje to istnienie różnorodności mechanizmów, które łączą działalność badawczą i zmiany społeczne. Idea "wpływu" jest więc problematyczna. Narzuca ona ideę liniowości na bardzo złożoną rzeczywistość i sugeruje, że to badania są w jakiś sposób przyczyną zmian w społeczeństwie i gospodarce, podczas gdy badania mogą być tyleż efektem co przyczyną. Głównym problemem w analizie wpływu jest połączenie interwencji z jej efektami. Jednak interwencje przebiegają w dynamicznym środowisku. Zachodzi wiele zmian i nie zawsze jest oczywiste, co by się stało, gdyby interwencja nie miała miejsca [OECD 2014]. Trudności oceny. Często niełatwo opisać powiązania biegnące od „wkładów” (polityk) do „wyników” (efektów) w sposób liniowy; szczególnym wyzwaniem jest przeprowadzenie oceny ilościowej. Ekonometryczne specyfikacje przyczynowości łatwo cierpią na problem błędnego koła, gdy zachodzi sprzężenie zwrotne zależne do zmiennej niezależnej. Jest tak np. w ocenie wpływu polityki innowacyjnej na dobrobyt, produktywność lub wzrost PKB lub ocenie wpływu polityki naukowej na wzrost gospodarczy [OECD 2014]. Trudno jest określać i mierzyć różnego typu poza-naukowe korzyści z inwestycji B+R. Przyczyny tego stanu wynikają z: • • braku prostej przekładni nauka - technika – ekonomia oraz nauka – technika społeczeństwo; droga od odkrycia naukowego do innowacji rynkowej jest złożona i składa się z wielu faz, z których tylko jedną tworzą B+R; faktu, że efekty bezpośrednie współwystępują z reguły z pośrednimi, a mierzalne - z niemierzalnymi (np. pośrednim efektem badań kosmicznych jest rozwój nowych materiałów, a pośrednim efektem badań w dziedzinie farmacji - wzrost zdrowotności społeczeństwa); 170 • • • • faktu, że efekty finansowe innowacji zależą od wielu czynników ubocznych, nie związanych z B+R, jak wielkość i struktura gospodarki, stopień specjalizacji naukowej i gospodarczej, poziom technologiczny kraju, stan infrastruktury bankowej i handlowej, charakter i wielkość rynku, ukształtowanie cen, wysokość stopy procentowej, poziom wykształcenia społeczeństwa, rozwój przedsiębiorczości itd.; faktu, że konkretna innowacja nigdy nie polega na wykorzystaniu jednego elementu wiedzy, a niemal zawsze opiera się na wykorzystaniu wielu różnych rodzajów wiedzy; faktu, że ocena efektów bywa zależna od obranej perspektywy czasowej; różnicy w długości cyklów technologicznych w różnych sektorach przemysłu (od kilkudziesięciu lat do kilkunastu miesięcy) [Moszczyński 1992; OECD 2013]. Ponadto: • • • • • • • Każde pole badań i sektor przemysłu produkcji i kanałów tworzy specyficzne kanały wpływu na użytkownika końcowego. To sprawia, że trudno jest opracować jednolite ramy oceny. Badania podstawowe mogą mieć różne skutki, z których nie wszystkie da się łatwo określić. Niełatwo lub nietanio dokonać identyfikacji wszystkich osób korzystających z wyników badań, zwłaszcza badań podstawowych. Trudno jest zidentyfikować i opisać wszystkie mechanizmy przekazywania wyników badań do społeczeństwa. Badania opisały mechanizmy transferu między przedsiębiorstwami lub między uczelniami a przedsiębiorstwami. Są to głównie modele empiryczne, które często nie ujawniają pełnego wpływu badań na społeczeństwo. Ze względu na brak potrzebnych kategorii beneficjentów, mechanizmów transferu i użytkowników końcowych, trudno określić odpowiednie wskaźniki statystyczne dla pomiaru konkretnych wyników badań. Badania międzynarodowych przepływów wiedzy dowodzą, że większy wpływ społeczny w danym kraju mogą wywrzeć wyniki zagranicznego B+R (szczególnie ucieleśnionego w importowanych towarach inwestycyjnych i konsumpcyjnych) niż krajowego B+R. Najczęściej trudno ująć wpływ w wartościach monetarnych w celu zapewnienia porównywalności. Nawet jeśli można określić wpływ nieekonomiczny, trudno ustalić jego wartość pieniężną. Podejmowano próby określania wartości pieniężnej niektórych oddziaływań, np. ustalano oszczędności ekonomiczne związane ze zdrową populacją, ale próby te były zazwyczaj częściowe i subiektywne [OECD 2008, 2013]. Główne problemy Oceny Wpływu Programów. Główne problemy Oceny Wpływu Programów ujmuje się w formie następujących pytań: 1) Jak przypisać interwencję do obserwowanych skutków? 171 2) Jak określić sytuację kontrfaktyczną, tzn. czy obserwowane skutki wystąpiłyby i tak? 3) Jak radzić sobie z opóźnieniem czasu między wynikami badań i skutkami? 4) Na czym skupić się w ocenie, na projektach badawczych czy na badaniach w ogóle? [ESF 2012] Na pytania te udziela się odpowiedzi dzięki następującym metodom: Pytania Metody odpowiedzi Ile wydano dotychczas? Czy osiągnięty dotąd postęp odpowiada oczekiwaniom zgodnym z poziomem wydatków? Analiza kosztów i korzyści Jak środki finansowe zostały przekształcone w pożądane rezultaty i efekty? • Peer review; panel ekspertów • Studia przypadku • Badania ekonometryczne Czy badania w ramach programu miały wysoką jakość naukową? Czy były dobrze i efektywnie zarządzane? Peer review; panel ekspertów Czy program wzmacnia sieci badawcze? • • Analiza sieci Metoda „przed-po” Jak to działają mechanizmy zarządzania programem? Jak można je wzmocnić? • • Monitoring Metoda „przed-po” Jakie są skodyfikowane produkty wiedzy osiągnięte w ramach programu? • Badania ekonometryczne Jaka jest efektywność programu w porównaniu z podobnymi programami? Benchamarking Czy uzyskane patenty są wartościowe? Do jakich należą grup technologicznych ? Analizy patentowe W jakim stopniu produkty programu zostały skomercjalizowane? Wskaźniki statystyczne Jakie czynniki wpłynęły na adaptację przez przemysł technologii opracowanych w ramach programu? Studia przypadku Jakie są dotychczasowe korzyści i koszty rozwoju technologii? Analiza kosztów i korzyści Gdybyśmy mieli drugi raz okazję, czy jeszcze raz uruchomilibyśmy program lub inicjatywę? Peer review; panel ekspertów Jakie korzyści z programu odniosło społeczeństwo? Czy działania (np. program badawczy) pokazują „wartość za pieniądze”? • • W jaki sposób badania prowadzone w ramach programu wpłynęły na polityków? Metoda SIAMPI (Social Impact Assessment Methods) Modele ekonomiczne Studia przypadku Jak badania wpłynęły na poziom zdrowia społeczeństwa? Jak wiedza wytworzona w ramach programu jest wykorzystywana przez polityków? Wywiady, analiza dokumentów [ESF 2012] 172 Ocena wpływu ex ante polityk, programów i instrumentów. European Commission [2009] zaleca zastosowanie sześciu podstawowych kroków analitycznych podczas Oceny Wpływu ex ante: • • • • • • Określ problem: opisz charakter i zakres problemu, ustal głównych interesariuszy oraz środowiska, na które będzie oddziaływać polityka; określ przyczyny i czynniki sytuacji problemowej; ustal, czy problem leży w kompetencjach twojego urzędu; czy problem zda testy konieczności i wartości dodanej interwencji; opracuj jasny scenariusz bazowy, w tym, w razie potrzeby, analizę wrażliwości i ocenę ryzyka. Zdefiniuj cele: zestaw cele, które odpowiadają problemowi i jego przyczynom; ustal cele na różnych poziomach, począwszy od ogólnych do szczegółowych / operacyjnych; upewnij się, że cele są spójne z istniejącymi politykami i priorytetami; Opracuj główne opcje polityczne: zidentyfikuj opcje polityki; odróżnij treść opcji od możliwości ich realizacji; sprawdź zasadę proporcjonalności; zawęź zakres opcji poprzez uwzględnienie ograniczeń technicznych i innych, oraz zastosowanie kryteriów skuteczności, wydajności i spójności; sporządź krótką listę potencjalnie ważnych opcji dla dalszych analiz. Przeprowadź analizę wpływu opcji: określ (bezpośrednie i pośrednie) skutki gospodarcze, społeczne i środowiskowe i to, w jaki sposób mogą się one przejawiać; określ, kto wywrze wpływ na realizację polityki i w jaki sposób; oceń wpływ w kategoriach jakościowych, ilościowych i pieniężnych; rozważ ryzyko i niepewność w wyborach politycznych. Porównaj opcje: rozważ dodatnie i ujemne skutki każdej opcji na podstawie kryteriów powiązanych z określonymi celami; przedstaw porównania opcji według kategorii wpływu lub interesariuszy, określ tam gdzie to możliwe wariant preferowany. Nakreśl plan monitoringu i ewaluacji: zidentyfikuj główne wskaźniki realizacji dla kluczowych celów rozważanej interwencji; Punkty te powinno się także uwzględniać w czasie Oceny Wpływu ex post. Ekonometryczna ocena wpływu B+R. Badania ekonometryczne analizują wkład inwestycji B+R we wzrost gospodarczy, zarówno poprzez badania mikro-ekonometryczne, korzystające z danych na temat firm i produktywności przemysłu w celu oszacowania prywatnego i społecznego zwrotu z inwestycji w B+R, jak i poprzez badania makroekonometryczne, które szacują udział ogólnych inwestycji B+R w zagregowanej produktywności. Badania mikro-ekonometryczne analizują wkład inwestycji w B+R we wzrost wydajności w firmach prywatnych, oceniają obecność efektów zewnętrznych (ang. spillover effects) oraz obliczają stopę społecznego zwrotu, czyli korzyści, jakie z prywatnych inwestycji w B+R odnoszą inne firmy w tej samej branży (lub także firmy w innych branżach). Mogą one zostać użyte do sprawdzenia, czy współpraca firm z publicznym sektorem badań wpływa na zyski lub obroty firm [OECD RIHR 2013]. Badania makro-ekonometryczne analizują ogólny wpływ B+R na wzrost PKB lub Współczynnika Produktywności Ogółem (TFP) oraz mierzą przepływy wiedzy (ang. spillover effects) do różnych firm i branż [OECD 2008]. Stosują one różne modele oparte na funkcji produkcji - na najprostszym poziomie prace badawczo-rozwojowe mogą być doda173 wane do modelu regresji, obok innych środków produkcji, takich jak kapitał i praca. Podejście makroekonometryczne zastosowane do badania wpływu wydatków publicznych na B+R na wzrost gospodarczy pozwala uchwycić skutki dla całej gospodarki dzięki stosunkowo małej ilości danych [OECD RIHR 2013]. Ograniczeniem badań ekonometrycznych jest to, że opierając się na liniowym ujęciu innowacji ignorują one powiązania między podmiotami B+R. Prócz tego, choć wykazują one związki między zmiennymi, rzadko przedstawiają związki przyczynowe. Co więcej, skupiają się na powiązaniach między B+R a wzrostem produkcji i produktywności, wyłączając z analizy inne cele badań, takie jak bezpieczeństwo narodowe, bezpieczeństwo energetyczne, ochrona środowiska lub zdrowia, spójność społeczna [OECD 2008]. Nie-ekonometryczne oceny wpływu gospodarczego. Inną, nie-ekonometryczne (ilościowe i jakościowe) metody oceny ekonomicznego zwrotu z inwestycji B+R (lub oceny wpływu czy korzyści) to • • • • • studia przypadku (ang. case studies). Metoda polega na badaniu konkretnego projektu lub grupy projektów badawczych. Koszty B+R projektu porównuje się z korzyściami (z reguły zmniejszeniem kosztów dla użytkownika) związanymi z komercjalizacją wyniku innowacji. Następnie stosuje się standardowe techniki oceny inwestycji dla określenia zwrotów, zarówno prywatnych, jak i publicznych [Smith 1991], metody retrospektywne (takie jak amerykańskie projekty HINSIGHT i TRACE), >OCENA KOSZTÓW I KORZYŚCI, >PANEL EKSPERTÓW [Kostoff 1994], analizy sieci [IPTS-Johanneum 2002] i inne. Prace ekonometryczne są obecnie uzupełniane przez rachunki PKB traktujące publiczne i prywatne inwestycje w badania i rozwój jako źródła inwestycji produkcyjnych. Włączenie B+R do rachunków narodowych wynika z przejścia od tradycyjnego traktowania B+R jako wydatków bieżących do postrzegania ich jako inwestycji w kapitał niematerialny, w zasoby wiedzy kraju. Statystyka B+R tradycyjnie koncentruje się na pomiarze wydatków na B+R wg sektorów wykonawczych (przedsiębiorstwa prywatne, rząd, instytucje szkolnictwa wyższego), dziedzin (informatyka, biotechnologia, itp.) oraz od charakteru działań (badania podstawowe, stosowane, rozwój). Jednak w ostatnich latach zwiększono próby oszacowania nie tylko gospodarczych, ale także społecznych skutków inwestycji publicznych w B+R. Opracowano wskaźniki dla środków budżetowych lub nakładów rządowych na badania i rozwój (>GBAORD), które klasyfikują dane budżetu państwa według celów społecznoekonomicznych. Chociaż ten typ analizy jest cenny, międzynarodowa porównywalność wyników jest ograniczona, gdyż różne kraje ujmują wydatki budżetowe na B+R w różnych kategoriach. Podjęto jednak próby łączenia danych GBAORD z danymi o publikacjach i patentach (w dziedzinie zdrowia) [OECD 2008]. 174 Kwantyfikacja wpływu publicznych B+R lepiej udaje się na poziomie pojedynczych programów, agencji finansujących [OECD 2008] oraz organizacji wykonawczych, takich jak szkoły wyższe [Australian 2003]. Por. >EWALUACJA PROGRAMÓW NAUKOWYCH I TECHNOLOGICZNYCH oraz >EWALUACJA AGENCJI. Kategorie oceny wpływu badań. Ważne kategorie oceny wpływu badań (oraz B+R) finansowanych ze źródeł publicznych, jakie rozwinięto się od lat 1980., to „efekty – bezpośrednie i pośrednie” oraz „zwrot z inwestycji”. Przez efekty bezpośrednie rozumie się odkrycia naukowe wykorzystywane w rozwoju nowego wyrobu lub nowych metod wytwarzania, czyli transfer z nauki do gospodarki informacji o wynikach badań naukowych (np. o promieniach X, laserze). Ten rodzaj korzyści był szeroko znany od lat, harmonizował z koncepcją liniowego modelu innowacji oraz stanowił uzasadnienie dla finansowania nauki w okresie, gdy była ona oceniana przez samych uczonych. Efekty pośrednie, których znaczenie uświadomiono sobie w początku lat 1990-tych pod wpływem nowego modelu innowacji, określono jako takie owoce badań naukowych, jak know how (obeznanie z metodami i technikami, niekoniecznie dające się ująć w słowa), przeszkoleni naukowcy i inżynierowie, sieci zawodowe badaczy, narzędzia projektowania i techniki inżynieryjne (modelowanie, symulacje), nowa aparatura badawcza, czy też `firmy odpryskowe`. Efekty pośrednie występują np. wówczas, gdy badacze wiedzę o ostatnich odkryciach uzyskaną dzięki własnym badaniom wykorzystują w doradztwie, albo gdy know how osiągnięty dzięki szkoleniom stosują w działalności innowacyjnej, albo też gdy aparatura skonstruowana na potrzeby badań znajduje nieoczekiwane zastosowania w produkcji itd., co we wszystkich tych przypadkach przyczynia się do wzrostu gospodarczego. Badanie PREST po raz pierwszy rozróżniło między efektami bezpośrednimi a pośrednimi w roku 1993 i od tego czasu kategorie te stały się jednymi z podstawowych w ewaluacji B+R [Douglas 1998]. Wartość ich należy mierzyć liczbą ich zastosowań w metodologiach ewaluacji oraz ich płodnością. Stały się one punktem wyjścia do wielu dalszych rozróżnień, np: Dziedzina wpływu Efekty bezpośrednie Efekty pośrednie Krótkoterminowe Długofalowe Krótkoterminowe Długofalowe Nauka Odkrycia naukowe Korpus wiedzy Rozwój kształcenia Wpływ na gospodarkę Gospodarka i społeczeństwo Nowe technologie Nowa wiedza techniczna Poprawa produktywności Poprawa konkurencyjności Polityka Lepsze rozumienie współzależności Rozwiązywanie problemów Lepsze rozumienie problemów Lepsza ogólna satysfakcja Balogh Badając wpływ gospodarczy programów zaleca się zwracanie uwagi na: 175 Bezpośrednie efekty społeczne (np. poprawa działania telekomunikacji, informacji meteorologicznych) Bezpośrednie efekty przemysłowe (np. pobudzanie działalności gospodarczej, nowe stanowiska pracy) Pośrednie efekty społeczne (np. redystrybucja, stabilizacja, handel) Pośrednie efekty przemysłowe Cohendet 1997 Badając pośrednie efekty przemysłowe zaleca się zwracanie uwagi na: • • • • efekty technologiczne (np. nowe produkty; różnicowanie oferty; ulepszenia produktów), efekty komercyjne (współpraca międzynarodowa; nowe sieci sprzedaży; wykorzystanie programu w marketingu), efekty w dziedzinie organizacji i zarządzania (kontrola jakości; zarządzanie projektami; techniki produkcyjne), efekty w dziedzinie podniesienia wartości siły roboczej (powstanie masy krytycznej specjalistów); ulepszenie kompetencji siły roboczej. Oprócz wpływu, i efektów, innymi pojęciami ogniskującym ewaluacje są pojęcia „zwrotu” (z inwestycji). Ekonomiści (a za nimi politycy) zazwyczaj dokonują rozróżnienia pomiędzy zwrotami „prywatnymi” i „społecznymi”. Prywatny zwrot to taki, który płynie do osoby lub firmy, która dokonała inwestycji. Dla firmy jest to przede wszystkim wzrastający strumień dochodów, wynikający z pomyślnej inwestycji lub projektu B+R. Społeczny zwrot to taki, który staje się własnością całego społeczeństwa. Innowacja może nie tylko przynosić zwrot osobie lub firmie, ale także (jeśli np. polega ona za zakupie nowej maszyny) może obniżać koszty wytwarzania innemu przedsiębiorstwu, ulepszać jakość wyrobów lub przynosić korzyści użytkownikom. Z punktu widzenia konsumentów, B+R może prowadzić do innowacji produktowych, które obniżają koszty usług (np. ogrzewania mieszkań) lub też poprawiają jakość życia (np. w opiece lekarskiej). O zwrotach społecznych mówimy wówczas, gdy korzysta z nich nie tylko inwestor [Smith 1991]. Szacunki wpływu nie-ekonomicznego. Literatura na temat wpływu pozaekonomicznych B+R jest znacznie uboższa i mniej solidna niż piśmiennictwo dotyczące skutków ekonomicznych. Wg Godina oraz Doré (2006) jest tak z trzech powodów: 1. większość pomiarów nauki i badań przeprowadzono w kontekście gospodarczym. 2. wymiar ekonomiczny jest często łatwiejszy do zmierzenia. 3. większość wyników i wpływu nauki ma charakter niematerialny, rozproszony i często opóźniony. Choć również trudny do zmierzenia, ekonomiczny wymiar nauki i techniki łatwiej mierzyć i analizować. Niemniej jednak w ostatnich dekadach naukowcy i rządy zaczęli interesować się pomiarem skutków ekonomicznych publicznych inwestycji w B+R. Istnieje konsensus wśród 176 naukowców, wg którego jednym z pierwszych kroków na drodze pogłębiania wiedzy na temat wpływu poza-publicznych ekonomicznego B+R powinno być określenie ram łączących inwestycje w badania naukowe oraz dobrostan (ang. well-being): Ramy analizy wpływu badań na dobrostan B+R Sektory Przejawy dobrostanu Wykonawcy (biznes, uczelnie itd.) Rząd (np. centralny, regionalny, władze miejskie) Nauki (przyrodnicze i inżynieryjne; społeczne i humanistyczne) Biznes (np. telekomunikacja, elektronika) Ekonomiczne (np. konsumpcja, bogactwo, równość, bezpieczeństwo ekonomiczne) Typy badań (podstawowe; stosowane) Społeczne (np. Poprawa zdroOrganizacje non-profit (np. wia, zmniejszenie ubóstwa) uczelnie, organizacje poza-rzą- Środowiskowy (poprawa stanu dowe, kościoły) zanieczyszczenia, wzrost bioróżnorodności) Model ten wymaga przyjęcia czterech kroków dla oszacowania wpływu badań publicznych na dobrostan. Te cztery kroki: 1. Ustalenie szerokich dziedzin dobrostanu (społeczna, ekonomiczna, środowiskowa itp.) oraz poddziedzin (np. w sferze społecznej poddziedziną jest dobrostan dzieci, edukacja itp.). 2. Wybór konkretnych wskaźników dla dziedzin i poddziedzin. 3. Rozpoznanie inwestycji w badania które wywarły wpływ na wybrane wskaźniki oraz określenie sposobów, w jaki te inwestycje wpłynęły na wskaźniki. 4. Oszacowanie wpływu poszczególnych inwestycji badawczych na wybrane wskaźniki. W ostatnich dekadach źródłem inspiracji dla wielu propozycji oceny wartości badań naukowych dla społeczeństwa stała się ocena wpływu społecznego (Social Impact Assessment). Ocena wpływu społecznego jest nastawiona przede wszystkim na badanie następstw programów społecznych. Bada ona konsekwencje dla ludzi wszelkich publicznych i prywatnych działań które zmieniają sposób, w jaki ludzie żyją, pracują, bawią się, odnoszą się do siebie wzajemnie, organizują dla zaspokojenia swoich potrzeb oraz, ogólnie, radzą sobie jako członkowie społeczeństwa. Swoim zainteresowaniem obejmuje także wpływ kulturowy polegający na zmianie norm, wartości i wierzeń, które kierują i racjonalizują ich samo-poznaniem jako jednostek i jako społeczeństwa. Metody oceny społecznego wpływu zostały m.in. rozwinięte w ramach programu SIAMPI. SIAMPI to konsorcjum Królewskiej Holenderskiej Akademii Sztuki i Nauki (KNAW), Rathenau Institute (Holandia), CSIC (Hiszpania), MSH (Francja) oraz Uniwersytetu w Manchesterze (Wielka Brytania). Konsorcjum SIAMPI opracowuje metody oceny skutków społecznych projektów badawczych, programów badawczych oraz instrumentów finansowania badań w ramach projekty VII Programu Ramowego (2007-2013) [SIAMPI]. 177 Nowe propozycje oceny wartości badań naukowych dla społeczeństwa, inspirowane Social Impact Assessment, przedstawiają metody opisu i pomiaru wpływu poza-naukowego badań naukowych, nie ekonomicznego, tylko społecznego i kulturalnego. Jedna z takich propozycji [Spaapen 1994] dotyczy także, choć nie tylko, nauk społecznych i humanistycznych, które później niż sciences zostają poddawane ocenie w kategoriach wpływu poza-naukowego. Autorzy jej podkreślają, jak ważna jest komunikacja pomiędzy badaczami a społeczeństwem. Istota oceny komunikacji polega na uchwyceniu trzech zmiennych (w ich zróżnicowaniu). Zmiennymi tymi są: różne formy (pisemne i nie-pisemne) wyników badań; różne formy społecznego zapotrzebowania na te wyniki; wreszcie, różne typy mediów, za pomocą których 1) i 2) współdziałają ze sobą (czasopisma, konferencje). Dla pomiaru tych trzech kluczowych zmiennych proponują oni sporządzenie matryc, w których dla każdej z nich znalazłyby się odpowiednie kryteria i wskaźniki: Kryteria Wskaźniki Strukturalne Treściowe Strukturalne Treściowe Wyniki Różne typy produktów badań, takie jak artykuły, instrumenty, technologie, projekty itd. Główne zagadnienia stawiane przez badaczy Ilość wyników, tj. proporcje pomiędzy różnymi typami wkładu Jakość wyników (analiza zawartości, analiza współwystępowania słów) Media Różne typy wykorzystanych mediów, bibliograficzne, socjograficzne Główna debata, tematy, kontrowersje Analiza zestawu czasopism, analiza współautorstwa, sposoby interakcji międzyludzkich Analiza zawartości, analiza czasopism, relacja w stosunku do debaty (między)- narodowej Zapotrzebowanie Różne typy społecznego zapotrzebowania Główne podnoszone pytania i problemy Publikacje polityczne, kontrakty, wyposażenie Badanie opinii publicznej, badania ankietowe, analizy polityczne Spaapen 1994 Sposób postępowania ewaluatora składa się (w uproszczeniu) z trzech faz. Ich celem jest: 1. określenie odpowiedniego sposobu komunikacji charakterystycznego dla danej dyscypliny, pola czy sektora. Ten etap prowadzi do bardzo zróżnicowanego obrazu wyników, mediów, oraz społecznego zapotrzebowania. Różne potrzeby i wartości użytkowników są odzwierciedlone w takich formach jak kontrakty czy debaty. 2. określenie odpowiednich zagadnień i debat na linii nauka – technika – społeczeństwo (wiele technik ilościowych i jakościowych, takich jak techniki bibliometryczne, analiza treści prasowych, opinie ekspertów, wywiady, strategiczne konferencje). 178 3. ustalenie procedur operacyjnych w celu integracji różnych elementów w pojedynczą procedurę (1) i 2)). Np. jakie są główne produkty naukowe i debaty polityczne w poszczególnych sektorach? Kto jest głównym klientem/użytkownikiem? Jakie są ważne zagadnienia debaty? [Spaapen 1994]. W Niderlandach opublikowano poradnik mający na celu uzupełnienie dwóch podstawowych stosowanych tu protokołów ewaluacji instytucjonalnej o zalecenia samo-oceny ex-post grup badawczych oraz instytutów badawczych. Zalecenia kładą nacisk na ocenę badań w kontekście społecznym traktowaną jako realizacja strategii ocenianych instytucji. W wielu dziedzinach, perspektywy zainteresowanych stron mają kluczowe znaczenie dla oceny znaczeniu dla społeczeństwa, podkreśla raport. Uwzględnienie kontekstu społecznego to podstawa dobrej ewaluacji. Należy zatem zaprosić interesariuszy do komisji ewaluacyjnej w zakresie oceny użyteczności badań dla społeczeństwa. Interesariusze muszą jednak wykraczać poza indywidualne doświadczenie i indywidualne korzyści i opierać się na rzeczowych i w miarę możliwości mierzalnych dowodach znaczenia ocenianych badań dla sektora docelowego. Ewaluacja powinna być także pomocą w samouczeniu się instytucji. Powinna zatem nie tylko zapewnić wgląd w jakość badań, ale także dostarczać informacji na temat skuteczności strategii jednostki. Ewaluacja, której ustalenia mają wnosić wkład do strategii instytucji powinna opierać się na większej liczbie informacji niż ewaluacja, która dotyczy tylko oceny jakości i społecznego znaczenia badań. Zalecenia ujęto w czterech „krokach”. Krok 1: opisz lub podsumuj misje i cele grupy badawczej. Dobrą podstawą ewaluacji jest misja i cele – jako podstawa strategii. Określają one kontekst prowadzonych badań, obszary społeczne i praktyki zawodowe, na które są ukierunkowane badania. Np.: szkolenia dla wykwalifikowanych naukowców i specjalistów w dziedzinie X i Y / lub sektorów i Z; udoskonalenia procedur w danym zawodzie; wytwarzanie wiedzy dla przemysłu i handlu, lub konwersja wiedzy na nowe przedsięwzięcia gospodarcze; produkcja wiedzy dla sektora publicznego (ochrona zdrowia, edukacji i kultury); wytwarzanie wiedzy w celu wsparcia formułowania, wdrażania i ewaluacji polityki. Misja powinna także wskazywać, w jaki sposób grupa badawcza zamierza osiągnąć cele, np. jaki rodzaj badań grupy wykonuje, czy posiada powiązania z interesariuszami (i jakie) oraz co planuje wytwarzać. Czasami misje są bardziej szczegółowe, zawierając cele ilościowe, dotyczące liczby publikacji zawodowych, edukacji i szkoleń itd. Krok 2: opisz społeczny wkład ocenianych badań naukowych. Misja określa społeczne znaczenie w kategoriach przyszłości. Patrząc wstecz, można opisać rzeczywisty społeczny wkład badań. W tym celu należy streścić główne osiągnięcia i społeczne interakcje z interesariuszami. Kluczowe są cztery następujące pytania: które z badań miały znaczenie społeczne (np. program zdrowia; planowanie przestrzenne); w jaki sposób upowszechniono wiedzę wśród interesariuszy? Jakie istnieją dowody na zainteresowania i uznania ze strony interesariuszy? Jakie efekty przyniosły badania? 179 Krok 3: sporządź listę wskaźników. Krok 4. podsumuj uzyskane wyniki dotyczące społecznego znaczenia badań [ERIC 2010]. Od pomiaru wkładu do pomiaru „produktu”, „efektu” i „wpływu”. Tendencja zmiany punktu ciężkości w ewaluacji badań – od pomiaru wkładu do pomiaru „produktu”, „efektu” i „wpływu”, od ewaluacji do Oceny Wpływu Badań – wynika zarówno z przenikania idei tzw. nowego zarządzania publicznego, jak i przemian praktyk w działalności badawczej, innowacyjnej i gospodarczej (wzrost rynkowego ukierunkowania badań i nasilenie powiązań nauki z gospodarką oraz sferą publiczną i społeczną, m.in. wskutek wpływu ICT) [OECD 2007]. Nowe Zarządzanie Publiczne (New Public Management) kładzie nacisk na wskaźniki dokonań i na ewaluacje. W ostatnich dekadach w krajach OECD punkt ciężkości procesu budżetowego i zarządzania przesunął się od finansowania opartego na wskaźnikach „wkładu” (input) oraz bazującego na kwotach z lat ubiegłych, do finansowania opartego na pomiarze dokonań – produktu (output), efektu (outcome) i wpływu (impact) [OECD 2001]. „Państwo w coraz większym zakresie rozdziela środki na uczelni na podstawie wskaźników dokonań. Poprawa wydajności, „rozliczalności” (accountability) i jakości w szkolnictwie wyższym to główne cele i uzasadnienia dla tego typu finansowania” [Frølich 2008]. Uzależnione od wyników zarządzania stało się powszechne w sektorach publicznym i non-profit. W literaturze spotyka się wiele pojęć: „zarządzanie oparte na wydajności”, „zarządzanie wynikami”, „zarządzanie oparte na wynikach”, „zarządzania ukierunkowane na wyniki”, „zarządzanie przez efekty”, „zarządzanie zorientowane na wynik i zarządzanie wydajnością” [Hansen 2010]. W finansowaniu dydaktyki w szkolnictwie wyższym następiło przejście od finansowania zorientowanego na „wkład” (mierzony np. przez liczbę studentów lub powierzchnię budynków uczelnianych) do finansowania ukierunkowanego na „efekty” (np. przez liczbę absolwentów), a także od finansowania podażowego (określanego przez ministerstwa lub agencje) do finansowania popytowego (w którym nauczanie jest finansowanie przez studentów, bądź w formie opłat, bądź voucherów)[Kaiser 2002]. Podobne tendencje zarysowały się w ewaluacji badań naukowych. Już w latach 70. kryteria i procedury ewaluacji przestały być domeną samych badaczy i zostały otwarte na negocjacje z politykami, urzędnikami administracji publicznej, ekonomistami, ekspertami zarządzania [Georghiou 1995]. W latach 80. tendencje te uległy pogłębieniu. W tych latach rozwinięto na dużą skalę systematyczną ewaluację działań rządu na rzecz rozwoju badań naukowych i technologicznych [Luukkonen 1993; Luukkonen 1997; MeyerKrahmer 1992]. Postęp w badaniach i jakość badań nie były teraz traktowane jako cele same w sobie, lecz jako narzędzia osiągnięcia celów społecznych [Frederiksen]. Coraz ważniejszymi kryteriami oceny stały się „korzyści”, „wpływy”, „efekty” oraz „zwrot z inwestycji”. Pojęcia te zakorzeniły się też w koncepcjach ekonomicznych (np. spillover effect, external effect), metodologiach ewaluacji oraz w żargonie politycznym (uzasadnienia budżetu oraz różnych form interwencji rządowych). 180 Rozwijane w ostatnich latach formy ewaluacji nauki charakteryzują się czterema cechami: • opierają się na nowym pojęciu „wpływu”, odchodząc od jego wąsko ekonomicznego rozumienia i kładąc jeszcze silniejszy niż dotąd nacisk na (szeroko rozumiane) wpływy społeczne i kulturowe inwestycji w B+R. • podkreślają one wielkie zróżnicowanie nie tylko dyscyplin i pól badań (pod względem tematyki, metodologii, etosu zawodowego itd.), ale także rodzaj powiązań, jakie łączą każde z nich ze światem zewnętrznym. • bazują na odmiennej organizacji ewaluacji, w której biorą udział nie tylko eksperci, ale także różnego typu interesariusze, włącznie z obywatelami. • w większej mierze uwzględniają mierniki współpracy, przede wszystkim współpracy międzynarodowej badań interdyscyplinarnych oraz badań w ujawniających się (emerging) dyscyplinach [OECD 1997]. Problem uzupełnienia tradycyjnych akademickich miar oceny (publikacje) przez wskaźniki wpływu jest przedmiotem dyskusji i decyzji w wielu krajach, m.in. Australii (Research Quality Framework, RQF, zbudowany w latach 2005-07), Wielkiej Brytanii (Research Exercise Framwerok, od roku 2013), Norwegii, Finlandii (Uniwersytet w Aalto) i w Niderlandach [U-Multirank 2010]. Wzory i dobre praktyki. Fińska Agencja ds. Technologii i Innowacji, Tekes i Akademia Fińska realizują wspólny projekt zatytułowany Ramy Oddziaływania i Wskaźniki dla Nauki, Technologii i Innowacji (Vindi). Projekt bada wpływy N+T+I w odniesieniu w czterech kluczowych obszarach: gospodarki; edukacji i umiejętności; dobrobytu narodu; oraz środowiska. Podstawową ideę badania opracowano zgodnie z konwencjonalnym modelu wkład-rezultaty, z tą różnicą że wzór stosuje się w odwrotnej kolejności. Punktem wyjścia badania jest pytanie, jakie ogólnego wpływu N+T+I należy się spodziewać. W Wielkiej Brytanii Medyczna Rada ds. Badań Naukowych (MRC) wprowadziła w życie system system e-Val (obecnie Researchfish, także stosowany przez inne Rady Badawcze) - zautomatyzowany system gromadzenia danych, opracowany w celu zbierania informacji na temat gospodarczych i społecznych efektów udzielanych przez nią dotacji. Ponadto w Wielkiej Brytanii rozwija się od 2007 r. Ramy Sprawozdawcze Skutków Gospodarczych (Economic Impact Reporting Framework, EIRF) powstałe jako narzędzie oceny realizacji 2004-2014 Ram Inwestycyjnych Nauki i Innowacji (Science and Innovation Investment Framework). EIRF składa się z zestawu wskaźników zebranych przez siedem Rad Badawczych Zjednoczonego Królestwa. Także w Wielkiej Brytanii przeprowadzono analizę wpływu ekonomicznego jednego z projektów sfinansowanych przez Radę Badawczą Sztuk Pięknych i Humanistyki (sztuki wizualne Polinezji). Price Waterhouse Coopers szacowało wydatki poniesione przez zwiedzających wystawę przygotowaną w ramach projektu. 181 W Holandii Królewska Niderlandzka Akademia Sztuk I Nauk przeprowadziła ewaluację Badań w Kontekście. Inicjatywa przeprowadzenia tego projektu wynikła z rosnącego niezadowolenia z tradycyjnych sposobów oceny badań naukowych w dziedzinie nauk społecznych, humanistycznych, medycyny, które uznano za zbyt ukierunkowane na normy i wartości nauk przyrodniczych. Podejście przyjęte przez grupę ERIC obejmowało m.in.: przegląd piśmiennictwa w dziedzinie międzynarodowych metod oceny jakości badań społecznych; opracowanie praktycznego przewodnika oceny społecznego znaczenia badań; warsztaty dla naukowców i decydentów politycznych, którzy chcą brać pod uwagę kryteria społeczne w swoich procedurach oceny; międzynarodowe seminarium eksperckie w sprawie oceny badań naukowych w kontekście społecznym. Australijska projekt Ocena Badań Naukowych i Technologicznych (The Australian Science and Technology Research Assessment ASTRA) zbiera i analizuje efekty badań dwóch uczelni: University of Melbourne i Australian National University. Brazylia łączy dane o B+R z innymi zbiorami danych ekonomicznych, co umożliwia analizę ich wpływu. Część danych zbiera się w ramach platformy Lattes, utworzonej w 1999 roku i prowadzony przez Krajową Radę ds. Rozwoju Naukowego i Technologicznego. W Kanadzie Ministerstwo Badań Naukowych i Innowacji stanu Ontario opublikowało niedawno raport nt. pomiaru wpływu wydatków rządowych na B+R i innowacje na warunki społeczno-ekonomiczne. Koreański Instytut Ewaluacji i Planowania (KISTEP) realizuje projekt “Ramy Wiedzy dla Polityki Innowacyjnej Opartej na Dowodach” (K2Base). Podobny projekt jest realizowany w Japonii. Rada ds. Badań Naukowych Norwegii wdrożyła inicjatywę o nazwie „Wiedza w zakresie polityki badań naukowych i innowacji” (FORFI). Choć inicjatywa ta nie ma na celu pomiaru wpływu, stara się jednak łączyć prace analityczne nad oceną skutków z tworzeniem polityki. Stany Zjednoczone ustanowiły w 2005 roku program badań Nauka o Polityce Naukowej i Innowacyjnej (Science of Science and Innovation Policy (SciSIP)) celem lepszego zrozumienia związku między inwestycjami w naukę i efektami społecznymi. Istotnym celem programu jest pobudzanie badań naukowych na temat wpływu polityki naukowej oraz rozwoju wspólnego środowiska łączącego naukowców i decydentów. Program udziela granty na projekty badawcze dotyczące teoretycznych, empirycznych i jakościowych badań nad wpływem B+R finansowanych ze środków federalnych [OECD RIHR 2013; OECD 2008; ESF 2012]. Bibliografia Arnold Erik 2001, Can We Measure the Socio-economic Effects of Basic Science?, Contribution to an Academy of Finland Seminar 12 November. Australian Government, Australian Research Council, Assessing the wider benefits arising from universitybased research: Discussion Paper, June 2013. 182 Aymerich Marta et al. 2012, Measuring the payback of research activities: A feasible ex-post evaluation methodology in epidemiology and public health, “Social Science & Medicine” 75 ss. 505-510. Balogh Tamás, From peer review to portfolio analysis. Evaluation of applied research and development, mszp. Capron Henri, Macroeconomic modelling and simulation approaches, EPUB Thematic Network On The Socio-Economic Evaluation Of RTD Policies, European Commission. Cervantes Mario 2009, CSTP work on Evaluation and Impact Assessment: Key Findings. Presentation at the 1stRIHR Meeting 18-19 May 2009. Cohendet Patrick 1997, Evaluating the industrial indirect effects of technology programmes: the case of the European Space Agency (ESA) programmes, w: Policy evaluation in innovation and technology. Towards the best practices, OECD 1997. Delanghe Henri, Peter Teirlinck 2013, Optimising the Policy Mix by the Development of a Common Methodology for the Assessment of (Socio-)Economic Impacts of RTDI Public Funding (CIA4OPM) Literature Review, Brussels. Douglas Williams, A. Dennis Rank 1998, Measuring the economic benefits of research and development: the current state of the art, “Research Evaluation” vol. 7 nr 1, April 1998. E. Geisler 1996, Integrated Figure of Merit of Public Sector Research Evaluation, “Scientometrics” vol. 36 1996 no. 3 ERIC 2010, Evaluating the societal relevance of academic research. A guide. ESF 2012, The Challenges of Impact Assessment. ESF Evaluation in National Research Funding Agencies. European Commission 1999, Evaluating socio-economic programmes. Glossary of 300 concepts and technical terms, vol. 6, Luxembourg. European Commission 2002, An RTD Evaluation Toolbox. European Commission 2005, Proposal for the Council and European Parliament decisions on the 7th Framework Programme (EC and Euratom) Main Report: Overall summary Impact Assessment And Ex Ante Evaluation, Brussels, 6.4.2005 SEC(2005) 430 European Commission 2009, Impact Assessment Guidelines. European Commission 2011, Impact Assessment Commission Staff Working Paper, Brussels, 30.11.2011 SEC(2011) 1427 final. Evaluation of technology policy programmes in Germany 1995, ed. Gerhard Becher, Stefan Kuhlmann, Dordrecht. Frederiksen Lars Frode, Finn Hansson, Søren Barlebo Wenneberg 2003, The Agora and the Role of Research Evaluation, “Evaluation” April 2003 9, ss. 149-172. Frederiksen Lars Frode, The Agora and the Role of Research Evaluation, Copenhagen Business School, Internet. Frølich Nicoline 2008, The politics of steering by numbers, Debating performance-based funding in Europe, NIFU-STEP. Georghiou Luke 1995, Research evaluation in European national science and technology system, “Science and Public Policy” vol. 5 no. 1 Godin, B. and C. Doré 2006, Measuring the Impacts of Science: beyond the Economic Dimension, Working Paper, mimeo. Guidelines and Principles for Social Impact Assessment, 1994. Hansen Hanne Foss 2010, Performance indicators used in performance-based research funding, DSTI/STP/RIHR(2010)4 Hicks Diana 2010, Overview DSTI/STP/RIHR(2010)3. of Models of Performance-Based Research Funding Systems, 183 IPTS-Johanneum 2002, RTD Evaluation Toolbox - Assessing the Socio-Economic Impact of RTD-Policies. Kaiser Frans, Hans Vossensteyn and Jos Koelman 2002, Public funding of higher education. A comparative study of funding mechanisms in ten countries, CHEPS, http://doc.utwente.nl/45235/ Kostoff R. N., Federal Research Impact Assessment: Axioms, Approaches, Applications, ”Scientometrics”, Vol. 34, No. 2 (1995) 163-206 Luukkonen Terttu, Bertel Ståhle, Evaluation of research fields. Scientists` Views, 1993; Luukkonen Terttu, The increasing professionalisation of the evaluation of mission-oriented research in Finland: implications for the evaluation process w: Policy evaluation in innovation and technology. Towards the best practices, OECD 1997. Meyer-Krahmer Friedrich i Thomas Reiss 1992, Ex ante evaluation and technology assessment – two emerging elements of technology policy evaluation, “Research Evaluation” vol. 2 nr 1. Moszczyński Jerzy, Jan Kozłowski 1992, Informacja w sprawie możliwości oszacowania nakładów i efektów polityki naukowej i naukowo-technicznej, mszp. niepubl. MRC Medical Research Council 2011, Measuring the link between research and economic impact. OECD (2008), Assessing the Socio-economic Impacts of Public R&D: Recent Practices and Perspectives, w: OECD Science, Technology and Industry Outlook 2008. OECD 2008, Framework For Monitoring And Impact Analysis: – Case Tekes, Finland, TIP-RIHR WORKSHOP 15.-16.9.2008. OECD 2014, Assessing The Impact Of State Interventions In Research – Techniques, Issues And Solutions DSTI/STP(2014)24. OECD Assessing The Socio-Economic Impacts Of Public Investment In R&D, 2007. OECD CSTP 2014 Workshop On Assessing The Impact Of Science, Technology And Innovation Policy Instruments With Common Objectives DSTI/STP/AH/A(2014)2. OECD Funding Systems and their Effects on Higher Education Systems, EDU/WKP(2007)1 OECD Improving Policy Instruments CCNM/SIGMA/PUMA(2001)1 Through Impact Assessment, Sigma Paper: No. 31, OECD Linking Science to Innovation, Economic Growth and Welfare: Scoping Paper, 2013. OECD PUMA 2001, Outcome focused management and budgeting, OECD, PUMA/SBO 2001. OECD RIHR Activity 1.2: Assessing The Role Of Impact In National Science And Research Systems 2013 Optimizing the research and innovation policy mix: The practice and challenges of impact assessment in Europe, 2011. Pollit Chistopher and Geert Bouckaert 2004, Public Management Reform, Oxford University Press, 2004. Salter Ammon J. and Ben Martin 2001, The Economic Benefits of Public Funded Basic Research: A Critical Review, “Research Policy”, 30, 3: 509-532. Salter, A.J. and B.R. Martin 2007, The Economic Benefits of Publicly Funded Basic Research, presented at the conference The Impacts of Science, Vienna. SIAMPI http://www.siampi.eu/ Smart Sue 2009, Economic Impact of research: recent developments in the UK. Smith Keith 1991, Economic returns to R&D: Methods, Results and Challenges, SPSG Review Paper No. 3. Socio-economic impact evaluation. Proceedings of the EU-Tekes evaluation workshop, Ed. Eija Ahola (Tekes) and Isidoros Karatzas (EU Commission), Helsinki November 1999. Spaapen Jack and Christian Sylvain 1994, Societal quality of research. Toward a method for the assessment of the potential value of research for society, SPSG Concept Paper No. 13. Spaapen Jack, Huub Dijstelbloem and Frank Wamelink 2007, Evaluating Research in Context. A method for comprehensive assessment, The Hague. 184 Strategic Guidance for Ex Post Impact Assessment of Agricultural Research, CGIAR Science Council, Rome July 2008. Study on the Economic Impact of the Research Councils, January 2008. Supporting the monitoring and evaluation of innovation programmes 2006. The Evaluation of Scientific Research: Selected Experiences, OECD DSTI/STP/SUR(97)9 U-Multirank. Interim Progress Report Design Phase of the Project ‘Design and Testing the Feasibility of a Multi-dimensional Global University Ranking’, CHERPA-Network January 2010, www.u-multirank.eu/ UMR_ IR_0110.pdf von Raggamby, Anneke (2010), The Role of Tools in Impact Assessments, w: OECD, Conducting Sustainability Assessments. World Bank, Institutionalizing Impact Evaluation Within The Framework Of A Monitoring And Evaluation System, 2009. BENCHMARKING POLITYK Benchmarking (badania porównawcze lub analiza porównawcza) – praktyka stosowana w zarządzaniu, polegająca na porównywaniu produktów, procesów, usług, praktyk i polityk stosowanych przez organizację ze stosowanymi w organizacjach uważanych za najlepsze w analizowanej dziedzinie. Benchmarking określa się jako metodę poszukiwania wzorcowych sposobów postępowania, umożliwiających osiąganie najlepszych wyników przez uczenie się od innych i wykorzystywanie ich doświadczenia [Cabello; Benchmarking 2008; Final]. „Benchmarking nie jest zwykłym naśladownictwem, nie polega na podpatrzeniu sposobu pracy innych, aby tak samo postępować u siebie. To wykrywanie czynników, które sprawiają, że analizowany proces jest wykonywany efektywnie”, a następnie wskazanie podobnych możliwości we organizacji. „To uczenie się i twórcze adaptowanie najlepszych praktyk [Benchmarking 2014].” „Pojęcie benchmarkingu należy ściśle łączyć z imperatywem produktywności. (…) Benchmarking umożliwia identyfikację luki pomiędzy produktywnością danej organizacji a produktywnością partnerów, w stosunku do których dokonuje się porównań. Celem jest zatem zlikwidowanie luki poprzez zwiększenie produktywności, dzięki zastosowaniu wskazanych przez benchmarking praktyk. Po zidentyfikowaniu luki należy odpowiedzieć na pytanie, czy organizacja jest w stanie całkowicie zlikwidować lukę benchmarkingową, czy poprawić się tylko w pewnym stopniu, czy dokonać przełomowych zmian na lepsze, czy też stać się najlepszym w swojej klasie (best–in–class)” [Benchmarking 2008]. Cele bezpośrednie benchmarkingu to: lepsza identyfikacja procesów; porównywanie się z innymi; identyfikacja słabych i mocnych stron na tle wzorca; uczenie się od innych; doskonalenie praktyki działania. Cele pośrednie to rozwój umiejętności zarządczych; przezwyciężenie niechęci do pomysłów powstających poza przedsiębiorstwem; zwiększenie satysfakcji klientów, osiągnięcie przewagi konkurencyjnej [Benchmarking 2008]. „Dla badań benchmarkingowych kluczowe są trzy kroki wstępne: wybór właściwych wskaźników pomiaru dla celów danego badania, zdefiniowanie właściwej grupy porównawczej (porównywanych instytucji) oraz pozyskanie danych, które powinny być poddane porównywaniu [Benchmarking 2008]. 185 Popularność benchmarkingu bierze się stąd, że bardziej sofistyczne metody, takie jak badania operacyjne, programowanie liniowe i wartościowanie technologii, mogą być zbyt uciążliwe i zbyt powolne gdy ma się do czynienia ze złożoną i szybko zmieniającą się rzeczywistością [Lundvall 2002]. Porównywanie własnego sposobu działania z innymi sposobami jest jednym ze sposobów pobudzania refleksji. Polityka oparta jest na mieszaninie teorii, pomiaru i subiektywnego osądu. Zbiorowy benchmarking można traktować jako instrument skutecznego politycznego uczenia się. Benchmarking taki powinien pobudzać refleksję i wspierać uczenie się. Momenty refleksji są kluczowe w procesie uczenia [Paasi 2005]. Etapy benchmarkingu. Benchmarking w organizacji składa się z kilku faz, etapu definiowania (analiza procesów lub serii procesów), etapu identyfikacji najlepszych na świecie (identyfikacja najlepszych praktyk), etapu porównywania oraz etapu uczenia się [Final 2008]. Wg innej propozycji benchmarking składa się z faz planowania, zbierania informacji, analizy i realizacji: • • • • Faza planowania obejmuje następujące działania: sformułowanie przedmiotu i zakresu badania benchmarkingu, zorganizowanie grupy odpowiedzialnej za realizację działań, ustalenie kryteriów wyboru partnera – podmiotu(ów) porównań, identyfikacja docelowych partnerów benchmarkingu oraz ustalenie planu zbierania informacji. Faza zbierania informacji obejmuje: zbieranie ilościowych, finansowych i jakościowych danych, rozpoznanie i udokumentowanie istoty działalności organizacji i zachodzących w niej procesów w celu zrozumienia czynników, które decydują o efektywności działania tej organizacji oraz przeprowadzenie szczegółowego i dokładnego badania. Faza ta jest niezmiernie ważna, bowiem od staranności jej wykonania zależy wiarygodność uzyskanych wyników. Faza analizy obejmuje przede wszystkim rozpoznanie podobieństw i różnic czynników poddanych porównaniu, ale także zrozumienie ich powiązań. Efektem tej fazy jest identyfikacja najlepszej praktyki oraz rozwój planu jej implementacji. W fazie tej wykorzystywane są najbardziej zdolności twórcze i analityczne. Faza realizacji (adaptacji) kończy proces benchmarkingu i obejmuj następujące działania: wprowadzenie w życie proponowanych zmian, monitorowanie i raportowanie postępu, ocenę i wznowienie badania oraz formułowanie planu wdrażania kolejnych zmian. W tym miejscu rozpoczyna się ponownie faza pierwsza [Kuczewska 2007]. Jeszcze inna propozycję przedstawił B. Andersen [Kuczewska 2007]: 186 Lub w zmodyfikowanej wersji [Benchmarking 2008]: Benchmarking przebiega na wielu poziomach [Benchmarking 2008]: 187 Typy benchmarkingu. Biorąc pod uwagę podmiot benchmarkingu, wyróżnia się benchmarking: wyników, procesów, strategiczny oraz organizacyjny. • • • • Benchmarking wyników oznacza porównanie rezultatów osiąganych przez przedsiębiorstwa np. udziału w rynku czy też efektywności obsługi klienta. Takie porównanie powinno być tylko wstępem do dalszej analizy wskazującej drogę uzyskania wyników osiąganych przez lidera. Benchmarking procesowy jest najczęściej stosowanym rodzajem benchmarkingu. Przedmiotem porównania są procedury i procesy stosowane w organizacjach. Benchmarking strategiczny dotyczy porównania działań na poziomie strategicznym – wspomaga uzyskanie trwałej przewagi konkurencyjnej poprzez dostarczanie wiedzy strategicznej. Benchmarking organizacyjny stosowany jest w procesach restrukturyzacyjnych oraz doskonalących organizację [Benchmarking 2008]. Historia. „Benchmarking jest narzędziem wykorzystywanym zarówno w sektorze prywatnym jak i publicznym. Stosowany początkowo intuicyjnie w biznesie, poprzez obserwację partnerów lub konkurentów oraz adaptację ich dobrych praktyk, benchmarking stał się z czasem procesem sformalizowanym, stosowanym z powodzeniem przez wiele firm. Instytucje sektora publicznego, doceniając korzyści płynące z benchmarkingu, również zaczęły wdrażać go do praktyki swego działania, dostosowując go do warunków swego funkcjonowania. Także w szkolnictwie wyższym benchmarking zyskał uznanie jako narzędzie zwiększające produktywność, konkurencyjność oraz przyczyniające się do polepszenia jakości kształcenia i badań naukowych. Pierwsze sformalizowane 188 działania benchmarkingowe przeprowadziła firma Xerox w 1979 r.” [Benchmarking 2008]. Benchmarking w sektorze publicznym. „Benchmarking w sektorze publicznym może stanowić pewien substytut działania sił rynkowych, stwarzając warunki wspierające konkurencję oraz zachęcające do modernizacji i ulepszeń. Benchmarking jednostek sektora publicznego jest zadaniem trudnym i kłopotliwym. Specyficzny charakter sektora publicznego znalazł odzwierciedlenie w przeprowadzonych dotychczas projektach benchmarkingowych. Obszar ten charakteryzuje złożoność wpływów otoczenia i jego niestabilność (częste zmiany polityczne i prawne), wielość i niejednoznaczność celów, mnogość interesariuszy, ich sprzeczne oczekiwania i preferencje, oraz obawa przed innowacyjnością. W sektorze publicznym benchmarking stosowano m. in. do analizy funkcjonowania miast, urzędów, szpitali, bibliotek, posterunków policji, komunikacji miejskiej, szkół oraz uczelni. Efektem zastosowania benchmarkingu jest m.in. podwyższenie jakości świadczonych usług, poprawa efektywności wydatkowania środków publicznych, oraz doskonalenie zarządzania instytucjami publicznymi. Benchmarking może się również przyczynić do bardziej efektywnej alokacji środków budżetowych. Trudności w zastosowaniu benchmarkingu w sektorze publicznym wynikają często z braku sprecyzowanej misji jednostek” [Benchmarking 2008]. Podczas adaptowania praktyk porównawczych z zakresu biznesu do polityki trzeba wziąć pod uwagę pewne wymogi. Minimalnym wymogiem jest to, że analiza porównawcza musi dawać lepszy wgląd w procesy warunkujące wydajność. Benchmarking w tym sensie nie może zatrzymać się na ilościowych porównaniach różnych wskaźników. Przeciwnie, takie porównanie powinno być tylko punktem wyjścia do dalszej analizy. Innym wymogiem jest to, że benchmarking powinien być oparty na współpracy w wymianie informacji wszystkich zaangażowanych stron w celu wspólnego uczenia się. Nie powinien być oparty jedynie na wtórnych informacjach i danych statystycznych [Final 2002]. Benchmarking polityk jest rozumiany albo jako sformalizowana procedura o określonych celach, fazach i metodach, albo w sposób luźniejszy, jako np. „mechanizm uczenia się dobrych praktyk w zakresie zarządzania B+R od innych poprzez aktywną wymianę poglądów i stanowisk wśród ekspertów i polityków, począwszy od analizy niektórych uzgodnionych wskaźników oraz poprzez wymianę doświadczeń i praktyk w zakresie działań politycznych” [Benchmarking 2002]. Kluczowe zasady benchmarkingu. Z reguły benchmarking jest podejściem ustrukturyzowanym. Wytyczną w praktykach porównań powinny być podstawowe zasady metodologiczne, takie jak ogniskowanie uwagi, pomiar, różnicowanie, uczenie się, porównywalność, integracja. Zasada ogniska. Benchmarking wymaga wyraźnego ogniska – im ściślej określimy podstawowe elementy oceny, tym cenniejsze możliwości uczenia. Przedmiot analizy porównawczej powinien zostać ściśle określony nie tylko co do zakresu tematycznego, ale także chronologicznego. Porównywanie ze sobą tak szerokiego i wieloaspektowego, jak np. polityka naukowa może być bardzo trudne. 189 Zasada pomiaru. Benchmarking wymaga obiektywnego pomiaru – im bardziej obiektywne miary, tym bardziej skuteczne uczenie się. W przypadku analizy porównawczej, stosunkowo obiektywny pomiar zależy głównie od doboru wskaźników. Zasada różnicowania. Benchmarking wymaga jasnego oddzielenia wymiarów wyników i praktyk. Zasada uczenia się. Benchmarking jest przede wszystkim pomocą w uczeniu się - zapewnienia dopływ nowych pomysłów na poprawę praktyk w ramach organizacji. Zasada porównywalności. Benchmarking działa najlepiej, gdy luki nie są zbyt duże - np. benchmarking małej firmy inżynieryjnej w odniesieniu do IBM. W benchmarkingu polityki powinno brać się pod uwagę nie tylko wielkość organizacji, ale także społecznoekonomiczne, polityczne, a przede wszystkim instytucjonalne podobieństwa sektorów publicznych. Np. porównywanie polityki naukowej Słowacji i Kanady nie jest słuszne. Zasada integracji. Benchmarking może być włączony do bardziej zintegrowanych ram – np. Otwartej Metody Koordynacji (OMC) [Papaioannou 2006]. Ograniczenia benchmarkingu. Zwraca się uwagę na dwa główne typy ograniczeń w przenoszeniu dobrych praktyk z jednego miejsca do drugiego: odmienność kontekstów oraz „zależność od drogi”. W benchmarkingu polityki „przyjęcie optymalnego kształtu działań politycznych wymaga nie tylko adaptacji metod stosowanych w jednym kraju do kontekstu innego kraju, ale również uwzględnienia uprzednich działań” [Rose 2005]. Lundvall and Tomlinson podkreślają, że idea “wzorcowej praktyki” może podcinać proces polityczny i demokratyczne procedury. „Na jakiej podstawie sądzimy, że polityka, która sprawdziła się w jednym kraju okaże się skuteczna w innym? Na jakiej podstawie wiążemy polityki z ich efektami, skoro najczęściej są one złożone, a ich efekt zależy od bardzo wielu okoliczności towarzyszących? Metodologie badań porównawczych przestrzegają przed porównywaniem “jabłek i pomarańczy”” [Kastrinos 2001]. Benchmarking w OECD. Jedną z głównych funkcji OECD jest dostarczanie danych, informacji i analiz służących benchmarkingowi polityk, programów, instrumentów, systemów (np. badań i innowacji) oraz instytucji i praktyk w krajach członkowskich (lub szerszej grupie porównawczej). W odniesieniu do nauki i innowacji, narzędziem są m.in. bazy danych oraz takie publikacje, jak OECD Science, Technology and Industry Outlook oraz OECD Science, Technology and Industry Scoreboard. Benchmarkingowi służy wielka część raportów OECD, np. Public Research Institutions. Mapping Sector Trends, 2011. Benchmarking w Unii Europejskiej. Praktyki benchmarkingu OECD dały asumpt do stworzenia praktyk benchmarkingu w Unii Europejskiej. Benchmarking polityk badawczych to podstawowy składnik >OTWARTEJ METODY KOORDYNACJI (Open Method of Coordination, OMC), a także projektu Europejskiej Przestrzeni Badawczej. Benchmarking ma pomóc w ulepszaniu polityk badawczych państw członkowskich, tak aby stały się bardziej spójne ze sobą poprzez proces porównywania, wymiany doświadczeń i wzajemnego uczenia się. Wyjściowe dokumenty Unii to: 190 • Development of an open coordination method for the comparative evaluation (benchmarking) of national research policies - objectives, methodology and indicators, SEC 1842 of 3.11.2000; • Progress report on Benchmarking of national research policies, Brussels, SEC(2001)1002 • Benchmarking of national RTD policies: initial results; SEC 2002 129 of 31.1.2002. Narzędziem instytucjonalnym przeprowadzania OMC była grupa doradcza CREST, a obecnie jest nią grupa >ERAC. Narzędziem pomocniczym są coroczne raporty Komisji Europejskiej do Rady i Parlamentu Europejskiego Sprawozdania z Postępu Prac w Ramach Europejskiej Przestrzeni Badawczej obejmujące zarówno ocenę na szczeblu unijnym, jak i poszczególnych państw (krajowe fiszki, ang. Country Fiches). Trzy główne zalecenia Komisji dotyczące benchmarkingu: • Benchmark i efekty, i wkłady; • Benchmark raczej przyczyny niż objawy. • Benchmark zarówno proces, jak i jego wyniki. Trzy podejścia do benchmarkingu: • Podejście nadzoru, benchmarking odgórny, stosowany w celu szukania zgodności polityk Unii z niższymi szczeblami. • Podejście edukacyjne, które w zasadzie ma ułatwiać przygotowanie lub inicjowanie działań politycznych. • Trzecie podejście ma na celu ulepszanie polityk i zajmuje pozycję pośrednią pomiędzy poprzednimi. Łączy ono analizę z działaniem z miarami dla samoewaluacji oraz możliwościami uczenia się w celu dokonywania ulepszeń i adaptacji. Opiera się ono na filozofii stałego systematycznego uczenia się i dokonywania auto-korekty [Arrowsmith 2004]. Benchmarking narodowego systemu innowacji. Wszechstronny benchmarking systemów badań i innowacji przeprowadzono w Wielkiej Brytanii [Allas 2014]. Analizę porównawczą oparto na wydzieleniu sześciu podstawowych modułów, takich jak 1) pieniądze, 2) talent, 3) aktywa wiedzy, 4) struktury i zachęty, 5) szersze otoczenie, 6) produkty innowacji. Moduły te zawierają dużą liczbę podmiotów oddziaływujących na system i odgrywających w nim różne funkcje, takich jak rząd, uczelnie, biznes, towarzystwa naukowe, obywatele. Główne pytania dotyczyły tego, jak skutecznie i efektywnie działa system w celu poprawy wyników gospodarczych i społecznych; jak reaguje i dostosowuje się do zmian w popycie i praktykach gospodarczych i społecznych; w jakim zakresie jego poszczególne elementy są koordynowane. Ocenę oparto na 42 wskaźnikach opartych na danych z baz organizacji międzynarodowych, takich jak Bank Światowy, OECD, Światowe Forum Gospodarcze (WEF), INSEAD oraz Światowa Organizacja Własności Intelektualnej (WIPO). W celu porównania wyników Wielkiej Brytanii na tle krajów porównaw- 191 czych wykorzystano system punktacji, oparty na maksymalnych i minimalnych wartościach [Allas 2014]. Podjęto próby łączenia systemowego podejścia do innowacji z technikami analizy porównawczej. Zwraca się jednak uwagę, że integracja terminologii benchmarkingu korporacyjnego w ramach NSI jest problematyczna i może powodować nieporozumienia [Balzat 2003]. Benchmarking organizacji badawczych. TNO (Holenderska Organizacja Stosowanych Badań Naukowych) przeprowadziła badania porównawcze poza-uczelnianych instytucji badawczo-technologicznych w celu poznania najlepszych praktyk. Benchmarking opierał się na wskaźnikach wykonania oraz na informacjach o najlepszych praktykach z kilku przodujących instytutów naukowych i technologicznych na całym świecie. Lista pytań obejmowała takie grupy, jak zarządzanie instytutem, polityki i strategie badawcze, organizację i strukturę, finansowanie badań i zarządzanie finansami, zasoby ludzkie, zarządzanie aktywami organizacyjnymi, zarządzanie programami i projektami, partnerstwo i sieci, ewaluację i ocenę wpływu, odnowę i kształcenie [Benchmarking 2005]. Benchmarking uczelni oraz systemów szkolnictwa wyższego. „Celem benchmarkingu w szkolnictwie wyższym jest poprawa krajowej, bądź też międzynarodowej pozycji konkurencyjnej uczelni. Benchmarking umożliwia także identyfikację procesów wymagających doskonalenia w sektorze oraz w uczelniach, udoskonalenie procesów dydaktycznych, badawczych, finansowych, administracyjnych itp. oraz lepsze przystosowanie dydaktyki i badań naukowych do potrzeb rynku. Na podstawie publikowanych doświadczeń do celów benchmarkingu można także zaliczyć rozwijanie współpracy między uczelniami i pozyskanie potencjalnych partnerów do innych projektów.” „Benchmarking ułatwia identyfikację obszarów działalności uczelni wymagających poprawy i wskazuje najlepsze praktyczne rozwiązania zaistniałych problemów. Inicjatywy benchmarkingowe mogą również przyczynić się do rozwoju współpracy między uczelniami.” ” W literaturze przedmiotu opisywane są również przykłady benchmarkingu bibliotek uniwersyteckich, procesów administracyjnych, związanych m.in. z gospodarką obiektami uczelni oraz działalnością finansowo–księgową uczelni.” Uczelnie praktykują benchmarking również w sposób nieformalny poprzez wymianę doświadczeń w ramach współpracy, poprzez dyskusje na forum stowarzyszeń, lub konferencji rektorów, kanclerzy, kwestorów (KRASP, KRPUT w Polsce, NACUBO – National Association of Colleges and University Business Officers w USA). Uczelnie tworzą również konsorcja powoływane specjalnie do realizacji projektu benchmarkingowego (collaborative benchmarking10) oraz podejmują działania benchmarkinowe bez współudziału innych uczelni np.: poprzez kupowanie danych od firm wyspecjalizowanych w benchmarkingu lub korzystanie z oferowanych przez nie narzędzi internetowych do benchmarkingu (non–collaborative benchmarking). „Rankingi szkół wyższych nie są benchmarkingiem. Szeregują bowiem badane jednostki nie spełniając podstawowego wyznacznika benchmarkingu, tzn. nie wskazując najlepszych praktyk i tym samym nie stwarzając możliwości uczenia się. Z tego powodu można je jedynie określać mianem fałszywego benchmarkingu, zgodnie z terminologią stosowaną przez European Network for Quality Assurance in Higher Euca192 tion – ENQA5, prawdziwy benchmarking jest zawsze zorientowany na ulepszenia. Benchmarking fałszywy dąży do stworzenia rankingu, bez wskazania sposobów doskonalenia dotychczas stosowanych praktyk. Bazując głownie na zasobach uczelni rankingi najczęściej nie odnoszą się do efektywności gospodarowania tymi zasobami. Sprzyjają zatem dużym jednostkom, z bogatym zapleczem kadry naukowej i bazą dydaktyczną, pozostawiając bez szans jednostki mniejsze, ale sprawnie zarządzane [Benchmarking 2008].” Benchmarking programów badawczych. Bliski >EWALUACJI PROGRAMÓW I INSTRUMENTÓW jest benchmarking programów badawczych [Benchmarking 2003]. Benchmarking polityki innowacyjnej. Jako przykład benchmarkingu polityki innowacyjnej można przytoczyć raport Inside Consulting [2004], który przedstawia analizę porównawczą skuteczności innowacji i innowacyjnych warunków ramowych w 27 krajach OECD, przy użyciu różnych danych ilościowych i jakościowych oraz analiz. Benchmarking polityki naukowej. Inicjatywy benchmarkingu polityki naukowej podjęła Komisja UE w związku z planami stworzenia >EUROPEJSKIEJ PRZESTRZENI BADAWCZEJ. Pierwsza faza benchmarkingu, ujęta w dokumencie EC [Benchmarking 2002] oparta została na następujących założeniach: • • • • zrozumienie różnych rodzajów polityki i instrumentów polityki z uwzględnieniem kontekstów, w których są one stosowane; zastosowanie wskaźników wyników w celu porównania skuteczności i efektywności poszczególnych instrumentów; zrozumienie sposobu, w jaki poszczególne instrumenty są połączone w Policy Mix w ramach krajowych systemów innowacji; szacowanie łącznego wpływu całego spektrum instrumentów, stosowanych w różnych systemach innowacji. W raporcie zastosowano następujące schematy opisu krajowych systemów badań i innowacji: SPOŁECZNY I LUDZKI KAPITAŁ UŻYTKOWNICY TWÓRCY POPYT ZDOLNOŚĆ ABSORPCJI KOMPETENCJE BADAWCZE PODAŻ WYNIKI TECHNOLOGICZNE I INNOWACYJNE Zastosowano także następującą taksonomię polityk: 193 Polityki wzmacniające dla użytkowników publicznego sektora wiedzy *Wsparcie dla instytucji edukacji naukowej i technicznej Inicjatywy pomostowe pomiędzy użytkownikami oraz twórcami wiedzy sektora publicznego Inicjatywy pomostowe pomiędzy użytkownikami wiedzy sektorów publicznego I prywatnego *Instytucje sektora publicznego zajmujące się informacją naukową i techniczną, patentową, innowacyjną Inicjatywy pomostowe pomiędzy użytkownikami i twórcami wiedzy sektorów publicznego i prywatnego *Wsparcie infrastruktury sieciowej teleinformatycznej Polityki wzmacniające dla użytkowników prywatnego sektora wiedzy *Subsydia na przeprowadzanie audytu technologii, zatrudnianie techników Inicjatywy pomostowe pomiędzy użytkownikami i twórcami prywatnego sektora wiedzy *Wsparcie transferu technologii oraz technologicznego brokerstwa *Kampanie podnoszące świadomość wagi B+R i innowacji *Instytucje pośredniczące między nauką publiczną a B+R w przemyśle Polityki wzmacniające dla twórców publicznego sektora wiedzy Inicjatywy pomostowe pomiędzy twórcami wiedzy sektorów publicznego i prywatnego Polityki wzmacniające dla twórców wiedzy sektora prawatnego *Wsparcie dla infrastruktury badawczej w uczelniach *Wsparcie dla ukierunkowanych badań opartych na współpracy pomiędzy uczelniami i przemysłem *Subsidised market-oriented R&D *Usługi B+R I innych form N+T laboratoriów rządowych dla przemysłu *R&D tax incentives *Wsparcie dla badań podstawowych *Wsparcie dla centrów doskonałości *Inicjatywy poszukiwania partnerów badawczych *Wsparcie dla laboratoriów uniwersyteckich *Infrastruktura transfery technologii *Product development assistance *Innovation credits *Favourable IPR regimes *Inward investment schemes for ‘R&D intensive’ industries *Programy wymiany personelu pomiędzy uczelniami a przemysłem *Wsparcie dla firm odpryskowych *Uniwersyteckie biura łącznikowe 194 *University Liaison Offices *Wsparcie komercjalizacji badań Analizę porównawczą polityk naukowych UE [Benchmarking 2002] wykorzystała Belgia, zamawiając bardziej szczegółowe analizy i zalecenia [Nauwelaers 2003]. Benchmarking działów polityki naukowej. Benchmarking polityk wobec biotechnologii. Benchmarking [2005] łączył ocenę działań politycznych wspierających biotechnologię z oceną stanu biotechnologii w wybranych krajach. Unijny benchmarking krajowych polityk naukowych objął pięć dziedzin/aspektów polityki: • • • • • Zasoby ludzkie, wliczając w nie zawody N+T; Publiczne i prywatne inwestycje w B+R; Wpływ B+R na konkurencyjność i zatrudnienie; Promocję kultury B+R oraz publiczne rozumienie nauki; Produktywność N+T. Badano także wpływ zachęt podatkowych oraz ograniczeń finansowych na decyzje dotyczące wydatków na B+R korporacji [Klassen 2003]. Technopolis przeprowadził benchmarking mechanizmów i strategii stosowanych w różnych krajach przez rządy, uczelnie i organizacje badawcze dla przyciągnięcia naukowców z zagranicy [Technopolis 2002]. W badaniu wybrano pięć krajów: dwa, które są pod tym względem najlepsze w świecie (Wielka Brytania i Stany Zjednoczone), oraz trzy, które mają podobne systemy badawcze co Irlandia, o skromniejszej międzynarodowej renomie (Holandia, Finlandia i Dania). Bibliografia Cecilia Cabello, Benchmarking of Best Practices: A Perspective for Policy Benchmarking w systemie szkolnictwa wyższego. Praca zbiorowa pod redakcją Jerzego Woźnickiego, Warszawa 2008 Final report of the expert group on “Benchmarking S&T Productivity”, June 2002 Benchmarking, Wikipedia 2014. Joanna Kuczewska, Europejska procedura benchmarkingu Programy i działania, PARP 2007. OECD Christian Isaksson Survey Of Benchmarking Activities, Swedish Agency for Administrative Development, 1997. Theodoros Papaioannou, Howard Rush and John Bessant, Benchmarking as a policy-making tool: from the private to the public sector, “Science and Public Policy”, volume 33, number 2, March 2006, ss. 91–102. Bengt-Åke Lundvall and Mark Tomlinson, International benchmarking as a policy learning tool, w: The New Knowledge Economy in Europe. A Strategy for International Competitiveness and Social Cohesion, Bengt-Åke Lundvall, Gøsta Esping-Andersen, Luc Soete, Manuel Castells, Mario Telò, Mark Tomlinson, Robert Boyer, Robert M. Lindley. Ed. by Maria João Rodrigues, Edward Elgar, 2002, s. 207. 195 Marianne Paasi, Collective benchmarking of policies: an instrument for policy learning in adaptive research and innovation policy, “Science and Public Policy” February 2005. Markus Balzat, Benchmarking in the Context of National Innovation Systems: Purpose and Pitfalls, May 2003. Benchmarking Contract Research Organizations. A comparative analysis of: CSIRO, Australia; DPI, The Netherlands; Fraunhofer Gesellschaft Germany; IMEC, Belgium; Joanneum Research, Austria; SINTEF, Norway; TNO, The Netherlands; VTT, Finland, TNO Delft, 3 March 2005. Inside Consulting, Benchmarking Innovation Policy and Innovation Framework Conditions, January 2004. Benchmarking Of National Policies Public And Private Investments In R&D Final Report June 2002. Ken Guy and Claire Nauwelaers, Benchmarking STI Policies in Europe. In Search of Good Practice [2002] EC, European Commission DG Research, Benchmarking national research policies: The Impact of RTD on Competitiveness and Employment (IRCE) A STRATA-ETAN Expert Group, [2002]. Benchmarking Evaluation Of Public Science And Technology Programs In The United States, Canada, Israel, And Finland. Proceedings Of A Workshop Sponsored By Tekes – National Technology Agency Of Finland 2003. Kathleen C. Dominique, Ammar Anees Malik and Valerie Remoquillo-Jenni, International benchmarking: Politics and policy, “Science and Public Policy”, Vol. 40, 2013, Issue 4 ss. 504-513. Eugene Bardach, Problem Ekstrapolacji: Jak możemy uczyć się z doświadczeń innych?, „Państwo i Rynek” nr 2 / 2005, oryg. „The Extrapolation Problem: How Can we Learn from the Experience of Others” “J. Policy Analysis and Management” 2004 23 (4) 205-220. Richard Rose, Gdy Wszystkie Inne Czynniki Nie Są Niezmienne: O Kontekście Czerpania Wzorów z Polityki Innych Krajów, „Państwo i Rynek” 2005 nr 2, oryg. When All Other Conditions Are Not Equal: The Context for Drawing Lessons, w: C.J. Finer, ed., Social Policy Reform in China: Views from Home and Abroad, Aldershot Ashgate, 2003, s. 5-22. Nikos Kastrinos, Introduction Contribution of socio-economic research to the benchmarking of RTD policies in Europe, “Science and Public Policy”, vol. 28, nr 4, August 2001, pages 238–246. Benchmarking of public biotechnology Policy. Final report. European Commission Enterprise Directorate General April 2005. Report from the Expert group Benchmarking the Promotion of RTD culture and Public Understanding of Science July 2002. EC, European Commission, Benchmarking National Research Policies, Brussels 2002. Kenneth J. Klassen, Jeffrey A. Pittman, Margaret P. Reed, A Cross-National Comparison of R&D Expenditure Decisions: Tax Incentives and Financial Constraints, 2003. Technopolis, Benchmarking Mechanisms and Strategies to attract Researchers to Ireland. A study for the Expert Group on Future Skills Needs and Forfás, Final Report, February 2001. Tera Allas, Insights from international benchmarking of the UK science and innovation system, BIS Analysis Paper Number 03, January 2014. The Danish Centre for Studies in Research and Research Policy, A comparative study of dynamic elements in Canadian, Irish and Danish research systems, 2004. Benchmarking w systemie szkolnictwa wyższego. Praca zbiorowa pod redakcją Jerzego Woźnickiego. Fundacja Rektorów Polskich, Warszawa 2008. James Arrowsmith, Keith Sisson and Paul Marginson, What can ‘benchmarking’ offer the open method of coordination?, “Journal of European Public Policy” 11:2 April 2004: 311–328. 2013 COMMISSION STAFF WORKING DOCUMENT. Country fiches Member States of the European Union. Accompanying the document REPORT FROM THE COMMISSION TO THE COUNCIL AND THE EUROPEAN 196 PARLIAMENT EUROPAN RESEARCH AREA PROGRESS REPORT 2013 {COM(2013) 637 final}, Brussels 20 9 2013 SWD(2013) 333 final EC, European Commission DG Research, Benchmarking national research policies: The Impact of RTD on Competitiveness and Employment (IRCE) A STRATA-ETAN Expert Group, [2002]. Claire Nauwelaers, Reinhilde Veugelers, Bart Van Looy, Benchmarking National R&D policies in Europe: Lessons for Belgium, 2003. EWALUACJA POLICY MIX (Policy mix evaluation) Instrumenty mogą albo wzajemnie wzmacniać się w ramach dobrze dobranego portfela, lub mogą dublować się, powodować wzrost biurokracji, być bardzo rozdrobnione i potencjalnie sprzeczne ze sobą. Pierwszy krok. Ocena dynamiki i wpływu pakietu programów i instrumentów wymaga, jako pierwszego kroku, odpowiedzi na pytanie, czy stosowany zestaw programów i instrumentów jest prostą sumą różnych narzędzi, czy też przemyślanym zestawem. Na podstawie porównania poszczególnych instrumentów należy zbadać, jakie istnieją relacje pomiędzy instrumentami oraz pomiędzy poszczególnymi grupami instrumentów (np. instrumentami tematycznymi i ogólnymi; instrumentami wzmacniającymi podstawy nauki, B+R biznesu i innowacji, powiązania nauki z przemysłem, zasoby ludzkie, itd.) – czy są one wobec siebie komplementarne, czy wzmacniają się wzajemnie, czy dublują się lub kolidują ze sobą; jaki wpływ na funkcjonowanie instrumentów polityki naukowej mają instrumenty innych polityk – ekonomicznej (finansowej, makroekonomicznej, podatkowej), konkurencyjności, handlu, innowacyjnej, przedsiębiorczości, edukacyjnej, zatrudnienia, rozwoju regionalnego, praw własności intelektualnej, ochrony konsumenta, obronnej, zdrowia, środowiska; jakie istnieją relacje pomiędzy instrumentami na różnych poziomach polityki – krajowym, unijnym i regionalnym? Czy ogólna równowaga pomiędzy instrumentami jest właściwa, czy też istnieje nadmiar pewnego typu instrumentów lub maja one zbyt wielką skalę? Czy poszczególne instrumenty są dobrze zaprojektowane dla rozwiązania problemu, który mają adresować? Czy struktura zarządzania instrumentami jest właściwa? Ocena powinna też brać pod uwagę m.in. zasady ewaluacji programów i instrumentów, informacje na temat postrzegania ich przez naukowców oraz różnice między dyscyplinami badawczymi. Jako punkt wyjścia ewaluacji byłoby użyteczne mieć dostęp nie tylko do danych zagregowanych dotyczących instrumentów finansowania, ale przede wszystkim danych w rozbiciu na dyscypliny i sektory instytucjonalne (szkoły wyższe, poza-uczelniane instytucje naukowe, biznes, organizacje non-profit), pochodzenia (publiczne, prywatne), typu (konkurencyjny, niekonkurencyjna) i celu (ogólne, ukierunkowane na rozwiązywania konkretnych problemów). 197 Drugi krok. Drugi etap polega na analizie indywidualnych i łącznych skutków różnych instrumentów w takich wymiarach publicznego sektora nauki, jak struktury, powiązania z przemysłem, umiędzynarodowienie, wyniki i dostępu do danych badawczych. Oznaczałoby to bardziej całościowe oceny wpływu programów i instrumentów na publiczny system nauki, wykraczający poza ocenę wpływu poszczególnych instrumentów i unikający ryzyka popadania w mechaniczne metody ilościowe (np. proste liczenie umów, patentów i publikacji). Na podstawie porównania poszczególnych instrumentów należy zbadać, czy pakiet instrumentów właściwie odpowiada na najważniejsze problemy systemu nauki i innowacji w perspektywie długofalowych celów rządowych; czy ogólny policy mix jest spójny, adekwatny, skuteczny i efektywny, czy też czy istnieją ważne problemy, których istniejące instrumenty nie podejmują? Możliwe wskaźniki obejmują: i) Struktura: ewolucja wielkości (liczby naukowców, liczba instytucji) i kompozycji (instytucji, stażu pracy) grup badawczych ubiegających się i korzystających z instrumentów; ii) Powiązania z przemysłem: liczba i wielkość zamówień badawczo-rozwojowych i doradczych, wspólnie dzielone urządzenia (np. wspólne laboratoria), wspólne aplikacje patentowe, własność firm patentów publicznego sektora nauki, patentowe umowy licencyjne, współautorstwo publikacji naukowych, wspólne wnioski o fundusze, licencje na oprogramowanie, szkolenia doktorskie w firmach; iii) Umiędzynarodowienie: współpraca zagraniczna, międzynarodowa mobilność naukowców, studentów, zagranicznych doktorantów i postdoków; iv) Wyniki: publikacje naukowe w czasopismach o wysokim wpływie, liczba cytowań, liczba patentów międzynarodowych, liczba udzielonych patentów, honoraria z tytułu umów licencyjnych, liczby i trwanie firm odpryskowych; v) dostępu do danych i wyników badawczych: działalność cyfrowych repozytoriów instytucjonalnych, otwarty ruch wydawniczy, otwarty dostęp do artykułów naukowych oraz możliwość ponownego wykorzystania danych badawczych finansowanych ze środków publicznych. Bibliografia OECD IPP, Innovation Policy Platform, Issue Brief: Public Sector Research Funding. EWALUACJA POLITYKI NAUKOWEJ I INNOWACYJNEJ (Science and Innovation Policy Evaluation) Ewaluacja to zestaw działań generujących wiedzę dotyczącą zasadności, przebiegu i oddziaływania interwencji polityki publicznej. Ewaluacja jest zazwyczaj ukierunkowana na instrumenty, programy i polityki. Niekiedy ewaluacja odnosi się nie do interwencji pu198 blicznej, lecz do organizacji publicznej (np. uniwersytetu czy laboratorium rządowego), sektora publicznego lub też innych jednostek, utrzymywanych w całości lub częściowo z pieniędzy podatnika. Ewaluacja jako nieodłączny element działalności administracji rządowych w krajach rozwiniętych gospodarczo sięga lat 1950-tych (choć sporadyczne ewaluacje przeprowadzano także w II poł. XIX w.). Historia ewaluacji. Choć ewaluacja badań naukowych ma wielowiekową tradycję, stała i systematyczna ewaluacja programów i instrumentów politycznych w sferze N+T oraz organizacji badawczych, finansowanych z budżetu państwa, jest świeżej daty (II poł. lat 1970-tych – lata 1980-te). Wiąże się ona z modernizacją administracji rządowej oraz z przemianami funkcji badań naukowych i technologicznych. W porównaniu z innymi obszarami polityki, praktyki ewaluacji polityki N+T+I są stosunkowo świeżej daty: w Stanach Zjednoczonych od końca 1960 roku, w Europie w latach 1970., choć ocenę >Peer Review wniosków grantowych rozpoczęto znacznie wcześniej. Problem ewaluacji polityki naukowej dostrzeżono stosunkowo późno w porównaniu z innymi dziedzinami: pod koniec lat 1960. praktyki i metody ewaluacji były już dobrze znane w polityce oświatowej i społecznej. Obecnie ocena polityki N+T+I stała się jednym z najważniejszych obszarów zainteresowania decydentów. Nowe Zarządzanie Publiczne w latach 1980 zwiększyło presję na ewaluacje [Molas-Gallart 2005]. Ewaluacja >POLITYKI NAUKOWEJ I INNOWACYJNEJ stała się standardem w krajach UE i OECD. Np. w Austrii zaczęto ją przeprowadzać od roku 1991. W roku 1996 założono Research and Technology Policy Evaluation Platform, skupiającą ministerstwa, agencje, instytucje naukowe i think tanki zainteresowane zagadnieniami ewaluacji; dotychczas przeprowadzono ok. 180 ewaluacji. Ewaluacja polityki naukowej i innowacyjnej dostosowuje się – choć z opóźnieniem – do zmieniających się koncepcji badań, innowacji oraz polityki. W ostatnich latach rozwinięto tzw. systemowe podejście do ewaluacji, idące w ślady systemowego podejścia do badań, innowacji i polityki. Systemowe podejście do ewaluacji kładzie nacisk na kwestie uwarunkowań instytucjonalnych, powiązań pomiędzy stronami (ponad-graniczne i ponad-instytucjonalne sieci współpracy) oraz możliwości technologicznych, społecznych i gospodarczych [Molas-Gallart 2005]. Owocem zmian są w szczególności ewaluacje >Policy Mix oraz – do pewnego stopnia – >OCENY WPŁYWU BADAŃ, które w ostatnich latach wysunęły się na czoło ewaluacji polityki naukowej i innowacyjnej. Cele i motywy ewaluacji. Ewaluacja dostarcza wiedzy o skuteczności i efektywności polityk zrealizowanych (ewaluacja ex post), realizowanych (ewaluacja mid term) lub planowanych (ewaluacja ex ante) w celu kształtowania i uzasadniania przyszłych interwencji. Stwarza ona szansę wspólnego refleksji interesariuszy – szczególnie polityków, użytkowników i beneficjentów – nad ocenianymi politykami, czyli uczenia się, jak robić lepszą politykę i lepsze ewaluacje. Jest także narzędziem rozliczania (ang. accountability). Z punktu widzenia accountability ma ona wyjaśnić, w jaki sposób zostały wykorzystane środki publiczne, jakie przyniosły one efekty i jak uzasadnia się ich użycie. Ewaluacja to także środek legimityzacji, pomoc w ustaleniu >PRIORYTETÓW POLITYKI, na- 199 rzędzie podziału funduszy, metoda zarządzania, która służy ulepszaniu realizacji już podjętych decyzji oraz decyzji, które mają być podjęte w przyszłości. Istnieje zasadnicza zgoda, że wszystkie interwencje polityczne powinny być poddawane ewaluacji. Jednak powstaje problem gdy trzeba decydować: • Kiedy jest właściwy czas, aby przeprowadzić ocenę? • Jaki jest właściwy poziom agregacji, np. dla oceny na poziomie projektu, programu, polityki, Policy mix, organizacji lub systemu B+R i innowacji? • Jakie kryteria oceny powinno się stosować? Pytania te często rozstrzyga się w zgodzie z potrzebami decydentów i/lub zarządzających programami. Ewaluacje ex ante, w połowie okresu (ang. mid term) lub ciągłe (ang. ongoing) i ex post odgrywają ważną rolę w >CYKLU POLITYKI; różne rodzaje pytań można podnosić i różne kryteria stosować na różnych poziomach ewaluacji. Ewaluacje ex-ante i ex-post służą różnym celom i są komplementarne. Ewaluacja ex-ante stanowi część przygotowania interwencji i dąży do oceny skuteczności przyszłych instrumentów politycznych. W jej ramach zbiera się informacje i przeprowadza analizy, które mają pomóc określić cele interwencji oraz zapewnić, że cele zostaną spełnione, a instrumenty – opłacalne. Ewaluacja ex ante buduje jednocześnie podstawy pod ewaluację ex post. Cele oceny ex post można podsumować w następujący sposób: • Ocenić skuteczność, stosunek kosztu do jakości, efektywność i zasadność interwencji • Stworzyć możliwość refleksji i przedstawienia propozycji ulepszeń ocenianej polityki. • Zapewnić decydentom i menedżerom podstawę >ROZLICZALNOŚCI (ang. accountability) [OECD 2011]. Początkowy etap ewaluacji polega na określeniu zakresu ewaluacji, jej celów, przedmiotu i kryteriów oceny. Prace te najlepiej przeprowadzać w porozumieniu z wielu różnymi zainteresowanymi stronami. W niektórych sytuacjach parametry ewaluacji są określone przez prawo. Niezbędnym elementem tego etapu jest ustalenie (zapisanej lub zrekonstruowanej przez ewaluatorów) >LOGIKI INTERWENCJI polityki (instrumentu, programu) [OECD IPP 2013]. Z punktu widzenia ogólnego zarządzania systemem badawczym ewaluacja pełnie dwie funkcje. Z jednej strony jest „narzędziem sterowania”, to znaczy instrumentem organizowania i zarządzania badaniami. Z drugiej strony, wraz z funkcją sterowania, może ona pełnić funkcję dystrybucyjną, czyli być stosowana do przydzielania różnych rodzajów nagród i zasobów różnym rodzajom podmiotów - osobom, grupom lub organizacjom. Zachęty te mogą być ekonomiczne (dotacje, premie wynagrodzenia) i/lub symboliczne (reputacja i prestiż)[Cruz-Castro 2006]. Same przez się ewaluacje nie gwarantują, że w ich następstwie oceniane programy staną się bardziej skuteczne, a w konsekwencji poprawią się w parametry obszaru interwencji (np. publicznego sektora nauki, działalności innowacyjnej przedsiębiorstw); wszystko 200 zależy od tego, jak przeprowadzi się ocenę i jakie wyciągnie wnioski praktyczne z jej ustaleń. Ewaluacje stoją przed tymi samymi wyzwaniami, jak same polityki: dotyczą złożonych zjawisk, obejmujących wiele zagadnień i instytucji. Ewaluacja polityki naukowej i innowacyjnej jest trudna, ponieważ polityka ta ma wiele celów, ponieważ powiązania pomiędzy wkładem a rezultatami, efektami i wpływami są pośrednie i złożone, a charakter oddziaływania polityki na badania jest często nieoczekiwany i długoterminowy. Politycy żądają od ewaluatorów szybkiej informacji oraz jednoznacznego powiązania decyzji z efektami; ewaluatorzy przekonują ich, że potrzeba lat, aby badania przyniosły efekty, a model liniowy jest tylko szczególnym przypadkiem. Jednak rządy starają się zaradzić trudnościom: zlecają „meta-ewaluacje” (ewaluacje ewaluacji), wprowadzają ujednolicone ramy prawne, publikują standardowe procedury, czasami wzmacniają koordynacje pomiędzy instytucjami przeprowadzającymi ewaluacje, czasami powołują specjalne agencje ds. ewaluacji. Typy. Zazwyczaj ewaluacje dzieli się wg kryterium czasu (ex ante, interim, ex post), typu pytań (np. wkład, cel, produkt, proces, wpływ), obiektu, faktu, czy wyniki ewaluacji są wykorzystywane do określenia wielkości finansowania itd. Często stosuje się podział na ewaluacje „kształcące” lub „formujące” (ang. formative evaluation) oraz na „osądzające” (ang. summative evaluation) – te pierwsze służą ulepszaniu polityki, te drugie – wyrokowaniu. Pytania stawiane w ewaluacji. W dziedzinie nauki i innowacji ewaluacji podlegają projekty, organizacje (agencje grantowe, uczelnie, poza-uczelniane instytuty badawcze), programy i instrumenty, a nawet całokształt systemu B+R i innowacji oraz całość polityki (tzw. ocena >POLICY MIX, „mieszanki polityki”). Ewaluacje polityk (programów i instrumentów) starają się ustalić wkład, produkty oraz tzw. dodatkowość (behavioural additionality) interwencji, czyli np. odpowiedzieć na pytanie, w jakim zakresie uzupełnia ona, a w jakim zastępuje działania biznesu (np. zachęty podatkowe, kwestia o większym znaczeniu w krajach zaawansowanych), oraz jaki wywiera wpływ i na czym ten wpływ polega. Pod pojęciem wpływu rozumie się bezpośrednie i długofalowe oddziaływanie zarówno na samą naukę, jak i na świat zewnętrzny (np. wzrost współpracy badawczej, poprawa jakości badań, zwiększenie zatrudnienia itd.). Najczęściej zadaje się pytania dotyczące produktu, procesu (działań), efektu i wpływu oraz powiązań: potrzeb z produktem/efektem/wpływem (użyteczność), potrzeb z celem (stosowność), celów z produktem/efektem/wpływem (skuteczność), działań z produktem/efektem/wpływem (efektywność). Rozszerzona lista pytań dotyczy m.in. następujących kwestii: Kryterium Pytanie Stosowność Czy podjęcie działania było uzasadnione? Odpowiedniość Czy cele działania służyły rozwiązaniu problemu, jaki został przed nim postawiony? Spójność Czy logika interwencji nie była sprzeczna z innymi interwencjami po- 201 dejmowanymi w podobnych celach? Ekonomiczność Czy działanie okazało się tańsze niż zakładaliśmy? Czy kosztowało mniej niż oczekiwano? Efektywność (wydajność) Czy działanie spełniło nasze oczekiwania? Produktywność Czy produkt (efekt, wpływ) wart był zainwestowanego weń wkładu? Sprawność procesowa Czy działanie przebiegło sprawnie? Umiejętności Jakie kwalifikacje posiadali wykonawcy i czy były one na miarę wykonywanych przez nich zadań? Skuteczność Czy cele programu zostały osiągnięte? Jaki jest zwrot z inwestycji (return on investment, ROI)? Czy uzyskany zwrot z inwestycji odpowiada zakładanemu? Jakość Jak wartościowy jest wynik (output)? Jak dobre są efekty? Użyteczność Czy produkt-efekty-wpływ działania rozwiązał problem lub zaspokoił potrzebę? Trwałość Czy efekty trwają w horyzoncie średnio-i-długo terminowym? Konsystencja Do jakiego stopnia pozytywne / negatywne skutki pośrednie w innych obszarach polityki gospodarczej, społecznej i środowiskowej zostały zmaksymalizowane / zminimalizowane? Alokacja zasobów / Efekty dystrybucyjne W jakim stopniu negatywne/pozytywne skutki dystrybucyjne polityki zostały zminimalizowane/zmaksymalizowane? Dodatkowość Co się wydarzyło poza i ponad to, co by się wydarzyło bez podjętego działania? Zastąpienie Co się nie stało, a co by zaszło, gdyby nie oceniane działania? Ulepszenia procesu W jaki sposób można by to robić lepiej? Delanghe 2013; European Commission 2004; Guy 2000; Pollit 2000; Evaluating 1999; Arnold 1997 Pytania stawia się w Ocenie Wpływu oraz w Ewaluacjach Polityk w następujący sposób: Odpowiedniość Spójność Ekonomiczność Efektywność Produktywność Trwałość Użyteczność Konsystencja Efekty dystrybucyjne Ex-ante ewaluaOcena okresowa cja/ocena wpływu X X X X X X X X X X X X X Ewaluacja ex post X X X X X X X Ocena wpływu expost X X X X X Gdy to możliwe, dla każdego modułu dobiera się odpowiednie wskaźniki, np.: • produktu działalności badawczo-rozwojowej (publikacje, patenty, raporty, prototypy, produkty, procesy, usługi, standardy, cytowania, uzyskane nagrody, widza i umiejętności). 202 • efektu – produkty działalności badawczo-rozwojowej przekształcone przez sektorze gospodarczym w nowe produkty, materiały, procesy, a w sektorze publicznym w nowe prawa, metody nauczania, leczenia, przesyłu energii, transportu itd. • wpływu – wpływ naukowy i technologiczny: nowa wiedza; kultura współpracy; powstanie sieci; reputacja; wpływ ekonomiczny: długofalowe efekty, które pociągnęły za sobą wzrost gospodarczy; konkurencyjność przemysłowa; innowacje; wzrost zatrudnienia; wpływ społeczny: poprawa jakości życia, spadek śmiertelności; rozwój społeczny; wpływ polityczny: wkład do polityk; zmiana ustaw [EU 2002; Geisler 1996]. Dodatkowość. Wśród pytań stawianych podczas ewaluacji szczególne znaczenie mają pytania dotyczące dodatkowości polityki, tzn. rozważenia, w jakim stopniu pożądane efekty wystąpiłyby bez interwencji publicznej. Istnieją różne formy dodatkowości, a mianowicie: iv) dodatkowość wkładu – w jakim stopniu interwencja jest uzupełnieniem lub substytutem wkładów zapewnianych przez rynek lub inne podmioty (np. przez środki własnych firm). v) dodatkowości efektów – jaka proporcja efektów została stworzon bez interwencji publicznej. vi) dodatkowość zachowania – jaka jest różnica w zachowaniu grupy docelowej interwencji publicznej w porównaniu ze stanem sprzed interwencji lub w porównaniu z podobną grupą, która nie była przedmiotem interwencji. Nacisk na dodatkowość rodzi pytania wokół możliwości jednoznacznego przypisania zaobserwowanych rezultatów do interwencji publicznej. Istnieją dwie przeciwstawne tendencje: po pierwsze, tendencja do przeszacowania, w której wyniki, które są w rzeczywistości kumulatywne i zależą od wielu czynników są całkowicie (albo w przeważającej większości) przypisane do interwencji, a po drugie tendencja do niedoszacowania z powodu niewłaściwego horyzontu oceny (gdy wyniki nie mogły jeszcze wystąpić lub wystąpiły tak dawno temu, że beneficjenci nie mogli ich przypisać do interwencji publicznej). Znajomość tych tendencji jest ważna nawet w przypadku gdy problemy jakie stwarzają nie mogą być w pełni rozwiązane [OECD IPP 2013]. Metody. W ewaluacji stosuje się wiele różnych metod (Por. >METODY EWALUACJI B+R FINANSOWANYCH ZE ŹRÓDEŁ PUBLICZNYCH). Najbardziej popularne są badania ankietowe, wywiady, analiza statystyczna i analiza dokumentów, analiza porównawcza, panel ekspertów i studia przypadku. Wszystkie metody mają swoje zalety i ograniczenia, które powinny być w pełni rozpoznane przed przystąpieniem do oceny [OECD IPP 2013]. Choć ewaluacje sięgają po metody nauk społecznych, często nie są same uznawane za badania naukowe (choć czasami określa się je jako gałąź stosowanych nauk społecznych). W procesie kształtowania polityki i zarządzania programem ewaluacja to tylko jedno ze źródeł informacji wśród wielu innych. Wykorzystanie wyników ewaluacji jest często pośrednie. Jeśli ewaluacja jest otwarta i ma charakter partycypacyjny, korzyść odnosi większa grupa osób. 203 Inicjatorzy. Ewaluacja albo ma charakter odgórny, albo oddolny. Inicjatorami ewaluacji odgórnej są organa rządowe (ministerstwa, agencje technologiczne), organizacje działające w ich imieniu (rady ds. badań), lub też specjalne agencje ds. ewaluacji (np. Comité National d`Évaluation de la Recherche oraz Comité National d` Evaluation des Universités we Francji, Agencia Nacional de Evaluación y Prospectiva (ANEP) w Hiszpanii). Inicjatorami oddolnej ewaluacji są organizacje badawcze, jak uniwersytety czy laboratoria rządowe. Ewaluacje przeprowadza się na mocy ustaw (np. w Stanach Zjednoczonych) lub jako część rutyny, jako follow-up kontraktu lub ad hoc. Ewaluatorami są zespoły powołane ad hoc, krajowi eksperci z ocenianej dziedziny (peers), eksperci krajowi wspólnie z zagranicznymi lub tylko eksperci zagraniczni, specjalnie do tego celu powołane organy względnie prywatni kontraktorzy (zawodowi ewaluatorzy ze świata nauki oraz konsultingu) czy wreszcie odrębne instytucje publiczne. Wiele ewaluacji przeprowadzają komórki wewnątrz danej organizacji, oceniając głównie administracyjne, menedżerskie i finansowe aspekty działań. Gdy tylko można, łączy się ewaluację wewnętrzną i zewnętrzną, co pozwala na większy obiektywizm i niezależność ocen. Ewaluatorzy to najczęściej: • zespoły powołane ad hoc, • krajowi eksperci z ocenianej dziedziny (peers), • eksperci krajowi wspólnie z zagranicznymi • tylko eksperci zagraniczni, • specjalnie do tego celu powołane organy • prywatni kontraktorzy (zawodowi ewaluatorzy ze świata nauki oraz konsultingu) • odrębne instytucje publiczne. • komórki wewnątrz danej organizacji (w Polsce z reguły jest to tylko wąsko pomyślany audyt), oceniając głównie administracyjne, menedżerskie i finansowe aspekty działań. Gdy tylko można, łączy się ewaluację wewnętrzną i zewnętrzną, co pozwala na większy obiektywizm i niezależność ocen. Zbiorcze ujęcie ewaluacji polityki innowacyjnej w Europie. Na podstawie ankiety stworzono zbiorczy opis ewaluacji polityki innowacyjnej w Europie. Na podstawie różnych charakterystyk 171 ewaluacji opisanych w repozytorium INNO-Appraisa pogrupowano je w trzy główne klastry: Wymiary ewaluacji Klaster 1: wsparcie Klaster 2: werdykt Klaster 3: ujęcie całościowe Typ Interim (68%) Ex post (82%) Ex post (75%) Cel Kształcąca Osądzająca Obie Planowanie Przewidywana i planowana Rzadziej przewidy- Przewidywana i plawana i planowana nowana Prowadzone przez Eksperci (98%) Eksperci zewnętrzni Zewnętrzni (90%) (46%), ale także wewnętrzni (36%) i mie- zewnętrzni 204 szani (18%) Kryteria Efektywność programu (85%) spójność (83%/87%) spójność / komplementarność (74%) i rozwój polityki / strategii (74%) Głównie rezultaty (64%), osiągnięcie celu (55%), dodatkowość (55%), wewnętrzna spójność (9%), skuteczność realizacji projektu (9%) i rozwój polityki/strategii (9%) Wiele tematów: osiągnięcie celów (100%), rezultaty (100%) jakość (80%), wszystkie rodzaje dodatkowości (90%), ale także spójność (zewnętrzna (80%), wewnętrzna (70%), realizacja programu i rozwój polityki/strategii (70% każda) Wpływ Ocena wpływu ważna (89%), ale rozpatrywany tylko wpływ technologiczny i gospodarczy (około 50% każdy) Ocena wpływu rzadziej stosowana (64%), ale ważna. Głównie wpływ gospodarczy (połowa ewaluacji) Wyraźnie koncentruje się na wpływie (100%), wszystkie zajmują się wpływem gospodarczym, 75% wpływem technologicznym, 60% wpływem społecznym Podejścia metodologiczne i źródła danych Jakościowe metody i źródła ważna; wywiady (94%) i grupy dyskusyjne (60%) analiza dokumentów (60%) i analiza kontekstu (72%); badania uczestników (77%) analizy oparte na istniejących badaniach / bazach danych (68%) Tylko kilka metod głównie ilościowe (analizy ekonometryczne (55%), grupy kontrolne (55%), kontr-faktyczne (64%), analizy statystyczne (46%), badania uczestników (46%). Wiele metod stosowanych, wywiady (90%), badania ankietowe uczestników (90%), analizy oparte na istniejących danych statystycznych (70%), studia przypadków (40%), analizy kontekstu (55%), porównanie wkładu z rezultatami (20%), metoda grup porównawczych przed /po (10%), analiza kosztów / korzyści (35%). Typ miary Środki dyfuzji innowacji (40%) i absorpcji (25%) 2/3 to bezpośrednie Nacisk na współpracę wsparcie finansowe nauka-przemysł sieci (45%), sieci (35%) i firmy odpryskowe (20%) Edler 2012 Inicjowanie, adaptowanie i rozwój ewaluacji. Najczęściej ośrodkami nie tylko rozwoju metodologii ewaluacji w dziedzinie nauki i techniki, ale także jej edukacji i upowszechniania były narodowe organa rządowe i parlamentarne, Unia Europejska, oraz 205 organizacje międzynarodowe, takie jak UNDP, UNIDO i OECD, np. w Japonii Komitet Wytycznych Ewaluacji Badań działający pod egidą Rady ds. Badań i Technologii (1988), we Francji Parlamentarne Biuro Ewaluacji Wyborów Naukowych i Technologicznych (1991),w Wielkiej Brytanii Krajowe Biuro Audytu oraz Ministerstwo Handlu i Przemysłu (1997) itd. M.in. UNDP opracował Podręcznik Polityki i Procedur (Policy and Procedures Manual) zawierający rozdział pt. Evaluation and Reporting. Opracowany w Komisji Europejskiej Good Practice Guidelines for the Management of the Commission`s Evaluation Function¸ 2000, nakazuje organom Komisji sporządzanie planu ewaluacji. Plan, zatwierdzany przez Dyrekcję Generalną jako integralna część Rocznego Planu Pracy, powinien antycypować przyszłe priorytety polityczne oraz potrzeby operacyjne, a przy tym być realistyczny. Brytyjskie Ministerstwo Przemysłu i Handlu opracowało „ROAME (Rationale, Objectives, Appraisal, Monitoring, Evaluation) Guidance for Collaborative Research and Development”. Ewaluacja a formy pokrewne. Ewaluację odróżnia się od form pokrewnych: monitoringu, audytu, sprawozdawczości itd.. Różnice pomiędzy ewaluacją a niektórymi innymi mechanizmami ujmuje następująca tabela: Różnica pomiędzy ewaluacją a innymi mechanizmami opartymi na feedbacku Opracowania kowe nau- Ewaluacja kładzie nacisk na praktyczne wykorzystanie informacji Tradycyjny audyt Ewaluacja ocenia wydatki publiczne z szerszego punktu widzenia (bierze także pod uwagę pytania, czy cele programu są właściwe oraz czy zostały skutecznie i efektywnie osiągnięte). Monitoring Ewaluację przeprowadza się jako przedsięwzięcie jednorazowe. Podczas ewaluacji poszukuje się bardziej wnikliwych informacji dotyczących badanego programu. Przy tym istnienie systemu stałego monitoringu to często podstawa pomyślnej ewaluacji. Pomiar dokonań (Performance indicators) Ewaluacja bada nieraz oceniany obiekt za pomocą tych samych kategorii (np. jakość, efektywność), ale stara się osiągnąć więcej próbując znaleźć wyjaśnienie dla osiągniętych wyników i zrozumieć logikę działania publicznego. Benchmarking Benchmarking ma węższe znaczenie. Jest jedną z metod oceny organizacji. Ewaluacja może sięgać po tę metodę. Analiza polityki Ewaluacja kładzie nacisk na ocenę ex post. Analizę polityczną określa się nieraz jako ewaluację ex ante w badaniu przyszłych opcji politycznych. OECD (1999) Audyt ma dłuższą tradycję od ewaluacji. Jego celem jest sprawdzenie zgodności z prawem oraz prawidłowości gospodarki finansowej, ustalenie, czy przepisy i procedury były przestrzegane. Ewaluacja jest z reguły bardziej elastyczna. Wykonawcami jej są często nie tylko upoważnieni licencjonowani eksperci, ale także interesariusze. Procedury ewaluacji zależą z reguły w większym stopniu od wstępnych ustaleń wykonawców. Dla właściwego wyboru strategii ewaluacji od przyszłych wykonawców ewaluacji oczekuje się zrozumienia kontekstu (dlaczego i dla kogo zlecono ewaluację), uzasadnienia i zadań. Nie ma żadnych złotych recept ewaluacji i na ogół sądzi się, że (biorąc pod uwagę swoi206 stość każdego ocenianego obiektu) cele, zadania i metody powinny być otwarcie dyskutowane przed ich podjęciem. W przeciwieństwie do audytu, ewaluacja jest wykorzystywana bardziej jako narzędzie zarządzania programami niż dla publicznej accountability. Mimo tych wszystkich różnic granice między tymi dwiema formami kontroli zacierają się. Tradycyjny audyt finansowy jest często uzupełniany o audyt efektywności. Audyt dokonań (performance audit) jest bliski ewaluacji. Z kolei zarządzanie dokonaniami (performance management) jest młodsze od ewaluacji i niekoniecznie ją obejmuje. Rozwinięto je nawet w reakcji na dostrzegane braki ewaluacji. Zawiera ono krytyczną ocenę procesów zarządzania. Jego realizacja leży w obowiązkach menedżerów, podczas gdy przeprowadzenie ewaluacji powierza się wszystkim zewnętrznym ekspertom. Monitoring, wyczerpujące i regularne sprawdzanie zasobów, efektów i rezultatów interwencji publicznej, oparty jest na takich źródłach informacji, jak raporty, przeglądy, bilanse, wskaźniki itp. Monitoring przeprowadzają najczęściej organizacje odpowiedzialne za interwencję publiczną. Podobnie jak ewaluacja, monitoring jest traktowany jako narzędzie doskonalenia działalności. Ewaluacja morze korzystać z benchmarkingu. Benchmark to po angielsku miara, kryterium. Benchmarking to „miarowanie”. Menedżerowie nieraz rozumieją benchmarking jako technikę bliską „mapowania procesu”, t.j. analizowania procesów pracy i ich ulepsznia przez porównywanie ze wzorcowymi praktykami procesów pracy w innych organizacjach. Inni menedżerowie rozumieją benchmarking jako działalność polegającą na porównywaniu rezultatów osiąganych przez podobne organizacje. Benchmarking procesów odnosi się do działań stosowanych dla przetwarzania „wkładu” w „rezultaty”. Benchmarking rezultatów obejmuje ocenę działań organizacji na podstawie wskaźników dokonań (performance indicators), nie tyle standardów (tj. ideałów lub norm), co miar sprawności i efektywności (np. wielkość eksportu). Benchmarking umożliwia personelowi ocenę w stosunku do innych (bądź innej organizacji, bądź też innego działu tej samej organizacji). Benchmarking procesów może prowadzić do pytań dotyczących zadań organizacji. Benchmarking rezultatów – do pytań dotyczących różnic w efektywności. Benchmarking musi uwzględniać cele organizacji, cechy klientów itd.. Aby był skuteczny, organizacja musi uznać, że istnieje wiele źródeł poprawy efektywności, wliczając w nie porównanie z nawet bardzo różnymi organizacjami (np. szpitala z hotelem). Benchmarking pozwala organizacjom lepiej zrozumieć procesy wiodące do osiągnięcia zakładanego rezultatu. Krytyczne czynniki sukcesu benchmarkingu i ewaluacji są podobne – udział klientów, ostrożna selekcja wskaźników dokonań oraz ocena skuteczności stosowanych metod. Trendy w rozwoju ewaluacji B+R finansowanych ze źródeł publicznych 1950 2000 Program, organizacja + Polityka Ocena jakości naukowej Relewantność, wpływ, efekty systemowe Ocena jakościowa (w skali) + Ocena ilościowa Zróżnicowane praktyki krajowe Wzorcowe praktyki 207 Fragmentaryzacja Standardy Izolowane ewaluacje System ewaluacji Jedna prosta metoda „Zestaw narzędzi” Ewaluacja Integracja: ewaluacja, statystyka, foresight... Polityka B+R Polityka innowacyjna Dobre praktyki. Czynniki sukcesu ewaluacji: • Dobrze od samego początku określony cel i zakres ewaluacji, ale z wbudowaną elastycznością w celu dostosowania ich do pojawiających się ustaleń. • Zgranie ewaluacji z harmonogramem cyklu polityki. • Zaangażowanie wielu interesariuszy. Czynniki ryzyka: • Ewaluację przeprowadza się jako rytuał. • Wyniki ewaluacji stosuje się mechanicznie w podejmowaniu decyzji politycznych i finansowych, bez wprowadzania istotnych niuansów. • Ewaluację przeprowadzają niedoświadczeni praktycy. Wiele publikacji stara się sformułować wzory dobrej ewaluacji lub udzielić rad i wskazań, jak przeprowadzać ewaluację skutecznie. Podkreśla się np., że standardyzacja procedur ewaluacji zmniejsza jej czas i koszty i ułatwia porównania pomiędzy programami, że ewaluacja powinna być traktowana jako proces uczenia się, zarówno dla ocenianych, jak i dla oceniających, jako okazja zdobycia użytecznych, skądinąd nieosiągalnych informacji, że jej wyniki powinny by powiązane z procesem podejmowania decyzji, że np. ewaluacja szkół wyższych nie powinna zabijać kreatywności (np. wydział uniwersytecki powinien być oceniany jako ekosystem, habitat, środowisko, wg jakości życia, szans zdobywania doświadczenia, troski o wzrost, a nie jako maszyna do wytwarzania oczekiwanych wyników) itd. Zwraca się uwagę, że ewaluacje obok zamierzonego wpływu pociągają za sobą także skutki uboczne (np. wzmacniają najlepszych ponad należne zasługi, zaostrzają zatargi, podcinają motywacje). Wskaźniki ewaluacji powodują, że celem ocenianych staje się nie tyle osiągnięcie stanu postulowanego, co ich formalne wypełnienie. Dzięki dotychczasowym praktykom ewaluacji zebrano niezliczone doświadczenia. Jedna z nich stwierdza „malejący zwrot” z ewaluacji określonego typu (pomimo stosowania mechanizmów auto-korekcyjnych). Gdy dany typ ewaluacji jest powtarzany, maleje szansa na niespodziewane lekcje, nawet gdy nowe okoliczności przynoszą ze sobą nowe wyzwania. Pod wieloma względami ewaluacja badań, zwłaszcza podstawowych zorientowanych poznawczo, jest trudniejsza niż ocena innych działań ze względu na wielki stopień niepewności i ryzyka, jaki się z nimi wiąże. Oczekiwana od badacza oryginalność utrudnia sformułowania zasad oceny badań prowadzonych „na granicach poznania”. W żartobli208 wym powiedzeniu, że Kopernik i młody Einstein nie uzyskaliby nigdy od współczesnych grantu, kryje się wiele prawdy. Dziś Craig Venture nie dokonałby tylu odkryć genomu człowieka, gdyby sam nie finansował badań, którymi kierował. Życie jest prostsze dla ewaluatora, gdy przedmiotem jego zainteresowania jest prosty program, ściśle określony w czasie i z jasno zarysowanymi celami. Jednak np. koncepcja Europejskiej Przestrzeni Badawczej narzuca nowe wyzwania ewaluacji, takie jak np. większy nacisk na wartości społeczne i etyczne oraz większy nacisk na aspekty międzynarodowe (np. powiązania nauki z przemysłem nie tylko w granicach narodowych, rozwój B+R dla przyciągania i zatrzymywania zagranicznych inwestycji). Te nowe wyzwania zmuszają do adaptacji metod zarządzania przemysłem (benchmarking). Ewaluacja polityki naukowej w Polsce. W Polsce ewaluacja polityk nabiera w Polsce stopniowo coraz większego znaczenia, stając się elementem działań administracji publicznej. Obowiązek ewaluacji wynika zarówno z aktów prawa krajowego, jak i międzynarodowego. Od kilku lat ewaluację przedsięwzięć finansowanych ze środków unijnych zarówno na poziomie strategicznym, jak i operacyjnym (programów i instrumentów) rozszerza się u nas na inicjatywy finansowane ze środków krajowych. Inicjatorami zmian jest zarówno Kancelaria Premiera (m.in. program zrealizowany przez „Ernst & Young”), jak i Ministerstwo Administracji i Cyfryzacji oraz poszczególne resorty, szczególnie Ministerstwo Rozwoju Regionalnego oraz Ministerstwo Nauki i Szkolnictwa Wyższego. W celu przeprowadzania ewaluacji powołuje się odrębne jednostki w ramach ministerstw, agencji oraz instytucji administrujących środkami publicznymi na badania (np. Ministerstwo Nauki i Szkolnictwa Wyższego, Ministerstwo Gospodarki, Ministerstwo Rozwoju Regionalnego, PARP, NCBiR, NCN, Fundacja Nauki Polskiej, OPI). Powoli kształtuje się środowisko ewaluatorów polityki naukowej i innowacyjnej. Ewaluacja polityki naukowej staje się konieczna z powodu postępującej decentralizacji zarządzania nauką, wzrostu liczby jej instrumentów oraz wzrostu nacisku UE na stosowanie standardów administracyjnych. Wielka liczba instrumentów i ich administratorów nie pozwala na nieskoordynowane projektowanie nowych instrumentów bez zbadania skuteczności oraz wzajemnego wpływu już istniejących. Ewaluacje polityki naukowej – w Polsce stosunkowo od niedawna – są uzupełnieniem stosowanej znacznie dawniej ewaluacji badań naukowych (finansowanie statutowe, KEJN, finansowanie projektów badawczych oraz finansowanie blokowe na zasadach konkursu, KNOW). Rozwój prowadzonych w Polsce badań nad polityką naukową i innowacyjną, które jak dotąd są stosunkowo fragmentaryczne i nieskoordynowane, jest konieczne, jeśli ewaluacje polityki mają być dobre i skuteczne. Dylematy ewaluacji polityk. Rozwijanie ewaluacji polityk, a zwłaszcza ewaluacji programów i instrumentów, nie jest łatwe, gdyż wymaga wielu trudnych rozstrzygnięć i nie może polegać na prostym „zakupie technologii (ewaluacji) pod klucz”. 209 Wprowadzanie zasad efektywności w stosunku do badań naukowych finansowanych ze środków publicznych budzi do dziś w środowiskach naukowych sprzeciw, gdyż normy i wartości, którymi kierują się badacze, są z reguły przeciwne polityce i zarządzaniu. Istnieje realny dylemat, przed jakim stoją politycy i naukowcy, w jaki sposób zwiększyć efektywność badań naukowych i ukierunkować je silniej na potrzeby społeczne nie tracąc przy tym korzyści płynących z pozostawienia badaczom znacznej swobody w wyborze celów i metod badań. W badaniach naukowych (podobnie jak w działalności innowacyjnej) porażka jest najcenniejszym źródłem doświadczeń. Z drugiej strony, sukces badawczy i innowacyjny jest nieraz owocem łutu szczęścia, przypadku, koniunktury. Nie zawsze wiadomo jednak, w jaki sposób to uwzględnić w ewaluacji. Ewaluacje odnoszą się do stopnia realizacji celów programów i instrumentów, a cele mogą mieć ujemne skutki uboczne. Np. nacisk na kryteria akademickie może wzmacniać konserwatyzm środowiska naukowego oraz odciągać badaczy od dydaktyki i powiązań badań ze światem praktyki. Nacisk na konkurencję pomiędzy instytucjami może zabijać potrzebę i ducha współpracy. Dlatego tak ważna jest – oprócz ewaluacji poszczególnych narzędzi polityki – ocena je całokształtu. W ewaluacji programów i instrumentów, tak jak i w innych ewaluacjach, chodzi zarówno o formalną legitymizację, jak i o rozumienie. Jest ważne, żeby formalna legitymizacja (instrument został użyty odpowiednio, pieniądze nie zostały zmarnotrawione) nie zastąpiła rozumienia. Czasem uważa się, że legitymizację można oprzeć nawet na łatwo dostępnych wskaźnikach, zebranych w urzędzie, bez analizy ich znaczenia (co naprawdę mierzą, w jaki sposób korelują z innymi wskaźnikami, jakie czynniki mają na nie wpływ itd.) oraz uzyskanych wartości (w jaki sposób efekty programu wpłynęły na wskaźnik, czy istniała grupa kontrolna itd.). Wskaźniki łudzą obiektywizmem. Wydaje się, że wystarczy przyjąć pewną wartość bazową, różną od aktualnej, i założyć, że dzięki realizacji polityki (programu, instrumentu) wartość ta będzie się zmieniać – będzie rosnąć (np. udział polskich publikacji w puli światowych) lub spadać (np. śmiertelność niemowląt). Jednak związek pomiędzy interwencją a jej efektami bywa znacznie bardziej złożony. Nie zawsze pamięta się, że wskaźniki są wynikiem subiektywnych wyborów (np. jak liczyć publikacje autorów pochodzących z różnych krajów), a oprócz interwencji na efekty wpływa bardzo wiele innych nie zawsze łatwo uchwytnych i mierzalnych czynników. Dla zrozumienia, co czy instrument był potrzebny, czy słusznie ustalono jego cele, czy sformułowano odpowiednie zadania, czy administrowanie było właściwe, jakie rezultaty i efekty osiągnięto – potrzeba jednak czegoś więcej. Nie tylko dobrego użycia statystyk, ale także badawczości ewaluatorów, ich dociekliwości, wnikliwości, kreatywności, a nawet pewnej umiejętności eksperymentowania z metodami. Sięgnięcia jeśli trzeba nie tylko po metody ilościowe, ale i jakościowe – wywiady indywidualne i fokusowe, ankiety on-line itd. Podczas ewaluacji instrumentu ewaluatorzy powinni patrzeć szerzej niż na sam tylko instrument. Powinni także brać pod uwagę jego współgranie z innymi inicjatywami 210 (tzw. policy mix) oraz kwestię, w jaki sposób stosowanie instrumentu tworzy nową sytuację potrzebną dla osiągnięcia długofalowych celów polityki rządowej (np. poprawia kompetencje transferowe badaczy, potrzebne w perspektywie dościgania czołówki gospodarczej i technologicznej kraju). Ocena skupiona na samym tylko instrumencie może zaowocować opinią, że był skuteczny gdyż osiągnął założone cele, a zatem powinien być kontynuowany, podczas gdy w rzeczywistości spowodował on niekorzystną zmianę zachowań beneficjentów – np. instrument premiujący osiągnięcia badawcze uczelni osłabił prowadzoną przez nie dydaktykę. Metody ewaluacji nie powinny być przepisane z góry raz na zawsze, tylko dostosowane do przedmiotu i celu ewaluacji. Ewaluatorzy powinni mieć wpływ na dobór metod. W ten sposób ewaluacja wniesie wkład do >cyklu polityk. Bibliografia Amir Piric i Neville Reeve, Evaluation of public investment in R&D – towards a contingency analysis w: Policy evaluation in innovation and technology. Towards best practices, 1997 OECD. Chistopher Pollit and Geert Bouckaert, Public Management Reform, Oxford University Press. Dimitris Sotiriou, Current practice and guidelines in France, Italy and Greece, and in international organizations, w: Evaluation of Research and Development. Current Practice and Guidelines. Synthesis report, 1991. Erik Arnold, Ken Guy, Technology diffusion programmes and the challenge for evaluation, w: Policy evaluation in innovation and technology. Towards the best practices, OECD 1997. EU Anthony Arundel & Hugo Hollanders, Policy, Indicators and Targets: Measuring the Impacts of Innovation Policies, MERIT 2005. EU Evaluation of Innovation Activities. Guidance on methods and practices 2012. European Commission (2002), An RTD Evaluation Toolbox. European Commission (2006), Smart Innovation: A Practical Guide to Evaluating Innovation Programmes. Evaluating socio-economic programmes. Glossary of 300 concepts and technical terms, vol. 6, European Commission, Luxembourg, 1999. Evaluation of technology policy programmes in Germany, ed. Gerhard Becher, Stefan Kuhlmann, Dordrecht i in 1995. Evanthia Kalpazidoun Schmidt, Evaluation and science policy, w: The use of Evaluation in Europe, November 2002. Fteval, Standards Der Evaluierung In Der Forschungs- Und Technologiepolitik. Kommentierte Version. George Papaconstantinou, Wolfgang Polt, Policy evaluation in innovation and technology: an overview, 1997 w: Policy evaluation in innovation and technology. Towards best practices, 1997 OECD. INNO-Appraisal Understanding Evaluation of Innovation Policy in Europe. Final Report 2010. IPTS RTD-Evaluation Toolbox Assessing the Socio-Economic Impact of RTD-Policies, 2002. Irwin Feller, The academic policy analyst as reporter: the who, what and how of evaluating science an technology programs, w: Learning from Science and Technology Policy Evaluation, ed. by Philip Shapira, Stephan Kuhlmann, Edward Elgar, 2003. Jack Spaapen and Christian Sylvain, Societal quality of research. Toward a method for the assessment of the potential value of research for society, SPSG Concept Paper No. 13, 1994. Jakob Edler, Evaluation in Science and Technology Policy Introduction, Manchester, May 17 2010 211 Jakob Edler, Martin Berger, Michael Dinges and Abdullah Gök, The practice of evaluation in innovation policy in Europe, “Research Evaluation” 21 (2012) ss. 167–182. John Irvine, Evaluating Applied Research: Lessons from Japan, 1988. Jordi Molas-Gallart, Andrew Davies, Toward Theory-Led Evaluation. The Experience of European Science, Technology, and Innovation Policies, “American Journal of Evaluation”, Vol. 20 No. 10, 2005 ss. 1-18. Kalpazidou Schmidt, E. and K. Siune, The Use Of R&D Evaluations In European Science Policy. L.G. Georghiou, J.S. Metcalfe, Evaluation of the impact of European community research programmes upon industrial competitiveness, ”R&D Management” 23, 2, 1993. Laura Cruz-Castro and Luis Sanz-Menéndez, Research Evaluation In Transition: Individual Versus Organisational Assessment In Spain, Unidad de Políticas Comparadas (CSIC), October 2006. Learning from Science and Technology, Policy Evaluation, ed. by Philip Shapira and Stefan Kuhlmann, Proceedings from the 2000 US-EU Workshop on Learning from Science and Technology Policy Evaluation, Bad Herrenalb 2001. Leszek Korporowicz, Ewaluacja - zaproszenie do rozwoju, Internet. Luke George, Issues in the evaluation of innovation and technology policy, w: Policy evaluation in innovation and technology. Towards best practices, 1997 OECD. Luke Georghiou, Evaluation of research and innovation policy in Europe – new policies, new frameworks? w: Learning from Science and Technology Policy Evaluation, ed. by Philip Shapira, Stephan Kuhlmann, Edward Elgar, 2003, s. 65. Luke Georghiou, Research evaluation in European national science and technology system, “Science and Public Policy” vol. 5 no. 1. OECD (1999) Improving Evaluation Practices. OECD (2006), Evaluation of Publicly Funded Research: Recent Trends and Perspectives, w: STI Outlook 2006. OECD (2006), Government R&D Funding and Company Behaviour: Measuring Behavioural. OECD Assessing The Socio-Economic Impacts Of Public Investment In R&D, 2007. OECD Demand-side innovation policies Paris 2011. OECD Evaluation Of Publicly Funded Research Recent Trends And Perspectives (2006) OECD Evaluation of scientific research. The Netherlands 1997. OECD Government R&D Funding and Company Behaviour. Measuring Behavioural Additionality, Paris 2006. OECD RIHR Activity 1.2: Assessing The Role Of Impact In National Science And Research Systems 2013 OECD, Evaluation Of Public Investment In R&D: Methodological Aspects, 1997. Papaconstantinou George, Wolfgang Polt, Policy evaluation in innovation and technology: an overview, 1997 w: Policy evaluation in innovation and technology. Towards best practices, 1997 OECD. Paul Cunningham, Mark Boden, Steven Glynn, Philip Hills, Measuring And Ensuring Excellence In Government Science And Technology: International Practices, France, Germany, Sweden and the United Kingdom. Report prepared for the S&T Strategy Directorate, Industry Canada In support of the work of the Council of Science and Technology Advisers, PREST2001. Paul Jedamus, Marvin W. Peterson and Associates, Improving Academic Management. A Handbook of Planning and Institutional research, Jossey-Bess Publishers, 1989, s. 452-455. RAND Europe, Measuring research A guide to research evaluation frameworks and tools, July 2013 212 Rosalie Ruegg, Irwin Feller, A Toolkit for Evaluating Public R&D Investment Models, Methods, and Findings from ATP's First Decade, July 2003. S. Lahlou, R. van der Meijden, M. Messu, G. Poquet, F. Prakke, A Guideline for Survey-Techniques in Evaluation of Research, 1992. Science, Technology and Industry Outlook OECD 2012 Stefan Kuhlmann, Evaluation as a source of `strategic intelligence`, w: Learning from Science and Technology Policy Evaluation, ed. by Philip Shapira, Stephan Kuhlmann, Edward Elgar, 2003. Tamás Balogh, From peer review to portfolio analysis. Evaluation of applied research and development, mszp.. Technopolis, Evaluation of the design and implementation of Estonian RTDI policy: implications for policy planning, Final Report, December 2005. Terttu Luukkonen, Bertel Ståhle, Evaluation of research fields. Scientists` Views, 1993. The use of R&D evaluations in European science policy. Virginia Acha and Lucia Cusmano, Sharing Capabilities. Patterns of R&D co-operation in the upstream petroleum industry. Wilhem Krull, Current practice and guidelines in a selection of industrialized countries w: W. Krull, D. Sensi, D. Sotiriou, Evaluation of Research and Development. Current Practice and Guidelines. Synthesis report, 1991. EWALUACJA PROGRAMÓW NAUKOWYCH I TECHNOLOGICZNYCH Programy i instrumenty uznaje się za części składowe polityk. Są to narzędzia instytucji realizujących politykę publiczną, dzięki którym osiągają one cele i priorytety polityki. Programy i instrumenty opierają się na mobilizacji zasobów (finansowych, ludzkich, organizacyjnych), na informacjach (np. na planach strategicznych, upowszechnianiu wiedzy, koordynacji) oraz na aktach i przepisach prawnych. Instrumenty polityki mogą mieć formę pieniężną lub postać bonów, usług, przymusu, informacji lub perswazji. OECD proponuje następująca taksonomię programów naukowych i technologicznych: Tradycyjne programy oparte na współpracy zazwyczaj skupiają się na jednej kwestii lub temacie i są zarządzane przez specjalną organizację, która może być częścią ogólnej administracji nauki lub też może być albo agencją odpowiedzialną za szeroki zakres programów (np. szwedzka NUTEK) lub agencją jednej misji (jak francuski ADEME dla energii jądrowej). W latach 1980. ukształtował się inny zestaw programów opartych na współpracy odpowiadający odnowionej wizji technologii i procesów innowacyjnych. Jako przykłady tego rodzaju programów przytacza się brytyjski program Alvey (technologie informacyjne) oraz programy unijne ESPRIT (ICT), BRITE (nowe materiały i nowe technologie przemysłowe) lub RACE (komunikacja). Programy te mają trzy cechy: i) trwają określony czas, ii) mają za cel wsparcie istniejącej wcześniej sieci aktorów w zdobyciu przewagi konkurencyjnej na rynku międzynarodowym, oraz iii) skupiają się na badaniach podstawowych, technologiach, standardach i kompetencjach uznanych wspólnie za kluczowe. Jeszcze inny typ to programy oparte na procedurach. Programy te, odgrywające ważną rolę w polityce badań i innowacji we wszystkich krajach OECD, są adresowane w sposób ogólny do 213 konkretnych grup docelowych. Nie dotyczą one określonych problemów, tematów lub sektorów, ale wspierają wszystkie podmioty, które spełniają podane kryteria. Istnieją dwa rodzaje tego typu programów, rozróżnianych w zależności od charakteru podejmowania decyzji o przyznawaniu wsparcia. i) Przyznawanie automatyczne. Programy te wymagają jedynie kontroli ex-post przez władze publiczne. ii) Przyznawanie wybiórcze, na zasadach konkursu. Programy te są prowadzone przez specjalne agencje. Przykładem pierwszej grupy są zachęty podatkowe badawczych (Por. >EWALUACJE ZACHĘT PODATKOWYCH]. Przykładem drugiej grupy programy grantowe rad badawczych. Zróżnicowaniu typów programów odpowiada zróżnicowanie form ewaluacji. Por. >METODY EWALUACJI B+R FINANSOWANYCH ZE ŹRÓDEŁ PUBLICZNYCH. Ewaluacje agencji zob. >EWALUACJA EX-POST AGENCJI FINANSUJĄCYCH BADANIA NAUKOWE. Ewaluacje nowego typu programów opartych na współpracy. Jako wzór udanej ewaluacji cytuje się ocenę programu EUREKA. Uruchomiona z inicjatywy międzyrządowej w 1985 roku, EUREKA ma za cel zwiększenie europejskiej konkurencyjności poprzez wsparcie dla przedsiębiorstw, ośrodków badawczych i uczelni prowadzących paneuropejskie projekty dla opracowania innowacyjnych produktów, procesów i usług. Panel ekspertów skupił się na szczegółowych studiach przypadku wpływu społeczno-gospodarczego najbardziej udanych projektów EUREKI. Projekty te zostały zidentyfikowane za pomocą badań ankietowych i zapytań skierowanych do członków sieci EUREKA w każdym kraju. Zupełnie inaczej przeprowadzono ewaluację amerykańskiego Programu Zaawansowanych Technologii (US Advanced Technology Program). Niezależnie od wstępnej selekcji i monitorowania, efekty programu ocenia się w różny sposób. Istnieje system raportowania biznesowego, który śledzi postępy prac. System ten jest zestandaryzowany w celu ułatwienia analizy statystycznej. Ponadto zamawia się badania ankietowe w celu zbierania informacji i opinii firm uczestniczących w programie. Aby uzyskać szczegółową wiedzę na temat skutków ATP na poziomie firmy zamawia się również studia przypadków badające technologie w różnych fazach ich rozwoju. Badania mikroekonomiczne poszczególnych projektów łączy się ze stosowaniem modeli makroekonomicznych dla oceny wpływu całego programu. Prócz tego sięga się po szeroki pakiet metod – badania ankietowe, modelowanie koncepcyjne (opis koncepcyjny programu oraz dróg, dzięki którym może oddziaływać na sferę praktyki), analizy sieci, badania bibliometryczne. Okresowo zwołuje się sesje robocze czołowych ekonomistów kraju w celu omówienia modeli oceny, wyników oraz możliwości zmian metod ewaluacji i całego programu [OECD 2006; Smart 2006]. Końcowy raport zawiera następujące części: ♦ Streszczenie – które zazwyczaj koncentruje się na wnioskach końcowych. ♦ Wprowadzenie (kto zlecił, kto podjął się oceny, kiedy i dlaczego). ♦ Ewaluacja podstaw programu, jego uzasadnienia, celu i działań. ♦ Pytania ewaluacyjne. 214 ♦ Krótkie omówienie metod. ♦ Główne ustalenia - zazwyczaj ilustrowane wykresami. ♦ Przegląd najważniejszych ustaleń, zalecenia dla przyszłych programów i polityk (i ich ewalu- acji). ♦ Załączniki: szczegółowe informacje na temat metod i rezultatów [Smart 2006]. Bibliografia OECD Evaluation Of Publicly Funded Research: Recent Trends And Perspectives 2006. Smart Innovation: A Practical Guide to Evaluating Innovation Programmes, A Study for DG Enterprise and Industry, July 2006. EWALUACJA DYSCYPLIN NAUKOWYCH Ewaluację dyscyplin naukowych podejmuje na poziomie krajów przeprowadza się przede wszystkim w krajach nordyckich, w Niemczech, Irlandii, Holandii, Flandrii oraz w Wielkiej Brytanii i Stanach Zjednoczonych. Ewaluację przeprowadzają na ogół na zlecenie Rad Badawczych zagraniczni uczeni, którzy wizytują instytucje naukowe i przygotowują końcowy raport. Na ogół ewaluacje łączą metody ilościowe (bibliometria) i jakościowe (raporty „samooceny”, analizy dokumentów, wizytacje panelu ekspertów). W krajach nordyckich ewaluacje dyscyplin przeprowadza się albo oddzielnie w poszczególnych krajach, albo jednocześnie w dwóch lub we wszystkich krajach. W Danii ewaluacje przeprowadza, zleca i koordynuje Duńska Agencja ds. Nauki, Technologii i Innowacji, w Finlandii – Akademia Fińska; w Norwegii – Norweska Rada Badawcza; w Szwecji – odpowiednie dziedzinowe Rady Badawcze. Zazwyczaj ocenia się jakość badań w danej dyscyplinie, jej słabe i mocne strony, oraz potencjał rozwojowy. Sięga się po porównania między instytucjami oraz porównania międzynarodowe. Celem ewaluacji zazwyczaj jest międzynarodowej poprawa pozycji kraju. Ewaluację prowadzi się nie tylko jako wkład do strategii finansowania lub do przeprowadzenia korekt w istniejących strategii finansowania Rad, ale również jako wkład do prac nad priorytetami uniwersytetów i ministerstw [ESF]. Np. w Norwegii w ciągu 12 lat przeprowadzono następujących 16 ewaluacji: • • • • • • • Chemia (1997) Nauki o Ziemi (1998) Biologia, w tym biomedycyna (2000) Pedagogika (2004) Nauki technologiczne i inżynieryjne (2004) Filologia skandynawska (2005) Fizyka (2000) 215 • • • • • • • • • Matematyka (2002) ICT (2002) Językoznawstwo (2002) Nauki polityczne (2002) Medycyna i zdrowie (2004) Farmakologia (2006) Studia nad rozwojem (2007) Ekonomia (2007) Nauki Historyczne (2008) Norweska Rada Badawcza (NRB) • • • • wyznacza grupy badawcze, które mają być poddane ewaluacji decyduje o warunkach zamówienia wybiera metodę i przygotowuje podstawowe informacje powołuje komisję przetargową. SIWZ NRB obejmuje: • • • Cele Organizację oceny Mandat dla komitetu oceniającego: zbadanie jakości naukowa; trafności; współpracy (krajowej i międzynarodowej); organizacji badań; przywództwa. Metody ewaluacji obejmują: • • • • Statystykę Ocenę własną Bibliometrię Wysłuchania (analiza SWOT i dialog z badaczami). Raport końcowy przesyła się ocenianym. Mogą oni ustosunkować się do niego. Efektami ewaluacji były: • • • na poziomie ministerstwa – utworzenie norweskiego programu centrum doskonałości; nowe programy; wzrost nacisku na wspieranie przywództwa w badaniach na poziome rady - wprowadzenie w życie nowych >instrumentów polityki oraz utworzenie specjalnych funduszy na poziomie instytucji naukowych – reorganizacje, nowa współpraca badawcza [Helgesen 2008]. SIWZ dla ewaluacji chemii obejmował: • krytyczny przegląd mocnych i słabych badań chemicznych w Norwegii; • ocenę jakości naukowej badań podstawowych w chemii; 216 • identyfikację grup badawczych, które osiągnęły wysoki poziom międzynarodowy lub mają potencjał do osiągnięcia takiego poziomu; • identyfikację obszarów badań mających znaczenie dla przyszłości kraju, które powinny zostać wzmocnione [ESF]. Oprócz ewaluacji dyscyplin zarządzonych na szczeblu rządowym podejmują je także grupy uczelni, z użyciem metod bibliometrycznych (Scival Spotlight) i statystycznych, z naciskiem na poszukiwanie doskonałości badawczej nie tyle w dyscyplinowych instytucjach naukowych, co w zespołach badawczych, bez względu na ich dyscyplinowe afiliacje [The 1994 Group 2011]. Podejmuje się także próby ewaluacji dziedzin nauki na szczeblu europejskim [HERA 2007] lub ewaluację „wyłaniających się” dyscyplin na poziomie kraju (Quick Scan 2007]. Jednym z następstw ewaluacji dyscyplin jest wzrost zainteresowania zróżnicowaniem pojęcia jakości oraz zwrócenie uwagi na zróżnicowanie charakteru rezultatów badań w różnych dyscyplinach [Kekäle 2002; Huang 2008]. Bibliografia Nadine Rons et al., Research evaluation per discipline: a peer-review method and its outcomes, 2007. ESF Evaluation in National Research Funding Agencies. Gro E M Helgesen, Evaluating Research Fields/Disciplines in Norway, 2008. Jouni Kekäle, Conceptions Of Quality In Four Different Disciplines, “Tertiary Education and Management” 8: 65–80, 2002 The 1994 Group, Paul Wellings and Rachel Winzer, Mapping Research Excellence: exploring the links between research excellence and research funding Policy, September 2011. Mu-hsuan Huang and Yu-wei Chang, Characteristics of Research Output in Social Sciences and Humanities: From a Research Evaluation Perspective, “Journal Of The American Society For Information Science And Technology”, 59(11):1819–1828, 2008. HERA, Feasibility Study: The Evaluation And Benchmarking Of Humanities Research In Europe, August 2007. Quick Scan, Evaluation of Research in Context A Quick Scan of an Emerging Field, 2007. EWALUACJA INSTYTUCJI I GRUP BADAWCZYCH Grupy i instytuty badawcze publicznego sektora nauki są albo częścią organizacji badawczych zajmujących się badaniami podstawowymi, takich jak francuski CNRS lub niemiecki Max Planck Gesellschaft, albo instytucji ukierunkowanych na realizację misji, takich jak instytuty przemysłowe, rolnicze lub medyczne, czy wreszcie są częścią wydziałów uniwersyteckich lub działają jako międzywydziałowe centra badawcze. Ewaluacje bywają albo jednorazowe, dokonywane z pewnej szczególnej okazji, albo periodyczne. Jako przykład jednorazowej ewaluacji przytacza się ewaluacje w Max Planck Gesellschaft w procesie tworzenia nowego instytutu. Wiążą się one z wyborem komitetu peer 217 review przyszłego dyrektora, któremu następnie powierza się zadanie utworzenia instytutu, która ma istnieć aż do jego emerytury. Model ten realizuje także Riken w Japonii. Model periodyczny stosuje się we Francji. Tego rodzaju ewaluacje służą wspieraniu zmian strukturalnych w ramach jednostek. Instytuty INSERM powołuje się na 12 lat; coroczna otwarta rozmowa ma wspomagać odnowę. Dominuje trend przechodzenia z ewaluacji jednorazowych na periodyczne. Ten trend zmierza w dwóch kierunkach: 1. Umieszczanie ewaluacji w pracach nad budową strategii. Typowy przykład to INSERM i hiszpańska agencja badań CSIC. Instytuty obu organizacji opracowują oddolne plany strategiczne, wg jednolitego formatu. Panele tematyczne dokonują przeglądu planów, przeprowadzą wysłuchania ich dyrektorów oraz formułują zalecenia. 2. Między-dziedzinowe podejście do przydzielania dotacji podstawowych. Przykładem tego podejścia jest niemieckie Towarzystwo Helmholtza. HS wprowadziło konkurencyjny proces oparty na finansowaniu programów ukierunkowanych. Interdyscyplinarne programy są poddawane ocenie paneli składających się z ośmiu do dziesięciu członków, którzy spotykają się, aby przez kilka dni studiować pisemne propozycje. Następnie Senacka Komisja HS przeprowadza ocenę porównawczą programów. Z kolei zapewnia się stały monitoring wewnętrzny oraz okresowe przeglądy badań. Podejście to jest charakterystyczne dla nowego typu zarządzania, nie wg dziedzin lub regionów, tylko wg zbiorów działań. Przejście do okresowych ewaluacji nastąpiło m.in. przed laty w Norwegii, gdy większość poza-uczelnianych instytutów połączono w ramach Norweskiej Rady ds. Badań, oraz w Japonii, kiedy japońskie badawcze instytuty przemysłowe połączyły się w nowo utworzonym Instytucie Zaawansowanej Przemysłowej Nauki i Technologii (AIST). Innym przykładem jest niemieckie Stowarzyszenie Leibnitza, która niedawno przejęło od Rady Nauki (Wissenschaftsrat) odpowiedzialność za ewaluację swoich 80 instytutów, współfinansowanych przez rząd federalny i rządy krajów związkowych. W Stowarzyszeniu Leibnitza proces oceny składa się z dwóch faz. W pierwszym, ewaluację przeprowadza panel ekspertów opierający się odpowiedziach na kwestionariusz oraz wizytach terenowych. Sprawozdania panelu są podstawą drugiej fazy, w której komitet ewaluacyjny dokonuje oceny porównawczej instytutów. Nowe podejście do ewaluacji przez duże organizacje badawcze ich stałych jednostek naukowych ma następujące elementy wspólne: dotyczy mechanizmów alokacji funduszy statutowych; peer review w coraz większym stopniu opiera się na ekspertach zagranicznych; najważniejsze znaczenie mają wizyty, uzupełniane przez analizę dokumentów; ewaluacja służy podejmowaniu decyzji. Instytuty uniwersyteckie w coraz większej ilości państw oceniane na szczeblu narodowym przez ewaluacje oparte na pomiarze dokonań, por. >EWALUACJA INSTYTUCJI PUBLICZNEGO SEKTORA NAUKI OPARTA NA POMIARZE DOKONAŃ. Innym trendem w ewaluacji instytucji i grup badawczych są ewaluacje stosowane jako podstawa przydzie218 lania dużych wieloletnich dotacji dla >CENTRÓW DOSKONAŁOŚCI (Inżynieryjne Centra Badawcze NSF od 1980 r.; Sieci Centrów Doskonałości w Kanadzie; australijskie Cooperative Research Centres; szwedzkie Centra Kompetencji; holenderskie the Dutch Top Technology Institutes; austriackie K-centres; niemieckie Centra Kompetencji Nanotechnologii). Niemieckie Centra Kompetencji Nanotechnologii (CCN) zostały także poddane ewaluacji ex post. Ewaluację tę cechowało: zastosowanie mieszanki metod; wspólne określanie kryteriów oceny; analiza sieci społecznych (stworzonych w trakcie badań); silny nacisk na uczenie się i komunikację, dialog pomiędzy ewaluatorami a ocenianymi. Mix metod i działań obejmował: • • • • • Budowę dużej bazy danych na temat publikacji i patentów, działań szkoleniowych, wspólnych projektów badawczo-rozwojowych, itp. Metody stosowane: publikacje / analizy patentowej, ankiety, wywiady eksperckie; wzięcie pod uwagę grupy porównawczej Silny nacisk na upowszechnianie wyników (wstępnych) w formie warsztatów (aspekt uczenia się i komunikacji) Zespół oceniający składał się nie tylko z "klasycznych" ewaluatorów wynikających z ISI, ale również z firmy doradczej specjalizującej się w coachingu naukowców Cykl warsztatów został zorganizowany o wraz z CCN dla omówienia kryteriów oceny, profilu publikacji, kwestii technologii, ustaleń analizy sieci, o wraz z CCN oraz z ministerstwem i agencjami, dla omówienia zaleceń oraz ciągłego doskonalenia systemu. Kryteria ewaluacji obejmowały: • • • • • • • • jakość badań współpracę badawczą interdyscyplinarność transfer technologii standaryzację wpływ na gospodarkę public relations wieloletnie perspektywy CCN [Bührer 2007]. Bibliografia OECD Evaluation Of Publicly Funded Research: Recent Trends And Perspectives, 2006. OECD IPP Issue Brief: Research Organisation Evaluation, 2014. Susanne Bührer, Evaluation of the Nanotechnology Competence Centers in Germany (CNN), Meeting of the European RTD Evaluation Network 26th April 2007 at Fraunhofer ISI. 219 EWALUACJA INSTYTUCJI PUBLICZNEGO SEKTORA NAUKI OPARTA NA POMIARZE DOKONAŃ Jedną z ważnych form ewaluacji badań naukowych jest ewaluacja instytucji naukowych finansowanych ze środków publicznych (dalej nazywana ewaluacją instytucjonalną, dla przeciwstawienia od ewaluacji wniosków projektów badawczych). Ewaluacja ta • ma charakter ex post, • opiera się zarówno na danych o wkładzie (np. o liczbie pracowników lub wielkości ubiegłorocznej dotacji), jak i na danych o produktach, procesach i oddziaływaniu badań naukowych, • jej wyniki są wykorzystywane do określenia wielkości finansowania instytucji (np. szkoły wyższej lub jej wydziałów – w skali roku), • ma wyłącznie (lub także) charakter zewnętrzny (w niektórych krajach ewaluacja zewnętrzna jest łączona z samo-ewaluacją), • tworzy ogólnokrajowy system (a nie jest np. stosowana z własnej inicjatywy przez poszczególne instytucje naukowe) [Hicks 2010]. Środki publiczne na szkolnictwo wyższe Finansowanie instytucjonalne Finansowanie projektowe Finansowanie oparte na wskaźnikach wkładu Finansowanie oparte na wskaźnikach produktu / efektu / wpływu Źródło: OECD 2009. Metody. W ewaluacji instytucjonalnej najczęściej łączy się metody ilościowe i jakościowe. Dwa najczęściej stosowane łącznie ze sobą podejścia w ewaluacji instytucji to panele ekspertów oraz wskaźniki i indeksy (wskaźniki złożone): 220 Ewaluacja instytucji Badania jakościowe: panel ekspercki Badania ilościowe: wskaźniki i indeksy Badania jakościowe w ewaluacji instytucji naukowych, dyscyplin i programów korzystają na ogół z następujących metod: 1) wywiadów indywidualnych i grupowych z pracownikami, menedżerami, partnerami oraz użytkownikami i klientami, 2) analizy dokumentów pisanych, w tym raportów rocznych, planów strategicznych, dzienników badań i zapisów realizacji programu, informacji o zasobach i finansach, czasami także osobnych opracowań biblio metrycznych, 3) badań ankietowych, 4) bezpośredniej obserwacji, 5) studiów przypadku. Ewaluatorzy przeprowadzają wizytację celem dokonania bezpośredniej obserwacji programu działania oraz czasami osobiście na krótko włączają się do badań w ramach „obserwacji uczestniczącej”. Rozmawiają z pracownikami na temat ich doświadczeń i poglądów. Zapisy tych wywiadów, obserwacji i dokumentów porządkują wg głównych tematów, kategorii i przykładów, a następnie przedstawiają w raporcie. Badania ilościowe. Druga z podstaw oceny w ewaluacji instytucjonalnej to wskaźniki. W ramach ewaluacji może je zbierać komisja ekspertów (np. od ocenianych jednostek), albo odrębna placówka statystyczna, np. obserwatorium nauki i techniki. Najogólniej biorąc wskaźniki to miary (zazwyczaj ujęte w formie ilościowej) pewnej cechy działalności, które pozwalają na jej ocenę. Jednym z kluczowych zadań budowy systemu ewaluacji jest ich dobór i przetestowanie. Najważniejsze kwestie rozstrzygane podczas planowania ewaluacji to: szersze kategorie (wymiary, bloki), w ramach których grupuje się wskaźniki ilościowe oraz oceny jakościowe ujęte w skali (np. jakość – wpływ – środowisko); wagi dla poszczególnych wskaźników; stopień i formy różnicowania kryteriów wg ocenianych dyscyplin naukowych; skale ocen końcowych („kategorie”) – np. kategoria w skali pięciu stopni. Przedmiot oceny. Za granicą rzadko działają jednolite systemy oceny finansowania instytucjonalnego dla całego publicznego sektora nauki, czyli zarówno dla szkół wyższych, jak i dla publicznych poza-uczelnianych jednostek badawczych. Pewnym wyjątkiem od reguły jest system holenderski, w którym ocenie poddaje się zarówno uczelnie publiczne, jak i instytuty podległe dwóm agencjom – Królewskiej Niderlandzkiej Akademii Sztuk i Nauk (KNAW) oraz Niderlandzkiej Organizacji Badań Naukowych (NWO); jednak 221 w Holandii ocena nie jest podstawą poziomu finansowania, a ponadto nie są nią objęte poza-uczelniane instytuty badawcze podległe resortom. Różne kraje stosują rozmaite podejścia co do kwestii czy łączyć ocenę badań z oceną dydaktyki. „Niektóre kraje zasady stosują finansowania opartego na ocenie dokonań do finansowania dydaktyki, np. w Austrii system obejmuje zarówno elementy nauczania jak i badań, w Finlandii finansowanie statutowe szkół wyższych zawiera komponent oparty na ocenie wyników nauczania (zarówno pod względem zakresu, jak i jakości i skuteczności)”. Jednak niektóre kraje, jak Belgia oraz (z pewnymi wyjątkami) Polska finansują dydaktykę na podstawie miar instytucjonalnych, a nie ocen dokonań [OECD 2010]. Podobnie w Anglii „finansowania badań i finansowania dydaktyki płynie oddzielnymi strumieniami. Finansowanie nauczania oblicza się przede wszystkim na podstawie liczby studentów kończących komponenty programów akademickich. Ponadto, niewielki procent całkowitej kwoty środków przeznacza się na wynagrodzenie za realizację konkretnych rządowych inicjatyw” [Frølich 2008]. W ramach ewaluacji instytucjonalnej na podstawie oceny badaczy lub grup badawczych ocenia się instytuty, uczelnie lub ich części organizacyjne (wydziały, fakultety, kolegia). Jednostki oceny (np. poszczególni badacze lub grupy badawcze) nie muszą być tożsame z jednostkami, którym przyznaje się dotacje na podstawie ewaluacji [Hicks 2010]. Nową i ciekawą propozycją, wysuniętą w ramach przygotowań do nowego systemu oceny w Wielkiej Brytanii Research Assessment Framework jest ocena dyscyplin (jednostek dyscyplinowych) w ramach poszczególnych uczelni. W przeciwieństwie do płynnych i krzyżujących się ze sobą grup badawczych oraz w przeciwieństwie do zróżnicowanych pod względem misji i dyscyplin instytutów i wydziałów, dyscypliny wewnątrz instytucji są względnie jednorodne i porównywalne. Propozycja ta z jednej strony ułatwia przeprowadzenie ewaluacji, rozwiązując jeden z podstawowych problemów metodologicznych ewaluacji, a mianowicie radzenie sobie z (na ogół) wielkim zróżnicowaniem obszarów badawczych instytucji, z drugiej strony utrudnia korzystanie z ewaluacji jako podstawy określania poziomu finansowania. Rola zleceniodawcy. Kluczowe czynniki ewaluacji instytucjonalnej – jej zakres i przedmiot, czas i zasoby, uprawnienia, plan wykorzystania raportu, wybór ekspertów – albo ustala zleceniodawca (np. ministerstwo lub, jeszcze częściej, agencja finansująca badania), albo też pozostawia swobodę decyzji realizatorom. Zleceniodawca (a dokładniej, organ wewnętrzny powołany do przeprowadzenia ewaluacji) powołuje przewodniczących oraz sekretarzy paneli oraz określa główne cele ewaluacji (np. ulepszenie jakości i relewantności badań), procedury wizyt kontrolnych, oczekiwania co do raportu końcowego, zakres odpowiedzialności i uprawnienia paneli. Czasami ustala szczegółowe pytania i kryteria oceny (terms of reference), a czasami tylko ogólne wytyczne (np. że ewaluacja powinna brać pod uwagę jakość badań oraz ich ocenę dokonaną przez klientów i użytkowników), pozostawiając ich konkretyzację członkom zespołu. To drugie rozwiązanie ma wadę, gdyż pozostawia pole do dowolności, ale też ważną zaletę, gdyż umożli- 222 wia uwzględnienie w kryteriach oceny dyscyplinowych specyfik ocenianych jednostek, wliczając w nie prowadzenie badań inter-multi-i-trans-dyscyplinarnych. Zazwyczaj zleceniodawca przygotowuje i ogłasza z góry plan wszystkich ewaluacji, które zamierza przeprowadzić w nadchodzącym cyklu. Plan zawiera m.in. informacje o planowanych wizytacjach, dokumentacji, jaką powinni otrzymać ewaluowani, publikacji wyników oceny oraz sposobach kontynuacji (follow-up) przedsięwzięcia. Poszczególne kraje różnią się między sobą pod względem częstotliwości przeprowadzania ewaluacji instytucjonalnej. Z zasady im ewaluacja jest zakrojona na większą skalę, bardziej wnikliwa, czaso-i-kosztochłonna, tym odbywa się rzadziej. W Wielkiej Brytanii przeprowadzano ją (w systemie RAE) co 5-7 lat, w Hiszpanii i w Holandii odbywa się ona co sześć, w Austrii co i Słowacji co trzy, w Polsce nie rzadziej niż raz na 5 lat [Hicks 2010]. Ale z reguły w krajach, w których pełne szczegółowe ewaluacje przeprowadza się co kilka lat, oceniane instytucje przesyłają co roku informacje, uwzględniane przy ustalaniu wysokości rocznej dotacji; jest tak w np. w Wielkiej Brytanii i w Polsce. Produktem ewaluacji są zarówno raporty komisji ewaluacyjnych, które dokonały oceny poszczególnych jednostek, jak i raport końcowy w danym cyklu ewaluacji. Upowszechnienie w świecie. W pewnych krajach istnieją „krajowe systemy ewaluacji”, przeprowadzane przez organizacje finansujące uczelnie (np. w Wielkiej Brytanii i w Australii), podczas gdy w innych ewaluacja instytucjonalna jest sprawą wewnętrzną samych uczelni (np. w Irlandii); w niektórych wreszcie krajach oba systemy ocen współistnieją ze sobą: np. w Niderlandach co sześć lat (naprzemiennie) przeprowadza się zarówno wewnętrzne, jak i zewnętrzne ewaluacje, przy czym wewnętrzne organizuje się w trzy lata (w połowie cyklu) po zewnętrznych. W krajach, w których współistnieją oba typy ewaluacji, ewaluacje wewnętrzne są traktowane jako przygotowanie do zewnętrznych, zarówno pod względem oceny działania uczelni, jak i organizacji i przebiegu procesu oceny. Ogólnokrajowe systemy oceny instytucjonalnej badań prowadzonych w szkołach wyższych działają przede wszystkim w krajach anglosaskich, Wielkiej Brytanii, Australii i Nowej Zelandii, a także w niektórych krajach skandynawskich (Danii i Norwegii) oraz w Niderlandach: Kraj Norwegia Norwegia Niderlandy Wielka tania Bry- Australia Organizator Norweska Rada Badawcza Norweskie Stowarzyszenie Instytucji Szkolnictwa Wyższego Rada Finansowania Szkolnictwa Wyższego (HEFCE) Ministerstwo ds. Edukacji Przedmiot ewaluacji Pola badań Produkty badań prowadzonych w uczelniach Poszczególne uczelnie, w latach 19932002 stowarzyszenie uczelni VSNU Uczelnie same określają przedmiot ewaluacji np. Wydziały uniwersyteckie Uniwersytety 223 Główny cel Jakość badań Metoda Peer review oparte na informacjach Doraźnie Częstotliwość Rezultaty Raport, a jego efekcie plany i negocjacje Podział środków Pomiar publikacji Corocznie Punkty za publikacje pole badań, wydział Jakość badań Peer review i auto-ewaluacja Samoewaluacja oraz ewaluacja zewnętrzna co sześć lat Raport z oceną w skali 5punktowej oparty na 4 kryteriach Podział środków Peer review Podział środków Wskaźniki Reserach Assessment Exercise (86, 89, 92, 96, 2001 i 08) Ocena w skali zmienianej w kolejnych cyklach Corocznie Podział środków finansowych Źródło: Hansen 2009. Opisane systemy można by sumarycznie i w uproszczeniu ująć w następujący sposób: Ogólno-krajowy system ewaluacji badań oparty na pomiarze dokonań Finansowanie instytucjonalne uczelni Podstawa decyzji finansowych ścisła luźna Finansowanie oparte na wskaźnikach wkładu i przeszłych dotacjach Ogólno-krajowy system ewaluacji badań oparty na pomiarze dokonań Podstawa decyzji finansowych Podstawa decyzji menedżerskich Ewaluację dokonań jako podstawę finansowania instytucjonalnego wprowadziło jak dotąd trzynaście krajów, wśród nich – jako jedna z pierwszych, po Wielkiej Brytanii, Hisz- 224 panii i Hong Kongu – Polska (1991, ocena oparta głównie na peer review, 1998/9, ocena oparta przede wszystkim na tzw. formule finansowania). Krajowe systemy finansowania szkół wyższych oparte na ewaluacji instytucjonalnej Kraj Australia Dania Finlandia Flandria Hiszpania Hong Kong Norwegia Nowa Zelandia Polska Słowacja Szwecja Wielka Brytania Włochy System Indeks złożony, Ramy Badań Jakości (RQF), Jakość Badań w Australii (ERA) Wdrożenie modelu norweskiego BOF-key CNEAI – Krajowa Komisja ds. Oceny RAE „Norweski model” (nowy model finansowania oparty na wynikach badań prowadzonych na uniwersytetach) Finansowanie badań oparte na dokonaniach (PBRF) Metoda parametryczna Nowy model alokacji zasobów RAE zostały przekształcone w REF - Ramy Osiągnięć Naukowych (Research Excellence Framework) Trzyletnia Ocena Badań, Valutazione Triennale della Ricerca (VTR) Rok wdrożenia/rok istotnej modyfikacji 1995/obecnie 2010 2010 2003/2008 1989 1993 2005 2003/obecnie 1991(wstępna wersja)/1998/99, 2013 1992/2002 2008 1986/obecnie Evaluation 2001-03/funded 2009 Źródło: Diana Hicks 2010. Nigdy w szkołach wyższych finansowanie badań oparte na dokonaniach nie jest jedynym źródłem ich finansowania; udział tego rodzaju funduszy waha się od 2% (Norwegia) do ok. 25% (Wielka Brytania) ogółu publicznego finansowania. Znaczenia tego rodzaju systemu nie da się jednak mierzyć wyłącznie odsetkiem ogólnego budżetu, gdyż są one też np. źródłem prestiżu, procentującego w staraniach o granty i kontrakty [Hicks 2010]. W USA nie ma krajowego systemu oceny badań naukowych, w ramach którego regularnie poddaje się ocenie badania ex post. Większość alokacji zasobów w Stanach Zjednoczonych odbywa się poprzez ocenę projektów i jednostek ex ante, a nie poprzez ocenę instytucji ex post. Nacisk położony jest na jakość akademicką, a w przypadku badań ukierunkowanych na zadania, na przewidywane korzyści i dopasowanie projektów do misji instytucji [OECD IPP 2014]. 225 Oceny wartości ewaluacji instytucjonalnej. W ocenach wartości ewaluacji instytucjonalnej, podkreśla się, po pierwsze, że nie ma wprawdzie systemu idealnego, ale w sumie przyniosła ona więcej dobrych niż złych skutków. W brytyjskim RAE pozytywne skutki wynikały z dobrego zarządzania samych instytucji oraz z wkładu poszczególnych menedżerów i naukowców [HEFCE 1997]. Po drugie, zwraca się uwagę, że ocena ewaluacji instytucjonalnej nie jest prosta, gdyż tak jak w przypadku każdego badania wpływu, pozostaje problem oddzielenia wpływu ewaluacji od działania innych czynników [OECD 2009]. Po trzecie, podkreśla się, że wpływ ewaluacji instytucjonalnej jest większy od przyznanych na jej podstawie kwot. Jest tak, gdy np. prawdopodobieństwo sukcesu wniosku o przyznanie dotacji na projekt badawczy wzrasta, gdy wnioskodawca pracuje w wyższej ocenionym wydziale [Hicks 2010]. Po czwarte, uwypukla się fakt, że pojęcie efektywności badań naukowych, rozumiane zarówno jako efektywność naukowa (jak najwyższa jakość w stosunku do użytych zasobów), jak i efektywność społeczno-gospodarcza (jak najsilniejszy dodatni wpływ na otoczenie zewnętrzne nauki), jest nie tylko wielowymiarowe, ale także niejednoznaczne. Badania nie zawsze są oceniane dodatnio. Nowa wiedza może być krytyczna, może prowokować, a nawet zostać uznana za szkodliwą [Hansen 2010]. Po piąte, zwraca się uwagę, że podobnie jak w powiązaniach nauka-gospodarka (badań naukowych w sektorze publicznym oraz biznesu) dużym problemem jest pogodzenie sprzecznych oczekiwań naukowców i biznesmenów, tak i w ewaluacji trudną kwestią jest zbliżenie stanowisk polityków i ewaluatorów. Systemy ewaluacji instytucjonalnej: uboczne konsekwencje. Badania następstw ewaluacji instytucjonalnej przyniosły wiele istotnych ustaleń. Należą do nich obserwacje: 1. tendencji spadku wartości wskaźników oraz ogólniej „spadającego zwrotu z ewaluacji” w miarę upływu czasu. Spadek wartości wynika m.in. z takich przyczyn, jak o zjawisko „ewaluacyjnej fatygi” (zmęczenie badaczy zbyt często powtarzanymi ewaluacjami, zwłaszcza jeśli nie mają one istotnego znaczenia jako źródła nauki lub decyzji finansowych), o przewrotne uczenie się (wybitne wyniki są efektem manipulacji danymi; np. gdy badacze szybko uczą się, jak obracać ewaluację na własną korzyść i ulepszają nie tyle badania naukowe, co sposób zapewniania swoim instytucjom cech premiowanych w ewaluacji, np. poprzez publikowania prac wyłącznie w czasopismach o wysokim IF, pomimo racji przemawiających za innym rozwiązaniem, dzielenia publikacji na „najmniejsze jednostki publikowalne”, zatrudnianie uczonych legitymujących się wielką liczbą cytowań w przeddzień zgłoszenia wykazu do komisji ewaluacyjnej [Van Thiel 2002]; gdy uwzględnia się tylko konferencje międzynarodowe, konferencjom krajowym nadaje się nazwę międzynarodowej i zaprasza kilku gości z zagranicy itd.), 226 2. ubocznych ujemnych skutków nastawienia na realizację premiowanych celów, polegających na o wzmacnianiu najlepszych ponad należne zasługi, uniemożliwianiu poprawy słabszych instytucji poprzez wstrzymywanie ich dotacji, zaostrzaniu niezdrowej rywalizacji, podcinaniu motywacji; podkreśla się, że z założenia ocena dokonań premiuje doskonałość kosztem równości [Kalpazidou Schmidt 2003], o zaniedbywaniu innych ważnych celów, nie uwzględnionych wśród kryteriów ewaluacji (np. nacisk na liczbę publikacji powoduje podejmowanie łatwych do realizacji badań oraz rosnące rozdrabnianie publikacji, kosztem podejmowania ważnych, długofalowych i ryzykownych badań oraz publikowania istotnych ustaleń; akcentowanie pomiaru badań prowadzi do lekceważenia prac rozwojowych, mających z reguły bardziej bezpośrednie znaczenie dla rozwoju gospodarki i społeczeństw; nacisk na liczbę cytowań skutkuje zapraszaniem do współpracy wyłącznie badaczy i instytucji legitymujących się już osiągniętą wysoką pozycją naukową, kosztem włączania do badań młodych badaczy, zdobywających dopiero pozycję instytucji lub krajów spoza pierwszej ligi nauki; nacisk na badania pociąga za sobą zaniedbywanie dydaktyki; nacisk na publikacje w języku angielskim pociąga za sobą zaniedbywanie prac w języku ojczystym, upadek rodzimej terminologii oraz – niejednokrotnie – osłabienie pozabadawczego wpływu badań itd.), o takiej reakcji ocenianych na wskaźniki i inne metody oceny, która jest niezgodna z celami i intencjami ewaluacji (wskaźniki z natury mają ograniczenia i mogą prowadzić do nadmiernego nacisku na pewne działania kosztem innych. Np. system, który nagradza wyniki badań naukowych, a nie powiązania z przemysłem, może te powiązania osłabiać, w szczególności gdy zachęty działają aż do poziomu indywidualnego rozwoju zawodowego badacza [OECD 2010]), o wykorzystywania wyników ewaluacji poza systemem ewaluacji (np. jako informacji, gdzie studiować) [OECD 2010], 3. problemów stwarzanych przez wskaźniki ilościowe o mierzą tylko rzeczy mierzalne, a te niekoniecznie są najistotniejsze; jakość badań oraz ich efekty zależą od wielu czynników niezależnych od badaczy; pomiar efektów powinien być oparty na głębokim zrozumieniu zależności pomiędzy wkładem a efektami, o co trudno ze względu na wpływ innych czynników; wskaźniki ilościowe powinny być uzupełnione przez metody jakościowe, takie jak peer review czy studia przypadku, o działania tzw. prawa Goodharta, które mówi, że gdy tylko wprowadza się pewien wskaźnik (jako pomoc np. w ewaluacji, zarządzaniu czy prowadzeniu polityki), wskaźnik ten szybko traci funkcję informacyjną, którą miał pełnić, gdyż zmienia zachowania ludzi, które miał obiektywnie mierzyć (np. wprowadzenie cytowań jako miary osiągnięć zmieniło praktyki cytowania, powodując wzrost 227 samo-cytowań, wzajemnych cytowań, lub nacisku ze strony redakcji czasopism, na cytowanie tego właśnie czasopisma) [Goodhart Law, Wikipedia 2013]. Wpływ systemu ewaluacji instytucjonalnej i/oraz zasad finansowania instytucji naukowych opartych na ocenie dokonań na cele i obszary. Wpływ ewaluacji instytucjonalnej różni się w zależności od systemu. Niemniej, badania i analizy wskazały na wiele podobieństw co do charakteru oddziaływania. Spostrzeżenia te można uporządkować w następujący sposób – wg obszarów rozpatrywanego wpływu. Uczelnie. Zasadniczą ewaluacji instytucjonalnej przeprowadził Marcel Herbst. W Europie dominuje trend udzielania uczelniom przez rządy większej autonomii, ale pod warunkiem wzrostu ich uzależnienia poprzez wskaźniki dokonań, pisał Herbst. Można mieć wobec niego wiele zastrzeżeń. System ten zyskał uznanie jako dobre ogólne rozwiązanie, ale bardziej na wiarę niż wskutek głębszych analiz oraz szukania alternatyw. „Zamiast promować zdrową konkurencję pomiędzy uczelniami, próbuje się sztucznie tworzyć quasi-rynek w celu pchnięcia instytucji bliżej pozycji uznanych przez władze za pożądane.” Udzielanie uniwersytetom większej autonomii pod warunkiem wiązania ich wskaźnikami dokonań pęta ich zdolność do samodzielnego zdobycia umiejętności efektywnego zarządzania, co z kolei staje się argumentem za utrzymaniem kontroli poprzez wskaźniki. System finansowania oparty na ocenie dokonań wprowadza się jako instytucję niby-rynku mającą na celu wyrównanie domniemanych ułomności szkół wyższych. Dobre uczelnie powinny otrzymywać więcej od gorszych, aby stały się bardziej konkurencyjne i pobudzały do działania te gorsze. Powinno się nagradzać efekt, a nie wkład. Jednak otrzymując więcej pieniędzy, dobre uniwersytety ulepszają badania i dydaktykę, wzmacniając swoją pozycję i zwiększając prestiż. Dzięki temu otrzymują więcej pieniędzy. Tak więc w końcu, i tak to nie efekt, ale wkład decyduje o ich osiągnięciach. Nie jest dowiedzione, że finansowanie oparte na dokonaniach pobudza dokonania bardziej niż finansowanie jako takie. Bardziej cementuje ono status quo niż prowadzi do zmiany. Domniemane ułomności uczelni są do pewnego stopnia wynikiem leku, który ma je uleczyć. System finansowania oparty na ocenie dokonań jest najskuteczniejszy wówczas, gdy w uczelniach najsłabiej rozwinięte są wewnętrzne mechanizmy podziału funduszy. A z kolei te wewnętrzne mechanizmy alokacji odgrywają kluczową rolę w zarządzaniu oraz są konieczne dla uzyskania funduszy na nowe rozwojowe przedsięwzięcia. Systemy alokacji wspierające istniejące struktury utrudniają adaptację do złożonego i szybko zmieniającego się świata. System ten prowadzi do uniformizmu wprowadzanego w imię zapewnienia jakości, ale jakość zależy w większym stopniu od wewnętrznej woli jej osiągnięcia niż systemu, który ją wymusza, a od uniformizmu lepsze jest zróżnicowanie misji i zadań badawczych uniwersytetów w zależności od oczekiwań studentów oraz innych uwarunkowań zewnętrznych. Warunkiem podniesienia poziomu szkół wyższych jest udana współpraca między uczelniami zainicjowana i rozwijana przez nie same, np. współpraca w uruchomieniu wspólnego programu nauczania lub centrum badawczego. Narzucone odgórnie wskaźniki niekoniecznie jej sprzyjają. Najszybszy postęp badawczy następuje na obrzeżach ustabilizowanych dyscyplin. Nacisk na finansowanie dyscyplinowe może odwodzić od bardziej ryzykownych lecz obiecujących badań [Herbst 2007]. 228 Jakość badań. Sądzi się, choć nie jest to jednak dostatecznie udowodnione, że ewaluacja instytucjonalna prowadzi do poprawy jakości górnego poziomu średniego oraz redukuje badania o niskiej jakości, ale do pewnego stopnia eliminuje doskonałość w nauce [Gläser 2002]. Gdy celem ewaluacji jest przede wszystkim poprawa jakości badań, a także koncentracja zasobów u najlepszych, nie jest ona w stanie poprawić słabszych instytucji naukowych, a nawet może doprowadzić do upadku prowadzonych w nich badań [Hicks 2010]. Środowisko naukowe. Ewaluacja instytucjonalna może mieć szkodliwy wpływ na tętniące życiem społeczności naukowe. Wzmacnia ona z reguły znaczenie konserwatywnej hierarchii naukowej, co hamuje powstawanie oryginalnych badań i nowych dziedzin oraz tłumi różnorodność i pluralizm. Złagodzić problem może istnienie różnych instytucji finansujących badania, ale nie zawsze, gdyż konserwatywna elita może kontrolować różne agencje [Whitley 2008]. Do nowatorstwa w nauce zniechęcają wskaźniki [Taylor&Taylor 2003]. Ewaluacja instytucjonalna skutkuje unikaniem projektów o wysokim ryzyku, oraz koncentracją na badaniach, w których można spodziewać się sukcesu w spełnieniu kryteriów finansowania [Liefner 2003]. Ponadto, sprzyja ona homogenizacji badań i eksperymentów poprzez nagradzanie `bezpiecznych` tematów i metod badań [Genua 2003]. Podkreśla się także, że „system, w którym kluczowym kryterium są publikacje, promuje „inflacje publikacji” i zachowanie status quo” [Frølich 2008]. Jochen Gläser, Grit Laudel, Sybille Hinze, Linda Butler podnoszą pytanie, czy postęp badań zależy od „niezbędnej różnorodności”, tj. na minimalnego zakresu zróżnicowania zagadnień i perspektyw. Jeśli tak jest, utrzymywanie różnorodności może być ważniejsze niż promowanie wysokiej jakości. Koncentracja ewaluacji na kryteriach wysokiej jakości badań może doprowadzić do powstania luk w wiedzy naukowej, które nagle mogą stać się przeszkodą na drodze do dalszych rozwoju wiedzy. Ponieważ wydaje się, że na całym świecie zapanowała tendencja do wprowadzania ewaluacji instytucjonalnej można spodziewać się ujednolicenia praktyk finansowania w skali międzynarodowej. Powstaje więc kolejne pytanie – jakie to pociąga za sobą skutki dla rozwoju nauki? Czy czasem nie zagraża pewnym ważnym niszom w produkcji wiedzy? [Gläser 2002] Nowatorstwo i interdyscyplinarność. Sądzi się, że ewaluacja instytucjonalna faworyzuje badania „głównego nurtu” oraz bezpieczne tematy, a ujemnie wpływa na tzw. „badania błękitnego nieba”, czyli nowatorskie [Butler 2010]. Ponadto, bardziej premiuje przeszłe osiągnięcia ustabilizowanych grup badawczych oraz ustabilizowanych dyscyplin, badania krótkoterminowe kosztem długofalowych, podejścia konwencjonalne kosztem nowatorskich, co bywa przeszkodą w kształtowaniu się nowych i obiecujących grup i pól badań. Zwraca się też uwagę, że system zwiększa niechęć do podejmowania ryzyka w wyborze obszarów badawczych (np. wtedy, gdy wybór może wpłynąć na oczekiwany spadek liczby cytowań) oraz zmniejsza zakres wielodyscyplinarności [OECD 2010]. Ta ostatnia kwestia jest przedmiotem sporu, gdyż niektóre badania kwestionują ujemny wpływ systemu na badania interdyscyplinarne. 229 Poziom czasopism naukowych. Uważa się, że ewaluacja instytucjonalna wywiera dodatni wpływ na poziom czasopism, skłaniając wiele redakcji do spełniania warunków umożliwiających starania o wciągnięcie na listę Web of Science lub Scopusa [Butler 2010]. Kadry. Ocenia się, że ewaluacja instytucjonalna podnosi motywację badaczy, których publikacje i cytowania mają decydujący wpływ na punktację instytucji, ale osłabia motywację pozostałych; może wpływać ujemnie na motywację kobiet, początkujących badaczy oraz mniejszości etnicznych. Gdy uwzględnia się wszystkie publikacje autora w danym okresie, niezależnie od ich afiliacji, a bierze jedynie pod uwagę miejsce zatrudnienia w chwili przeprowadzania ewaluacji, sprzyja ona transferowi wydajnych badaczy do nowych instytucji oferujących lepsze warunki „za pięć dwunasta”, tuż przed rozpoczęciem procesu oceny [Butler 2010]. Plany badawcze. Zwraca się też uwagę, że ewaluacja instytucjonalna ogranicza swobodę badawczą, podporządkowując myślenie o planach badawczy ustalonym raz na kilka lat zasadom i kategoriom [Butler 2010]. Publikacje. Jak wykazują badania przeprowadzone w Wielkiej Brytanii, Australii, Hiszpanii i Norwegii ewaluacja instytucjonalna zwiększa wydajność publikacyjną badaczy. Jednak badania nad wpływem na jakość publikacji (mierzoną przez pomiar cytowań) przyniosły zróżnicowane ustalenia: podniosła ona poziom publikacji w Wielkiej Brytanii, ale obniżyła w Australii i Norwegii (skutek zasady „publikuj albo zgiń”). Badanie wpływu na miejsce wyboru publikacji wskazało, że często pod wpływem systemu badacze kierują artykuły nie do czasopism, w których chcieliby drukować, czytanych przez środowisko, tylko do tych mających wysokie notowania [Butler 2010]. Dydaktyka. Wpływ opisywanej ewaluacji „na dydaktykę jest trudny do oceny, ze względu na brak odpowiednich metod pomiaru. Jednak w wielu krajach wyrażano obawy, że nacisk na ilość i jakość badań może wywrzeć ujemny wpływ na poziom dydaktyki” [Butler 2010]. Rozwój współpracy naukowej. Wpływ ewaluacji instytucjonalnej na rozwój współpracy (wewnątrz-krajowej i międzynarodowej) zależy m.in. od sposobu pomiaru publikacji opartych na współpracy autorów pochodzących z różnych instytucji. Sposób „częściowego naliczania” (fractional counting, gdy każdemu autorowi przypisuje się cząstkę publikacji) zniechęca do wspólnego publikowania, a zasady „pełnego liczenia” (whole counting, gdy praca idzie na konto każdego autora) odwrotnie, wspiera współpracę [Butler 2010]. Konsekwencją ewaluacji może być wzrost konkurencji pomiędzy instytucjami kosztem współpracy [OECD 2010]. Zwłaszcza De Meis et al. argumentuje, że presja na publikowanie prowadzi do przesadnej konkurencji [De Meis 2003]. Rozwój współpracy z biznesem. W pewnych krajach, jak np. w Nowej Zelandii, prywatne przedsiębiorstwa wysokiej techniki twierdzą, że ewaluacja instytucjonalna zniechęca szkoły wyższe do współpracy z biznesem oraz do transferu wiedzy do sektora prywatnego. Sugerują one, że „koncentracja na doskonałości akademickiej zniechęca 230 pracowników sektora szkolnictwa wyższego od podejmowania badań aplikacyjnych, a pomiar publikacji stwarza barierę dla prowadzenia badań komercyjnych” [OECD 2010]. Otoczenie zewnętrzne nauki. Nacisk na pomiar wiedzy kodyfikowanej mierzonej poprzez wskaźniki bibliometryczne (pomiar publikacji w recenzowanych czasopismach, najlepiej objętych Web of Science) obniża (lub neguje) wartość raportów technicznych i technicznego know how, które niejednokrotnie mają znacznie większy wpływ na zmiany poza sferą nauki [OECD 2007]. W Wielkiej Brytanii podkreślano, że RAE ocenia zbyt nisko tematykę badań związanych z kształceniem zawodowym (np. prawo, edukacja, biznes i zarządzanie, ekonomia). W szczególności podnoszono obawy, że badania teoretyczne ocenia się znacznie wyżej niż badania zorientowane na praktykę [HEFCE 2007]. Zarządzanie badaniami. Bezdyskusyjnie dodatni jest wpływ ewaluacji instytucjonalnej na systemy informacji zarządczej. „Wzrost potrzeb w zakresie wiarygodnych i aktualnych danych spowodował, że wiele uczelni przeprojektowało swoje systemy informacji dotyczącej studentów, personelu, grantów, dochodów zewnętrznych, publikacji badawczych itd. w szczególności, system pociągnął za sobą ulepszenie lub stworzenie uczelnianych repozytoriów publikacji (Australia i Wielka Brytania).” Równie silny i pozytywny jest jej wpływ na zarządzanie badaniami. Badania przeprowadzone w Wielkiej Brytanii dowiodły, że ewaluacja ta (choć także inne czynniki, takie jak np. polityka rad ds. badań) stała się czynnikiem rozwoju planowania badań na uniwersytetach. Jednym z następstw systemu finansowania opartego na ewaluacji dokonań bywa restrukturyzacja uczelni, np. zamykanie pewnych wydziałów wykazujących słabe wyniki (lub odwrotnie, wzmacnianie ich, gdy problematykę badań uważa się za ważną) [Butler 2010; HEFCE 2007]. Profil badawczy (struktura dyscyplinowa, specjalizacja naukową) kraju. Jeśli idzie o wpływ na poszczególne dyscypliny, obawy (nie dowiedzione jednak mocnymi argumentami) dotyczą wzmocnienia przez ewaluację instytucjonalną dyscyplin łatwiej poddających się pomiarom (nauki przyrodnicze, techniczne i medyczne) kosztem humanistyki. Podkreśla się, że nie zawsze służy ona badaniom stosowanym, ukierunkowanym na rozwiązanie konkretnych kwestii i zorientowanym na cele praktyczne, gdyż badania tego typu są publikowane w formie ekspertyz i „szarej literatury” [Butler 2010]. Podsumowując wszystkie te krytyczne uwagi trawestuje się sławne zdanie Churchilla o demokracji i mówi, że ewaluacja (w tym także służąca ustaleniu poziomu finansowania badań naukowych) ma niezliczone wady, ale tylko jedną zaletę, że jak dotąd nie zaproponowano lepszego rozwiązania. Bibliografia Aldo Geuna and Ben R. Martin, University Evaluation and Funding: An International Comparison, “Minerva” 41: 2003 Diana Hicks, Overview of models of performance-based research funding systems, w: Performance-based Funding for Public Research in Tertiary Education Institutions, OECD Paryż 2010, s. 25. Erawatch 231 Evanthia Kalpazidou Schmidt, Evaluation and science policy, w: K. Siune & E. Kalpazidou Schmidt (ed.), The use of evaluations in Europe. Report from the European RTD Evaluation Network meeting, Report 2003/2, Aarhus, Danish Institute for Studies in Research and Research Policy, 2003. Goodhart Law, Wikipedia 2013 Hanne Foss Hansen, Research Evaluation: Methods, Practice and Experience, Danish Agency for Science, Technology and Innovation, 2009. HEFCE The impact of the 1992 Research Assessment Exercise on higher education institutions in England, 1997 I. Liefner, Funding, resource allocation, and performance in higher education Systems, „Higher Education”, 2003: 46(4), 469-489. Cyt. za: Nicoline Frølich, The politics of steering by numbers, Debating performancebased funding in Europe, NIFU-STEP 2008, http://www.nordforsk.org/_img/nifu_step_rapport _steeringbynumbers.pdf J. Taylor, and Taylor, R., Performance indicators in academia: An X-efficiency approach? “Australian Journal of Public Administration”, 2003:62(2). Cyt. za: Nicoline Frølich, The politics of steering by numbers, Debating performance-based funding in Europe, NIFU-STEP 2008, http://www.nordforsk.org/_img/ nifu_step_rapport_steeringbynumbers.pdf Jochen Gläser, Grit Laudel, Sybille Hinze, Linda Butler, Impact of evaluation-based funding on the production of scientific knowledge 2002 L. de Meis, A. Velloso, D. Lannes, M.S. Carmo, and de C. Meis, The growing competition in Brazilian science: rites of passage, stress and burnout, “Brazilian Journal of Medical and Biological Research”, 2003: 36(9), 1135-1141. Cyt. za: Nicoline Frølich, The politics of steering by numbers, Debating performance-based funding in Europe, NIFU-STEP 2008, http://www.nordforsk.org/_img/nifu_step_rapport _steeringbynumbers.pdf Linda Butler, Impacts of performance-based research funding systems: A Review of the concerns and the evidence, w: Performance-based Funding for Public Research in Tertiary Education Institutions, OECD Paryż 2010. Marcel Herbst, Financing public universities: the case of performance funding, Dordrecht, Springer, 2007. Nicoline Frølich, The politics of steering by numbers, Debating performance-based funding in Europe, NIFUSTEP 2008, http://www.nordforsk.org/_img/nifu_step_rapport_steeringbynumbers.pdf OECD IPP Issue Brief: Research Organisation Evaluation, 2014. OECD Performance-based models for publicly funded research in tertiary education institutions, Paris 2010. Qualitative Research, Wikipedia 2013. R. Whitley, Chapter 1 Changing Governance of the Public Sciences, w: The Changing Governance of the Sciences, Sociology of the Sciences Yearkbook, Dortrecht 2008 S. Van Thiel and F. L. Leeuw, The Performance Paradox in the Public Sector “Public Performance & Management Review”, 2002, vol. 25, no. 3, 267-281 Sarah Box, Ester Basri, Performance-Based Funding for Public Research in Tertiary Education Institutions: Country Experiences. Summary of country questionnaire responses,, DSTI/STP/RIHR(2010)5. The Evaluation of Scientific Research: Selected Experiences, OECD DSTI/STP/SUR(97)9. ORGANIZACJA EWALUACJI INSTYTUCJONALNEJ Por. też >EWALUACJA INSTYTUCJI PUBLICZNEGO SEKTORA NAUKI OPARTA NA POMIARZE DOKONAŃ; >ORGANIZACJA EWALUACJI INSTYTUCJONALNEJ; >FAZY EWALUACJI INSTYTUCJONALNEJ; >METODY STOSOWANE W EWALUACJI INSTYTUCJONALNEJ; >PYTANIA I KRYTERIA W EWALUACJI INSTYTUCJONALNEJ. 232 Kluczowe czynniki ewaluacji instytucjonalnej – jej zakres i przedmiot, czas i zasoby, uprawnienia, plan wykorzystania raportu, wybór ekspertów – albo ustala zleceniodawca (np. ministerstwo lub, jeszcze częściej, agencja finansująca badania), albo też pozostawia swobodę decyzji realizatorom. Zleceniodawca (a dokładniej, organ wewnętrzny powołany do przeprowadzenia ewaluacji) powołuje przewodniczących oraz sekretarzy paneli oraz określa główne cele ewaluacji (np. ulepszenie jakości i relewantności badań), procedury wizyt kontrolnych, oczekiwania co do raportu końcowego, zakres odpowiedzialności i uprawnienia paneli. Czasami ustala szczegółowe pytania i kryteria oceny (terms of reference), a czasami tylko ogólne wytyczne (np. że ewaluacja powinna brać pod uwagę jakość i relewantność badań oraz ocenę klientów i użytkowników), pozostawiając ich konkretyzację członkom zespołu. To drugie rozwiązanie ma wadę, gdyż pozostawia pole do dowolności, ale też ważną zaletę, gdyż umożliwia uwzględnienie w kryteriach oceny dyscyplinowych specyfik ocenianych jednostek, wliczając w nie prowadzenie badań inter-multi-i-transdyscypinarnych. Zazwyczaj zleceniodawca przygotowuje i ogłasza z góry plan wszystkich ewaluacji, które zamierza przeprowadzić w nadchodzącym cyklu. Plan zawiera m.in. informacje o planowanych wizytacjach, dokumentacji, jaką powinni otrzymać ewaluowani, publikacji wyników oceny oraz sposobach kontynuacji (follow-up) przedsięwzięcia. Poszczególne kraje różnią się między sobą pod względem częstotliwości przeprowadzania ewaluacji instytucjonalnej. Z zasady im ewaluacja jest zakrojona na większą skalę, bardziej wnikliwa, czaso-i-kosztochłonna, tym odbywa się rzadziej. W Wielkiej Brytanii przeprowadzano ją (w systemie RAE) co 5-7 lat, w Hiszpanii i w Holandii odbywa się ona co sześć, w Austrii co i Słowacji co trzy, w Polsce nie rzadziej niż raz na 5 lat [Hicks 2010]. Ale z reguły w krajach, w których pełne szczegółowe ewaluacje przeprowadza się co kilka lat, oceniane instytucje przesyłają co roku informacje, uwzględniane przy ustalaniu wysokości rocznej dotacji; jest tak w np. w Wielkiej Brytanii i w Polsce. Skład panelu eksperckiego może mieć decydujące znaczenie dla wyniku oceny. Zaleca się, aby eksperci mieli bieżące doświadczenie z ocenianą dyscypliną, ale aby nie mieli powiązań z ocenianą instytucją. Gdy przedmiotem oceny jest nie tylko jakość badań, ale także np. zarządzanie lub transfer technologii, ewaluatorzy powinni legitymować się odpowiednią wiedzą i doświadczeniem. W różnych krajach podkreśla się, że w grupie ekspertów powinni znaleźć się zarówno menedżerowie nauki, jak i przedstawiciele użytkowników – z sektorów publicznego i prywatnego [Measures 2005]. Najczęściej zleceniodawca ustala skład panelu, dokonując wyboru na podstawie profilu kompetencji oraz (nieujętego w CV) przekonania o bezstronności kandydata. Wybór bywa konsultowany z mianowanym wcześniej przewodniczącym zespołu oraz z krajowym i zagranicznym środowiskiem naukowym. W niektórych krajach oceniane instytucje mają prawo wskazania kandydatów (z kraju i/lub z zagranicy). Podstawową zasadą w krajach nordyckich jest udział ekspertów zagranicznych, głównie spoza krajów nordyckich [Luukonen 1993]. Sekretarzem panelu jest często przedstawiciel zleceniodawcy. Często obok panelu powołuje się także grupę doradczą (reference group for evaluation), która monitoruje przebieg ewaluacji. W krajach nordyckich z reguły kiedy odmawia się ocenianym 233 prawa do wskazania kandydatów do panelu, pozwala wyznaczyć przedstawicieli do grupy doradczej. Ponadto z reguły oceniani mają prawo do repliki, która jest publikowana równolegle z właściwym raportem. Z reguły komisja ewaluacyjna przeprowadza wizyty w terenie. Wcześniej przewodniczący komisji oraz dyrektor instytutu uzgadniają jej program. Zespół oceniający otrzymuje przed wizytą pakiet informacji o instytucie (w Holandii – na cztery tygodnie przed spotkaniem). Podczas wizytacji zazwyczaj członkowie panelu rozmawiają z dyrektorem, zarządem, kierownikami projektów i zespołów oraz z przedstawicielami pracowników i doktorantów. Czas i zasoby dla ewaluacji mają wpływ na jej jakość. W krajach nordyckich panele powoływane dla dokonania oceny dyscyplin mają zwykle od roku do półtora roku na przygotowanie raportu. Podział zadań wewnątrz grupy i tryb pracy określają najczęściej jej członkowie. Zazwyczaj o podziale zadań decydują kompetencje; uczeni specjalizujący się w pewnej problematyce biorą na siebie ciężar oceny instytucji najbliższych ich zainteresowaniom. Zdarza się, że wewnątrz grupy powstają pod-grupy. Członkowie kontaktują się przez emaile, telefon i spotkania. Końcowy raport bywa przedmiotem nie tylko ożywionych dyskusji, ale także negocjacji i ucierania kompromisu. Często bywa tak, że projekt końcowego raportu redaguje przewodniczący lub sekretarz, a następnie członkowie panelu przesyłają uwagi i komentarze. W Holandii ewaluacjom przeprowadzanym przez organa finansujące towarzyszą własne ewaluacje instytucji, przeprowadzane w połowie cyklu. Celem ich jest sprawdzenie realizacji zaleceń oraz przygotowanie placówki do kolejnej ewaluacji. W Holandii grupa badawcza sci_Quest opracowała zalecaną przez agencje metodę samo-ewaluacji grup badawczych, na którą składa się a) opis misji i wizerunku grupy/instytucji, b) zestaw wskaźników nazwany „Profil `Osadzenia` (embement) i Dokonań (performance) Badawczych” (Research Embedment and Performance Profile (REPP)), c) analiza interesariuszy – użytkowników, współproducentów i kolegów ze świata nauki, gospodarki i rządu (składająca się z dwóch części, 1. opisu otoczenia w formie zestawu informacji oraz map i przedstawień graficznych, 2. badań ankietowych wśród interesariuszy), d) opinie porównawcze (comparative feedback), czyli spojrzenie na misję grupy/instytutu w świetle a, b i c. Podczas gdy REPP pokazuje profil grupy pod względem działań ukierunkowanych na otoczenie, a analiza interesariuszy w inny sposób naświetla współpracę ze środowiskiem zewnętrznym, „opinie porównawcze” mają na celu refleksję nad misją grupy/instytucji w kontekście faktów i wskaźników ilustrujących jej rzeczywistą działalność [Spaapen 2007]. Kontynuacja (follow-up) ewaluacji obejmuje zwykle a) stanowisko zleceniodawcy wobec ocen i zaleceń komisji ewaluacyjnej, b) publikację raportu w Internecie (lub także w 234 wersji papierowej), a w Niderlandach także c) przegląd średnio-okresowy dokonany wewnętrznie, ale wg przepisanych z góry zasad. W wielu krajach istnieją różnego rodzaju mechanizmy kontrolne ewaluacji. W Niderlandach obejmują one publikację z wyprzedzeniem planu ewaluacji, zamieszczanie opisu przeprowadzonych ewaluacji w raportach rocznych agencji, które je przeprowadzają, oraz – przede wszystkim – obowiązkową ewaluację ewaluacji przeprowadzaną pod koniec cyklu. Mechanizmami kontrolnymi są też wspomniane przed chwilą grupy doradcze (reference group for evaluation) oraz prawo do repliki. Sama ewaluacja poddawana bywa odrębnej ewaluacji, np. w Holandii i w Wielkiej Brytanii. W obu krajach ewaluacje ewaluacji stanowią podstawę do wprowadzenia korekt w następnych cyklu. Raporty ewaluacyjne. W krajach nordyckich raporty ewaluacyjne mają zwykle standardowy układ i składają się z dwóch części: pierwsza dotyczy mocnych i słabych stron całej instytucji (dziedziny, programu), a druga ocenia indywidualne projekty i prace grup badawczych [Luukonen 1993]. Raport łączy część diagnostyczną z końcową oceną (np. w formie propozycji kategorii dla instytucji) [Langfeldt 2002], a także oceną szans i zagrożeń oraz propozycjami co do tego, jak korzystać z nasuwających się szans i jak przeciwdziałać możliwym zagrożeniom. Aneks zawiera z reguły krótki opis instytucji i prowadzonych przez nią badań (pisany wspólnie z ocenianą placówką). Np. raport komisji ewaluacyjnej w Holandii składa się z następujących części: Część 1. Ocena całego instytutu, zawierająca: • krótki opis instytutu, jego wizji, misji i celu (celów), działalności badawczej • ocena jakości (reputacji akademickiej, jakości, szkolenia doktorantów, zasobów badawczych, organizacji i procedur wewnętrznych, przywództwa, pozycji w kraju i za granicą) • ocena wydajności (publikacje, produkty) i strategii jej poprawy • ocena relewantności (w badaniach naukowych, w społeczeństwie, w odniesieniu do komercjalizacji) • ocena potencjału i możliwości jego realizacji przez instytut oraz wizja przyszłości (na podstawie pozycjonowania i benchamrkingu, a także mocne i słabe strony w analizie SWOT: strategia na przyszłe lata, siły konkurencyjna, solidność i stabilność, zdolności do pozyskiwania funduszy). Część 2. Ocena poszczególnych grup badawczych lub programu Instytutu, zawierająca: • krótki opis programu, jego celu (celów) i działalności badawczej • ocena jakości (oryginalność badań, znaczenie naukowe, spójność programu, strategia publikacji, wybitność naukowców) – przeprowadzonych w Instytucie badań i prac rozwojowych, a także infrastruktury badawczej, zarządzania programem badań, zasobów finansowych i ludzkich • ocena wydajności grup badawczych, działalności badawczo-rozwojowej i infrastruktury badawczej (kwantyfikacja dorobku publikacyjnego i wyników badań i rozwoju; pomiar wykorzystania infrastruktury badawczej uzyskanej ze środków publicznych przez instytut przez osoby trzecie) 235 • ocena relewantności (B+R i infrastruktury badawczej – zarówno dla środowiska akademickiego i jak i dla społeczeństwa; komercjalizacja) • ocena potencjału i możliwości jego realizacji przez instytut oraz wizja przyszłości (jego planów badań, elastyczność i przewidywanie zmian, jakich należy oczekiwać w najbliższej przyszłości) [Langfeldt 2002]. Schemat raportu jest powtórzony w przekazanej instytutom liście, wg której mają one przeprowadzić własną ocenę średnio-okresową w skali jeden do pięciu (doskonały, bardzo dobry, dobry, dostateczny, niedostateczny): Poziom Instytutu Jak oceniasz instytut w odniesieniu do: Jakości A1 Przywództwa A2 Reputacji akademickiej A3 Organizacji A4 Zasobów A5 Kształcenia doktorantów Wydajności B1 Strategia wydajności B2 Wydajność Relewantności C1 Społeczna relewantność Potencjału i możliwości ich realizacji (vitality and feasibility) D1 Strategia D2Analiza SWOT D3 Solidność i stabilność (robustness and stability) 5 4 3 2 1 Poziom grup badawczych lub programu Jak oceniasz grupę badawczą / program w odniesieniu do: Jakości A1 Jakości i społecznej relewantności badań A2 Przywództwa A3 Reputacji akademickiej A4 Organizacji A5 Zasobów Wydajności B1Strategia wydajności B2 Wydajność Relewantności C1 Społeczna relewantność Potencjału i możliwości ich realizacji D1 Strategia D2 Solidność i stabilność Źródło: Standard Evaluation Protocol (SEP) 2009-2015. Protocol For Research Assessment In The Netherlands, VSNU, KNAW and NWO 2009 236 Bibliografia Diana Hicks, Overview of Models of Performance-Based Research Funding Systems, DSTI/STP/RIHR(2010). Measures of quality and impact of publicly funded research in the humanities, arts and social sciences, 2005. Terttu Luukonen, Bertel Ståhle, Evaluation of Research Fields – Scientists` View, 1993. Standard Evaluation Protocol (SEP) 2009-2015. Protocol For Research Assessment In The Netherlands, VSNU, KNAW and NWO 2009. Jack Spaapen, Huub Dijstelbloem and Frank Wamelink, Evaluating Research in Context. A method for comprehensive assessment, Haga 2007. Terttu Luukonen, Bertel Ståhle, Evaluation of Research Fields – Scientists` View, 1993. Liv Langfeldt, Decision-making in expert panels evaluating research. Constraints, processes and bias, NIFU 2002. Review of Physics in Denmark, Ministry of Education and Research 1992. FAZY EWALUACJI INSTYTUCJONALNEJ Por. też >EWALUACJA INSTYTUCJI PUBLICZNEGO SEKTORA NAUKI OPARTA NA POMIARZE DOKONAŃ; >ORGANIZACJA EWALUACJI INSTYTUCJONALNEJ; >METODY STOSOWANE W EWALUACJI INSTYTUCJONALNEJ; >PYTANIA I KRYTERIA W EWALUACJI INSTYTUCJONALNEJ. Przeprowadzanie ewaluacji instytucjonalnej obejmuje następujące fazy: Projektowanie Ewaluacja Wdrażanie Stosowanie Kluczowa faza projektowania obejmuje siedem działań: 237 Uzasadnianie Określenie celu instytucjonalnego Określenie funkcji ewaluacji instytucjonalnej w zarządzaniu nauką Ustalenie roli odbiorców i użytkowników Sformułowanie zasad działania Zdefiniowanie parametrów Operacjonalizacja W rozwinięciu, schemat ewaluacji instytucjonalnej można by przedstawić w następujący sposób: Projektowanie Określenie założeń Zdefiniowanie motywu przeprowadzania ewaluacji, np. • Poprawa jakości badań (lub także innych form działalności opartej na badaniach lub innych form działalności naukowej i technicznej) • Wzrost dodatniego wpływu badań na otoczenie • Zwiększenie wydajności pracy naukowej Opisanie celu instytucjonalnego, np. • Podstawa finansowania • „Rozliczanie” (accountability) • Narzędzie samo-oceny i poprawy • Wkład do decyzji dotyczących priorytetów oraz strategii • Zapewnienie przejrzystości decyzji Zdefiniowanie funkcji ewaluacji instytucjonalnej jako elementu polityki i zarządzania nauką, a w szczególności jako elementu systemu ocen (ewaluacje, audyt, benchmarking itd.) oraz procesu decyzyjnego („cyklu polityki”). Ustalenie roli finansowania instytucjonalnego („statutowego”) w stosunku do innych form finansowania (przede wszystkim finansowania projektów indywidualnych oraz projektów w ramach programów). Określenie ewaluacji jako elementu polityki wymaga spojrzenia na politykę jako na zbiór powiązanych ze sobą instrumentów i programów zmierzających do realizacji priorytetów rządowych (poniżej – jedna z możliwych klasyfikacji polityki naukowej i innowacyjnej). Rozpoznanie • obowiązujących praw regulujących przebieg ewaluacji oraz określających jej cel 238 • • • instytucjonalnych ram przeprowadzania ewaluacji zasobów finansowych, kadrowych i bazodanowych, jakimi będą rozporządzać organizatorzy ewaluacji istniejącego systemów gromadzenia, weryfikacji i przetwarzania danych i informacji pod kątem potrzeb ewaluacji Określenie standardów, dobrych praktyk i wartości (np. przejrzystość, stabilność, jednolitość zasad, ścisłość, obiektywizm, przejrzystość, profesjonalizm i niezależność (brak konfliktu interesów) ewaluatorów), które chce się przestrzegać; powołanie forum rozwoju metodologii ewaluacji Ustalenie roli odbiorców i użytkowników na różnych etapach tworzenia systemu, od projektowanie, poprzez wdrażanie, utrzymywanie oraz ewaluację, takich jak: • Politycy • Urzędnicy agencji i ministerstw • Badacze • Eksperci ds. ewaluacji • Menedżerowie ewaluacji • Eksperci dziedzinowi • Menedżerowie • Użytkownicy badań • Inni zainteresowani • Opinia publiczna Opisanie zasad działania systemu ewaluacji dotyczących poszczególnych faz, takich jak • projektowanie o ocena dotąd stosowanego systemu o przeprowadzenie benchmarkingu stosowanych systemów o przeprowadzenie badań i analiz zespół ds. badań i analiz panele eksperckie ekspertyzy (np. wskaźniki – konsekwencje stosowania; analizy wpływu finansowania opartego na ocenie dokonań) konsultacje wśród zainteresowanych oraz szerszej grupy interesariuszy pilotaże sprawdzające działanie systemu debata publiczna • wdrażanie o ocena funkcjonowania (ewaluacja ewaluacji), ustalenie kto i wg jakich zasad przeprowadza ocenę ewaluacji Zdefiniowanie kluczowych parametrów ewaluacji • Zakres przedmiotowy oceny (np. badania naukowe, B+R, edukacja, inne formy działalności N+T) • Zakres instytucjonalny (np. uczelnie) 239 • Jednostki oceny (np. jednostki naukowe w rozumieniu ustawy, jak w Polsce, jednostki dyscyplinowe w ramach uczelni, jak w projekcie brytyjskim; problem interdyscyplin) • Ujęcie podstawowych pytań i kryteriów w wymiary (bloki tematyczne), np. • o Jakość badań o Produktywność o Relewantność i wpływ społeczno-gospodarczy o Skuteczność zarządzania (plastyczność organizacji, przywództwo i zarządzanie) Ustalenie metod uzyskania odpowiedzi o Ilościowe (wskaźniki, indeksy) o Jakościowe (np. panel ekspertów) Operacjonalizacja systemu 1. Koncepcyjna, np.: o wybór wskaźników oraz informacji jakościowych dla każdego wymiaru (bloku tematycznego), jeśli to możliwe w ramach wymiarów (bloków) niższego rzędu (np. jak w Holandii, gdzie w ramach wymiaru jakości uwzględnia się m.in. jakość naukową, przywództwo, prestiż akademicki itd.) o ustalenie definicji wskaźników; o ustalenie sposobu łączenia informacji ilościowych (np. indeks) i jakościowych (panel ekspertów) oraz funkcji każdego ze źródeł, np. w zależności od wymiaru, dyscypliny lub typu instytucji; o rozstrzygnięcie szczegółowych problemów związanych ze wskaźnikami, takich jak np. czy w ramach jednostki oceny brać pod uwagę wszystkie czy wyłącznie wyselekcjonowane publikacje, określenie poziomu agregacji danych bibliometrycznych (np. badacz, jednostka oceny) oraz zakresu rzeczowego i czasowego badań cytowań, itd.; o ustalenie punktów oraz wag dla poszczególnych wskaźników lub ich grup (wymiarów); o decyzje co do różnicowania zasad oceny w zależności od typów dyscyplin oraz instytucji; o postanowienia co do kategorii dyscyplinowych z uwzględnieniem możliwości ich przekładu na kategorie stosowane w dostępnych bazach danych, np. Web of Science lub Scopus; o decyzje co do liczby i zasad budowy kategorii ocenianych jednostek oraz skali oceny (np. 1-5); o decyzje co do charakteru powiązań – ścisłych lub luźnych – pomiędzy uzyskanymi wartościami mierników (kategorią wg skali) a decyzjami finansowymi; o określenie znaczenia wszystkich pojęć, jakie będą stosowane podczas ewaluacji dla uniknięcia możliwych nieporozumień; o rozstrzygnięcie dylematów, np. pomiędzy elastycznością systemu, koniecznego wobec szybkości zmian w nauce i jej otoczeniu, a jego stabilnością, niezbędną, aby był przewidywalny dla ocenianych instytucji; oceną akademicką a oceną społeczną badań; oceną badań naukowych a oceną innych prac naukowych i technicznych oraz dydaktycznych; 240 jednolitością kryteriów a ich zróżnicowaniem ze względu odmienności dyscyplin oraz specyfikę poszczególnych typów jednostek, itp. 2. o sporządzenie projektów kwestionariuszy dla wizytacji dokonywanej przez zespoły ekspertów (albo ogólnych ram lub wytycznych, wg których zespoły powinny takie kwestionariusze przygotować) o sporządzenie projektu indeksu lub zbioru wskaźników dla ocenianych jednostek; realizacja wszystkich koniecznych faz przygotowania indeksu, takich jak opracowanie ram teoretycznych, wybór danych, imputacja, analiza wieloczynnikowa, normalizacja, ważenie i agregacja, sprawdzanie solidności indeksu, dekompozycja, testowanie i wybór form wizualizacji o określenie przebiegu i form kontynuacji (follow-up) ewaluacji, np. w postaci samo-ewaluacji dokonywanej przez same oceniane jednostki wg zalecanego schematu o nakreślenie schematu raportu komisji ewaluacyjnej organizacyjna o o ustalenie podziału zadań odnoszących się do przygotowania koncepcji między zleceniodawcę (np. ministerstwo lub agencję) a realizatorem ustalenie form organizacyjnych, np. trybu powoływania oraz działania paneli / komisji ewaluacyjnych o rozpisanie zadań dla organizacji przeprowadzającej ewaluację, ewaluatorów, ocenianych, instytucji dostarczających informacje, takich jak instytucje naukowe, biblioteki lub ośrodki informacji, o określenie sposobu finansowania, o sporządzenie harmonogramu prac, w szczególności, opracowanie planu pracy dla paneli lub komisji ewaluacyjnych (m.in. w zależności od metody ewaluacji, np. spotkania z dyrektorem instytutu, radą naukową, interesariuszami i użytkownikami badań, analiza dokumentacji oraz danych bibliometrycznych itd.), sposobu analizy danych, określenie efektu końcowego prac (np. raportu), ustalenie trybu podejmowania ostatecznych decyzji, o określenie sposobu gromadzenia, weryfikacji, przetwarzania i upubliczniania danych, o ustalenie kwestii związanych z informacją nt. systemu oraz ze szkoleniem w dziedzinie ewaluacji, o ustalenie częstotliwości i okresu trwania ewaluacji (jej cyklu), o opis sposobu odwoływania się od decyzji, o rozstrzygnięcie kwestii dotyczących formy ogłoszenia zasad ewaluacji instytucjonalnej oraz minimalnego okresu pomiędzy ogłoszeniem zasad a rozpoczęciem ewaluacji, 3. proceduralna (ustalenie procedur w formie protokółu, rozporządzenia itd.), 4. etyczna (opracowanie kodeksu zasad i dobrych praktyk). 241 5. techniczna (obejmująca m.in. bazy zawierające dane konieczne do oceny, np. dotyczące dorobku publikacyjnego; bazy zawierające dane niezbędne do administrowania systemem, np. dotyczące potencjalnych i powołanych członków komisji ewaluacyjnych; sposób pobierania danych i ich przetwarzania) Wdrażanie systemu ewaluacji. Ogłoszenie przez zleceniodawcę planu wszystkich ewaluacji, które zamierza przeprowadzić w nadchodzącym cyklu. Stały monitoring zasad i praktyki z możliwością auto-korekty. Określenie roli we wdrażaniu decydentów, menedżerów ewaluacji, poddawanych ocenie, zewnętrznych ekspertów i innych interesariuszy. Stosowanie systemu ewaluacji. Administrowanie systemem • Zbieranie danych • • Analiza danych (interpretacja zebranych danych, ich porównanie, uchwycenie różnic) Podejmowanie decyzji opartych na ewaluacji • Pełnienie przez ewaluację podstawowych funkcji – ewaluacyjnych, alokacyjnych, politycznych (np. wkład do strategii oraz budowy priorytetów) i zarządczych Ewaluacja • • • • Konsultacje przed zaprojektowaniem, w trakcie jego stosowania oraz po zakończeniu cyklu ewaluacji Ewaluacja ex ante (m.in. ustalanie możliwych ujemnych efektów ubocznych), Ewaluacja interim (monitoring zarówno działania ewaluatorów i administratorów, jak i sprawdzanie skuteczności planu) Ewaluacja ex post przez odrębny zespół ekspertów. Bibliografia Przewodnik Ewaluatora Opracowany w Ramach Ewaluacji procesu wdrażania Regionalnych Strategii Innowacji, PARP 2007. EWALUACJA POZA-UCZELNIANYCH PUBLICZNYCH INSTYTUCJI NAUKOWYCH (PPIN) Poza-uczelniane Publiczne Instytucji Naukowe definiuje się jako krajowe podmioty, niezależnie od ich statusu prawnego (podstawy w ramach prawa publicznego lub prywatnego): • których głównym celem jest prowadzenie badań podstawowych, badań przemysłowych, prac rozwojowych, szkolenia, doradztwa i usług, a także rozpowszechnianie wyników badań poprzez szkolenia, publikacje i transfer technologii; • których zyski (jeśli istnieją) są reinwestowane w działalność badawczą, rozpowszechnianie jej wyników lub szkolenia oraz • które są w całości lub w znacznej części własnością publiczną, i/lub są finansowane przede wszystkim ze środków publicznych poprzez finansowanie instytucjonalne (gran- 242 ty blokowe) lub poprzez badania opartego na umowie, tak aby przede wszystkim realizować misję publiczną. Pozauczelniane publiczne instytucje naukowe są silnie zróżnicowanie pod względem misji, funkcji, statusu prawnego, specjalizacji, powiązań z otoczeniem oraz źródeł finansowania. Te ostatnie obejmują tak różne składniki, jak: • • • • • • finansowanie instytucjonalne nie obwarowane warunkami (lub tylko ogólnymi) i nie ukierunkowane na realizację określonego projektu lub programu, finansowanie projektów, dotacje rządowe i samorządowe na wykonywanie określonych usług, takich jak np. testowanie, kontrakty rządowe i samorządowe udzielane w wyniku przetargu, kontrakty ze strony biznesu, inne (np. dochody z tytułu wynajmu pomieszczeń lub produkcji na małą skalę) [OECD 2009]. Ze względu na to bardzo silne i rosnące zróżnicowanie, zasady finansowania pozauczelnianych instytucji naukowych oraz rodzaj powiązań, jakie zachodzą pomiędzy finansowaniem publicznym a ewaluacją poza-uczelnianych publicznych instytucji naukowych różnią się nie tylko pomiędzy, ale także wewnątrz poszczególnych krajów. Oprócz Polski instytuty te – wg dostępnej wiedzy – nie podlegają >KRAJOWYM SYSTEMOM EWALUACJI BADAŃ w tych krajach, w których systemy te obowiązują. Systemy te obejmują w zasadzie jedynie uczelnie. Zazwyczaj zasady ewaluacji pozauczelnianych instytucji naukowych różnią od zasad stosowanych w ocenie badań prowadzonych w uczelniach, są bardziej ukierunkowane na ocenę (nie tylko) produktów, ale także efektów i wpływów. Ogólnie rzecz biorąc, ewaluacje PPIN przeprowadza się aby lepiej zrozumieć skalę, charakter i determinanty zwrotu z inwestycji, a także aby poznać wszystkie niezamierzone skutki tych inwestycji. Celem ewaluacji jest poprawa zarządzania i finansowania PPIN oraz uczenie się z sukcesów i porażek. Kluczowe pytania zadawane podczas ewaluacji dotyczą efektywności i skuteczności instytucji i ich programów, uzasadnień interwencji rządu oraz tego, czy poprzez finansowanie rządu osiągnięto dodatkowość. Ewaluacje przeprowadza się na różnych poziomach: najczęściej na poziomie instytucji, ale także na poziomie programów, typów działalności lub (rzadko) na poziomie całego sektora PPIN. Najczęściej ewaluację przeprowadzają firmy konsultacyjne, rzadziej indywidualni zagraniczni eksperci. Najważniejszym pytanie zadawane podczas ewaluacji dotyczy wpływu lub wartości dodanej (instytucji, programu lub sektora), rozumianych różnie, ale często w sposób szeroki, z uwzględnieniem oddziaływania na społeczeństwo i gospodarkę. Inne pytania dotyczą rezultatów (publikacje, patenty), skuteczności, transferu wiedzy, planowania strategicznego, zarządzania. 243 Przeprowadzając ewaluacje najczęściej sięga się po ocenę jakościowa (wywiady i kwestionariusze do zainteresowanych stron), a także po analizę kosztów i korzyści i analiza danych. Niekiedy korzysta się ze wskaźników, które z natury informują o przeszłości, rzadziej uwzględnia się w ewaluacji przyszłe skutki badań [OECD 2009]. W pewnych krajach – np. we Flandrii (Belgia), Finlandii, Włoszech, Japonii, Nowej Zelandii i Norwegii – okresowe ewaluacje publicznych poza-uczelnianych instytucji naukowych zostały wpisane do procesu politycznego. W Norwegii program finansowania instytucjonalnego poza-uczelnianych instytucji naukowych (ok. 10% budżetu nauki) oparty został na wskaźnikach dokonań, takich jak m.in. liczba publikacji, współpraca z uczelniami, skala przychodów z grantów Rady ds. Badań oraz skala przychodów z zagranicy. W Finlandii ustalając poziom finansowania bierze się pod uwagę takie czynniki, jak wpływ społeczny, wydajność operacyjna, jakość zarządzania, produkty. W Japonii instytuty są zobowiązane do corocznego przesyłania raportów dokumentujących uzyskane osiągnięcia; pewne kategorie instytutów podlegają przeprowadzanym co kilka lat ewaluacjom. W Niderlandach wskaźniki ewaluacji pewnej grupy instytutów technologicznych obejmują: Wskaźniki systemu innowacji • • • • • • • • • • • • publikacje/materiały konferencyjne liczba publikacji na jednego badacza dysertacje liczba badaczy przechodzących do pracy na uczelniach Wskaźniki wpływu na biznes liczba współpracujących firm przychody z gospodarki obroty partnerów z przemysłu jako % ogółu obrotów liczba badaczy przechodzących do pracy w przemyśle liczba patentów (wniosków i udzielonych) liczba licencji liczba firm odpryskowych Wskaźniki umiędzynarodowienia • • • • • udział badaczy nie holenderskich/spoza UE udział budżetu B+R wykorzystanego poza Niderlandami liczba współpracujących firm zagranicznych (z wyjątkiem filii firm zagranicznych w Niderlandach) liczba projektów unijnych liczba zagranicznych ekspertów biorących udział w planowaniu badań Wskaźniki wydajności • stosunek ogółu przychodów do dotacji rządowych 244 • • • stosunek liczby badaczy (mierzonych wg współczynnika czasu pracy) do ogółu przychodów stosunek liczby badaczy (mierzonych wg współczynnika czasu pracy) do dotacji rządowych wielkość budżetu przeznaczonego na B+R [OECD 2009]. E. Geisler [1996] z Wydziału Zarządzania Uniwersytetu w Wisconsin zaproponował ewaluację poza-uczelnianych instytucji opartą na wskaźnikach złożonych wg metody nazwanej przez niego Zintegrowaną Miarą Zasług (Integrated Figure of Merit, IFM). IFM to połączenie metody oceny kosztów z oceną dokonań B+R. Ocena kosztów obejmuje wszystkie wydatki na naukowców i inżynierów, personel pomocniczy, materiały, dostawców oraz na maszyny i urządzenia. Uwzględnia także koszty pośrednie, zgodnie ze stosowanymi w organizacji zasadami ich obliczania. Stosunek kosztu pracy naukowców i inżynierów pozwala na przeprowadzanie porównań między agencjami nauki i dyscyplinami. Ocena dokonań składa się z dwóch rodzajów wskaźników produktów badań: • • podstawowych wskaźników, które są wskaźnikami ogólnych wyników, mającymi zastosowanie w każdej dziedzinie nauki i we wszystkich organizacjach badawczych (np. prowadzących badania nad przestrzenią, środowiskiem, obroną), np. wskaźnik publikacji. wskaźników specyficznych dla organizacji, np. sporządzane przez laboratorium ekspertyzy techniczne. Rozróżniając produkty, efekty i wpływy, autor przytacza przykładowe wskaźniki produktów oraz efektów organizacji badawczych. PRZYKŁADOWE WSKAŹNIKI DO INDEKSU PRODUKTU I. GŁÓWNE KLUCZOWE WSKAŹNIKI PRODUKTU 1. Indeks dokumentów pisanych 1.1. Liczba publikacji w czasopismach 1.2 Liczba sprawozdań technicznych 1.3 Liczba cytowań w czasopismach 2. Indeks innych produktów 2.1 Liczba nowych idei 2.2.Liczba nowych lub ulepszonych metod badań, modeli, norm, pojęć i baz danych 2.3 Liczba rozwiązań problemów dla klientów 2.4 Ulepszone rozumienie zjawisk 2.5 Wskaźniki wymiany personelu 2.6 Liczba prezentacji dla organizacji zawodowych 3. Ogólnej reputacja organizacji 3.1 Liczba otrzymanych nagród 3.2 Kamienie milowe / spełnione cele 3.3 Osąd peer review II WSKAŹNIKI SPECYFICZNE DLA ORGANIZACJI 1. Poziom wiedzy technicznej 1.1 Udział osób posiadających tytuł doktora naukowego do ogółu pracowników 1.2 Doświadczenie naukowców i inżynierów: ogólna liczba lat pracy naukowej 2. Atrakcyjności Organizacji Badawczej 245 2.1 Liczba kandydatów ubiegających się o stanowiska naukowe 2.2 Osąd peer review PRZYKŁADOWE WSKAŹNIKI DO INDEKSU EFEKTU I. KLUCZOWE WSKAŹNIKI EFEKTU 1. Indeks naukowego wpływu 1.1 Liczba ulepszonych i / lub nowych produktów 1.2 Liczba ulepszonych lub nowych materiałów 1.3 Liczba ulepszonych i / lub nowych metod badawczych 2. Indeks innych oddziaływań na odbiorców wyników badań 2.1 Rzeczywiste obniżenie kosztów lub oszczędność 2.2 Rzeczywista poprawa wydajności materiałów, sprzętu, techniki lub osób II. KLUCZOWE WSKAŹNIKI PRODUKTU SPECYFICZNE DLA ORGANIZACJI 1. Indeks znaczenia wyników badań 1.1 Postrzegany sukces produktów przekazanych na zewnątrz 1.2 Łatwość transformacji i transferu produktów 1.3 Poziom współpracy i koordynacji w organizacji dokonującej transferu produktów 1.4 Osąd peer review Bibliografia Reinhold Hofer, Draft Questionnaire on Public Research Institutes, OECD 2010. E. Geisler, Integrated Figure of Merit of Public Sector Research Evaluation, “Scientometrics” vol. 36 1996 no. 3. OECD Strengthening the Impact of Public Research Institutions. Evaluation of PRIs, 2009 R. Miller, A. Manseau, Bibliometric indicators and the competitive environment of R&D laboratories, “Scientometrics” vol. 36 no. 3 1996. EWALUACJA EX-POST AGENCJI FINANSUJĄCYCH BADANIA NAUKOWE I TECHNOLOGICZNE Ewaluacja ex-post to opis, analiza i ocena projektów, procesów programu lub jednostek organizacyjnych. Podkreśla się, że w agencjach ewaluacja jest jednym ze źródeł wiedzy dla zarządzania i podejmowania decyzji. Przybiera ona dwie formy: ewaluacji programów agencji oraz ewaluacji samych agencji. 246 Ewaluacja Monitoring Monitoring Źródła wiedzy Budżet i księgowość Wewnętrzny audyt Ewaluacja programów agencji Ocena programów badawczych i programów finansowania jest stosunkowo nową dziedziną, jednak zyskuje ona coraz większe znaczenie i szybko się rozwija. Wyróżnia się siedem typów programów: 1. Tryb responsywny – programy prowadzone na zasadach konkursowych, w których badacze w regularnych odstępach czasu mogą ubiegać się o sfinansowanie ich projektów we wszystkich (lub w wielu) dziedzinach. 2. Instrumenty rozwoju kariery, programy mające na celu przyciągnąć, rozwinąć i zatrzymać utalentowanych badaczy. Często są one przeznaczone dla konkretnych obszarów badań lub dla pewnych etapów kariery . 3. Programy centrów doskonałości to zazwyczaj znaczne długoterminowe dotacje, oparte na zasadach konkursowych. Centra mogą mieć charakter międzyinstytucjonalnych sieci badawczych, z badaczami którzy pracują razem wg wspólnie uzgodnionego programu pracy . 4. Programy tematyczne to programy, które określają finansowanie programów badawczych w ściśle określonym obszarze tematycznym . 5. Transfer wiedzy / Współpraca z gospodarką – dotacje na transfer wiedzy i technologii. 6. Infrastruktura / aparatura – programy przeznaczone na finansowanie dużego sprzętu badawczego i infrastruktury. 7. Inne [ESF 2009]. 247 Każdy typ charakteryzuje się stosowaniem innych metod, zadawaniem innych pytań, sięganiem po odmienne wskaźniki, innym charakterem kontynuacji, innym okresem trwania, oraz innymi kosztami: Charakterystyki programów Responsywne / kariery badawcze Centra doskonałości Tematyczne Metoda Analiza dokumentów, aplikacji i nagród, analiza rezultatów, badania ankietowe, wywiady, grupy fokusowe Samoocena i międzynarodowy panel ekspertów. Literatura przedmiotu, analizy statystyczne, wywiady z zainteresowanymi stronami, analiza sieci, analiza bibliometryczna, porównania międzynarodowe. Wywiady, statystyki, analizy dokumentów Pytania Czy program osiągnął cele? Czy cele zachowują ważność? Czy warto kontynuować? Jak ulepszyć? Czy program osiągnął cele? Czy cele zachowują ważność? Czy warto kontynuować? Jak ulepszyć? Jaki odbiór programu w środowisku naukowym? Czy program osiągnął cele? Czy cele zachowują ważność? Czy warto kontynuować? Jak ulepszyć? Wskaźniki Ilościowe i jakościowe Ilościowe i jakościowe Ilościowe i jakościowe • Produkty, rezultaty i oddziaływania Liczba publikacji, cytowania, dorobek, budżety. Wnioski i decyzje grantowe • Poziom zadowolenia (procedury, finansowanie) Struktura współpracy, kwestie zarządzania i przywództwa, opinia zainteresowanych Budżet Porównanie z programami innych Rad ESF 2009 Organizacje finansujące badania potrzebują ewaluacji aby: • • • • • • • wypracować podstawy merytoryczne dla rozwoju strategii, udokumentować praktyki finansowania i tym samym zapewnić przejrzystość w sprawach dotyczących pieniędzy podatników, podjąć decyzję o alokacji zasobów, wspierać proces uczenia się o systemie finansowania, co może prowadzić do ulepszenia programów, wykazać, że wykonywane badania oraz organizacje finansujące badania naukowe są „rozliczalne” („acccountable”), przekazywać zainteresowanym informacje o wpływie i wynikach programów rządowych; pozwolić beneficjentom wyrazić swoje opinie na temat systemu finansowania, procedur składania wniosków oraz warunków prowadzenia badań (np. przez wizyty w terenie, wywiady, badania ankietowe). Każda ewaluacja musi opierać się na schemacie znanym jako >LOGIKA INTERWENCJI, ramy zwrotu lub model logiczny. Pojawienie się baz danych o finansowaniu badań oraz o wynikach badań był i nadal jest siłą napędową w procesie ewaluacji. Obecnie, stosunkowo tanio i przy niewielkim wysiłku, można analizować dane z wielu projektów badawczych. W przeciwieństwie do pa248 pierowych dokumentów, dane i dokumenty elektroniczne można porównywać i analizować, również w szeregach czasowych. Ewaluacje ex-post badań często korzystają z metod wywodzących się głównie z nauk społecznych i wskaźników statystycznych. Metody obejmują wywiady, wizyty w terenie, analizy bibliometryczne, ankiety, badania panelowe, różne formy analiz statystycznych itp. Jest niezwykle ważne, aby do danej kwestii użyć właściwej metody. Każda ewaluacja jest okazją do rozszerzenia metod. Chociaż czasem dobrze jest stosować sprawdzone metody, czasami nowe podejścia prowadzą do świeżego spojrzenia. Ewaluacje badań sięgają po różne wskaźniki, które bezpośrednio lub pośrednio próbują uchwycić aspekty produktów badań, efektów i wpływów. Intencją podejść ilościowych jest przezwyciężyć niebezpieczeństwo subiektywności i uzależnienia od sądów ograniczonej liczby ekspertów. Jednak informacje ilościowe mogą być interpretowane na różne sposoby. Wskaźniki są dużym stopniu zależne od warunków (pola badań, kraju) i nie mogą być interpretowane poza kontekstem. Wpływ programów to podstawowe pytanie każdego badania ewaluacyjnego. „Badania wpływu” obejmują niezamierzone konsekwencje finansowania i realizacji projektów badawczych oraz wpływ systemu badań na wyniki badań. Istnieją stosunkowo nieliczne wzory udanych badań wpływu. Każda próba z oceną wpływu zależy przede wszystkim od solidnej bazy danych i metodologii zapewniającej sensowne wskazówki co do związków przyczynowych. Takim przykładem udanej ewaluacji jest the Impact Evaluation of the Academy of Finland of Finnish Programmes of Centres of Excellence, sięgająca po studia przypadków, wywiady, analizę dokumentów i inne metody, a także opinie interesariuszy, naukowców którzy otrzymali dotacje i tych, którzy ich nie otrzymali, oraz zawierająca porównanie z programami w innych krajach [ESFa 2012]. Ewaluacje przeprowadza się częściej niż dawniej. Większość ewaluacji przeprowadzają zagraniczni eksperci. Główny cel to zrozumienia jak program działa i jego poprawa. Niemal wszystkie ewaluacje sięgają po różne metody, ilościowe i jakościowe. Ewaluacje przeprowadza się z różną regularnością; bardziej systematycznie wówczas, gdy są one wpisane do strategii agencji (rady badawczej) [ESF 2009]. Ewaluacja agencji. Agencje finansujące badania naukowe to jedne z wielu podmiotów krajowych systemów badań i innowacji. Wraz z uniwersytetami, instytucjami badawczymi, ministerstwami ds. nauki stanowią one część ekosystemu finansowania, prowadzenia i komercjalizacji badań naukowych. Ogólnie, krajowe systemy innowacji przechodzą regularne ewaluacje w celu np. dostosowania ich do szybko zmieniającego się i konkurencyjnego środowiska globalnego. Ponadto, agencje finansujące badania także poddaje się od czasu do czasu ewaluacji celem oceny, czy dobrze spełniają one swoją rolę w ekosystemie. Ewaluacja ta polega na ocenie ich strategii i działań w ramach krajowych systemów badań i innowacji. Jako przykłady udanych ewaluacji przytacza się: • Ewaluacja systemowa Niemieckiej Fundacji Badawczej (DFG) i Towarzystwa Maxa Plancka (MPG) w 1999. Obie instytucje i MPG (DFG) poproszono o dostar249 • • • czenie pisemnych odpowiedzi na szereg pytań sformułowanych przez panel ekspertów. Pytania te dotyczyły mocnych i słabych stron niemieckiego systemu badań oraz pozycji tych instytucji w ramach systemu. Inny zestaw pytań dotyczył strategii oraz środków zapewniania jakości. Po analizie odpowiedzi panel odwiedził DFG i MPG, odbył także wiele rozmów z przedstawicielami innych organizacji badawczych i odwiedził trzy uniwersytety. Ewaluacja Rady Badań Naukowych Norwegii w 2001. Celem uzyskania solidnej empirycznej podstawy oceny sięgnięto po wiele metod: po analizę bibliometryczną, badania ankietowe oraz wywiady z osobami pracujących w RBN oraz z różnymi zainteresowanymi stronami. Zagranicznie naukowcy i administratorzy oceniali także oddzielnie każdy z działów badawczych RBN. Przygotowano szesnaście raportów. Ewaluacja Austriackiego Funduszu Nauki w 2004. Międzynarodowy zespół oceniający, składający się z 20 osób z instytutów naukowych i firm konsultingowych (Technopolis, Joanneum Research, WIFO, ETH Zurich (KOF) oraz Uniwersytet w Twente) pod kierunkiem Erika Arnolda oceniał rolę funduszu w austriackim systemie innowacji i w porównaniach międzynarodowych. Sięgnięto po szeroki zakres metod jakościowych i ilościowych [ESF 2009]. Ewaluacja Australijskiej Rady Badawczej (ARC) polegała na oszacowaniu wpływu finansowania ARC na produktywność australijskiej gospodarki. W ten sposób obliczono stopę zwrotu z inwestycji rządowych. Na podstawie literatury australijskiej i międzynarodowej określono sześć głównych korzyści z badań: 1) tworzenie nowej wiedzy, 2) własność intelektualna, 3) lepsze kompetencje, 4) dostęp do międzynarodowych badań, 5) zdrowie i środowisko, 6) korzyści kulturalne. Na podstawie obliczeń korzyści płynących przez te sześć kanałów obliczono ogólną społeczną stopę zwrotu z inwestycji [OECD 2007]. Proces ewaluacji obejmuje następujące etapy: • Idea projektu • Grupa sterująca, plan wstępny, główne pytania, Planowanie zabezpieczenie finansowania • Powołanie sekretariatu • SIWZ Przygotowanie • Przetarg i start projektu • Realizacja: panel/wizyty/ankiety/analizy • Wstępny raport i feedback Wdrożenie • Akceptacja raportu Dyskusja • Dyskusja wewnątrz agencji i ministerstwa • Publikacja • Follow-up (wdrożenie zaleceń) ESFb 2010 Dobre praktyki i wzory ewaluacji agencji. „Złote zasady” Europejskiej Fundacji Nauki głoszą: 250 1. Przedyskutuj , dlaczego powinno się przeprowadzić ewaluację i jak jej wyniki mogły by być przydatne dla agencji (interesariuszy). 2. „Zogniskuj” cele ewaluacji i plany dalszych działań . Zidentyfikuj wyzwania i ryzyka i upewnij się, że ewaluacja „zrobi różnicę”. 3. Przeznaczyć wystarczającą ilość czasu i zasobów do planowania i projektowania projektu ewaluacji. 4. Wyjaśnij warunki umowy i opis projektu i upewnij się, że zostały one przekazane ekspertom zewnętrznym. 5. Upewnij się, że ewaluację uznają za zasadną wszystkie zainteresowane strony. 6. Ustal, czy stosuje się odpowiednie metody. 7. Upewnij się, że ewaluatorzy są niezależni. 8. Podczas ewaluacji porozumiewaj się z grupami docelowymi. 9. Ustal, czy wyniki oceny są wykorzystywane. 10. Przeznacz wystarczającą ilość czasu i zasobów do kontynuacji (follow-up) ewaluacji. 11. Krytycznie oceń proces ewaluacji, aby wyciągnąć z niego nauki [ESFb 2012]. Bibliografia DFG Anke Reinhardt, Evaluation in Research and Research Funding Organisations: European Practices, 2012. ESF, European Science Foundation, A Guide To Evaluation Activities In Research Funding Agencies. Quality Assurance And Evaluation Guidelines, 2012. ESF, European Science Foundation, Evaluation in National Research Funding Agencies: approaches, experiences and case studies. A report of the ESF Member Organisation Forum on Ex-Post. Evaluation of Funding Schemes and Research Programmes, September 2009. ESF, European Science Foundation, Evaluation in Research and Research Funding Organisations: European Practices. A report by the ESF Member Organisation Forum on Evaluation of Publicly Funded Research, November 2012. Evaluation of the Austrian Industrial Research Promotion Fund (FFF) and the Austrian Science Fund (FWF) Synthesis Report 2004. FNP, Strengthening the Role of the Foundation for Polish Science (FNP) in a Changing Landscape. A Review of the FNP Programme Portfolio by an International Expert Panel, June 2010. Joanneum Research, Evaluation FWF Impact Analysis 2004. Marta Łazarowicz-Kowalik, Fundacja na rzecz Nauki Polskiej, Konferencja: Koncepcja systemu ewaluacji polityki naukowej w Polsce, Warszawa, 3 grudnia 2010 r. NASA's 2009 Performance and Accountability Report OECD Assessing The Socio-Economic Impacts Of Public Investment In R&D 2007. OECD Evaluation Of Publicly Funded Research: Recent Trends And Perspectives, 2006. OECD The Evaluation Of Scientific Research: Selected Experiences, 1997. Research Councils UK, Study on the economic impact of the Research Councils. PART I: Summary, October 2007. Rüdiger Mutz, Lutz Bornmann and Hans-Dieter Daniel, Types of research output profiles: A multilevel latent class analysis of the Austrian Science Fund’s final project report data, “Research Evaluation” 22 (2013) ss. 118–133. Technopolis Singular Council Evaluation of the Research Council of Norway 2001. Technopolis, Evaluation of the Research Council of Norway 2001. The Austrian Science Fund, Ex Post Evaluation And Performance Of FWF Funded Research Projects 2005. 251 EWALUACJA APARATURY I INFRASTRUKTURY BADAWCZEJ Aparatura badawcza (instrument naukowy) to każdy rodzaj sprzętu, aparatury lub urządzenia zaprojektowany tak, aby na podstawie sprawdzonej zasady fizycznej ułatwiał lub umożliwiał pozyskiwanie powtarzalnych, weryfikowalnych danych, zwykle składających się z pomiarów ilości, właściwości zjawisk i materiałów, sił itp.. Pojęcie dużej infrastruktury badawczej obejmuje wielką aparaturę naukową lub zestawy instrumentów naukowych, zbiory i inne zasoby oparte na wiedzy, pliki i bazy danych, systemy komputerowe i oprogramowania, sieci łączności, jak też inną infrastrukturę o unikalnym charakterze niezbędną do prowadzenia badań naukowych. Infrastruktura badawcza może być krajowa lub międzynarodowa, umieszczona w jednej placówce lub też rozproszona lub wirtualna [FCT 2013]. Podkreśla się, że pojęcie infrastruktury badawczej stało się bardziej zróżnicowane. Dawniej mianem tym określano tylko wielkie obiekty, takie jak akceleratory lub statki badawcze, dziś pojęcie to obejmuje nie tylko rozproszoną infrastrukturę badawczą, ale także zbiory i bazy danych, e-infrastrukturę oraz infrastrukturę dla badań społecznych [Wissenschaftsrat 2013]. Do form finansowania aparatury należą: • • • • dotacje na studia projektowe i planowanie budowy aparatury/infrastruktury dotacje na inwestycje w urządzenia lub bazy danych dla budowy krajowej lub międzynarodowej aparatury/infrastruktury dotacje na pokrycie kosztów operacyjnych utrzymania w dłuższej perspektywie aparatury/infrastruktury dotacje na zaprzestanie pracy infrastruktury badawczej [FIRI]. Najczęstsze formy ewaluacji aparatury i infrastruktury badawczej obejmują: ewaluację ex ante wniosków o sfinansowanie zakupu aparatury/infrastruktury oraz ewaluację ex post programów jej finansowania. Por. >EWALUACJA PROGRAMÓW I INSTRUMENTÓW. Ewaluacja ex ante wniosków aparaturowych. W Australii ASTEC (Australian Science and Technology Council) oceniając wnioski dotyczące wielkiej aparatury brał pod uwagę odpowiedzi na następujące pytania: • Czy propozycja odnosi się do dziedziny badań posiadającej duże znaczenie jednocześnie dla kraju oraz nauki światowej? • Jakie kluczowe problemy naukowe można by starać się rozwiązać dzięki proponowanej aparaturze? • Dlaczego problemy te mają zasadnicze znaczenie dla australijskiej nauki i techniki? • Czy rozpatrywane urządzenie jest zgodne z bieżącymi priorytetami naukowymi i technologicznymi Australii? • Czy będzie ono służyć znakomitym uczonym i inżynierom? 252 • Czy można oczekiwać, że będzie ono pobudzać badania interdyscyplinarne? • Czy otworzy nowe możliwości kształcenia doktorantów i doktorów? • Czy zwiększy ono atrakcyjność karier naukowej i inżynierskiej? • Czy pobudzi międzynarodową współpracę naukową, ściągając do Australii czołowych uczonych zagranicznych? • Czy rozważane urządzenie powinna zbudować sama tylko Australia, czy też Australia wspólnie z innymi krajami? • Jeśli zbudowane ono zostanie w Australii, czy stanie się magnesem ściągającym fundusze zagraniczne? • Czy budowa rozważanego urządzenia stanie się bodźcem rozwoju przemysłu australijskiego? Czy będzie ono świadczyć usługi dla firm? • Czy będzie ono wzmacniać więzi między uniwersytetami oraz państwowymi i prywatnymi laboratoriami? • Czy prowadzone dzięki niemu badania naukowe przyczynią się do zakładania nowych firm? • Czy urządzenie to jest zgodne z narodowymi priorytetami w zakresie rozwoju wiedzy, wzrostu gospodarczego, zdrowia, jakości życia, bezpieczeństwa narodowego? • Czy będzie ono służyć ochronie środowiska lub lepszemu zarządzaniu zasobami naturalnymi? • Czy można oczekiwać, że zwiększy ono zrozumienie i uznanie opinii publicznej dla osiągnięć australijskiej nauki i techniki? • Czy urządzenie to poprawi obraz Australii jako kraju zaawansowanego technologicznie? • Czy z chwilą oddania do użytku rozważanego urządzenia pozycja Australii w negocjacjach międzynarodowych wzmocni się? W Finlandii Fiński Komitet Infrastruktury Badwczej FIRI (Finnish Research Infrastructure Committee) zestaw ogólnych kryteriów oceny infrastruktur badawczych. Infrastruktura badawcza musi m.in.: • • • • • • • zapewniać podstawę dla światowej klasy badań naukowych wzmacniać międzynarodowe oddziaływanie fińskiej nauki posiadać długoterminowy plan finansowania, utrzymania i użytkowania być używana przez kilka grup badawczych dla badań o wysokiej jakości być otwarta i łatwo dostępna dla naukowców, przemysłu i innych podmiotów posiadać plan ochrony gromadzonych danych i / lub materiałów wprowadzić nową nowoczesną technologię (jeśli to możliwe). Ewaluację projektów infrastruktury badawczej przeprowadza się w pięciu różnych wymiarach. Każdy projekt infrastruktury badawczej jest oceniany indywidualnie w każdym oddzielnym wymiarze, a także w stosunku do innych projektów w innych dziedzinach nauki. Wspomniane wymiary to: 1. Jakość i potencjał naukowy 2. Otwarty dostęp i wykorzystanie 3. Znaczenie dla strategii instytucji przyjmującej 253 4. Krajowe i międzynarodowe znaczenie 5. Wykonalność [FIRI]. Ewaluacja ex post programów. Przekłady ewaluacji z ostatnich lat: • • • • W Wielkiej Brytanii Rada ds. Badań Naukowych w Dziedzinie Biotechnologii i Nauk Biologicznych w ewaluacji ex post korzystała z wyników ankiety adresowanej do wszyst- kich beneficjentów programu aparaturowego. Pytania dotyczyły m.in. o wpływu aparatury na rozszerzenie tematyki badań, publikacje lub inne osiągnięcia, o obecnego stanu i stopnia wykorzystywania aparatury, o innych źródeł finansowania aparatury [BBSRC]. Brytyjska Ekonomiczna i Społeczna Rada Badawcza zleciła studium na temat wpływu gospodarczego programu Usług w Zakresie Danych Ekonomicznych i Społecznych (Economic and Social Data Service). Analiza ekonomiczna korzystała z wielu metod ekonometrycznych. Niemiecka Rada Nauki i Humanistyki zleciła ocenę projektów infrastrukturalnych dużej skali. Ewaluacja odbyła się w dwóch kolejnych etapach: dokonano indywidualnej oceny każdego projektu oraz ogólnej oceny porównawczej. Obie oceny oparto na czterech wymiarach: „naukowy potencjał”, „wykorzystanie”, „wykonalność” oraz „przydatność dla Niemiec jako miejsca nauki i badań naukowych”. W ewaluacji brali udział zagraniczni eksperci [Wissenschaftsrat 2013]. Dyrekcje Generalne ds. Badań Naukowych (DG RTD) oraz ds. Społeczeństwa Informacyjnego i Mediów (DG IN FSO) zleciły przeprowadzenie ewaluacji wpływu wsparcia UE dla infrastruktur badawczych w ramach VI Programu Ramowego (2002-2006) [EU 2009]. Bibliografia BBSRC, Evaluation of BBSRC’s Research Equipment Initiative appendices 2012. ESRC Economic and Social Research Council, Economic Impact Evaluation of the Economic and Social Data Service 2012. EU, Community Support for Research Infrastructures in the Sixth Framework Programme Evaluation of pertinence and impact, 2009. FCT, Evaluation Guidelines, 2013. FIRI, Evaluation criteria for research infrastructure. Wissenschaftsrat, Evaluation of large infrastructure projects, 2013. PEER REVIEW Peer review to osąd wartości naukowej (badaczy, publikacji, instytucji, dyscyplin) dokonywany przez samych badaczy pracujących w tej samej (lub zbliżonej) dyscyplinie. Peer review oparte jest na założeniu, że ocena pewnych aspektów nauki - przede wszystkim jej jakości – powinna zostać pozostawiona ekspertom posiadającym dostateczna wiedzę o rozwoju ocenianego pola badań i uprawiającym to pole. W zasadzie oceny dokonuje się anonimowo. Badacze mogą występować w roli wykonawców lub w roli oceniających; 254 nigdy jednak w obu rolach jednocześnie. Oceniający nie powinni mieć osobistego interesu w wyniku oceny. Praktyki peer review to: procedury, kryteria i osądy (orzeczenia). Najczęściej peer review polega na ocenie dokonanej: • • • • przez agencje grantowe: o Co jest finansowane? Kto jest finansowany? przez czasopisma naukowe i wydawców: o Co jest publikowane? przez organizatorów konferencji: o Kto bierze udział? przez instytucje naukowe: kogo zatrudnić? Kto zasłużył na awans? itp. Agencje grantowe Czasopisma i wydawcy Procedura Kto i jak wybiera recenzentów? Jak prowadzi się spotkania? Jaką rolę odgrywa przewodniczący? Jaką rolę urzędnicy paneli? Kryteria Jak ustala się kryteria oceny? Jak uwzględnia w nich misję agencji? Czy kryteria są obiektywne czy subiektywne? Czy bierze się pod uwagę udokumentowaną doskonałość czy obietnicę? W jakiej formie ustala się decyzje? Kto i jak wybiera Co w syturecenzentów? acjach braku Peer pools? Konflikt zgody? interesów? Czy recenzenci są informowani o nazwiskach autorów, a autorzy o nazwiskach recenzentów? Jakie stosuje się kryteria? Jak rozwiązuje konflikt interesów? Jak określa się dobry artykuł? Orzeczenia Konferencje Instytucje naukowe Jakie istnieją procedury? Co jest przedmiotem peer review? Gdzie sumieszcza się poprzeczkę? Kogo uznaje się za dobrego badacza? Nedeva 2010 Peer review odróżnia się od innych form oceny stosowanych w ramach badań naukowych, takich jak wskaźniki ilościowe i benchmarking. Opierając się na mniej lub bardziej wyraźnie określonych kryteriach oraz często formalnie udokumentowanym procesie oceny, swój autorytet opiera na kwalifikacjach oceniających. Peer Review wzmacnia autonomię środowiska akademickiego, pozostawiając samym praktykom określenie i wprowadzenie w życie standardów doskonałości [OECD IPP 2014]. Podkreśla się, że peer review (upowszechnione po II Wojnie Światowej) jest dla nauki tym, czym demokracja dla rozwoju zachodnich społeczeństw: systemem, który choć ma 255 wiele wad, ma ich jednak mniej niż każdy inny system. W szczególności, jest mniej podatny na korupcję i bardziej wiarygodny w oczach badaczy. Termin peer review (dosł. ocena dokonana przez równych) jest nieco mylący; oceniać powinni najlepsi, a nie przeciętni. Zazwyczaj głównym kryterium oceny jest wkład badań dla nauki oraz zgodność z misją instytucji. Peer review ma być mechanizmem kontroli jakości w nauce, metodą odróżniania „ziaren od plew”, oddzielania idei istotnych i oryginalnych od wtórnych i błahych. Peer review decyduje o podziale pieniędzy na badania lub miejsca w czasopismach, monitoruje przebieg badań, ocenia rezultaty. Spełnia jednocześnie dwie przeciwstawne funkcje. Jako uznany przez większość środowiska mechanizm wzmacnia autonomię nauki. Dla podatnika stanowi gwarancję, że publiczne środki na rozwój badacze dzielą między sobą w sposób odpowiedzialny. W społeczeństwach opartych na wiedzy, w których nauka staje się coraz ważniejsza dla działalności innowacyjnej oraz dla decyzji społeczno-gospodarczych i politycznych, peer review jest coraz częściej stosowany do nowych dziedzin (oceny ex ante, mid-term i ex post projektów itd.). Stwarza to potrzebę jego adaptacji polegającej na uwzględnianiu szerszych kryteriów społeczno-gospodarczych. Tradycyjne funkcje peer review – zapewnienie naukowej doskonałości i autonomii środowiska akademickiego - uznano za zbyt wąskie, gdy od agencji finansujących badania wymaga się, aby brały pod uwagę >rozliczalność [OECD IPP 2014]. Klasyczne peer review. Peer review w dzisiejszej postaci to owoc wielowiekowego po- wolnego rozwoju procedur oraz ich stosowania począwszy od Philosophical Transactions of the Royal Society (1665), zakończony w latach 1960-tych XX w. system peer review upowszechnił się dopiero w drugiej połowie XX wieku. „Nature” wprowadził obowiązek recenzowania artykułów publikowanych dopiero w 1967 r. Einstein wszystkie swoje prace opublikował bez ich recenzowania, a gdy publikował rzeczy najważniejsze, był zwykłym urzędnikiem biura patentowego [Bendyk]. Wówczas nauka (środki publiczne, badacze, instytucje, projekty) stała się zbyt duża, aby mogła być regulowana wyłącznie przez decyzje wybitnych uczonych. Nastąpił okres 40 lat stabilizacji peer review w wersji klasycznej – aż do połowy I dekady XXI w. Klasyczne peer review: • autor (autorzy) proponuje temat i metodę oraz nadaje ostateczny kształt – propozycji projektu lub artykułu, • autorzy są zidentyfikowani, a ich liczba jest zamknięta, • pole badań uformowane i uznane, • oceniający są anonimowi wobec ocenianych, • oceny dokonuje wąska i zamknięta grupa badaczy o wysokiej reputacji, • ocena ma charakter ex ante, 256 • najbardziej popularne formy: pisemne recenzje przesyłane pocztą oraz panel. Duże zainteresowanie peer review (643 artykułów w latach 1960-1991, w tym 101 opartych na badaniach empirycznych; ponad 6 tysięcy publikacji zwartych z peer review w tytule dotyczących nauki w latach 1970-2012). Zawsze podobny zakres krytycznych opinii połączony z dominującym poglądem, że mimo wad jest to wciąż najlepsza z form oceny. Liczba publikacji z peer review w tytule: Aktorzy. Trzy rodzaje stron występuje w peer review: wykonawcy badań (indywidualni badacze i zespoły badawcze), operatorzy (agencje finansujące badania, rady naukowe, itp.) oraz rząd (zwłaszcza różne ministerstwa). Ministerstwa zwykle nie korzystają z peer review. Wyjątkiem jest strategiczne peer review w ramach oceny programów. Np. amerykański Departament Energii używa peer review w celu oceny B+R na poziomie projektów i programów, a Unia Europejska opiera się na perr review ex post, aby ocenić Programy Ramowe. Typologie. Istnieje kilka typologii peer review. Wg. jednej z nich dzieli się ono na bezpośrednie (ocena przez ekspertów z tej samej dyscypliny oparta na kryteriach naukowych), zmodyfikowane, rozszerzone (uzupełnienie kryteriów naukowych o kryteria pozanaukowe, wpływu na rozwój technologiczny, gospodarczy, społeczny) oraz pośrednie (ocena oparta na kryteriach naukowych uzyskana z pomocą danych ilościowych, takich jak liczba publikacji i cytowań, członkostwo uznanych w świecie towarzystw naukowych itd.). Barry Bozeman proponuje rozróżnienie między wyprzedzającym (ang. pre-emptive) peer review (ostateczna decyzja zależy wyłącznie od wyników peer review), tradycyjnym peer 257 review (peer review jest ważnym elementem w podejmowaniu decyzji) oraz pomocniczym peer review (decyzje podejmowane są przez osobę zarządzającą lub panel, peer review jest jednym ze źródeł informacji). Podczas gdy tradycyjne peer review jest najczęściej praktykowaną formą oceny w publikacjach naukowych i nominacjach, wyprzedzające peer review zazwyczaj łączy się z punktacją lub rangowaniem w decyzjach dotyczących dotacji (niektóre agencje jak amerykańska NIH). Ewaluację programu oraz decyzje dotyczące organizacji badań naukowych i tworzenia polityki najczęściej opierają się na pomocniczym peer review. W Polsce terminy peer review i peers (oceniający) są mało znane. Mówi się o „systemie grantowym”; unika określeń obejmujących cały system ocen. Warunki skuteczności. Peer review działa dobrze, gdy istnieje równowaga pomiędzy liczbą propozycji nowatorskich a pulą funduszy. Gdy propozycji nowatorskich jest zbyt mało, marnują się pieniądze; gdy jest ich zbyt wiele, marnują się talenty i szanse badań. Zdaniem M. Gibbonsa jako peer review nadaje się szczególnie do oceny dojrzałych pól badań, legitymujących się własną społecznością międzynarodową, własnymi czasopismami, konferencjami i instytutami; pól badań stosunkowo oddalonych od praktyki; badań prowadzonych w krajach cieszących się choćby minimalnym wzrostem gospodarczym. Odwrotnie, jest mniej użyteczny, gdy środki na badania się kurczą, badania są ukierunkowane na problemy o charakterze praktycznym, gdy potrzeba badań interdyscyplinarnych i gdy oceniający są zarazem wykonawcami (jak to się dzieje w wypadku wielkich programów naukowych). Peer review sprawdza się zatem tylko pod pewnymi warunkami. Wiele wskazuje na to, że warunki te zmieniają się. Zmusza to do podjęcia dyskusji nad możliwą modyfikacją tego systemu. Koszty badań rosną szybciej niż środki budżetowe na badania. Badania oddalają się od zjawisk „przypowierzchniowych” ku zjawiskom uchwytnym wyłącznie przy pomocy (coraz bardziej) skomplikowanych przyrządów oraz (coraz większych) zespołów badawczych. Tempo badań „na froncie nauki” ulega przyśpieszeniu. Coraz więcej instytucji uświadamia sobie, że tempo rozwoju nauki przekracza ich zdolność absorpcji nowej wiedzy oraz udziału w przesuwaniu granic poznania. Coraz częściej dla rozwiązania problemów globalnych sięga się po pomoc międzynarodowych zespołów badawczych. Zwiększa się rozziew pomiędzy planami badaczy a oczekiwaniami w stosunku nauki opinii publicznej. Środowisko naukowe starzeje się, a system peer review bardziej tę tendencję wzmacnia niż jej zapobiega. Podaż dobrych propozycji badawczych przekracza w wielu krajach poziom funduszy na ich realizację. „Wskaźniki sukcesu” wniosków grantowych stale maleją; aby zaradzić spadkowi szans, badacze piszą i przesyłają coraz więcej propozycji, tracąc w ten sposób czas, jaki mogliby poświęcić badaniom. Już w roku 1961 Leo Szilard obliczył, że gdy „wskaźnik sukcesu” spadnie do 10% (tj. gdy tylko co dziesiąty wniosek grantowy będzie wieńczony dotacją) 90% badaczy poświęci cały swój 258 czas pisaniu propozycji badawczych (zaniedbując przy tym badania, dydaktykę i publikacje). W pewnych dziedzinach bliscy jesteśmy osiągnięciu „punktu Szilarda”. Ale system peer review podważają nie tylko zmiany zachodzące w nauce i poza nauką, ale także jego wewnętrzne sprzeczności. Procedury peer review powinny być skuteczne, efektywne, przejrzyste, sprawiedliwe i otwarte na kontrolę; cele te jednak nie zawsze są ze sobą zgodne. Oceniającymi powinni być najlepsi z najlepszych; gdy tak się dzieje, o środki na badania ubiegają się ci gorsi. Uczeni o uznanym dorobku domagają się, aby peer review premiował przede wszystkim sumę dotychczasowych osiągnięć, młodsi badacze - aby nagradzał nowe idee. Politycy chcieliby, aby w kryteriach ocen uwzględniano priorytety rządowe, uczeni - aby wzmacniał autonomię nauki. Zarzuty przeciwko peer review. Kiedy naukowcy mają opiniować innych naukowców, trudno uniknąć konfliktu interesów. Mogą oni ulec pokusie, aby utrudnić publikację wyników sprzecznych z wynikami własnej pracy, lub opóźnić publikację badania podobnego do ich własnego, gdy w środowisku naukowym istnieje ciśnienia „publikuj pierwszy”. To budzi istotne wątpliwości dotyczące odpowiedzialności i jawności peer review. Jeden z badaczy peer review ocenił system z przekąsem: „Gdyby ktoś chciał opublikować badania oparte na metodzie o wiarygodności podobnej do peer review, bez dwóch zdań spotkałby się z odmową druku”. Od swoich narodzin peer review jest stawiane pod pręgierzem krytyki. Krytyka dotyczy zasad, praktyki oraz nieuniknionych i ubocznych, ujemnych następstw tego systemu. Inny ważny problem z peer review dotyczy trudności uznawania heterodoksyjnych lub przełomowych badań. Peers – najczęściej starsi naukowcy – mogą mieć trudności z akceptacją nowych paradygmatów. Najczęściej peer review zarzuca się, że tłumi w nauce nowatorstwo, czyli jej najbardziej pożądaną cechę. Wielkie odkrycia rodzą się dziś częściej na styku dyscyplin niż w ich obrębie. Peer review z reguły premiuje badania nad okrzepłymi problemami zgłaszanymi przez ustabilizowane dyscypliny. Rzadko dostrzega problemy wyłaniające się na styku różnych pól badań. Badaczom wkraczającym na zupełnie nowe obszary problemowe brak w agencjach grantowych siły przebicia. Peer review wzmacnia ustalone dysycypliny i dominujące paradygmaty badawcze. Utrwala status quo. Uśrednia; eliminuje najgorszych, ale też i najlepszych. Projekty rzeczywiście pionierskie nie mogą być oceniane przez peers, gdyż takich - na nowym obszarze badań jeszcze nie ma. Szansę uzyskania grantu na badania ryzykowne i nieortodoksyjne mają z reguły uczeni zatrudnieni w prestiżowych placówkach lub legitymujący się imponującym dorobkiem. Często jednak gdy osiągają oni szczebel w karierze pozwalający na zgłaszanie rewolucyjnych tez, nie mają w sobie wewnętrznego żaru, by burzyć zastany świat. Zwraca się uwagę, że gdyby dzisiaj Einstein ubiegał się o grant na opracowanie teorii względności, jego wniosek przepadłby z kretesem. W chwili składania wniosku Einstein nie miałby żadnego poważnego dorobku. Na wnioskowany temat nic w ogóle nie napisał. Problematyki nie studiował na uniwersytecie. Nie pracował naukowo i nie miał żadnej afiliacji uniwersyteckiej. Był jedynie niskim rangą urzędnikiem patentowym. Nie 259 przeprowadził badań pilotażowych, nie rozporządzał wstępnymi danymi. Nie znał nikogo, kogo mógłby zaproponować na kierownika tematu. Zaproponowałby zatem samego siebie! Dziedzina jego badań znajdowała się poza obszarem zainteresowań wydziałów szkół wyższych. Każdy poważny profesor powitałby problem powiązań masy i energii z uśmiechem na twarzy. Einstein nie mógłby też przedstawić żadnych sensownych zastosowań praktycznych uzyskanych wyników. Trudno ustalić, co to znaczy „dobra nauka” czy „oryginalność” (czy chodzi o oryginalność metod, danych, podejść, ustaleń, koncepcji, tematów, obszarów…). Pomaga wyplenić złe badania, ale niekoniecznie wybrać dobre. Uśrednia; eliminuje najgorszych, ale też i najlepszych. Peer review często źle radzi sobie z oceną badań inter-i-multidyscyplinarnych. (Wyjściem jest tworzenie osobnej kategorii oceny). Podobnie, peer review ma nieraz problemy z ocena badań ukierunkowanych na rozwiązywanie praktycznych problemów, nie sprawdza się w ocenie badań stosowanych, ukierunkowanych na pomoc w realizacji zadań zewnętrznych w stosunku do nauki. (Tutaj wyjściem jest stosowanie podwójnych ocen w ramach rozszerzonego peer review: oceny dotyczącej jakości badań oraz oceny dotyczącej użyteczności społecznej i gospodarczej). Z reguły prowadzi do odrzucenia negatywnych ustaleń, a te są równie istotne dla rozwoju nauki co wyniki pozytywne. Nie zapewnia dostatecznego feedbacku wnioskodawca-recenzenci (dlaczego mój wniosek został odrzucony?) oraz mechanizmu apelacyjnego (dlaczego nie mam prawa odwołać się od krzywdzącej decyzji?). Nie zapewnia powiązania oceny ex-ante z oceną ex-post (w jaki sposób dzisiejszy wnioskodawca wykorzystał przyznane dawniej fundusze, jakie uzyskał wyniki?). Jest powierzchowny (badacz pracuje nad wnioskiem od 3 do 6 miesięcy, dyskusja nad wnioskiem trwa kwadrans). Jest podatny na różnego typu „skrzywienia”: dyskryminuje badaczy o niższej pozycji naukowej, pracujących w mniej prestiżowych instytucjach, reprezentujących podejścia dalekie od „głównego nurtu”. Jest kosztowny: koszty pośrednie (czas wnioskodawców i recenzentów) i bezpośrednie (koszty administracyjne). Cykl pozyskiwania grantu jest niezgodny z cyklem twórczości naukowej. Perspektywa czekania dziewięciu czy dwunastu miesięcy na dotację potrafi zdusić zapał badacza, który doznał objawienia zarysu nowej naukowej prawdy. 260 W sytuacji gdy dorobek jest zazwyczaj istotnym czynnikiem oceny, młodzi badacze stoją często na straconych pozycjach. Peer review działa zgodnie z opisanym przez socjologa Roberta Mertona „efektem Mateusza”: tym, co mają, dane jest więcej. System dyskryminuje badaczy o szczuplejszym dorobku naukowym, pracujących w mniej prestiżowych instytucjach. Częstym zarzutem stawianym peer review jest jego podatność na kumoterstwo. Oceniający tworzą nieraz tzw. „old boy`s network”, czyli grupę badaczy stale popierających wzajemnie swoje wnioski. Kliki lubią utrwalać się. Zarzut kumoterstwa trudno udowodnić. Peer review zakłada obiektywizm i uczciwość ocen. Nie zawsze jednak recenzenci spełniają pokładane w nich nadzieje. Choć rzadko, zdarza się, że przechwytują oni idee odrzuconych przez siebie propozycji. Rozproszenie odpowiedzialności za decyzje na kilku oceniających pozwala recenzentom ukryć stronniczość. System oceny propozycji badawczych pozwala na manipulacje (zaniżanie punktów konkurencyjnych wniosków). Recenzenci zgadzają się zazwyczaj w ocenie wyjątkowo wybitnych i wyjątkowo marnych wniosków. Różnią się jednak często w ocenie pozostałych propozycji (czyli ich zdecydowanej większości). Różnice ocen wypływają z różnic wykształcenia, perspektyw badawczych, kalibru naukowego oceniających oraz ich doświadczenia w roli recenzenta. Słabsi recenzenci dyskwalifikują nieraz projekty na podstawie uchybień nieistotnych (jak np. brak zapełnienia całej powierzchni formularza wnioskowego) lub nieprawdziwych (jak np. brak pewnego koniecznego elementu, który recenzent przeoczył). Często zdarza się, że wniosek posiadający bezdyskusyjne walory zostaje oddalony z bardzo wątpliwego powodu. Propozycja badań nad niezwykle ważnym problemem, z zastosowaniem nowatorskich metod i siłami zespoły światowej klasy może zostać odrzucona, gdy recenzenci dojdą do przekonania, że jej właściwym adresatem powinien być przemysł. Recenzenci zgodni zupełnie w ocenie pewnego wniosku, mogą swoją ocenę wyrażać przyznaniem różnej liczby punktów. Wnioski łatwo odrzucać z uzasadnieniem, że są zbyt nachylone praktycznie, lub przeciwnie, że nie dają podstaw do oczekiwania przyszłych zastosowań; kategorie „ładunku teoretycznego” i „użyteczności” są bardziej intuicyjne niż uchwytne empirycznie. Podczas gdy badacze spędzają nad przygotowaniem wniosku od trzech do sześciu miesięcy, dyskusja nad nim rzadko przekracza 10 do 20 minut. Proporcje takie częściej wynikają z przepracowania niż lenistwa oceniających. Nie sposób ustalić optymalną metodę wyboru recenzentów. Nierzadko mniej wybitni oceniają wybitniejszych. Często pole badań jest zbyt małe, by mechanizm peer review mógł być stosowany. Na podstawie propozycji niepodobna przewidzieć wyniku badań. Wnioskodawcy mają skłonność do pisania optymistycznych scenariuszy i składania obietnic, których nie są w stanie spełnić. Brak rzetelnej oceny raportów końcowych zachęca do czynienia obietnic bez pokrycia. 261 Peer review zarzuca się też niedostateczny feedback wnioskodawca-recenzenci (dlaczego mój wniosek został odrzucony?) oraz brak mechanizmu apelacyjnego (dlaczego nie mam prawa odwołać się od krzywdzącej decyzji?). Zwraca się też uwagę, że recenzenci rzadko wiążą ocenę ex-ante z oceną ex-post (w jaki sposób dzisiejszy wnioskodawca wykorzystał przyznane dawniej fundusze, jakie uzyskał wyniki?). Peer review kosztuje; wysokie są jego koszty pośrednie (czas wnioskodawców i recenzentów) i bezpośredni (koszty administracyjne). (Koszty obsługi systemu grantowego w stosunku do przeznaczanych na granty sum - są w KBN znacznie niższe niż w krajach zachodnich. Wynika to jednak nie z wyższej wydajności naszej administracji grantowej, tylko z limitu budżetowych funduszy na utrzymanie instytucji rządowych. Te znacznie niższe koszty obsługi trzeba brać pod uwagę, gdy ocenia się sprawność peer review w KBN). Peer review stawia się też zarzuty ogólne. Mówi się, że wzmacnia syndrom zamknięcia uczonych w wieży z kości słoniowej, zwiększa dyscyplinowy separatyzm oraz nie daje podstaw do podziału funduszy pomiędzy dyscyplinami (a nie wewnątrz dyscyplin). Zarzuty przeciwko peer review można podzielić na takie, które dotykają jego (niemożliwej do zmiany) istoty, oraz takie, które odnoszą się do jego (możliwych do modyfikacji) cech zewnętrznych. Niektóre zarzuty trafiają w system jako taki; inne - w jego użyteczność do oceny badań w danym kraju, w danej dyscyplinie lub w danym okresie (dobry dawniej, przeżytek dziś). Anglicy słysząc zarzut, mają w zanadrzu pytanie: A co proponujesz w zamian? Stosownie do różnic w charakterze obiekcji, również i propozycje zmian peer review rozciągają się od kodeksów „dobrego recenzenta i panelisty”, poprzez sugestie ulepszeń tego systemu aż po propozycje wprowadzenia nowego. Propozycje ulepszeń. Z jednym zgadzają się wszyscy: funkcjonowanie systemu należy stale kontrolować i monitorować. Co kilka lat każda agencja grantowa powinna zlecić zbadanie działania peer review niezależnym ekspertom. Trudno znaleźć poważną agencję za granicą, która by zaniechała tego obowiązku. W Stanach Zjednoczonych sporządzono raporty o peer review m.in. National Science Foundation (NSF) oraz National Institute of Health. W Wielkiej Brytanii raporty o działalności rad ds. badań przygotowały m.in. Royal Society oraz Committee on Science and Public Policy. Inne propozycje: Niektóre organizacje wynagradzają macierzyste instytucje recenzentów w celu zrekompensowania czasu jaki naukowcy inwestują w peer review. Stwarza to zachęty dla instytucji zachęcając je do udziału w procedurach oceny. W wielu instytucjach wprowadza się elektroniczny sposób recenzowania w celu zwiększenia odsetka odpowiedzi i przyspieszenia procesu oceny. Jednak ocena elektroniczna ma tę wadę, że zniechęca do dyskusji twarzą w twarz, która poprawia jakość oceny. 262 Peer review kolegiów to także środek zwiększenia odsetka odpowiedzi i zapewnienia większej spójności i ciągłości w procesu oceny. „Kolegium” odnosi się do grupy ekspertów zakontraktowanych przez agencję grantową w celu zapewnienia peer review. Udział w kolegium może być korzystny dla naukowca, gdyż świadczy że organizacja ceni jego wiedzę. Kolegia zapewniają również szkolenie recenzentów. Jednakże stanowią one obciążenie administracyjne i finansowe dla agencji, a małe kolegia mogą nie mieć niezbędnej wiedzy w dziedzinach niszowych lub interdyscyplinarnych. Czasem stosowanie rozszerzonego peer review lub oceny wielokryterialnej może poprawić peer review pod względem uznawania społeczno-gospodarczego znaczenia badań. Zwraca się także uwagę na to, że tendencja peer review do wspierania głównego nurtu badań maleje, gdy badacze mogą ubiegać się o dotacje do różnych agencji [OECD IPP 2014]. W niektórych krajach wprowadza się Systemy Wspomagania Recenzentów; w Polsce – w Ośrodku Przetwarzania Danych [OPI 2014]. Zalecenia dla peer review. Zalecenia dla uczestnika peer review sformułował B. Bozeman (Evaluating R&D Impacts: Methods and Practice, 1993, s. 91-94): 1. Uzupełniaj peer review (ze swojej natury oparte na subiektywnych i osobistych interpretacjach) przez inne techniki ewaluacyjne, zwłaszcza oparte na pomiarach wydajności (liczba publikacji, cytowań, patentów, uczestnictw w uznanych w świecie towarzystwach naukowych itd.). 2. Stosuj peer review wyłącznie do oceny działalności BiR nie mającej zupełnie charakteru komercyjnego. W innym wypadku peers będą konkurentami w stosunku do ocenianych. 3. Przeprowadzaj peer review tylko wówczas, gdy łatwo wskazać na badaczy, którzy mogliby dokonać oceny. Nie zawsze tak jest (oceniane pole badań jest nowe i małe, specjaliści są rozproszeni i rzadko kontaktują się ze sobą itd.). Jeśli wspomniany warunek nie jest spełniony, stosuj inne metody oceny. 4. Unikaj o ile to możliwe korzystania z usług badaczy pracujących w tej samej instytucji (specjaliści z innej będą spoglądać na problemy z innego punktu widzenia i mieć inne doświadczenia zawodowe i organizacyjne). 5. Bądź świadom możliwości pojawienia się zachowań dysfunkcjonalnych i patologicznych wewnątrz grupy ewaluacyjnej („myślenie grupowe”, „owczy pęd”, dominacja elokwentnej jednostki itd.). 6. Jeśli do oceny stosujesz pewną skalę sprawdź wcześniej jej ważność i wiarygodność. Czy jesteś pewien, że większość z oceniających zastosowałaby tę samą punktację w stosunku do przedmiotu oceny? Jeśli oceny są bardzo zróżnicowane, czy nie jest to oznaką braku konsensusu w danym polu badań? Czy nie świadczy to z kolei, że w danym przypadku peer review nie jest przydatne? Czy skala jest adekwatna do przedmiotu pomiaru? Czy nie jest zbyt rozciągnięta (np. 100 punktów) lub odwrotnie, zbyt wąska? Jaki istnieje związek pomiędzy różnymi kryteriami? Czy waga przyznawana każdemu z kryteriów (najczęściej przyznaje się 263 równe wagi) jest adekwatna do jego rzeczywistego znaczenia? Czy oceniający uważają oceny ilościowe za dobre narzędzie dla realizowania postawionego przed nimi zadania? 7. Pamiętaj o możliwych źródłach „odchyleń” w ocenie oraz potencjalnych konfliktów interesów pomiędzy oceniającymi a ocenianymi. Nakłoń peers, aby je ujawnili, i bądź świadom, że mogą nie ujawnić wszystkich. 8. Weź pod uwagę trzy najważniejsze czynniki sukcesu peer review: motywację (najważniejsza to motywacja kierującego przeglądem), kompetencje (zarówno indywidualne kompetencje ekspertów w zakresie danej specjalności, jak i kompetencje całej grupy w odniesieniu do społecznego i gospodarczego znaczenia projektu) oraz niezależność (tzn. bezstronność). Propozycje usprawnienia. Sformułowano wiele propozycji usprawnienia peer review. Zaleca się, aby system był bardziej przejrzysty. Agencje grantowe powinny informować o zasadach doboru recenzentów i panelistów; oceniani - mieć prawo do repliki nie po, lecz przed wydaniem decyzji; wnioskodawcy - otrzymywać nie-zdawkowe informacje o powodach odrzucenia ich propozycji. Powinno się dopuszczać możliwość składania apelacji. Należy odwrócić kwestię anonimowości: wnioski powinny być anonimowe dla recenzentów i panelistów (z usunięciem możliwie wszystkich oznak pozwalających na identyfikację autora), natomiast nazwiska oceniających powinny być ujawniane wnioskodawcom. Peers powinni brać pełną odpowiedzialność za swój werdykt, a nie ukrywać się za zasadą anonimowości. Proces peer review należy usprawnić. Formularze wnioskowe powinny być krótsze, a terminy składania propozycji zniesione (panele powinny pracować stale, a nie sesyjnie). Okres realizacji projektów badań podstawowych należałoby przedłużyć. Bazy danych o recenzentach trzeba częściej weryfikować. Co pewien czas powinno się badać skuteczność zasad punktacji i wprowadzać potrzebne zmiany. W znacznie większej mierze należy zwracać się z prośbą o recenzje do naukowców zagranicznych. Powinno się utrzymywać bazę o efektach badań i sięgać po jej dane dla oceny wniosków. W większym też stopniu trzeba posługiwać się Internetem jako środkiem komunikacji pomiędzy grantodawcami i grantobiorcami. Aby podołać nawałowi propozycji można przeprowadzać wstępną selekcję i odrzucać wnioski, które są wyraźnie słabsze, które przekraczają możliwości finansowe agencji lub też nie spełniają pewnych formalnych wymogów. Aby zaradzić wbudowanym w peer review skrzywieniom można też wprowadzić modyfikacje promujące kategorie badaczy krzywdzonych na ogół jej decyzjami: młodych; zainteresowanych badaniami interdyscyplinarnymi; zdecydowanych na podjęcie ryzyka badań pionierskich; planujących przeprowadzenie badań na rzecz przemysłu. I tak np. zgłaszane są pomysły tzw. „dotacji zasiewnych” dla badaczy zdecydowanych na zmianę zainteresowań badawczych i wkroczenie na nowy obszar problemowy oraz dotacji połączonych z ulgami podatkowymi na badania przemysłowe. Niektóre z propozycji modyfikacji peer review polepszają pewne parametry systemu kosztem innych (np. feedback i możliwość apelacji od decyzji zwiększają i tak wielkie obciążenie administracyjne). Inne niosą za sobą nowe możliwe pułapki (odwrócenie kwestii anonimowości). Zazwyczaj nie sposób poprawić pewnej cechy systemu nie pogarszając przy tym innej. Trudno np. jednocześnie zwiększyć szybkość i wyporność stat264 ku. Niemniej warto co pewien czas eksperymentować z peer review. Koszty reform mogą okazać się niższe od korzyści. Jedną z korzyści są nowe doświadczenia, środowiskowe i organizacyjne. Aby zmniejszyć skrzywienia tradycyjnego peer review w wielu krajach zmodyfikowano jego procedury. Dla przeciwdziałania dyscyplinowemu separatyzmowi amerykańska Narodowa Fundacja Nauki już w latach 1960. za radą Alvina Weinberga włączyła do paneli dyscyplinowych przedstawicieli innych, sąsiednich dyscyplin. Zadaniem ich jest ocena, czy przedkładane propozycje mają szansę wywrzeć na naukę wpływ wykraczający poza dyscyplinowe opłotki. Proponuje się także, aby recenzenci czytali większą liczbę wniosków grantowych, przez co zyskali by lepszą skalę porównawczą [Marsh 2008]. Aby osłabić syndrom „wieży z kości słoniowej” do paneli rozstrzygających o dotacjach na rozwój badań stosowanych włącza się nieraz przedstawicieli użytkowników (np. inżynierów zatrudnionych w przedsiębiorstwach), a w kryteriach oceny wniosków zwiększa znaczenie informacji o planach wykorzystania wyników badań. Często reformy polegają nie tylko na modyfikacji procedur, ale także na wprowadzeniu nowych form grantów. Celem wzmocnienia edukacyjnego oddziaływania badań agencje grantowe wprowadziły dotacje wspierające powiązania badań z dydaktyką: holenderska NWO program Stimulans (na rozwój studiów doktoranckich), a Research Corporation, prywatna fundacja w Tuscon (Arizona), Cotrell Scholars Awards (na badania z udziałem doktorantów). Aby związać badania z rządowymi priorytetami NWO udziela na zasadzie konkursu granty na podjęcie badań nad wskazanymi tematami lub na rozwiązanie określonych problemów. NSF ogłasza konkursy na propozycje badawcze dotyczące określonych zestawów tematów. Dla poszerzenia szans młodych badaczy NWO wprowadziła programy: Talent oraz Pioneer. Talent przeznaczony jest dla młodych doktorów, którzy rokują nadzieję, że zostaną liderami zespołów badawczych. Program umożliwia pogłębianie doświadczenia badawczego (do roku) za granicą. Rocznie udziela się 40-50 stypendiów. W celu wspierania badań o dużym ładunku nowatorstwa NWO podjęła program Pioneer. Pioneer przeznaczony jest dla utalentowanych badaczy uniwersyteckich, którzy osiągnęli wysoką pozycję w hierarchii badawczej (z reguły - dla profesorów). Badaczom tym daje się szansę sformowania i kierowania przez 5 lat zespołem, który inicjuje nowy kierunek badań. Dotacje programu są (jak na Holandię) wysokie: od 250 tys. do 400 tys. guldenów rocznie (ok. pięciokrotnie więcej, niż w zwykłym projekcie badawczym). Ubiegające się o nie uniwersytety muszą zapewnić dodatkowy wkład (na zatrudnienie osób i zakup wyposażenia) oraz zgłosić gotowość przedłużenia finansowania po ustaniu dotacji. Głównym celem Pioneera jest zdynamizowanie i unowocześnienie badań uniwersyteckich. Grantobiorcy mają dużą swobodę w wykorzystaniu funduszy: mogą zaku265 pić wyposażenie i zatrudnić pracowników z kraju i zagranicy bez konieczności składania kolejnych wniosków. W celu ochrony znaczenia programu NWO obniżało w kolejnych latach liczbę dotacji, podnosząc jednocześnie ich wysokość. Podobny w intencjach, ale różny w formule organizacyjnej jest program Small Grants for Exploratory Research (SGERR) amerykańskiej National Science Foundation (NSF). Program finansuje badania o charakterze rozpoznawczym i wysokim stopniu ryzyka. Warunkiem uzyskania dotacji jest przedstawienie krótkiego (dwie do pięciu stron) wniosku na badania nad nowymi ideami, nowymi obszarami problemowymi lub nad zastosowaniem nowych metod. Stypendia nie przekraczają 100 tys.$ i są z reguły niższe od przeciętnego grantu badawczego. Zazwyczaj realizacja projektu trwa rok, czasem dwa lata. Odejściem od standardowej formuły peer review są także elitarne stypendia wprowadzane przez brytyjską Radę ds. Badań (ok. 2-3 w ciągu roku). Mają one na celu „wykupienie” wybitnych nauczycieli akademickich od obowiązków dydaktycznych (przez oznaczony okres uniwersytet nie wypłaca stypendyście pensji, udziela mu natomiast „sabbatical year(s)”; stypendysta pobiera od MRC wynagrodzenie równe wypłacanemu wcześniej przez uniwersytet oraz grant na realizację projektu badawczego). Zgłoszenia na stypendium składane są jednocześnie z propozycją projektu badawczego. Warunkiem uzyskania stypendium jest wysoka ocena zarówno dorobku badacza, jak i planu badań. Propozycje alternatywne. Od czasu do czasu pojawiają się w poważnych pismach rady- kalne propozycje odejścia od peer review. Zamiast finansowania projektu proponuje się powrót do finansowania instytucji, najlepiej wg pewnego ustalonego algorytmu. W Polsce w taki właśnie sposób KBN finansuje badania statutowe. Zdaniem Rustuma Roy`a alokacja funduszy na badania powinna być oparta na następującej formule: Ax (liczba magistrów + 3x liczba doktorów); +Bx (liczba publikacji ogłoszonych drukiem w recenzowanych czasopismach); +Cx (suma funduszy uzyskanych od organizacji rządowych); +Dx (suma funduszy uzyskanych od przedsiębiorców). Algorytm dopuszcza różnicowanie wagi poszczególnych elementów w zależności od dyscypliny. Inne propozycje finansowania wykonawców dotyczą nie instytucji, tylko badaczy lub zespołów badawczych. Rosemary Yalow zaproponowała finansowanie badań biomedycznych poprzez trzyletnie dotacje, odnawiane pod warunkiem osiągnięcia sukcesu naukowego. Odrębny mechanizm regulowałby wchodzenie do systemu nowych badaczy. Podobna propozycja zaleca wynagradzanie już dokonanych wyników badań, a nie ich projektów. Ma ona za sobą stwierdzony empirycznie fakt, że wnioskodawcy, którzy nie dostali grantu, najczęściej i tak wykonują zaplanowane badania pomimo niekorzystnego wyroku agencji. Zgłoszono też propozycje finansowania zespołów badawczych na podstawie przeprowadzanej co kilka lat międzynarodowej ewaluacji. Richard Muller (USA) przedstawił pomysł stałej ankietyzacji badaczy mającej na celu ustalenie listy 1000 naj266 wybitniejszych uczonych amerykańskich. Wybrańcy otrzymywaliby po milionie dolarów, który mogliby wykorzystać wg własnego wyboru. Zgłoszono też ideę wybierania propozycji badawczych na zasadzie loterii. Eksperci odrzucaliby tylko wnioski, które nie spełniałyby pewnych warunków brzegowych. O wyborze zwycięskich wniosków decydowałby ślepy los. Odpadłyby wysokie koszty administracyjne. Jak dotąd każda zgłaszana alternatywa peer review natychmiast wzbudziła uzasadnione obiekcje. Podkreślano, że rozwiązując pewne problemy, propozycje alternatywne stwarzałyby nowe, często potencjalnie groźniejsze. Np. system finansowania wg algorytmu skłaniałby do publikowania „byle szybko byle dużo” oraz do obniżania wymagań związanych z uzyskiwaniem stopnia doktora. Propozycja Mullera, podobnie jak tradycyjne peer review, utrwalałaby status quo (nowe kierunki i dyscypliny nie miałyby szans przebicia). Wskutek słabości alternatyw, peer review - zwłaszcza w krajach anglosaskich - trzyma się krzepko, raczej modyfikowany niż zastępowany. Niemniej i w Polsce warto podjąć początkowo na małą skalę - eksperymenty z alternatywnymi formami finansowania badań. Pewne inicjatywy KBN już podjął, warto podjąć kolejne (np. wprowadzenia nowych rozwiązań wspierania młodych badaczy). Pionierem eksperymentowania mogłyby być fundacje. Ostrożne eksperymenty, jak dotąd z sukcesem, przeprowadza Fundacja na Rzecz Nauki Polskiej. Niektóre formy, które zdały egzamin w fundacjach, mogłyby następnie być wprowadzone przez KBN. Źródłem inspiracji dla nowych form mogłyby być mechanizmy wprowadzone w Stanach Zjednoczonych. • • • Amerykańska Howard Hughes Medical Foundation przyznaje stypendia (na okres od 3 do 5 lat) bardziej na podstawie oceny dorobku niż ewaluacji wniosku grantowego. Poczynając od roku 1997 NSF co roku wybiera (spośród najwybitniejszych stypendystów swojego programu Career) dwudziestu kandydatów do Nagrody Prezydenckiej. Nagrodę stworzono z myślą o wybitnych naukowcach i inżynierach, którzy udowodnili, że posiadają wyjątkowe umiejętności menedżerskie w badaniach na froncie rozwoju nauki. Nagrodzeni - oprócz dotacji Career - otrzymują dodatkowo corocznie przez 5 lat 100 tys.$. John D. and Catharine MacArthur Foundation wypłaca przez okres pięciu lat specjalną dotację. Od kandydatów nie wymaga się propozycji projektów badawczych, od nagrodzonych nie wymaga się raportów końcowych. Kandydatów powinna cechować ponadprzeciętna kreatywność oraz umiejętność stawiania ważnych problemów. Proces selekcji zaczyna się z chwilą, gdy fundacja zaprasza ponad stu wybitnych przedstawicieli nauki, sztuki i administracji, aby wskazali młodych utalentowanych ludzi zajmujących się fizyką, humanistyką, sztuką, naukami społecznymi oraz sprawami publicznymi. Nominujący przedkładają spisy nazwisk, które są następnie oceniane przez osobny, dwunastosobowy komitet selekcyjny. Członkowie obu grup pozostają anonimowi. Ostateczna decyzja należy do zarządu dyrektorów. Wysokość stypendium waha się od 150 do 375 tys. dolarów (w ciągu pięciu lat). Przed dwoma laty przyznano 150 stypendiów dla samych tylko naukowców. 267 Otwarte peer review. Epoka cyfryzacji i Internetu zgłasza nowe propozycje ulepszeń peer review. Dokument OECD stwierdza: „istnieją obawy, że system peer review znajduje się pod presją i traci zaufanie wśród użytkowników, gdyż zależy on od subiektywnych decyzji kolegów i jest coraz bardziej czasochłonny i kosztowny. Nie jest przesadą stwierdzenie, że peer review jest obecnie w obliczu najsilniejszych wyzwań od kilku dziesięcioleci” [OECD 2007]. Powody sukcesu klasycznego peer review: • • • Mechanizm weryfikacji i selekcji spełniający jednocześnie dwie przeciwstawne funkcje: gwarancji autonomii dla środowiska naukowego oraz gwarancji odpowiedzialnego podziału publicznych funduszy na badania dla opinii publicznej. Względnie wydajny – znany i akceptowany, pozwalający na wzajemne uczenie się od siebie. Lepszy od alternatywnych rozwiązań (sądzono, że rozwiązując pewne problemy, propozycje alternatywne stwarzały nowe, często potencjalnie groźniejsze). Podkreśla się, że peer review sprawdza się tylko pod pewnymi warunkami. Wiele wskazuje na to, że warunki te zmieniają się. „Wskaźniki sukcesu” wniosków grantowych stale maleją. Aby zaradzić spadkowi szans, badacze piszą i przesyłają coraz więcej propozycji, tracąc w ten sposób czas, jaki mogliby poświęcić badaniom. Już w roku 1961 Leo Szilard obliczył, że gdy „wskaźnik sukcesu” spadnie do 10% - 90% badaczy poświęci cały swój czas pisaniu propozycji badawczych (zaniedbując przy tym badania, dydaktykę i publikacje). W pewnych dziedzinach bliscy jesteśmy osiągnięciu „punktu Szilarda”. Skrajnie krytyczne opinie: „Wydaje się, że nie ma badań zbyt rozdrobnionych, hipotez zbyt banalnych, literatury zbyt stronniczej lub zbyt egoistycznej, projektu zbyt wypaczonego, metodologia zbyt partackiej, prezentacja wyników zbyt niedokładnej, niejasnej i sprzecznej, analizy zbyt samo-potwierdzającej, argumentu zbyt okrągłego, zbyt błahego lub zbyt nieuzasadnionego, gramatyki i składni zbyt obraźliwej, nie ukazywały się w końcu w druku.” (Drummond Rennie, editor of Journal of the American Medical Association). “Oceniamy peer review publicznie jako quasi-sakralną procedurę, która pomaga uczynić naukę naszym najbardziej obiektywnym wyrazicielem prawdy. Ale wiemy, że system peer review jest tendencyjny, niesprawiedliwy, niewiarygodny, niekompletny, często obraźliwy, zazwyczaj ignorancki, czasem głupi i często zły.” (Richard Horton, redaktor brytyjskiego czasopisma medycznego The Lancet). „[Michael] Nielsen podaje liczne przypadki, kiedy recenzenci najlepszych tytułów naukowych nie byli w stanie ujawnić zawczasu słynnych później skandali naukowych. Tak było w przypadku fizyka Jana Hendrika Schoena, który w 2000 i 2001 r. opublikował wiele artykułów o przełomowych odkryciach w dziedzinie nadprzewodnictwa w związkach organicznych. Schoen sfabrykował wyniki, czego nie wykryli ani recenzenci “Science” ani “Nature”. Recenzenci z kolei doskonale potrafią blokować postęp nauki, o czym przekonało się wielu noblistów, których prace zostały odrzucone. I tak George Zweig miał problemy z opublikowaniem artykułu ogłaszającego odkrycie kwarków, Krebs nie mógł przebić się z artykułem o cyklu kwasu cytrynowego. Dość długa lista takich niepowodzeń sugeruje, że system 268 peer review nie dość że nie spełnia podstawowego warunku – nie chroni przed oszustwami, to jeszcze na dodatek wstrzymuje rozwój nauki przez tępienie prac najbardziej innowacyjnych” [Bendyk, Nielsen 2009]. Jakie są powody erozji klasycznego peer review? • • • • • • • • • • • • ICT i jego konsekwencje (np. rozwój modeli otwartych – Open Source, Open Knowledge Initiative, OpenLaw, Open Archive Initiative, e-printArchives itp.) Narodziny nowych form życia społecznego i kultury (np. open source communities, portale społecznościowe). Narastanie „społeczeństwa post-naukowego” (innowacje oparte nie tyle na rozwoju specjalistycznej wiedzy naukowej i technicznej, co na łączeniu wiedzy naukowej, inżynierskiej, artystycznej, humanistycznej, społecznej, menedżerskiej) Nowe idee (Partycypacja, Otwartość , Kolektywna / Rozproszona inteligencja, „Mądrość tłumu”, Feed-back, Refleksyjność, Twórczość i Innowacje). Wzrost badań wielkiej skali prowadzonych przez wielkie międzynarodowe zespoły badawcze, np. nad genomem, w których forma „komunikatu z frontu badań” jest bardziej właściwa niż tradycyjny artykuł prezentujący ostateczne wnioski; Nowe formy instytucjonalne badań (np. wirtualne instytuty i obserwatoria, jak np. Astrophysical Virtual Observatory; telepraca; zespoły rozproszone; zadaniowe klastry badawcze; badania prowadzone równolegle przez różne zespoły badawcze, łączące współpracę ze współzawodnictwem; „badania partycypacyjne” z udziałem przyszłych użytkowników aktywnych na wszystkich etapach badań; wielki sieci powiązanych ze sobą laboratoriów czy obserwatoriów). Nowe formy metodologii badań (np. symulacja; wielkie bazy danych); Nowe formy komunikacji, archiwizacji i prezentacji badań (np. e-archiwa; wiki; blogi; hyper-text; łączenie tekstu z video; dynamiczne diagramy – prezentacja dynamiki zmian złożonych układów); Wzrost zakresu badań inter-i-multi-dyscyplinarnych; Nowe modele innowacji („otwarta innowacja”; innowacje zorientowane na użytkownika). Wzrost nacisku opinii publicznej na efekty zewnętrzne i aplikacje badań oraz na udział w ustalaniu priorytetów badawczych; Rozszerzenie pojęcia efektu badań naukowych (nie tylko nowe ustalenia, ale także rozwój kompetencji, sieci naukowych, mobilności, aparatury itd.); W efekcie • • zmieniają się metody i formy instytucjonalne prowadzenia badań naukowych, rozumienie ich celu i orientacji, formy komunikacji naukowej i archiwizacji ustaleń itd. – rozwijają się nowe reguły gry w nauce, a warunki, w których zarówno zasady klasycznego peer review (anonimowość, specjalizacja, sprecyzowany temat, określeni autorzy itd.), jak i jego zastosowania (propozycja badawcza, artykuł zawierający ostateczne ustalenia itd.) najlepiej sprawdzały się – powoli się kurczą. Okres przejściowy – erozji klasycznego peer review oraz kształtowania nowych oczekiwań od badaczy oraz nowych zasad ocen ich pracy. Najwcześniejsze propozycje otwartego peer review to m.in.: 269 • • • • • • • 1959 – Open peer commentary, Current Anthropology - komentowanie tytułowego artykułu przez kilkunastu specjalistów wraz z odpowiedzią autora. Naśladowcy. 1970-te Behavioral and Brain Sciences inicjuje publikowanie kontrowersyjnych artykułów wraz opiniami recenzentów. 1991 – Internetowe archiwum arXiv.org Paula Ginsparga z możliwością komentarzy czytelników. 470 000 prac. Naśladowcy. II poł. lat 1990-tych – początki zamieszczania w Internecie wersji roboczych prac przed przesłaniem ich do redakcji czasopism papierowych; rozwój czasopism elektronicznych. 1997 – Electronic Transactions on Artificial Intelligence (ETAI) jedno z pierwszych czasopism elektronicznych stosujących otwarte peer review (dwustopniowa ocena - 'reviewing' i 'refereeing'). 2001 – Peer review otwarte dla publiczności - Atmospheric Chemistry and Physics. Dwa stadia oceny: wstępna redakcyjna – umieszczenie w Internecie; opinie i komentarze czytelników w połączeniu z formalnym peer review i odpowiedzią autorów. Na końcu decyzja co do publikacji. Ok. 2004 – Signaling Gateway, brama sygnalizacji, baza relacyjna o otwartym dostępie mająca na celu zbieranie informacji o molekułach komórek http://www.signalinggateway.org/, zastosowanie zasad otwartego peer review do baz danych. Przełomowy rok 2006: • • • • • 2006 – Nature - eksperyment z otwartym peer review niektórych wybranych artykułów. 2006 – czasopisma elektroniczne / „otwartego dostępu” eksperymentują z „otwartym peer review” (np. Philica, Naboj, Biology Direct, BMC Medicine, PLoS Medicine, British Medical Journal, Atmospheric Chemistry and Physics, Journal of Economic Perspectives, American Psychologist). 2006 – debata Nature nad przyszłością otwartego peer review. Reakcja: mieszanina akceptacji z krytycyzmem. Science - podobne próby. 2006 – B.S. Noveck, Peer to Patent: Collective Intelligence, Open Review, and Patent Reform, “Harvard Journal of Law & Technology”; 2007 – The Peer to Patent Project - Community Patent Review połączenie eksperckiej z otwartą oceną wniosków patentowych. 2008 – „społeczny eksperyment sieciowy” Scientific American. Wady otwartego peer review - możliwość eksplozji Internetowej nienawistnej głupoty . Zalety otwartego peer review: • • • • Możliwość ulepszania tekstu, Większy poziom rzeczowości i odpowiedzialności opiniujących (skoro występują „z otwartą przyłbicą”, pod własnym nazwiskiem), Większa łatwość demaskowania negatywnych recenzji dyktowanych względami niemerytorycznymi, Naruszanie monopoli naukowego establiszmentu skutkujące odblokowaniem energii środowiska naukowego.. Zmiana modelu peer review (czasopisma, bazy danych, patenty): 270 Ewaluacja peer review. Ocena peer review dotyczy 1) jego zdolności do wyboru doskonałych badań i spójności decyzji we wszystkich panelach, oraz 2) jego opłacalności. Ocena jakości procedur peer review może przybierać bardzo różne formy. Należą do nich systemy monitorowania, regularne oceny i porównania, mechanizmy zapewniania jakości (ISO i inne wytyczne, np. European Peer Review Guide Europejskiej Fundacji Nauki, 2010), itp. Gdy peer review jest coraz większym stopniu wykorzystywany w różnych dziedzinach, ważne jest, aby korzyści wynikające z procedur przewyższały koszty. Nie jest to łatwe, gdyż koszty peer review łatwo przeoczyć. Są to: • • • • koszty dla agencji grantowej lub redaktora czasopisma. Te wydają się być stosunkowo niskie, z wyjątkiem wynagrodzenia recenzentów i/lub korzystania z peer review kolegiów; koszty alternatywne dla recenzentów. Czas jest cennym zasobem, a badania stają się coraz bardziej konkurencyjne. Czasu naukowców nie wolno lekceważyć; koszty oczekiwania na recenzowanych naukowców; koszty dla środowiska naukowego i społeczeństwa. Peer review to stosunkowo długa procedura, która może mieć wpływ na opóźnienie upowszechniania nowej wiedzy [OECD IPP 2014]. Bibliografia A Mulligan, Is peer review in crisis?, “Oral Oncology” (2005) 41, ss. 135–141. Alan L. Porter and Frederick A. Rossini, Peer Review of Interdisciplinary Research Proposals, “Science, Technology, & Human Values”, Vol. 10, No. 3, Summer, 1985, ss. 33-38. 271 Alister Scott, Peer review and the relevance of science, Futures 39 (2007) ss. 827–845. Anne McQueen and Alan Beard, A Creative Approach to Assessing Proposals, University Of Malta, The Edward De Bono Institute For The Design And Development Of Thinking, The Fifth International Conference On Creative Thinking: Designing Future Possibilities 21-22nd June 2004. Beth Simone Noveck, Peer to Patent. Collective Intelligence, Open Review and Patent Reform 2006. Carol Berkenkotter, The Power and the Perils of Peer Review, “Rhetoric Review”, Vol. 13, No. 2 Spring, 1995, ss. 245-248. Christian Smit, Peer Review: Time for a Change? “BioScience”, Vol. 56, No. 9 September 2006, ss. 712-713. Daryl E. Chubin and Edward J. Hackett, Peerless Science. Peer review and US Science Policy 1990. David F.J. Campbell, The evaluation of university research in the United Kingdom and the Netherlands, Germany and Austria, w: Learning from Science and Technology Policy Evaluation, ed. by Philip Shapira, Stephan Kuhlmann, Edward Elgar, 2003. David H. Guston, The expanding role of peer review processes in the United States w: Learning from Science and Technology Policy Evaluation, ed. by Philip Shapira, Stephan Kuhlmann, Edward Elgar, 2003. Edwin Bendyk, Nauka, krytyka systemu recenzji, http://edwinbendyk.wordpress.com/tag/nauka-2-0/ ESF Evaluation in National Research Funding Agencies, approaches, experiences and case studies. A report of the ESF Member Organisation Forum on Ex-Post Evaluation of Funding Schemes and Research Programmes, September 2009. Evaluating R&D Impacts: Methods and Practice, ed. Barry Bozeman, Julia Melkers, Springer 1993. Fiona Q. Wood, The Peer Review Process Canberra Australian Govt. Pub. Service, 1997. Glenn Ellison, Is Peer Review In Decline? NBER Working Paper Series 2007. Harley, Diane, and Sophia Krzys Acord. 2011. Peer Review in Academic Promotion and Publishing: Its Meaning, Locus, and Future. UC Berkeley: Center for Studies in Higher Education. Herbert W. Marsh, Upali W. Jayasinghe, Nigel W. Bond, Improving the Peer-Review Process for Grant Applications. Reliability, Validity, Bias, and Generalizability, “American Psychologist” Vol. 63, No. 3, ss. 160–168, April 2008. House of Commons. Science and Technology Committee, Peer review in scientific publications, Eighth Report of Session 2010–12, 2011. James S. Dietz, Building a social capital model of research development: the case of the Experimental Program to Stimulate Competitive Research, ”Science and Public Policy” vol. 27 no. 2, 2000, p. 137-145. Maria Nedeva, Peer Review: omnipresence vs. omnipotence, Evaluation of Science and Innovation Policies, 17 – 21 May 2010, Manchester. Matthew E Falagas, Peer review in open access scientific journals , “Open Medicine”, Vol 1, No 1 (2007). Michael Nielsen , Three myths about scientific peer review, Blog January 8, 2009, http://michaelnielsen.org/blog/three-myths-about-scientific-peer-review/ Munir Mandviwalla, Ravi Patnayakuni, David Schuff, Improving the peer review process with information technology, “Decision Support Systems” 46 (2008) ss. 29–40. OECD IPP Innovation Policy Platform Issue Brief Peer Review, 2014. 272 OECD Peer Review: Its Uses, Demands, And Issues, 2007. OPI Ośrodek Przetwarzania Danych, System Wspomagania Recenzentów, http://www.opi.org.pl/ Paul Nightingale and Alister Scott, Peer review and the relevance gap: ten suggestions for policy-makers, “Science and Public Policy”, 34(8), October 2007, ss. 543–553. Peer Review: the challenges for the humanities and social sciences. A British Academy Report, The British Academy 2007. Peter Gruss, Peer review at the Max Planck Society, w: Science between evaluation and innovation: a conference on peer review, DFG 2002. Research Grants. Management and Funding, ed. F.Q. Wood, V.L. Meek, Australian Academy of Science Canberra 1993. Ruth E. Malone, Should peer review be an open process?, “Journal Of Emergency Nursing” 1999;25: ss. 1502. Science between evaluation and innovation: a conference on peer review, DFG 2002. Stefan Hornbostel, Meike Olbrecht, Peer Review In Der Dfg: Die Fachkollegiaten, iFQ-Working Paper No. 2 | November 2007. EWALUACJA EX ANTE WNIOSKÓW GRANTOWYCH Zasady rozpatrywania wniosków grantowych (propozycji projektów badawczych) w agencjach są z reguły publikowane. Jako przykłady takich publikacji można przytoczyć: European Research Council: • • ERC Grant Schemes. Guide for Peer Reviewers 2009 ERC Grant Schemes. Guide for Applicants for the Advanced Grant 2011 Call The National Science Foundation: • Proposal Award Policies And Procedures Guide October 2010. W wielu krajach używa się języka angielskiego jako języka wniosków. Jest tak m.in. w Estonii, Słowenii, Hiszpanii (powyżej 150 000€), Norwegii. Bibliografia European RTD Evaluation Network, Joint research evaluations – European experience, 2008. EWALUACJA EX POST GRANTÓW BADAWCZYCH Podczas ewaluacja ex-ante grantów badawczych zwykle opiera się procedurze peer review, istnieją różne praktyki w zakresie ewaluacji przebiegu i rezultatów projektów. Wykorzystanie raportów końcowych. Raporty końcowe przechowuje się dla zapewnienia przejrzystości i >ROZLICZALNOŚCI pieniędzy podatnika, dla wykorzystania w celu marketingu wobec decydentów, naukowców i innych zainteresowanych stron. 273 Niektóre agencje (np. ERRS, FWF) publikują raporty końcowe, większość z nich publikuje ich streszczenia. Bibliografia ESF, European Science Foundation, Evaluation in National Research Funding Agencies: approaches, experiences and case studies. A report of the ESF Member Organisation Forum on Ex-Post. Evaluation of Funding Schemes and Research Programmes, September 2009. EWALUACJA POLICY INTELLIGENCE – FORM WSPARCIA INFORMACYJNOANALITYCZNEGO POLITYKI NAUKOWEJ I INNOWACYJNEJ Od czasu do czasu stosuje się ewaluacje narzędzi Policy intelligence - form wsparcia informacyjno-analitycznego polityki naukowej i innowacyjnej. Np. przeprowadzono kilka ewaluacji foresight`u (foresight to metoda prognozowania polegającej na „dyskusji nad przyszłością w gronie przedstawicieli decydentów (władzy publicznej), środowisk naukowych, przemysłu, mediów, organizacji pozarządowych i opinii publicznej, przy czym nie chodzi o dokładność prognozy, lecz o uświadomienie perspektyw i przygotowanie do zmian” [Foresight, Wikipedia 2014]). Podczas ewaluacji ocenia się m.in. efektywność narzędzi i to, czy osiągają one założone cele. W Polsce sporządzono ekspertyzę Badanie Ewaluacyjne Realizowanych W Polsce Projektów Foresight (2010). Uwzględniała ona następujące zadania badawcze: 1. Zebranie podstawowych danych na temat projektów foresightu narodowego, tematycznych, regionalnych i branżowych na podstawie informacji publikowanych przez zespoły realizujące projekty foresightowe (przegląd i krytyczna analiza raportów, materiałów promocyjnych projektów, witryn internetowych, bazy Ośrodka Przetwarzania Informacji). 2. Opracowanie bazy osób odpowiedzialnych za merytoryczną organizację projektów. 3. Opracowanie kryteriów ewaluacji projektów. 4. Opracowanie kwestionariusza ankiety. 5. Przeprowadzenie badania ankietowego wśród osób odpowiedzialnych za realizację projektów. 6. Opracowanie wyników kwestionariusza ankiety. 7. Weryfikacja i uzupełnienie danych poprzez bezpośredni kontakt z osobami odpowiedzialnymi/realizującymi poszczególne projekty (wywiady pogłębione, korespondencja poprzez pocztę elektroniczną). 8. Uporządkowanie i weryfikacja zebranych danych oraz przygotowanie raportu końcowego. Do realizacji wyżej wymienionych zadań badawczych zostały przewidziane następujące metody badawcze: • metoda analizy i krytyki piśmiennictwa (zadanie badawcze 1), 274 • • • • • metoda badania dokumentów (zadanie badawcze 1, 2), metoda analizy i konstrukcji logicznej (zadanie badawcze 3, 8), metoda badań ankietowych (zadanie badawcze 4), metoda sondażu diagnostycznego (zadanie badawcze 7) metody statystyczne (zadanie badawcze 6). Bibliografia Dr. Kerstin Cuhls, Evaluation of Foresight Activities, Fraunhofer Institute Systems and Innovation Research. Politechnika Białostocka, Ekspertyza Badanie Ewaluacyjne Realizowanych W Polsce Projektów Foresight, Białystok, listopad 2010. EWALUACJA PROGRAMU RAMOWEGO ORAZ „HORYZONTU 2020” Ewaluację Programu Ramowego (PR) przeprowadza zarówno Unia Europejska (ex ante, interim oraz ex post), jak i – w zakresie swojego udziału w PR – poszczególne kraje (ex post). Oprócz nich, przeprowadza się także ewaluacje działania >KRAJOWYCH PUNKTÓW KONTAKTOWYCH. Ewaluacja w UE. Aż do 6PR ewaluacji PR dokonywano poprzez roczne panele niezależnych ekspertów, które oceniały wybrane obszary FP; system monitorowania 7PR oparto na zestawie wskaźników i zaprojektowano jako narzędzie do zarządzania wewnętrznego [EC 2009]. Rozporządzenie Parlamentu Europejskiego i Rady ustanawiające „Horyzont 2020” (kontynuację PR) zawiera rozdział IV Monitorowanie i Ocena. Rozporządzenie stanowi m.in, że • • • • • Komisja corocznie monitoruje realizację programu „Horyzont 2020”, jego programu szczegółowego i działań Europejskiego Instytutu Innowacji i Technologii Komisja składa sprawozdania na temat wyników monitorowania i upowszechnia te wyniki Ocena jest prowadzona w czasie pozwalającym na ujęcie jej wyników w procesie decyzyjnym Nie później niż w 2017 r. oraz z uwzględnieniem oceny ex-post siódmego programu ramowego, która ma zostać zakończona do końca 2015 r. oraz przeglądu Europejskiego Instytutu Innowacji i Technologii, Komisja dokonuje z pomocą niezależnych ekspertów śródokresowej oceny programu „Horyzont 2020”, jego programu szczegółowego, w tym Europejskiej Rady ds. Badań Naukowych i działań Europejskiego Instytutu Innowacji i Technologii, dotyczącej osiągnięcia celów programu „Horyzont 2020” (pod względem wyników i postępów w zakresie oddziaływania) oraz dalszej stosowności wszystkich środków, skuteczności i wykorzystania zasobów, potencjału dalszego uproszczenia i unijnej wartości dodanej. Ocena ta uwzględnia również aspekty dotyczące dostępu do finansowania dla uczestników we wszystkich regionach i MŚP oraz promowania równouprawnienia płci. Ocena ta uwzględnia ponadto wkład środków w osiągnięcie unijnych priorytetów w zakresie inteligentnego, trwałego wzrostu gospodarczego sprzyjającego włączeniu społecznemu oraz osiągnięcie wyników dotyczących długoterminowych skutków wcześniejszych środków. Nie później niż do końca 2023 r. Komisja dokonuje z pomocą niezależnych ekspertów oceny ex-post programu „Horyzont 2020”, jego programu szczegółowego i działań Euro- 275 • pejskiego Instytutu Innowacji i Technologii. Ocena obejmuje zasadność, realizację i osiągnięcia oraz skutki długoterminowe i trwałość środków i przyczyni się do podjęcia decyzji na temat ewentualnego przedłużenia, zmiany lub zawieszenia kolejnych środków. Do oceny postępów osiągniętych w zakresie celu ogólnego stosuje się następujące wskaźniki efektywności: o cel dotyczący działań badawczo-rozwojowych w ramach strategii „Europa 2020” (3 % PKB); o podstawowy wskaźnik innowacyjności w ramach strategii „Europa 2020” [Rozporządzenie 2011]. Wśród dotychczasowych ewaluacji PR – finansowanych na ogół przez EU – przeważały >OCENY WPŁYWU BADAŃ (np. Assessing 2002], w szczególności oparte na analizie dodatkowości, a także ewaluacje skupiające się na wpływie PR na międzynarodową współpracę badawczą [Edler 2008; Malerba 2009] oraz analizy bibliometryczne dokonań [Thomson Reuters 2010]. W ocenie wpływu PR sięgnięto także po analizę semantyczną [Duchêne]. Ewaluacje udziału krajów w Programach Ramowych. Ewaluacje udziału krajów w Programach Ramowych przeprowadza się w wielu krajach; np. w odniesieniu do PR VI, m.in. w takich krajach, jak Austria, Belgia (Flandria i Bruksela), Cypr, Czechy, Dania, Estonia, Finlandia, Francja, Hiszpania, Irlandia, Islandia, Litwa, Łotwa, Niemcy, Norwegia, Szwajcaria, Szwecja, Turcja, Wielka Brytania [Compilation 2008]. Ewaluacje albo dotyczą ogółu instytucji uczestniczących w PR, albo pewnej ich grupy, np. firm lub publicznego sektora nauki; albo wszystkich dyscyplin, albo tylko wybranych, takich jak np. teleinformatyka, energia, środowisko. Z reguły korzystają one z wielu metod ilościowych i jakościowych – np. z bibliometrii, ankiet, wywiadów. W Hiszpanii ogólnym celem ewaluacji było dokonanie ilościowej i jakościowej oceny wpływu uczestnictwa w ramach Szóstego Programu Ramowego (6PR) UE hiszpańskich uniwersytetów i publicznych instytutów badawczych. W badaniu zastosowano kilka kryteriów oceny, takie jak kariery naukowców, przebieg ich badań, publikacje, internacjonalizacja projektów badawczych, współpraca z sektorem przedsiębiorstw, poprawa infrastruktury badawczej, itp. Ewaluacja miała trzy etapy. W pierwszym etapie sięgnięto po analizy ilościowe uzyskane za pomocą ankiet wysyłanych do naukowców uczestniczących w PR. Drugi etap polegał na przeprowadzeniu kilku analiz jakościowych za pomocą wywiadów z przedstawicielami instytucji naukowych. Trzeci etap oceny miał formę warsztatów z przedstawicielami uniwersytetów i publicznych instytutów badawczych. Warsztaty pozwoliły na dyskusję i analizę wyników poprzednich etapów [Evaluation 2010]. Ewaluacja brytyjska dotyczyła udziału kraju we wszystkich – do VI – Programach Ramowych. Miała ona dwa główne cele: określenie stopnia, do jakiego kolejne PR na wzmocnienie najsilniejszych brytyjskich pól badawczych oraz zbadanie charakteru i zakresu, w jakim PR pomógł zainicjować nowe obszary badań. Najbardziej szczegółowo badano następujące kwestie: • Stopień zgodności między priorytetami PR a priorytetami brytyjskich strategii badawczych naukowych 276 • • • • Zakres, w którym główne grupy badawcze z Wielkiej Brytanii były zaangażowane w PR, oraz powody braku zaangażowania. Stopień, w jakim PR wspierają luki w finansowaniu nauki Wpływ PR na o możliwości badawcze, umiejętności i kariery o rozwój przemysłowy i konkurencyjność o politykę Wielkiej Brytanii oraz krajowe finansowanie badań i rozwoju technologicznego o współpracę brytyjskich naukowców i ich odpowiednikami za granicą mechanizmy PR najsilniej związane z pozytywnym wpływem i korzyściami [Technopolis 2010]. Ewaluacje Krajowych Punktów Kontaktowych. W krajach uczestniczących w Programie Ramowym przeprowadza się także ewaluacje Krajowych Punktów Kontaktowych. Np. w Polsce celem badania było dokonanie oceny funkcjonowania sieci Punktów Kontaktowych 7. Programu Ramowego w Polsce w kontekście efektywności jej działań, oraz dokonanie analizy porównawczej z systemami Punktów Kontaktowych w wybranych państwach członkowskich UE. W szczególności, badanie postawiło przed sobą następujące zadania: Przeprowadzenie analizy struktury sieci Punktów Kontaktowych w Polsce oraz analizy instytucji współpracujących w sieci na poziomie europejskim/krajowym i regionalnym, a także głównych przedsięwzięć z udziałem ośrodków sieci – w tym przepływu informacji pomiędzy nimi, ze szczególnym uwzględnieniem roli i efektów pracy Krajowego Punktu Kontaktowego, Dokonanie analizy usług/wsparcia udzielonego przez Regionalne, Branżowe oraz Lokalne Punkty Kontaktowe, w ramach działania sieci, Porównanie zakresu, zadań, struktury zatrudnienia i klientów Narodowych Punktów Kontaktowych w krajach takich jak: Polska, Austria, Czechy, Wielka Brytania, Irlandia, Przygotowanie wniosków i rekomendacji istotnych z punktu widzenia poprawy efektywności funkcjonowania sieci Punktów Kontaktowych w Polsce [PSDB 2008]. Bibliografia Antoni Torras i Estruch, Catalan companies in the European Framework Programme 2009. Assessing the Socio-economic Impacts of the Framework Programme. A study for DG Research by PREST, AUEB, BETA, ISI, Joanneum Research, IE HAS and Wise Guys, 2002. Compilation of FP6 National Impact Studies April 2008. EC European Commission, First FP7 Monitoring-Report 2009. Effects of Swiss participation in EU Research Framework Programmes Interim Report 2010. Evaluation of the impact of the FP6 in the RTD public system in Spain 2010. 277 Finland - Evaluation of Participation and Network in FP6 Tekes Programme Report 6/2008 Franco Malerba, Network Analysis of Research Collaborations 2009. PSDB, Funkcjonowanie Sieci Punktów Kontaktowych w Polsce 2008. Impact assessment of Framework Programme on French research and innovation system 2010. Instytut Badań nad Gospodarką Rynkową, Przyczyny sukcesów i niepowodzeń zespołów naukowych biorących udział w Szóstym Programie Ramowym – wnioski na przyszłość, Warszawa Lipiec 2006. J. Edler, The role of International Collaboration in the Framework Programme. Expert Analysis In Support Of The Ex Post Evaluation Of FP6, 2008. KE Komunikat Komisji Do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów, „Horyzont 2020” - program ramowy w zakresie badań naukowych i innowacji, Bruksela, dnia 30.11.2011 KOM(2011) 808 wersja ostateczna. Lucie Vavříková, Assessment Of Fp6 In The Czech Republic. Impact Assessment of the 6th European RTD Framework Programme, 2010. OPI Ewaluacja udziału polskich zespołów badawczych w 6 Programie Ramowym – ocena efektywności finansowej, odpowiedniości, skuteczności i użyteczności 2008. Participation of German Higher Education Institutions In FP6 2009. PRO INNO Europe, Impact of publicly funded research on innovation. An analysis of European Framework Programmes 2009. Rozporządzenie Parlamentu Europejskiego i Rady ustanawiające „Horyzont 2020” – program ramowy w zakresie badań naukowych i innowacji (2014-2020), Bruksela, dnia 30.11.2011 COM(2011) 809 końcowy 2011/0401 (COD). Spanish National FP6 Impact Assessment Study 2010. Switzerland’s Participation in the 6th EU Research FP 2008. Technopolis, Impact of the EU RTD Framework Programme on the UK 2010. Thomson Reuters, Expert Group for the Interim Evaluation of Framework Programme 7. Bibliometric analysis 2010. Vincent Duchêne, Ir. Patrick De Mazière, Semantic analysis as tool to measure policy impact. The impact of FP-funded research in Social Sciences and Humanities (SSH) on EU policies, June 18th, 2009. Vladimír Albrecht, Jiří Vaněček, Assessment of Participation of the Czech Republic in the EU Framework Programmes, Technology Centre of the Academy of Sciences of the Czech Republic 2009. EWALUACJA ZACHĘT PODATKOWYCH Zachęty na B+R i działalność innowacyjną polegają one na prawie do odliczania (części lub całości) wydatków na B+R lub na stwarzaniu zachęt podatkowych dla przedsiębiorstw i jednostek do zakładania fundacji finansujących badania naukowe lub angażowania funduszy w kapitał ryzyka. Najczęściej stosowane instrumenty podatkowe w polityce naukowej i innowacyjnej odnoszą się do podatków dochodowych osób prawnych (corporate income tax). Inne możliwe formy to: podatek osobowy od osób fizycznych (włączając w niego podatek od zysków kapitałowych), podatek od wynagrodzeń, składka zdrowotna, podatki regionalne, VAT, opłaty celne itd. Ulgi podatkowe kredytowe pozwalają na odliczenia od zobowiązań podatkowych z możliwością rozłożenia na lata, a ulgi podatkowe zwykłe (tax allowances) dają możliwość 278 odliczeń od podstawy opodatkowania. Ta pierwsza forma jest częściej stosowana w krajach OECD. Wartość zwykłych ulg podatkowych zależy (podczas gdy wartość ulg podatkowych kredytowych nie zależy) od podstawy opodatkowania podmiotów prawnych (corporate income tax) [Van Pottelsberghe 2003]. Odroczenia płatności najczęściej przybierają formę zgody na przyśpieszoną amortyzację. W większości krajów OECD wydatki na B+R można rozkładać i odliczać w okresie od 3 do 10 lat. Gwarantuje to, że firmy wchodzące dopiero na rynek, które nie wypracowują jeszcze wysokiego dochodu, lub też firmy, które wskutek np. przejściowych strat lub okresowych fluktuacji dochodów nie mają zobowiązań podatkowych, nie zostają pozbawione korzyści wynikających z systemu podatkowego [Wasilewski 1997]. Zachęty podatkowe poddawano ewaluacji w wielu krajach opartej na czterech metodach: badaniach ankietowych; eksperymentach (porównanie dwóch grup firm, np. tych które skorzystały z zachęt oraz tych, które nie skorzystały, gdyż przekraczały kryteria nakreślone w ustawie); technikach opartych na statystycznych grupach kontrolnych (porównanie dwóch grup firm o tych samych charakterystykach, tej która skorzystała z zachęt i tej, która nie skorzystała); strukturalnych modelach ekonometrycznych [OECD IPP 2010]. Bibliografia Bruno Van Pottelsberghe, Steve Nysten, Esmeralda Megally, Evaluation of current fiscal incentives for business R&D in Belgium, Solvay Business School, June, 2003. Tax incentives for research and development: trends and issues, OECD 2002. Lesław Wasilewski, Stefan Kwiatkowski, Jan Kozłowski, Nauka i Technika dla Rozwoju. Polska na tle Europy. Konteksty, miary, tendencje, Warszawa 1997. An Evaluation of Research and Development Tax Credits Expert Group on R&D Tax Incentives, Evaluation, Comparing Practices in R&D Tax Incentives Evaluation Final Report, European Commission Directorate General – Research, Brussels October 31, 2008. OECD IPP, R&D tax incentives: rationale, design, evaluation, November 2010. CREST Evaluation and design of R&D tax incentives. CREST Evaluation of tax incentives for R&D, an overview of issues and considerations. OECD NESTI Measuring R&D tax incentives, NESTI meeting, Jan 2010 IMPACT FACTOR „Impact factor (IF) – w tłumaczeniu „Miara oddziaływania” to wskaźnik prestiżu i siły oddziaływania czasopism naukowych, ustalany corocznie na podstawie prowadzonego przez koncern wydawniczy Thomson Reuters indeksu cytowań publikacji naukowych. IF jest ustalane wg wzoru: IF = B/C 279 gdzie B – łączna lista cytowań, które nastąpiły w danym roku kalendarzowym; C – liczba cytowalnych publikacji (zwykle nie są brane pod uwagę takie publikacje jak np. listy do redakcji), które ukazały się w danym czasopiśmie w ciągu ostatnich dwóch lat. Jeśli np.: chcemy obliczyć IF dla czasopisma X w roku 2002, to zliczamy wszystkie cytowania, które nastąpiły w roku 2002 wszystkich publikacji tego czasopisma z lat 20002001, a następnie dzielimy liczbę tych cytowań przez liczbę publikacji analizowanego czasopisma, które ukazały się w nim w latach 2000-2001.”[Wikipedia] Trzeba pamiętać, że wskaźnik IF jest tylko najbardziej popularnym, ale nie jedynym wskaźnikiem mierzącym jakość i wpływ czasopism. W ostatnich latach jesteśmy świadkami rozkwitu nowych propozycji – zarówno w odniesieniu do baz Thomson-Reuters, jak i Elsevier: 5-Year IF, Eigenfactor™, Article Influence™ Score, SJR, SNIP, Mean Normalised Journal Score MNJS, Total Normalised Journal Score TNJS itd. [Haustein 2010]. Bibliografia Impact Factor, Wikipedia 2014 Stefanie Haustein, Multidimensional Journal Evaluation oraz Anthony F.J. van Raan i inni, The new set of bibliometric indicators of CWTS, w: 11th International Conference on Science and Technology Indicators “Creating Value for Users” 9-11 September 2010. Book of Abstracts; http://info.scopus.com/journalmetrics/ METODY EWALUACJI B+R FINANSOWANYCH ZE ŹRÓDEŁ PUBLICZNYCH Typ metod Korzyści/silne strony Wady/trudności/słabe strony Sposób zastosowań/poziom (mikro, meso, makro)/charakterystyki (ramy czasowe B+R, typy B+R, cel B+R) Metody jakościowe Peer review. Panel ekspertów. W swojej najbardziej podstawowej formie metoda ta polega na ocenie badań lub propozycji dokonanej przez zewnętrznych (czasem wewnętrznych) recenzentów naukowych. Może ona służyć wielu celom, podejmowaniu decyzji, które wnioski grantowe otrzymają wsparcie lub które badania nadają się do publikacji w czasopiśmie oraz dokonywaniu oceny naukowca lub instytucji naukowej. Prosta do przepro- Często przesadny nacisk na aspekt jakości naukowej; oparte na niewielu opiniach; zależne od kryteriów kulturalnych, subiektywne; jedynie wyniki jakościowe; nie pozwalają na rozpoznanie wielkich przełomów; w zespołach dominują często autorytety; tradycyjne peer review często nie bierze pod uwagę zagadnień wpływu społecznogospodarczego. Kluczowy punkt w peer review to dobór panelu ekspertów. Panel może składać się z ekspertów krajowych bądź z Konieczne jasne sformułowanie pytań oraz procedur zbierania danych. Ocena ograniczona w zasadzie tylko do jakości badań. Ramy czasowe ocenianych badań: przeszłość, stan bieżący, przyszłość. Typy B+R: w zasadzie badania podstawowe. Prognozowanie technologiczne. Określanie luk technologicznych. Metoda trudna do zastosowania w stosunku do badań komercyjnych. 280 wadzenia; pozwala na próbę oszacowania korzyści społecznych; tania; możliwy wysoki poziom kompetencji; wyniki być mogą usystematyzowane i monitorowane. zagranicznych. Oba rozwiązania mają swoje wady. Krajowe może ulegać naciskom, zagraniczne – pomijać swoistość krajowych potrzeb. Panele mogą być konserwatywne, tj. pomijać nowe idee, oraz mogą być nastawione wąsko-dyscyplinowo, i pomijać wkład ocenianego projektu lub pracy do innych dyscyplin, mogą wreszcie być ukierunkowane jedynie na problematykę naukową, i pomijać użyteczność ocenianego projektu w kontekście społecznogospodarczym. Zmodyfikowany peer review połączenie tradycyjnego peer review z oceną wpływu ekonomicznospołecznego. Łatwy w organizacji; tani; prawdopodobnie najlepsza metoda dotycząca badań podstawowych i strategicznych. Oparty na opiniach wąskiego kręgu osób; oparty wyłącznie na informacjach jakościowych; wymaga obszernych informacji Ocena nie tylko jakości badań. Ramy czasowe B+R: przeszłość, stan bieżący, przyszłość. Typy B+R: wszystkie. Badania ankietowe (przeprowadzane z uczestnikami albo z użytkownikami). Badania zapewniają szeroki przegląd aktualnego stanu danego programu lub organizacji naukowej i są szeroko stosowane. Badania mogą być stosowane on-line, za pośrednictwem poczty lub telefonicznie. Prostota. Wiele opinii zebranych razem; otwarte pytania generują nowe i interesujące punkty widzenia; dobre jako podstawa wskaźników ilościowych; dobre jako element oceny studiów przypadku. Szeroka liczba respondentów; porównywalne odpowiedzi; możliwość budowy wskaźników ilościowych. Badania ankietowe dostarczają raczej wiedzy szerokiej niż głębokiej. Nie zaspakajają potrzeby twardych danych ilościowych. Układ pytań i interpretacja odpowiedzi może zniekształcić wyniki; respondenci mogą być skłonni pokazywać bardziej korzystny obraz, gdyż ewaluacja może wpłynąć na finansowanie ich przyszłych badań. Metoda ankietowa może wymagać późniejszych wywiadów w celu pełnego zrozumienia odpowiedzi; budowa kwestionariusza i jego analiza mogą być trudne. Ocena uczestnika dotycząca wpływu projektów B+R finansowanych ze źródeł publicznych na różne wymiary działalności organizacji. Ramy czasowe B+R: przeszłość i stan bieżący. Zazwyczaj na poziomie projektu. Prognozowanie technologiczne. Określanie luk technologicznych. Element decyzyjny w polityce rządowej. Kontrola jakości zarządzania projektem. Wizyty w terenie (site Wizyty w terenie stosuje się aby dać oceniającym możliwość interakcji z przedsta- 281 visits) wicielami ocenianej instytucji. Zwykle składają się one ze spotkań z udziałem panelu ekspertów i przedstawicieli instytucji. Daje to ewaluatorom możliwość kontaktu się z wieloma zainteresowanymi stronami. Wizyty terenowe są najbardziej odpowiednie w ewaluacji kształcącej (ang. formative evaluation), gdyż stwarzają możliwość rozumienia kontekstu. Nie ma stałych zasad wizyt w terenie, ale na ogół składają się one z serii spotkań z zainteresowanymi stronami, indywidualnie oraz w grupach. Zwykle po spotkaniach organizuje się sesje, w których członkowie zespołu oceniającego dyskutują z zainteresowanymi swoje ustalenia i wnioski. Na ogół wizyty w terenie poprzedza się wstępnym raportem, tzw. raportem samooceny, przygotowanym przez ocenianą instytucję. Wizytę kończy sprawozdanie końcowe, sporządzone przez ekspertów. Studium przypadku (case study) Prawdopodobnie najbardziej użyteczna metoda oceny głębszych powiązań pomiędzy B+R a jej efektami społecznymi i gospodarczymi. Pozwala na odkrycie krytycznych momentów decydujących o sukcesie lub porażce projektu. Pozwala na opis realizacji projektu w całym jego skomplikowaniu. Metoda może być dobrą ilustracją powiązań pomiędzy B+R a jego wpływem, może pokazywać, dlaczego B+R wywiera wpływ i dzięki jakim czynnikom. Bogactwo informacji. Metoda użyteczna w sytuacjach, w któ- Stosunkowo mało użyteczna dla wyciągania konkretnych wniosków. Tylko ex-post. Wyniki trudno uogólnić (a zatem, uznać za ogólna zasadę). Często wyniki nie mogą być ekstrapolowane na projekty B+R spoza badanej grupy. Kosztowna, pracochłonna, mniej użyteczna, gdy w grę wchodzi wiele projektów. Jak i wiele innych technik, studium przypadku nie jest wolne od subiektywizmu. Brak rygoru. Trudna pod względem uogólnień. Bardzo zależna od umiejętności i kompetencji ewaluatora. Brak metod wskazujących na przyczynowość. Czasochłonna i kosztowna. Trudna do stosowania w Element decyzyjny w polityce rządowej. Dotyczy badań stosowanych i stanu z przeszłości. Poziom projektu, firmy, organizacji, innowacji. Zwykle studia przypadku są realizowane na podstawie jasno sformułowanego planu. Często łączone z innymi metodami, jak analiza kosztu i korzyści. Zastosowanie: prognozowanie technologiczne. Określanie luk technologicznych. 282 rych brak przekonywującej teorii lub w których nie ma zdefiniowanych zmiennych. Użyteczna też dla samych badaczy (walor kształcenia). Daje możliwość dostępu do szczegółów i kontekstu. Lepiej niż wiele innych techniki radzi sobie z niejednorodnymi i nie rutynowymi zachowaniami lub okolicznościami. rutynowym monitoringu. Generuje niewiele informacji ilościowych. Analiza dokumentów W ewaluacji badań dokumenty istotne to m.in. strategie badawcze i polityczne, projekty badawcze, recenzje z poprzednich badań, najważniejsze publikacje wynikłe z badań, sprawozdania końcowe, raporty roczne agencji, komentarze i opinie w mediach. Analiza dokumentów to często pierwszy etap ewaluacji. Prognozowanie technologiczne Bierze pod uwagę czynniki społeczne. Grupy focusowe Badają temat na dogłębnie w formie debaty grupowej. Metoda szybka i niezawodna, skuteczny sposób na uzyskanie szerokiego zakresu i dogłębnych informacji w krótkim czasie, źródło podstawowych informacji o programach. Trzy główne metody to: analiza scenariuszy; matryce wpływu krzyżowego oraz analiza morfologiczna. Ta ostatnia metoda łączy metody oceny z technikami twórczości. Nieraz trudno analizować odpowiedzi, potrzeba dobrego moderatora, czasem trudno zebrać 6-8 osób razem. Metody semi-ilościowe Bibliometria (liczba publikacji i cytowań; analiza współ-cytowań; analiza współwystę- Dane bibliometryczne, zwłaszcza pochodzące z indeksów cytowań, mają charakter międzynarodowy i międzydyscyplinarny. Są powszechnie stosowane dla oceny programów. Mogą Publikacje w czasopismach nie są jedynym środkiem komunikacji naukowej; przekaz ustny (np. w czasie konferencji), elektroniczny (lista dyskusyjna, czasopisma elektroniczne, tzw. elektroniczne archiwum) czy w formie tzw. szarej literatury umyka pomiarom. Po- Bibliometria to nazwa określająca dyscyplinę naukową zajmującą się pomiarem publikacji naukowych. W analizie bibliometrycznej wykorzystuje się dane ilościowe o autorach konkretnych publikacji oraz samych publikacjach i zawartych w nich cytowa- 283 powania słów) dotyczyć różnych tematów ewaluacji, w tym wpływu badań i powiązań we współpracy, interdyscyplinarności badań. Ustalenia są łatwo zrozumiałe. Są powszechnie dostępne: w formie drukowanej, online, na dyskietkach lub na CD-ROM-ach. Choć wysoka liczba cytowań nie zawsze jest wyrazem wysokiej wartości konkretnej pracy, dane o cytowaniach naukowców i zespołów badawczych wykazują wysoką korelację z opiniami ekspertów. Połączenie informacji o publikacjach oraz danych o cytowaniach pozwala na tworzenie wielu wskaźników dotyczących krajów, miast, dyscyplin naukowych i pól badawczych. Użyteczna głównie w odniesieniu do badań podstawowych. nadto, artykuły nie są jedynym, a w niektórych dyscyplinach nie są nawet najważniejszym rezultatem badań; patenty, prototypy urządzeń czy ulepszenia technologii mogą mieć znacznie większe znaczenie. Ponadto wyniki badań prowadzonych w laboratoriach wojskowych i przemysłowych publikowane są rzadko lub z opóźnieniem. Indeksy cytowań faworyzują czasopisma w języku angielskim, a zwłaszcza amerykańskie, alfabet łaciński, państwa-centra nauki, takie jak Stany Zjednoczone, Wielka Brytania lub Japonia. Ponadto, uwzględniają one dyscypliny w bardzo nierównym stopniu. Lepiej badania podstawowe, gorzej - stosowane. Najlepiej - fizykę , chemię, astronomię i farmakologię, gorzej nauki geologiczne, inżynieryjne, matematyczne i (do pewnego stopnia) medycynę kliniczną; w naukach humanistycznych lepiej antropologię oraz językoznawstwo i literaturoznawstwo ogólne (dyscypliny o orientacji międzynarodowej), gorzej - inne dziedziny humanistyki. Publikacje w języku angielskim cytowane są znacznie częściej niż publikacje w innych językach. Praktyki cytowań różnią się w zależności od dyscypliny. Przeciętny okres cytowania prac także różni się w zależności od dyscypliny. Poziom cytowań zależy nie tylko od języka i dyscypliny, ale także i rodzaju publikacji. Prace metodyczne cytowane są przeciętnie częściej niż prace teoretyczne. Prace o charakterze przeglądu stanu badań cytuje się zamiast powoływania się na prace oryginalne. Prace przełomowe są często cytowane z opóźnieniem (gdyż potrzeba czasu, by dostrzec ich oryginalność), a po pewnym czasie - gdy odkrycia wchodzą do kanonu wiedzy - przestają być cytowane. Bibliometria premiuje uczonych o niach. Dane te pozwalają na mierzenie wyników działalności (output) poszczególnych osób/ zespołów badawczych, instytucji i krajów, na identyfikowanie sieci powiązań o zasięgu krajowym i międzynarodowym oraz na odwzorowywanie rozwoju nowych (multidyscyplinarnych) dziedzin nauki i techniki. W bibliometrii tworzy się wskaźniki określające rozmiary, tematykę, charakter (prace analityczne vs. syntetyczne; teoretyczne vs. eksperymentalne itp.), oddziaływanie oraz powiązania pomiędzy autorami (współautorstwo i współcytowanie) i tematami - produkcji naukowej krajów, miast, placówek naukowych, autorów, dyscyplin i pól badawczych. Wskaźniki można podzielić na wskaźniki zasobów i wskaźniki relacyjne. Do pierwszej grupy należą m.in. liczba publikacji (wskaźnik produktywności), liczba cytowań (wskaźnik wpływu publikacji, autora, instytucji), współautorstwo artykułów (wskaźnik współpracy na szczeblu krajowym lub międzynarodowym), wskaźnik wpływu (ogólna liczba cytowań podzielona przez ogólną liczbę publikacji dla danej dyscypliny), efektywności (procent publikacji cytowanych wśród ogółu publikacji). Do drugiej grupy - cytowania (stosowane jako wskaźnik wzajemnego oddziaływania różnych wspólnot badawczych), współcytowania (miara częstotliwości jednoczesnego cytowania dwóch różnych prac w tym samym artykule, wskaźnik istnienia sieci badawczych), współwystępowanie słów (miara częstotliwości jednoczesnego używania w publikacjach z danego pola badań dwóch słów kluczowych, wskaźnik zmian tematycznych w nauce). Literatura przedmiotu za- 284 dużym dorobku i dyskryminuje młodych badaczy. Wciąż – pomimo dwóch systemów identyfikacji autorów, ORCID i Reseacher Identification – istnieją problemy z rozróżnieniem badaczy. wiera wiele zaleceń, jak poprawnie analizować dane bibliometryczne. Zwraca się więc uwagę, że agregaty są znacznie lepsze niż dane jednostkowe, szczebel analizy makro i mezo (ocena dyscypliny, krajów, uniwersytetów) pozwala na ogół na uzyskanie bardziej wiarygodnych wniosków niż szczebel micro (ocena poszczególnych badaczy i zespołów). Ujęcia w szeregach czasowych, pokazujące trendy, są lepsze od przekrojów. Metoda współwystępowania słów (co-word analysis) oparta na zasadzie, że im bliżej dwa słowa są obok siebie i im częściej współwystępują, tym silniejsze są powiązania, jakie między nimi zachodzą. Np. analiza oparta na słowach kluczowych wykazała, że aquaclulture to bardziej termin biurokratyczny niż wyrażający pole badań. Potencjalnie może być wykorzystana dla ewaluacji (ale jeszcze nie była). Np. do badania bliskości słów w artykułach naukowych oraz ekonomicznych, społecznych i innych, gdy mówią one o czynnikach mających wpływ na problematykę podejmowaną w tych polach. Analiza patentów Dostępność danych z urzędów patentowych w większości krajów świata, najczęściej w bardzo długich seriach, a także możliwość uchwycenia zmian zakresu oraz struktury działalności wynalazczej w krajach, branżach, przedsiębiorstwach oraz technologiach. Uzyskanie ochrony patentowej jest kosztowne i czasochłonne, co z reguły eliminuje wynalazki, które nie wydają się rokować nadziei na Patenty niekoniecznie są owocem B+R. Często stosowane są bez związku z wprowadzanymi przez firmę innowacjami. Prawo patentowe i procedury udzielania patentów nadal różnią się pomiędzy poszczególnymi krajami. Skłonność do patentowania, zależna przede wszystkim od jego znaczenia jako bariery przeciwko imitacji oraz środka zapobiegania patentowaniu przez konkurencję podobnych wynalazków, różni się w zależności od sektora przemysłu, wielkości firmy, typu wynalazku i kraju. Wynalazki nie są patentowane, gdy wyklucza to miejscowe prawodawstwo (np. Ocenia się, czy patent reprezentuje innowacje. Zasób patentów musi być dostatecznie duży, aby pozwalał na analizę. To zależy od kontekstu. Np. pojedynczy patent może być wystarczający do określenia, czy B+R spełniło swoje zadanie, ale nie wystarczający do sporządzenia mapy technologicznej kraju. 285 przyszłe zyski. Patenty chronią wynalazki z niemal każdej dziedziny technologii (głównym wyjątkiem są oprogramowania, chronione prawem autorskim), stąd są lepszym wskaźnikiem w odniesieniu do technologii niż indeksy cytowań - które uwzględniają dyscypliny naukowe w bardzo nierównym stopniu w stosunku do publikacji naukowych. Ponadto patenty są klasyfikowane wg bardziej szczegółowej niż publikacje naukowe klasyfikacji. Patenty są dokumentami publicznymi i jako takie zawierają informacje jednostkowe, które - w przeciwieństwie do większości źródeł statystyki NiT nie podlegają zasadzie tajemnicy statystycznej. dotyczy to nieraz biotechnologii), gdy wynalazcę nie stać na opłacenie opłat patentowych względnie, gdy spodziewane zyski nie są pewne. Często też wynalazki nie są patentowane z powodu konieczności utrzymania tajemnicy istnienia lub produkcji danego wyrobu (patent, który jest ujawnieniem wynalazku, często łatwo obejść lub też jego ochrona nie zawsze jest skuteczna). Wynalazek wynalazkowi nierówny. Wynalazki często z trudem dają się zakwalifikować do istniejących klas wyrobów lub sektorów przemysłu. Nie wszystkie patenty stają się innowacjami, nie wszystkie wynalazki są patentowane, nie wszystkie wynalazki są patentowalne. W krajach słabiej rozwiniętych B+R na rzecz przemysłu są bądź ukierunkowane na modernizację tradycyjnych branż, bądź też na monitoring, adaptację i drobne ulepszenia obcych technologii. W obu wypadkach wyniki badań nie są na ogół patentowane. 286 Analizy statystyczne N+T: cząstkowe wskaźniki Zwyczajowo dotyczą wkładu i rezultatów B+R, innowacji, danych bibliometrycznych, patentów, bilansu płatniczego technologii, wyrobów i procesów wysokiej techniki, zaawansowanych metod produkcyjnych, zasobów ludzkich na rzecz N+T. Łatwy pomiar. Niski koszt; stosunkowo łatwo zebrać informacje konieczne dla określenia wskaźników; prawdopodobnie najlepsza metoda dla monitoringu. Czysto opisowa. Nie bierze pod uwagę pośrednich efektów. Metoda dostarcza tylko bardzo cząstkowego obrazu sytuacji i powinna być łączona z innymi metodami. W miarę rozwoju statystyki N+T i jej zastosowań wzrasta wiedza o jej zaletach i ograniczeniach. Każdy wskaźnik chwyta tylko jeden aspekt badanego zjawiska. Wskaźniki wkładu nie powiedzą niczego o wynikach, wskaźniki publikacji nie informują o pracach badawczych, których owocem są ekspertyzy, wskaźniki patentowe nie mówią niczego o innowacjach w dziedzinach, w których wynalazki nie są patentowane. Pomimo wieloletnich zabiegów standaryzacyjnych poszczególne kraje stosują różne definicje i techniki gromadzenia danych, co ogranicza możliwości porównań międzynarodowych. Wskaźniki statystyczne są ze swej natury uwikłane w pewne założenia teoretyczne. Założenia te przesądzają, jakie dane się zbiera, jakie kategorie i klasyfikacje stosuje i jakie relacje pomiędzy danymi bada. Wskaźniki N+T lepiej mierzą zorganizowaną pracę badawczą prowadzoną systematycznie w instytucjach naukowych od - nieraz wieńczonej większym sukcesem ekonomicznym - działalności badawczej i inżynierskiej, podejmowanej często doraźnie i w sposób nieformalny w przedsiębiorstwach przemysłowych. Ponadto, lepiej mierzą wiedzę skodyfikowaną od wiedzy nieskodyfikowanej, specyficznej dla danej branży, technologii i firmy. Wreszcie, wskaźniki N+T odnoszą się zazwyczaj do szczebla krajowego, wskutek czego pomijają ważne branżowe i regionalne zróżnicowania B+R i działalności innowacyjnej. Wskaźniki branżowe nie ujawniają różnic pomiędzy firmami. Wskaźniki B+R należy interpretować ze szczególną ostrożnością Pomiar efektywności wkładu B+R na poziomie makro. Analiza zmian systemu N+T. Ocena wpływu N+T na gospodarkę. Przeszłość i stan bieżący (w ograniczonym zakresie przyszłość). Wszystkie typy badań. Dane i wskaźniki statystyczne pozwalają zmniejszyć obszar niepewności związanej z podejmowaniem decyzji. Dostarczają one decydentom informacji mówiących: co się dzieje z zasobami, którymi zarządzają, i co powstaje w efekcie działań, którymi kierują? w jakiej mierze działania te osiągają zakładane cele? co się dzieje w obszarach gospodarki/społeczeństwa/technologii związanych z ich działalnością? co prawdopodobnie wydarzy się w ich dziedzinie w przyszłości? 287 gdy dotyczą one państw słabiej rozwiniętych. Wskaźniki ilościowe kładą zbytni nacisk na znaczenie indywidualnych typów aktywów (np. patentów, nowych i zmodernizowanych wyrobów itd.). Sytuację w krajach Europy ŚrodkowoWschodniej charakteryzuje jednak brak równowagi aktywów. Aktywa, które są w obfitości, nie mogą być eksploatowane z powodu braku aktywów uzupełniających. Analizy statystyczne N+T: wskaźniki zintegrowane Podobna do poprzedniej metody, polega na `sumowaniu` wskaźników cząstkowych. Niski koszt; łatwy lecz usystematyzowany sposób określenia priorytetów badawczych; zmusza decydentów do otwartego i jednoznacznego określenie kluczowych determinantów wpływu. Całkowicie opiera się na osądzie (zwykle kilku) jednostek; możliwe odchylenia w przypisywaniu wag różnym kryteriom; wyniki nie zawsze dają się obronić i są często ignorowane przez decydentów. Element decyzyjny w polityce rządowej; dotyczy badań stosowanych oraz w zasadzie stany przyszłego. Wskaźniki wykonania (performance indicators) Dostarcza operacyjnych charakterystyk, takich jak skuteczność menedżerska. Z reguły część monitoringu. Dobra dla badań porównawczych. Prosta i tania. Dyscyplinuje myślenie przez żądanie mierzalnych celów i właściwych wskaźników przed rozpoczęciem realizacji projektu. Zbyt upraszcza. Nie bierze pod uwagę niespodziewanych wyników, które mogą być cenniejsze od tych oczekiwanych. Lepsza dla badań stosowanych. Subiektywizm wag przypisywanych kryteriom. Pomija informacje jakościowe oraz powiązania. Wskaźniki wykonania (performance indicators) to mierzalne, obiektywne i weryfikowalne charakterystyki produktów, procesów i operacji, służące organizacjom do oceny działalności. Często służą jako podstawa wyznaczania kwantyfikowanych celów, które mogą być wykorzystane dla pomiaru sukcesu lub porażek programów. Eksploracja danych Eksploracja danych to zmechanizowany proces pozyskiwania danych z istniejących baz danych (w szczególności >Bazy danych o produktach, efektach i wpływie badań) w sposób, który pozwala na wydobycie z danych użytecznych in- Wartość informacji uzyskanych z danych zależy od kompletności i wartości baz danych. Źródłem błędów mogą też być wady algorytmów. Eksploracja danych może być solidnym i całościowym sposobem, aby zebrać informacje na temat wyników i wpływu badań. Obecnie eksploracja danych dla ewaluacji badań jest zwykle stosowana w połączeniu z metodami bibliometrycznymi celem wiązania publikacji i ich cytowań z finansowaniem badań lub dotacji z 288 Wizualizacja danych formacji. Metoda wykorzystuje algorytmy celem znalezienia korelacji lub wzorów w ramach dużych ilości danych w powiązanych ze sobą bazach danych oraz metody wizualizacji dla unaocznienia ustaleń. Eksploracja danych pozwala na analizę złożonych i niezorganizowanych danych oraz na wydobywanie informacji z danych, które inaczej nie byłyby zrozumiałe. produktami badań. Zaleca się stosowanie jej z badaniami ankietowymi i studiami przypadku. Wizualizacja danych wykorzystuje zdolności ludzi do przetwarzania informacji i wydobywania informacji i wiedzy przez reprezentacje wizualne. Jest to narzędzie do uproszczania danych: polega ono na pobraniu dużej ilości danych i przedstawianiu ich w formie wizualnej dla ich zrozumienia i interpretacji. Narzędzia wizualizacyjne stają się coraz bardziej popularne ze względu na coraz większą ilość dostępnych do analizy danych. Wizualizacja danych często używa się w połączeniu z eksploracją danych, podczas gdy eksploracja danych odnosi się do procesów identyfikacji wzorców, wizualizacja może być środkiem do prezentacji tych wzorców. Wizualizację można także stosować zamiast zautomatyzowanych metod analitycznych, np. przez przedstawienie tych danych w sposób, który pozwala na ich in- Wizualizacja danych dla polityki naukowej jest wykorzystywana w dziedzinie bibliometrii (mapy współpracy, mapy współcytowań, mapy powiązań słów kluczowych itp.). 289 terpretację. Metody ilościowe Analiza kosztu i korzyści (cost-benefit analysis). Analiza kosztu i efektu jest użyteczna do oceny efektów społecznych i gospodarczych. Wartość jej polega na przejrzystości i porównywaniu alternatyw. Dostarcza rozsądnych i możliwych do obrony szacunków potencjalnych korzyści; dostarcza usystematyzowanych ram dla oceny projektów B+R, co zmusza do stawiania istotnych pytań. Najlepiej użyć jej dla odpowiedzi na pytanie, czy korzyści z programu lub polityki przekraczają koszty w wartości pieniężnej. Pomija aspekty strategiczne, kładzie nacisk na czynniki ekonomiczne. Metoda nie jest w stanie pokazać nie-mierzalnych efektów, które mogą być istotniejsze. Nie jest w stanie obliczać efektów zewnętrznych, ubocznych lub też „odpryskowych”, a te mogą być szczególnie istotne. Pomija wpływ długofalowy. Metoda jest czaso-, praco- oraz kosztochłonna, a zatem może być stosowana jedynie w stosunku do ograniczonej liczby projektów; wyniki w wysokim stopniu zależą od założeń, które mogą być bardzo niepewne. Stosunkowo łatwo wycenić koszty bezpośrednie, takie jak personel, materiały i wyposażenie. Koszty pośrednie, takie jak koszty ogólne, koszty ponoszone przez innych dostawców wspierających program oraz koszty dla uczestników) oszacować znacznie trudniej. Czasem wchodzą też w grę koszty niewymierne, które skalkulować najtrudniej. Dotyczy tylko badań stosowanych i w zasadzie stanu z przeszłości. Wydatki na B+R traktowane są jako inwestycja oceniana w stosunku do alternatywnych możliwości wydatkowania pieniędzy i uzyskania z nich zysku. Bierze się pod uwagę trzy elementy wydatków: bezpośrednie wydatki na B+R, praktyczne koszty wykorzystania (utilisation costs) oraz koszt własne poniesione w związku z zastosowaniem wyników przez użytkowników końcowych. Po stronie korzyści, bierze się pod uwagę wartość nowych lub lepszych produktów, oraz procedury i systemy wynikające z projektu B+R za cenę, jaką społeczeństwo jest przygotowane do zapłacenia. Jeśli nawet nie sposób ocenić wartości pośrednich efektów, ważne jest, aby je umieć określić. Im bliżej badań podstawowych, tym trudniej o ocenę. Ewaluator powinien wyraźnie wyłuszczyć zasady obliczeń. Analiza opłacalności (costeffectiveness analysis) Analiza efektywności kosztów porównuje rezultaty i efekty alternatywnych polityk ukierunkowanych na osiągnięcie tego samego celu. Szacuje ona oczekiwane koszty oraz rezultaty i efekty polityk. Analiza kosztów i użyteczności (Costutility analysis) Analiza kosztów i użyteczności porównuje koszty i korzyści alternatywnych polityk lub programów, aby pomóc decydentom określić ich wartość poprzez odniesienie do normy zewnętrznej (zwykle ustalonej w budżecie). Mimo podobieństw do analizy opłacalności analiza kosztów-użyteczności jest różna i ma szersze zastosowanie. 290 Metody finansowe Metoda Wartości Bieżącej Netto (Net Present Value) jest szczególnie odpowiednia dla oceny projektów długoterminowych. Pozwala na wzięcie pod uwagę takich kwestii, jak koszt kapitału, stopa zwrotu i zysk z realizacji alternatywnych projektów. Opcjonalna wycena (Optional pricing) Metody punktacji (scoring methods) Bogactwo informacji. Racjonalizuje i ułatwia wybór opcji. Łatwa, nie wymaga szczególnie wysokich kwalifikacji. Dobra dla systematyzacji i uproszczenia decyzji. Umożliwia szerokie udział zainteresowanych. Najlepsza dla porównania podobnych propo- Metoda Wartości Bieżącej Netto prezentuje wąski punkt widzenia. Bierze pod uwagę jedynie przepływy gotówki. Bardzo wrażliwa na wysokość stopy procentowej. Wewnętrzna stopa zwrotu (Internal Rate of Return), analiza zwrotu z inwestycji (Return on Investment) i Wartość Bieżąca Netto - obecna wartość przyszłych wpływów gotówki netto minus obecna wartość wypływów gotówki netto. Jak i inne metody finansowe, odpowiednie jedynie dla oceny projektów innowacyjnych. Trudność uzyskania adekwatnych danych. Analiza zapożyczona z rynku instrumentów finansowych, rzadko dla oceny inwestycji w B+R, gdzie wielu wielkości nie da się ująć numerycznie. Wymaga wysokich kwalifikacji statystycznych i finansowych. Wydatki na B+R traktowane są jako opcja. Opcja to prawo, ale nie obowiązek, zakupu akcji po pewnej, ustalonej cenie. „Jeżeli cena akcji na giełdzie jest wyższa od tej, na którą opiewa opcja, właściciel realizuje opcje. W przeciwnym wypadku opcja pozostaje niezrealizowana. Początkowa inwestycja w prace badawcze daje prawo (np. w wypadku dobrych wyników), ale nie obowiązek kontynuacji badań. Podobnie jak w wypadku opcji istnieją szanse na duży zysk, podczas gdy rozmiary strat są ograniczone do początkowo zainwestowanej sumy.” Organizacja „kalkuluje wartość takiej opcji inwestycyjnej w oparciu o przeszłe doświadczenia oraz czas trwania projektu badawczego.” Trudności z zebraniem informacji. Subiektywizm. Mało korzystna dla szacowania zwrotu ekonomicznego. Cierpi na subiektywizm. Układ kryteriów bywa niespójny. Szczególnie ważny jest sposób, jak ocenia się rangi się i w jaki sposób wykorzystuje się wyniki dla wspierania decyzji. Selekcja projektów. Multikryterialna interpretacja. Pokazuje powiązania pomiędzy projektami badawczymi, technologią i gospodarką Zazwyczaj oparta na matrycach i podejściu systemowym. Polega na ocenianiu listy projektów wg listy ustalonych kryteriów zawierających wagi. Często stosowane są odmiany metody takie jak rangowanie matrycowe (porównujące 291 zycji. Rezultaty przejrzyste i łatwe do zrozumienia. Stosowana do oceny złożonych problemów, rozwiązań i priorytetów. parami obiekty lub kryteria we wszelkich możliwych kombinacjach dla ustalenia preferencji). Modele ekonometryczne Dane przejrzyste i możliwe do zweryfikowania. Metoda pozwala na porównywanie projektów. Wąska perspektywa. Uwzględnia jedynie ekonomiczny wymiar B+R. Z trudem pozwala na uwzględnienie efektów długofalowych. Kosztowna. Trudno wydzielić B+R z innych czynników. Rządowe programy B+R wspierają często B+R które nie przekłada się na bezpośrednie efekty ekonomiczne (takie jak zysk lub sprzedaż); Trudno uzyskać dane na poziomie firm; efekty zewnętrzne (externalities) nie są ujmowane w modelach ekonometrycznych. Budowa modelu pochłania wiele czasu. Budowa małego modelu zabiera rok, a jego użyteczność jest często ograniczona do pewnych tylko zmiennych. Budowa dużego modelu wymaga pracy kilku osób i zabiera kilka lat. Prócz tego, model wymaga stałej aktualizacji. Z tego to powodu rzadko tworzy się je dla jednej tylko ewaluacji. Zazwyczaj dla ewaluacji korzysta się z istniejących modeli, po ich uprzedniej adaptacji i rozszerzeniu. Technometria Uznawana za narzędzie dla rozwiązywania praktycznych problemów, jak analiza luki technologicznej oraz identyfikacja procesów technologicznych wymagających modernizacji. Stosowana też dla określenia tematów programów badawczych i w ewaluacji ex-ante. Ma swoje ograniczenia. Może być stosowana tylko w niektórych branżach i tylko wewnątrz branż, a nie w poprzek nich. Stosowana jako narzędzie dodatkowe, ale nie jako zasadnicze. Najlepsza dla badania luki technologicznej. Makro oraz analizy na poziomie firm. Nacisk na społeczne korzyści. Oparte na regresjach, uwikłane w założenia teoretyczne. Stosowanie ich zakłada zebranie danych dotyczących produkcji, wkładu, cen, wydatków na B+R, wzrostu produktywności. W coraz większym stopniu oparte na funkcji produkcji Cobb-Douglass`a. Choć dyskusyjne, są jednak stosowane w ewaluacjach (ale tylko ex post). Projektowanie modeli wymaga wysokich kwalifikacji, nie tylko w dziedzinie teorii ekonomicznej, lecz także w ekonomikach stosowanych (rozumienie hipotez leżących u podstaw modelu, przekład pojęć teoretycznych na terminy empiryczne, identyfikacja właściwych zmiennych), ekonometrii (procedury szacowania, kalibracja modelu, symulacje...), oraz budowy baz danych (źródła danych, zbieranie, przekształcanie danych, wiedza o ich ograniczeniach, analiza danych). Dobrze przygotowany i skalibrowany model na potrzeby ewaluacji pozwala na tworzenie symulacyjnego scenariusza z oraz bez interwencji publicznej. Różnica pomiędzy wpływem interwencji publicznej a jej brakiem daje pogląd na wpływ interwencji. Warunki dla zastosowania metodologii to dostępność wielkiej bazy danych statystycznych, wysoki stopień kompetencji, wystarczająca ilość czasu. Stosunkowo młoda metoda specjalnie opracowana w celu analizy fazy przemysłowej innowacji. Korzysta ze wskaźników efektów opartych na technicznych specyfikacjach produktów i procesów. Wybór wskaźników przeprowadza się na dzięki konsultacji literatury przedmiotu oraz ekspertów dziedzinowych. 292 Bibliografia Amir Piric i Neville Reeve, Evaluation of public investment in R&D – towards a contingency analysis w: Policy evaluation in innovation and technology. Towards best practices, 1997 OECD. Archibugi D., M. Pianta, Measuring Technological Change Through Patents And Innovation Surveys, „Technovation” 16(9) 1996. Australian Science. Performance from published papers, Bureau of Industry Economics, Report 96/3, January 1996. Barrè R., P. Papon, Indicators: Purpose and Limitations w: World Science Report 1993, UNESCO, Paris 1993, s. 136. Basberg B. L., Patents and the Measurement of Technological Change: A survey of the Literature, „Research Policy” 16 (1987). Danish Agency for Science, Technology and Innovation, Hanne Foss Hansen, Research Evaluation: Methods, Practice, and Experience Research: Analysis and Evaluation 1/2009. David Roessner, Quantitative and qualitative methods and measures in the evaluation of research, “Research evaluation” vol. 8, no. 2, August 2000. Douglas Williams and A. Dennis Rank, Measuring the economic benefits of research and development: the current state of the art, “Research Evaluation” vol. 7 nr 1, April 1998. H. Capron¸ Economic quantitative methods for the evaluation of the impact of R&D programmes, MonitorSpear Programme, 1992. James Edwin Kee, At what price? Benefit-Cost Analysis and Cost-Effectiveness Analysis in Program Evaluation, “The Evaluation Exchange”, Internet. Ken Guy, Beyond Socio-economic Impact Evaluation: The challenge for the next millennium, w: Socioeconomic Impact Evaluation Workshop, Helsinki 26-27 November 1999, Helsinki 2000. Maria Papadakis, Patents and the evaluation of R&D w: Evaluating R&D impacts: methods and practice. Ed. by Barry Bozeman and Julia Melkers. Michał Jerzmanowski, Prace badawcze – szansą dla firm, „Bit Życie”, dodatek do „Życia Warszawy” 31 7 1995. Patel P. and K. Pavitt, Patterns of Technological Activity: Their Measurement and Interpretation w: Handbook of the Economics of Innovation and Technological Change, ed. by P. Stoneman, Oxford 1995. PREST Smart specialization. Practical Guide to Evaluating Innovation Programmes 2006. Radosevic S., What S&T Indicators Can Tell Us About Transformation and Growth in Countries of Central and Eastern Europe?, NATO Advanced Workshop Quantitative Studies for Science and Technology Policy in Transition Countries, Moscow, October 23-25 1997, mszp.. RAND Europe, Measuring research A guide to research evaluation frameworks and tools, July 2013 Ronald N. Kostoff, Co-word analysis, w: Evaluating R&D impacts: methods and practice. Ed. by Barry Bozeman and Julia Melkers. Ronald N. Kostoff, The Under-Reporting of Research Impact, “The Scientist” September 14, 1998, s. 9. Steen J.C.G. van, The Role of Science and Technology Indicators in Science Policy: Do They Really Matter? w: Abstracts. Fourth International Conference on Science & Technology Indicators. Performance at the National, Regional an Institutional Level, Antwerp, Belgium, October 5-7, 1995, s. 9-14. Supporting the monitoring and evaluation of innovation programmes 2006. 293 Tamás Balogh, From peer review to portfolio analysis. Evaluation of applied research and development, mszp.. Technology and the Economy. The Key Relationships, OECD, Paris 1992. Technopolis, International review of methods to measure relative effectiveness of technology policy instruments 2001. Welljams-Dorof A., Quantitative Citation Data As Indicators In Science Evaluations: A Primer On Their Apppriate Use w: Evaluating Science And Scientists. An East-West Dialogue On Research Evaluation In PostCommunist Europe, ed. by M.S. Frankel, J. Cave, Budapest 1997, s. 202-211. METODY STOSOWANE W EWALUACJI INSTYTUCJONALNEJ Por. też >EWALUACJA INSTYTUCJI PUBLICZNEGO SEKTORA NAUKI OPARTA NA POMIARZE DOKONAŃ; >ORGANIZACJA EWALUACJI INSTYTUCJONALNEJ; >FAZY EWALUACJI INSTYTUCJONALNEJ; >METODY STOSOWANE W EWALUACJI INSTYTUCJONALNEJ; >PYTANIA I KRYTERIA W EWALUACJI INSTYTUCJONALNEJ. Ewaluacja instytucji z reguły łączy w sobie dwa podejścia: analizę wskaźników dokonań, najczęściej sumowanych w jeden indeks (wskaźnik złożony, syntetyczny) z ewaluacją panelu ekspertów, korzystającą z takich metod, jak badania ankietowe, analiza dokumentów (np. raportów rocznych instytutów), wizyty terenowe, indywidualne lub grupowe wywiady z badaczami, administratorami i klientami. Stosunek pomiędzy oboma podejściami bywa różny – albo ocena ekspertów jest włączona do wskaźnika złożonego jako jeden z jej elementów, albo też (częściej) ostateczny werdykt należy do ewaluatorów, którzy obok wizytacji i innych metod biorą pod uwagę wyniki wskaźników dokonań. Panel ekspertów. Panel ekspertów – to ocena dokonywana przez zespół badaczy (lub także przedstawicieli praktyki) na zlecenie ministerstwa lub agencji finansującej badania dotycząca badań naukowych przeprowadzonych w ramach instytucji, programu lub dyscypliny. Ewaluację panelu ekspertów można uznać za rezultat połączenia tradycyjnego >PEER REVIEW (poziom mikro) z oceną polityki publicznej. W przeciwieństwie do tradycyjnego peer review, które ma na celu ocenę badań na poziomie mikro (artykuły, wnioski lub wnioskodawcy), ewaluacja panelu ekspertów jest przeprowadzana na poziomie mezo (instytucji, programu lub dyscypliny) oraz makro (krajowym) [Langfeld 2002]. Liv Langfeldt następująco przedstawia różnice pomiędzy tradycyjnym peer review a peer review zmodyfikowanym, wykorzystywanym w ewaluacji panelu ekspertów: Poziomie mikro w porównaniu z poziomem makro oceny badań Przedmiot oceny Poziom mikro (peer review) Poziom makro-i mezo-poziom (ocena zespołu ekspertów) Jeden badacz, jeden rękopis lub jeden wniosek oceniany oddzielnie lub rangowany. Jedno (lub więcej) pole badań, instytucja lub program 294 Dobra dzielone przez ewaluatorów Rzadkie / o sumie zerowej Dobra nieograniczone brak jasności, jakie dobra są dystrybuowane Obszar decyzji Wewnątrz naukowe Zewnętrzne w stosunku do nauki Raporty publiczne Rzadko upubliczniane Z reguły upubliczniane Anonimowość ewaluatorów Najczęściej anonimowe, a w ocenie wniosków propozycji badawczych anonimowe oceny e-mailowe, i/lub nie-anonimowe oceny paneli. Ewaluatorzy piszą jeden wspólny, z reguły upubliczniany raport Langfeld 2002 Główne cechy ewaluacji panelu ekspertów (w przeciwieństwie do tradycyjnego peerreview) • • • • Szczebel (makro-i mezo, a nie micro, nie część procesu badawczego, tylko element procesu decyzyjnego w polityce naukowej) Brak anonimowości, typowej dla klasycznego peer review Inne podstawy oceny oraz pojęcie tego, czym jest wartościowe badania. Badania jakościowe w ewaluacji instytucji naukowych, dyscyplin i programów korzystają na ogół z następujących metod: 1) wywiadów indywidualnych i grupowych z pracownikami, menedżerami, partnerami oraz użytkownikami i klientami, 2) analizy dokumentów pisanych, w tym raportów rocznych, planów strategicznych, dzienników badań i zapisów realizacji programu, informacji o zasobach i finansach, czasami także osobnych opracowań biblio metrycznych, 3) badań ankietowych, 4) bezpośredniej obserwacji, 5) studiów przypadku. Ewaluatorzy przeprowadzają wizytację celem dokonania bezpośredniej obserwacji programu działania oraz (czasami, ale z reguły podczas ewaluacji programów i projektów, a nie dyscyplin i instytucji) osobiście na krótko włączają się do badań w ramach „obserwacji uczestniczącej”. Rozmawiają z pracownikami na temat ich doświadczeń i poglądów. Zapisy tych wywiadów, obserwacji i dokumentów porządkują wg głównych tematów, kategorii i przykładów podczas analizy treści, a następnie przedstawiają w raporcie. Typowe ewaluacyjne sprawozdanie zawiera: • Szczegółowy opis pracy w ramach instytucji, dyscypliny lub programu, • Analizę głównych prac, • Opis uczestników i rodzajów ich udziału w pracach, • Opis zmian organizacyjnych (jeśli zaszły), produktów, efektów i wpływu, • Analizę mocnych i słabych stron instytucji, dyscypliny lub programu zgłoszonych przez respondentów (np. uczestników, pracowników, podmioty finansujące) lub ewaluatorów. Badania jakościowe są często wykorzystywane w celach ewaluacji, zwłaszcza polityk i programów, gdyż potrafią efektywniej i skuteczniej niż metod ilościowe odpowiedzieć na ważne pytania, takie np. jakie wyniki osiągnięto, jak i dlaczego, jakie mają one wartość i znaczenie, jakie pociągają za sobą zamierzone i niezamierzone skutki i jaki mają wpływ. Czy oczekiwania były racjonalne? Czy działania przebiegały zgodnie z oczekiwaniami? Czy wykonawcy byli w stanie realizować swoje zadania? Podejście jakościowe 295 ma tę przewagę nad ilościowym, że pozwala na większą różnorodność odpowiedzi, a także jest bardziej elastyczne, łatwiej daje się dostosować do nowych sytuacji i problemów w trakcie badania [Wikipedia]. • Wywiad polega na zadawaniu badanym przez ankietera mniej lub bardziej sformalizowanych pytań. W socjologii wyróżnić można kilka typów wywiadów, np. wywiad swobodny i wywiad kwestionariuszowy [Wikipedia]. • Zogniskowany wywiad grupowy (grupa fokusowa, dyskusja grupowa, popularnie fokus, ang. focus group interview) - metoda badawcza polegająca na prowadzonej przez moderatora dyskusji zaproszonych wcześniej respondentów, dobranych zgodnie z kryteriami wynikającymi z celów projektu. Grupa dyskusyjna liczy 6 - 8 osób, dawniej (do końca lat osiemdziesiątych) preferowano grupy większe, od 8 do 12 osób. Jedna sesja trwa zwykle około 2 godzin [Wikipedia]. Studium przypadku to szczegółowe badanie jednej osoby, grupy, instytucji, programu lub zdarzenia. Zamiast stosować ściśle określone reguły i badać ograniczoną liczbę zmiennych, jak w badaniach ilościowych, metoda ta polega na dogłębnym badaniu jednego przypadku. Dzięki zgromadzeniu danych, ich analizie i systematyczności spojrzenia badacz może uzyskać znacznie głębszy wgląd w badany przedmiot niż stosując inne metody [Wikipedia]. • • Badania ankietowe to najbardziej popularny sposób uzyskiwania informacji od specjalnie dobranej reprezentacji respondentów. Dla ustalenia badanej populacji respondentów stosuje się dobór losowy, gdy niewielka jest ich liczba i nieznana ich struktura, dobór losowy systematyczny, gdy dostępna jest lista całej populacji oraz dobór losowy warstwowy dla uzyskania bardziej dokładnych wyników charakteryzujących badanych [Wikipedia]. • Obserwacja uczestnicząca polega na wejściu badacza w określone środowisko społeczne i obserwowaniu danej zbiorowości od wewnątrz tj. jako jeden z jej członków, uczestniczący wraz z nią w codziennym życiu [Wikipedia]. Analiza treści służy w naukach społecznych do badania zawartości komunikacji. Najczęściej stosuje się ją dla analizy zarejestrowanych zapisów wywiadów. Metody analizy treści pozwalają badaczowi na dostęp do dużej ilości informacji tekstowych i systematyczne określanie jego właściwości, np. częstotliwości najczęściej używanych słów kluczowych. Jakościowe analizy treści mogą obejmować wszelkiego rodzaju analizy gdy treść komunikatu (mowy, tekstu pisanego, wywiadu, zdjęć...) jest uporządkowana wg kategorii i sklasyfikowana. • Dane jakościowe mogą być prezentowane samodzielnie lub w połączeniu z danymi ilościowymi. W ostatnich latach nastąpił wzrost kompetencji metodologicznych w zawodzie ewaluatora. Systematyczna i wnikliwa obserwacja to znacznie więcej niż obecność i prosta obserwacja. Umiejętne wywiady to znacznie więcej niż tylko bierne słuchanie. Tworzenie przydatnych i wiarygodnych danych poprzez obserwację, wywiady i analizy treści wymaga dyscypliny, wiedzy, szkoleń, praktyki i ciężkiej pracy [Patton 1992]. Wskaźniki dokonań. Wskaźniki dokonań (performance indicators) definiuje się jako takie miary (zazwyczaj ujęte w formie ilościowej) pewnej cechy działalności, które pozwalają na jej ocenę. Wskaźniki mogą mieć formę proporcji (np. stosunku liczby badaczy do 296 liczby ich publikacji w recenzowanych czasopismach), procentu osiągnięcia założonego celu, miejsca w rankingu itd. [Herbst 2007]. Podstawowy wymóg stawiany wskaźnikom to zrozumienie kontekstu, celów, wkładu, działań, wyników oraz zachodzących między powiązań (tzw. logika interwencji) [Georghiou 2001]. Wyróżnia się różne grupy wskaźników ewaluacji. Jedna z nich obejmuje wskaźniki widziane pod kątem złożoności (wskaźniki pojedyncze oraz wskaźniki proporcji). Inna zawiera w sobie wskaźniki dzielone wg elementu ewaluacji (wskaźniki wkładu, procesu, produktu, efektu i wpływu, do których dodaje się czasem wskaźnik kontekstu). Jeszcze inna grupa, obejmująca tylko wskaźniki proporcji, zróżnicowana jest wg pytań stawianych w ewaluacji (np. użyteczność, stosowność, skuteczność itd.). Wskaźniki grupuje się też wg szerszych kategorii, takich jak np. jakość, wpływ i efektywność badań. Można też zbudować zestaw, w którym znalazłyby się wskaźniki • • • • • • wartości absolutnych (np. liczby publikacji i cytowań), proporcji (liczby cytowań w stosunku do liczby pracowników), udziału (np. w krajowej puli publikacji z dane dziedziny), pozycji (np. w rankingu), procentu realizacji celu, sumaryczne i złożone (takie jak np. Impact Factor czasopism, Indeks Hirscha, wskaźniki złożone, tzw. composite indicators, oraz wskaźniki określane przez panele peer review oceniające np. wydziały, najczęściej w formie pozycji skali). Wg R. Barré i P. Papona [Barré 1993] wskaźniki N+T+I posiadają następujące parametry: a) przedmiot pomiaru: ludzie (np. badacze i inżynierowie, personel pomocniczy; gdy istnieje taka potrzeba - w podziale na stopnie i tytuły naukowe, wiek, płeć i specjalizację); zasoby finansowe (np. w rozbiciu wg źródeł finansowania i w podziale na wydatki wewnętrzne i zewnętrzne, bieżące i inwestycyjne); wiedza skodyfikowana (publikacje, patenty, kwalifikacje); wiedza ucieleśniona (urządzenia, komponenty lub dobra trwałego użytku o wkładzie myśli technicznej - nabyte lub sprzedane, importowane lub eksportowane); b) przestrzeń, wewnątrz której dokonuje się pomiaru: instytucja (laboratorium, przedsiębiorstwo, instytut państwowy, uniwersytet) lub terytorium (miasto, region kraju, kraj, region kontynentu); c) typ działalności, jaką mierzą (dyscyplina lub pole badawcze; dziedzina technologii; branża przemysłu; cel społeczno-gospodarczy; typ badań - badania podstawowe, badania stosowane, prace rozwojowe); d) skala pomiaru: mikro (instytucja naukowa, przedsiębiorstwo, uniwersytet), mezo (dyscyplina, pole badawcze, branża), lub makro (terytorium); e) typ pomiaru: parametr zasobu, który mierzy rozmiary (lub poziom) albo też parametr relacji (przepływu lub zależności pomiędzy dwoma jednostkami). Wskaźnik złożony powstaje wtedy, gdy poszczególne wskaźniki zestawia się w jeden indeks. Indeks powinien mierzyć pojęcia wielowymiarowe, które nie mogą być uchwycone przez jeden wskaźnik, takie jak np. konkurencyjność, uprzemysłowienie, zrównoważony rozwój, społeczeństwo oparte na wiedzy, itp. 297 Podsumowując, dwa najczęściej stosowane łącznie ze sobą podejścia w ewaluacji instytucji to panele ekspertów oraz wskaźniki i indeksy (wskaźniki złożone): Panel ekspercki Ewaluacja instytucji Wskaźniki i indeksy Łączenie podejść ilościowego i jakościowego. Choć ewaluacje sięgają po metody nauk społecznych, często ich samych nie uznaje się za badania naukowe (choć czasami określa się je jako gałąź stosowanych nauk społecznych). Niemniej wyróżnione podejścia ewaluacji instytucji – panel ekspercki i wskaźniki – wyraźnie i dość jednoznacznie mieszczą się w obszarach badań jakościowych i badań ilościowych w naukach społecznych, a łączenie ich nazywane jest multimetodologią bądź triangulacją. Różnice pomiędzy podejściem ilościowym i jakościowym, także widoczne w różnicach metod stosowanych przez panel ekspercki oraz twórców indeksów, można ująć następująco: Porównanie metod ilościowych i jakościowych w badaniach Ogólne ramy Ilościowe Jakościowe Próba testowania hipotez na temat zjawiska Próba zrozumienia zjawisk Rygorystyczny styl formułowania i kategoryzowania odpowiedzi na pytania Stosowanie systematycznych metod, takich jak kwestionariusze, ankiety i ustrukturyzowana obserwacja Cele analityczne Iteratywny styl formułowania i kategoryzowania odpowiedzi na pytania Stosowanie pół-ustrukturyzowanych metod, takich jak pogłębione wywiady, grupy fokusowe, obserwacja uczestnicząca Szacowanie zróżnicowań Opis zróżnicowań Przewidywanie powiązań przyczynowych Opis i wyjaśnianie powiązań Pomiar cechy społeczeństw Format pytań Bardziej elastyczne narzędzia Zamknięty Opis indywidualnych doświadczeń Opis norm grupowych Otwarty 298 Format danych Elastyczność w projektowaniu badania Numeryczny (uzyskany przez przypisanie wartości liczbowych do odpowiedzi) Tekstualny (uzyskany z nagrań, Badanie to stabilny projekt od początku do końca Niektóre aspekty badania są elastyczne (np. włączenie lub wyłączenie poszczególnych pytań do wywiadu) Uczestnik nie ma wpływu na określanie przedmiotu i sposobu zadawanych przez badaczy pytań Projekt badania statystycznego podlega rygorom metod statystycznych dokumentów, notatek terenowych) Odpowiedzi uczestnika mają wpływ na sposób i treść następnych pytań badaczy Projektu badań jest iteracyjny, czyli zbieranie danych i pytania badawcze są dostosowane do zdobywanej wiedzy Qualitative Research Methods Dylemat przedkładania ocen ilościowych (głównie wskaźników bibliometrycznych) oraz ocen jakościowych (sądów) rozstrzygany jest w taki sposób, że choć w poszczególnych krajach inaczej rozkłada się akcenty pomiędzy wskaźnikami ilościowymi i jakościowymi (np. te pierwsze odgrywają większą rolę w Wielkiej Brytanii, a mniejszą rolę we Francji, Niemczech i w Niderlandach, podczas gdy Australia łączy oba podejścia), oba typy ocen uznaje się za komplementarne. Uważa się, że kryteria ocen, jakiekolwiek by były, włącznie z głównym kryterium „jakości badań”, są zbyt złożone, aby mogły być ujęte wyłącznie z pomocą wskaźników ilościowych, chwytających jedynie pewne (mierzalne) aspekty badań. Z drugiej jednak strony, podkreśla się, że wysoka jakość badań, która nie przekłada się na wskaźniki ilościowe (jak np. wysoką liczbę cytowań), budzi poważne wątpliwości i wymaga wyjaśnień. Wskaźniki ilościowe służą zatem jako wsparcie i udokumentowanie ocen jakościowych i nie powinny mieć rozstrzygającego znaczenia. Jednoczesna krytyka obu podejść – ilościowego i jakościowego – skłania do szukania sposobów ich wzajemnego uzupełniania i kontroli. W odniesieniu do miar ilościowych, tematem debaty jest to, czy mierzyć ilość badań (liczba publikacji), czy ich jakość (np. wyłącznie publikacje recenzowane, liczbę cytowań, wartość czasopism mierzoną przez Impact Factor (IF) itd.). Każdy wskaźnik jakości badań ma swoje ograniczenia (np. problem auto-cytowań, istnienie kół wzajemnych cytowań itd.). Wartość wskaźników bibliometrycznych różni się w zależności od dyscyplin. Wskaźniki te nie nadają się do porównań międzydyscyplinowych, a w przypadku wąskich lub lokalnych pól badań są w ogóle nieprzydatne. Żadne wskaźniki statystyczne, bez względu na ich charakter, nie wyjaśniają, dlaczego dana instytucja uzyskała dany wynik – ma wysoki poziom lub jest słaba. Tu konieczne są osądy lub odrębne badania. Podobnie, same tylko i wyłącznie wskaźniki bibliometryczne nie powinny być podstawą decyzji co do poziomu finansowania lub dalszych losów (wzmocnienie lub likwidacja) placówek. Konieczne jest także uwzględnienie potrzeb kraju i priorytetów rządowych. 299 Wskaźniki bibliometryczne łudzą obiektywizmem i jako takie bywają przeciwstawiane peer review. Przeciwstawiając je ocenom jakościowym zapomina się, że same one mają charakter ujętych ilościowo i zagregowanych decyzji jakościowych – czy cytować daną publikację, czy jej nie cytować. Cytuje się z rozmaitych przyczyn, a badania nad przyczynami cytowania, choć zaowocowały wieloma publikacjami, nie przyniosły jednoznacznych konkluzji. Bibliometrię, w ogóle, uznaje się bardzo „miękką” dyscyplinę. Zdarza się, że wyjątkowo wysoko cytowana publikacja jednego z badaczy podciąga ogólną ocenę instytucji ponad jej rzeczywistą wartość – choć np. badacz był tylko jednym z wielu jej współautorów, a ponadto aktualnie nie pracuje w instytucie, którego nazwę podał. Stosowanie wskaźnika IF w ocenie instytucji jest łatwe, ale przeocza fakt dysproporcjonalnego rozkładu cytowań prac umieszczonych w danym czasopiśmie. To nie tyle czasopisma „podciągają” liczbę cytowań publikacji, co suma cytowań publikacji decyduje o IF. Wartość wskaźnika IF dla pozycji czasopism, autorów oraz instytutów powoduje, że bywa poddawany manipulacji (np. czasopisma nalegają na cytowanie zamieszczanych w nim prac). Trzeba jednak podkreślić, że w przeciwieństwie do peer review, sumaryczne wskaźniki cytowań są oparte na decyzjach środowiska naukowego, a nie decyzjach wąskiej grupy recenzentów i panelistów. Pomimo czynnika „mody” lub istnienia „kół wzajemnych cytowań”, liczba cytowań jest w większym stopniu efektem niezależnych wyborów wielu badaczy niż decyzji nielicznych uczonych, działających nieraz pod wpływem „myślenia grupowego” [OECD 2009]. Stosowanie wskaźników bibliometrycznych różni się w zależności od kraju. I tak, w Stanach Zjednoczonych, mają one małe znaczenie, pomimo uznania dla miar dokonań jako środka obiektywizacji decyzji budżetowych. Natomiast w Finlandii i w Polsce Impact Factor czasopism „został niemal kanonizowany jako podstawa ocen” [Weingart 2005]. Krytyka w stosunku do wskaźników ilościowych zbiega się z krytyką wobec ocen jakościowych (sądów), uważanych za subiektywne i uznaniowe. Uznaje się, że w peer review łatwiej o zgodę, czego nie finansować, niż o konsensus co do tego, co powinno zostać sfinansowane. Czasami podkreśla się, że choć peer review może i jest najlepszym sposobem oceny propozycji badawczych, kandydatur na stanowiska lub publikacji, ale niekoniecznie dobrze sprawdza się na wyższych poziomach agregacji. A wskaźniki bibliometryczne odwrotnie, w zasadzie nie powinny być stosowane do oceny jednostek, ale są bardziej wiarygodne do oceny wydziałów, dyscyplin lub krajów. Za remedium na wady każdej z dwóch metod uznaje się tę przeciwną; zaleca się doskonalenie metod ilościowych i jakościowych ewaluacji, ostrożność w ich stosowaniu, uczenie się na doświadczeniach oraz ewaluacje ewaluacji. W odniesieniu do metod ilościowych podkreśla się zatem, że nigdy nie powinno się polegać na jednym wskaźniku, analizę danych powinni przeprowadzać biegli eksperci bibliometrii; w stosunku do metod 300 ilościowych – zwraca się uwagę na potrzebę wzmacniania opinii przez „twarde dane”, a wobec całej ewaluacji – zaleca się łączenie obu podejść [OECD 2009]. Nieraz przywołuje się badania, które stwierdzają dość silną korelację różnych miar – np. liczby publikacji i liczby cytowań, a także wskaźników bibliometrycznych oraz ocen jakościowych [Andras 2007; Moed 2007]. Bibliografia A. Andras, and B. Charlton, Evaluating universities using simple scientometric research output metrics: Total citation counts per university for a retrospective seven-year rolling sample, “Science and Public Policy:, Vol. 34 (8): 2007, s. 555-563. Badania ankietowe, Wikipedia. Case studies, Wikipedia. Content analysis, Wikipedia. Evaluation of research. A selection of current practices, Paris OECD 1987. H.F. Moed, The future of research evaluation rests with an intelligent combination of advanced metrics and transparent peer review, “Science and Public Policy”, Vol. 34 (8): 2007, s. 575-583. Liv Langfeldt, Decision-making in expert panels evaluating research. Constraints, processes and bias, NIFU Oslo 2002. , Luke Georghiou, Evaluation in the Balance: Matching Methods and Policy Needs, PREST 2001. Marcel Herbst, Financing public universities: the case of performance funding, Dordrecht, Springer, 2007, s. 66. Michael Q Patton, How to use qualitative methods in evaluation, Newbury Park, Calif., Sage 1992, ss. 7-8. Obserwacja (metoda badawcza) , Wkipedia Performance-based models for publicly funded research in tertiary education institutions 2009, OECD. Performance-based models for publicly funded research in tertiary education institutions 2009, OECD DSTI/STP/RIHR(2009)7. Performance-based models for publicly funded research in tertiary education institutions 2009. Peter Weingart, Impact of bibliometrics upon the science system: inadvertent consequences?, “Scientometrics” vol. 62, no. 1, January 2005. Qualitative Research, Wikipedia. R. Barré, P. Papon, Indicators: Purpose and Limitations w: World Science Report 1993, UNESCO, Paris 1993, s. 136. Wywiady, Wikipedia. Zogniskowany wywiad grupowy, Wikipedia. PYTANIA I KRYTERIA W EWALUACJI INSTYTUCJONALNEJ Por. też >EWALUACJA INSTYTUCJI PUBLICZNEGO SEKTORA NAUKI OPARTA NA POMIARZE DOKONAŃ; >ORGANIZACJA EWALUACJI INSTYTUCJONALNEJ; >FAZY EWALUACJI INSTYTUCJONALNEJ; >METODY STOSOWANE W EWALUACJI INSTYTUCJONALNEJ. Zazwyczaj pytania i kryteria oceny stosowane w ewaluacji (zarówno w panelu eksperckim, jak i w indeksach) krążą wokół zasadniczych pojęć ewaluacji (potrzeby, celu, przebiegu, produktu, efektu, i wpływu) oraz relacji pomiędzy nimi. Dla ich opisu używa się 301 często (za Alvinem Weinbergiem) podziału na kryteria wewnętrzne i zewnętrzne, przy czym wśród tych ostatnich rozróżnia się jeszcze wpływ ocenianych badań na całą naukę (a nie tylko na określone pole badań), na gospodarkę oraz na społeczeństwo. Do tych pytań dodaje się jeszcze pytanie o jakość i potencjał środowiska instytucjonalnego, w jakim przeprowadzono badania: Wewnętrzne Kryteria oceny Zewnętrzne Środowisko instytucjonalne Wpływ na gospodarkę i społeczeństwo Wpływ na całą naukę Kryteria wewnętrzne odpowiadają na pytania: czy pole badawcze/instytucja jest dojrzałe/dojrzała? czy naukowcy są kompetentni? Jaka jest skala i znaczenie nowości i oryginalności pytań badawczych, ustaleń, odkryć, teorii, podejść, metod, danych, tematów i obszarów? Jakie postawiono najważniejsze pytania badawcze i jakie uzyskano najważniejsze wyniki? Jaka jest wartość i poprawność stosowanych metod? Czy istnieje równowaga i wzajemne zasilanie pomiędzy różnymi metodami (np. obserwacją, obliczeniami i teorią w astronomii)? Kryteria zewnętrzne pochodzą spoza poddawanego ocenie pola badań, instytucji lub programu. Mają one ocenić użyteczność ocenianych badań. Kryteria zewnętrzne: znaczenie gospodarcze i społeczne. Czy technologia (w najszerszym rozumieniu tego słowa, rozumiana jako oparty na badaniach naukowych zbiór instrukcji działania) jest dojrzała do eksploatacji, czy to rynkowej, czy też publicznej? Czy cele społeczne, którym ma służyć, są same w sobie wartościowe? Czy istnieją możliwości jej komercjalizacji lub nierynkowego upowszechnienia? Czy instytucja, która ją rozwija, posiada (udokumentowane) kompetencje w dziedzinie transferu technologii? Czy badania mogą mieć zastosowanie w inicjatywach służących rozwojowi gospodarczemu i społecznemu lub pomnażaniu wartości cenionych przez społeczeństwo. Czy instytucja prowadząca badania ma dokonania na polu upowszechniania wiedzy wśród praktyków i ogółu społeczeństwa? Kryteria zewnętrzne: znaczenie dla nauki. Oba wymienione wyżej kryteria zewnętrzne znaczenia gospodarczego oraz społecznego - pochodzą spoza nauki; odnoszą się one do nauk stosowanych, oraz do tych badań podstawowych, które są zorientowane (przynajmniej ogólnie) na pewien cel technologiczny lub społeczny. U ich podstaw leży praktyczna użyteczność. W przeciwieństwie do nich, trzecie kryterium pochodzi z wewnątrz nauki, ale na zewnątrz ocenianego pola badawczego; kryterium to stosuje się wyłącznie do nauk podstawowych. Miarą wartości naukowej pracy badawczej w naukach podstawowych winien być zakres, w jakim wpływa ona na sąsiednie dyscypliny naukowe [Weinberg 1962]. Oryginalność zreferowanych tu propozycji Alvina Weinberga (nie zawsze w stosowanych przez niego kategoriach) leży nie tylko w podkreślaniu wagi kryteriów zewnętrznych, ale przede wszystkim w postulacie oceny znaczenia badań dla całej nauki. Od chwili wysunięcia propozycji była ona wielokrotnie stosowana, np. w Stanach Zjednoczonych (w kryteriach oceny propozycji 302 projektów badawczych) oraz w Wielkiej Brytanii (np. w decyzji o wycofaniu dotacji dla radiobiologii w latach 1980. Zdaniem brytyjskich decydentów radiobiologia brytyjska była wprawdzie rozwijana na światowym poziomie, ale nie stała się siłą pociągową innych dyscyplin). Do kryteriów Weinberga dodaje się jeszcze jedno – wartość środowiska instytucjonalnego. Obejmuje ono m.in. badaczy – np. ich motywacje, ambicje, kompetencje; strukturę organizacji (np. łatwość tworzenia powoływania nowych zespołów zadaniowych); misję i strategię (np. zapis misji oraz plan strategiczny; umiejętność chwytania nowych możliwości oferowanych przez otoczenie, naukowe, rynkowe i społeczne); przywództwo i zarządzanie (zasady wewnętrznego podziału środków; przebieg karier; struktura wieku pracowników; zakres umiędzynarodowienia badań; mobilność – instytucjonalna i geograficzna – personelu; umiejętność zamykania projektów, które nie są płodne), wyposażenie (np. nowoczesność i stopień wykorzystania aparatury), a także kształcenie (badaczy, studentów, doktorantów, obywateli) [Evaluation 2009]. O ile poprzednie kryteria miały charakter retrospektywny i dotyczyły przeszłych dokonań ocenianych, o tyle kryterium wartości środowiska instytucjonalnego ma w znacznej mierze charakter prospektywny, jest traktowane jako podstawa oceny potencjału i możliwości ocenianych. Operacjonalizacja kryteriów: wymiary, wskaźniki i oceny skalowane, wagi, kategorie instytucji, zróżnicowania dyscyplinowe. Spośród wielkiej liczby zagadnień związanych z projektowaniem, wdrażaniem, realizacją i oceną ewaluacji, zwróćmy uwagę na pięć naszym zdaniem podstawowych kwestii: • Jakie ustala się szersze kategorie (wymiary), w ramach których grupuje się wskaźniki ilościowe oraz oceny jakościowe ujęte w skali, • Jakie dobiera się wskaźniki oraz oceny jakościowe ujęte w skali, • Jakie przypisuje się wagi poszczególnym wskaźnikom oraz ocenom jakościowym ujętym w skali, • Jaki dopuszcza się stopień i formy różnicowania kryteriów wg dyscyplin, • Jakie przyjmuje się skale ocen końcowych („kategorie”). W Wielkiej Brytanii planuje się, aby od roku 2013 każda jednostka była oceniana na podstawie takich czynników, jak: • • • Produkty badań, Wpływ (na gospodarkę, środowisko, politykę publiczną, kulturę i jakość życia), Środowisko (w jaki sposób środowisko badawcze wspiera stały tworzenie doskonałych badań oraz ich skuteczne upowszechnianie i zastosowania). Produkty każdej jednostki analizy mają być oceniane na podstawie • • • wskaźników bibliometrycznych lub oceny eksperckiej lub połączenia obu innych wskaźników ilościowych dodatkowych informacji jakościowych. Gdy idzie o produkty, uczelnie dokonują selekcji publikacji, które przedkładają do oceny. Publikacje te ma się oceniać pod względem oryginalności, rygoru metodologicznego oraz znaczenia. Punktem odniesienia będzie poziom światowy. Panele ewaluacyjne mają się posiłkować wskaźnikami cytowań tam, gdzie uzna się to za uzasadnione. Oczekuje się, że wskaźniki cytowań będą brane pod uwagę np. w naukach medycznych, przyrodniczych i 303 inżynieryjnych, ale nie np. w humanistyce i sztukach. Planuje się opracowanie ścisłych wytycznych co do sposobu wykorzystania wskaźników bibliometrycznych dla uniknięcia nieporozumień. W odniesieniu do pomiaru wpływu, uwzględniane będzie oddziaływanie • • • • • • • gospodarcze społeczne kulturalne na zdrowie na środowisko na politykę i usługi publiczne na jakość życia. Wpływ należy badać w odniesieniu do każdej „jednostki oceny”, a nie poszczególnych badaczy. Podstawą oceny będzie: samo-ocena, studia przypadku, opinia użytkowników badań. Kryterium oceny – zasięg i znaczenie (skala oddziaływania). W stosunku do oceny środowiska badawczego, wzięte zostaną pod uwagę • • • Zasoby (personel, przychody, infrastruktura i urządzenia) Zarządzanie (strategia – planowanie strategiczne, kształcenie personelu, szkolenie badaczy – po licencjacie) Zaangażowanie (imprezy i inicjatywy publiczne, wsparcie dla badań interdyscyplinarnych i opartych na współpracy). Podstawą oceny będą świadectwa – głównie jakościowe, wsparte przez kluczowe wskaźniki dotyczące przychodów oraz studentów badawczych (postgraduates). Ostateczna ogólna ocena jednostki (jej „profil”) ma być podsumowaniem tych trzech ocen, w następujących proporcjach: Ogólna ocena Produkty Wpływ Środowisko 60% 25% 15% The Research Excellence Framework 2009 Ocena jednostki zostanie ujęta w skali pięciostopniowej: • • • • • **** (wyjątkowo wybitne) *** (wybitne) ** (bardzo dobre) * (dobre) Nieklasyfikowane. Podstawą paneli eksperckich będą „jednostki oceny” (poddyscypliny) w ramach poszczególnych uczelni (units of assessments). Ma ich być 30, zgrupowanych w cztery główne panele (nauki o życiu i medyczne; nauki fizyczne; nauki społeczne; sztuka i humanistyka) [The Research Excellence Framework 2009]. 304 Główne kryteria oceny jednostek uczelnianych w Holandii wg Standardowego Protokółu 2009-2015 to: • • • • Jakość o o o o Jakość i naukowa relewantność badań, Jakość przywództwa instytutu, jego strategii naukowej i zarządzania badaniami; Prestiż akademicki badaczy, Czynniki organizacyjne instytucji i programów badawczych, takie jak zasoby ludzkie i finansowe, o Szkolenie doktorantów w ramach instytucji i programów. Produktywność (ocena jakości produktów w odniesieniu do misji instytucji i rozporządzanych zasobów) Społeczna relewantność – ocena społecznej użyteczności badań (m.in. sposobu, w jaki grupy badawcze współdziałają z interesariuszami), społeczny wpływ badań (np. badania prowadzące do nowych praw i regulacji), oraz komercjalizacja badań (np. zastosowania badań do nowych produktów i procesów). Ocena potencjału i możliwości jego realizacji – jakość zarządzania oceniana w kategoriach strategii i umiejętności adaptacji do zmian otoczenia (nowe tematy badawcze, polityka kadrowa itd.) [Standard 2009]. Te cztery główne kryteria zostały rozwinięte w kryteria niższego rządu, wraz z określeniem aspektów, które powinny być brane pod uwagę przez ewaluatorów: KRYTERIA Jakość PODKRYTERIA A1. Jakość i naukowa i relewantność badań A2. Przywództwo A3. Prestiż akademicki A4. Zasoby A5 Szkolenie doktorantów Produktywność B1. Strategia produktywności B2. Produktywność Relewantność C Relewantność społeczna D1. Strategia Żywotność i wykonalność ASPEKTY Oryginalność koncepcji i podejścia badawczego, w tym aspektów technicznych; znaczenie wkładu do dyscypliny; spójność programu, jakość publikacji naukowych; jakość inne produktów; znaczenie naukowe i technologiczne Przywództwo najważniejszych jednostek; misja i cele; strategia i polityka Pozycja w kraju i na świecie; uznanie dla programu dyrektora i innych pracowników naukowych; wpływ i znaczenie wyników badań naukowych w dziedzinie Zasoby ludzkie; polityka finansowa i zdolność do pozyskiwania środków; odpowiedniość urządzeń badawczych Zadania i „instytucjonalne osadzenie (institutional embeding); struktura programów; nadzór; stopa sukcesu; zasoby edukacyjne Cele podniesienia produktywności; strategia publikacji; nagrody i sankcje Scientific publications and PhD-theses; Professional publications; Output for wider audiences; Use of research facilities by third parties Społeczna użyteczność i wpływ badań; komercjalizacja Planowanie strategiczne, inwestycje i współpraca, tematy badań zaplanowanych w najbliższej przyszłości i ich perspektywy, elastyczność oraz zdolność przewidywania spodziewanych 305 D2. Analiza SWOT D3. Niezawodność i stabilność zmian. Analizę sytuacji instytutu i programów, analiza mocnych i słabych stron Urządzenia badawcze, środki finansowe; konkurencja wśród pracowników; Mobilność i atrakcyjność instytucji; specjalizacja wewnątrz placówki Standard 2009 Z kolei zapisane tu skrótowo aspekty zostały szczegółowo rozpisane w kwestionariuszu, który otrzymują członkowie panelu, wraz ze skalą ocen (poniżej kwestionariusz do Standard Evaluation Protocol 2003-2009): Instytut 1 2 3 4 5 Jak ocenia Pani/Pan Instytut w odniesieniu do: 1.1 Przywództwa 1.2 Misji i celów 1.3 Strategii i polityki 1.4 Adekwatności środków 1.5 Wewnętrznej polityki alokacji funduszy 1.6 Urządzeń 1.7 Akademickiej reputacji 1.8 Społecznej relewantności instytutu 1.9 Bilans mocnych i słabych stron Ogólna ocena instytutu Uwagi i pytania Program badań Jak ocenia Pani/Pan program w odniesieniu do: 1.1 przywództwa 1.2 misji i celów 1.3 strategii i polityki 1.4 adekwatności środków 1.5 wewnętrznej polityki alokacji funduszy 1.6 aparatury badawczej 1.7 akademickiej reputacji 1.8 społecznej relewantności instytutu 1.9 Bilans mocnych i słabych stron Ogólna ocena programu Jakość Jak ocenia Pani/Pan jakość badań w odniesieniu do: 1. oryginalności podejścia i pomysłów 2. znaczenia wkładu badań do pola badawczego 3. spójności programu 4. strategii publikacji 5. wybitności dyrektora programu 306 6. znaczenia pozostałych członków grupy badawczej 7. jakości publikacji naukowych (naukowo wpływu) 8. jakości innych wyników Ogólna ocena jakości Produktywność Jak ocenia Pani/Pan produktywność badań w odniesieniu do: 1. liczby dysertacji doktorskich 2. liczby publikacji naukowych 3. liczby zawodowych publikacji 4. innych wyników (jeśli dotyczy) 5. dystrybucji dorobku publikacyjnego w ramach grupy Ogólna ocena wydajności Relewantność Biorąc pod uwagę określone zadania tego programu, jak ocenia Pani/Pan relewantność badań w odniesieniu do: 1. pogłębiania wiedzy 2. upowszechniania wiedzy 3. wdrażania wiedzy Ogólna ocena znaczenia Potencjał oraz możliwości jego realizacji Biorąc pod uwagę stan obecny i przyszły rozwój (jeśli jest znany) personelu i wyposażenia, jak ocenia Pan długoterminowe szanse programu: 1. w związku z dotychczasowymi wynikami naukowymi 2. w świetle przyszłych planów i pomysłów 3. ze względu na wiek i mobilność pracowników Ogólna ocena potencjału oraz możliwości jego realizacji Standard 2009 Instytucje oceniane są w pięciostopniowej skali: doskonały; bardzo dobry; dobry; satysfakcjonujący; niesatysfakcjonujący. W Nowej Zelandii zaproponowano model oceny, który uwzględnia trzy podstawowe wymiary, takie jak jakość, wpływ i potencjał badawczy [Measures 2005]. Jakość. Wszelkie oceny jakości badań powinny pochodzić z peer review wzmocnionego o informacje o kluczowych wskaźnikach. Wskaźniki powinny być w dużym stopniu porównywalne między nauką i nie-nauką (sztuką) oraz pomiędzy różnymi dyscyplinami badań. Jakość powinna być mierzona przez wpływ badań na inne badania w takich czterech kategoriach jak: • Tworzenie – odkrycia, wynalazki, ustalenia itd. • Manifestacje – publikacje, wystawy, przedstawienia • Akceptacja – cytowania, członkostwo towarzystw i akademii itd. 307 • Reputacja – bilans badawczy, ważne granty, konsultacje, dotacje, itd. Wpływ. Kluczowe wskaźniki wpływu badań na same badania oraz na otoczenie zewnętrzne powinny być różnorodne i specyficzne dla danej dyscypliny. Muszą one być oceniane przez zespół ekspertów powołanych ze świata akademickiego oraz z grona użytkowników korzystających z badań finansowanych ze środków publicznych. Wpływ – mierzony przez siłę oddziaływania na otoczenie (polityczne, społeczne, gospodarcze, artystyczne), zgodnie z naturą danej dyscypliny w takich czterech kategoriach jak: • Dyfuzja poprzez kształcenie, popularyzację, komunikację, media • Komercjalizacja • Współpraca badawcza i partnerstwo • Zaangażowanie – inne formy Potencjał badawczy. Potencjał badawczy powinien odzwierciedlać zdolność jednostki badawczej do przyczynienia się w przyszłości do realizacji celów badań oraz kształcenia kadr badawczych, to jest, zapewnić żywotność i różnorodność badań w najbliższych latach. Potencjał powinien być oceniony przez panel ekspertów i osób korzystających z badań. Potencjał powinien być mierzony przez zdolność do przyczynienia się w przyszłości do realizacji celów badań oraz kształcenia kadr badawczych w takich czterech kategoriach jak: • Infrastruktura badawcza • Kultura badawcza – masa krytyczna naukowców i studentów • Kształcenie badawcze – studentów i naukowców • Strategia badawcza – planowanie strategiczne, sposób zarządzania projektami i instytucją Nie zawsze da się jednoznacznie odróżnić te trzy kategorie. Każdej z kategorii przyznaje się wagi, różne w zależności od dyscypliny: Jakość – 40-70% Wpływ – 20-50% Potencjał – 10-30% Z chwilą osiągnięcia minimum (40% dla jakości, 20% dla wpływu oraz 10% dla potencjału) jednostka powinna sama określić, wg jakich zasad chciałaby być oceniana w pozostałych 30%. Dla każdej z kategorii powinno się stosować inną jednostkę oceny: dla jakości – dyscyplinę; dla wpływu – projekt badawczy, dla potencjału – instytucję. Proponowane w Nowej Zelandii zróżnicowanie jednostek oceny mogłoby stać się źródłem problemów, gdyby ewaluacja miała służyć określeniu poziomu finansowania instytutów. Na ogół uznaje się, że to zespoły badawcze (a nie poszczególnie badacze lub wydziały) powinny być główną jednostką oceny, gdyż to właśnie zespoły badawcze – a nie poszczególnie badacze, dyscypliny lub wydziały – prowadzą najczęściej badania. W praktyce jednak jednostką oceny są jednak wydziały (lub inne jednostki uniwersyteckie, ta308 kie jak kolegia czy fakultety). W Wielkiej Brytanii proponuje się, aby jednostką tą były obszary badawcze wewnątrz poszczególnych uczelni [Hicks 2009]. Podsumowując, w Wielkiej Brytanii, Holandii oraz w Nowej Zelandii metody ewaluacji instytucjonalnej ujmuje się w szerszych kategoriach (wymiarach): Wielka Brytania Holandia Nowa Zelandia Produkty Jakość Jakość Wpływ Produktywność Wpływ Środowisko Społeczna relewantność Potencjał badawczy Żywotność i wykonalność Ocena przeprowadzona w ramach każdego wymiaru opiera się na właściwych dla niego metodach: Wskaźniki Wymiar Metoda oceny Peer review Peer review uzupełnione o analizę wskaźników Peer review może mieć charakter akademicki, z udziałem badaczy, bądź też łączony, z nachyleniem w stronę oceny wpływu, z udziałem przedstawicieli użytkowników. W Danii Rada Polityki Naukowej opracowała model oceny badań w sześciu wymiarach: 1) publikacji (liczba recenzowanych publikacji podzielona przez liczbę personelu mierzonego w ekwiwalentach pełnego czasu pracy w ciągu roku), 2) cytowań (w porównaniach międzynarodowych oraz z uwzględnieniem specyfiki dyscypliny), 3) zewnętrznych grantów lub kontraktów (przyznawanych na zasadach konkursowych na podstawie oceny jakości), 4) sformalizowanej międzynarodowej współpracy badawczej (wliczając w nią wspólne publikacje oraz granty badawcze), 5) relewantności w stosunku do potrzeb biznesu (mierzona przez współpracę, patenty, osiągnięcia komercyjne, takie jak np. firmy odpryskowe), 6) relewantności w stosunku do społeczeństwa (wliczając w nią wkład do edukacji, doradztwa, ekspertyz dla rządu itd.). Rada zaleciła stosowanie tego modelu do oceny badań na różnych poziomach, od badacza po instytucję, zarówno jako podstawę samo-ewaluacji, jak i ewaluacji zewnętrznych. Wyniki przedstawia się w formie diagramu pająka [Hansen 2009]. Podsumowując, przytoczone przykłady wskazują m.in. na 309 • uwzględnianie w ewaluacjach grup wskaźników mierzących zarówno produkty badań (pod względem ich ilości i jakości), jak i oddziaływanie badań oraz potencjał badawczy instytucji, • przyznawanie priorytetu jakości (połączone z poszukiwaniem miar wpływu), • uwzględnianie zróżnicowań dyscyplinowych. Bibliografia Alvin Weinberg: Criteria for Scientific Choice, "Minerva" 1:1963, z. 2. Evaluation of Swedish Research in Philosophy, 2009 The Research Excellence Framework: A brief guide to the proposals, October 2009, The Research Excellence Framework: A brief guide to the proposals, October 2009, HEFCE Circular Letters 27 May 2008 http://www.hefce.ac.uk/pubs/CircLets/2008/ Standard Evaluation Protocol (SEP) 2009-2015. Protocol For Research Assessment In The Netherlands, VSNU, KNAW and NWO 2009 A Comparative Review of Research Assessment Regimes in Five Countries and the Role of Libraries in the Research Assessment Process, A Pilot Study Commissioned by OCLC Research. Prepared by Key Perspectives Ltd Truro, UK, 2009. Measures of quality and impact of publicly funded research in the humanities, arts and social sciences, 2005. Diana Hicks, Overview of Models of Performance-Based Research Funding Systems, DSTI/STP/RIHR(2010)3 Hanne Foss Hansen, Research Evaluation: Methods, Practice and Experience, Danish Agency for Science, Technology and Innovation, 2009, s. 27-28. PROBLEM BEZSTRONNOŚCI EWALUATORA Bezstronny ewaluator zawiesza osobiste preferencje badawcze i zobowiązania oraz uznaje „kryteria” i „dowody” za jedyne legalne podstawy oceny, wstrzymując się z opinią do czasu uzyskania wszystkich koniecznych danych. Tak nakazują zasady. Rzeczywistość jest bardziej złożona i to nie tylko z powodu świadomego łamania zasad. Pod wieloma względami ewaluacja badań, zwłaszcza podstawowych zorientowanych poznawczo, jest trudniejsza niż ocena innych działań ze względu na wielki stopień niepewności i ryzyka, jakie się wiążą z badaniami. Oczekiwana od badacza oryginalność utrudnia sformułowanie zasad oceny badań prowadzonych „na granicach poznania” [Georghiou 2003]. Możliwość porażki wpisana jest w każdą bardziej odważną i ryzykowną działalność nie tylko badawczą, ale także innowacyjną. Życie jest prostsze dla ewaluatora, gdy przedmiotem jego zainteresowania jest prosty program, ściśle określony w czasie i z jasno zarysowanymi celami. Pojęcie bezstronności badacza znalazło się od końca lat 1960. pod obstrzałem krytyki badań nad nauką, w szczególności socjologii nauki. Kwestionowanie możliwości obiektywizmu przeszło z badań nad nauką do badań nad ewaluacją nauki. 310 Najczęściej spotykane ograniczenia w pracy paneli to m.in. fakt, że większość ewaluatorów ma przyjaciół i kolegów wśród ocenianych, rozbieżne interesy konkurencyjnych szkół badawczych oraz zbytnie zróżnicowanie podejść metodologicznych i zainteresowań oceniających [Langfeldt 2002]. Kryteria wewnątrz-naukowe, takie jak oryginalność, poprawność i głębia badań naukowych, są trudne do zastosowania. Ocena powinna opierać się na obiektywnych dowodach, a tymczasem ocenę opartą na tych kluczowych kryteriach uważa się często za subiektywną. Czy istnieją neutralne kryteria dobrych badań? „Pytanie ma kluczowe znaczenie. Jeśli nie ma niczego uchwytnego co stanowi o dobrych badaniach, wtedy wszystko jest jednakowo ważne i nie ma sensu mówić o neutralnych kryteriach. Jest jednak oczywiste, że nie wszystko jest jednakowo ważne w badaniach – badania ocenia się i niektóre z nich są chwalone, a inne odrzucane. Można więc powiedzieć, że istnieje pojęcie dobrych badań. Powstaje jednak pytanie, jak powstaje pojęcie dobrych badań – jaki status ma to pojęcie? To pytanie nie ma rozstrzygających odpowiedzi [Langfeldt 2002].” Badania nad peer review dowiodły braku wyraźnie wyartykułowanych zasad oceny, zależności peer review od wiedzy pozasłownej, istnienia nieformalnych hierarchii, uzależnienia od opinii innych, niskiego poziomu porozumienia pomiędzy ewaluatorami, faktu, że oceniający stosują różne kryteria lub inaczej interpretują te same kryteria – co wszystkie prowadzi do rozbieżnych ocen. To, co stanowi dobre badania, oraz czy są można zidentyfikować obiektywne kryteria dobrego badań zależy od podejścia – idealizmu, realizmu i pragmatyzmu: Realizm: istnieją niezależne normy w odniesieniu do badań naukowych. Optymistyczny realizm: Normy te są oczywiste dla właściwych ekspertów. Pesymistycznego realizm: Normy te nie są oczywiste dla oceniających. Panel może łatwo sformułować błędne sądy. Idealizm: Normy są kulturowo i społecznie uwarunkowane, tj. jakość badań jest określana w trakcie procesu oceny. Optymistyczny idealizm: Proces ewaluacji określa dokładnie i bezstronnie, a zatem definitywnie jakość badań. Pesymistyczne idealizm: proces ewaluacji jest pod silnym wpływem czynników nie-merytorycznych, a zatem jakość badań jest określana w sposób częściowy i często nie definitywny. Pragmatyzm: pojęcie "jakości badań" nie ma jednego ogólnego znaczenia: różne dobre projekty badawcze nie mają ze sobą nic wspólnego oprócz tego, że są określane jako dobre (nominalizm). Głównym celem ewaluacji badań jest osiągnięcie konkluzji. Aby je osiągnąć, niezbędne są zasady podejmowania decyzji prowadzące do konsensusu [Langfeldt 2002]. Jak dobór ekspertów do paneli wpływa na efekty ich pracy? (1) interakcje usprawniają pracę (wymiana pomysłów i punktów widzenia prowadzi do wartościowej oceny), (2) członkowie grupy pobudzają się wzajemnie, dzięki czemu wkładają w zadanie więcej wysiłku niż gdyby pracowali oddzielnie (3) powstaje sytuacja wzajemnego przerzucania odpowiedzialności, (4) zachodzi efekt myślenia grupowego i utraty krytycyzmu. Panele ekspertów mogą być forum współpracy, negocjacji lub zaciekłych targów. Członkowie panelu mogą być otwarci lub zamknięci na opinie innych. Nieraz panele dochodzą do 311 punktu, gdzie nie ma miejsca na zmianę opinii, a wnioski nie zostały jeszcze ustalone. Członkowie komisji mogą mieć swoje interesy i lojalności – do zleceniodawcy, do cenionych przez siebie badaczy lub do innych ewaluatorów [Langfeldt 2002]. Zleceniodawca może postrzegać swoją rolę jako „neutralnego” organizatora, starając się nie wpływać na wynik ewaluacji. Zleceniodawca może nie zdawać sobie sprawy ze skutków mianowania profesora X, Y i Z na dokonywanie ocen instytutu lub ze skutków mianowania profesora Y jako przewodniczącego zespołu oraz pani W jak sekretarza. Takie skutki rzeczywiście mogą być trudne do przewidzenia. Zleceniodawca może być zatem w swoim przekonaniu „neutralny”, choć jednocześnie mieć – poprzez zaniechanie – decydujący wpływ na wynik. Z drugiej strony, zleceniodawca może chcieć zapewnić określony wyniku ewaluacji. Jest to możliwe, gdy wie dostatecznie dużo o badaniach podlegających ocenie, o standardach, kryteriach oceny oraz możliwych punktach widzenia powołanych przez siebie ewaluatorów. Wówczas zleceniodawca może przewidzieć, jak będzie działać panel i jakie zostaną podjęte decyzje. Sam proces oceny będzie wówczas tylko symboliczny. Zleceniodawca może także definiować swoją rolę jako gwaranta jakości przebiegu ewaluacji. Może ją osiągnąć m.in. powołując do panelu najlepszych ekspertów, oraz zapewniając różnorodność punktów widzenia [Langfeldt 2002]. Por. też >EWALUACJA INSTYTUCJI PUBLICZNEGO SEKTORA NAUKI OPARTA NA POMIARZE DOKONAŃ; >ORGANIZACJA EWALUACJI INSTYTUCJONALNEJ; >FAZY EWALUACJI INSTYTUCJONALNEJ; >METODY STOSOWANE W EWALUACJI INSTYTUCJONALNEJ; >PYTANIA I KRYTERIA W EWALUACJI INSTYTUCJONALNEJ. Bibliografia Luke Georghiou, Evaluation of research and innovation policy in Europe – new policies, new frameworks? w: Learning from Science and Technology Policy Evaluation, ed. by Philip Shapira, Stephan Kuhlmann, Edward Elgar, 2003, ss. 65. Liv Langfeldt, Decision-making in expert panels evaluating research. Constraints, processes and bias, NIFU Oslo 2002. 312 KONCEPCJE DLA POLITYKI NAUKOWEJ BAZA NAUKOWA [Science base] Przez pojęcie to rozumie się wszystkie elementy które umożliwiają przeprowadzanie wszelkiego rodzaju badań w sektorze badań publicznych (sprzęt, infrastruktura, personel). Instrumenty wzmocnienia bazy nauki są jedną z najważniejszych grup instrumentów polityki naukowej. Najważniejsze dylematy formułowania tych instrumentów to m.in. zapewnienie właściwej równowagi pomiędzy finansowaniem instytucjonalnym a projektowym; finansowaniem ludzi i infrastruktury; finansowaniem ograniczonej liczby centrów doskonałości a finansowaniem opartym (w większym stopniu) na zasadach równości. Bibliografia OECD 2001, Workshop On Basic Research: Policy Relevant Definitions And Measurement. European Commission – DG Research 2009, Designing Policy Mixes: Enhancing Innovation System Performance and R&D Investment Levels. BIG DATA Big data – „termin odnoszący się do dużych, zmiennych i różnorodnych zbiorów danych, których przetwarzanie i analiza jest trudna ale jednocześnie wartościowa, ponieważ może prowadzić do zdobycia nowej wiedzy. W praktyce pojęcie dużego zbioru danych jest względne i oznacza sytuację, gdy zbioru nie da się przetwarzać przy użyciu trywialnych, powszechnie dostępnych metod. W zależności od branży i stopnia złożoności algorytmu może to oznaczać rozmiar terabajtów lub petabajtów (np. analiza zderzeń cząstek elementarnych w fizyce wysokich energii), jednak w innych zastosowaniach będą to już megabajty bądź gigabajty (np. porównywanie billingów telefonicznych w telekomunikacji)” [Wikipedia 2014]. Wielkie dane zmieniły sposób, w jaki żyjemy, prowadzimy działalność gospodarczą, zarządzamy organizacjami i prowadzimy badania. Wielkie dane są coraz bardziej paliwem i motorem wzrostu gospodarczego i stanowią podstawę do nowych badań naukowych [OECD 2013b]. Dawniej dane uznawano za bezużyteczne lub zdeaktualizowane, gdy tylko spełniły cel, dla którego je zebrano. Dziś dane stają się surowcem działalności gospodarczej i naukowej. Mogą być ponownie wykorzystane, by stać się źródłem innowacji [Mayer-Schönberger 2013]. Określono sześć kategorii danych: 1. dane wynikające z działalności rządu; 2. dane opisujące oficjalne wymogi rejestracyjne lub licencyjne; 3. transakcje handlowe dokonywane przez osoby i organizacje; 313 4. dane Internetu pochodzące z wyszukiwarek i sieci społecznościowych; 5. monitoring osób lub obiektów fizycznych; 6. dane obrazowe, szczególnie zdjęcia lotnicze i satelitarne [OECD 2013b]. Astronomia i genomika, które jako pierwsze doświadczyły wybuch danych w 2000 roku, ukuły termin "big data", który obecnie przeniesione na inne obszary [MayerSchönberger 2013]. Od zarania cywilizacji do 2003 roku stworzono pięć eksabajtów bajtów informacji; teraz taka sama objętość powstaje w ciągu zaledwie dwóch dni. Ilość danych dramatycznie wzrosła, obejmując dziś np. danych internetowych (np. media społeczne), dane z badań (np. raportów branżowych), danych o lokalizacji (np. dane z urządzeń mobilnych) i dane geo-przestrzennych (np. satelitarne), dane z łańcucha dostaw (np. katalogi dostawców) i dane z urządzeń (np. czujniki). „Big data” to kolejne ogniwo w rozwoju teleinformatyki (komputery mainframe, PC, komputery typu klient-serwer, Internet, cloud computing, komputery przenośne i sieci społecznych, big data) [Chan 2013]. W 2001 roku META Group opublikowała raport, który opisuje big data w modelu 3V: ⋅ ⋅ ⋅ duża ilość danych (ang. volume); duża zmienność danych (ang. velocity); duża różnorodność danych (ang. variety). Model ten uzupełniony został o kolejną składową - o ocenę (weryfikację), (ang. value) posiadanych danych – dochodząc do modelu 4V [Wikipedia 2014]. Nauki społeczne i ekonomiczne, które tradycyjnie opierały się na statystykach spisowych i badaniach opartych na reprezentatywnych próbach populacji mogą teraz korzystać z danych w czasie rzeczywistym na poziomie całych populacji (OECD 2013b). Pozwala to odkryć wzory i korelacje, których nie bylibyśmy w stanie dostrzec pracując na próbkach. Praca na wielkiej ilości danych pozwala przywiązywać mniejsze znaczenie do dokładności. Popełniając mniej błędów niż w pracy próbach, można dopuścić większy błąd pomiaru. Większa szersza możliwość odkrywania wzorów i korelacji pozwala też zmniejszyć zainteresowanie przyczynowością. Korelacja nie może nam powiedzieć, dlaczego coś się dzieje, ale zwraca uwagę, że to się dzieje [Mayer-Schönberger 2013]. Wraz z pojawieniem się zaawansowanej eksploracji danych i analiz, zachodzą fundamentalne zmiany pod względem pytań badawczych oraz metod badawczych (Chang 2014). Np. szybko się zmienia charakter naukometrii (bibliometrii, informetrii), w miarę jak coraz więcej (dużych) zbiorów danych staje się dostępne w formie elektronicznej; duże zbiory danych są ze sobą łączone; rośnie zapotrzebowanie na indeksy, porównania, benchmarkingi i oceny wpływu badań (OECD 2014b). 314 Bibliografia Chan Joseph O. 2013, An Architecture for Big Data Analytics, “Communications of the IIMA”. Chang R. M., Kauffman R. J. , Kwon J. 2014, Understanding the paradigm shift to computational social science in the presence of big data, “Decision Support Systems” 63. Mayer-Schönberger, Viktor and Kenneth Cukier 2013, Big data. A revolution that will transform how we live, work and think, John Murray. OECD 2013, New Data for Understanding the Human Condition: International Perspectives, Paris. OECD 2013b, Exploring Data-Driven Innovation as a New Source of Growth: Mapping the Policy Issues Raised by "Big Data", OECD Digital Economy Papers, No, 222, OECD. OECD 2014, Findings From The OECD/NESTI Project On The Cognitive Testing Of Innovation Survey Concepts, Definitions And Questions, DSTI/EAS/STP/NESTI(2014)19. OECD 2014b, Summary Record Of The OECD-Experts Dialogue On Scientometrics: Improving The Quality And Use Of Indicators For Policy-Making, DSTI/EAS/STP/NESTI(2014)3. DOSKONAŁOŚĆ BADAWCZA [Research Excellence] Od przełomu lat 1990. i 2000., a szczególnie od połowy I dekady XXI wieku, pojęcie doskonałości weszło do słownika europejskiej i światowej polityki naukowej. Excellence (doskonałość, wyższość, wybitność) to dziś cel strategii, programów i instrumentów, kryterium decyzji o finansowaniu, aspekt pomiaru dokonań badawczych, nazwa instytucji (centres of excellence, networks of excellence) oraz nazwa krajowych systemów oceny badań (brytyjski Research Excellence Framework, The Excellence in Research for Australia). Doskonałość badawczą określa się jako badania jakościowo i zdecydowanie lepsze od zadowalających. Podkreśla się jednak, że doskonałość nie jest jakością bezwzględną, możliwą do pomiaru za pomocą prostych obiektywnych kryteriów. Pojęcie doskonałości badawczej jest trudne do zdefiniowania, ponieważ jest bardzo kontekstowe. Doskonałość oznacza różne rzeczy dla różnych społeczności dyscyplinarnych. Nie ma uniwersalnej definicji doskonałości badawczej. Pojęcie to nabywa znaczenia tylko w kontekście. Np. w krajowych systemach ewaluacji doskonałość jest zazwyczaj definiowana jako produktywność. W panelach ewaluacji rad ds. badań doskonałość jest często rozumiana jako „propozycja projektu badawczego lepsza do wszystkich pozostałych”. Pojęcie doskonałości badawczej jest również trudne do określenia gdyż milcząco zakłada bardzo różne opozycje. Tak więc, „doskonałe badania” mogą oznaczać "nieprzeciętne" lub "nie standardowe"; doskonałość jako kryterium oceny zazwyczaj przeciwstawiana jest kryteria relewantności; doskonałość jako cel programów i strategii jest często wiązana (lub przeciwstawiana) innych celom, takim jak wpływ na gospodarkę i społeczeństwo. 315 Co więcej, pojęcie doskonałości jest odnoszone do różnych elementów badań: doskonały pomysł badawczy, świetny eksperyment, doskonałe środowisko badawcze, znakomity artykuł, znaczny wpływ. Te pierwsze znaczenia - pomysł, doświadczenie lub środowiskowe - są zwykle stosowane w literaturze o zarządzaniu badaniami, a te ostatnie - wyniki badań lub ich wpływ - są wykorzystywane w różnych systemach ewaluacji. Angielskie excellence i polska doskonałość mają źródła w łacinie ale różne: excello (celować, górować, odznaczać się) i perfectio (dokonanie, wykończenie). Uznaje się, że nie ma jednej drogi do doskonałości badawczej. Istnieje czynników, które mogą wywierać wpływ na wyniki badań danego kraju. Do ważniejszych należą: • • Odpowiedni poziom wsparcia dla badań i szkolnictwa wyższego; Konkurencyjne środowisko badawcze, nagradzające doskonałość, gdziekolwiek się ona przejawia [1994 Group]. Brak zgody co do rozumienia „doskonałości badawczej”. Istnieją definicje dyscyplinowe, a nawet kryteria w odniesieniu do rodzaju przeprowadzanych badań. Trwają dyskusje: Co to jest doskonałość? Jakie są jej kryteria? Jak ją mierzyć – szczególnie w interdyscyplinarnych badaniach stosowanych? Czy wpływ badań powinien być wymiarem oceny ich doskonałości? Co to jest wpływ i jak go mierzyć? Czy ocena doskonałości powinna zostać pozostawiona samym badaczom? Doskonałość badawcza w dokumentach unijnych. Pojęcie doskonałości badawczej pojawia się w wielu dokumentach unijnych jako: • cel Europejskiej Przestrzeni Badawczej • cel Programów Ramowych („Horyzont 2020”, VI i VIII Program Ramowy, np. Program „Pomysły” w ramach VII PR (2007–2013)). W szczególności jest ono obecne w takich dokumentach jak: Wzmocnione partnerstwo w ramach europejskiej przestrzeni badawczej na rzecz doskonałości i wzrostu gospodarczego KOMUNIKAT KOMISJI DO PARLAMENTU EUROPEJSKIEGO, RADY, EUROPEJSKIEGO KOMITETU EKONOMICZNO-SPOŁECZNEGO I KOMITETU REGIONÓW Bruksela, dnia 17.7.2012 r. COM(2012) 392 final (doskonałość oparta na o silną publiczną bazę naukową jest warunkiem trwałego wzrostu gospodarczego; warunkiem jej osiągnięcia jest m.in. skuteczne finansowanie i wykorzystanie infrastruktury badawczej oraz otwarcie rynku pracy dla naukowców) ROZPORZĄDZENIE PARLAMENTU EUROPEJSKIEGO I RADY ustanawiające „Horyzont 2020” – program ramowy w zakresie badań naukowych i innowacji (2014-2020) Bruksela, dnia 30.11.2011 COM(2011) 809 konc. (podstawowe moduły: 1) Doskonała baza naukowa; 2) Wiodąca Pozycja w Przemyśle; 3) Wyzwania Społeczne). ZIELONA KSIĘGA. Jak zmienić wyzwania w możliwości: wspólne ramy strategiczne dla finansowania unijnego na rzecz badań naukowych i innowacji. Bruksela, dnia 15.2.2011 KOM(2011) 48 wersja ostateczna/2 (Ustanowienie EPB jako jeden z 316 głównych kroków w kierunku zwiększenia doskonałości europejskiej bazy naukowej). Budowa Europejskiej Przestrzeni Badawczej (ERA) wiedzy na rzecz wzrostu KOMUNIKAT KOMISJI Bruksela, dnia 6.4.2005 COM(2005) 118 końcowy Nauka i technologia – kluczowe dziedziny dla przyszłości Europy – Kierunki polityki. KOMUNIKAT KOMISJI Bruksela, dnia 16.6.2004 COM(2004) 353 ostateczny Deklaracja Aarhus, przyjęta na „Konferencji Doskonałości” (Excellence Conference) w Aarhus zorganizowanej w kwietniu 2012 w ramach duńskiej prezydencji „Inwestowanie w doskonałości - Przygotowanie do jutra” wzywa Unię do finansowania ambitnych, oryginalnych i odważnych pomysłów badawczych, kwestionujących zastane paradygmaty, przy zapewnieniu wybitnym badaczom dostępu do nowoczesnej aparatury, długoterminowego finansowania oraz swobody zarządzania. Deklaracja zaleca wybieranie najlepszych z najlepszych, nawołuje do upraszczania przepisów finansowania grantów, wzywa do udzielania większej niezależności zespołom badawczym, oraz do silniejszego wspierania badań na froncie poznania. Ocena i pomiar. Jak mierzyć doskonałość badań? Definicja doskonałości badań jest niezbędna przed ustaleniem zasad pomiaru. Jednak w odniesieniu do czegoś tak szerokiego i różnorodnego jak badania pada często pytanie, czy definicja i pomiar jest możliwy lub czy warto do nich dążyć. Nie jest możliwe sporządzenie sztywnych zasad pomiaru jakości badań, istnieje jednak zgoda co do tego, że produkty które można uznać za przejawy doskonałości badawczej to np.: • • • • • • • publikacje w prestiżowych czasopismach lub w czołowych wydawnictwach prace o wyjątkowej oryginalności prace, które zainspirował innych i wpłynęły na programy badań autorstwo wybitnych podręczników zwycięstwa w konkursach, zwłaszcza w roli głównego badacza zewnętrzne uznanie dla jakości badań wpływ i wartość podejmowanych badań [Defining 2013]. W praktyce, wiele instytucji ustala własne operacyjne definicje doskonałości, aby na ich podstawie oceniać jakość badań poszczególnych badaczy i grup badawczych, jednostek naukowych (np. Stanowisko Komitetu Polityki Naukowej w zakresie wskaźników doskonałości naukowej) lub krajów (np. OECD 2013; 1994 Group). • • • • • publikacje (artykuły, publikacje, książki, monografie) cytowania, indeks Hirscha, odczyty na prestiżowych międzynarodowych konferencjach podejmowanie ambitnych i ryzykownych tematów badawczych mobilność współpraca interdyscyplinarna i międzynarodowa (członkostwo w międzynarodowych zespołach badawczych); 317 • • • • • zasługi w kształceniu kadr, tworzeniu szkół naukowych; prestiżowe nagrody; udział w ciałach doradczych zw. z nauką i w instytucjach międzynarodowych; zaangażowanie społeczne, w inicjatywy zw. z przedsiębiorczością, popularyzacją nauki, itp. skuteczność zw. z komercjalizacją wyników i ich wdrożeniem (nauki ścisłe i techniczne, przyrodnicze) Idea doskonałości jako reakcja na następstwa wzrostu finansowania badań naukowych z funduszy publicznych. „Ruch doskonałości” (tworzenie procedur i instytucji oraz wspieranie wysokiej jakości badań naukowych jako cel strategiczny polityki naukowej) to jedna z form reakcji na następstwa powojennego gwałtownego wzrostu finansowania badań naukowych z funduszy publicznych. Finansowanie budżetowe nauki nigdy nie jest bezproblemowe, gdyż inna jest logika badań a inna administracji publicznej; im wyższe publiczne wydatki na naukę, tym skala problemu większa. Gdy projekt badawczy jest ambitny, trudno przewidzieć jego końcowy wynik; rozliczana ze swoich decyzji administracja nie lubi ryzyka. Wzrost publicznych wydatków na naukę początkowo opierał się głównie na zasadzie „każdemu po równo” (z uwzględnieniem – budzącej spory – oceny kosztochłonności dyscyplin), bez względu na przeszłe zasługi i perspektywy na przyszłość, z finansowaniem statutowym jako najważniejszą formą transferu publicznych środków. W krajach zachodnich trzema głównymi sposobami wyróżniania najlepszych badaczy były kryteria wyboru na stałe stanowiska (tenure), a szczególnie na stanowiska kierowników katedr i instytutów, peer review artykułów zgłaszanych do czasopism oraz finansowanie na zasadach konkursowych projektów badawczych. Początkowo system ten w miarę sprawdzał się: największe sukcesy nauka odniosła w latach 1950-tych i 1960-tych, gdy z jednej strony rosły gwałtownie fundusze na badania, ale z drugiej stale jeszcze były obecne wysokie, wyśrubowane standardy, osiągnięte przed wojną, w okresie, gdy finansowano tylko najbardziej obiecujące projekty(Jay W. Forrester). Jednak od połowy lat 1960-tych obserwując skutki wzrostu zaczęto odczuwać niepokój. Derek de Solla Price (1963) postawił tezę, że liczba przeciętnych badaczy wzrasta jako kwadrat liczby wyjątkowo wybitnych; im większy wzrost, tym niższy przeciętny poziom. Forrester z kolei opisywał (1965), jak wzrost nauki w ramach finansowania budżetowego obniża wydajność nauki: (…) w procesie budżetowym standardem jest przeszłość, a nie jakiekolwiek obiektywne miary wyników i wydajności. Budżet na przyszły rok jest z reguły ustalany na bazie budżetu roku poprzedniego. Forrester uznał kulturę środowiska naukowego za wrogą dążeniu do stałego podnoszenia jakości: Ponad dwie dekady ekspansji nauki sprawiły, że postawa „zróbmy jak najwięcej mając do dyspozycji skromne środki” zamieniła się na postawę „zróbmy co się da, bez względu na koszty”. Efektem wzrostu wydatków bez wzrostu starań o jakość były prace ciągnące się w nieskończoność, źle zaprojektowane, dublowanie badań i aparatury itd. Na domiar zła, od połowy lat 1970-tych, gdy w państwach rozwiniętych wzrost nauki (badaczy, nakładów) zahamował, społeczność naukowa zaczęła się starzeć. Zahamowanie wzrostu nauki ozna318 czało mniej nowych miejsc pracy naukowej, niższe zarobki oraz słabszą selekcję. Inne niż praca naukowa drogi kariery (np. biznes i medycyna) stały się bardziej atrakcyjne. Polityki wspierania doskonałości. Jednym z działań mających na celu odwrócić ujemne następstwa odczuwanego spadku poziomu badań był wzrost udziału finansowania projektów w trybie konkursu w stosunku do finansowania statutowego. Często powielanym wzorcem, także przez Komitet Badań Naukowych, stał się system grantowy amerykańskiej Narodowej Fundacji Nauki (1950). Ponadto wprowadzono trzy nowe formy finansowania badań. Pierwszą z nich było zmodyfikowane finansowanie instytucjonalne, tak zwane finansowanie oparte na rezultatach, performance based funding (wprowadzone po raz pierwszy w roku 1986 przez brytyjski ogólnonarodowy program ewaluacji The Research Assessment Exercise (RAE)). Finansowanie to było oparte nie na kwotach z lat poprzednich, tylko na osiągniętych wynikach oraz na ocenie potencjału organizacji. Do roku 2010 przykład brytyjski pociągnął za sobą 12 innych krajów, wśród nich Polskę (1991, ważne ulepszenia w 1998, obecnie ocena przeprowadzana przez Komitet Ewaluacji Jednostek Naukowych). Drugą formą były różne programy agencji rządowych oraz fundacji non profit traktowane jako uzupełnienie podstawowych form – finansowania instytucjonalnego i finansowania projektów. Programy te (często otwarte dla naukowców z całego świata) miały na celu wspieranie tych badaczy i te zespoły i pola badań, które rokowały wielkie nadzieje, ale nie mogły się przebić w istniejących systemach finansowania, choćby ze względu na swój młody wiek i brak długiego ciągu udokumentowanych osiągnięć. Tego rodzaju programy rozwinęły się po roku 1986 (program HHMI Investigators amerykańskiego Howard Hughes MedicalInstitute). Celowały w nich zwłaszcza Stany Zjednoczone (np. NSF, MacArthur Foundation), Wielka Brytania (Wellcome Trust), Niemcy (Volkswagen Foundation, rządowa Inicjatywa Doskonałości), Holandia (NWO), Szwecja (Wallenberg Foundation), w Polsce – Fundacja Nauki Polskiej. W roku 2003 wprowadzono program Europejskiej Fundacji Nauki (European Young Investigator Award). Od roku 2007 podjęła działalność unijna Europejska Fundacja Nauki. Trzecią formą, jeszcze silniej ukierunkowaną na wspieranie badań wysokiej klasy, były tak zwane „inicjatywy naukowej doskonałości” (Research Excellence Initiatives). Zapewniały one długoletnie (najczęściej od 5 do 10 lat) finansowanie instytucji naukowych i grup badawczych legitymujących się wyjątkowo wybitnymi wynikami oraz wyjątkowo twórczym środowiskiem badawczym. Choć pierwsze przedsięwzięcia tego typu wprowadzono w USAjeszcze w roku 1978 (Experimental Program to Stimulate Competitive Research), nieprzerwany pochód narodowych inicjatyw doskonałości zaczął się w roku 1998. Rok później w ramach V Programu Ramowego UE ogłosiła konkurs na centra doskonałości. Duńskim przykładem tego instrumentu jest program UNIK, szwedzkim Granty Linneusza a polskim KNOW-y – Krajowe Naukowe Ośrodki Wiodące. Równolegle z tworzeniem nowych form zewnętrznych zachęt finansowych dla pobudzania przełomowych badań, kreatywność i dążenie do osiągania wybitnych wyników 319 stały się celami zarządzania na uniwersytetach oraz w wielkich organizacjach badawczych (polityka kadrowa, zasady wewnętrznej ewaluacji, szkolenia i elastyczne formy organizacyjne).W wielu z nich podjęto starania, by podnieść pozycję w światowych rankingach. Wysiłki te były pobudzane przez akty prawne (np. austriacką Ustawę Uniwersytecką z roku 2002, ustawy MNiSW z lat 2010-2011), wzory sukcesu, klimat konkurencji, książki, m.in. Jamila Salmiego i Burtona Clarka. Jednym z zastosowanych rozwiązań były kursy w dziedzinie zarządzania – etyki w badaniach, przywództwa i komunikacji, pisania dobrych raportów i wniosków grantowych, kierowania laboratoriami, mentoringu, alternatywnych karier badawczych (np. prowadzenia badań w przemyśle, administrowania badaniami, edukacji nauki, redagowania czasopism naukowych). Krytyka idei doskonałości badawczej. Doskonałość to pojęcie, które jest samo w sobie argumentem na swoją rzecz: trudno polemizować z koniecznością osiągania doskonałości w badaniach. Jak się zdaje, jest to podstawowe kryterium prowadzenia badań: wszystkie inne – np. tematyczne – są mniej ważne. Jednak doskonałość z trudno osiągalnego ideału ludzi i instytucji, kształtowanego przez wzorce kulturowe, stała się celem działania administracji. Pojęcie zrodzone w świecie autorytetu osobowego, hierarchii i idealizmu, przeniesiono do świata procedur i polityki. Ze sfery idei i ideału jednostki przeszło ono do sfery strategii politycznych, zarządzania organizacją, przepisów finansowania i ewaluacji. Przede wszystkim, zwraca się uwagę, że doskonałość utraciła siłę, zbanalizowała się, spowszedniała. Stąd – tak jak gdyby sama nie oznaczała szczytowych osiągnięć – upowszechnił się nowy termin, „doskonałość klasy światowej”. Doskonałość to pojęcie relacyjne: można je odnosić do wyróżnionej pod jakimś względem bardzo nielicznej mniejszości. Obecnie jednak mechanizmy wspierania doskonałości stosuje się wobec w dziesiątkach krajów wobec kilku milionów naukowców. Krytyce poddaje się nie tyle samą ideę doskonałości, co jej konkretne zastosowania. Podkreśla się, że doskonałość w badaniach jest zawsze potrzebna. Częściej potrzeba dobrych niezawodnych badań, ale niekoniecznie doskonałej nauki; potrzeba standardowej pracy badawczej, która ma być zrobiona w sposób wiarygodny, np. badań właściwości tworzyw, doskonalenia metod leczenia, opracowania nowego sprzętu [Walloe]. Podnosi się fakt, że na uczelniach nacisk na jakość badań powoduje obniżenie jakości nauczania. Często administratorzy uczelni badawczych nagradzają badania, która budują status uniwersytetu (miejsce w rankingach), gdyż za statusem płyną zwiększone środki. Odbywa się to jednak kosztem jakości dydaktyki [Wolverton 1998]. Inicjatywy doskonałości mogą tworzyć wyspy wybitności, które zamiast podciągnąć otoczenie, obsuwają się z czasem do jego poziomu; pozwalają one budować paralelne struktury, które stają się bardziej źródłem tarć i napięć w systemie nauki publicznej niż motorem jego rozwoju; dla rozwoju nauki potrzeba równowagi konkurencyjności i współpracy, a opisywane instrumenty wzmacniają przede wszystkim rywalizację; doskona320 łość oznacza co innego w różnych dyscyplinach i na różnych etapach rozwoju dyscyplin, ale inicjatywy doskonałości tego nie uwzględniają; w inicjatywach doskonałości to naukowy establishment określa reguły gry, ale prawdziwy postęp w badaniach dokonuje się na przekór status quo [Excellence 2012]. Podkreśla się też, że problemem Europy jest nie tyle niedostatek badań podstawowych przesuwających granice poznania, co podnoszą rzecznicy idei doskonałości, co niedowład działalności innowacyjnej. Usprawnić innowacje mogą nie tyle inicjatywy na rzecz doskonałości, co programy sektorowe, nastawione na realizację celów gospodarczych i społecznych. Okazuje się, że nawet z punktu widzenia celów stawianych sobie przez rzeczników doskonałości, badacze współpracujący z przemysłem mają (wg tradycyjnych miar cytowań i produktywności) większe osiągnięcia od swych kolegów nieskażonych kontaktami z gospodarką. Publikacje naukowe oraz patenty, kontrakty oraz konsultacje uzupełniają się [Technopolis 2012]. Doskonałość z perspektywy nauki światowej to nie to samo co doskonałość z perspektywy potrzeb kraju i regionu – nie można jej traktować jako wyabstrahowanej jakości, pomijając kwestię, po co właściwie potrzebuje się konkretnych badań. Nie jest udowodnione, że przesunięcie środków w stronę najlepszych naukowców i zespołów badawczych owocuje rozkwitem odkryć i innowacji. Rozwój wyjątkowo wybitnych uczonych nie sposób zaplanować. Gigantyczne środki wydawane przez Arabię Saudyjską i inne naftowe mocarstwa na ściągnięcie znakomitych badaczy i stworzenia im warunków do pracy takich jak w znanych światowych centrach nauki nie stworzyły jeszcze nowego Harvardu [Excellence 2012]. Bibliografia 1994 Group, Mapping Research Excellence: exploring the links between research excellence and research funding policy, Research Report September 2011. Defining Excellence - Guidance on the application of the promotion criteria 2013, University of Bristol, http://www.bristol.ac.uk/hr/policies/promotion/guidance-excellence.html Excellence 2012 Conference, Aarhus University, http://www.excellence2012.dk/ OECD 2013, “Research excellence”, w: OECD Science, Technology and Industry Scoreboard 2013: Innovation for Growth, OECD Publishing, Paris. Technopolis 2012, Getting the Balance Right Walloe Lars, The meaning of excellence and the need of excellence in research. Wolverton Mimi 1998, Treading the Tenure-Track Tightrope: Finding Balance Between Research Excellence and Quality Teaching, “Innovative Higher Education”, Vol. 23, No. 1. 321 FAZY POLITYKI NAUKOWEJ [Phases of science policy] Polityka naukowa oznacza politykę rządową dotyczącą relacji pomiędzy rządem, nauką i społeczeństwem. Jako odrębny obszar polityki wyłoniła się ona w latach po II Wojnie Światowej. Przedtem istniała w formach niewykrystalizowanych i ad hoc. Warunkiem narodzin polityki naukowej było ukształtowanie się trzech systemów – sytemu badań naukowych, systemu polityki publicznej oraz systemu powiązań między sferą nauki a sferą praktyki, przede wszystkim praktyki gospodarczej. Polityka naukowa a inne formy decyzji wspierających badania naukowe. Kryteria różnicujące politykę naukową od innych form decyzji wspierających badania naukowe to: 1. Charakter decyzji dotyczących wsparcia badań naukowych (decyzje programowe i systemowe czy decyzje personalne) 2. Status decydenta (decyzje rządowe/państwowe czy decyzje instytucji) 3. Szczebel decyzji (szczebel szefa rządu, głowy państwa lub ministra czy też niższe szczeble władzy państwowej) 4. Sposób ujmowania nauki przez decydenta (ogląd całości nauki czy też ogląd poszczególnych dyscyplin lub zagadnień badawczych) 5. Odniesienie decyzji do wszystkich czy też do wybranych typów badań (komplementarność decyzji wspierających samoistny rozwój nauki oraz rozwój badań stosowanych i transferu wiedzy naukowej do gospodarki i społeczeństwa w przeciwieństwie do decyzji wspierających jedynie badania kierowane ciekawością lub jedynie wynalazczości i badania stosowane) 6. Oddziaływanie na system instytucji badań (lub/i innowacji) czy też oddziaływanie na poszczególne instytucje lub poszczególnych badaczy 7. Ciągłość i systematyczność decyzji (czy też podejmowanie decyzji doraźnych i ad hoc) 8. Natura i efekty decyzji a. decyzje traktowane jako inwestycja publiczna (w gospodarkę, obronność, prestiż narodowy, dobra publiczne takie jak zdrowie, edukacja i środowisko) czy też decyzje traktowane jako konsumpcja dóbr kultury b. decyzje traktowane jako realizacja celów, zadań i priorytetów czy decyzje zmierzające do „zaspakajania potrzeb badawczych” poszczególnych uczonych, instytucji lub dyscyplin 9. Istnienie podstaw merytorycznych decyzji (stałe wsparcie analityczno-informacyjne, w przeciwieństwie do decyzji intuicyjnych lub opartych na informacjach, po które sięga się sporadycznie) 10. Działanie w ramach tzw. cyklu polityki (definiowanie problemu, ocena opcji, formułowanie programu, wdrażanie i ewaluacja). Polityka naukowa – całość czy suma? W poszczególnych krajach polityka naukowa jest bądź odrębną całością, bądź też sumą poszczególnych decyzji rządowych. Ten drugi typ polityki naukowej reprezentują Stany Zjednoczone i Izrael. Finansowanie badań 322 rozproszone jest wieloma nich między wieloma ministerstwami i agencjami rządowymi. Badania rolnicze rywalizują w Ministerstwie Rolnictwa z wydatkami nie-badawczymi, a nie z innymi programami B+R. W Stanach Zjednoczonych fundusze budżetowe na badania podstawowe przechodzą do rąk National Institutes of Health, NASA oraz National Science Foundation, oraz 15 ministerstw oraz agencji federalnych (jednak 6 najważniejszych rozdziela 95% środków). Najczęściej badania podstawowe to tylko część (z reguły nie najważniejsza) misji agencji rządowej. Badania podstawowe są elementem różnych programów i projektów i nigdy nie są traktowane oddzielnie jako „badania podstawowe”. Istnieje mało okazji do porównywania programów badawczych różnych agencji. Nie ma czegoś, co określa się jako „narodowe priorytety badawcze”. Badania naukowe nie konkurują o środki z innymi celami, a poszczególne programy badawcze też nie konkurują pomiędzy sobą. Zasoby dzielone są w sposób, który jest zrozumiały w świetle historii, tradycji i polityki, ale nie racjonalnych zasad. Nie bierze się pod uwagę wagi poszczególnych dyscyplin dla kraju. Katalityczna rola wojen. Powstanie polityki naukowej stało się możliwe dzięki przeobrażeniom, jakie zaszły zarówno w samej nauce, jak i w amerykańskiej polityce państwowej. Katalizatorem przyspieszającym budowę przyszłej polityki naukowej okazały się obie Wojny Światowe, oraz okres Zimnej Wojny, z jego „szokiem sputnika” (1957). „Rola katalityczna I Wojny nie była jednak tam mocna, aby zapoczątkować politykę naukową w czasach pokoju. Także choć kryzys lat 1930-tych skłonił niektórych do rozważenia roli nauki i techniki w rozwoju gospodarczym i społecznym, ale (prócz Francji, 1936) nie stało się to jeszcze bodźcem do zainicjowania takiej polityki. [Uncertain 1994]” W latach międzywojennych wzrosło mimo wszystko zrozumienie dla nauki jako przedmiotu interwencji państwa. W następstwie Wielkiego Kryzysu nastąpiła zmiana filozofii politycznej w USA i krajach europejskich (zasada ingerencji państwa w sprawy zatrudnienia, inwestycji i wzrostu gospodarczego). Jednak dopiero II Wojna Światowa (a dokładniej, prace nad bombą atomową) stała się punktem zwrotnym w stosunkach między nauką a państwem. Ze wszystkich funkcji państwa (obrona, gospodarka, prestiż) funkcje obrony (bardziej niż jakiekolwiek inne) stały się katalizatorem polityki naukowej. Ale wojna – zarówno ta gorąca, jak i zimna – nie odegrałyby swojej roli, gdyby jednocześnie właśnie po II Wojnie Światowej innowacje techniczne nie awansowały do roli jednej z głównych funkcji przedsiębiorstw, obok marketingu, produkcji i kontroli finansowej, a wzrost – do pozycji ich głównego celu. Do tego czasu (choć z biegiem lat w coraz mniejszym stopniu), oprócz aktywności sławionego przez Schumpetera przedsiębiorcy, zmieniającego zastany układ rynkowy, działalność innowacyjną uznawano za ewenement w stosunku do dominującej działalności reprodukcyjnej, a wzrost za ewenement w stosunku do utrzymywania raz zdobytej pozycji. Obie idee – wzrostu oraz innowacji technicznych – wspomagały się wzajemnie. Stopniowo, ze szczebla firm przeszły na poziom polityk państwowych, najpierw wzrost, później innowacje. Stopniowo także, od II poł. XIX w., nowa wiedza naukowa stawała się coraz ważniejszym czynnikiem obu. 323 Rozwój `wgłąb` i `wszerz`. Od momentu swoich narodzin w państwach rozwiniętych gospodarczo polityka naukowa rozwijała się zarówno `wgłąb` (rozszerzanie instrumentów polityki, powoływanie nowego typu organów, jak np. agencji transferu technologii), jak i `wszerz` (stosowana przez coraz większą liczbę krajów, z reguły o malejącym poziomie dobrobytu). Podobnej ewolucji –rozwój `wgłąb` i rozwój `wszerz` - podlegały także poszczególne instrumenty polityki (jak np. foresight), koncepcje i pojęcia ogniskujące nowe nurty polityki (jak np. system innowacji, grona (clusters), sieci), metodologia statystyki itd. Np. zasady metodologii statystyki B+R, spisane w roku 1963 w Podręczniku Frascati, dzisiaj opisane są nie tylko w kolejnej, poszerzonej edycji Podręcznika, ale także w szerokiej rodzinie pokrewnych opracowań metodologicznych. Po roku 1963 zasady te były wprowadzane w życie przez kolejne kraje OECD; dziś stosowane są nie tylko przez wszystkie kraje poszerzonej w latach 1990-tych OECD, ale także przez (wzrastającą) grupę państw spoza OECD. Kolejne kraje przejmowały `wzorcowe praktyki polityczne`, koncepcje i pojęcia oraz zasady metodologii statystyki – zarówno dzięki działalności organizacji międzynarodowych (OECD, UNESCO, UNIDO, Bank Światowy) i Unii Europejskiej, jak i dzięki własnej `aktywnej absorpcji`. Z chwilą `krystalizacji` polityki naukowej, rozwijała się ona zatem `wgłąb` i `wszerz`. Ale co pewien czas – co ok. 10-15 lat – przechodziła także istotną metamorfozę. Fazy polityki naukowej w krajach OECD. Polityka naukowa przeszła w krajach OECD tak wiele zmian, że jej komentatorzy dzielą ją na okresy, stadia lub fazy. B. Ruivo [1994] mówi o „paradygmatach” w rozwoju polityki naukowej i udowadnia, że pomimo narodowych różnic istniała zawsze między różnymi krajami zgoda co do podstawowych poglądów i stosowanych instrumentów. Zdaniem J.J. Salomona [1970] świadczy to, że w polityce naukowej uformowała się międzynarodowa wspólnota naukowców i polityków. Wspólnota ta działa jak każda opisana przez T. Kuhna społeczność naukowa, tj. upowszechnia pomiędzy sobą poglądy, informacje, wiedzę o przeszłości. Lata 1950. określa się jako okres „dzieciństwa” polityki naukowej. W latach tych rozwinęły się rady badawcze (m.in. National Science Foundation, USA, 1950), skrystalizowała idea grantu badawczego, podjęto pierwsze próby pomiaru nauki. Lata 1960. S. Blume [1985] nazywa dekadą „nauki jako motoru postępu”. Było to dziesięciolecie gospodarczej prosperity i (do 1968) wiary i optymizmu. Wierzono w możliwość racjonalnej polityki oraz (m.in.) w istnienie racjonalnych podstaw decyzji o podziale funduszy na badania; od roku 1963 zasady takie formułowali m.in. A. Weinberg i C. Keysen. Wierzono także, że nauka jest niekwestionowanym motorem cywilizacyjnego postępu. Działa ona na zasadzie domina, przy czym pierwsze pchnięcie należy do nauk podstawowych, gdyż to one inicjują ciąg działań, wieńczony nowym produktem rynkowym. Z tego względu uważano, że nauki podstawowe oraz uniwersytety, w których są one przede wszystkich uprawiane, zasługują na największe wsparcie. Sądzono, że badania powinno się prowadzić na wszystkich frontach, gdyż trudno przewidzieć, gdzie nastąpi technologiczny odprysk. „Potrzeby nauki” i „potrzeby (poszczególnych) dyscyplin” 324 były wówczas głównymi kategoriami polityki naukowej. Panowała zgoda, że potrzeby te powinni określać sami uczeni, najlepiej zorientowani w naturze badań naukowych. Rząd powinien zwłaszcza powoływać Rady Konsultacyjne ds. Polityki Naukowej, zapraszać do nich wybitnych uczonych, wysłuchiwać ich opinii i wypełniać ich zalecenia. Wiara w możliwość racjonalnej polityki oraz wiara w naukę jako źródło postępu legły u podstaw narodzin polityki naukowej. Katalizatorem jej stały się w roku 1963 inicjatywy OECD konferencja ministerialna w sprawach nauki oraz raport pt. Science and the Policy of Government (tzw. raport Piganiola). Racjonalna polityka, sądzono, wymaga koordynacji badań na szczeblu centralnym. Aby decyzje polityczne były optymalne, potrzeba rozwoju statystyki B+R. W roku 1963 OECD opublikowało kodyfikację zasad statystyki inputu B+R (Frascati Manual), zaadoptowaną przez kraje członkowskie organizacji, m.in. Holandię, w której gromadzeniem danych statystycznych o nauce zajął się urząd Statistics Netherlands. W Holandii rokiem przełomu dla polityki naukowej był 1966; wówczas to powołano Radę Konsultacyjną ds. Polityki Naukowej (RAWB) oraz po raz pierwszy przedstawiono odrębny budżet nauki (w ramach Ministerstwa Edukacji). W roku 1968 z inicjatywy RAWB utworzono komitety do oceny poszczególnych pól badawczych. Polityka naukowa lat 1970. miała odmienny charakter. Załamała się powojenna prosperity, zachwiała wiara w naukę i możliwość racjonalnego planowania. Już od II poł lat 1960. zasada „zaspakajania potrzeb nauki” (zgłaszanych przez samych naukowców) była uzupełniania zasadą „ustalania priorytetów” (tj. wyboru obszarów badawczych zasługujących na wyjątkowe wysokie wsparcie ze względu na potrzeby nauki, administracji lub gospodarki); priorytety wprowadzono m.in. we Francji (Programmed thematic actions, ATP, w CNRS) i w Niemczech (Sonderforschungsbereiche w DFG). Wprowadzanie priorytetów było wyrazem przekonania, że nauka ma nie tyle skupiać się na wewnętrznych problemach dyscyplin, co - przede wszystkim - wspierać realizację celów pozanaukowych i służyć pomocą w rozwiązywaniu konkretnych problemów stawianych przez polityki rządowe. Z tego względu S. Blume [1985] lata 1970. nazwał dekadą „nauki jako narzędzia rozwiązywania problemów”. Nadal obowiązywał liniowy model innowacji, ale teraz sądzono, że źródłem postępu są nie tyle przełomowe idee naukowe („science push”), co potrzeby społeczne i gospodarcze, m.in. w zakresie energii, zdrowia, ochrony środowiska, na które uczeni powinni szukać odpowiedzi („deman pull”). Przekonanie o konieczności utrzymywania badań na wszystkich frontach uległo zachwianiu; podkreślano teraz znaczenie selektywności w rozwoju nauki. Nie badania podstawowe, tylko stosowane uznawano teraz za źródło cywilizacyjnego postępu. Z tego też względu badania uniwersyteckie - w porównaniu z poprzednią i następną dekadą - były w l. 1970. stosunkowo zaniedbywane. Spadło znaczenie uczonych w formułowaniu polityki naukowej; wzrosło - ekonomistów, analityków rządowych, polityków. Autonomia uczonych i nauki była łatwa do zaakceptowania przez społeczeństwo, gdy nakłady na B+R wynosiły 0,1-0,2 dochodu narodowego (jak przed wojną), i trudna do zaakceptowania, gdy wynosiły one 1-2%. Zaniepokojenie opinii publicznej efektami rozwoju nauki i techniki (zatrucie środowiska, niebezpieczeństwo samozagłady itd.) zrodziło żądanie uczestnictwa 325 społeczeństwa w decyzjach dotyczących zastosowań kluczowych technologii. W wielu krajach zorganizowano referenda w sprawie energii nuklearnej oraz powołano urzędy ds. wartościowania technologii (technology assessment), zajmujące się porównywaniem kosztów ze spodziewanymi korzyściami oraz oceną możliwych następstw rozwoju i upowszechniania technologii. Rady konsultacyjne ds. polityki naukowej padły w wielu krajach ofiarą swego własnego sukcesu; postulat bardziej spójnej, uzasadnionej i zinstytucjonalizowanej polityki naukowej, którą wysuwały, znalazł swoje spełnienie w rządowych decyzjach powoływania ministerstw nauki (już w l. 1960.) oraz wzmacniania funkcji wykonawczych i ewaluacyjnych rad badawczych. Przeniesienie punktu ciężkości decyzji o nauce z rad doradczych do resortów było ilustracją przejścia od „epoki potrzeb” do „epoki priorytetów” oraz przejawem osłabienia wpływu badaczy na rozwój nauki. Ministerstwa znacznie lepiej niż obsadzane przez wybitnych uczonych rady konsultacyjne pasowały do okresu selekcji i cięć budżetowych. Wszystkie opisane tu przemiany polityki naukowej znalazły odbicie w statystyce N+T. Osłabienie wiary w racjonalne planowanie spowodowało (przejściowe) kwestionowanie jej użyteczności dla polityki naukowej. Z faktu, że Francuzi wydają na badania więcej niż Brytyjczycy, nie wynika jeszcze żadna jasna wytyczna dla brytyjskiej polityki naukowej, pisał w swym raporcie lord Rothshild (1971). Idea domina (badania podstawowe> stosowane>prace rozwojowe>innowacje) oraz przekonanie, że nauka jest samoczynnym źródłem postępu cywilizacyjnego, skłaniały w l. 1960. do pomiaru wkładu do nauki (finansowanie, personel); od wielkości tego wkładu, jak sądzono, zależą, w sposób automatyczny, rozmiary dobroczynnych następstw, jakie niosą z sobą badania. Zmiana obrazu nauki i zmiana procedur decyzyjnych o nauce zrodziła l. 1970. potrzebę uzupełnienia statystyki inputu statystyką outputu (publikacje, patenty, bilans płatniczy w zakresie technologii) oraz rozszerzenia statystyki nakładów na B+R o dane dotyczące nakładów budżetowych na B+R w podziale wg celów społeczno-gospodarczych. Techniki prognozowania rozwoju nauki i techniki zostały rozbudowane i szerzej zastosowane. Od roku 1972 podjęto w USA publikację National Science Indicators. W Holandii w latach 1970. powołano ministerstwo nauki z ministrem jako członkiem gabinetu (1973). Ministerstwo nie dysponowało budżetem, pełniło tylko funkcje koordynacyjne. W roku 1979 wydano tu dwie Białe Księgi dotyczące badań na wyższych uczelniach oraz innowacji, oparte na analizie danych statystycznych. Decydującym czynnikiem, który wpłynął na kształt polityki naukowej lat 1980. i 1990. było wejście państw rozwiniętych w fazę nowego cyklu techniczno-gospodarczego. Od połowy lat 1970. o kształcie społeczeństwa, gospodarki, organizacji pracy i stylu zarządzania decydują w coraz większym stopniu nowe technologie, takie jak mikroelektronika, komputery i telekomunikacja. Zachodzące przemiany określa się skrótowo „przejściem od społeczeństwa przemysłowego do poprzemysłowego”. Przemysł traci dominującą pozycję w zatrudnieniu i Produkcie Krajowym Brutto na rzecz sektora usług, w którym największą dynamiką rozwojową odznacza się sektor usług informacyjnych. Zmienia się model organizacji pracy i 326 struktura organizacji gospodarczych; wzrasta znaczenie gospodarcze małych i średnich przedsiębiorstw. Zbliżają się do siebie nauka, edukacja, technika i gospodarka. Opisane tu hasłowo przemiany spowodowały, że w l. 1980. na naukę spogląda się nie tyle jako na źródło samoczynnego postępu lub instrument rozwiązywania konkretnych problemów, co na „strategiczną szansę” w osiąganiu długofalowych celów, takich jak wzrost gospodarczy i polepszenie jakości życia. Szansa ta ma polegać na rozwoju i upowszechnianiu nowych radykalnych innowacji. Innowacje technologiczne stają się centralnym zagadnieniem polityki naukowej, a przemysły oparte na radykalnych innowacjach (oprócz wspomnianych także takich jak biotechnologia, nowe materiały, optoelektronika, robotyka, technologie medyczne) - jednym z najważniejszych zagadnień polityki przemysłowej. Polityka naukowa przekształca się coraz bardziej w politykę naukowotechniczną i innowacyjną; polityka przemysłowa uwzględnia w coraz większej mierze problematykę nauki i technologii; obie zbliżają się do siebie. Zamiast rozumienia innowacji jako „pchnięcia nauki” (science push, l. 1960) lub „ciągnięcia potrzeb” (demand pull, l. 1970) upowszechnia się teraz bardziej złożony i interaktywny model tego zjawiska; dominuje przekonanie, że sukces innowacji zależy od pomyślnej współpracy wielu różnych aktorów gry gospodarczej - naukowców, inżynierów, menedżerów, techników, specjalistów od marketingu, użytkowników. Nowe rozumienie zjawiska wpływa na zmianę polityki innowacyjnej; bezpośrednie dotacje na rzecz programów technologicznych przestają być jej głównym instrumentem, polityka innowacyjna uwzględnia obecnie o wiele większą gamę środków - wspieranie infrastruktury nauki i techniki, transfer technologii, tworzenie sieci informacyjnych, ulgi podatkowe i kredyty, politykę regionalną. Zgodnie z interaktywnym modelem innowacji ani badania podstawowe, jak w l. 1960., ani stosowane, jak w l. 1970., nie zajmują uprzywilejowanej pozycji w polityce naukowej. Podział na badania podstawowe i stosowane jest coraz częściej kwestionowany. Specjalnymi względami cieszą się badania strategiczne (tj. podstawowe, ale podejmowane w dziedzinach związanych z nowymi technologiami), interdyscyplinarne (jako źródła większości odkryć), przed-konkurencyjne, „bliskie rynkowi” oraz tzw. przenoszące (transfer sciences, pomiędzy czystą nauką a technologią). Rośnie waga instytucji pełniących rolę interfejsu między nauką a techniką z jednej strony, a nauką i techniką a gospodarką i społeczeństwem, z drugiej (m.in. agencji transferu technologii). Silniej niż w poprzednich dekadach podkreśla się też znaczenie badań opartych na współpracy (collaborative research) pomiędzy firmami, instytutami naukowymi, nauką i przemysłem. Większe znaczenie posiada też współpraca międzynarodowa. Obok polityki naukowej prowadzonej na szczeblu krajowym rośnie waga polityki uzgadnianej na szczeblu międzynarodowym (UE, OECD, G7) oraz na szczeblach regionalnych i lokalnych. Zmienia się znacznie badań uniwersyteckich. Po okresie względnego niedoceniania (i niedostatecznego finansowania) w l. 1970. odzyskały one pozycję z lat 1960. O ile jednak 327 w l. 1960. były one cenione z powodu swej roli w rozwoju nauk podstawowych, teraz znaczenie ich płynie ze spodziewanego wkładu w rozwój gospodarczy i społeczny, w innowacje technologiczne i organizacyjne, w politykę regionalną. Inaczej niż dawniej, w uniwersytetach widzi się nie tyle samotne „świątynie wiedzy”, co bardzo ważne ogniwa w sieci powiązań łączących badania, edukację, innowacje przemysłowe, zarządzanie technologiami, planowanie regionalne oraz rozwój kultury. Z tego punktu widzenia szczególne zainteresowanie budzą stosunki wyższych uczelni z przemysłem i administracją publiczną, zwłaszcza na szczeblu lokalnym. Uniwersyteckie parki nauki oraz odpryskowe firmy „wysokiej technologii” stają się niemal przedmiotem kultu. W przeciwieństwie do wcześniejszych dekad od badań uniwersyteckich oczekuje się teraz, aby dotyczyły spraw mających choćby potencjalne znaczenie praktyczne i były prowadzone oszczędnie i efektywnie. Zmieniają się formy zarządzania nauką. Na szczeblu krajowym maleje (lub zanika) bezpośrednie administrowanie i odgórne zarządzanie, wzrasta rola wielostronnych konsultacji. Zadaniem ministerstwa jest teraz pełnienie funkcji negocjacyjnych i syntezujących (rozpoznawanie różnych punktów widzenia i intersów ministerstw, instytutów naukowych, przemysłu i innych użytkowników N+T oraz przekładanie ich na dyrektywy polityczne). Na szczeblach niższych, w kierowaniu projektami badawczymi i technologicznymi (realizowanymi niejednokrotnie w dużych zespołach międzynarodowych korzystających z kosztownej aparatury) sięga się coraz częściej do technik menedżerskich, opracowanych wcześniej na potrzeby biznesu. Zmienia się także pojęcie priorytetu. W poprzedniej dekadzie priorytet odnosił się do krótkoterminowych potrzeb artykułowanych przez rynek lub administrację; w l. 1980 do długofalowych potrzeb gospodarczych i społecznych związanych z kształtowaniem się nowego paradygmatu techniczno-gospodarczego. Te długofalowe priorytety ustala się coraz częściej dzięki stosowaniu technik prognostycznych (research foresight). Aby proces prognozowania był skuteczny, a) korzysta się w nim z wielu aktualnych danych o światowych trendach w nauce, technice i gospodarce, b) nadaje się mu charakter wielostronnych konsultacji z udziałem nie tylko producentów, ale i użytkowników wiedzy, c) ogranicza się jego zadanie do identyfikacji głównych trendów (z pozostawieniem placówkom naukowym, stowarzyszeniom i firmom zadania określenia bardziej szczególowych prognoz). W l. 1980. wzrost kosztów uprawiania nauki postawił ostrzej niż dotąd problemy selekcji, odpowiedzialności za powierzone zadania i fundusze (accoutability), efektywności mierzonej porównaniem nakładów i korzyści. Wpłynęło to na rozwój i upowszechnienie odrębnej rachunkowości w zakresie badań, ewaluacji, zarządzania, prognozowania, ustalania priorytetów, tworzenia budżetu nauki. To z kolei pociągnęło za sobą daleko idące zmiany w statystyce B+R/N+T. W ramach programu OECD TEP (The Technology/Economy Programme) podjęto prace nad zintegrowaniem danych statystycznych uprzednio zbieranych, analizowanych i publikowanych osobno, szczególnie w zakresie B+R/N+T (B+R, patenty, TBP, bibliome328 tria), gospodarki (rachunki narodowe, dane makroeknomiczne, dane dotyczące przemysłu i handlu), zasobów ludzkich (kształcenie, szkolenie, zatrudnienie) i środowiska. Rozwinięto nowe wskaźniki dla pomiaru • innowacji i ich dyfuzji; • współzależności dyscyplin naukowych i technologii przemysłowych; • inwestycji niematerialnych; • podaży i popytu na naukowców i inżynierów. Rozwój prognostyki pociągnął za sobą rozwój takich nowych pól bibliometrii, jak cocitation clustering i keyword analysis. W Holandii w latach 1980. skrystalizowała się odrębna od naukowej polityka technologiczna; odpowiedzialność za nią przeniesiono z Ministerstwa Edukacji i Nauki do Ministerstwa Spraw Gospodarczych. W l. 1980. zastosowano tu na większą skalę wskaźniki outputu. Posłużono się nimi m.in. dla oceny zespołów badawczych w ramach polityki koncentracji badań socjologicznych. W roku 1987 zainicjowano 5-letni program rozwoju wskaźników bibliometrycznych dla oceny badań podstawowych. Pod koniec dekady projekt budżetu nauki uwzględniał wskaźniki B+R/N+T i na ich podstawie przedstawiał pozycję nauki holenderskiej na tle innych krajów. W latach 1990. nasiliło się międzynarodowe współzawodnictwo gospodarcze pomiędzy poszczególnymi krajami, regionami i firmami (wskutek m.in. zakończenia zimnej wojny i osłabienia wyścigu zbrojeń; upadku autarkicznego bloku sowieckiego; postępującej globalizacji gospodarki, rozszerzania zasięgu działania na cały świat nawet małych przedsiębiorstw; przeprowadzanej w różnych krajach prywatyzacji i deregulacji; ekspansji gospodarczej państw azjatyckich i postkomunistycznych). „Konkurencyjność gospodarcza” stała się nowym słowem kluczowym polityki, a autor najlepszej książki na jej temat, Michael Porter, nowym guru ekonomii. Polityka naukowa zostaje silniej podporządkowana strategii wzrostu gospodarczego i poprawy konkurencyjności gospodarczej. Ale nie nauka, ale edukacja, jest priorytetem tej strategii. Problematyka polityki naukowej coraz częściej pojawia się w programach rządowych w połączeniu z zagadnieniami edukacji, zatrudnienia, przemysłu i handlu zagranicznego. W programach tych następuje przesunięcie zainteresowania z B+R na wiedzę, obejmującą nie tylko B+R, ale także umiejętności menedżerskie, organizacyjne i językowe, kwalifikacje techniczne, kompetencje kulturalne itd. Tak rozumianą wiedzę określa się jako element każdego procesu społecznego i gospodarczego, każdego produktu i usługi. Wraz z rozszerzaniem zainteresowania z B+R na wiedzę następuje równoległe poszerzenie pojęcia producenta wiedzy (już nie tylko badacze skupieni w uniwersytetach i instytutach państwowych, ale także w przemyśle i organizacjach niedochodowych; już nie tylko badacze, ale także eksperci i analitycy pracujący w firmach doradczych, think tanks itd.). 329 Również i innowację rozumie się szerzej; podkreśla się, że jej sukces zależy od szerokiej grupy instytucji, instrumentów i czynników, od przemysłu po system bankowy, szkolenie zawodowe, a nawet ogólny poziom wiedzy i umiejętności społeczeństwa. Nie tworzenie nowej wiedzy naukowej i technologicznej, ale jej upowszechnianie i zarządzanie stają się głównymi problemami polityki innowacyjnej. W miarę jak wzrasta współpraca między naukowcami, zespołami badawczymi, instytucjami naukowymi, krajami, adresatem tradycyjnej polityki naukowej, wspierającej B+R, są coraz częściej nie poszczególni naukowcy i zespoły badawcze, tylko (międzyinstytucjonalne i międzynarodowe) sieci badawcze. Wsparcie B+R jest też coraz częściej kierowane na opracowanie, przewidywanie następstw lub dostosowanie pewnej dziedziny gospodarki lub życia publicznego do międzynarodowych norm i regulacji. W l. 1990. powraca problem określenia funkcji badań podstawowych. Podkreśla się, że badania te rozczepiły się na (rozszerzający się) obszar badań strategicznych oraz na (kurczący się) obszar badań prowadzonych „z czystej ciekawości”, bez zewnętrznej presji i bez myśli o jakichkolwiek zastosowaniach praktycznych (np. matematyka teoretyczna, fizyka cząsteczek). Potrzebę wspierania badań podstawowych uzasadnia się dziś nie tyle ich samoistną rolą, wartościami poznawczymi i znaczeniem dla kultury, co użytecznością ze względu na rozwój technologii. Poszukiwania nowych technologii są ograniczone zarówno przez interesy, praktyki i zasoby finansowe firm, jak i przez „trajektorie rozwoju” samych technologii. Badania podstawowe stale zasilają laboratoria przemysłowe w nowe narzędzia, metody i techniki analityczne, idee i koncepcje. Są one nieustannym źródłem fermentu i różnorodności. Jako takie, potrafią przekraczać ograniczenia rynkowe i technologiczne w rozwoju techniki. Zwraca się uwagę, że nie ma obiektywnej, naukowej, optymalnej miary odsetka krajowych nakładów na B+R, który powinien być przeznaczony na badania podstawowe. Doświadczenia krajów OECD wskazują, że odsetek ten waha się od 10% do 20%. Jeśli spada poniżej 10%, grozi to zahamowaniem innowacji w przemyśle, nastawionym coraz bardziej na wytwarzanie wyrobów wysokiej technologii; jeśli przekracza 20%, jest oznaką, że krajowy przemysł jest niezdolny do wchłaniania (poprzez badania stosowane) wyników badań podstawowych (co cechuje kraje rozwijające się). Bardzo mała część B+R zależy dziś od decyzji podjętych przez samych badaczy. Podkreśla się, że „środowisko naukowe musi zawrzeć nowy kontrakt z politykami, oparty nie na żądaniach autonomii i stałego wzrostu budżetu nauki, lecz na realizacji jasno sprecyzowanego programu badawczego nastawionego na cele społeczne i gospodarcze”. Opisane tu przemiany rzuciły nowe wyzwanie statystykom. Nowa generacja statystyki outputu, której opracowania podjęło się OECD, powinna pokazać, w jaki sposób poszczególne kraje przekształcają wiedzę we wzrost gospodarczy i wzrost zatrudnienia. Pozwoli to rządom na prowadzenie stałej oceny skuteczności polityk innowacyjnych oraz na wprowadzanie do nich stosownych korekt. 330 Zadaniem do wykonania pozostaje stworzenie statystyki wiedzy odnoszącej się do spraw gospodarczych i społecznych (różnej od statystyki B+R). W Holandii w latach 1990. w związku z ograniczeniami budżetowymi polityka naukowa przybrała bardziej selektywny i strategiczny charakter. Dla pomocy w dokonywaniu strategicznych wyborów powołano w roku 1992 Komitet Konsultacyjny Przed-glądu Badań (The Consultative Committee for Research Foresight, OCV) oraz Holenderskie Obserwatorium Nauki i Techniki (NOWT, 1992). NOWT ma charakter konsorcjum trzech instytutów: Centrum Studiów nad Nauką i Techniką (CWTS), Instytutu Badań nad Innowacją i Technologią (MERIT) oraz Holenderskiej Agencji Informacji Badawczych (NBOI). Po dwuletniej pracy nowa placówka wydała pierwszą z serii dwuletnich raportów pt. Wskaźniki Nauki i Techniki (1994) oceniających stan i trendy w nauce i technice w Holandii w porównaniu z innymi krajami. Kolejny pięcioletni program rozwoju bibliometrii (1992-1997) rozszerzył swoje zadania (oprócz oceny poziomu badań także studia nad „kartografią nauki” oraz powiązaniami nauki z techniką) oraz bazę źródłową (oprócz danych bibliometrycznych także m.in. informacje patentowe oraz dane o formalnych powiązaniach badawczych). Podjęto dyskusję nad rozszerzeniem kryteriów oceny wniosków badawczych o kryterium użyteczności społecznej. W ramach publikacji budżetu nauki 1991 zamieszczono „Białą Księgę Wskaźników Nauki i Techniki”. Obejmowała ona typologię wskaźników, opis ich funkcji i rozwoju historycznego oraz informację o prowadzonych badaniach w zakresie statystyki N+T. Wszystkie opisane tu w latach 1990. przedsięwzięcia wynikły z przekonania, że w latach 1990. zagregowane dane dotyczące inputu przestały być wystarczające dla formułowania polityki naukowej; obecnie potrzeba znacznie bardziej szczegółowych informacji o placówkach naukowych, dyscyplinach, celach społeczno-gospodarczych badań oraz produkcji naukowej i technologicznej. Bibliografia Barfield Claude E. 1982, Science Policy from Ford to Reagan Change and Continuity American Enterprise Institute for Public Policy Research Washington and London Blume Stuart 1985, The development of Dutch science policy in international perspective 1965-1985, The Hague: Distributiecentrum Overheidspublikaties, Handbook of Science and Technology Studies, 1995, ed. S. Jasanoff, G.E. Markle, J.C. Petersen, T. Pinch, s. 576; Jabłecka Julita, Koordynacja badań akademickich – teorie, koncepcje i rzeczywistość, CBPNiSW, Warszawa 2002 Jacq François 1994, The Emergence of French Research Policy: Chance or Necessity? w: Science and Power. The Historical Foundations of Research Policies in Europe, European Commission 1994 331 Kraemer Sylvia K. 2006, Science and Technology Policy in the United States. Open Systems in Action Rutgers University Press New Brunswick, New Jersey and London Krishna V.V. 2001, Changing policy cultures, phases and trends in science and technology in India, “Science and Public Policy”, vol. 28, no. 3 Ruivo Beatriz, `Phases` or `paradigms` of science policy?, “Science and Public Policy”, vol. 21, no. 3, June 1994, s. 157-164; Salomon Jean-Jacques, 1970. Science et politique. Paris: Le Seuil. Ré-édition, Paris: Économica. Schon Donald A. 1967, Technology and change; the new Heraclitus, New York, Delacorte Press, s. 48. Science and Technology in Times of www.nsf.gov/sbe/srs/seind00/access/c1/c1i.htm Transition: the 1940s and 1990s, Smith Bruce L.R. 1990, American science policy since world war II, Brookings Institution Press Stichweh Rudolf 1994, Differentiation of Science and Politics: Science Policy in the 19th and 20th Century w: Science and Power. The Historical Foundations of Research Policies in Europe, European Commission 1994 Teich Albert H. 1997, The political context of science priority-setting in the United States, w: Evaluating science and scientists. An East-West Dialogue on Research Evaluation in Post-Communist Europe, ed. by Mark S. Frankel and Jane Cave. The uncertain quest: science, technology, and development 1994, ed. by Jean-Jacques Salomon, Francisco R. Sagasti, and Céline Sachs-Jeantet United Nations University Press, Tokyo - New York – Paris, The United Nations University. FAZY ROZWOJU GOSPODARCZEGO Wg znanej i (w wielu odmianach) często stosowanej taksonomii Michael Porter’a, gospodarki „dościgające” (catching up) przechodzą przez trzy fazy rozwoju gospodarczego: fazę sterowaną przez czynniki wytwórcze (factor-driven), fazę kierowaną przez inwestycje oraz fazę pobudzaną przez innowacje. Końcowa faza, gdy dzięki zmianom doganiają one czołówkę, zwana jest fazą „napędzaną dobrobytem” (wealth-driven). W fazie sterowanej „przez czynniki wytwórcze” źródłem wzrostu gospodarczego jest przede wszystkim mobilizacja podstawowych czynników produkcji: ziemi, surowców lub niewykwalifikowanej siły roboczej. Własne wysiłki, import i inwestycje zagraniczne mogą wprowadzić kraj w fazę „sterowaną inwestycjami”, w której inwestuje się w nowoczesne urządzenia, procesy i produkty technologiczne. Przejście do następnej fazy napędzanej innowacjami, polega na przekształceniu gospodarki importującej technologie w gospodarkę wytwarzającą technologie. Każda faza charakteryzuje się innymi wyzwaniami. W fazie sterowanej „przez czynniki wytwórcze” główne wyzwanie polega na tym, aby podstawowe czynniki – ziemia, praca i kapitał – właściwie funkcjonowały; w fazie pobudzanej inwestycjami głównym wyzwaniem jest stworzenie powiązań z międzynarodowym systemem produkcji przez dostateczny napływ inwestycji zagranicznych; w fazie napędzanej innowacjami celem jest zapewnienie wysokiego poziomu innowacji i komercjalizacji nowych technologii. Czynniki wzrostu zależą zatem od fazy rozwoju. Zdolność łączenia różnych czynników rozwojowych zależy od rodzaju obranej strategii. Np. istnieje trade off pomiędzy krajowym B+R a technologiami importowanymi przez bezpośrednie inwestycje zagraniczne. 332 W fazie sterowanej „przez czynniki wytwórcze” źródłem wzrostu gospodarczego jest przede wszystkim mobilizacja podstawowych czynników produkcji: ziemi, surowców lub niewykwalifikowanej siły roboczej. „Wzlot” (take off) do stałego wzrostu jest możliwy dzięki znalezieniu obszaru przewagi porównawczej dla inwestycji dostępnych nadwyżek. Kraje „odrabiające opóźnienia” mogą zaczynać od zadań, do których są najlepiej przygotowane, starając się podejmować nowe zadania, wymagające wyższych kompetencji i lepszej koordynacji [UNIDO 2002/2003]. Wzorce konsumpcji muszą być stopniowo przekształcane we wzorce inwestycji, tak aby zysk był re-inwestowany, a nie przejadany. Kompetencje muszą być cenione wyżej od powiązań rodzinnych lub relacji patron-klient. Muszą także wyłonić się siły pro-modernizacyjne [Rostow 1960]. Aby kraj mógł “poderwać się do lotu”, potrzebuje pewnych wyjściowych aktywów, określanych jako „kompetencje społeczne” (social capabilities) i kongruencja technologiczna (technological congruence). Kompetencje społeczne oznaczają istnienie właściwych ram instytucjonalnych, zdolność rządu do prowadzenia skutecznej polityki gospodarczej oraz (pewne) technologiczne umiejętności społeczeństwa. Kongruencja technologiczna – zdolność absorpcji technologii krajów bardziej rozwiniętych gospodarczo [OECD 1998]. W omawianej fazie stopa inwestycji i działalności innowacyjnej jest niska, a główna forma działalności gospodarczej polega na montażu, rolnictwie i kopalnictwie oraz pracochłonnej produkcji. W kraju działa zaledwie kilka przedsiębiorstw międzynarodowych. Technologiczne „odrabianie zaległości” polega na pozyskiwaniu oraz asymilacji technologii na drodze importu, inwestycji zagranicznych oraz naśladownictwu. Najważniejsze mechanizmy podnoszenia poziomu wiedzy to kształcenie oraz transfer technologii zagranicznych [Wu 2000]. Własne wysiłki, import i inwestycje zagraniczne mogą wprowadzić kraj w fazę „sterowaną inwestycjami”, w której inwestuje się w nowoczesne urządzenia, procesy i produkty technologiczne. Handel, inwestycje zagraniczne, joint ventures oraz outsourcing służą jako osi integrujące indywidualne sieci powiązań gospodarczych i pomagają zintegrować krajową gospodarkę z globalnymi sieciami produkcyjnymi oraz (następnie) technologicznymi. Kraje ścigające traktują te sieci jako aktywa i starają się wykorzystać je dla usprawnienia produkcji. Ułatwiają one usprawnienia technologii i napływ zagranicznego kapitału i technologii. Ściągają one kapitał zagraniczny dla produkcji masowej standardowych technologii, lecz jednocześnie stale starają się przechodzić od wytwarzania wyrobów pracochłonnych do produkcji dóbr bardziej złożonych, technologicznie zaawansowanych i innowacyjnych. Podstawą gospodarki są przemysły przetwórcze. Często lokalne firmy nie umiejąc samodzielnie uruchomić produkcji nabywają „pakiety” zagranicznych technologii, które obejmują proces montażu, specyfikacje produktu, produkcyjny know how, szkolenia, informacje oraz komponenty. Produkcja polega głównie na montażu standardowych produktów. Do tego celu wymagany jest wyłącznie własny wysiłek inżynierski. Z chwilą gdy technologia jest wdrożona, produkcja i projektowanie technologii (design) szybko upowszechniają się po całym kraju. Wzrost konkurencji pobudza własny technologiczny wysiłek asymilacji technologii zagranicznych w celu wytwarzania coraz bardziej zróżni333 cowanych wyrobów. Punkt ciężkości wysiłku technologicznego leży bardziej w inżynierii i (w mniejszym stopniu) pracach rozwojowych niż badaniach naukowych. Stosunkowo pomyślne przyswojenie ogólnych technologii produkcji oraz wzrastający nacisk na promocję eksportu, łącznie ze wzrostem kompetencji miejscowego personelu naukowego i inżynieryjnego prowadzi do stopniowego ulepszania dojrzałych technologii. Importowane technologie są stosowane w różnych liniach produkcyjnych dzięki pracom inżynieryjnym, rozwojowym, a nawet badawczym [Conceição 2002; Radosevic 2004]. Rozwój eksportu jest siłą pociągową gospodarki, a sektory o stopniowo wzrastającym zaawansowaniu technologicznym odgrywają we wzroście dominującą rolę. Wielkość i zawartość eksportu zmienia się dzięki akumulacji kapitału finansowego i materialnego, stałemu ulepszaniu produktów, procesów i procedur. Zmiana technologiczna nie jest łatwa ani nieunikniona, gdy kraj otwiera się na konkurencję. Wymaga ona wspólnego wysiłku podejmowanego przez rządy, przemysł oraz (szczególnie w późniejszych stadiach) badań naukowych, jak również polityki interwencjonistycznej (zachęty podatkowe, subsydia, regulacje) oraz sieci biznesu [Guerrieri 2007]. Kraj „odrabiający opóźnienia”, który stawia na przetwórstwo eksportowe musi wprowadzać standardy i kontrolę jakości. W efekcie, zyskuje doświadczenie z metodami masowej produkcji, które z czasem może wykorzystać dla ulepszenia jakości wyrobów coraz wyższych technologii [OECD 1992]. “Zmiana na lepsze” technologicznych kompetencji jest możliwa we współpracy z zmieniającymi się rynkami, polityką rządową, strategią korporacyjną i kulturą społeczną. Polityki rządowe mają na celu uruchomienie i wzmocnienie transferu technologii, odwrócenie drenażu mózgów, B+R w biznesie oraz branżowe instytuty badawcze. W przypadku słabości nauki uniwersyteckiej rządy powołują rządowe instytuty badawcze, ściągając do nich wykształconych za granicą naukowców i inżynierów. Rozwijają się technologiczne kompetencje firm (szkolenia, transfer zagranicznych technologii, mobilność zatrudnionych posiadających wysokie umiejętności techniczne) [Kim 2000; Juma 2002]. Technologiczne umiejętności „spóźnialskich” są stopniowo ulepszane dzięki uczeniu się przez „odwróconą inżynierię” importowanych dóbr oraz poprzez B+R. Ulepsza się zaawansowane technologie pozyskane na drodze licencji (jak w Polsce kasy rejestracyjne Optimusa) lub też znajduje się dla nich zastosowania w mniej zaawansowanych technologiach. Technologiczne dościganie w coraz większym stopniu polega na twórczej imitacji oraz na innowacji „pierwszej w świecie” [Kim 2000]. Przejście do następnej fazy napędzanej innowacjami, polega na przekształceniu gospodarki importującej technologie w gospodarkę wytwarzającą technologie. Przynajmniej w niektórych sektorach gospodarki kraj przesuwa światowy front rozwoju technologii. Faza sterowana innowacjami cechuje się wykorzystywaniem złożonych technologicznych rozwiązań, wytwarzaniem nauko-chłonnych innowacji, oraz ciągłym uczeniem się siły roboczej (także kształceniem opartym na badaniach naukowych), które umożliwia szybkie przyswajanie nowych technologii. Wzrasta i pogłębia się udział sektorów przemysłu na rynkach międzynarodowych. W działalności firm rośnie znaczenie nowej 334 wiedzy oraz kompetencji technologicznych firm. Zwiększa się stopa wzrostu z inwestycji w B+R. Kraj podejmuje się inwestycji zagranicznych. Gospodarka staje się bardziej odporna na szoki zewnętrzne. „Zmiana na lepsze” w fazie innowacji często polega na dostosowaniu standaryzowanej produkcji do wymagań wysoce wyspecjalizowanych rynków, w których o konkurencyjności decydują nie tyle koszty, co jakość. W pewnych przypadkach zakłada ona przyjęcie nowych technologii, w innych ulepszenie procesów produkcyjnych lub wiedzy o zmieniających się wzorach popytu [Hershberg]. „Czasami polega na rezygnacji poprzez outsourcing zagraniczny z ogniw produkcji charakteryzujących się niższą wartością dodana na rzecz pogłębiania specjalizacji w ogniwach cechujących się wyższą wartością dodaną.” [Pietrobelli 2002] Ważną właściwością fazy innowacji jest zdolność firm do integracji, koordynacji i kontroli międzynarodowej produkcji i sieci technologicznych. Przedsiębiorstwa odważniej rozwijają strategie wzrostu (ekspansja wewnątrz łańcucha wartości, np. hurtownik staje się także sprzedawcą detalicznym, rozwija się nowe produkty i usługi, zakłada nowe kanały dystrybucji, penetruje nowe rynki geograficzne i segmenty popytu) [Zook 2004]. Technologiczne uczenie się (jak przyjmować i przyswajać oraz zmieniać istniejące technologie) pozwala przedsiębiorstwom tworzyć nowe technologie oraz rozwijać nowe procesy w odpowiedzi na zmieniające się warunki ekonomiczne [Kim 2000]. Podczas gdy gospodarki „odrabiające opóźnienia” mogą doświadczać szybkiego wzrostu gospodarczego oraz przeprowadzać zmiany struktur gospodarczych, prędzej czy później ich potencjał „chwytania” (catch-up) jest wyczerpany i wtedy poszerzają one wewnętrzną bazę naukową i technologiczną [National Innovation Systems 1998]. W fazie „pchanej przez innowacje”, w której struktura przemysłu ewoluuje w stronę bardziej zaawansowanych technologicznie produktów i sektorów B+R odgrywa coraz większą rolę jako czynnik dościgania i wzrostu [Pietrobelli 2002]. Różnice pomiędzy krajami ujmowane w kategoriach czysto technologicznych kompetencji, np. patentowanie, stają się ważniejsze w wyjaśnianiu różnic wzrostu gospodarczego [Verspagen 2001]. Przejście od polityki wspierania pracochłonnych gałęzi przemysłu do wspierania gałęzi wysokiej techniki (lub polityki podnoszenia poziomu technologicznego gałęzi średniej i niskiej techniki) owocuje w gospodarce wzrostem umiejętności uczenia się, innowacji oraz powiązań z sektorami nauko-chłonnymi [Dietrichs 1995]. Gdy technologia jest prosta i dojrzała, jak to się działo w poprzednich fazach, miejscowe firmy mogą stosować „odwróconą inżynierię” lub (gdy okaże się to trudne) mogą kupować i wdrażać licencje. W fazie inwestycji przedsiębiorstwa wzmacniają niekiedy poziom swego B+R celem powiększenia siły w negocjacjach technologicznych. W fazie innowacji sektor prywatny czasem wkracza na światowe rynki, aby być bliżej frontu technologicznego. Obejmuje to zakładanie zagranicznych stacji badawczo-rozwojowych, fuzje i nabywanie zagranicznych firm wysokiej techniki oraz strategiczne umowy z międzynarodowymi koncernami [Kim 2000]. Gdy rozszerzają się jego technologiczne kompetencje, firmy mogą stawać w obliczu barier w pozyskiwaniu zewnętrznych technolo335 gii. Wówczas to rządowe organizacje B+R przenoszą swoje zainteresowania z badań podstawowych na badania stosowane rozwój [OECD 1992]. Istotnym czynnikiem w procesie innowacji jest zdolność łączenia różnych rodzajów wiedzy i umiejętności w kontekście innowacji oraz w ramach coraz bardziej integrującego się międzynarodowego świata nauki i technologii [Metcalfe 2000]. Polityki rządowe mają na celu wspieranie badań podstawowych na uniwersytetach, badania stosowane “ukierunkowane na misję” w branżowych instytutach badawczo-rozwojowych, B+R biznesu, globalizację B+R oraz pozyskiwanie wysoko wykwalifikowanego personelu z zagranicy [Kim 2000]. Bibliografia Bart Verspagen, Economic Growth And Technological Change: An Evolutionary Interpretation, STI Working Papers 2001/1. Calestous Juma and Norman Clark, Technological Catch-Up: Opportunities and Challenges for Developing Countries, January 2002. Carlo Pietrobelli, Industrial Districts” Evolution and Technological Regimes: Italy and Taiwan, Setembro, 2002. Chris Zook, James Allen, Strategie ekspansji biznesu, ‘Gazeta Wyborcza” 7-8 2 2004. Dieter Ernst, Catching-up, crisis and truncated industrial upgrading. Eric Hershberg, Global Restructuring, Knowledge and Learning: Notes on Industrial Upgrading and Development, Working Paper No. 15. Espen Dietrichs, Adopting a “High-Tech” Policy in a “Low-Tech” Industry. The Case of Aquaculture, STEP rapport Oslo, June 1995. Industrial Development Report 2002/2003. Competing through Innovation and Learning, UNIDO. J. S. Metcalfe, Science, Technology and Innovation Policy in Developing Economies Fourth Draft, 21st July 2000. Linsu Kim, The dynamics of technological learning in industrialisation, The United Nations University, Discussion Paper Series, October 2000. Maarit Lindström, Globalisation and economic integration – what challenges economies in transition?. Michael E. Porter, Jeffrey D. Sachs, John W. McArthur, Executive Summary: Competetiveness and Stages of Economic Growth, World Economic Forum, Global Competitiveness Report 2001-2002. Michael E. Porter, The Competitive Advantage of Nations, 1990. National Innovation Systems: Analytical Findings, OECD 23-24 November 1998. P. Guerrieri, Technology and Structural Change in Trade of the CEE Countries, NATO Advanced Workshop Quantitative Studies for Science and Technology Policy in Transition Countries, Moscow, October 23-25 1997, mszp. Pedro Conceição, Manuel Heitor and Pedro Oliveira, Technology Policies And Strategies For Late Industrialized Countries. Slavo Radosevic, European Integration and Complementarities Driven Network Alignment: The Case of ABB in Central and Eastern Europe, Centre for the Study of Economic and Social Change in Europe: Working Papers, February 2002. Slavo Radosevic, Growth Of Enterprises Through Alliances In Central Europe, Centre for the Study of Economic and Social Change in Europe: Working Papers. February 2004; 336 Stanisław Kubielas, Technology Transfer and the Restructuring of New Market Economies: The Case of Poland, SPRU, March 1996. Tarmo Kalvet, Tarmo Pihl, Marek Tiits, Analysis of the Estonian ICT Sector Innovation System, Tartu 2002. Technology and the Economy. The Key Relationships, OECD, Paris 1992. W.W. Rostow, The stages of economic growth, Cambridge 1960. Xiaobo Wu, Zhengwei Li, Globalization and leapfrogging: China”s Auto Parts Industry. GOSPODARKA OPARTA NA WIEDZY [Knowledge-Based Economy] Gospodarki wiedzy opiera się na wykorzystywaniu wiedzy do wytwarzania wartości materialnych i niematerialnych. Zwrot ten został spopularyzowany przez Petera Druckera w tytule rozdziału 12 w książce Wiek nieciągłości (The Age of Discontinuity, 1968). OECD określa gospodarkę wiedzy jako „opartą bezpośrednio na produkcji, dystrybucji i wykorzystywaniu wiedzy i informacji” [OECD 1996]. Gospodarka wiedzy, w przeciwieństwie do wszystkich poprzednich, nie jest gospodarką rzadkości (scarcity) lecz obfitości: w przeciwieństwie do większości zasobów, które wyczerpują się w miarę ich wykorzystywania, informacją i wiedzą można się dzielić: ich zasoby rosną dzięki aplikacji. Kluczowym elementem gospodarki opartej na wiedzy jest przewaga wykorzystywania aktywów niematerialnych nad wykorzystywaniem ziemi, pracy kapitału fizycznego lub zasobów naturalnych. Bibliografia Wikipedia 2014 Knowledge-Based Economy OECD 1996 The knowledge based economy Powell Walter W. and Kaisa Snellman 2004, The Knowledge Economy, “Annu. Rev. Sociol.” 30:199–220 GOSPODARKA UCZĄCA SIĘ [Learning economy, Economy of learning] Istotą koncepcji “Gospodarki uczącej się” jest pogląd, że w nowoczesnych gospodarkach wiedza jest kluczowym zasobem, a interaktywne uczenie się (firm, regionów i narodów) najważniejszym procesem [Wikipedia 2014]. Autorzy koncepcji – Archibugi i Lundvall – właśnie w uczeniu się (a nie w samym stosowaniu wiedzy) upatrują najważniejszą a cechę współczesnych gospodarek. Wg Lundvalla głównym celem polityki innowacyjnej powinien być wzrost możliwości uczenia się firm, instytucjami naukowych i ludzi. Kluczowe obszary dla takiej polityki to rozwój zasobów ludzkich, rozwój organizacji firm, tworzenie sieci, usługi biznesowe i uczelnie [Archibugi 2001]. Pojęcie gospodarki uczącej się w myśli ekonomicznej oznacza przesunięcie punktu ciężkości z traktowania gospodarki jako systemu alokacji na ujmowanie jej jako procesu 337 uczenia się. Przedtem wskazywano na „niedoskonałości alokacji”, teraz wskazuje się na „niedoskonałości uczenia się”. Przejście z ekonomii alokacji na ekonomię uczenia się prowadzi do szukania luk, barier i szans w innych obszarach działań. Skłania do zwracania większej uwagi na problemy interakcji, koordynacji, organizacji, norm i zasad, komunikacji, kooperacji, kształcenia, wzajemnego uczenia się, bliskości geograficznej [Hedberg 2003]. . Od zdolności uczenia się jednostek, firm, regionów i krajów zależy ich efektywność gospodarcza. Uczenie się jest konieczne zarówno w celu adaptacji do szybko zmieniających się rynków i warunków technicznych, jak i w celu wprowadzania innowacji produktów, procesów, procesów form organizacji [Rycroft 2004]. Uczenie się nie jest prostą adaptacją. Adaptacja to proces dostosowania do nowych okoliczności na zasadach ad hoc. Uczenie się ma inny charakter. To kumulatywny proces, dzięki któremu nowa wiedza przenika nowe zasady, konwencje, rutyny i filtry. Uczenie się to od modyfikacji zasad i rutyn aż po przekształcenie wyobrażeń, celów, norm i strategii. Uczenie się wymaga dobrze zdefiniowanego milieu [Hedberg 2003]. Wg jednej z koncepcji, “uczenie się gospodarki” zachodzi na pierwszym, drugim i trzecim poziomie. Pierwszy poziom, to uczenie się wewnątrz przedsiębiorstwa. Drugi poziom, to uczenie się dzięki interakcjom przedsiębiorstw, dzięki podwykonawstwu, konsorcjom, partnerstwu, joint ventures. Trzeci poziom to „meta-uczenie się”, uczenie jak się uczyć, które zachodzi zarówno wewnątrz, jak i na zewnątrz przedsiębiorstw, zarówno całym systemie gospodarczym. Jego skuteczność zależy od ram instytucjonalnych gospodarki. Pewne gospodarki „uczą się” szybciej od innych, dzięki ramom instytucjonalnym wspierającym uczenie się na trzecim poziomie [Matthews 1996]. Uczenie się zapewnia możliwość inteligentnej reakcji na zmieniające się uwarunkowania zewnętrzne. Jest ono oparte na tworzeniu nowych, przekształcaniu i pozbywaniu się istniejących rutyn i kompetencji. Istnieją takie rodzaje kompetencji, których siedliskiem są nie tyle poszczególne organizacje, co instytucje obejmujące zarówno sektory prywatny, jak i publiczny. Uczenie się gospodarki to umiejętność eksperymentowania z nowymi formami organizacyjnymi, adaptowania skutecznych i likwidowania nieskutecznych, oraz ich ulepszania dzięki kontrolowanej wariacji i selekcji. Np. rozwijanie nowych branż i likwidacja starych, tworzenie warunków ułatwiających powstawanie firm w nowych sektorach oraz adaptację firm w istniejących sektorach. Upowszechnienie „rynkowej i technologicznej inteligencji” jest narzędziem uczenia się [Matthews 1996]. Uczenie się zachodzi przede wszystkim w sieciach. Sieci i powiązania sieciowe są raczej heterarchiczne niż hierarchiczne. Są one oparte nie na władzy biurokratycznej czy administracyjnej, ani na powiązaniach rynkowych, tylko wymianie partnerskiej. Luźne powiązania wewnątrz sieci stwarzają korzystne warunki dla interaktywnego uczenia się i innowacji. Sieci otwierają dostęp do różnych źródeł informacji i w ten sposób oferują lepsze możliwości uczenia się niż organizacje hierarchiczne. Zazwyczaj oparte są one na wzajemnej wymianie pomiędzy partnerami, wzajemnym zaufaniu, rozumieniu potrzeby uczenia się. Sieci te przybierają rozmaite formy, takie jak np. współpraca pomiędzy fir338 mami w B+R, kontakty wykonawców i pod-wykonawców, producentów i użytkowników itd. [Gregersen]. Najbardziej wartościowe i złożone technologie w coraz większym stopniu odnawiają się dzięki samo-organizującym sieciom. Sieci to te powiązane ze sobą organizacje (firmy, uniwersytety, rządowe agencje), które tworzą, pozyskują i łączą różną wiedzę i umiejętności wymagane dla tworzenia i komercjalizacji złożonych technologii. Samo-organizacja to zdolność sieci do łączenia i rekombinacji umiejętności uczenia się bez scentralizowanego, szczegółowego przewodnictwa menedżerskiego. Rozprzestrzenianie sieci samo-organizującej innowacji można wiązać z wieloma czynnikami, lecz najważniejszy to wzrost globalizacji [Rycroft 2004]. Jedno z najważniejszych ograniczeń globalizacji to przestrzenna mobilność wiedzy. Podczas gdy informację i wiedzę skodyfikowaną można łatwo przenosić, know how i wiedza poza-słowna nie jest tak łatwo przenaszalna. W gospodarce uczącej się kluczowe elementy wiedzy pozostają specyficzne i poza-słowne, zakorzenione w określonej organizacji i miejscu [Lundvall 1997]. Koncepcja “Gospodarki uczącej się” - podobnie jak koncepcja „Krajowego Systemu Innowacji” – ma wiele rozwinięć i aplikacji; mówi się także o „uczących się regionach” i „uczących się miastach”. Literatura na temat „miast uczących się” i „uczących się regionów” odnosi się do uczenia się w sensie zdobywania wiedzy, pogłębiania rozumienia i umiejętności nie tylko poszczególnych osób (poprzez udział w jakiejś formie kształcenia, formalnego lub nieformalnego) ale także w znaczeniu „nauki”, która odbywa się w ramach i pomiędzy organizacjami (firmami, instytutami badawczymi, agencjami rozwoju gospodarczego, itd.). Nauka jest źródłem ciągłych innowacji (w zakresie produktów, procesów i organizacji pracy). Innowacje najczęściej rodzą się w środowisku instytucjonalnym, w którym „nauka” jest wspierana poprzez intensywną wymianę informacji między organizacjami, i gdzie panuje wysoki poziom zaufania pomiędzy organizacjami. Sukces tego rodzaju sieci organizacji zależy od efektywnej wymiany informacji wewnątrz organizacji: aby czerpać korzyści z oddziaływania zewnętrznego, firmy, instytucje publicznych muszą być "organizacjami uczącymi się" [OECD 2001]. Od regionów masowej produkcji do regionów uczących się Region masowej produkcji Region uczący się Podstawy konkurencyjności Porównawcza korzyść oparta na zasobach naturalnych i pracy fizycznej Trwała (sustainable) korzyść oparta na tworzeniu wiedzy i stałych ulepszeniach System produkcyjny Produkcja masowa: praca fizyczna jako źródło wartości; oddzielenie innowacji od produkcji Produkcja oparta na wiedzy: stałe tworzenie; wiedza jako źródło wartości; synteza innowacji i produkcji Infrastruktura produkcyjna Bliskie powiązania z dostawcami Sieci firm oraz powiązania z do- 339 stawcami jako źródła innowacji Infrastruktura ludzka Praca o niskich kwalifikacjach i niskich kosztach. Siła robocza oraz tryb kształceń i szkoleń systemu Taylora. „Robotnicy wiedzy” (knowledge workers). Stałe ulepszanie zasobów ludzkich. Stałe kształcenie i szkolenie. Globalnie zorientowana infrastruktura fizyczna i komunikacyjna. Elektroniczna wymiana danych Infrastruktura fizyczna i komunikacyjna Infrastruktura fizyczna zorientowana na kraj Relacje wzajemnie zależne. Organizacja sieciowa. Plastyczne ramy regulacyjne System zarządzania przemysłowego Powiązania oparte na walce. Nakazowo-kontrolny system zarządzania Powiązania oparte na współpracy i konkurencyjności. Źródło: Mothe 1998. Organizacje uczące się. Zbiór zaleceń dotyczących organizacji uczących się przygotował Ken Ducatel [1998]: Tworząc organizację uczącą się: • Wprowadź cykl `plan, robota, sprawdzenie, działanie` w celu wprowadzania zmian w systematyczny sposób co pozwoli na późniejszą konsolidację doświadczeń; • Kładź nacisk raczej na dane niż na założenia, korzystaj z narzędzi statystycznych, zachęcaj do dokładności, precyzji i dyscypliny w myśleniu; • Zachęcaj do kwestionowania decyzji. • Zachęcaj do systematycznego, dobrze zaprojektowanego i udokumentowanego eksperymentowania w celu testowania nowej wiedzy; • Wynagradzaj podejmowanie ryzyka; • Przeprowadzaj ewaluacje stosując formalne techniki; • Analizuj eksperymenty, tak aby wiedza poza-słowny know how pozyskiwany w trakcie realizacji projektów był przekształcany w możliwy do transferu know why; • Upewnij się, że lekcje są upowszechniane. Uczenie się z doświadczeń • Oceniaj systematycznie rezultaty i przeprowadzaj rutynowe oceny działań; • Ucz się na błędach. Uczenie się od innych • Praktykuj benchmarking; • Badaj raczej praktyki niż rezultaty; • Bądź uważny i systematyczny w swojej pracy; • Wydobywaj idee od klientów o produktach, usługach, zmieniających się preferencjach; • Obserwuj klientów w działaniu. Rozwiń sztukę uważnego słuchania. • Raporty dla podsumowania ustaleń, opisu procesów i zdarzeń; Usystematyzuj rozwiązywanie problemów Eksperymentuj z nowymi podejściami Szybki i skuteczny transfer wiedzy 340 • Dobrze przemyślane study tours; • Rotacja personelu jako środek efektywnego transferu doświadczeń i umiejętności; • Praca zespołowa dla dzielenia się know how i dla tworzenia nowej wiedzy; • Edukacja i szkolenia; • Ewaluacje. Bibliografia Ducatel Ken 1998, Learning and skills in the Knowledge Economy, Druid Working Paper. Gregersen Birgitte, Björn Johnson, Towards a Policy Learning Perspective on the Danish Wind-power Innovation System, http://www.esst.uio.no/posti/workshops/gregers.pdf Hedberg Bo, 2003, How organization learn and unlearn, w: Knowledge, learning and routines. Knowledge and learning, vol. 1, ed. By Nathalie Lazaric and Edward Lorenz. Lundvall Bengt-Åke, Susana Borrás, 1997, The globalising learning economy: Implications for innovation policy, December 1997, http://www.cordis.lu/tser/src/globec.htm Matthews John 1996, Organisational foundations of the knowledge-based economy, in: Employment and Growth in the Knowledge-based Economy, OECD. Morgan Gareth 1997 Obrazy organizacji (oryg. Images of organization 1986) Warszawa PWN. Mothe John de la i Gilles Paquet 1998, Local and Regional Systems of Innovation as Learning Socio-Economies, w: Local and Regional Systems of Innovation, ed. John de la Mothe i Gilles Paquet, Boston, Mass., Kluwer Academic Publishers. OECD 2001 Cities and Regions in a New Learning Economy, Paris. Rycroft Robert W. and Don E. Kash, 2004, Self-organizing innovation networks: implications for globalization, “Technovation” Volume 24, Issue 3 , March 2004. The Globalizing Learning Economy 2001, Danielle Archibugi and Bengt-Åke Lundvall 2001, (eds.), Oxford: Oxford University Press. Wikipedia Learning Economy 2014. INTELIGENCJA ROZPROSZONA Inteligencja rozproszona (ang. distributed intelligence, collaborative intelligence) – umiejętność czerpania wiedzy z sieci osób i sieci Internetu, a także tworzenie się współpracy pomiędzy wieloma sprawcami bez uprzednio zdefiniowanego planu i bez jasnego organu dowodzącego. Inteligencja rozproszona związana jest ze zjawiskiem globalizacji, które ułatwiło wymianę danych na poziomie globalnym i pozwoliło na stworzenie nowych perspektyw w, m.in., edukacji. W informatyce istnieje analogiczny termin, rozproszona informatyka (ang. distributed informatics), oznaczający współtworzenie narzędzi informatycznych przez wielu nieskoordynowanych sprawców. Bibliografia Inteligencja rozproszona, Wikipedia 2014. 341 INTELIGENTNA SPECJALIZACJA [Smart Specialisation] „Inteligentna specjalizacja” (ang. smart specialization) to koncepcja oraz narzędzie planowania strategicznego, służącego do określania i budowania obecnego oraz przyszłego miejsca (pozycji) regionu lub państwa w gospodarce opartej na wiedzy [Kardas 2010]. Koncepcja inteligentnej specjalizacji, opracowana w roku 2008, stała się od końca I dekady XXI wieku przedmiotem dużego zainteresowania ze strony przedstawicieli świata nauki, biznesu i administracji publicznej. „Odniesienie do „inteligentnej specjalizacji” znalazło się m.in. w dokumencie Europa 2020, opublikowanym przez Komisję Europejską w marcu 2010 roku [Kardas 2010]. W Strategii „Europa 2020” oraz w działaniach Komisji UE „inteligentna specjalizacja” jest kluczowym rozwiązaniem dla unikania rozproszenia funduszy badawczych UE, polegającym na wspieraniu tych aktywów – badań, innowacji, zasobów ludzkich i finansowych - które wynikają z istniejących lub przyszłych przewag komparatywnych i są najlepsze z punktu widzenia długofalowych interesów gospodarczych, społecznych i ekologicznych regionów i krajów [Rusu 2013]. Strategie inteligentnej specjalizacji różnią się od tradycyjnych inicjatyw polityki przemysłowej. Różnice polegają na • • skupieniu się na konkretnych działaniach, a nie szerokich sektorach, konsultacjach jako niezbędnej fazie w projektowaniu strategii [IPP OECD 2014]. Wsparcie statystyki. Z chwilą opracowania koncepcji i uwzględnienia jej w Strategii „Europa 2020” opublikowano wiele ocen specjalizacji regionalnych, opartych na danych statystycznych [KE 2009b, KE 2010c, Markowska 2012]. Historyczne źródła. „Założenia koncepcji nawiązują m.in. do takich teorii jak: teoria produktu podstawowego, według której drogą do rozwoju regionalnego jest specjalizacja produkcyjna – skupienie się na określonej grupie towarów, które mogą być najbardziej konkurencyjne na rynkach zewnętrznych. Rolę specjalizacji podkreśla się również w koncepcji elastycznej produkcji, zgodnie z którą system oparty na elastycznej produkcji stosowanej przez małe i średnie firmy, które mogą łatwo zmieniać produkcję i dostosowywać ją do warunków rynkowych, zapotrzebowania konsumentów czy nowych rozwiązań technologicznych, pozwala uzyskać im specjalizację, dzięki której łatwiej znajdują niszę rynkową w gospodarce globalnej i mogą być wysoce konkurencyjne w swojej dziedzinie. Teoria elastycznej produkcji wiąże się również z teorią dystryktu przemysłowego Alfreda Marshalla, czyli obszaru na którym koncentrują swoją lokalizację wyspecjalizowane zakłady przemysłowe. Na podobnych założeniach opiera koncepcja klastra (cluster) przedstawiona przez Michaela Portera. Wzajemna kooperacja przedsiębiorstw z danego sektora, współpraca z jednostkami takimi jak uniwersytety, instytucje wspierające biznes, ale i wzajemna konkurencja, sprzyjają specjalizacji firm i 342 regionu, na którym funkcjonuje klaster. Koncepcją, która również posiada wiele elementów wspólnych ze strategią inteligentnej specjalizacji jest strategia rozwoju endogenicznego, czyli opartego na wewnętrznych zasobach i potencjale np. regionu. Potencjał ten rozumiany jest jako możliwe do ujawnienia, dodatkowe możliwości rozwojowe regionu, które tkwić mogą w czynnikach produkcji, potencjale inwestycyjnym czy innowacyjności środowiska regionalnego [Sztorc 2012].” Silne i słabe strony. „Jak podkreślają twórcy koncepcji, inteligentna specjalizacja jest strategią dla wszystkich regionów, nie tylko liderów technologicznych. Jej wdrożenie ma dać Europie szansę na zwiększenie konkurencyjności na rynku globalnym. Za koncepcją przemawia konieczność koncentrowania środków na określonej liczbie priorytetów i celów tak, aby nie rozdrabniać i nie dublować działań. Pozytywne jest również wskazanie na konieczność włączenia do strategii mechanizmów monitorowania i ewaluacji. Jednocześnie jednak koncepcja ta budzi szereg obaw. Szybki rozwój nauki, jaki obecnie obserwujemy powoduje, że nie jesteśmy w stanie dokładnie przewidzieć jakie technologie, w dłuższej perspektywie czasowej, będą rozwijać się w sposób najbardziej dynamiczny, a tym samym oparcie się na jakich dziedzinach zapewni regionom przewagę konkurencyjną. Do pewnego stopnia wskazanie takich obszarów jest oczywiście możliwe np. w ramach badań typu foresight. Przy ich realizacji należy zwrócić szczególną uwagę na sektor przedsiębiorstw – na to, jakie zapotrzebowanie na innowacje zgłaszają firmy i jakie są ich prognozy w zakresie rozwoju danych dziedzin [Sztorc 2012].” Bibliografia EC-IPTS S3 2012, Guide on national/regional Research and Innovation Strategies for Smart Specialisation (RIS3) Foray D. 2009, Understanding “Smart Specialisation”, w: The questions of R&D Specialisation: Perspectives and policy implications, Institute for Perspective Technological Studies - Joint Research Centre, Seville. Foray D., Van Ark B. 2007, Smart specialization in a truly integrated research area is the key to attracting more R&D in Europe, Knowledge Economists Policy Brief n˚ 1, October 2007. Foray Dominique, Paul A. David, & Bronwyn H. Hall, 2011, Smart specialization. From academic idea to political instrument, the surprising career of a concept and the difficulties involved in its implementation, MTEI Working Paper IPP OECD 2014, Smart Specialization Kardas Marcin, 2010, Inteligentna specjalizacja – (nowa) koncepcja polityki innowacyjnej, MNiSW. Komisja Europejska 2009, Przygotowanie się na przyszłość: opracowanie wspólnej strategii w dziedzinie kluczowych technologii wspomagających w UE, KOMUNIKAT KOMISJI DO PARLAMENTU EUROPEJSKIEGO, RADY, EUROPEJSKIEGO KOMITETU EKONOMICZNO-SPOŁECZNEGO I KOMITETU REGIONÓW KOM(2009) 512 wersja ostateczna Bruksela, dnia 30.9.2009 Komisja Europejska 2010, EUROPE 2020 A strategy for smart, sustainable and inclusive growth, COMMUNICATION FROM THE COMMISSION, COM(2010) 2020, Brussels, 3.3.2010 Komisja Europejska 2010b, Document accompanying the Commission Communication on Regional Policy contributing to smart growth in Europe 2020 COMMISSION STAFF WORKING DOCUMENT COM(2010) 553 final Brussels, 6.10.2010 SEC(2010) 1183 343 Komisja Europejska, 2009b, Exploring regional structural and S&T specialisation: implications for policy, Prepared by Dr. Viola Peter and Rainer Frietsch. Komisja Europejska, 2010c, International Science & Technology Specialisation: Where does Europe stand? Prepared by Dr Viola Peter and Nelly Bruno. Komisja Europejska, Inicjatywa rynków pionierskich dla Europy, COM(2007)860, Bruksela 21 grudnia 2007 r. Markowska Małgorzata, Bartłomiej Jefmański, 2012, Fuzzy Classification of European Regions in the Evaluation of Smart Growth, “Przeglad Statystyczny” R. LIX – ZESZYT 1 Rusu Margareta 2013, Smart Specialization a Possible Solution to the New Global Challenges, “Procedia Economics and Finance” 6 Sztorc Elżbieta 2012, Inteligentna specjalizacja – nowe wyzwanie dla regionów, Regioportal. Zerka P., Turning gaps into niches. For a new innovation paradigm in Central Europe, demosEUROPA, Warszawa 2010. INTELIGENTNE MIASTO [Smart city] Pojęcie inteligentnego miasta powstało na skrzyżowaniu pojęć „społeczeństwa wiedzy” (czyli społeczeństwa, w którym kapitał ludzki i społeczny uznaje się za najcenniejszą formę kapitału) i „miasta cyfrowego”. Opiera się ono na spostrzeżeniu, że funkcjonowanie miast nie zależy tylko od wyposażenia ich w twardą infrastrukturę ("kapitał rzeczowy"), ale również, i to w coraz większym stopniu, od dostępności i jakości kapitału intelektualnego i kapitału społecznego jego mieszkańców. Trzy główne wymiary inteligentnego miasta to technologia (integracja infrastruktury i usług opartych na technologiach), ludzie (kształcenie) i zarządzanie w celu wzmocnienia instytucji i zaangażowania obywateli. Teleinformatyka zmieniająca życie i pracę jest kluczem do inteligentnego miasta. Ale inteligentne miasto to także miasto uczące się. Dla powstania inteligentnego miasta potrzebne jest też wsparcie rządu i władz miejskich. Inteligentne miasto nasyca informacją cyfrową infrastrukturę rzeczową celem poprawy komfortu, ułatwiania mobilności, podnoszenia wydajności, oszczędzania energii, poprawy jakości powietrza i wody, identyfikacji i szybkiego rozwiązywania problemów, zbierania danych dla podejmowania lepszych decyzji, oraz udostępniania danych służących współpracy całej społeczności. Jednak wprowadzanie cyfrowej informacji do każdego podsystemu miasta (transport, energia, edukacja, ochrona zdrowia, budynki, infrastruktura, żywność, woda, bezpieczeństwo publiczne) to nie wszystko. Inteligentne miasto powinno to jedna organiczna całość - powiązany system. Nowa „inteligencja miast” tkwi w coraz bardziej efektywnym połączeniu cyfrowych sieci telekomunikacyjnych, czujników i identyfikatorów oraz „oprogramowania” (wiedza i kompetencje poznawcze) [Nam]. W Polsce strategię Smart City dla Krakowskiego Obszaru Metropolitalnego opracowuje Krakowski Park Technologiczny. 344 Bibliografia Nam Taewoo & Theresa A. Pardo, Conceptualizing Smart City with Dimensions of Technology, People, and Institutions, The Proceedings of the 12th Annual International Conference on Digital Government Research. Stawasz Danuta, Dorota Sikora-Fernandez, Maciej Turała, 2012, Koncepcja Smart City jako Wyznacznik Podejmowania Decyzji Związanych z Funkcjonowaniem i Rozwojem Miasta, „Zeszyty Naukowe Uniwersytetu Szczecińskiego” Nr 721 Studia Informatica Nr 29. Smart city, 2014, Wikipedia. INTERES PUBLICZNY „Interes publiczny „jest interesem dającym się potencjalnie odnieść do wielu niezindywidualizowanych adresatów traktowanych jako wspólny podmiot. Interes społeczny sprzyjać ma realizacji interesu indywidualnego, a nie odwrotnie.” „Interes publiczny jest nieostrym pojęciem normatywnym; stanowi element systemu prawnego i wpływa na podejmowane przez administrację działania. Na wykładnię tego pojęcia mają wpływ czynniki zewnętrzne, polityczne, społeczne, gospodarcze i konkretyzuje je sytuacja. Decentralizacja władzy, jako zrzeczenie się odpowiedzialności publicznoprawnej administracji rządowej za wykonywanie części zadań publicznych na rzecz podmiotów spoza administracji rządowej, powoduje „rozwarstwienie” interesu publicznego. Ze względu na upodmiotowienie społeczności lokalnych należy przyjąć koncepcję odrębności interesu lokalnego od interesu państwa [E-Prawnik.pl].” Dyskusja wokół pojęcia „interesu publicznego” skupia się wokół pytań: Jak definiować „interes publiczny”? Jakie działania i polityki leżą w „interesie publicznym”? Kto ma decydować, co leży w interesie publicznym? Rozróżnienie między pojęciami dobra wspólnego i interesu publicznego. Pojęcie dobra wspólnego w średniowiecznych traktatach Tomasza z Akwinu i Suareza miało charakter polityczny. Dobro wspólne było celem dla państwa. Państwo było postrzegane jako narzędzie urzeczywistnienia celów wykraczających poza niego samego. Dobro wspólne polegało na realizacji wielu konkretnych celów wspierających dobro ludzi, takich jak pokój, porządek, dobrobyt, sprawiedliwość i poczucie wspólnoty. Ale dobro wspólne było więcej jednak czymś więcej niż agregacją poszczególnych dóbr. Drugi aspekt powszechności dobra wspólnego to wymóg, aby korzyści dobra wspólnego były dzielone. Dobro wspólne ma zwiększać poczucie dobrostanu poszczególnych osób, ale nie może być sprowadzane do prywatnych korzyści. Nie może być pokoju, porządku, dobrobytu, sprawiedliwości i wspólnoty bez współudziału społeczności; każda osoba zależy od współobywateli. Z biegiem czasu pojęcie dobra wspólnego zostało zastąpione pojęciem interesu publicznego. 345 Wraz z rozpadem średniowiecznego feudalizmu i wzrostem znaczenia narodowych monarchii pojęcie dobra wspólnego coraz częściej było utożsamiane z interesami korony. Było ono używane dla uzasadnienia królewskich żądań w stosunku do poddanych, szczególnie w odniesieniu do poboru podatków koniecznych dla prowadzenia wojen. W oczach poddanych zaczęło być obciążone negatywnymi konotacjami. Rzecznicy interesu publicznego odnosili to pojęcie do prywatnego dobrobytu poszczególnych obywateli. Byli oni zainteresowani zwłaszcza dobrobytem materialnym, własnością i prawami majątkowymi. Rzecznicy interesu publicznego głosili tę ideę przeciwstawiając ją pojęciu dobra publicznego, łączonego z prerogatywami króla i honorem narodu. Interes publiczny zawierał w sobie myśl, że dobrobyt rodzi się z kultywowania prywatnej własności (a nie toczenia wojen). Pojęcie interesu publicznego stało się szeroko znane w ramach liberalnego i demokratycznego buntu przeciw roszczeniom królewskiej, szczególnie w Anglii. Najczęściej pojęcie „interesu publicznego” oznaczało wprost i dość bezkrytycznie realizację osobistych preferencji. "Wspólnota jest to fikcyjne ciało, które składa się z poszczególnych osób uznawanych za stanowiących tę wspólnotę, jak gdyby byli jej członkami. Co zatem znaczy interes wspólnoty? Jest to suma interesów członków, którzy ją tworzą" – pisał Jeremy Bentham (1748-1832). W ten jednak sposób pojęcie „interesu publicznego” gubiło pewne cenne elementy zawarte w średniowiecznym pojęciu „dobra wspólnego”. Bibliografia Benditt Theodore M. 1973, The Public Interest, “Philosophy and Public Affairs”, Vol. 2, No. 3. Douglass Bruce 1980, The Common Good and the Public Interest “Political Theory, Vol. 8, No. 1. E-Prawnik.pl http://e-prawnik.pl/narzedzia/slownik/interes-spoleczny--publiczny-.html INTERESARIUSZE POLITYKI NAUKOWEJ [Research Policy Stakeholders] Termin ten odnosi się do osób, organizacji lub grup formalnych i nieformalnych, będących przedmiotem, pozostających pod wpływem lub też zainteresowanych formułowaniem polityki naukowej. Uważa się, że podczas gdy, że „podmioty polityki” (policy actors) odgrywają aktywną rolę, starając się wpływać na politykę publiczną, interesariusze mogą odgrywać rolę bierną. Aktorzy i interesariusze polityki naukowej mogą obejmować środowisko naukowe, decydentów, działaczy politycznych, urzędników, pracowników służby cywilnej, związki zawodowe, przedsiębiorców, stowarzyszenia zawodowe, ośrodki analityczne, organizacje pozarządowe, media i grupy obywatelskie. Wiele krajów stara się włączać obywateli w formułowanie polityki oraz ustalanie priorytetów badawczych. Pomiędzy stronami uczestniczącymi i zainteresowanymi w formułowaniu zachodzi przepływ informacji, zwany komunikacją polityczną. 346 KAPITAŁ INTELEKTUALNY [Intellectual Capital] Pojęcie kapitału intelektualnego (KI) – definiowane w zarządzaniu jako różnica między wartością rynkową a wartością księgową przedsiębiorstwa – zostało rozszerzone tak, że objęło inne rodzaje skupisk. Określa się nim ogół aktywów niematerialnych ludzi, przedsiębiorstw, społeczności, regionów, które mogą stanowić źródło obecnego i przyszłego dobrobytu kraju [Raport 2008]. Unia Europejska Państwa Regiony - Miasta Firmy - Uniwersytety - NGOs Punktem wyjścia koncepcji kapitału intelektualnego było spostrzeżenie Petera Druckera, że w post-kapitalistycznym społeczeństwie wiedza zastąpi maszyny, kapitał, surowce i pracę jako podstawa działalności gospodarczej. Przewaga konkurencyjna będzie tkwić nie tyle w kapitale fizycznym, takim jak grunty, sprzęt lub urządzenia, co w wartości aktywów niematerialnych oraz wiedzy. Dawniej bogactwa narodów oceniano na podstawie ilości środków trwałych. Dziś coraz częściej bierze się pod uwagę aktywa niematerialne, takie jak zdrowie, edukację, badania i rozwój [Yeh-Yun Lin 2011]. Składniki. Istnieje wiele propozycji klasyfikacji składników kapitału intelektualnego. Wg N. Bontisa na kapitał intelektualny składa się 1) kapitał ludzki – zasób indywidualnej wiedzy pracowników, często trudno kodowalnej i transferowalnej, 2) kapitał strukturalny – procesy i wewnętrzne powiązania organizacyjne, 3) kapitał relacyjny - wiedza osadzona w międzyorganizacyjnych relacjach 4) kapitał społeczny - wzajemne relacje społeczne oparte na zaufaniu jednostek. 347 Dokumenty polityczne. Pojęcie kapitału z koncepcji akademickiej przeszło do dokumentów rządów i organizacji międzynarodowych, np.: Dokumenty Unii Europejskiej: • Konkluzje Rady Europejskiej z 4.2.2011 r. w sprawie energetyki, innowacji i sytuacji gospodarczej • Konkluzje Rady Unii Europejskiej w sprawie: - partnerstw na rzecz badań i innowacji z 6.12.2011 r. - modernizacji szkolnictwa wyższego z 28-29.10.2011 r. - kompetencji kulturowych i kreatywnych z 28-29.10.2011 r. • Pakiet dokumentów dotyczących programu Horyzont 2020 np. działania Marie Skłodowskiej-Curie. Dokumenty Polski: • Raport o Kapitale Intelektualnym Polski, 2008, Warszawa, Zespół Doradców Strategicznych Prezesa Rady Ministrów. • Strategie zintegrowane (np. SIiEG, SRKL, SRKS) • Krajowy Program Badań Organizacje badawcze. Jako przykład pomiaru KI organizacji badawczych można przytoczyć: Austrian Academy of Sciences Intellectual Capital Report 2012. MSP. Podręcznik pomiaru KI w małych i średnich przedsiębiorstwach: Komisja Europejska, RICARDIS 2006, Reporting Intellectual Capital to Augment Research, Development and Innovation in SMEs. Encourage corporate measuring and reporting on research and other forms of intellectual capital. Uczelnie • • • Gaweł-Brudkiewicz Katarzyna, Kapitał intelektualny uczelni wyższej – identyfikacja, pomiar i sprawozdawczość. Fazlagić Jan 2012, Kapitał intelektualny szkoły wyższej z perspektywy studentów, „E-Mentor”. Kapitał Intelektualny Szkół Wyższych 2012, Konferencja na Uczelni Vistula. Miasta • Ernst&Young 2008, Metodologia badania kapitału intelektualnego miast w Polsce. Regiony • • Rószkiewicz Małgorzata, Dorota Węziak, Andrzej Wodecki, 2007, Kapitał Intelektualny Lubelszczyzny – Propozycja Operacjonalizacji i Pomiaru, „Studia Regionalne i Lokalne” Nr 2(28)/2. Jelonek Magdalena, Katarzyna Kwarcińska, Iwona Krzywda, Stanisław Mazur, Marcin Zawicki 2013, Diagnoza kapitału intelektualnego powiatu jasielskiego, Jasło, Kraków. 348 Narody • • • • • • • • • The Ministry of Economic Affairs in The Netherlands, 1998, The Immeasurable Wealth of Knowledge. The Intellectual Capital of the State of Israel, 1999. The Ministry of Economic Affairs in The Netherlands, 1998, The Immeasurable Wealth of Knowledge. Bontis Nick 2002, National Intellectual Capital Index: The Benchmarking of Arab Countries. Bontis Nick 2002, National Intellectual Capital Index: The Benchmarking of Arab Countries. IC report of Croatia, 2002. Raport o Kapitale Intelektualnym Polski, 2008, Warszawa, Zespół Doradców Strategicznych Prezesa Rady Ministrów. Yeh-Yun Lin C, Edvinsson L. 2008, National intellectual capital: comparison of the Nordic countries “J. Intel. Capital”, 9(4): 525-545. Yeh-Yun Lin Carol, Leif Edvinsson 2011, National Intellectual Capital. A Comparison of 40 Countries, Springer. Prace metodologiczne: • • • Edvinsson, L., Stenfelt, C. 1999, Intellectual capital of nations for future wealth creation, “Journal of Human Resource Costing and Accounting”, Vol. 4, No. 1. Amidon, D.M. 2001, The intellectual Capital of Nations. World Bank (2006) Where is the wealth of nations? Measuring Capital for the 21st Century, The International Bank for Reconstruction and Development / The World Bank. Unia Europejska • • • Andriessen D.G. Stam C.D., Intellectual Capital Of The European Union, 2005, Paper For The 7t H Mcmaster World Congress On The Management Of Intellectual Capital And Innovation, Hamilton, Ontario, Canada. Stam Christiaan and Daan Andriessen 2008, Intellectual Capital of the European Union 2008: Measuring the Lisbon Strategy for Growth and Jobs. Navarro José Luis Alfaro, Víctor Raúl López Ruiz and Domingo Nevado Peña 2011, Estimation of intellectual capital in the European Union using a knowledge model, “Zb. Rad. Ekon. fak. Rij” vol. 29 sv. 1 Ważniejsze prace metodologiczne • • • • Serenko Alexander and Nick Bontis, 2004, Meta-Review of Knowledge Management and Intellectual Capital Literature: Citation Impact and Research Productivity Rankings, “Knowledge and Process Management”, Volume 11 Number 3. OECD 2008, W. Richard Frederick, Recent Developments in Intellectual Capital Reporting and their Policy Implications. Ujwary-Gil Anna 2010, Kapitał intelektualny – Problem interpretacji kluczowych terminów, „Organizacja i Kierowanie” nr 2. Hervas-Oliver Jose-Luis, Ronald Rojas, Blanca-Maria Martins, Roberto Cervello´Royo 2011, The overlapping of national IC and innovation systems, “Journal of Intellectual Capital”, Vol. 12 No. 1. 349 Bibliografia Raport o kapitale intelektualnym Polski 2008 Kardas Marcin 2012, Kapitał intelektualny w świetle dokumentów strategicznych¸ prezentacja na konferencji, Vistula, Kapitał intelektualny szkół wyższych, Warszawa 31 maja 2012. Yeh-Yun Lin Carol, Leif Edvinsson 2011, National Intellectual Capital. A Comparison of 40 Countries, Springer. KONWERGENCJA (Convergence) Pojęcie konwergencji w ekonomii (czasami znane jako efekt doganiania) to hipoteza, że dochody na mieszkańca biedniejszych gospodarek rosną szybciej niż w bogatszych gospodarkach. Konwergencja bliska jest pojęciu „doganiania” (catching up). „Doganianie” odnosi się do zdolności jednego kraju do zawężenia luki w produktywności i dochodach w stosunku do kraju lidera, a „konwergencja” do tendencji do zmniejszenia ogólnych różnic w produktywności i dochodach na świecie jako całości. Konwergencja jest ograniczona do grup krajów – tzw. „klubów konwergencji” - w określonych okresach czasu. Konwergencja nie zachodzi dzięki prostemu naśladownictwu. Spóźnialscy (latecomers) też ponoszą koszty, nawet jeśli skupiają się tylko na strategii imitacji (takich jak opłaty licencyjne lub szkolenia do korzystania z imitacji). W literaturze wzrostu gospodarczego termin „konwergencja” może mieć dwa znaczenia. Pierwszy (czasami nazywany „sigma-konwergencja”) dotyczy zmniejszenia różnic w poziomach dochodów całej gospodarki. „Beta-konwergencja” następuje wówczas, gdy ubogie gospodarki rosną szybciej niż bogate. Według historyka David Landes, 250 lat temu różnica w dochodach per capita między najbogatszym i najbiedniejszym krajem na świecie wynosiła około 5:1, dzisiaj ta różnica wzrosła do 400:1. Jednak pomimo tendencji do wzrostu różnic w poziomie życia, istnieje wiele przykładów zacofanych krajów, którym – w różnym czasie – udało się zmniejszyć różnice w produktywności i dochodach między sobą i krajami bardziej zaawansowanymi przez „nadrabiania zaległości”. Bibliografia Jan Fagerberg, Manuel Mira Godinho, Innovation and catching-up, w: Oxford Handbook of Innovation, edited by Jan Fagerberg, Richard R. Nelson and David Mowery. KOREA JAKO KRAJ GONIĄCY CZOŁÓWKĘ Jako wspólne elementy koreańskiego sukcesu uznaje się: po pierwsze, zdolność do oddziaływania na sektory i finansowania inwestycji przez pakiety polityk; po drugie, 350 zharmonizowanie rozwoju kompetencji z priorytetami industrializacji; po trzecie, zdolność do mobilizacji sektora prywatnego na rzecz wspierania celów rozwoju produkcji; i po czwarte, realizacja zsynchronizowanych polityk w różnych dziedzinach, takich jak promocja eksportu, importu i kontroli kapitału, bezpośrednie wsparcie dla przedsiębiorstw, oraz wsparcie rozwoju technologicznego i innowacji. Koreańska polityka jest znana z umiejętności określenia celów, alokacji zasobów oraz orkiestracji działań. Koreańskie plany są skuteczne, ponieważ są wyposażone we „władzę wykonawczą”, tj. środki, skuteczne ramy prawne, jasno wytyczne, skuteczne rozpowszechnianie informacji, które wyjaśniają cele i zakresy odpowiedzialności, a także regularne ewaluacje wyników. Koreańskie komisje prezydenckie były często wykorzystywane jako forum dialogu politycznego i koordynacji między różnymi podmiotami, a bezpośredni związek z urzędem prezydenta był gwarantem ich skuteczności. Cztery główne elementy mające wpływ na koreańską strategię dościgania to: • • • wieloletnie planowanie z jasno określonymi celami i związanymi z nich budżetami; ukierunkowanych działania w celu wsparcia krajowego przemysłu, w tym wsparcia dla firm krajowych, rozwoju umiejętności, budowania infrastruktury i kontroli importu; wspieranie eksportu; • zarządzanie rynkami kapitałowymi. Aż do końca 1990 Korea rozwijała zarówno planowanie przestrzenne jak i planowanie gospodarcze, ale to dopiero pięcioletni Zrównoważony Narodowy Plan Rozwoju (200308) ustanowił koordynację między tymi trybami planowania. We wczesnym okresie nadrabiania zaległości koreański eksport mierzony jako udział w PKB był bardzo niski (poniżej 10%) i niższy niż import. Od 1980 roku koreański eksport przewyższył import w relacji do PKB i odpowiada za ponad 40% PKB. We wczesnej fazie doganiania, w latach 1960 i 1970 kładziono nacisk na kształcenie techników o niskich kwalifikacjach w szkołach zawodowych dla przemysłu lekkiego, a później ciężkiego i chemicznego. W tym czasie popyt ze strony sektora prywatnego koncentrował się na nisko płatnej i podstawowym wykwalifikowanej siły roboczej do pracy na liniach montażowych oraz dla nisko wykwalifikowanych techników w zakładach przemysłowych. W latach 1960. rząd skoncentrował się na odwróconej inżynierii i uczeniu się z najlepszych zagranicznych praktyk; od 1970 roku inwestował w tworzenie rządowych instytutów badawczych. Jednak dopiero od lat 1980 Korea zaczęły masowo inwestować w badania i rozwój oraz w podnoszenie kwalifikacji w celu wzmocnienia krajowych zdolności technologicznych i naukowych zgodnie z modernizacji krajowego aparatu produkcji. Od tego czasu kraj doganiał przodujące gospodarki pod względem B+R na mieszkańca. W roku 1982 uruchomiono krajowy program B+R w celu wspierania prywatnych inwestycji w badania i rozwój. Od tego czasu rządowe wydatki na badania i rozwój gwałtownie 351 rosły. Chociaż instytuty badawcze rządowe odgrywały ważną rolę w B+R w latach 1980., uniwersytety i przedsiębiorstwa zaczęły zwiększać swoje inwestycje w B+R w latach 1990. Liczba laboratoriów badawczych firm wzrosła z 46 w 1980 r. do 966 w 1990 roku. Prywatne wydatki na badania i rozwój wzrosły gwałtownie w 1990. Od połowy lat 1990 po wstąpieniu do WTO koreańskie firmy znalazły się w sytuacji zaostrzonej konkurencji na rynkach światowych, co zmusiło je do poprawy ich kompetencji technologicznych. Gdy zwiększyły się prywatne inwestycje w badania i rozwój, rząd skoncentrował się na promowaniu najnowszych technologii. Pod koniec lat 1990, Korea stała się światowym liderem w wielu dziedzinach technologii, takich jak układy pamięci, telefony komórkowe, monitory ciekłokrystaliczne (LCD), a także w bardziej tradycyjnych sektorach, takich jak przemysł stoczniowy i samochodowy. Głównym powodem tego sukcesu było rosnące zaangażowanie sektora prywatnego w innowacje. Od lat 1990 wzrósł popyt sektora prywatnego na inżynierów i naukowców; równolegle rząd zainwestował we wsparcie rozwoju doktorów. Liczba absolwentów studiów doktoranckich z koreańskich krajowych uczelni wzrosła z 530 w 1980 r. do ponad 11 645 w 2011 roku. Udział doktorantów w dziedzinie nauk przyrodniczych i technicznych wzrósł z 26% w roku 1980 do 44% w roku 2011. Liczba naukowców w Korei wzrosła z mniej niż 3 000 na koniec 1960 roku do 320 000 w roku 2009. Dziś Korea jest jednym z czołowych krajów OECD pod względem udziału B+R w PKB. Zainwestowała ona 3,6% PKB w badania i rozwój w 2009 r., podczas gdy udział ten wynosił tylko 0,42% w roku 1970. Dzisiaj główne wyzwania dla Korei to zwiększenie inwestycji w badania podstawowe i zwiększenie inwestycji sektora prywatnego w badania i rozwój w zielone technologie i przemysły. Korea zaczęła intensyfikować swoje wysiłki patentowe po dużego nacisku na inwestycje w B+R w latach 1980. i stała się istotnym graczem w dziedzinie patentowania w latach w 1990. [OECD 2012] Z punktu widzenia B+R, cechy charakterystyczne “odrabiania zaległości” Korei to: wysoka korelacja wzrostu produkcji naukowej (publikacji) i technicznej (patentów); wysokie wskaźniki tzw. „korzystania z okazji” (relacja udziału w światowych patentach oraz w światowych publikacjach) jako oznaka powiązań prac naukowych i technologicznych; wysoka koncentracja w kilku powiązanych ze sobą dyscyplin naukowych; zwiększenie w koncentracji w dyscyplinach naukowych oraz zmniejszenie koncentracji w klasach patentowych w okresie nadrabiania zaległości [Bernardes 2003]. Główne cele I (1962-66) Budowa krajowego przemysłu lekkiego: tekstylnego itd. Rozwój infrastruktury: elektrownie. II (1967-72) Budowa kluczowego przemysłu ciężkiego i chemicznego: stal, maszyny, chemikalia, stocznie itd. Rozwój infrastruktury: autostrada Gyeongbu (Seul-Busan) III (1972-76) Restrukturyzacja przemysłu: przemysł ciężki i chemiczny (kompleksy przemysłowe) 352 IV (1977-81) Restrukturyzacja przemysłu: wzmocnienie przemysłu ciężkiego i chemicznego (tworzenie podstaw umiejętności technologicznych) V (1982-86) Stabilizacja gospodarcza: konkurencyjność przemysłowa na drodze otwarcia i racjonalizacji gospodarki VI (1987-91) Reformy regulacyjne i deregulacyjne. Wspieranie przemysłów wysokiej techniki. Kształtowanie kompetencji wysokiej techniki i innowacyjnych. VII (1992-96) Rewitalizacja gospodarki. Ustanowienie podstaw zrównoważonego rozwoju sektorów i firm Struktura przemysłu 1953 1970 1980 1990 2000 2010 Rolnictwo, polowanie, leśnictwo, rybołóstwo 47,3 29,1 16 8,7 4,6 2,6 Górnictwo i kopalnictwo 10,1 1,6 1,4 0,8 0,3 0,2 18,5 24,6 26,6 28,3 30,6 1,3 2,1 2,1 2,5 2,0 5,1 7,9 10,4 6,9 6,5 16,4 14,7 14,2 12,4 10,8 Transport 5,7 6,5 4,7 4,5 4,1 Finanse i ubezpieczenia 2,1 5,5 5,2 5,8 6,9 Nieruchomości i ich wynajem 4,1 3,9 6,5 9,2 7,1 Komunikacja 1,4 2,1 3,0 4,5 4,1 Usługi biznesowe 0,9 1,8 3,0 4,4 5,1 Inne usługi 13,7 13,5 14,8 16,6 20,2 Przemysł przetwórczy Elektryczność, gaz, dostawa wody 2,6 Budownictwo Handel, hotele i restauracje 40 1965 Wydatki na B+R : rząd/prywatne 61/39 B+R/GDP B+R jako % sprzedaży w sektorze przemysłu przetwórczego Liczba badaczy 1970 97 3 0,26 * 0,38 * 2 135 5 628 1975 71/29 1980 64/36 1985 25/75 1990 19/81 1995 19/81 2000 25/75 0,42 0,77 1,58 1,95 2,51 2,65 0,36 0,5 1,51 1,96 2,72 2,64 10 275 18 434 41 473 70 503 128 315 2005 23/76 2,79 129 767 179 812 2007 25/73 3,21 221 353 928 Instytuty rządowe 1 671 2 458 3 086 4 598 7 542 10 434 15 007 Uczelnie 352 2011 4534 8695 14935 21332 19 406 112 1 159 2 655 5 141 18 996 38 737 68 625 Rządowe instytuty badawcze (jako % całości) 78% 44% 30% 25% 18% 15% Uczelnie (jako % całości) 16% 36% 44% 47% 36% Sektor prywatny (jako % całości) 5% 21% 26% 28% 0,7 1,7 2,9 0 1 12 Sektor prywatny Badacze na 10 000 ludności Liczba ośrodków B+R korporacji 12 587 12 791 15 859 27 416 37 415 66 018 137 706 166 289 12% 10% 7% 7% 30% 35% 39% 15% 17% 46% 55% 53% 51% 77% 75% 4,8 10,1 16,4 28,6 27,9 37,4 45,8 54 183 966 2270 3760 Sources: Linsu Kim, The dynamics of technological learning in industrialisation, The United Nations University, Discussion Paper Series, October 2000; Main Science and Technology Indicators 2004/1, OECD Paris 2004. Bibliografia OECD (2012), Industrial Policy and Territorial Development: Lessons from Korea, OECD Publishing. Linsu Kim, The dynamics of technological learning in industrialisation, The United Nations University, Discussion Paper Series, October 2000. Cross-over, thresholds, and interactions between science and technology. Lessons for less-developed countries 2003 6 Américo Tristão Bernardes, Eduardo da Motta e Albuquerque, Cross-over, thresholds, and interactions between science and technology: lessons for less-developed countries, “Research Policy” 32 (2003) 865–885. KRAJOWY KONTEKST POLITYKI NAUKOWEJ I INNOWACYJNEJ [National Context of Policy Research and Innovation] Unia i organizacje międzynarodowe są po to, aby zbliżać do siebie kraje członkowskie. Potrzeba znalezienia wspólnego kierunku marszruty kieruje wzrok ku abstrakcyjnym ideom, które od Oświecenia były znakiem rozpoznawczym modernizacji podejmowanej w imię rozumu. Dopóki OECD i Unia były organizacjami grupującymi kraje o podobnym poziomie rozwoju gospodarczego, „jedna miara pasowała na wszystkich”. Z chwilą jednak kiedy w połowie lat 1990. do OECD i dekadę później do Unii weszły kraje spoza „klubu najbogatszych”, przyjęcie nowych krajów przyczyniło się do większego uwrażliwienia zarówno Unii jak i OECD na kwestie lokalnych różnic i kontekstów oraz niebezpieczeństw narzucania pochopnie uchwalonych zaleceń. W roku 2006 unijna Dyrekcja Badań zamówiła raport na temat roli badań i technologii w długofalowym rozwoju no354 wych krajów członkowskich; pobudką (nieopublikowanego) raportu było stwierdzenie faktu, że w fazie rozwoju gospodarczego, w jakiej się te kraje znajdują, badania i technologie pełnią inne funkcje niż w większości państw unijnej piętnastki. W roku 2008 w ramach czeskiej prezydencji z inicjatywy premiera Czech zorganizowano warsztaty dla krytycznej oceny unijnej polityki innowacyjnej w stosunku do nowych państw członkowskich. Ideą warsztatów była myśl, że niektóre instrumenty polityki unijnej mogą być nieskuteczne w krajach znajdujących się daleko od „frontu rozwoju technologii”. Wreszcie, w październiku 2011 MNiSW wspólnie z Komisją UE i fundacją K4I zorganizowały międzynarodową konferencję poświęconą znaczeniu krajowego i regionalnego kontekstu w budowie strategii badań i innowacji. Najważniejsze myśli wszystkich tych przedsięwzięć podsumowuje książka Challenges for European Innovation Policy (opr. Slavo Radosevic, Anna Kaderábková, Edward Elgar, 2011), pokłosie inicjatywy czeskiej. Książka jest jak dotąd najpoważniejszym głosem na rzecz samodzielnego rozpoznawania przez kraje „doganiające” charakteru luk i wąskich gardeł cechujących ich własne systemy badań i innowacji. Autorzy – w większości profesorowie na zachodnich uniwersytetach – wzywają do samodzielności intelektualnej ekspertów i urzędników rządowych krajów Europy Środkowej w stosunku do zachodnich koncepcji naukowych, wskaźników statystycznych i programów strategicznych. Nie spoglądajcie na świat przez okulary zachodnich pojęć, starajcie się – korzystając ze wszystkich wiarygodnych danych i badań – samodzielnie odczytywać problemy dławiące rozwój w waszych krajach. Inaczej wasze strategie, powielające ślepo rozwiązania bardziej zaawansowanych państw, będą służyły rozwiązaniu cudzych problemów. Zwróćcie uwagę, że kraje „ścigające”, pozostające poza frontem rozwoju technologii, mają inne motory wzrostu niż kraje zaawansowane gospodarczo; upraszczając, ich wzrost jest w większym stopniu napędzany przez upowszechnienie i absorpcję wiedzy (dzięki importowi produkcyjnemu i konsumpcyjnemu, inwestycjom zagranicznym i edukacji) niż przez tworzenie nowej wiedzy. Pozabadawcze źródła wzrostu produktywności gospodarczej mają tu nadal większe znaczenie niż B+R. Polityka naukowa zapatrzona w widmo rywalizacji ze światowymi potęgami oraz miraże osiągania „doskonałości naukowej” może stracić z oczu i zaprzepaścić okazję realizacji zadań, które są najważniejsze „tu i teraz” – na tym etapie rozwoju techno-gospodarczego, na którym kraj się znajduje, w ramach tych perspektyw, które się przed nim otwierają, z uwzględnieniem fazy paradygmatu technologicznego, w której jest świat (tzw. okna szansy dla państw słabiej rozwiniętych). Eksperymentalny charakter Unii, która jest organem umykającym zastanym pojęciom prawnym – nie jest ani federacją państw, ani układem międzynarodowym, ani organizacją międzynarodową – znajduje, do pewnego stopnia, odbicie w praktykach Unii, w której, pomimo krzepnących ram prawnych w różnych sferach polityki stale podsyca się debatę publiczną o politykach unijnych i dopuszcza dość znaczny rozrzut stanowisk. Najważniejszym przesłaniem książki – powstałej jako głos w debacie unijnej – są nie tyle jej różne ustalenia i rekomendacje (podobne już formułowano), co wezwanie do myślenia na własny rachunek, niezależnie od obowiązujących pojęć i formuł i nieraz na prze355 kór zastanym interesom grupowym badaczy, do budowania krajowych strategii rozwoju nauki, które nie tylko wpisywałaby się w unijne ramy, ale także opierały na trafnym odczytaniu światowych trendów z punktu widzenia krajowych przewag, zagrożeń i szans. TWÓRCZOŚĆ, INNOWACJE, BADANIA NAUKOWE, KSZTAŁCENIE I POLITYKA Pojęcia twórczości (kreatywności) i innowacji od chwili zetknięcia się ze sobą w roku 1962 w tytule książki Johna W. Haefele (Creativity and innovation, New York, Reinhold) stworzyły niezwykle płodną parę owocującą jak dotąd blisko 1000 pozycji. Po okresie powolnego wzrostu, w latach 1990-tych liczba nowych książek zawierających w tytule połączone ze sobą oba pojęcia zaczęła galopować; przełom nastąpił zwłaszcza w II połowie ostatniej dekady XX wieku, równolegle z boomem koncepcji kapitału intelektualnego, zarządzania wiedzą i gospodarki opartej na wiedzy. Liczba tytułów książek ze zwrotem „creativity and innovation” w tytule 100 90 80 70 60 50 40 30 20 10 0 WorldCat Liczba tytułów książek to tylko „wierzchołek góry lodowej” problemu zainteresowania „twórczością i innowacją”; corocznie pod hasłem „creativity and innovation” publikuje się dziesiątki materiałów oraz organizuje dziesiątki warsztatów i konferencji. Google pozwalają sięgnąć do blisko 3 milionów dokumentów, zawierających w sobie ten zwrot. Każde z pojęć w kontekście drugiego zmieniło swój sens. Twórczość przestała być widziana jako (przede wszystkim) szczególna kompetencja jednostki, a na innowację spojrzano nie tylko (jak dotąd) od strony jej efektów (nowych produktów, procesów, usług lub zmian organizacyjno-menedżerskich), ale (także) od strony szczególnych kompetencji jej twórców. Z kolei oba połączone ze sobą pojęcia weszły w dalsze związki pojęciowe, z których szczególnie płodne okazały się związki z edukacją, badaniami naukowymi i polityką. 356 Triada „twórczość – innowacje – edukacja” wzmocniła te poglądy i podejścia w pedagogice, które uczenie traktują nie jako „przekazywanie”, co „współ-tworzenie” wiedzy i które sens edukacji widzą przede wszystkim w rozwijaniu umiejętności uczenia się i twórczego rozwiązywania problemów. W OECD opisana zmiana spojrzenia zaowocowała podjęciem badań nad kompetencjami koniecznymi dla prowadzenia działalności innowacyjnej (projekt Measuring skills for innovation, 2008). Ustalenia mają posłużyć do rozszerzenia statystyki o dotąd niedoceniane aspekty osobowościowe i intelektualne działalności innowacyjnej oraz do sformułowania zaleceń w przyszłej Strategii Innowacji OECD dotyczących zmian w programach kształcenia. W Unii Europejskiej przyczyniła się ona do ogłoszenia roku 2009 Rokiem Twórczości i Innowacji, pomyślanego jako składnik Strategii Uczenia się przez Całe Życie, zaprojektowanego w kontekście Strategii Lizbońskiej. Celem inicjatywy jest „wspieranie działań państw członkowskich zmierzających do propagowania rozwoju kreatywności, w drodze uczenia się przez całe życie, jako siły napędowej innowacji i jako głównego czynnika rozwoju kompetencji osobistych, zawodowych, społecznych i związanych z przedsiębiorczością. Z kolei triada „twórczość – innowacje – badania naukowe” pobudziła do studiów nad charakterem przełomowych badań naukowych i warunkami, które takim badaniom sprzyjają. Ponadto, zachęciła ona do przeglądu stosowanych na świecie przez ministerstwa, agencje i fundacje zasad oceny i finansowania badań naukowych pod kątem wpływu – korzystnego lub szkodliwego – jaki zasady te wywierają na skalę ich nowatorstwa i przyszłego oddziaływania. Oba te kierunki zainteresowań zbiegły się m.in. w projekcie CREA (Measuring and Analyzing Highly Creative Scientific Research). W odniesieniu do pierwszego problemu, pytania badawcze dotyczą roli odgrywanej przez takie czynniki, jak motywacja badaczy, przywództwo zespołu, czy też panująca w nim kultura organizacyjna. W odniesieniu do drugiej kwestii, pytania koncentrują się wokół procedur i kryteriów wyboru naukowców oraz typu i długości okresu finansowania w programach nastawionych na wyławianie i wspieranie naukowców stwarzających nadzieję, że „pchną front poznania”. Pytania te podejmuje m.in. Thomas Heinze (2008). Uruchomienie programu wspierania przełomowych badań okazuje się niemal równie trudne, jak ich dokonanie, a to z tego względu, że jest uwarunkowane pokonaniem aż dwóch przeszkód: jedna z nich to biurokratyczny wymóg inwestowania środków publicznych w najmniej ryzykowne projekty, druga – to nacisk środowiska naukowego, aby kontynuować dotychczasowe ścieżki rozwojowe badań. W efekcie, stworzenie takiego programu wydaje się przedsięwzięciem tego samego rodzaju, co rozwiązanie dylematu barona Münchausena. Niemniej jednak, takie programy powstają, choć najczęściej w krajach przodujących w nauce (w których są bardziej akceptowane) oraz w prywatnych fundacjach (nie zmuszanych do rygorystycznego stosowania zasad accountability). Wreszcie, triada „twórczość – innowacje – polityka” wzmocniła te nurty prób i poszukiwań w ramach Nowego Zarządzania Publicznego, które starają się tchnąć w administra357 cję publiczną ducha innowacyjności i przedsiębiorczości, przekształcić organa rządowe w „organizacje uczące się” oraz wzmocnić umiejętność „uczenia się tworzenia polityki” (policy learning). To, jak się okazuje, są zadania niemniej trudne, jak wyszukiwanie i popieranie naukowców chętnych i zdolnych do „ojcobójstwa” dotychczasowych autorytetów naukowych i narażenia się establishmentowi w nauce. W jednej z najciekawszych pozycji tego nurtu Jake Chapman przeciwstawia dominującemu w administracji myśleniu mechanicystycznemu myślenie systemowe i dowodzi, że coraz częściej politycy i administratorzy stają w obliczu problemów wymagających umiejętności uwolnienia się spod nacisku obowiązujących mechanistycznych „ram” i „metafor” i poszukiwania nowych, opartych na tym drugim podejściu. „Założenie, że wie się najlepiej, całkowicie zamyka drzwi do wszelkiego doświadczenia i uczenia się – pisze Chapman. Kiedy z góry zna się odpowiedź, nie ma żadnej potrzeby uczenia się. Mechanistyczne podejście bardzo wzmacnia te postawy. Ludzie awansowani na wysokie stanowiska interpretują nominację jako potwierdzenie faktu, że wiedzą najlepiej. Politycy wybrani w wyborach interpretują wybór jako potwierdzenie swoich przekonań. Krótka rozmowa z politykami uświadamia że upatrują oni w rządach i urzędach maszyny: `maszyneria rządowa`, ‘stepping up a gear’, ‘changing direction’, ‘driving through change’, ‘the machinery of government’ and ‘policy levers’, czy “delivery`: a przecież – dowodzi autor – można dostarczyć klientowi pizzę, lecz nie zdrowie czy edukację.” „Jest jeszcze dodatkowy powód, dlaczego tak trudno wprowadzić uczenie się do służby cywilnej i rządu: uczenie interpretuje się jako potrzebę pozyskania nowej wiedzy oraz umiejętności. Podczas gdy pozyskiwanie nowej wiedzy i umiejętności jest ważne, nie o taki tryb uczenia chodzi. Chodzi o uczenie się systemowe, refleksyjne, takie, które zakłada umiejętność refleksji nad swym własnym doświadczeniem, pracę z ludźmi posiadającymi odmienne perspektywy poznawcze, oraz umiejętność oceny własnych działań oraz wprowadzania stosownych modyfikacji na podstawie auto-refleksji. Ten tryb uczenia się jest różny od uczenia się opartego na uczęszczaniu na kursy oraz wysłuchiwaniu wykładów instruktorów. Większość ludzi nie jest świadoma sposobu, w jaki myśli. W szczególności, nie jest świadoma, do jakiego stopnia używa mechanistycznych wyobrażeń i metafor. Jest także nieświadoma, jak bardzo obawia się stracić kontrolę nad rzeczywistością. Kluczowym aspektem myślenia systemowego jest wspięcie się na wyższy szczebel abstrakcji i umiejętność uznawania różnych perspektyw widzenia zagadnień i sytuacji. Kluczowym ograniczeniem w tym trybie uczenia się jest nie tyle brak nowych informacji, co nieumiejętność auto-refleksji, czyli zawieszania milcząco zakładanych przesłanek oraz głośno wypowiadanych przekonań.” „Obecny model tworzenia polityki, oparty na redukcji złożonych zagadnień na oddzielne części, podatne do racjonalnej manipulacji, nie jest skuteczny w obliczu wyzwań stojących przed administracją publiczną. Wyzwania te obejmują: wzrost złożoności i powiązań (m.in. wskutek ICT); wzrost różnorodności typów organizacji włączonych do dostaw usług; zacieranie się granic pomiędzy polityką krajową a międzynarodową wskutek po358 wstania międzynarodowych sieci komunikacji oraz liberalizacji działalności gospodarczej, co oznacza, że na krajowe sprawy w coraz większym stopniu oddziaływają międzynarodowe, i odwrotnie.”” Wzrasta skala porażek w decyzjach dotyczących spraw społecznych. Głównym źródłem porażek jest założenie separacji elementów, liniowości, prostej przyczynowości oraz przewidywalności. Założenia te przestały obowiązywać.” „Podejście systemowe jest najbardziej skuteczne odniesieniu do zawikłanych zagadnień, które są nieokreślone pod względem zakresu, czasu i zasobów, oraz co do których istnieje wiele skrajnie odmiennych diagnoz i propozycji terapii.” [Chapman 2002]. Podsumowując, od połowy lat 1990-tych pojęcia twórczości, innowacji, badań naukowych, kształcenia i polityki zaczęły grawitować wokół siebie, łączyć się ze sobą, wzajemnie zapładniać. Polityka Badania naukowe i edukacja Twórczość i innowacje Wzajemne zazębianie się pojęć prowadzi do ich redefinicji, a odmiennie rozumiane pojęcia sugerują zmiany podejść. Jeśli umiejętność znajdowania twórczych niestandardowych odpowiedzi na pogmatwane, złożone i niejasne sytuacje jest wyzwaniem naszych czasów, wydaje się oczywiste, że zaszczepienie kreatywności i innowacyjności w edukacji oraz wsparcie dla badań rokujących nadzieję przełomowych odkryć musi być uwarunkowane nowym, twórczym i innowacyjnym podejściem w sposobie prowadzenia polityki wobec edukacji i nauki; te różne zagadnienia są od siebie wzajemnie zależne. Bibliografia Europejski Rok Twórczości i Innowacji (2009). DECYZJA PARLAMENTU EUROPEJSKIEGO I RADY, Bruksela, dnia 28.3.2008 r. KOM(2008) 159 wersja ostateczna Promowanie kreatywności i innowacji przez kształcenie i szkolenie. KONKLUZJE RADY I PRZEDSTAWICIELI RZĄDÓW PAŃSTW CZŁONKOWSKICH ZEBRANYCH W RADZIE Z DNIA 22 MAJA 2008 r. w sprawie… (2008/C 141/10) 359 Wspólne sprawozdanie Rady i Komisji z postępów w realizacji programu prac Edukacja i szkolenie 2010 Uczenie się przez całe życie dla wiedzy, kreatywności i innowacyjności (2008/C 86/01) Jake Chapman, System failure. Why governments must learn to think differently, London, Demos 2002. Joachim Burbiel, Creativity in Research and Development Environments: A Practical Review, “International Journal of Business Science and Applied Measurement”, vol. 4, issue 2, 2009, ss. 35-51; J. Rogers Hollingsworth, Organizational And Psychological Factors Influencing Creativity in Basic Science, Atlanta Conference on Science and Technology Policy 2006, Session on Fostering Research Creativity, May 19, 2006. Thomas Heinze, How to Sponsor Ground-Breaking Research: A Comparison of Funding Schemes „Science & Public Policy” 35:2008, ss. 802-818. MĄDROŚĆ TŁUMU Mądrość tłumu to uwzględnianie opinii grupy osób, a nie jednego pojedynczego eksperta. Ekspert. To jednocześnie tytuł książki Jamesa Surowieckiego o agregacji grupowych informacji, które – wg autora – owocują lepszymi decyzjami niż te, które są oparte na informacjach pojedynczych ekspertów. Nie wszystkie grupy („tłumy”) są mądre. Nie są np. mądrzy inwestorzy biorący udział w bańkach inwestycyjnych na rynku akcji. Cztery kryteria wg Surowieckiego odróżniają „mądry tłum” od tłumu kierującego się „owczym pędem”: 1. Różnorodność opinii. Każda osoba powinna mieć własną informację, nawet jeśli jest nią ekscentryczna interpretacja znanych faktów. 2. Niezależność. Opinie osób powinny być niezależne, formułowane bez wpływu otaczających osób. 3. Decentralizacja. Osoby powinny sięgać do lokalnej wiedzy. 4. Agregacja. Powinny istnieć mechanizmy przekształcania prywatnych opinii w decyzje zbiorowe. Bibliografia James Surowiecki, The Wisdom of Crowds: Why the Many Are Smarter Than the Few and How Collective Wisdom Shapes Business, Economies, Societies and Nations, Doubleday, 2004. N+T DLA ROZWOJU [S&T for development] Hasło Banku światowego i innych organizacji międzynarodowych nastawionych na pomoc dla krajów rozwijających się, oznaczający ukierunkowanie zarówno prowadzonych w tych krajach badań naukowych i technologicznych, jak i pomocy zagranicznej ich rzecz, na cele rozwojowe, takie jak wspomaganie rolnictwa, przeciwdziałanie degradacji 360 środowiska, zapewnianie dostępu do wody, zmniejszanie ubóstwa, zapewnianie taniej energii, szerzenie oświaty. Bibliografia Bank Światowy, 2002, Strategic Approaches To Science And Technology In Development. NAUKA W SPOŁECZEŃSTWIE [Science in Society] Hasło w retoryce politycznej, stosowane na określenie inicjatyw wspierających powiązania nauki ze społeczeństwem, podejmowane na szczeblu unijnych oraz na poziomie poszczególnych krajów i regionów, ogniskują się wokół siedmiu bardzo różnych, choć często warunkujących się wzajemnie obszarów, takich jak: 1. rozwój badań na rzecz sfery publicznej (edukacja, zdrowie, administracja, planowanie regionalne), włączając w to badania dotyczące powiązań nauki i społeczeństwa, 2. uczestnictwo obywateli w ustalaniu kierunków badań naukowych i technologicznych oraz w ocenie inicjatyw publicznych opartych na zastosowaniach nauki i technologii (np. eksploatacji gazu łupkowego), 3. udział badaczy w doradztwie na rzecz polityki (na szczeblu rządowym i regionalnym) 4. udział wolontariuszy w prowadzeniu badań naukowych, 5. otwarcie dla każdego zasobów danych i publikacji naukowych (z pewnymi wyjątkami, podyktowanymi potrzebą komercjalizacji wyników badań lub względami bezpieczeństwa), 6. nowoczesne, interaktywne formy edukacji naukowej, 7. zagadnienia szeroko rozumianej etyki badań (plagiaty, fabrykowanie danych, udział w badaniach kobiet i mniejszości etnicznych, bioetyka, wykorzystywanie zwierząt w badaniach laboratoryjnych itd.). Wszystkie te siedem obszarów to pola inicjatyw nie tylko rządów, ale także środowiska naukowego, organizacji pozarządowych, sieci, rynku (np. we włączaniu wszystkich zainteresowanych do rozwiązywania problemów naukowych i technologicznych) oraz instytucji międzynarodowych. W szczególności Unia Europejska wsparła „naukę w społeczeństwie” przez Plan Działań Nauka i Społeczeństwo (2002), programy w ramach VI i VII Programu Ramowego („Nauka a społeczeństwo”, 2002–2006, „Nauka w społeczeństwie”, 2007–2013), a obecnie Horyzont 2020 , serwis informacji i analiz MASIS, a także kolejne dokumenty oraz raporty komisji (Public Engagement in Science , 2008; Challenging Futures of Science in Society , 2009; Final Synthesis Report on Science in Society in Europe , 2012). 361 NOWA REWOLUCJA PRZEMYSŁOWA [New industrial resolution] Koncepcję „nowej rewolucji przemysłowej” przedstawił Peter Marsh. Zdaniem autora nowa rewolucja przemysłowa rozpoczęła się około 2005. Charakteryzuje ją wzrost kustomizacji i personalizacji produkcji. Procesy takie jak B+R, produkcja i usługi są szerzej rozłożone w łańcuchu wartości globalnej. Wzdłuż łańcucha wartości powstaje więcej możliwości dla firm mających siedziby w wielu krajach, zarówno o wysokich jak i niskich kosztach pracy. Wzrastają możliwości produkcji i sprzedaży produktów w wąskich niszach, skierowanych do konkretnych grup klientów, mieszkających na całym świecie. Firmy uzyskują większe możliwości specjalizacji. Producenci wykazują większą świadomość środowiska. Nowa rewolucja przemysłowa jest pierwszą, która rozprzestrzenia się na całym świecie, a nie jest skoncentrowana w ograniczonej grupy krajów bogatych. Liczba osób biorących udział w produkcji pozostanie stosunkowo niska. Jednakże produkcja będzie nadal wywierać silny wpływ na gospodarkę globalną [Marsh 2012]. Bibliografia Marsh Peter 2012, The new industrial revolution. Customers, globalization and the end of mass production, Yale University Press. ODPOWIEDZIALNE BADANIA I INNOWACJE [Responsible Research and Innovation] Odpowiedzialne Badania i Innowacje (OBI) to nowe podejście do działalności badawczorozwojowej i innowacyjnej, które bierze pod uwagę zarówno skutki tej działalności oraz jej potencjalny wpływ na środowisko i społeczeństwo jak i sposób prowadzenia działalności badawczo-rozwojowej i innowacyjnej. Jest to podejście, które w sposób znacznie szerszy niż do tej pory podkreśla kwestię współodpowiedzialności za badania i innowacje oraz formułuje wymagania nie tylko względem badaczy ale także szerokiego kręgu innych osób i instytucji zaangażowanych w badania i innowacje bądź objętych potencjalnie ich skutkami. W ujęciu zaproponowanym przez Komisję Europejską postuluje się aby podmioty zaangażowane w Odpowiedzialne Badania i Innowacje (w szczególności naukowcy i innowatorzy ale także inni interesariusze np. decydenci): te, • dążyły do uzyskania odpowiedniej wiedzy na temat prowadzonych działań badawczych i innowacyjnych, brały pod uwagę możliwe konsekwencje tych działań oraz były świadome możliwych scenariuszy rozwoju sytuacji, • projektując badania naukowe oraz nowe produkty i procesy brały pod uwagę wartości etyczne i społeczne istotne dla społeczeństwa, takie jak dobrobyt, sprawiedliwość, równość, prywatność, niezależność, bezpieczeństwo, zrównoważony rozwój, odpowiedzielność czy demokracja, 362 • oceniały zarówno rezultaty (badań czy innowacji) jak i możliwe scenariusze ich rozwoju czy wykorzystania w perspektywie wymienionych wyżej wartości [EC 2013a]. Koncepcja OBI jest obecnie przedmiotem dyskusji i podejmowane są próby jej lepszego zdefiniowania. Jednym z postulowanych rozwiązań jest rozróżnienie pomiędzy oczekiwanymi efektami odpowiedzialnych badań i innowacji a parametrami procesu badawczo-rozwojowego czy innowacyjnego koniecznymi do uznania go za odpowiedzialny w rozumieniu OBI. W tym ujęciu efektami odpowiedzialnych badaniach i innowacji mogą być np. badania naukowe zgodne z wartościami wyznawanymi przez społeczeństwo bądź mające na celu znalezienie rozwiązania dla istotnych problemów społecznych. Proces badawczo-rozwojowy/innowacyjny można uznać za odpowiedzialny gdy odpowiadać będzie on parametrom takim jak antycypacja, włączenie, otwartość, przejrzystość itd. Koncepcję OBI stosuje się głównie do badań i innowacji a jej powstanie wiąże się często z postępem w obszarze nauk ścisłych i technologii, w szczególności zaś zrozwojem nowych technologii, takich jak nanotechnologia, teleinformatyka, genomika, biologia syntetyczna czy geoinżynieria. Niektórzy autorzy twierdzą, że OBI mogą również obejmować instrumenty finansowe, politykę publiczną lub innowacje społeczne [Stutcliffe 2011]. Komisja Europejska podkreśla, że głównymi przesłankami dla OBI powinny być wielkie wyzwania społeczne (takie jak zmiana klimatu, degradacja środowiska, gwałtowny wzrost popytu na energię, ograniczone zasoby, starzenie się społeczeństw, migracje), którym łatwiej będzie sprostać, gdy wszystkie podmioty społeczne będą w pełni zaangażowane w poszukiwanie innowacyjnych rozwiązań, produktów i usług [ECC 2013b]. Zwrot „odpowiedzialne badania i innowacje” pojawia się w literaturze od roku 2006. Źródeł tej koncepcji należ jednak szukać znacznie wcześniej. Już bowiem na przełomie lat 1960/70 ruch kontrkultury, rozwój organizacji konsumenckich, klęska naukowotechnicznej wojny wietnamskiej oraz zanik wiary w naukę obwinianą o rujnowanie planety spowodowały, że część środowisk naukowych i obywateli, szczególnie w Stanach Zjednoczonych i Europie, wysunęła postulat społecznej kontroli nauki, podważyła ideę autonomii nauki oraz podjęła krytykę wojskowego kompleksu naukowo-technicznego. W odniesieniu do ideologii autonomii nauki kwestionowano m.in. • • obietnicę, że gdy tylko rząd będzie odpowiednio dobrze finansował badania naukowe i pozostawi uczonym wolną rękę w doborze tematyki i metod badań, odkrycia, jakich dokonają, w dłuższym horyzoncie czasu zaowocują wynalazkami zapewniającymi dobrobyt ludziom i potęgę państwom; zapewnienie, że etyczne postępowanie uczonego w dziedzinie nauki wyraża się (wyłącznie) w umiejętności stosowania metody naukowej (nie ma zewnętrznych norm w stosunku nauki). Efektem zmiany postaw wobec nauki były m.in. amerykańska organizacja Science for the People (1969), powołany przez Kongres USA Urząd ds. Wartościowania Technologii (The Office of Technology Assessment (OTA), 1972-1995) oraz międzynarodowa konferencja w Asilomar (Kalifornia), która po raz pierwszy wezwała do nałożenia embargo na niektóre badania - eksperymenty w dziedzinie genetyki człowieka (1975). 363 W I dekadzie XXI wieku źródeł OBI należy szukać w ideach „Nauka i Społeczeństwo” i „Nauka w Społeczeństwie”. Unia Europejska w 2001 r. uruchomiła Plan działania «Nauka i społeczeństwo» celem określenia wspólnej strategii dla trwałego dwustronnego dialogu pomiędzy nauką i społeczeństwem obywatelskim Europy. W 2007 roku, w ramach VII Programu Ramowego w zakresie badań i rozwoju technologicznego (7PR), «Nauka i społeczeństwo» stała się «Nauką w społeczeństwie» (Science in Society, SiS). OBI stają się elementem narracji politycznych, zwłaszcza w Europie, gdzie są one zagadnieniem przekrojowym w ramach „Horyzont 2020”. Brak jednak jednej, ustalonej definicji tego pojęcia a także jednolitego stanowiska w sprawie sposobu realizacji postulatu wyrażonego przez OBI. W państwach członkowskich UE istnieją różne inicjatywy wspierające OBI, zwłaszcza w ramach programów krajowych rad ds. badań (np. Wielka Brytania, Niemcy i Holandia). [Von Schomberg 2013; Stucliffe 2011]. W roku 2014 realizowano co najmniej kilkanaście międzynarodowych projektów badawczych, w większości finansowanych lub współfinansowanych przez Komisję Europejską, dotyczących problematyki OBI [The Res-Agora]. Pomimo wątpliwości odnoście definicji OBI istnieje zgodność co do tego, że wcielenie w życie ideai OBI może: • • • uwrażliwić inwestycje w B&R na aspekty etyczne i potencjalne skutki społeczne i w ten sposób zapobiec stratom wynikającym z odrzucenia badań i innowacjiprzez społeczeństwo; wzmocnić przekonanie o szansach inwestycji w B+R i innowacji, ocenić inwestycje w B+R i innowacje pod kątem aprobaty społecznej dla nich oraz zidentyfikować te z nich, które pomimo silnej aprobaty społecznej nie uzyskują dostatecznego wsparcia finansowego [EC 2013a]. Pojęcie OBI ma charakter „parasolowy” i zawiera w sobie szereg innych pojęć/obszarów, takich jak: • • • • • • partycypacja - zaangażowanie wszystkich aktorów społecznych – naukowców, biznesmenów, polityków, obywateli – i ich łączny udział w procesach badań i innowacji, równość płci, >EDUKACJA NAUKOWA, etyka, >OTWARTY DOSTĘP, Zarządzanie (odpowiedzialność decydentów za szkodliwy lub nieetyczny rozwój badań i innowacji) [EC 2012]. Narzędzia OBI to m.in.: • • • • • • >WARTOŚCIOWANIE TECHNOLOGII, >FORESIGHT, Stosowanie >ZASADY OSTROŻNOŚCI, Etyczne zasady projektowania technologii, Zarządzanie innowacjami i udział interesariuszy, Zaangażowanie obywatelskie [Von Schomberg 2013]. 364 Zaleca się, aby OBI było: • • • • antycypacyjne włączające różnych interesariuszy refleksyjne – rozważające własne założenia etyczne, polityczne i społeczne responsywne – elastyczne, w sensie zmieniania badań i innowacji zgodnie z wartościami społecznymi [EC 2013a; Stilgoe 2013]. Efekty prac OBI to m.in. • • • • • • • • Kodeksy postępowania i wytyczne, np. unijny Kodeks postępowania dotyczący odpowiedzialnego prowadzenia badań w dziedzinie nanonauk i nanotechnologii (2008), Normy, np. normy ISO dotyczące charakterystyki, bezpieczeństwa i pomiaru nanomateriałów, Inicjatywy zarządzania ryzykiem, np. Nano Risk Framework, Ewaluacje regulacji, Komitety naukowe, np. SCENIHR (Komitet Naukowy ds. Pojawiających i Nowo Rozpoznanych Zagrożeń dla Zdrowia) i komitety OECD i ONZ na temat nowych technologii i zarządzania, Organy odpowiedzialności komercyjnej, np. Global Reporting Initiative, Global Compact, AA1000, Systemy ochrony własności intelektualnej, Zarządzanie odpowiedzialnością korporacyjną (Corporate responsibility governance) – np. BASF Dialogueforum Nano, Du Pont Nano Risk Framework, Chemical Industry Association Responsible Care Code of Conduct, Swiss Retailers Nano Code [Sutcliffe 2011]. W najbliższych latach zaleca się m.in. • • Komisji Europejskiej o opracowanie europejskiej platformy najlepszych praktyk celem pomocy w znalezieniu odpowiednich metod oceny społecznej, etycznej i ekologicznej nowych technologii o budowanie zdolności zainteresowanych stron do udziału w OBI o budowanie zrozumienia implikacji społecznych i etycznych OBI rządom państw członkowskich UE o zapewnienie odpowiedniego udziału społeczeństwa obywatelskiego na wszystkich etapach procesu badań i innowacji [Sutcliffe 2011]. Koncepcje pokrewne OBI to m.in. „Zrównoważony rozwój”, „Społeczna odpowiedzialność biznesu”, „Wartościowanie Technologii”, „Tworzenie Wspólnej Wartości”, „Zrównoważony rozwój korporacyjny” (“Sustainable development”, “Corporate Social Responsibility”, ”Technology Assessment”, ”Creating Shared Value”, “Corporate Sustainability”). Bibliografia 2008 Kodeks postępowania dotyczący odpowiedzialnego prowadzenia badań w dziedzinie nanonauk i nanotechnologii. ZALECENIE KOMISJI z dnia 7 lutego 2008 r. w sprawie… (2008/345/WE) EC 2012, Responsible Research and Innovation. Europe`s ability to respond to societal challenges, 2012. 365 EC 2013a, Options for Strengthening Responsible Research and Innovation, Report of the Expert Group on the State of Art in Europe on Responsible Research and Innovation, 2013. EC 2013b, Fact sheet: Science with and for Society in Horizon 2020. Schomberg René von, A vision for responsible research and innovation, in: Richard Owen, John Bessant, Maggy Heintz, Responsible innovation. Man aging the responsible emergence of science and innovation in society, London 2013, Wiley, pp. 51-74. Stilgoe Jack, Richard Owen and Phil Macnaghten Developing a framework for responsible innovation, “Research Policy” 42: 2013, ss. 1568-1580. Sutcliffe Hilary, A report on Responsible Research & Innovation [2011]. The Res-AGorA project consortium. "OBI Resources". POJĘCIA POLITYKI NAUKOWEJ [Science policy concepts] Pojęcia polityki naukowej, abstrakcyjne, ogólne idee lub pojęcia stosowane do oznaczenia kategorii jednostek, zjawisk lub relacji, stosowane w formułowaniu polityki naukowej. Należą do nich zarówno szerokie i stosunkowo luźno określane pojęcia, metafory i wizje, stosowane jako „przewodniki heurystyczne” w procesie politycznym, takie jak np. krajowy system innowacji, po pojęcia precyzyjnie definiowane w prawie i podręcznikach metodologii statystyki, takie jak np. badania i rozwój. Znaczenie każdego pojęcia jest określane przez opozycje do innych (np. pryncypał vs. agent; input vs. output); sieci pojęć są często kodyfikowane w taksonomiach (np. instrumentów politycznych), typologiach (np. polityk upowszechniania technologii) lub w klasyfikacjach (np. dyscyplin naukowych). Każde pojęcie naświetla i ukrywa pewne aspekty opisywanego przedmiotu. Pojęcia mogą otwierać nowe horyzonty i pytania oraz przyczyniać się do powodzenia procesu polityki opartej na faktach, ale mogą również powodować pojęciowe niejasności i prowadzić do niewłaściwych zaleceń politycznych (na przykład koncepcja Krajowego Systemu Innowacji podkreśla znaczenie powiązań między elementami systemu i sugeruje, że aby uczynić go bardziej skutecznym należy dalej wzmacniać te powiązania, np. poprzez tworzenie sieci instytucji pośredniczących). Niektóre pojęcia (np. systemu innowacji) są jednocześnie wykorzystywane w różnych funkcjach przez środowisko badawcze (jako narzędzie do badania zjawisk społecznych), polityków (jako ramy polityczne) oraz środowisko biznesowe (jako podstawa strategii firmy); w takich sytuacjach często wpływają na siebie nawzajem. Pojęcia są czasami określane za pomocą metodologii statystyki; albo w metodologie statystyki zawierają definicje pojęć lub koncepcji przyczyniają się do powstania specjalnych statystyk (np. gospodarki opartej na wiedzy). Bibliografia http://encyclopedia.thefreedictionary.com/concept Miettinen Reijo 2002, National Innovation System. Scientific concept or political rhetoric? 366 Hers Johannes and Niek Nahuis, The Tower of Babel? The Innovation System Approach versus Mainstream Economics, Economics Working Paper Archive at WUSTL w: “Method and History of Economic Thought”, no. 0403001, ideas.repec.org/p/wpa/wuwpmh/0403001.html Godin Benoît 2003, The Knowledge-Based Economy: Conceptual Framework or Buzzword?, http://www. csiic.ca/PDF/Godin_24.pdf Øverland Erik F. 2005, The use of heuristic terms in policy building. Dynamic and fallacies in policy building process, Seminar at the IPTS June 6 2005. POTRÓJNA SPIRALA [Triple Helix] Koncepcja Potrójnej Spirali powiązań uczelnia-przemysł-administracja, zainicjowana w 1990 przez Etzkowitza (1993) i Etzkowitza i Leydesdorffa (1995), podkreśla znaczenie przejścia od diady relacji rząd-przemysł w społeczeństwie przemysłowym do relacji triady uniwersytet-przemysł-administracja w społeczeństwie wiedzy. Główna teza Potrójnej Spirali głosi, że potencjał innowacji i rozwoju gospodarczego społeczeństwa opartego na wiedzy polega na bardziej na hybrydyzacji elementów uczelni, przemysłu i rządów w tworzeniu nowych form instytucjonalnych i społecznych w zakresie produkcji, transferu i stosowanie wiedzy. Koncepcja potrójnej spirali łączy perspektywę neoinstytucjonalną i neo-ewolucyjną. Bibliografia The Triple Helix concept, http://triplehelix.stanford.edu/3helix_concept PUŁAPKA NISKIEGO DOCHODU Pułapka niskiego dochodu, względnie „pułapka ubóstwa”, „pułapka rozwojowa” lub „błędne koło ubóstwa”, to zestaw czynników wskutek których samoczynnie podtrzymuje się ubóstwo, samo-wzmacniający się mechanizm powodujący utrzymywanie się ubóstwa. Na poziomie krajów do czynników tych należą np. ograniczony dostęp do rynków kredytowych i kapitałowych, ekstremalna degradacja środowiska, skorumpowane rządy, ucieczka kapitału, złe systemy edukacji, choroby (np. malaria), brak publicznej opieki zdrowotnej, wojny i słaba infrastruktura. Bibliografia Powerty trap 2014 Wikipedia 367 PUŁAPKA ŚREDNIEGO DOCHODU [Middle income trap] Pułapka średniego dochodu to sytuacja, w której kraj, który przez dłuższy czas cieszy się dość znacznym wzrostem gospodarczym, po osiągnięciu pewnego poziomu gwałtownie spowalnia. Nie ma żelaznego prawa spowolnień. Istnieje znaczny rozrzut poziomu, na którym wzrost spowalnia, oraz głębokości spadku. Spowolnienia występują najczęściej na poziomie około 17.000 $US (w stałych międzynarodowych cenach roku 2005). Spadek wynosi średnio 3,5% (z 5,6% do 2,1$). Bank Światowy zna tylko 13 ze 101 krajów, które były krajami o średnich dochodach w 1960 roku i przeszły do grupy bogatych. Najbardziej znane to azjatyckie tygrysy. Te 12% to nieustanna nadzieja i wzór dla pozostałych 88% [WB 2010]. Określenie to pojawiło się po raz pierwszy w roku 2007 (raport Banku Światowego An East Asian Renaissance). Ekonomiści starają się nie tylko definiować pułapkę średniego dochodu, ale także opisać jej źródła, charakter, powody uwięzienia w pułapce oraz sposoby na to, by ją uniknąć lub ją opuścić. Jednym zdaniem przyczyny pułapki opisuje się tak: kraje średniego dochodu osiągnęły poziom rozwoju na tyle wysoki, aby nie móc konkurować z krajami o niskich dochodach (np. przez koszty pracy), ale jednocześnie nie mają one trwałego zbioru czynników, aby móc konkurować produktami i usługami opartymi na wiedzy. Tę najogólniejszą diagnozę wspomaga się wielu szczegółowymi wyjaśnieniami. Np. Eichengreen pisze, że „o ile osiągnięcie średniego poziomu dochodu możliwe jest poprzez odtwarzanie rozwiązań technicznych państw Zachodu, wykorzystanie taniej siły roboczej i oferowanie wysokiego zwrotu z inwestycji dzięki niskiemu nasyceniu kapitałem, to model ten wyczerpuje się, gdy państwo osiąga PKB na osobę rzędu kilkunastu tysięcy dolarów. W takim przypadku koszty pracy rosną, hamując wzrost pracochłonnej produkcji, następuje nasycenie inwestycjami kapitałowymi, a sprowadzanie zaawansowanych rozwiązań z zagranicy staje się coraz trudniejsze i bardziej kosztowne, gdyż rozwiązania które mogłyby podnieść produktywność takiego kraju znajdują się na tyle blisko światowej granicy technologicznej, że podlegają reglamentacji przez ulokowanych w krajach rozwiniętych innowatorów” [Eichengreen 2011]. Wskazuje się też na demograficzne przyczyny pułapki. „Wzrost gospodarczy w krajach rozwijających się jest związany z przemianami demograficznymi, które prowadzą do nagrody w jej wczesnym stadium, ale kary później”. O ile spadek śmiertelności, możliwy dzięki postępom higieny i medycyny, pozwala na szybki wzrost siły roboczej, o tyle spadek dzietności, postępujący wraz ze wzrostem poziomu życia, powoduje starzenie się społeczeństwa. Zwiększanie obciążeń osób w wieku produkcyjnym idzie w parze ze wzrostem kosztów siły roboczej (presja na płace) [Eichengreen 2011]. Recepty. Najoryginalniejszym elementem koncepcji „pułapki średniego rozwoju” jest samo dostrzeżenie problemu i zogniskowanie na nim uwagi polityków, mediów i opinii 368 publicznej. Recepty natomiast brane są z innych obszarów badań: ze studiów nad czynnikami wzrostu oraz z prac rozwijających koncepcję narodowego systemu innowacji. Niemniej, są one brane pod kątem krajów zmagających się z pułapką. Najczęściej receptach tych powtarzają się słowa: instytucje, edukacja, koordynacja, infrastruktura (drogi, mosty, telekomunikacja, usługi logistyczne) oraz większe zróżnicowanie dóbr i usług. Gdy idzie o tę ostatnią kwestię, ustalono ścisłą korelację pomiędzy poziomem dywersyfikacji produkcji eksportowej a PKB na głowę (studia nad złożonością gospodarek [Atlas 2013]). W korelacji uwzględniono wskaźniki produktów eksportowych, gdyż są dla nich porównawcze dane statystyczne; wskaźniki te traktuje się „pars pro to” i tezę tę formułuje szerzej: istnieje ścisłe powiązanie między skalą zróżnicowania produkcji i usług danego kraju a poziomem jego gospodarki. Wzrost gospodarczy wiążę się z rozszerzaniem asortymentu produkcji i usług. Dywersyfikacja nie następuje sama z siebie, tylko jest efektem wzrostu wiedzy i know how związanej z produkcją i usługami. Nowe produkty i usługi to świadectwo nowo nabytej wiedzy. Efekt wzrostu wiedzy zależy z kolei od skuteczności edukacji i szkoleń w dostarczaniu zestawu umiejętności potrzebnych na rynku pracy oraz od adekwatności i jakości badań naukowych, prowadzonych na uczelniach, w instytutach i w firmach. Skuteczność edukacji i badań zależy w części od rządu (polityka edukacyjna i naukowa), a w części od aktywności oddolnej (obywateli, sieci, organizacji poza-rządowych, środowiska naukowego i nauczycielskiego). W części także od importu produkcyjnego i konsumpcyjnego: każdy kto uczy się obsługiwać nowy tablet lub maszynę rozszerza pulę wiedzy. W części również od wzrostu klasy średniej, kupującej wysokiej jakości innowacyjne wyroby jako wyznaczniki statusu i inwestycję na poczet przyszłego awansu. W części od badaczy, choćby byli humanistami lub rozwijali nie wiadomo jak abstrakcyjne rozważania: nowe umiejętności, jakich nabywają, lub ustalenia, do jakich dochodzą, prędzej czy później, nawet przez wiele ogniw pośrednich, opuszczają ich dyscyplinowe wspólnoty i promieniują na zewnątrz świata nauki. W części od każdego, gdyż nie ma zawodu nie opartego jakiejś wiedzy, którą nie można ulepszyć. Przejście na bardziej zaawansowany etap rozwoju zakłada wzmocnienie instytucji, zwłaszcza tych, które zapewniają finansową i makroekonomiczną stabilność, korzystny klimat dla inwestycji oraz podnoszenie wartości kapitału ludzkiego. Szczególnie ważne – podkreśla Eva Paus – jest „wsparcie struktury, która umożliwia i zmusza lokalne firmy, aby zbiorowo osiągnęły zdolność absorpcji technologii, a następnie przesuwały się po drabinie technologicznej”. Sygnały dla gospodarki muszą być takie, aby biznes chciał inwestować w modernizację i dywersyfikację produkcji oraz w dostosowanie produkcji eksportowej do ciągle zmieniającego się popytu międzynarodowego [Paus 2012]. Moment historyczny i położenie gospodarcze. Ważny jest moment historyczny i położnie geograficzne kraju skazanego na radzenie sobie z pułapką. Moment historyczny rozpatruje się od dwóch stron. Po pierwsze, podkreśla się istnienie tzw. „okien szans” (metafora budowlana), związanych z cyklem życia tzw. paradygmatu 369 techno-gospodarczego (obecnie nadal opartego na teleinformatyce). Kraj, który wie, jak wskoczyć na wzbierającą się falę nowego paradygmatu, ma zapewnione przewagi tak długo, jak jest niesiony falą. Niestety, zwykle gdy kolejny paradygmat staje się rzeczywistością, jest oczywisty dla wszystkich, a jego wczesne sygnały są oczywiste tylko ex post. Prócz tego, kraje przodujące w ramach dominującego paradygmatu mają zwykle więcej możliwości od spóźnialskich („latecomers”, metafora z języka potocznego), aby opanować i ten następny. Po drugie, zwraca się uwagę na szanse i zagrożenia, jakie stwarza globalizacja. Zagrożenie to skrócenie czasu potrzebnego, aby przenieść się do bardziej zaawansowanej technologicznie produkcji, gdyż zmiany technologiczne następują coraz szybciej. Jest to przede wszystkim efekt teleinformatyki, która przenika inne technologie. Szanse polegają na umiędzynarodowieniu innowacji oraz na rozszczepianiu tzw. łańcucha wartości („value chain”), czyli sekwencji działań, które tworzą wartość dla odbiorcy (widzianych zarówno w samym przedsiębiorstwie, od B+R, przez produkcję, po sprzedaż i serwis gwarancyjny, jak i poza nim, jako ciąg powiązań dostawcy-klienci, od półproduktu po produkt finalny). Oznacza to, że poszczególne wysoko zaawansowane elementy ciągu produkcji wytwarza się nieraz w krajach dalekich od technologicznego frontu. Np. iPhone i iPad nie mają jednego kraju pochodzenia. Kilkanaście firm z co najmniej pięciu krajów dostarcza do nich części. Wysoko zaawansowane elementy nie są bynajmniej domeną branż wysokiej technologii. Każda technologia ma swój koniec nisko zaawansowany i wysoko zaawansowany. Przesuwać się po drabinie technologicznej powinny także sektory tradycyjne. Wysoko zaawansowane technologie nie są monopolem branż wysokich technologii. Zaawansowane technologicznie wyroby i usługi niekoniecznie zapewniają najwyższy zysk. Stwarza to szansę dla państw borykających się z pułapką. Drewno, wino, łosoś i miedź przytacza się jako przykłady tradycyjnych branż, które Chile potrafiło tak unowocześnić, że nie tylko przodują w świecie, ale także są siłą pociągową innych chilijskich branż. Sukces Chile był pochodną kolejnego czynnika walki z pułapką, a mianowicie koordynacji. Sukces ten zależał od skoordynowanych działań rządu, aktywnych firm prywatnych, zagranicznych przedsiębiorstw chętnych do dzielenia się swoją wiedzą oraz krajowych placówek badawczo-rozwojowych. Położenie geograficzne oznacza nie tylko, jak zawsze, dostęp do mórz i ukształtowanie terenu zapewniające łatwą komunikację, ale także obecność zaawansowanego gospodarczo sąsiada. Dzieje się tak m.in. dlatego, że – jak dowiedli tego Hausman i Hidalgo – ważną rolę w tempie i kierunku dywersyfikacji produkcji i usług odgrywają tacy mocniejsi sąsiedzi. Japonia dla Korei, Ameryka dla Kanady i Meksyku, Niemcy dla Polski. Kraj rozszerza asortyment produkcji i usług będąc nie tylko „zależnym od szlaku” („path dependency”), ale także od tego, w jakim kierunku postępuje zróżnicowanie u tego potężniejszego sąsiada. Koncepcja „zależności od szlaku” zwraca uwagę, że zakres zmiany ku większej złożoności jest określony przez dostępne możliwości i odbywa się „krok po kroku”. Z kolei spostrzeżenie o roli potężniejszego sąsiada podkreśla wagę zagranicz370 nych technologii, które stanowią źródło 90% (lub więcej) wzrostu produktywności w większości państw świata. Potężniejszy sąsiad oddziałuje przez pod-wykonawstwo, współpracę, wpływ kulturowy [Atlas 2013]. Bibliografia Bukowski Maciej, Aleksander Szpor, Aleksander Śniegocki, Potencjał i bariery polskiej innowacyjności, Instytut Badań Strukturalnych, Warszawa 2012 Eichengreen Barry 2011, Escaping the Middle-Income Trap Paus Eva 2012, Confronting the Middle Income Trap: Insights from Small Latecomers, “St Comp Int Dev” 47, ss. 115–138. WB 2010, World Bank Escaping middle income trap When Fast Growing Economies Slow Down: International Evidence And Implications For China 2011, Barry Eichengreen, Donghyun Park, Kwanho Shin, Working Paper The Atlas of Economic Complexity: Mapping Paths to Prosperity, 2013, Ricardo Hausmann, César A. Hidalgo, Sebastian Bustos, Michele Coscia, Alexander Simoes, Muhammed A. Yildirim. REFLEKSYJNOŚĆ Refleksyjność odnosi się do wzajemnych relacji pomiędzy przyczyną i skutkiem. Zwrotna relacja jest dwukierunkowa, zarówno przyczyna jak skutek mają wpływ na siebie nawzajem w sytuacji [Wikipedia 2013]. Najczęściej relację tę odnosi się do powiązań pomiędzy obserwatorem lub praktykiem a rzeczywistością społeczną, która stanowi przedmiot działań lub obserwacji; refleksyjność – w ślad za łacińskim reflecto – oznacza zwrotność, akt samo-odniesienia, ocenianie wiedzy będącej podstawą dotychczasowego działania jako źródło nieustannego uczenia się. Pierwsze książki z przymiotnikiem reflexive w tytule dotyczyły językoznawstwa (od 1909 roku) i matematyki (od 1921); w roku 1925 refleksyjny wkroczył na obszar filozofii. Odtąd podjął ekspansję na nowe obszary wiedzy. Początkowo stosowany w języku francuskim i niemieckim, w połowie lat 1960-tych pojawił się w tytułach książek publikowanych po angielsku. Przymiotnik ten okazał się bardzo przydatny jako źródło inspiracji i forma językowa nowych subdyscyplin. W latach 1990-tych, przedłożono różne pomysły refleksyjnych praktyk badawczych, metodologii oraz ewaluacji badań. Refleksyjny okazał się także użyteczny jako określnik nowych koncepcji: zachowania (1972), wszechświata (1972), ideologii (1974), praktyki (1983), strategicznej kontroli wojskowej (1984), prawa (1987), polityki (1991), myślenia i rozumowania (1993, 1994), demokracji (1995), języka (1995), modernizacji (1996), edukacji (1997), teorii gier (1997), intelektualisty (1997), rządzenia (1998), procesu politycznego (1998), sprawiedliwości społecznej (1999), zarządzania efektywnością (2002), innowacji (2002). 371 Ze wszystkich tych koncepcji największe znaczenie uzyskały koncepcje „refleksywnej praktyki” [Schön 1983] oraz „refleksywnej modernizacji” [Beck 1994]; szansę taką ma także nowa koncepcja innowacji jako „strategicznej refleksywności” [Fuglsang, 2003]. Ogólnie biorąc, refleksyjność mieni się od znaczeń, będąc już to postawą, już to cechą, wartością, zasadą, praktyką, aktem, funkcją, umiejętnością, metodą badawczą, heurystyką lub nawet nazwą zbiorczą sformalizowanych procedur (takich jak foresight i wartościowanie technologii). Najczęściej znaczenie refleksyjności waha się od indywidualnej samowiedzy traktowanej jako wartość sama w sobie do samowiedzy zbiorowej zdobywanej w stałych i nieustannie zmieniających się powiązaniach z otoczeniem, uznawanej jako konieczny czynnik “przeżycia”, “utrzymania się w grze”, “sprostania konkurencji”; od statycznego, raz osiągniętego „samo-poznania”, po wiedzę rozwijaną w kontaktach ze środowiskiem zewnętrznym i służącą jako instrument działania. Dla plastycznego uzmysłowienia sobie sensu tego pojęcia odwołajmy się do przykładu przytoczonego w książce T. Winograda i F. Floresa. Stolarz wbija gwóźdź opierając się na wiedzy pozasłownej (automatycznych odruchach). Gdy nagle wiedza ta zawodzi, odkłada młotek i zadaje sobie pytania, dlaczego tak się stało i co należy zmienić. Póki bił młotkiem, a gwóźdź wchodził zgodnie z planem, póki nie nastąpiło nieoczekiwane zakłócenie podmiot (stolarz), narzędzia (młotek i gwoździe), otoczenie (deski) oraz wiedza (jak wbijać) były działaniu jednym i tym samym. Młotek był takim samym elementem działania jak dłoń i mięśnie, które nim poruszały. Wiedza ukryta w nawykach nie była oddzielona od działania. By osiągnąć założony cel stolarz nie musiał myśleć w kategoriach właściwości młotka, gwoździ, desek oraz stosowanej techniki. Dopiero gdy sytuacja stała się problematyczna, a gwoździe, młotek, deski i stolarz – choćby na chwilę – bezużyteczne, w analitycznej refleksji poszczególne elementy działania zyskały samodzielność [Winograd 1986]. W akcie refeksyjności następuje oddzielenie człowieka od działania, narzędzi i otoczenia; aby zrozumieć powstały problem człowiek odwołuje się do istniejących lub tworzy nowe modele sytuacji. Składnikami najprostszej refleksyjności są zatem: działanie (z ukrytą w nim wiedzą) jako przedmiot analizy; cel, któremu działanie ma służyć, oraz wartości, jakie ma realizować (takie jak np. skuteczność i efektywność); monitoring, dzięki któremu dostrzega się problem; ewaluacja działania, dzięki której definiuje się problem i proponuje metodę jego rozwiązania. Rozwiązując powstały problem stolarz mógł sięgnąć po różne źródła wiedzy – od wcześniejszego doświadczenia aż po podręczniki stolarstwa. Mógł problem rozwiązać sam, na drodze myślowego lub realnego eksperymentu, mógł też poprosić o pomoc kolegę. Przytoczony przykład ilustruje najprostszą formę refleksyjności. W dzisiejszych czasach sytuacje, do których odnosi się refleksyjność, są na ogół znacznie bardziej złożone: człowiek działa w zespole, a jego narzędzia, środowisko i wiedza są znacznie bardziej skomplikowane. Większy stopień złożoności świata społecznego powoduje, że refleksyjność nie tylko odgrywa nieporównanie większą rolę niż dawniej, ale także jest o wiele 372 bardziej rozbudowana i sformalizowana. Coraz częściej nie jest tylko aktem doraźnym, po który sięga się w chwili dostrzeżenia problemu, tylko stałym. Dotyczy nie tylko zagrożeń, ale i szans, nie tylko stanu obecnego, ale i długofalowych perspektyw. Pojęcie refleksyjności zawdzięcza swoje znaczenie nie tylko częstotliwości, z jaką jest stosowane, ale także randze uczonych, którzy zogniskowali wokół niego swoje teorie, przede wszystkim Pierre Bourdieu oraz Anthony Giddensowi i Ulrichowi Beckowi. Pojęcie reflexivity Anthony Giddensa nie ma dobrego jednoznacznego odpowiednika w języku polskim. Chodzi w nim nie tyle o refleksyjność w znaczeniu pasywnej zadumy nad sobą, tylko o stałe i systematyczne intelektualne sprzężenie zwrotne z otoczeniem i z samym sobą, zbieranie danych – o sobie, swojej organizacji i jej obszarze zainteresowania – analizowanie ich oraz wprowadzanie korekt do zasad działania, tak aby lepiej realizować nakreślone cele. Giddens refleksyjność uznaje za atrybut nowoczesnego społeczeństwa. Jego zdaniem w coraz większym zakresie jest ona wspierana przez systemy eksperckie (nauka, prawo, medycyna, technika) oraz coraz częściej polega nie tylko na stałej konfrontacji z zastaną sytuacją, ale także uwzględnia różne możliwe sytuacje przyszłe. Zdaniem A. Giddensa reflexivity to konieczna postawa ludzi i organizacji w złożonym i szybko zmieniającym się świecie [Beck 1994]. W filozofii pojęcie refleksyjności pojawia się m.in. zarówno w koncepcjach praktyki, jak i języka. „Filozofia hermeneutyczna” (Heidegger, Gadamer) zwraca uwagę na refleksyjność (samozwrotność) języka, jego zdolność oddziaływania na samego siebie. Jako przykład przytacza słowo „język”, który określając język jest jego częścią. Niezdolność do opuszczenia systemu w języku nieuwarunkowanym systemowo ma niebagatelne znaczenie dla naszej wiedzy i pojęcia prawdy. Każda meta-koncepcja może zostać nakryta nową. Warunkiem docierania do możliwie obiektywnej rzeczywistości jest rozmowa. W konfrontacji z innymi punktami widzenia perspektywa, w jakiej sam widzę rzeczy, staje się dla mnie samego problematyczna, patrząc innymi oczyma na coś, co inni widzą inaczej, mogę skorygować swoje (lub innych) przesądy. W socjologii problematyka refleksyjności obecna jest zarówno w publikacjach nurtu symbolicznego interakcjonizmu i etnometodologii (m.in. G. H. Mead, 1934, P. Bourdieu, 1990), jak i postmodernizmu (M. Foucault, 1980, A. Giddens, 1990). W tych pierwszych nurtach umieścić trzeba tzw. socjologię refleksyjną, kładącą nacisk na auto-analizę przesłanek myślenia samej socjologii. W psychologii wiedza do teorii refleksyjności znajduje się m.in. w modelu rozwoju poznawczego Jeana Piageta. Na styku filozofii, socjologii, antropologii, psychologii, badań pedagogicznych i nauk o zarządzaniu rozwijane są teorie praktyki oraz teorie uczenia się. Idea refleksyjności pojawia się m.in. w koncepcjach trzech typów uczenia się G. Batesona, uczenia opartego na pojedynczej i podwójnej pętli oraz meta-uczenia (deuterolearning) C. C. Argyris i D.A. Schöna oraz uczenia się proceduralnego i konceptualnego. Uczenie oparte na pojedynczej pętli to powielanie cudzych zachowań; uczenie oparte na 373 podwójnej pętli to modyfikowanie obowiązujących norm, meta-uczenie dotyczy uczenia się sztuki uczenia. Nauczanie proceduralne to prosta bezrefleksyjna realizacja programu nauczania; nauczanie konceptualne – to nauczanie na podstawie własnej strategii nauczania, modyfikowanej w miarę napływu informacji o skutkach jej stosowania, o jej wartości praktycznej lub spójności z innymi strategiami. W ekonomii ewolucyjnej idee bliskie zagadnieniom refleksyjności rozwijane są w kontekście B+R i innowacji (typy procesów uczenia się, jak learning-by-doing, learning-bysearching, learning-by-using, spillover learning oraz „dynamiczne kompetencje”). Idea refleksyjności jest obecna w koncepcjach modeli innowacji, pięciu generacji procesu innowacji w przedsiębiorstwach, trzech generacji B+R przedsiębiorstw oraz trzech scenariuszy organizacji B+R. Można postawić tezę, że tak nagły awans refleksyjności jako słowa, pojęcia i ogniska koncepcji teoretycznych to przede wszystkim przejaw wejścia społeczeństw rozwiniętych gospodarczo w fazę określaną jako „gospodarka oparta na wiedzy”, „społeczeństwo wiedzy”, „społeczeństwo poinformowane”. Językowi angielskiemu (a także innym językom) brakowało wcześniej określenia na (stale aktualizowaną) samowiedzę (jednostki, rodziny czy organizacji), zdobywaną w relacjach z otoczeniem i służącą jako narzędzie auto-korekty obranej strategii oraz adaptacji koniecznej dla radzenia sobie w zmieniających się sytuacjach. Lukę tę zapełniło słowo reflexivity. Jest charakterystyczne, że w ostatnich latach równolegle z reflexivity zrobiły karierę inne terminy, takie jak np. organizational learning Kozłowski 2002]. Bibliografia Lars Fuglsang, Jon Sundbo, Innovation as Strategic Reflexivity, Taylor & Francis, 2003, ss. 304. Reflexivity Wikipedia 2013. Schön D. (1983) The Reflective Practitioner, How professionals think in action, Basic Books. Ulrich Beck, Anthony Giddens, Scott Lash, Reflexive modernization : politics, tradition and aesthetics in the modern social order, Stanford, Calif. : Stanford University Press, 1994. Tłum. pol. Modernizacja refleksyjna : polityka, tradycja i estetyka w porządku społecznym nowoczesności, Warszawa : Wydawnictwo Naukowe PWN, 2009. Terry Winograd, Fernando Flores, Understanding Computers and Cognition: A New Foundation for Design, Intellect Books, 1986 ss. 207. Jan Kozłowski, Refleksywność – jedna z kluczowych idei przełomu tysiącleci? w: Kreowanie nowego, Warszawa 2002, ss. 205-248. REWOLUCJA 3D [3D Revolution] Ocenia się, że w ciągu następnej dekady lub dwóch, rewolucja druku 3D będzie miała wpływ równy rewolucji PC z lat 1980 i 1990. Sądzi się, że w ciągu 20 lat, a może mniej niż 10, większość ludzi w krajach rozwiniętych będzie regularnie korzystać z drukarek 374 3D do „ucieleśnienia” cyfrowego projektu, lub będzie regularnie kupowała zamówione przez siebie w 3D produkty lub części zamienne. Druk 3D stosuje się do poprawy projektowania produktu. Oprócz projektowania koncepcyjnego, drukarki 3D stosuje się także do tworzenia funkcjonalnych prototypów. Prototypy funkcjonalne buduje się podczas procesów projektowania, po to by sprawdzić formę, dopasowanie i funkcję poszczególnych części danego produktu. Drukarki 3D zaczynają być także stosowane w przemyśle w fazie przed-produkcyjnej. Większość tradycyjnych procesów produkcyjnych wymaga stworzenia „szytych na miarę” przyrządów, narzędzi, wzorów i form, wykorzystywanych podczas produkcji do kształtowania odpowiednich form metali i tworzyw sztucznych. Podobnie jak prototypy produktów, przedmioty takie były tradycyjnie wykonywane ręcznie, co było zarówno czasochłonne jak i kosztowne. Korzystanie z drukarek 3D celem oprzyrządowania produkcji pozwala zaoszczędzić sporo czasu i pieniędzy. Szczególnie obiecujące są zastosowania druku 3D w bezpośredniej produkcji form albo matryc z których można wykonać ostateczne formy. Chociaż druk 3D ma już ustalone miejsce w pewnych pracach projektowych i wstępnych procesach wytwarzania, jednak ostateczne zastosowanie techniki będzie polegać bezpośrednio na produkcji. W przyszłości możliwe będzie wytwarzanie techniką druku 3D wszystkiego, nawet całego samolotu. Jedną z głównych zalet druku 3D jest możliwość osiągnięcia masowej kastomizacji, gdyż w przeciwieństwie do druku 2D kolejne obiekty produkowane tą techniką nie musza być takie same. Tak jak masowa produkcja zrewolucjonizowała gospodarkę XX wieku, tak masowa kastomizacja rewolucjonizuje gospodarkę XXI wieku. Oprócz masowej kastomizacji druk 3D pozwala na tanie wytwarzanie wyrobów jednorazowych lub małych partii elementów. Druk 3D jest już stosowany dla wytwarzania rzeczy, które nie mogą być wykonane szybko i tanio przy użyciu tradycyjnych metod produkcji. Jesteśmy świadkami narodzin tzw. otwartego hardwaru, gdy coraz większa liczba osób mając dostęp do oprogramowania CAD (Computer-aided design) oraz drukarek 3D pobiera obiekty w formie cyfrowej, dokonuje w nim zmian, drukuje obiekt, oraz ponownie udostępnia publicznie zmieniony projekt, aby inni mogli skorzystać z dokonanych modyfikacji. Choć gdy większość rzeczy w 3D powstaje z tworzyw sztucznych lub metali, istnieją specjalistyczne drukarki 3D, które pozwalają na osadzanie kolejnych warstw żywych komórek. Takie bio-drukarki mają potencjał przekształcenia wielu obszarów medycyny, gdyż umożliwiają powstawanie z hodowli komórek własnych pacjenta zastępczej skóry i narządów ludzkich. Jeśli tak się stanie - a pionierzy bio-druku spodziewają się, że stanie się to w ciągu dwóch dekad - to rozwój druku 3D może zlikwidować listy pacjentów czekających na organa do przeszczepu. W ciągu najbliższych pięciu lat tkanki drukowane w 3D mogą być zastosowane w badaniach leków, zmniejszając tym samym skalę doświadczeń na zwierzętach. 375 Druk 3D stał się możliwy dzięki znacznej poprawie mocy obliczeniowej i pamięci komputera oraz infrastruktury sieciowej. Kiedy drukarki 3D pierwszej generacji weszły na rynek pod koniec 1980 i na początku 1990, przemysłowe stacje robocze wykorzystywane do projektowania obiektów 3D były drogie, a idea wymiany dużych ilości danych przez Internet – nierealna. Jednak dziś wiele smartfonów i tabletów – nie mówiąc już o komputerach stacjonarnych i laptopach – jest na tyle silnych, aby móc służyć do projektowania złożonych obiektów 3D. Druk 3D zawdzięcza także swoje powodzenie postępowi technicznemu w druku 2D. Drukarki 3D są czymś radykalnie różnym od 2D, jednak opierają się na dość podobnych siłownikach i mechanizmach zasilających, laserach, głowicach atramentowych i sterownikach elektronicznych. Zaawansowanie takiego sprzętu w ciągu ostatnich dwóch dekad było warunkiem koniecznym rewolucji druku 3D. Rozwój druku 3D musiał również zaczekać na rozwój samego druku 3D. Innowacje i lepsze modele tanich drukarek 3D wprowadzili pasjonaci, którzy korzystali z wczesnych drukarek 3D. Kolejnym katalizatorem rewolucji druku 3D był wzrost cyfryzacji działalności człowieka. Dzisiaj miliardy ludzi korzysta z Internetu i posiada w wersji cyfrowej muzykę, zdjęcia lub wideo. Pomysł wykorzystania drukarek 3D do wytwarzania obiektów fizycznych z danych w Internecie cyfrowych jest o wiele bardziej naturalny niż w okresie narodzin drukarek 3D. Wreszcie, niektóre z patentów na technologie druku 3D, uzyskane w latach 1980 i na początku 1990, wygasły lub wkrótce wygasną. Niektóre z potencjalnych barier prawnych, które spowolniły rewolucję 3D zostały więc pokonane [Barnatt]. Bibliografia Barnatt Christopher, 3D Printing: The Next Industrial Revolution, 2013. ROLA RZĄDU W BADANIACH I INNOWACJACH [The Role Of Government In Research And Innovation] Model gospodarki traktowanej jako samo-regulujący system rynkowy, wg którego rolą rządu jest pilnowanie przestrzegania praw własności oraz interweniowanie tylko wtedy, gdy to absolutnie konieczne („ułomność rynku”) głosi, że rynek pobudzają innowacje, których autorami są firmy. Rola rządu, marginalna, ma tylko polegać na ułatwianiu życia dynamicznemu biznesowi poprzez prywatyzację i deregulację, oraz wprowadzanie zachęt podatkowych, szczególnie wobec małych i średnich firm, z natury zwinniejszych i bardziej przedsiębiorczych od wielkich zakładów przemysłowych. Wszelako – argumentuje Keith Smith [2010] – historia cywilizacji mówi coś, co przeocza dominujący model ekonomii. To państwo – nie biznes – odegrało kluczową rolę w radykalnych innowacjach, takich jak taśma montażowa (użyta po raz pierwszy do budowy 376 brytyjskich statków wojennych i zaadoptowana później w amerykańskim przemyśle mięsnym i samochodowym), komputer, Internet, telefonia komórkowa, logistyka, bio-inanotechnologia, GPS, wielkie organizacje itd. Internet nie powstałby bez amerykańskiej Agencji Zaawansowanych Badań Obronnych (DARPA), nanotechnologia bez amerykańskiego programu Narodowej Inicjatywy Nanotechnologicznej, a postulowana nowa zielona rewolucja przemysłowa czystej energii nie osiągnie „punktu, po którym nie ma odwrotu” bez długofalowej systematycznej interwencji państw zaawansowanych gospodarczo. Dzieje się tak z powodu skali, horyzontu czasowego, oraz ryzyka i niepewności, jakie wiążą się ze stworzeniem tych przełomowych innowacji. To powód (jeden z wielu) przemyślenia roli państwa w gospodarce. Zamiast mówić o „gospodarce rynkowej” powinno się mówić o „gospodarce państwowo-rynkowej”. Wielkie korporacje są trwale zintegrowane z państwem i jego porządkiem prawnym. Także z powodu swej skali, sektor publiczny – edukacja, zdrowie, obrona, transport, infrastruktura, nauka, pomoc publiczna dla B+R w biznesie – to istotna część gospodarki [Smith 2010]. Idee Smitha rozszerza Mariana Mazzucato [2013]. Mitem jest stanowisko, że rola państwa w B+R i innowacjach powinna być marginalna, że twórczy i przedsiębiorczy mogą być tylko przedsiębiorcy, ale nie państwo, z natury rzeczy skazane na rutyny, stagnację i biurokrację (jak gdyby wiele państw, nie tylko Korea i Singapur, nie okazało się innowacyjnymi, i jak gdyby wiele firm, np. Encyklopedia Britannica, nawet rynek nie był w stanie pobudzić na czas do nowatorskich działań). Rola państwa w innowacjach wcale nie jest marginalna, tylko kluczowa. Państwo powinno nie tylko finansować powstawanie wiedzy na uniwersytetach i w laboratoriach rządowych, ale także dbać o jej szeroką dyfuzję we wszystkich sektorach gospodarki i życia społecznego, wspomagać tworzenie sieci innowacji oraz budować strategie rozwoju gospodarczego w priorytetowych dziedzinach. 77 z 88 najważniejszych amerykańskich wynalazków (nagrodzonych przez R&D Magazine w latach 1971 – 2006) zależało w decydującej mierze od wsparcia państwa. Za symbol kreatywności rynku uznaje się firmę Apple. Jej przełomowe produkty, które wzbudziły na świecie niemal tyle entuzjazmu, co w latach 1960. przeboje bitlesów, to iPod pierwszej generacji (2001), iPod dotykowy i iPhone (2007) oraz iPad (2010). Każde z nich oparte było na badaniach naukowych i technologicznych przeprowadzonych za pieniądze amerykańskiego podatnika w publicznym sektorze badań (przede wszystkim amerykańskim): DRAM – DARPA, click-wheel – CERN, baterie –Departament Energii, kompresja sygnału – Urząd Badań Wojskowych, ciekłokrystaliczny wyświetlacz – National Institutes of Health, National Science Foundation, Department of Defence, twardy mikro dysk – DARPA i Department of Defence, mikroprocesor – DARPA, ekran dotykowy – Department of Energy, National Science Foundation, Department of Defence, CIA, HTTP i HTML – CERN, technologia komórkowa – wojsko, SIRI (osobisty asystent i nawigator wiedzy) – DARPA, GPS – Department of Defence, Internet – DARPA. Amerykańska polityka zamówień publicznych wspierała Apple w krytycznych fazach, kiedy zdawało 377 się, że los firmy jest przesądzony: przez całe lata 1990. Amerykańskie szkoły publiczne kupowały jej produkty i oprogramowania. Podobnie twórczą rolę w amerykańskich innowacjach odgrywa amerykański The Small Business Innovation Research (SBIR) Programme, The Orphan Drug Act ODA (ustawa która zapewniła możliwości rozwoju tak znanych firm biofarmaceutycznych jak Genzyme, Biogen, czy Genentech), czy też The National Nanotechnology Initiative (NNI). Wszystkie te inicjatywy łączą politykę popytową (ODA, SBIR, NNI) z podażową (DARPA, NNI). Dzięki nim rząd nie tyle i nie tylko „stwarza warunki dla innowacji” (minimalna rola państwa), co finansuje badania podstawowe oraz tworzy sieci powiązań pomiędzy badaczami sektora publicznego a biznesem [Mazzucato 2013]. Krytykę modelu samo-regulującego się rynku podejmuje też m.in. Richard Nelson [2000]. Bibliografia Mazzucato Mariana 2013, The Entrepreneurial State: Debunking Public vs. Private Sector Myths, Anthem Press. Nelson Richard 2000, On the complexities and limits of market organization. Smith Keith 2010, Public sector Innovation Indicators: Emerging Issues, Innovation in the Public Sector Conference, Budapest 27-28 May. ROZLICZALNOŚĆ [Accountability] Jednym z kluczowych słów w działalności sektora publicznego II poł. XX wieku stało się słowo accountability. Nie ma ono jednoznacznego odpowiednika w języku polskim. Najczęściej accountable tłumaczy się jako odpowiedzialny, zobowiązany do wyliczenia się, wytłumaczalny, dający się usprawiedliwić [Jaślanowie 1991]. Accountable odnosi się do sytuacji, w której np. administrator bezpośrednio odpowiedzialny przed radą nadzorczą musi okazać, że potrafił wywiązać się z powierzonych mu obowiązków, a z powierzonych mu rzeczy zrobił mądry użytek [Penguin 1971]. Accountable (rozliczane) są organizacje i ludzie, a nie programy czy instrumenty polityczne. Mówiąc opisowo, accountability to zobowiązanie stron uczestniczących we wprowadzaniu w życie interwencji publicznej do tego, aby dostarczyć zwierzchnim władzom politycznym oraz opinii publicznej informacji i wyjaśnień dotyczących oczekiwanych i aktualnych wyników działań. Osią informacji i wyjaśnień ma być sposób wykorzystania zasobów publicznych [Evaluating 1999]. Brak polskiego odpowiednika accountability rozumianego w sposób używany obecnie w krajach OECD świadczy, że „rozliczanie” rozumiane jest w Polsce raczej w kategoriach zgodności z prawem, a w szczególności z przepisami finansowymi, a nie zgodności z misją organizacji, mandatem społecznym, i zasadami skutecznego działania. Ponadto, definiowane jest ono raczej w sposób wąski i negatywny (kontrola i kara), podczas gdy dziś 378 w accountability nacisk położony jest bardziej na aspekt pozytywny (pomiar dokonań, informowanie opinii publicznej o osiągniętych celach i rezultatach). Accountability w dzisiejszym rozumieniu jest efektem zmian w rozumieniu zadań sektora publicznego w zachodnim świecie. Przed kilkoma dekadami słowo to także nie miało dzisiejszego znaczenia. Dawniej, tak jak dziś w Polsce „rozliczanie”, dotyczyło tylko zgodności z przepisami i spraw finansowych, a nie skuteczności i efektywności działania. Zmiana znaczenia odzwierciedliła przejście od administracji „nakazu i kontroli” do nowoczesnej administracji. Ale gdy w Polsce „rozliczanie” nie nabrało jeszcze dzisiejszego znaczenia accountability, w krajach OECD słowo to rozszerza swój zakres, a zmiana ta odzwierciedla kolejną ewolucję sektora publicznego. W ostatnich dekadach accountability odnosi się do odpowiedzialności urzędników rządowych przed zwierzchnikami, zwierzchników przed ministrami, ministrów przed parlamentem, a parlamentu przed wyborcami. Wraz z ewolucją systemu rządzenia ten prosty model jest coraz częściej w wieloraki sposób modyfikowany. Accountability oznacza coraz częściej „rozliczanie” nie tylko przed zwierzchnikiem, ale także przed interesariuszami i opinią publiczną, nie koniecznie bezpośrednie, ale bardziej długofalowe, nie tyle oparte na kontroli zgodności wyników z zakładanymi celami, co na osiągnięciu bardziej długofalowych pozytywnych efektów. W korporacjach obejmuje ono przewidziane prawem konsultacje z interesariuszami, a w demokracji partycypacyjnej – udział obywateli w sprawowaniu władzy. Zmiana znaczenia i praktyk „rozliczania” jest reakcją na sytuację, w której tradycyjne metody administracji często zawodzą w zarządzaniu współczesnymi instytucjami rządowymi, instytucje dostarczające usług publicznych funkcjonują nieraz skuteczniej, gdy są zwolnione z codziennego nadzoru, a w szybko zmieniającym się świecie stwierdza się potrzebę większej organizacyjnej elastyczności [OECD 1997]. Podsumowując, można accountability zdefiniować jako „układ, dzięki któremu osoby reprezentujące organizację rozliczają się przed swymi zwierzchnikami, parlamentem, opinią publiczną i użytkownikami. Skuteczne rozliczanie (accountability) obejmuje jasną definicję zakresu odpowiedzialności, określenie stopnia samodzielności, instrukcje co do sporządzania sprawozdań finansowych, wymagania odnośnie do przedkładania planów organizacyjnych, pomiar wyników, monitoring dokonań, odpowiadanie na zadawane pytania, a także nominacje, nagrody i sankcje [Pigeon 2000].” Porządek relacji oraz sposób ich egzekwowania określany mianem accountability wpisany jest w przepisy prawne, procedury i praktyki działania oraz cały cykl politycznoadministracyjny organizacji publicznych. Bibliografia J. i H. Jaślanowie, Słownik terminologii prawniczej i ekonomicznej angielsko-polski, Warszawa 1991. The Penguin Modern Guide to Synonyms and Related Words, London 1971, s. 493. Evaluating socio-economic programmes. Glossary of 300 concepts and technical terms, vol. 6, European Commission, Luxembourg, 1999. 379 E. Richard Pigeon and Ralph Kellett, Glossary Of Common Terms Used In Research And Evaluation, RCMPGRC, 2000, Internet. OECD Choice of Policy Instruments, 1997 PUMA/SBO(97)9 SKUMULOWANE KORZYŚCI Ideę „skumulowanych korzyści” rozwinął przed laty socjolog Robert Merton [Merton 1968; 1988; 1995; Walberg 1983. Podczas gdy Merton opisał zjawisko na przykładzie karier w nauce, jest ono (jak podkreślił sam autor) uniwersalne. Można je zaobserwować w różnych sektorach, sferach, obszarach geograficznych i okresach historycznych. Pojęcie to jest obecnie stosowane w wielu dziedzinach nauki [Zuckerman 2010]. Wg Mertona, koncepcja kumulatywnej korzyści zwraca uwagę na sposób w jaki wykorzystuje się pewne wyjściowe przewagi dla uzyskania ich kolejnych małych przyrostów, aż do osiągnięcia punktu wyczerpania możliwości lub wystąpienia procesu równoważącego (countervailing process). Np. na poziomie organizacyjnym, początkowa korzyść porównawcza może polegać na wielu czynnikach, takich jak przywództwo, strategia, reputacja, zasoby fizyczne, ludzkie i informacyjne, wymagający klienci, zamówienia publiczne, relacje z klientami z przemysłu lub działalność w wyłaniających się i rokujących przyszłość obszarach techniki. W pewnych okolicznościach te początkowe korzyści zaczynają być stale pomnażane dzięki rodzajowi „pozytywnej ścieżki rozwoju” (virtuous circle). Np. rządowy instytut badawczo-rozwojowy powiększa swoje aktywa inwestując w organizację i zarządzanie, marketing badań i kontakty z otoczeniem (public relations) itd. Utalentowani badacze znajdują w nim warunki do prowadzenia badań na wysokim poziomie. Przyciągają oni innych dobrych badaczy, gdyż utalentowani grawitują ku ośrodkom, które oferują najlepsze szanse rozwoju, zarówno co do wynagrodzenia, jak i naukowej samo-realizacji. Instytut działa sprawniej, a jego badania zyskują uznanie. To z kolei przyciąga nowe fundusze badawcze i nowych utalentowanych badaczy i pozwala na nowe inwestycje w kapitał ludzki i fizyczny. Do instytutu trafia coraz więcej ofert współpracy, krajowej i międzynarodowej, co jest dodatkowym czynnikiem pobudzającym badania. Działalność instytutu zwraca uwagę biznesu, który w jego pobliżu zakłada ośrodki badawczo-rozwojowe i podejmuje z nim współpracę [Freeman 1962]. Wymagający klienci wymuszają stosowanie wysokich standardów pracy, co umożliwia instytutowi przyciągnąć klientów z bardziej zaawansowanych krajów. Wdrożenie TQM pociąga za sobą ulepszenia jakości usług, wzrost satysfakcji klientów, redukcję kosztów i polepszenie wizerunku firmy. Będąc magnesem talentów instytut przyciąga także absolwentów, który tworzą firmy odpryskowe i zachęcają inne przedsiębiorstwa do lokowania swoich oddziałów w jego pobliżu [Geuna 1995; Florida 1999]. W innym instytucie zachodzi odwrotny proces. Kapitał wyjściowy jest marnotrawiony. Najbardziej utalentowani mają jedynie niewielki wpływ na działalność badawczą instytutu. Establishment badawczy obawia się wspierać najbardziej utalentowanych widząc w nich przyszłych konkurentów w walce o szczupłe zasoby. Instytut zachowuje się jak 380 „oblężona twierdza”. Badacze rozwijają strategie unikania współpracy. Klienci są niezadowoleni. Brak synergii i instytut staje się „mniej niż sumą swoich części”. Koncepcję skumulowanych korzyści stosuje się często dla wyjaśnienia dlaczego pewne kraje lub regiony odniosły sukces a inne nie. Jak i dlaczego pewne miejsca rozkwitają podczas gdy inne nie są w stanie się rozwinąć to często nierozwiązana zagadka. Podkreśla się jednak, że problem tkwi nie tyle w układzie lokalnych cech lub warunków, co (bardziej) w sekwencji kumulujących się interakcji pomiędzy nimi. Osie krystalizacji wzrostu mogą być tak różne, jak czołowy uniwersytet badawczy, prestiżowy park nauki, atrakcyjne środowisko gospodarcze przyciągające wysoko wykwalifikowanych specjalistów, obecność kapitału ryzyka, publiczne wsparcie dla innowacyjnych technologii [Garnsey 1998]. W szczególności, coraz częściej to szkoły wyższe są „lokomotywami” lokalnego rozwoju [Florida 1999]. Zbieg różnych przyczyn nieoczekiwanie tworzy mieszankę wybuchową, która uruchamia procesy rozwojowe. Gdy osiąga się „masę krytyczną”, region wkracza na ścieżkę stałego wzrostu. Ożywiają się kontakty i obieg informacji. Skala regionu ułatwia wzajemne uczenie się. Procesy nabierają rozpędu. Rozwijają się sieci współpracy. Współdziałania ułatwiają adoptowanie się do nowych sytuacji. Utrwala się ścieżka rozwoju: wcześniejsze sukcesy wpływają na dobór dostępnych opcji. Części systemu są stale reorganizowane i różnicowane, np. kształtuje się lokalny rynek pracy intelektualnej. Studenci studiujący pionierskie badania decydują się na karierę na lokalnym uniwersytecie, tworząc specjalizacje w badaniach i dydaktyce, związane z regionalnymi kompetencjami. Silne regionalne sieci pomiędzy firmami oraz firmami i uczelniami stają się wehikułami dla transferu wiedzy. Wzrasta podaż naukowców, inżynierów i doktorów. Firmy sukcesu zostają matkami innych firm (np. na drodze podwykonawstwa lub tworzenia przedsiębiorstw odpryskowych) [Garnsey 1998; Bent Dalum 1999]. W miarę upływu czasu, pojawiają się „wąskie gardła”. Korzyści zapewniające dynamiczny wzrost stopniowo wyczerpują się i tempo wzrostu spada. Jednakże, pewne regiony odnoszą sukcesy w kapitalizacji uzyskanych korzyści i wkraczają na nową trajektorię wzrostu, opartą na odmiennych czynnikach i mechanizmach. Sukcesy osiągnięte przez pewne kraje w pewnych okresach rozwoju historycznego wyjaśnia się w podobny sposób (np. poprzez opis wyłaniania się samo-wzmacniającego, spontanicznego, otwartego systemu gospodarczego i politycznego) [de Vries 1998]. Bibliografia Robert Merton, The Matthew Effect in Science: The reward and communication systems of science are considered, “Science”, 159(3810):56-63, January 5, 1968; Robert Merton, The Matthew Effect in Science, II: Cumulative advantage and the symbolism of intellectual property, “ISIS”, 79: 606-623, 1988; Robert Merton, The Thomas Theorem and The Matthew Effect, “Social Forces”, 74(2) 379-424, December 1995. 381 Herbert J. Walberg and Shiow-Ling Tsai, Matthew Effects in Education, “American Educational Research Journal”, 1983, 20:359-373. C. Freeman and A. Young, The Research and Development Effort, OECD 1962. Aldo Geuna, European Universities: Relationships among Age, Dimension and Science Research Quality, December 1995; Richard Florida and Wesley M. Cohen, Engine or Infrastructure? The University Role in Economic development, in: Industrializing knowledge: university-industry linkages in Japan and the United States, ed. by Lewis M. Branscomb, Fumio Kodama, and Richard Florida, Cambridge, Ma. : MIT Press, 1999, p. 606. Elizabeth Garnsey, The Genesis of the high technology milieu: a study in complexity, “International Journal of Urban and Regional Research” 22 September 1998 nr 3 p. 361-377. Bent Dalum at al., Changing the regional system of innovation, in: The Economic Challenge for Europe. Adapting to innovation based growth, ed. By J. Fagerberger, P. Guerrieri, B. Verspagen, Edgar Elgar 1999, p. 192. Jan de Vries, Innovation and growth in the Netherlands, in: Political Competition, Innovation and Growth, ed. Roland Vaubel, Peter Bernholz, Manfred Streit, Berlin: Springer-Verlag, 1998. Kaihua Chen, Jiancheng Guan, Mapping the innovation production process from accumulative advantage to economic outcomes: A path modeling approach, “Technovation” 31 (2011) 336–346. Hinnerk Gnutzmann, Network Formation Under Cumulative Advantage: Evidence from The Cambridge HighTech Cluster, “Comput Econ” (2008) 32:407–413. Anatoly Oleksiyenko, Creso M. Sa, Resource asymmetries and cumulative advantages: Canadian and US research universities and the field of global health, “High Educ” (2010) 59:367–385. Harriet Zuckerman, Dynamik und Verbreitung des Matthäus-Effekts. Eine kleine soziologische Bedeutungslehre, “Berlin J Soziol” (2010) 20:309–340 Allison, Pd; Long, Js; Krauze, Tk, Cumulative Advantage And Inequality In Science, “American Sociological Review”, Volume: 47 Issue: 5 Pages: 615-625, 1982. Derek De Solla Price, A general theory of bibliometric and other cumulative advantage processes, “Journal of the American Society for Information Science” Volume 27, Issue 5, ss. 292–306, September 1976. SPOŁECZEŃSTWO INFORMACYJNE [Information Society] Społeczeństwo informacyjne to społeczeństwo, w którym tworzenie, dystrybucja, użytkowanie, integracja i manipulacja informacją jest kluczowym elementem działalności gospodarczej, społecznej, politycznej i kulturalnej. Wiele osób, w kręgach decyzyjnych, w prasie, na uniwersytetach, utrzymuje, że świat wkroczył w nową erę, rządzoną przez „nowy paradygmat”, w którym społeczeństwo i jego stosunki gospodarcze nie są dłużej organizowane przez dobra materialne. Pisarze i komentatorzy często sugerują, że przyspieszone przepływy informacji i zwiększenie wykorzystania wiedzy całkowicie przekształciły społeczeństwa. Zwracają oni uwagę na spadek produkcji przemysłowej w stosunku do wzrostu sektora informacji [Key 2003]. Historia pojęcia. Zainteresowanie koncepcją i pojęciem „społeczeństwa informacyjnego” pojawiło się w latach 1970., wzrosło od poł. lat 1980., oraz osiągnęło szczyt w roku 2003 [Wikipedia, Information Society]. Pojęcie społeczeństwa informacyjnego wprowa382 dził w 1963 roku Tadlo Umeaso w artykule o teorii ewolucji społeczeństwa opartego na technologiach informatycznych, a spopularyzowany przez K. Koyama w 1968 roku. Inne pokrewne terminy to m.in.: Daniela Bella społeczeństwo postindustrialne, trzecia fala Alvina Toffler`a, społeczeństwo oparte na wiedzy Petera Druckera, społeczeństwo sieci Manuela Castellsa oraz społeczeństwa komunikacji Armanda Mattellarta [Becla 2012]. Jedną z pierwszych osób zajmujących się koncepcją społeczeństwa informacyjnego był ekonomista Fritz Machlup. W 1933 roku Machlup rozpoczął studia nad wpływem patentów na badania. Praca ta doprowadziła go do studium The production and distribution of knowledge in the United States (1962 r.). Książka ta została powszechnie uznana i przetłumaczona na język rosyjski i japoński. Krótko przed śmiercią Machlup ukończył trzecią z serii dziesięciu planowanych tomów łącznie nazwanych Wiedza: jej tworzenia, dystrybucji i znaczenie gospodarcze. Wpływowi pisarze tacy jak Robert Reich (1991), Peter Drucker (1993), Manuel Castells (1996-8), sugerują, że gospodarka jest dziś kierowana dziś i zasilana przez ludzi, których główną cechą jest zdolność do manipulowania informacji. Preferowane terminy różnią się, od „symbolicznych analityków”, „ekspertów wiedzy", po „pracowników sektora informacyjnego”, ale jedna cecha jest stała: dzisiejsi ludzie czynu to osoby, których praca wymaga tworzenia i korzystania z informacji [Webster 2002]. Wg Harolda Perkina historia Wielkiej Brytanii od 1880 roku może być napisana jako wzrost znaczenia i udziału „specjalistów”. Wg Perkina certyfikowana wiedza to „zasada organizacji współczesnego społeczeństwa”. Eksperci wypierają niegdyś dominujące grupy (klasę robotniczą, kapitalistycznych przedsiębiorców i arystokrację) i ich przestarzałe ideały (współpracy i solidarności, własności i rynku, i ojcowskiej dżentelmena) zastępując je przez etos profesjonalnych usług, certyfikacji i efektywności [Perkin 1989]. James Beniger [1989] zasugerował, że powstanie społeczeństwa informacyjnego był poprzedzone przez „rewolucję sterowania”, która z kolei była reakcją na siły wywołane przez rewolucję przemysłową. Istotą rewolucji sterowania było istnienie natychmiastowego feedbacku. Beniger podkreśla istnienie związku między mechanicznymi systemami kontroli i powstaniem społeczeństwa informacyjnego. Zwracając uwagę na znaczenie przetwarzania informacji dla sterowania organizacją przemysłową i produkcją, oraz koncentrując się na rosnącej zdolności technologii do kontroli procesów, podkreśla, że rewolucja informacyjna nie jest to współczesne zjawisko [Key 2003]. Cechy. Cechy charakterystyczne społeczeństwa informacyjnego to: ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ wysoko rozwinięty sektor usług, przede wszystkim sektor usług nowoczesnych (bankowość, finanse, telekomunikacja, informatyka, badania i rozwój oraz zarządzanie), w niektórych krajach w tym sektorze pracuje przeszło 80% zawodowo czynnej ludności, przy czym sektor usług tradycyjnych przekracza nieznacznie 10%, gospodarka oparta na wiedzy; wysoki poziom skolaryzacji społeczeństwa wysoki poziom alfabetyzmu funkcjonalnego w społeczeństwie, postępujący proces decentralizacji społeczeństwa, renesans społeczności lokalnej, 383 ⋅ ⋅ urozmaicanie życia społecznego wpływa na upodmiotowienie społeczeństwa i tym samym kreowanie społeczeństwa otwartego [Społeczeństwo informacyjne, Wikipedia]. Dokumenty Unii Europejskiej • • 2004 Wyzwania stojące przed Europejskim Społeczeństwem Informacyjnym po roku 2005. KOMUNIKAT KOMISJI DO RADY, PARLAMENTU EUROPEJSKIEGO, EUROPEJSKIEGO KOMITETU EKONOMICZNO-SPOŁECZNEGO ORAZ KOMITETU REGIONÓW Bruksela, 19.11.2004 COM(2004) 757 końcowy 2010 Europejska agenda cyfrowa. KOMUNIKAT KOMISJI DO PARLAMENTU EUROPEJSKIEGO, RADY, EUROPEJSKIEGO KOMITETU EKONOMICZNO-SPOŁECZNEGO I KOMITETU REGIONÓW Bruksela, dnia 26.8.2010 KOM(2010) 245 wersja ostateczna/2 „Jednym z siedmiu filarów przedstawionej przez Komisję Europejską Strategii Europa 2020 jest Agenda Cyfrowa. Głównym celem Agendy jest wsparcie wzrostu gospodarczego, wzrostu inteligentnego, zrównoważonego i sprzyjającego włączeniu społecznemu, poprzez uzyskanie trwałych korzyści ekonomicznych i społecznych z jednolitego rynku cyfrowego w oparciu o lepsze wykorzystanie potencjału technologii informacyjnych i komunikacyjnych. Agenda Cyfrowa opracowana została by okreś lić rolę i znaczenie wykorzystania ICT w procesie realizacji ambitnych celów określonych na 2020 rok” [GUS 2014]. Pomiar. Statystyka społeczeństwa informacyjnego, jako odrębna gałąź statystyki, korzysta ze korzysta ze wskaźników zaczerpniętych z różnych dziedzin, w tym edukacji, innowacji, przedsiębiorczości i gospodarki [OECD 2011;2014]. W Polsce zajmuje się nią Urząd Statystyczny w Szczecinie [GUS 2014]. OECD [2011] proponuje następujący model koncepcyjny statystyki społeczeństwa informacyjnego: 384 Bibliografia Becla Agnieszka, Information Society and Knowledge-Based Economy - Development Level and the Main Barriers - Some Remarks, “Economics & Sociology” January 1, 2012. Webster Frank, Theories of the Information Society, London and New York 2002. Perkin Harold 1989, The Rise of Professional Society. England since 1980, Routlege. Information Society, Wikipedia. Społeczeństwo informacyjne, Wikipedia. Key Thinkers for the Information Society 2003, Ed. by Christopher May, London And New York , Routlege. Beniger James 1989, The Control Revolution. Technological and Economic Origins of the Information Society, Harvard University Press. OECD Guide to Measuring the Information Society 2011; OECD Measuring the Digital Economy 2014 GUS 2014, Społeczeństwo informacyjne w Polsce. Wyniki badań statystycznych z lat 2010-2014., Warszawa. WIEDZA JAKO DOBRO PUBLICZNE [Knowledge as a public good] Dobra publiczne to dobra, charakteryzujące się tym, że nie ma możliwości wyłączenia ich z konsumpcji oraz jednocześnie nie są konkurencyjne w konsumpcji. Pierwszy warunek w definicji dobra publicznego oznacza, że dostawca dobra nie może legalnie zapobiec używaniu dobra przez innych. Drugi warunek oznacza, że konsumpcja dobra przez jedną osobę, nie pozbawia innych osób możliwości konsumpcji tego samego dobra, a zatem bez żadnych konsekwencji dobro może być konsumowane przez wiele osób jednocześnie [Wikipedia 2014]. W odniesieniu do wiedzy George Bernard Shaw opisał te cechy w następujący sposób: „Jeśli masz jabłko i ja mam jabłko i wymienimy te jabłka wtedy nadal każdy z nas ma jedno jabłko. Ale jeśli ty masz pomysł i ja mam pomysł i wymienimy te pomysły, to każdy z nas będzie miał dwa pomysły.” Jednym z najważniejszych argumentów na rzecz Otwartego Dostępu jest to, że wiedza jest i powinna być dobrem publicznym. „Teksty na papierze, skórze, glinie lub kamieniu są to konkurencyjne przedmioty materialne. Nawet wtedy gdy używamy taniego nośnika jak papier i niedrogą metodę powielania jak kserografia, produkt jest konkurencyjny. Wszystkie teksty były konkurencyjne przed erą cyfrową. Ale teksty cyfrowe nie są konkurencyjne. (…) Teksty na papierze, skórze, glinie lub kamieniu są nie tylko konkurencyjne; są one również wykluczające się. Nawet teksty cyfrowe umieszczone w Internecie, ale pobierane za opłatą lub hasłem, są wykluczające. Jednak gdy zdecydujemy się umieścić w Internecie teksty cyfrowe bez opłat lub hasła, nie będą one wykluczające, podobnie jak drogi, gdy postanowimy budować je bez punktów poboru opłat [Suber 2009].” Wydawcy czasami sprzeciwiają się argumentowi Otwartego Dostępu podkreślając, że publiczne pieniądze wspierają wiele dóbr, takich jak budynki, których nie można bezpłatnie dostarczać społeczeństwu. Problem z tymi zarzutami jest taki, że cytowane w 385 nich przykłady dotyczą konkurujących dóbr materialnych. W przypadku dóbr nie-konkurencyjnych, gdy nie ma ryzyka ich uszczuplenia, a wręcz przeciwnie, gdy ich racjonowanie lub ograniczanie do nich dostępu kosztuje, argument wydawców jest chybiony [Suber 2009]. Problem wiedzy jako dobra publicznego jest także podnoszony w odniesieniu do badań prowadzonych w publicznym sektorze nauki. Podkreśla się zatem, że skoro są one, w dużej mierze, finansowane ze źródeł publicznych, powinny prowadzić badania „społecznie relewantne”. Społeczna relewantność powinna też być ważnym kryterium ich oceny, jak to jest m.in. w Holandii [Bouter 2010]. Bibliografia Wikipedia 2014 Dobro publiczne. Bouter, Lex M. 2010, Knowledge as a common good: the societal relevance of scientific research, “Higher Education Management and Policy”, Vol. 22/1. Suber Peter 2009, “SPARC Open Access Newsletter”, issue 139 386 ORGANIZACJA I MECHANIZMY AGENCYFIKACJA [Agencification, distributive governance] Pojęciem agencyfikacji (lub rozproszonego zarządzania], jedno z kluczowych pojęć i koncepcji >Nowego Zarządzania Publicznego, określa się zjawisko upowszechniania (od poł. lat 1980. w Zachodniej Europie, od poł. lat 2000. w krajach Środkowej i Wschodniej Europy; najwcześniej w krajach skandynawskich) tworzonych przez rząd organizacji wykonawczych (>agencji). W różnych krajach rządowe agencje ds. nauki i technologii powoływano na wiele lat przed falą agencyfikacji, przed I Wojną Światową (np. Rady Badawcze, w Polsce Fundusz Kultury Narodowej, odpowiedzialny także za finansowanie badań naukowych, 1928). W porównaniu do krajów Europy Zachodniej agencji kraje Środkowej i Wschodniej Europy charakteryzują się mniejszą różnorodnością typów. Realizują jednak podobne zadania [Van Thiel 2011]. Bibliografia Donald P. Moynihan, Ambiguity In Policy Lessons. The Agencification Experience, “Public Administration” Vol. 84, No. 4, 2006, pp. 1029–1050. OECD. 2002. Distributed Public Governance: Agencies, Authorities and Other Government Bodies in Canada. Paris : OECD. Talbot, C . 2004 . ‘ The Agency Idea ’ , in C . Pollitt and C . Talbot ( eds ), Unbundled Government: A Critical Analysis of the Global Trend to Agencies, Quangos and Contractualisation . London : Routledge , pp . 1 – 21 . Sandra Van Thiel, Comparing Agencification In Central Eastern European And Western European Countries: Fundamentally Alike In Unimportant Respects? “Transylvanian Review Of Administrative Sciences” Special Issue: ss. 15-32 2011. EUROPEIZACJA [Europeisation] W naukach politycznych europeizacja to “proces adaptacji rządów i ich administracji do norm i wartości ustanowionych przez Unię Europejską” [Pasarín]. Proces ten składa się z „procesów: a) budowy, b) dyfuzji i c) instytucjonalizacji formalnych i nieformalnych zasad, procedur, paradygmatów polityki, stylów, sposobów działania i wspólnych przekonań i norm, które są najpierw określone i skonsolidowanych w procesie tworzenia polityki Unii Europejskiej, a następnie włączone do logiki krajowego (krajowym i na niższych szczeblach) dyskursu, struktur politycznych i polityk publicznych. Ważnym elementem na wszystkich etapach europeizacji jest uczenie się, zwłaszcza gdy „UE nie działa jako system tworzenia prawa, ale bardziej jako platforma konwergencji idei i przeniesienia polityki między państwami członkowskimi. Jest to szczególnie w przypadku otwartej metody koordynacji (OMK) [Bulmer 2004].” 387 Proces europeizacji następuje dzięki wielu kanałom: lekturom raportów unijnych ( (a także OECD i Banku Światowego), udziałowi badaczy w Programach Ramowych, oraz przede wszystkim dzięki udziałowi przedstawicieli MNiSW oraz badaczy w komisjach eksperckich UE, w pracach COREPER (Komitetu Stałych Przedstawicieli) oraz Parlamentu Europejskiego. W krajach Europy Środkowo-Wschodniej europeizacja wyraża się w: • • staraniach poprawy jakości polityki naukowej i innowacyjnej, zmianach tworzenia polityki naukowej i innowacyjnej o od poziomu rządowego do poziomów rządowego, międzynarodowego i regionalnego, o od uwzględniania w tworzeniu polityki przede wszystkim interesów korporacyjnych świata nauki do opierania się (także) na informacjach i analizach, o od koncentrowania się na alokacji zasobów do strategii, o od polityki opartej na kilku prostych pasywnych instrumentach (inicjatywa aplikacji pochodzi od badaczy, organizacji badawczych i przedsiębiorstw) do zróżnicowanej gamy pro-aktywnych środków, o od koncentracji na polityce naukowej do szerszego uwzględniania kwestii innowacji. Bibliografia Ana-Mar Fernández Pasarín, Change and stability of the EU institutional system and their impact on the Member States: The case of the EU Council Presidency, Simon J. Bulmer and Claudio M. Radaelli, The Europeanisation of National Policy?, Queen’s Papers on Europeanisation, No 1/2004. Jan Kozlowski, Can Europeanisation improve the CEECs’ research systems?, 2006. Margit Suurna and Rainer Kattel, Europeanization of innovation policy in Central and Eastern Europe, “Science and Public Policy”, 37(9), November 2010, ss. 646–664. GOVERNANCE Governance to w języku angielskim słowo i pojęcie, które w ostatnim czasie stało się bardzo popularne. Przez długi czas słowo governance oznaczało po prostu „rządzenie”, czyli rząd postrzegany jako proces. Jednak od lat 1970. jednak governance stał się terminem stosowanym głównie dla opisu nowego sposobu rządzenia, innego od starego modelu hierarchicznego. Governance odnosi się obecnie do trybu niehierarchicznego modelu rządzenia, w którym podmioty spoza sektora publicznego, takie jak korporacje prywatne i organizacje poza-rządowe, biorą udział w formułowaniu i wdrażaniu polityki publicznej. Nie-hierarchiczny tryb sprawowania władzy politycznej jest stosowany również w Unii Europejskiej. Dominującą cechą unijnego sposobu sprawowania władzy są nie relacje hierarchicznej władzy, a sieci – sieci przedstawicieli państwa członkowskiego, sieci łą388 czące krajowe i europejskie poziomy podejmowania decyzji, oraz sieci łączące podmioty publiczne i prywatne reprezentujące różne sektory i szczeble polityki. W Europie Zachodniej kluczowym doświadczeniem, które spowodowało przejście od interwencjonizmu państwowego i hierarchicznej kontroli w kierunku form zarządzania opartych w większym stopniu na współpracy było niepowodzenie ambitnych polityk reform, które były realizowane po zakończeniu II wojny światowej [Mayntz 2001]. Sposób sprawowania władzy zmienił się w ostatnich dekadach. Decentralizacja wzmocniła samorządy lokalne i regionalne. Pojawiły się prywatne podmioty, które biorą udział w tworzeniu polityki; wzrosła liczba partnerstw publiczno-prywatnych. Władze lokalne i regionalne – znacznie bardziej narażone na globalną konkurencję, niż dwadzieścia lat temu – chcą mieć większy głos w ustalaniu i realizacji krajowych polityk [OECD 2006]. W tradycyjnym rządzeniu organizacje były kierowane silną ręką przez przywódców, którzy dobrze rozumieli swoje otoczenie. Nauki społeczne sądziły, że zakładały istnienie świata deterministycznych, przewidywalnych, mechanicznych procesów, opierających się na prostej przyczynowości. Rządzenie było stosunkowo proste: na podstawie dobrze zdefiniowanych celów należało napisać i wdrożyć plan dojścia do punktu, który chciał osiągnąć przywódca [OECD 2000]. Zmiany sposobu sprawowania władzy rządowej podsumowuje się jako przejście od rządzenia (governing) do zarządzania (governance). Angielskie słowo governance, które robi zawrotną karierę w naukach politycznych i w naukach o zarządzaniu, nie ma dobrego polskiego odpowiednika. Polskie odpowiedniki (“rządzenie”, „zarządzanie”, „kierowanie”) wskazują na te właśnie cechy, którym governance chce zaprzeczać, przesuwając znaczenie z odgórnego sterowania na samo-zarządzanie. Brak polskiego odpowiednika (tak jak i brak np. odpowiednika dla accountability) sam w sobie jest charakterystyczny, świadcząc, że w Polsce przeważają jak dotąd tradycyjne układy zachowań społecznych i organizacyjnych. Governance opisywano i oceniano z wielu perspektyw badawczych. Pojęcie to powstało w badaniach urbanistycznych w kontekście skutecznego sposobu radzenia sobie z rozwiązywaniem problemów na szczeblu lokalnym. Później rozszerzono jego znaczenie, tak by objęło nawet „rządzenie” sprawami globalnymi. Powstanie jego było świadectwem kryzysu rządzenia. Jak ujął to Daniel Bell, zorientowano się, że państwo jest zbyt wielkie dla małych problemów i zbyt małe dla wielkich. Rządy państw, rządy regionalne i lokalne oraz władze związków państw (Unia Europejska) oraz organizacji międzynarodowych, takich jak Bank Światowy, dokonały reformy procesu budżetowego i zarządzania pod presją okoliczności. Dowodzono, że tradycyjny rząd, z charakterystycznym dla siebie naciskiem na hierarchię, pionowy i odgórny przepływ decyzji, biurokrację i interwencjonizm, jest źle dostosowany do szybko zmieniającego się środowiska gospodarczego, społecznego i kulturalnego, w którym działa coraz więcej autonomicznych sił (np. koncerny), aktorzy sceny publicznej są coraz gęściej powiązani ze sobą w sieci, zagadnien