Biała księga zarządzania Tadeusz Gospodarek Wyższa Szkoła Bankowa we Wrocławiu [email protected] Wersja beta Copyright Tadeusz Gospodarek Kamieniec Wrocławski 2017 Spis treści SPIS TREŚCI ...............................................................................................................................2 WSTĘP .........................................................................................................................................6 1 KONTEKST ZARZĄDZANIA .........................................................................................9 1.1 SYSTEM SPOŁECZNY Z FUNKCJONUJĄCĄ WARTOŚCIĄ .....................................................11 1.1.1 Człowiek w systemie generującym wartość .......................................................... 14 1.1.2 Zasady etyczne i normy moralne ..........................................................................17 1.1.3 Zasady optimum działania ...................................................................................19 1.2 POTRZEBY I DOBRA ........................................................................................................23 1.2.1 Potrzeby ...............................................................................................................24 1.2.2 Dobra ...................................................................................................................25 1.2.3 Konsumpcja ..........................................................................................................31 1.3 RYNEK............................................................................................................................ 35 1.3.1 Konkurencja .........................................................................................................38 1.3.2 Koniunktura i cykl Kondratiewa ..........................................................................41 1.3.3 Informacja i wiedza .............................................................................................. 44 1.3.4 Równowaga makroekonomiczna ..........................................................................50 1.4 KAPITAŁ JAKO REPREZENTACJA WARTOŚCI ....................................................................55 1.4.1 O jednostce kapitału ............................................................................................. 56 1.4.2 Jak mierzyć kapitał ............................................................................................... 58 1.4.3 Kapitał uogólniony ............................................................................................... 59 1.5 DZIAŁALNOŚĆ GOSPODARCZA ........................................................................................ 60 1.5.1 Model systemowy działalności gospodarczej .......................................................62 1.5.2 Otoczenie działalności gospodarczej ...................................................................65 1.5.3 Przedsiębiorczość .................................................................................................66 1.5.4 innowacyjność ......................................................................................................70 2 PODMIOT I PRZEDMIOT ZARZĄDZANIA .............................................................. 75 2.1 ORGANIZACJA JAKO SYSTEM GENERUJĄCY WARTOŚĆ ....................................................75 2.1.1 Definicja systemowa organizacji..........................................................................77 2.1.2 Rodzaje organizacji .............................................................................................. 80 2.1.3 Cykl życia organizacji .......................................................................................... 83 2.2 ŁAŃCUCH WARTOŚCI ORGANIZACJI, ...............................................................................86 2.2.1 Łańcuch dostaw w łańcuchu wartości, .................................................................90 2.2.2 Zasoby i kluczowe kompetencje ............................................................................93 2.2.3 Procesy w organizacji i ich znaczenie dla zarządzania .......................................97 2.2.4 Organizacja jako układ warstw logicznych ........................................................ 103 2.3 CZŁOWIEK W ORGANIZACJI .......................................................................................... 106 2.3.1 Relacje człowieka i organizacji ..........................................................................106 2.3.2 Model systemowy budowania relacji w organizacji ...........................................108 2.3.3 Pracownik w organizacji ....................................................................................111 2.3.4 Menedżer i przywódca ........................................................................................ 113 2.3.5 Aspekty etyczne...................................................................................................115 3 ZARZĄDZANIE. ZAKRES, CELE, METODY .......................................................... 119 3.1 ZARZĄDZANIE JAKO ZAGADNIENIE ZŁOŻONE, .............................................................. 120 3.1.1 Ujęcie cynefin .....................................................................................................121 3.1.2 Stan organizacji, ................................................................................................ 123 3.1.3 Cele stawiane przed zarządzaniem.....................................................................126 3.1.4 Niejednoznaczność rezultatu zarządzania .......................................................... 129 2 3.1.5 Zarządzanie mikro i makro ................................................................................131 3.2 ASPEKT CZASOWY ZARZĄDZANIA.................................................................................138 3.2.1 Struktura decyzji.................................................................................................138 3.2.2 Ograniczona racjonalność i heurystyki uproszczone .........................................140 3.2.3 Aspekt czasowy decyzji ....................................................................................... 142 3.2.4 Własność Markowa i zasada Bellmana .............................................................. 143 3.2.5 Scenariusze i pakiety decyzyjne ..........................................................................144 3.3 METODOLOGIA ZARZĄDZANIA .....................................................................................146 3.3.1 Dzieło Adama Smitha ......................................................................................... 146 3.3.2 Kierunek produktywność ....................................................................................148 3.3.3 Kierunek niezawodność, efektywność, jakość ....................................................151 3.3.4 Kierunek optymalizacja funkcjonalna organizacji .............................................161 3.3.5 Ujęcia systemowe ............................................................................................... 169 3.3.6 Kierunek strategiczny ......................................................................................... 173 4 WYBRANE ZAGADNIENIA PRAKTYCZNE ........................................................... 187 4.1 ZARZĄDZANIE PROJEKTEM ........................................................................................... 187 4.1.1 Studium wykonalności ........................................................................................ 189 4.1.2 Zarządzanie zwinne projektami (agile) .............................................................. 193 4.1.3 Metoda PERT/CPM i harmonogramowanie ...................................................... 195 4.2 ZMIANA W BIZNESIE .....................................................................................................204 4.2.1 Aspekty epistemologii zmiany .............................................................................204 4.2.2 Metodologia zmiany ........................................................................................... 208 4.2.3 Biznes plan jako projekt zmiany .........................................................................213 4.3 ZARZĄDZANIE RYZYKIEM ............................................................................................. 217 4.3.1 Taksonomia ryzyka ............................................................................................. 219 4.3.2 Style zarządzania ryzykiem .................................................................................222 4.3.3 Model zarządzania ryzykiem w organizacji ....................................................... 223 4.4 ZARZĄDZANIE INFORMACJĄ I WIEDZĄ (UJĘCIE ZASOBOWE)..........................................224 4.4.1 Wiedza jako cenny zasób organizacji .................................................................225 4.4.2 Koszty zasobów IT i ich użyteczność ..................................................................231 4.4.3 Bezpieczeństwo informacyjne .............................................................................232 4.5 ZARZĄDZANIE ZASOBAMI LUDZKIMI ............................................................................234 4.5.1 Relacje i interakcje w organizacji ......................................................................236 4.5.2 Motywacja ..........................................................................................................241 4.5.3 Coaching i ścieżka kariery .................................................................................245 4.5.4 Płace...................................................................................................................249 4.5.5 Wsparcie komputerowe zarządzania kadrami i płacami ....................................253 4.6 MARKETING I DYSTRYBUCJA ........................................................................................ 264 4.6.1 Budowanie strategii marketingowej ...................................................................266 4.6.2 Strategie marketingowe ...................................................................................... 269 4.6.3 Strategie cenowe ................................................................................................ 270 4.6.4 Kanały dystrybucji ............................................................................................. 275 4.6.5 Marketing bezpośredni ....................................................................................... 278 4.6.6 Model etyczny marketingu ..................................................................................279 4.6.7 Zarządzanie marką ............................................................................................. 281 4.7 ASPEKTY ZARZĄDZANIA FINANSAMI ............................................................................292 4.7.1 Analiza finansowa projektu biznesowego ........................................................... 293 4.7.2 Oszacowania zmian wartości pieniądza w czasie ..............................................296 4.7.3 Wybrane aspekty rachunkowości .......................................................................300 4.7.4 Hedging ..............................................................................................................312 4.8 WYBRANE KWESTIE ZARZĄDZANIA LOGISTYKĄ ........................................................... 324 4.8.1 Optymalizacja logistyczna..................................................................................325 3 4.8.2 Zagadnienie magazynowe ..................................................................................328 4.8.3 Magazyn jako obiekt logiczny ............................................................................331 4.8.4 Kolejkowanie ......................................................................................................335 4.8.5 Problem transportowy ........................................................................................ 339 4.8.6 Zagadnienie komiwojażera (Zadanie chińskiego listonosza) ............................. 341 4.8.7 Strategie logistyczne ........................................................................................... 342 4.9 KONTROLING ................................................................................................................346 4.9.1 Metoda KPI (Key Performance Indicators) ....................................................... 347 4.9.2 Aspekty finansowe kontrolingu ...........................................................................349 4.9.3 Aspekty procesowe ............................................................................................. 351 4.9.4 Aspekty struktury informacyjnej kontrolingu .....................................................356 5 POMIAR I OCENA W ZARZĄDZANIU. ...................................................................359 5.1 MIARA .......................................................................................................................... 360 5.1.1 Skala ...................................................................................................................360 5.1.2 Miara integralna w zagadnieniu wielowymiarowym .........................................362 5.1.3 Dystans do frontiery (ranking benchmarkingowy) .............................................362 5.2 WNIOSKOWANIE STATYSTYCZNE I TESTOWANIE HIPOTEZ ............................................364 5.2.1 Porównanie grup mierzonych niezależnie .......................................................... 365 5.2.2 Porównanie więcej niż dwóch zmiennych .......................................................... 366 5.2.3 Stwierdzenie istnienia związku pomiędzy zmiennymi .........................................366 5.3 METODY ILOŚCIOWE W ZARZĄDZANIU .........................................................................367 5.3.1 Programowanie liniowe .....................................................................................368 5.3.2 Optymalizacja nieliniowa ...................................................................................375 5.3.3 Symulacja ...........................................................................................................379 5.3.4 Analiza „What if” .............................................................................................. 381 5.3.5 Elementy teorii gier ............................................................................................ 384 5.4 GLOBALNE WSKAŹNIKI EKONOMICZNE W OTOCZENIU ..................................................392 5.4.1 Dochód narodowy brutto PKB ...........................................................................393 5.4.2 Dochód narodowy na jednego mieszkańca ........................................................ 395 5.4.3 Dochód do dyspozycji......................................................................................... 396 5.4.4 Globalny wskaźnik przedsiębiorczości GEM .....................................................397 5.4.5 GCI Globalny indeks konkurencyjności ............................................................. 401 5.4.6 GII Globalny indeks innowacyjności .................................................................402 5.4.7 Globalny wskaźnik „Doing Business” ............................................................... 405 5.4.8 PMI (Purchasing Managers Index) ....................................................................409 5.4.9 Wskaźnik moralności płatniczej (IPM) ............................................................... 411 5.4.10 Wskaźnik IFO (ZEW) .....................................................................................412 6 DODATKI ....................................................................................................................... 414 6.1 METODA WIELOKRYTERIALNA .....................................................................................414 6.1.1 Kryterium oparte na skali nominalnej ................................................................ 414 6.1.2 Kryterium oparte na skali porządkowej ............................................................. 415 6.1.3 Kryterium oparte na skali interwałowej ............................................................. 417 6.1.4 Kryterium oparte na skali ilorazowej .................................................................419 6.1.5 Kryterium integralne .......................................................................................... 420 6.2 BADANIA ZALEŻNOŚCI ZMIENNYCH ..............................................................................421 6.2.1 Metoda najmniejszych kwadratów .....................................................................421 6.2.2 Test chi-kwadrat .................................................................................................423 6.2.3 Test Wilcoxona-Manna-Whitney’a .....................................................................425 6.3 ANALIZA PEST(LE) .....................................................................................................427 6.3.1 Tablica czynników PEST ....................................................................................428 6.3.2 Scenariusze PEST............................................................................................... 431 4 6.4 ANALIZA GE-MCKINSEY ............................................................................................. 432 6.4.1 Atrakcyjność rynkowa sektora............................................................................433 6.4.2 Ustalanie pozycji rynkowej ................................................................................435 6.5 ANALIZA PORTFELOWA BCG ....................................................................................... 436 6.6 ANALIZA SWOT WERSJA QUASI-ILOŚCIOWA................................................................ 438 6.6.1 Analiza czynników .............................................................................................. 440 6.6.2 Macierz interakcji SWOT ...................................................................................443 6.7 METODA MACIERZY LOGICZNEJ LFA ...........................................................................447 6.7.1 Projekt inwestycyjny w ramach EFRR ............................................................... 449 6.7.2 Matryca logiczna dla strategii ...........................................................................451 6.8 OBLICZENIA WARTOŚCI DLA OPCJI................................................................................451 6.8.1 Wartość podstawowa opcji.................................................................................452 6.8.2 Symulacja wartości opcji metodą Monte Carlo .................................................457 LITERATURA PRZEDMIOTU............................................................................................. 459 SPIS ILUSTRACJI .....................................................................................................................471 SPIS TABEL ............................................................................................................................. 473 5 Wstęp Zapyta ktoś skąd wziął się tytuł biała księga zarządzania i co to oznacza? Otóż jest to najlepsze określenie tego, co chciałbym przekazać czytelnikowi w tej książce. Jest to coś, co stanowi podsumowanie rozważań modelowania konceptualnego i semantycznego w odniesieniu do całości struktury zarządzania, które ma być wspomagane w jakikolwiek sposób komputerowo. Biała księga określa, jak sformułować zarządzanie jako model koncepcyjny, prowadzący do tworzenia bazy znaczeniowej dla procedur (modeli semantycznych), dobrych praktyk oraz sposobów rozwiązywania trudnych kwestii w codziennej działalności, tak menedżera praktyka, jak i naukowca. Biała księga pomaga również w tworzeniu reprezentacji formalnych zagadnień niematematycznych, które następnie da się przetworzyć na język informatyki. To jest jakby model syntetyczny całego zbioru modeli, analogii i metafor, które w naukach o zarządzaniu funkcjonują od zarania na różnych poziomach jego interoperacyjności w działalności gospodarczej. Książka „Biała księga zarządzania” stanowi rekapitulację moich doświadczeń prowadzenia firmy IT oraz pracy ze studentami w kontekście problemów z pisaniem sensownych prac magisterskich i licencjackich. Uważam, że największym problemem we współpracy promotor-magistrant jest różnica oczekiwań tego pierwszego i możliwości twórczych tego drugiego. Faktem jest, że większość studentów traktuje prace dyplomowe jedynie jako niemiły obowiązek, którego celem jest uzyskanie kwitu, a nie ujawnienie rzetelnej wiedzy, użytecznej dla innych. Stąd miernota i sztampa tematyczna królują w produkcji kolejnych magistrów półgłówków, ale zgodnie z bolońską ideologią i biurokratycznymi ramami kompetencji, dzielnie pielęgnowanymi przez uczone gremia komisji akredytacyjnych. W tym, ogólnym nieporozumieniu zwanym edukacją wyższą zagubiła się gdzieś akademickość kształcenia, na rzecz hipertekstu, manuali, przypadkowości tematycznej i braku logiki w programach nauczania oferowanych przez kolejne wyższe szkoły gotowania na parze i ognisku. Rozmycie rzetelnej wiedzy naukowej w zakresie zarządzania na rzecz beletrystycznych opracowań o kulturze organizacji, bajań o kapitale intelektualnym oraz roli gender w zarządzaniu zorzami polarnymi, oddala coraz bardziej problematykę od twardej wiedzy wpieranej pomiarem, kwantyfikacją i oparcia wyniku na sprawdzalnych teoriach. To właśnie skłania mnie do napisania pracy fundamentalnej, porządkującej wszystko to, co moim zdaniem jest wartościowe w zarządzaniu i co stanowi fundament rzetelnej wiedzy w tym zakresie. Jeżeli chcemy coś zmieniać lub naprawiać, musimy zacząć od definicji i formalizacji pojęć. Tylko język formalny pozwala na mierzalność i daje nadzieje na stworzenie teorii objaśniającej, natomiast miejsce beletrystyki jest w dziale literatury pięknej. Bez tego na wyjściu rozważań otrzymamy opowiadania i teorie deskryptywne dla ornitologa obserwatora, a nie objaśniające. 6 Wspomaganie problematyki dostępu do wiedzy syntetycznej na temat zarządzania i jego otoczenia polegać powinno na udostępnianiu odnośników do najnowszej literatury przedmiotu oraz pokazywaniu multidyscyplinarności zarządzania, jako wiedzy zbliżonej do prawdziwości sądów o faktach, ale również sztuki praktycznego działania weryfikowalnych teorii. Menedżer powinien orientować się bardzo dokładnie, gdzie może znaleźć dane wskaźnikowe i prognostyczne. Powinien poznać sposoby jak skorzystać z danych statystycznych, żeby mógł ograniczyć poziom niepewności decyzyjnej oraz ryzyka działalności gospodarczej, którą zarządza lub którą chce podjąć. Stąd wiedza ogólna, dotycząca praw ekonomicznych, zagadnień społecznych, elementów psychologii, filozofii nauki oraz metod wypracowanych przez teorię zarządzania jest niezbędna, żeby w oparciu o opracowania dotyczące szczegółowej tematyki, menedżer mógł zbudować własne reguły postępowania i dobre praktyki. Ukazać to wszystko w formie syntetycznej jest fundamentalnym celem niniejszej monografii. Książka składa się z czterech części. W pierwszej starałem się opisać kontekst zarządzania i jego otoczenie, czyli to, co uzasadnia działania zarządu i wskazuje ogólne reguły postępowania wobec ciągłych zmian dziejących się ekosystemie każdego biznesu. Część druga dotyczy podmiotu i przedmiotu zarządzania, ukazując rolę organizacji w teorii i praktyce oraz opisy formalne umożliwiające pomiar stanu i jego kontrolę w czasie. Część trzecia dotyczy metod wypracowanych przez ponad 100 lat istnienia teorii zarządzania i sposobów użycia wiedzy nagromadzonej w tym okresie, a odkrywanej za każdym razem na nowo, gdy kolejne władze zmieniają zagmatwane prawo gospodarcze wraz z menedżerami swoich kluczowych organizacji. Tam również znajdują się praktyczne opisy wybranych działań przez lata praktyki ugruntowanych. W części czwartej przedstawiam zarządzanie wymierne wraz z przykładami zastosowania metod pomiarowych, a więc to, co leży po naukowej stronie rozważań teoretycznych, określonych przez demarkację selekcjonującą dla problematyki nauk o zarządzaniu jako naukowe. Jak to trafnie ujął W. Deming „In God we trust. The rest must bring data”. Tak właśnie ma być w prawidłowo zarządzanej organizacji – menedżer ma przedstawić wynik mierzalny, choćby po to, żeby naliczyć podatki lub ustalić swoją pozycję ekonomiczną w danej chwili czasu. Dlatego przedstawienie metod pomiarowych, dostępnych w konkretnych problemach decyzyjnych lub procesach biznesowych, wydaje się szczególnie ważne. Wiąże się to również z budowaniem kryteriów ocen aksjologicznych w kategoriach „dobre” – „złe” oraz „racjonalne” – „nieracjonalne”. Jest to wiedza zbyt słabo prezentowana w polskiej literaturze przedmiotu i programach nauczania, gdzie dominują opowieści w temacie miałkich zagadnień społecznych oraz metaforyczne, głównie werbalne odniesienia 7 do „twardych” modeli zaczerpniętych z poważniejszych nauk. Dlatego w niniejszej książce zawarłem, jako dodatek, opisy ukazujące metody użycia niektórych ilościowych lub quasi-ilościowych technik analitycznych, szczególnie użytecznych w pracy menedżera. Książka przeznaczona jest przede wszystkim dla piszących prace dyplomowe, magisterskie oraz rozprawy doktorskie, chcących zrozumieć szerzej procesy relacji organizacja-otoczenie oraz zasady ujęcia systemowego w budowaniu wiedzy. Z pewnością będzie przydatna dla autorów, ułatwiając dobranie metod badawczych, analitycznych oraz dotarcie do wartościowej literatury przedmiotu w łatwy sposób. Również studenci kursu magisterskiego mogą znaleźć niniejszą monografię jako użyteczny podręcznik syntetyczny porządkujący wiedzę z obszaru kilku przedmiotów z siatki godzin kierunków zarządzania. Dotyczy to przede wszystkim wykładów: „podstawy zarządzania”, „nauka o organizacji”, „pomiar i analiza w zarządzaniu”, „podejmowanie decyzji” oraz „zarządzanie zmianami”. Liczne rysunki, schematy oraz bogactwo danych literaturowych powinny pomóc każdemu wykładowcy w opracowaniu przeźroczy do zajęć, a kompletność wiedzy ogólnej zawarta w monografii, powinna wystarczyć na szybkie wybranie informacji dotyczących większości tematów związanych z zarządzaniem. Specjalną uwagę w książce poświęcam menedżerom i kandydatom na przedsiębiorców. Dla nich przedstawiam to, co decyduje o bezpiecznym podejściu do biznesu. Zwracam uwagę na konieczność uczenia się przez całe życie, a także na ciągłą niepewność towarzyszącą działalności gospodarczej i wynikający stąd obowiązek stałego monitorowania pewnych danych, jeżeli myśli się o sukcesie. Imperatywem kategorycznym każdego menedżera jest pomiar, a zatem wykorzystanie metod zawartych w tej monografii. Ich znajomość ułatwia nawiązanie dialogu z naukowcem lub konsultantem w zakresie optymalizacji i zabezpieczenia własnego interesu przez turbulencjami płynącymi z otoczenia. Liczę, że książka zostanie uznana za przydatną pozycję w literaturze przedmiotu, czego każdy autor sobie życzy, a co może zostać zweryfikowane wyłącznie przez opinie czytelników. Traktuję tą monografię jako egzamin samego siebie z zakresu zarządzania. Większość zagadnień opisanych miałem okazję sprawdzić w praktyce. Znalazły się tu również moje oprcowania z obszaru zastosowań teorii pomiaru, metod filozofii nauki oraz ujęć systemowych. Będę zatem wdzięczny za wszelkie uwagi, które mogą poprawić tą książkę. Tadeusz Gospodarek 8 1 Kontekst zarządzania Rozważania nad podstawami zarządzania należy rozpocząć od zapoznania się z kontekstem działalności gospodarczej. Fundamentem wszelkich przejawów działalności gospodarczej jest człowiek, jego potrzeby i natura (pożądanie, chciwość, lenistwo…). Stąd pojawia się kwestia wartości jako kluczowy element wyrażania sensu działań gospodarczych. Z faktu generowania i konsumpcji dóbr wynika stratyfikacja ekonomiczna i kulturowa społeczeństw. Tworzą się systemy społeczne, wyróżniające się poziomem kultury, zdolności produkcyjnych oraz skutecznością gospodarowania, w których funkcjonuje wartość. To wszystko generuje aktywność wytwórczą grup ludzkich, tworzących podmioty gospodarcze, łączących się w organizacje, grupy i inne struktury poprawiające efektywność funkcjonowania wartości na danym obszarze. Takimi systemami gospodarczymi można sterować, ale tylko w ograniczonym zakresie. Są to bowiem struktury samoreflekyjne i inteligentne. Ich ewolucja podlega procesom dynamicznej adaptacji do coraz szybciej i głębiej zmieniającego się otoczenia. To właśnie stanowi tło zarządzania. Zrozumieć środowisko i jego zmienność. Wówczas reguła przekory Le Châteliera1 pozwoli na dobre określenie parametrów sprzężeń zwrotnych, umożliwiających optymalne działanie systemów gospodarczych oraz utrzymanie stanu równowagi dynamicznej mikro-makro oraz makro. Ten sam kontekst pozwala na interpretację wyników zarządzania organizacją na tle analogicznych pomiarów w sektorach gospodarczych, kraju, kontynentu czy świata. Pozwala na stworzenie kryteriów oceny aksjologicznej i definiuje kierunki działań optymalizacyjnych. Dlatego kontekst jest tak ważny we wszelkich analizach zarządzania i ekonomii. Nie da się analizować stanów mikro bez makro. Dzięki temu nie można przyjąć, że takie same działania w skali mikro przyniosą wszędzie identyczne rezultaty. Po prostu zależy to od otoczenia. Otoczenie wymusza na każdym systemie generującym wartość określone zachowania, które ten w elastyczny sposób dostosowuje do sytuacji ad-hoc. W ten sposób systemy adaptatywne zorientowane są na wykorzystywanie okazji pojawiających się w otoczeniu, jak również na procesy ciągłej reorientacji własnych celów oraz strategii, oparte na sprzężeniach zwrotnych zarówno dodatnich, jak i ujemnych. Może stąd wynikać niemożliwość istnienia w pewnych sytuacjach najlepszej metody zarządzania lub osiągnięcia zakładanego wyniku ekonomicznego, albowiem to zmienność otoczenia wprowadza wysoki poziom Hatta T., "Le Châtelier principle," The New Palgrave: A Dictionary of Economics, 3, (1987), s. 155–57 1 9 niepewności wyniku oraz ryzyka, a w dodatku mogą zmieniać się metody pomiaru w czasie. T. Burns i G. Stalker2, oraz P. Lawrence i J. Lorsch3 stwierdzili, że nie ma najlepszej formy organizacji, albowiem zależy ona od czynników środowiskowych, które decydują o dostępności określonych zasobów dla systemu generującego wartość. Koncepcja ciągłej autoadaptacji do warunków otoczenia nazywa się teorią kontyngencji (teorią wpływów) i opiera się na następujących założeniach4: Organizacje generujące wartość stanowią systemy otwarte, które wymagają ostrożnego zarządzania w celu utrzymania równowagi wewnętrznej i dostosowania się do warunków otoczenia. Nie istnieje jeden, najlepszy sposób budowy organizacji. Odpowiednia jej forma zależy od jej celów i zadań oraz możliwych oddziaływań z otoczeniem. Zarząd musi być zainteresowanych przede wszystkim osiągnięciami dobrego dopasowania do zmienności środowiska. Różne rodzaje lub formy organizacji są potrzebne w zależności od środowiska bizne- sowego. Rys. 1.1 Modelowanie zarządzania organizacją w ujęciu teorii kontyngencji. Dla jasności wywodu, konieczne jest zatem poznanie fundamentalnych aspektów kontekstu gospodarki rozumianego jako ekosystem biznesu. Burns, T., Stalker, G. M., “The Management of Innovation”, London: Tavistock, 1961, http://uk.sagepub.com/sites/default/files/upm-binaries/27412_8.pdf 3 Lawrence, P. R., Lorsch, J. W., “Organization and Environment: Managing Differentiation and Integration”, Boston, MA: Harvard University, 1967. 4 Morgan G., “Obrazy organizacji”, Wydawnictwo Naukowe PWN, Warszawa, 1997. 2 10 1.1 System społeczny z funkcjonującą wartością Dowolna wartość przejawia się w układzie interesariuszy człowiek lub grupa ludzi – byt stanowiący wartość – otoczenie (rys. 1.2). Taki układ, w którym zdefiniowano wartość, jako pewien pozytyw przynoszący określoną korzyść dowolnemu interesariuszowi nazwiemy układem wartości. W tym układzie wyróżniamy system z funkcjonującą wartością jako kluczowego interesariusza. Celem działania tego systemu jest ciągłe ustalanie czym jest wartość, jak ją mierzyć, jak oceniać i jak ma ona bytować w układzie wartości5. To fundamentalne założenie ustanawia rolę wartości jako nośnika określonych korzyści dla dowolnego z interesariuszy, należącego do układu wartości, w którym ona funkcjonuje. Tym samym wartość ma charakter bytu, który bądź to sam z siebie jest wewnętrznie dobry, bądź stanowi cechę innego, pozostającego z nią w relacji bytu, uznawanego przez system jako pewien pozytyw. Rys. 1.2 Funkcjonowanie układu wartości. Przez bytowanie należy rozumieć wszelkie przejawy funkcjonowania wartości, w tym jej kreowania, wymiany, anihilacji, zmiany, etc. 5 11 Z faktu, że wartość bytuje w określony sposób gdzieś w układzie wartości, pojawia się również kwestia istnienia w tym układzie podsystemów: posiadających, generujących, ustalających, przejmujących i wpływających na wartość. Mogą to być przedsiębiorstwa komercyjne, organizacje non profit, rzemieślnicy, twórcy, konsumenci, sprzedawcy, media, etc. Są oni uczestnikami łańcuchów wartości w sensie Portera6 (rozdział 2.2), globalnych łańcuchów dostaw7 oraz nadbudowy etycznej, moralnej i filozoficznej związanej z normami społecznymi, prawnymi, dobrym obyczajem. Aby ustalić racjonalność własnej produkcji dóbr, wartość konsumpcji, czy też wartość rynkową, te podsystemy muszą definiować i mierzyć wartość, która następnie może zostać weryfikowana przez otoczenie, będące de facto jej adresatem. Dla określenia wartości konieczne jest wprowadzenie pewnego konstruktu logicznego, na który składa się: system z funkcjonującą wartością (zbiór interesariuszy, organizacja), zbiór korzyści rozumianych jako stany psychofizyczne lub emocjonalne interesariuszy, wynikające z pozyskania danego pozytywu (który albo sam stanowi wartość albo posiada cechę wartości), reprezentacji wymiernej korzyści wnoszonych przez dany pozytyw, zbiór zasobów (w tym zasoby wiedzy i doświadczenie) umożliwiający realne tworzenie pozytywów, zbiór użyteczności tego pozytywu, przekładających się na zbiór korzyści. Wyobraźmy sobie teraz jak funkcjonuje system definiujący wartość. Otóż ma on określone potrzeby i zasoby (w tym pieniądze) umożliwiające uruchomienie procesów ich zaspakajania. Z drugiej strony, system może generować wartość dysponując wiedzą, kreatywnością, przedsiębiorczością oraz możliwością wykonania pracy, które to cechy można wymierzyć metodami oceny pozostającymi do dyspozycji, a następnie ustalić za pomocą posiadanych kryteriów wartość podjętych działań oraz poziom zaspokojenia potrzeb. Nie odbywa się to jednak ani w próżni, ani w izolacji od otoczenia. Dla całości działania systemu ekosystem biznesowy (otoczenie) wnosi: procesy wytwórcze, łańcuchy dostaw, towary i usługi oraz warunki funkcjonowania systemów generujących lub przejmujących wartość, możliwe do ustalenia metodą PESTLE8 (rozdział 6.3). Ale żeby możliwe było funkcjonowanie wartości w takim układzie, konieczne są co najmniej cztery elementy, którymi musi dysponować system: Porter M. E., “Competitive Advantage”, Free Press, New York, 1985 Neace M.B., Gospodarek T., Neace X.G., „Global supply chains as holistic systems: an expanded perspective”, International Journal of Economics and Business Research, Vol 5, No 2, (2013), 165-182 http://gospodarek.eu/publikacje/Global%20Supply%20Chain%20as%20Holistic.pdf 8 Gospodarek T., „Zarządzanie dla racjonalnego menedżera”, DIFIN Warszawa, 2014. 6 7 12 zdefiniowany zbiór korzyści możliwych do wyrażenia za pomocą akceptowalnej miary i skali (np. w jednostkach kapitałowych lub bezwymiarowej punktowej oceny porównawczej albo w kategoriach dobra i zła), zbiór zasobów i kluczowych kompetencji umożliwiających powstawanie lub przejmowanie wartości w układzie z funkcjonującą wartością, zdefiniowany zbiór użyteczności odpowiadających potrzebom, które mogą zostać zaspokojone za pomocą określonych pozytywów (towarów, usług lub stanów psychofizycznych interesariuszy), zbiór informacji powiązanych z wartością, możliwych do uwiadomienia przez system i nadających się do przetwarzania w układzie wartości. Zachodzą przy tym następujące fakty, przedstawione za pomocą układu relacji zwrotnych i przechodnich, przedstawionych na rys. 1.2 1. Bez zasobów nie powstanie kapitał9. Bez kapitału nie powstaną wartościowe zasoby. Zasoby stanowią to, co pozwala generować wartość lub ją przejmować. Jest to ogólne pojęcie, które zawiera w sobie zarówno środki trwałe, jak i wiedzę, zasoby ludzkie oraz kapitał. W teorii zarządzania ujęcie zasobowe stanowi ważną teorię (RBT)10. Wartościowe zasoby i kluczowe kompetencje są tym, co pozwala generować wartość i zajmować odpowiednią pozycję na rynku. Kapitał zaś, w relacji do zasobów, stanowi reprezentację ilościową tychże wartości, umożliwiając wyrażenie wartości w umownych jednostkach pieniężnych. Kapitał, będąc jednocześnie zasobem i równoważnikiem wartości, stanowi siłę sprawczą dla tworzenia zasobów wartościowych i umożliwia ich utrzymanie w stanie gotowości do kreowania określonych użyteczności oraz korzyści. 2. Wartość nie istnieje, jeżeli obiekt wartościowy nie jest użyteczny w jakimkolwiek sensie. Nie istnieje bowiem użyteczność bezwartościowa. Korzyścią dla systemu wartościującego jest z pewnością zaspokojenie jego potrzeb. To może być zrealizowane przez pozyskanie określonych dóbr lub usług (w szerszym sensie, np. prawa, norm etycznych, etc.). Dobra te są z definicji użyteczne, a zatem mają wartość, podobnie jak zasoby wartościowe. Co więcej mogą one zasilić zbiór wartościowych zasobów systemu. 3. Wartość pozostaje w równowadze dynamicznej z kapitałem z nią powiązanym – kapitał sam z siebie stanowi wartość (intrinsic value). Kapitał jest reprezentacją wymierną wartości. Ten ciąg sądów stanowi kluczowe stwierdzenie na temat miary wartości, definiując zarówno jej jednostkę i skalę. To samo dotyczy Kapitał należy w tym miejscu rozumieć szerzej, niż u K. Marksa. Może to być dowolna forma określonego potencjału oddziaływania systemu na otoczenie, rozróżniana w teorii zarządzania jako, np. kapitał ludzki, kapitał społeczny, kapitał organizacyjny, kapitał intelektualny, kapitał relacyjny, etc. Szerzej na ten temat pisałem w pracy „Aspekty złożoności i filozofii nauki w zarządzaniu”, str. 174-181. 10 Barney J. B., Clark D. N., “Resource Based Theory. Creating and Sustaining Competitive Advantage”, Oxford University Press, Oxford, 2007. 9 13 oszacowania zasobów. Mogą one zostać ocenione jako wartościowe na podstawie miary użyteczności, ale również mogą być reprezentowane wartościowo poprzez ilość pieniądza, który można za nie otrzymać. 4. Użyteczność nie powstanie bez wartościowych zasobów. Wartościowe zasoby są z definicji użyteczne i przynoszą korzyść ich posiadaczowi. To twierdzenie umożliwia przede wszystkim ustalenie, że zasoby są konieczne do generowania wartości oraz to, że zasób może być wartością lub być wartościowym. Jeżeli zgadzamy się z tym sądem, to z punktu widzenia teorii ekonomii i zarządzania, wszelkie teorie dotyczące zasobów odnoszą się bezpośrednio do teorii wartości i budowania reprezentacji ilościowych. To jest bardzo istotny element w obronie pozycji teorii zasobowej zarządzania, jako wymiernego modelu reprezentatywnego stanu organizacji. Szerzej o roli teorii zasobowej i koncepcji systemowej organizacji można znaleźć w rozdziale 2.1. 5. Korzyść stanowi warunek przemiany użyteczności na kapitał z udziałem zasobów. Nie można ustalić wartości bez ustalenia wymiernej korzyści dla użyteczności. To oznacza, że definiowanie wartości opiera się na korzyściach, które niesie ze sobą dany pozytyw. Może on być użyteczny w jakimkolwiek sensie, również metafizycznym (np. wzbudza pozytywne doznania z patrzenia na niego). Żeby jednak daną użyteczność pozyskać, konieczne jest zaangażowanie odpowiednich zasobów, co może być równoważne zaangażowaniu odpowiedniego kapitału. Tym samym dla działań w zamkniętym układzie korzyśćzasoby-kapitał-użyteczność istnieje równoważność wartości, korzyści i użyteczności wyrażanej za pomocą kapitału albo wkładu kreatywności zasobów w wygenerowanie danego pozytywu. Powyższe kwestie pozwalają również zrozumieć problem odróżnienia wartości w sensie ekonomicznym (tej wymiernej w pieniądzu lub innej formie wymiennej) od wartości rozumianej jako dobro o niemierzalnych bezpośrednio korzyściach (np. pokój na danym terytorium, czyste środowisko, swoboda przemieszczania się…). Pewne dobra, takie jak woda, powietrze czy ciepło są pozytywami wewnętrznie dobrymi, a jednocześni stanowią wartościowe zasoby. Bez nich nie byłoby możliwe życie i istnienie systemu z funkcjonującą wartością. 1.1.1 Człowiek w systemie generującym wartość W rozważaniach nad wartością warto zająć się rolą człowieka w systemie generującym wartość i posługującym się nią. Jest to związane z działalnością gospodarczą człowieka, jako unikatowym zjawisku. Należy mu przypisać domeny aktywności, nie dające się zastąpić przez żadne systemy fizykalne, nie dające się zmierzyć wprost, a przy tym stanowiące istotne aspekty zarządzania oraz ekonomii. Przedsiębiorczość i innowacyjność – zdolność do działań prowadzących do pozyskania wartościowych dóbr, wprowadzania ich do otoczenia, nadzór nad 14 ich funkcjonowaniem, wymiana dóbr na równoważniki wartości, stanowiącą cechę jednostki ludzkiej albo zorganizowanej grupy ludzi. Tworzenie dzieł sztuki i bytów metafizycznych – zdolność do tworzenia dóbr służących zaspokojeniu potrzeb estetycznych, transcendentalnych i poznania. Przykładem może być matematyka i filozofia, jako baza dla opisów rzeczywistości oraz muzyka jako ciąg dźwięków sprawiających przyjemność tym, którzy potrafią słuchać. Podejmowanie i wykonanie decyzji – zdolność do rozwiązywania problemów w sposób wariantowy, połączona z analizą ilościową i jakościową oraz racjonalizacją wyboru najlepszego wariantu. Elementem decyzji jest przekazanie informacji przez podejmującego decyzję i jej użycie przez wykonawcę pozostającego w relacji niezależnie od intencji, czy też konsekwencji wdrożenia działania. Prowadzenie badań naukowych – specyficzna zdolność do odkrywania prawdy na temat otaczającej nas rzeczywistości, związana z wykorzystaniem heurystyki, eksperymentu i wiedzy a priori. W wyniku badań naukowych powstaje wartość, a czasem wartość ukryta zostaje w ich wyniku ujawniona. Komunikowanie się i kreowanie zasobów wiedzy – zdolność do przekazania informacji do odbiorcy i jej zrozumienie przez adresata, a następnie dokonania jej filtracji i przetworzenia na wiedzę oraz wartościowe zasoby, umożliwiające generowanie wartości opartej na wiedzy, albo dodanie wartości do istniejących dóbr, zmieniające ich funkcjonalność lub użyteczność. Tworzenie wartościowych zasobów i kluczowych kompetencji – zdolność do akumulacji dóbr materialnych i niematerialnych klasy VRIN11 oraz nabywanie kluczowych umiejętności i kompetencji12, umożliwiających kreację wartości przez systemy generujące wartość. Kreowanie unikatowych zasobów oraz VRIN – Określone, kluczowe zasoby organizacji niezbędne do wdrożenia strategii kreowania wartości przez organizacje. Są one scharakteryzowane przez cztery cechy: 1. VALUABLE – Zasoby muszą umożliwić wdrożenie strategii kreującej wartość, albo poprzez prze-wagę konkurencyjną albo redukcję słabości. Istotnym jest że inwestycja w zasoby musi być niższa niż NPV po określonym czasie, a IRR musi być większa niż zakładane dyskonto. 2. RARE – Unikatowość zasobu wartościowana jego cechą rynkową, jako generującego stosowny NPV oraz pozycję rynkową organizacji. Taka unikatowość jest szczególnie widoczna przez ze-wnętrznego obserwatora (wycena akcji). 3. IN-IMITABLE - Jeżeli jakiś zasób kontrolowany przez organizację stanowi źródło jej przewagi konkurencyjnej, wówczas ta przewaga będzie trwała do momentu do którego konkurenci nie będą w stanie wytworzyć imitacji zasobu. (Czasami trudno jest ustalić skąd pochodzi przewaga, zwłasz-cza gdy wymiana kapitałowa organizacji oparta jest na wiedzy). 4. NON-SUBSTITUTABLE – Nawet jeżeli zasób unikatowy nie jest imitowalny, istnieje zawsze ryzy-ko znalezienia rozwiązań alternatywnych i możliwość zastąpienia go. Stąd utrudnienia naśladow-nictwa przez konkurencję stanowią istotny aspekt funkcjonowania organizacji. 12 Prahalad C.K., Hamel G., “Kluczowe kompetencje” Harvard Business Rev, vol. May-June, (1990), 7990. http://www.profrandes.com.br/wp-content/uploads/2013/03/Core-Competence-of-the-Corporation.pdf 11 15 budowanie kluczowych kompetencji stanowi jeden z celów działalności gospodarczej opisywany w teorii zasobowej zarządzania13. Budowanie układów relacji oraz struktur organizacyjnych. System generujący wartość może być rozpatrywany jako układ interesariuszy, którzy powinni zostać skompensowani w sposób zoptymalizowany w sensie Pareto. To oznacza, że organizacje związane z generowaniem i bytowaniem wartości w otoczeniu są strukturami ludzi powiązanych ze sobą relacjami wewnętrznymi oraz relacjami z sieciami zewnętrznymi (formalnymi i nieformalnymi) w celach prowadzenia działalności kreatywnej. Tworzenie struktur społecznych, ekonomicznych oraz władzy. Ludzie łączą się w grupy według określonych preferencji (religia, zasady moralne, cele, potrzeby, interesy) w wyniku czego wyłaniają się przywódcy oraz struktury hierarchiczne lub wyspecjalizowane podgrupy, narzucające swoje reguły współistnienia pozostałym. W ten sposób powstają państwa, organizacje, korporacje, sieci prowadzące do tworzenia nowych wartości społecznych, często sprzecznych z interesami jednostki. Podejmowanie ryzyka i prognozowanie. Ryzyko wynika z niepewności oszacowania skutków podjęcia określonej decyzji i jej wdrożenia (podjęcie działań). Wiąże się to z prawdopodobieństwem poniesienia określonej straty (wartość ujemna). Ale ewentualne korzyści w przypadku pozytywnych rezultatów mogą przeważać potencjalne straty, co jest racjonalnym impulsem do podjęcia działań. Aby obniżyć ryzyko, człowiek lub system dokonuje prognozy skutków podjęcia działań. Jest to ważny aspekt generowania wartości. Definiowanie wartości i jej reprezentacji. Próby definiowania wartości są tak stare, jak dzieje ludzkości, a jej wyrażanie w formie pieniężnej znane było ludziom starożytnym. Jednak uogólnienie wartości jako wynik aksjologicznej analizy wielokryterialnej jest sam z siebie zagadnieniem złożonym, niosącym znaczny ładunek subiektywizmu, a czasami demokratycznego wyboru. To jest znamienne ludzkiemu działaniu i powoduje, że do dnia dzisiejszego nie ma w pełni akceptowalnej teorii wartości ani sądów pewnych co do jej bytowania w otoczeniu. Podejmowanie inteligentnych działań odkrywczych. Ciekawość świata była i jest domeną natury ludzkiej. Wielkie odkrycia geograficzne, podróże w kosmos, czy też zejście na dno Rowu Mariańskiego stanowią przykłady działań odkrywczych. To prowadzi zwykle do odkrywania nowych wartości albo konwersji wartości ukrytej do jawnej i wymaga złożonych działań inteligentnych, których nie da się zautomatyzować, ani przedstawić formalnie. Wykorzystanie sprzężeń zwrotnych, reguły przekory, czy zasad minimum (np. minimum Gospodarek T., „Aspekty złożoności i filozofii nauki w zarządzaniu”, Wydawnictwo WWSZiP, Wałbrzych, 2012; http://www.gospodarek.eu/publikacje/Filozofia%20nauki%20zarzadzanie.pdf 13 16 działania) jest fundamentem inteligentnych optymalizacji i pozwala na generowanie wartości dodanej. Uczenie się, samorefleksja i sterowanie z wykorzystaniem sprzężeń zwrotnych. Systemy inteligentne będące zbiorowościami ludzkimi, do których można zaliczyć systemy dysponujące wartością lub generujące wartość, charakteryzują się zdolnością do uczenia się, przekazywania wiedzy oraz wnioskowania o faktach na podstawie danych dostarczanych z otoczenia w procesach sprzężenia zwrotnego. Takie zachowania można nazwać samorefleksją nad stanem systemu, co umożliwia projektowanie i prognozowanie rozwoju w czasie w sposób pożądany (wartościowy). W ten sposób zasoby wiedzy służą generowaniu wartości dodanej przez system. Powyższe cechy stanowią o złożoności działań w obszarze generowania dóbr, ich konsumpcji i posługiwania się wartością, przenosząc cechy złożoności na zagadnienia ekonomii, teorię zarządzania i nauki społeczne. Jednocześnie wskazują one na brak możliwości utworzenia ścisłej definicji i kwantyfikacji stanu systemu generującego wartość, w tym zupełności opisu formalnego procesów biznesowych. 1.1.2 Zasady etyczne i normy moralne W każdej tradycji moralnej złota zasada postępowania, którą najlepiej wyraża sentencja „Nie czyń drugiemu, co tobie niemiłe” wydaje się być powszechnie akceptowalnym fundamentem ludzkiego zmysłu etycznego. Na tej zasadzie chciało by się budować relacje społeczne, biznesowe i systemowe. Ale istnieją również dwie inne zasady: zasada klina „Daj palec – weźmie rękę” oraz „Kropla drąży skałę” mające powszechne zastosowanie w relacjach gospodarczych, politycznych i społecznych. Ponadto znana jest również z obserwacji otoczenia alegoria równi pochyłej w odniesieniu do zasad etyki i moralności, kiedy to po pewnym czasie od rozpoczęcia działań, które nadwątliły fundamentalne reguły postępowania i współżycia społecznego, zadajemy sobie pytanie – jak do tego doszło? Te przykłady wskazują, jak erozja norm moralnych albo pozornie błahe działania nieetyczne powoli, ale systematycznie prowadzą do nieodwracalnych zmian, których nikt się nie spodziewał, podejmując intencję poluzowania ustalonych zasad. Tak oto wyłania się fundamentalny problem działalności biznesowej i zarządzania, wynikający z podstaw konsekwencjalizmu, który można wyrazić kolejną przypowieścią: „Cokolwiek czynisz, czyń rozważnie i patrz końca”. Istnieją różnego rodzaju obiektywnie prawdziwe fakty, niezależne od nas (np. opis naukowy eksperymentu, zjawisko przyrodnicze). Istnieją również fakty etyczne, odnoszące się do rzeczy w świecie, które mogą być dobre lub złe. G.E. Moore wprowadził pojęcie „błędu naturalistycznego”, polegającego na utożsamianiu pojęć etycznych z pojęciami naturalnymi. „Dobro oznacza mniej więcej zawsze to samo co przyjemność ale pozostaje kwestią otwartą, czy przyjemność jest 17 zawsze dobrem”14. Problemem fundamentalnym etyki, który równie mocno rysuje się w ekonomii i zarządzaniu jest: W jaki sposób można przejść od twierdzenia opisowego, które zdaje relację z tego jak jest do twierdzenia normatywnego – jak być powinno. Mamy bowiem wokół nas określoną sytuację społeczno polityczną i geopolityczną. Mamy szereg relacji w otoczeniu, ale czy z tego wynika jak powinny one wyglądać, żeby uznać je za moralne i etyczne. Czy sytuacja zadłużania Polski dla doraźnych celów politycznych jest etyczna? Jesteśmy przekonani, że żyjemy w świecie fizycznym, który może być zrozumiany dzięki prawom odkrywanym przez naukę (świat faktów obiektywnych, z którego wartości są wyłączone). Ale wypowiadając sądy etyczne (np. że ludobójstwo jest czymś złym), wypowiadamy pewną prawdę o świecie – coś, czego możemy się dowiedzieć i jest prawdziwe niezależnie od naszego stosunku do tej kwestii. Niestety sądy te są zwykle obarczone znaczącym subiektywizmem, co szczególnie ciekawie przedstawił A.N. Whitehead: „Moralnym jest to, co większość w danym miejscu i czasie lubi. Niemoralnym jest natomiast to, czego większość nie lubi”. Co oznacza określenie „dobre etycznie” w relacji do zarządzania? Czy osiągnięcie celu ekonomicznego przez organizację stosując, np. oszustwa podatkowe można uznać za „dobre zarządzanie”? Czy wykorzystywanie do pracy dzieci przez niektórych producentów elektroniki można uznać za element „dobrego zarządzania”? Są to pytania o ograniczenia moralne, nakładane nie tylko na zarządzanie ale na całość działań biznesu. Nad tym każdy menedżer musi się zastanowić. Tego się nie ureguluje prawem stanowionym. Problemem stosowalności złotej zasady postępowania zawsze wymaga dokładniejszych rozważań ze względu na konieczność określenia kontekstu oraz warunków jej skuteczności i sensowności (określenie kryteriów etycznych) dla danej kwestii. Zbytnie uszczegółowienie może prowadzić do utraty ogólności i powstania poważnych wątpliwości przy budowaniu analogii do znanych przypadków. Dlatego odwołanie do kryteriów pragmatycznych (uwzględniających kontekst) wydaje się być nieuniknione, a te kryteria są zmienne i nie zawsze oczywiste. Np. jeżeli egoista powoła się na fakt, że „wszyscy postępują jak egoiści”, wówczas złota zasada stanie się niespójna i wewnętrznie sprzeczna. Żądanie spójności sformułowania sądu etycznego jest zatem kluczowym kryterium stosowalności złotej zasady. Dotyczy to zwłaszcza tych, którzy kierując się moralną krótkowzrocznością, preferują partykularyzm interesu własnego lub reprezentowanej organizacji. Obserwujemy te zjawiska w Polsce co cztery lata wraz z kolejnymi wyborami władz. Nie ma moralności, zwłaszcza tej prawdziwie demokratycznej – jest partykularny interes do zrobienia. Problem ten w filozofii znany jest jako “gilotyna Hume’a”. 14 18 Fundamentalnym problemem moralnym każdego menedżera powinno być postępowanie zgodnie z zasadami etycznymi. Dylemat przebiega na linii podziału etyki opartej na obowiązku (deontologizm), od tej opartej na konsekwencjach (konsekwencjalizm). Konsekwencjalizm wiąże się z problemami wyboru w zarządzaniu najmniejszego zła oraz zasadą „Cel uświęca środki”. Deontologizm, zakłada obowiązek za wszelką cenę (nie patrząc na konsekwencje). Wyraża się to sformułowaniem imperatywu kategorycznego „Postępuj zawsze według maksymy, abyś mógł zarazem chcieć, by stała się ona podstawą powszechnego prawodawstwa [I. Kant]”. Przy dokonywaniu osądu moralnego podjętego działania, kluczową rolę odgrywają intencje podmiotu. Zgodnie z zasadą podwójnego efektu: działanie, które miało zarówno dobre, jak i złe efekty, może zostać usprawiedliwione, jeżeli intencje z którymi było podejmowane były dobre, a efekty negatywne były jedynie przewidywane a nie zamierzone. Zasada powyższa rozróżnia przewidywanie skutków działania od intencji. Konsekwencjonalista stwierdza, że na pytanie o to, czy działanie jest dobre bądź złe, powinno się odpowiadać wyłącznie na podstawie konsekwencji stanowiących jego wynik. Działanie staje się jedynie środkiem prowadzącym do uzyskania pożądanego celu, a jego etyczna wartość określona jest przez efektywność z jaką dany środek do celu prowadzi. Celem konsekwenconalisty jest stan rzeczy (zadowolenia, równowagi), będący konsekwencją różnorodnych działań. Wybór działań wynika z oceny konsekwencji z nich płynących. Działania podejmowane w systemach deontologicznych mogą być w samym sobie złymi lub dobrymi z punktu widzenia konsekwencjonalisty (nie są postrzegane wyłącznie jako środki prowadzące do celu). Działania takie posiadają samoistną wartość etyczną, a nie wyłącznie instrumentalną – osiągania celu. Czyn jedynie wtedy jest moralnie dopuszczalny, jeżeli można zastosować do jego oceny imperatyw kategoryczny stale i powszechnie wobec siebie oraz innych (wariant złotej zasady postępowania). 1.1.3 Zasady optimum działania Ten rozdział warto zacząć od przedstawienia założeń utylitaryzmu, jako kierunku etycznego myślenia, wynikającego bezpośrednio z konsekwencjonalizmu. Ma on ogromne znaczenie w postępowaniu ludzi oraz systemów generujących wartość. Z jednej strony oferuje stosowanie zasad optymalności podejmowanych działań w ramach normalnej aktywności życiowej, z drugiej zaś, próbuje ustalić kryteria ocen moralnych oparte na użyteczności i „rachunku szczęścia”. Dla utylitarysty intencja czynu nie ma większego znaczenia etycznego – ważne jest tylko, czy daje on więcej efektów korzystnych czy szkodliwych. Działania są 19 dobre w takim stopniu, w jakim prowadzą do szczęścia, złe zaś, jeśli prowadzą do przeciwnych uzyskania szczęścia15. Działania powinny być osądzane jako dobre bądź złe w zależności od tego czy zwiększają, czy zmniejszają ludzkie dobre samopoczucie (czyli czy są użyteczne). Poszczególne przyjemności różnią się jedynie cechami ilościowymi (czas trwania oraz intensywność), abstrahując od charakterystyk jakościowych. J.S. Mill uzupełnił to, wprowadzając „przyjemności wyższe i niższe”16. Z kolei J. Bentham zaproponował wprowadzenie „rachunku szczęścia”, umożliwiającego pomiar ilości przyjemności i bólu wywołanych przez określone działania17. Jego teoria słusznych działań sprowadza się do hasła „największe szczęście dla największej liczby ludzi”. Stąd większość działań ludzkich w społeczeństwach hołdujących konsumpcjonizmowi wyznaje właśnie takie zasady za optymalne działanie i tak zarządza dostępnymi zasobami, żeby rachunek szczęścia był najwyższy. Warto zauważyć, jak dobrze ta zasada koresponduje z II prawem H. Gossena18 o maksymalizacji przyjemności z konsumpcji przy ograniczonych środkach. Rys. 1.3 Podstawowe prawa człowieka Istnieje jednak jakiś ogólny i optymalny porządek moralny „prawo naturalne”, który wyznacza granice etyczne zachowań społecznych. Prawo naturalne reprezentuje wartości samoistne, autonomiczne, uniwersalne i ponadczasowe, które są przeciwstawiane prawu pozytywnemu, stanowionemu w danym czasie Mill J.S., „Utylitaryzm”. 1863; http://www.earlymoderntexts.com/assets/pdfs/mill1863.pdf Mill J. S., “Utilitarianism”, G.Sher Ed., 2nd Ed., Hackett Publishing Co. Inc., Indianapolis, 2001. 17 Bentham J., “Introduction to the Principles of Moral Legislation”, 1781 Batoche Books, Kitchener, http://socserv2.socsci.mcmaster.ca/econ/ugcm/3ll3/bentham/morals.pdf 18 Gossen H.H., “Die Entwicklung der Gesetze des menschlichen Verkehrs und der daraus fließenden Regeln für menschliches Handeln” (1854). Wersja angielska “The Laws of Human Relations and the Rules of Human Action Derived Therefrom” (1983) MIT Press; Cambridge MA. 15 16 20 i miejscu przez określonych ludzi, zmienne na przestrzeni dziejów. Prawo naturalne ma uzasadniać (bronić) nienaruszalne prawa człowieka i jako takie jest uważane za nadrzędne wobec prawa stanowionego, wobec czego zwolennik prawa natury jest zwolniony z przestrzegania prawa stanowionego, gdy jest ono z nim w sprzeczności. Koncepcje prawa natury poszukują odpowiedzi na pytania: jakie powinno być prawo stanowione, co to znaczy sprawiedliwość oraz czy i kiedy można odmówić posłuszeństwa prawu stanowionemu. Jest to niewątpliwie jeden z najbardziej istotnych aspektów otoczenia ekonomii. Z prawa naturalnego wynikają bowiem prawa człowieka (rys. 1.3). Te prawa przekładają się na zbiór potrzeb (rys. 1.4) dla godnego życia człowieka. I dlatego działania optymalne, zgodne z etyką utylitaryzmu można uznać za archetyp racjonalnego zarządzania. Rys. 1.4 Kostka prakseologiczna Problematyką działań optymalnych zajmuje się prakseologia stanowiąca konsekwencje zastosowania myśli konsekwencjonalizmu, rozwijana przez A. Espinasa, T. Kotarbińskiego19,20,21, oraz L.von Misesa22,23. Zadaniem prakseologii jest poszukiwanie najszerszych uogólnień odnoszących się do wszelkich form świadomego i celowego działania, rozpatrywanego ze względu na sprawność; konstruowanie i uzasadnianie dyrektyw praktycznych. Jest to poszukiwanie optymalności działania na wszelkich możliwych polach aktywności ludzkiej, w Kotarbiński T., „Dzieła wszystkie. Traktat o dobrej robocie”, Wyd. Ossolineum, Wrocław , 2000. Kotarbiński T., “Dzieła wszystkie. Prakseologia cz. I”, tom 6, Wyd. Ossolineum, Wrocław, 1999. 21 Kotarbiński T., “Dzieła wszystkie. Prakseologia cz. II”, tom 7, Wyd. Ossolineum, Wrocław, 2003. 22 Kotarbiński T., Praxiology. an introduction to the sciences of efficient action”, Pergamon Press, 1965 23 Mises L von, “The Ultimate Foundation of Economic Science. An Essay on Method”, D.van Nostrand, Princeton, 1962. 19 20 21 tym działalności gospodarczej. Sens działania prakseologicznego najlepiej przedstawia rys. 1.4 Każde działanie powinno być charakteryzowane przez zbiór cech umieszczonych na kostce, przy czym każda ściana zawiera cztery charakterystyki (atrybuty) cechy głównej, np. „gospodarność” jest określana przez: korzystność, oszczędność, wydajność i efektywność procesów. Jest to wskazanie kierunków optymalizacji działań dla racjonalnego zarządzania. To właśnie z zasad prakseologicznych wywodzą się japońskie metody produkcji i zarządzania: Kaizen, Kanban24 oraz wszelkie koncepcje z obszaru tzw. „lean management”25 (str. 151). Jako podsumowanie niniejszego wywodu warto przytoczyć zasadę działań optymalnych, w sformułowaniu W. Pogorzelskiego26, stanowiącą aksjomat centralny ujęcia systemowego: „Najogólniejszą, najbardziej powszechną, głęboką i wyrazistą przyczyną wszystkiego jest optymalność. W niej zawiera się cały ogrom wiedzy o świecie”. Ta zasada wynika z obserwacji natury i jej funkcjonowania. Można ją przenosić na racjonalne działania człowieka. Należy jednak zachować ostrożność w tej kwestii, albowiem racjonalność postępowania ludzkiego jest ograniczona przez wpływ otoczenia i braki informacji, co wykazał w swoich pracach H. Simon27,28. Zgodnie z teorią ograniczonej racjonalności decyzje nie są podejmowane w sposób zgodny z zasadami minimum lub maksimum, ale w momencie osiągnięcia pewnego progu satysfakcji menedżera, niezależnie od poziomu niepewności. Jest to jednak również jakaś forma optymalności, tyle że rozumiana w sposób subiektywny. Tłumaczy to fakt, że model człowieka homo economicus J. S. Milla w kwestiach podejmowania decyzji nie jest realizowany w praktyce w 100%. Relacje pomiędzy ekonomią a psychologią i socjologią umożliwiły powstanie koncepcji człowieka społeczno-ekonomicznego, racjonalności selektywnej i ograniczonej. Odnoszą się one do wpływu otoczenia i niemierzalnych kwestii na jednostkę przy podejmowaniu decyzji i jej wybory, a także do luki informacyjnej uniemożliwiającej w pełni racjonalne zachowania na rynku. Stały się Imai M., „Gemba Kaizen. Zdroworozsądkowe, niskokosztowe podejście do zarządzania”, MT Biznes, Warszawa 2012. 25 Ohno T., „System produkcyjny Toyoty. Więcej niż produkcja na wielką skalę”, ProdPress, Taylor & Francis, Wrocław 2008, http://wydawnictwo.prodpublishing.com/wp-content/uploads/2011/07/System-Produkcyjny-Toyot-fragmenty.pdf oraz Art of Lean http://www.artoflean.com/files/Basic_TPS_Handbook_v1.pdf 26 Pogorzelski W., „O filozofii badań systemowych”, Wyd. Nauk. Scholar, Warszawa 2002, s. 47 27 Simon H.A., “Administrative Behavior”, Free Press, New York 1957. 28 Simon H.A., “Podejmowanie decyzji i zarządzanie ludźmi w biznesie i administracji”, wyd. 4, One Press - Helion, Gliwice, 2007 24 22 one podstawą ekonomii behawioralnej i ważnego kierunku badań w obszarze nauk o zarządzaniu29,30,31 1.2 Potrzeby i dobra W zasadzie całość zagadnień psychologizmu w zarządzaniu i ekonomii zaczyna się od teorii potrzeb A. Maslowa32. Jej podstawy można wywodzić z benthamowskiej koncepcji „rachunku szczęścia” i postaw konsekwencjalnych czło- wieka konsumenta. Teoria potrzeb nie ma wprawdzie ścisłego potwierdzenia, ale praktyka pokazuje, że można posługiwać się nią w objaśnianiu wielu aspektów działalności gospodarczej oraz zarządzania z dobrym skutkiem. Podstawą rozważań jest hierarchiczna piramida potrzeb przedstawiona na rys. 1.5. Rys. 1.5 Hierarchia potrzeb wg Maslowa Kahneman D., Tversky A., “Prospect theory: An analysis of decisions under risk”, Econometrica, 47, (1979), 313-327. 30 Camerer, C.F., Löwenstein, G., “Behavioral Economics: Past, Present, Future.”, [w] Camerer, Löwenstein and Rabin, “Advances in Behavioral Economics”, New York: Princeton University Press, (2004), pp. 1-51. 31 Sołek A., “Ekonomia behawioralna a ekonomia neoklasyczna”, Zeszyty Naukowe PTE, No. 8, (2010), 2134; http://www.pte.pl/pliki/1/1066/01_Solek.doc.pdf 32 Maslow, A. H., „Motivation and Personality”, Harper, New York 1954. 29 23 1.2.1 Potrzeby A. Maslow stwierdził, że potrzeby funkcjonują na pewnych poziomach, niezależnie od siebie i hierarchicznie (tzn. potrzeby wyższego rzędu pojawiają się dopiero po zaspokojeniu tych, niższego rzędu). Istnieją trzy zasadnicze grupy potrzeb związanych z egzystencją (fizjologiczne, bezpieczeństwa i przynależności), z bytem metafizycznym (szacunku, poznania, estetyczne) oraz z refleksją transcendentalną (samorealizacji, transcendencji), jak na rys. 1.5. Człowiek rozwija się przez spełnianie coraz wyższych kategorii potrzeb. Przy tym dopóki nie zostanie zaspokojona potrzeba kategorii niższej, jednostka nie stara się zaspokajać potrzeb kategorii wyższej. Obserwuje się, że zaspokojone w znacznej mierze potrzeby danego poziomu, najczęściej przestają motywować i jednostka pozostaje na pewnym, określonym poziomie potrzeb. Może ona rozpocząć realizację potrzeby wyższego rzędu o ile dozna motywacji33. W obrębie hierarchii potrzeb można wysunąć cztery hipotezy, które stanowią fundament zarządzania kadrami (Human Resources). Są to: 1. hipoteza frustracji: nie spełniona potrzeba staje się dominującą; 2. hipoteza regresji potrzeb: jeżeli nie może być spełniona potrzeba wyższego rzędu, potrzeba niższa w hierarchii staje się dominującą; 3. hipoteza progresywności rozwoju: zaspokojenie potrzeby niższej hierarchii aktywuje hierarchicznie wyższe potrzeby; 4. hipoteza rozwoju przez frustrację: nawet stały poziom niezaspokojonych potrzeb może przyczynić się z czasem do rozwoju osobistego, uaktywniając potrzeby wyższego rzędu lub prowadząc do wyższego poziomu aspiracji. Trzeba zaznaczyć, że zarówno jednostka (pracownik), jak i organizacja (pracodawca) mają swoje potrzeby, które zwykle znacząco się różnią. Menedżer musi zdawać sobie sprawę z faktu, że pracownik przychodzący do pracy ma swoje potrzeby kluczowe oraz pewien poziom egzystencji. Część z tych potrzeb może zostać zaspokojonych wyłącznie przez organizację oraz przynależność do społeczności lub grupy. To jest właśnie punkt wyjścia dla wszelkich rozważań na temat relacji pracownik – organizacja i budowania zespołu, którego cele są pokrewne celom organizacji (rozdział 2.3 oraz 4.5). Ten fakt można dobrze spożytkować, ale równie łatwo go zmarnować, budując korporacyjną strukturę frustratów wzajemnie się zwalczających w niezdrowej konkurencji. Wprawdzie ktoś może stwierdzić, że korporacja posiada wysoką kulturę organizacyjną i wymiana w niej pracownika na innego nie wpływa na zdolność do kreowania wartości, ale odejście pracownika wiedzy powoduje czasami niemałe perturbacje, których koszty mogą przekroczyć znacząco ewentualną poprawę warunków pracy dla całej grupy. Amstrong M., „Zarządzanie zasobami ludzkimi”, Oficyna Ekonomiczna Dom Wydawniczy ABC, Kraków, 2000 33 24 Motywacje, pragnienia, odczucia stanowią przedmiot nieustających badań psychologii oraz ekonomii i nauk o zarządzaniu. Czy można z tych badań wywieść jakieś zdania o charakterze teoriotwórczym? Dotyczy to zwłaszcza zagadnienia, dlaczego człowiek podejmuje wysiłek i pracuje? Dlaczego zjawisko „wyścigu szczurów” pojawiło się w dzisiejszym świecie? Warto wspomnieć w tym miejscu o koncepcji ERG (Existence, Relatedness, Growth) C. Alderfera34, stanowiącej modyfikację, a bardziej adaptację dla celów zarządzania, wspomnianej wcześniej teorii potrzeb A. Maslowa32. Zakłada ona, że do działań w obrębie systemu społecznego, a zwłaszcza do pracy, motywuje jednocześnie kombinacja trzech kategorii potrzeb: egzystencjalnej (E), więzi społecznej (R) oraz stałego rozwoju osobistego (G) i przewiduje pewne relacje dominacji potrzeb wynikające z obserwacji. Do koncepcji natężenia potrzeb ERG i ich relacji nawiązuje teoria osiągnięć D. McClellanda35. Wyodrębnił on trzy podstawowe potrzeby człowieka w zakresie rozwoju osobistego „G” z koncepcji Alderfera: potrzebę osiągnięć (A), potrzebę przynależności (R) oraz potrzebę władzy (P). Za pomocą testu psychologicznego dokonał próby ilościowego oszacowania presji tych potrzeb i okazało się, że w tym obszarze istnieje znaczące pole dla zajmujących się tematyką human resources i budowaniem efektywnych zespołów w organizacjach. Przede wszystkim okazało się, że wartością nie są wyłącznie dobra materialne, ale równie ważne są te niematerialne aspekty egzystencji. A zatem z punktu widzenia zarządzania jest to grupa bardzo interesujących zagadnień, które stanowią podstawę zarządzania kadrami, przywództwa oraz relacji człowiek-technologia. 1.2.2 Dobra Potrzeby mogą zostać zaspokojone za pomocą dóbr, które należy rozumieć jako pozytywy (materialne lub niematerialne), przynoszące jakąś korzyść interesariuszowi, wywołując u niego chęć ich pozyskania. Dobra powstają w wyniku działań produkcyjnych, działań twórczych albo świadczenia usług. Jeżeli kreowanie dóbr staje się stałym źródłem korzyści wytwórcy, takie działanie nazywa się działalnością gospodarczą (rozdział 1.5). Z dobrami powiązana jest ściśle wartość w sensie ekonomicznym oraz teoria równowagi ogólnej, która zakłada, że istnieje pewien zbiór cen na dobra prowadzący do zrównoważenia podaży i popytu tych dóbr w całym systemie ekonomicznym. Dostawca (producent), oferuje dobra wartościowe, które można wycenić rynkowo przez parametr ceny. Konsument dysponuje ograniczonymi zasobami (kapitałem) i zwykle nie może zaspokoić wszystkich potrzeb, podobnie jak producent nie może wyprodukować nieskończonej ilości dóbr. Stąd wynika Alderfer C.P:, “Existence, Relatedness, and Growth; Human Needs in Organizational Settings”. Free Press, New York 1972. 35 McClelland D.C., „Human Motivation”, Cambridge: Cambridge University Press, 1988. 34 25 istnienie pojęcia „preferencja” dla każdego konsumenta. Oznacza to, że spośród wielu możliwych dóbr, wybiera on określone tak, żeby zaspokoić jak najlepiej swoje potrzeby przy ograniczonym poziomie zasobów. Stanowią o tym prawa Gossena, malejącej użyteczności krańcowej oraz wyrównywania krańcowej użyteczności36, a także teoria wartości w sensie ekonomicznym G. Debreu37. Ustala ona ekonomiczne podstawy mikroekonomii. Fundamentalnym założeniem istnienia równowagi ogólnej jest stwierdzenie: można skonsumować tylko tyle ile uda się wyprodukować. Praktyka gospodarcza pokazuje, że nie można traktować wszystkich konsumentów w jednakowy sposób, jako anonimowego agenta, a dóbr jako identycznych co do uposażenia ontycznego obiektów, możliwych do zaklasyfikowania do jednej kategorii (np. przestrzeni liniowej dóbr). To powoduje, że ekonomiczne modele równowagi rynkowej, np. ADM38,39 pozwalają jedynie pozostawać w sferze rozważań teoretycznych. Udział emocji i psychologii w budowaniu preferencji oraz decyzji o zakupie powoduje, że cena równowagowa w wielu przypadkach nie jest możliwa do obliczenia metodami analizy kosztów, a jedynie poprzez autoadaptację do aktualnych warunków popytu (ustalanie cen przez aukcje lub giełdę). Tym samym podejmując się wartościowania dóbr należy w wielu przypadkach odrzucić ściśle ilościowe kryteria ustalania cen, albowiem istotniejsze są przesłanki behawioralne oraz siła ekspresji cech40,41. Subiektywizm tych ocen wynika nie tylko z psychologizmu, ale również z pozycji oceniającego. Można to zilustrować jak na rys. 1.6 (relatywizm oszacowania). To, co może być zaliczone do kategorii dóbr nie musi mieć formy materialnej. Ten fakt stanowi o istnieniu całej grupy wartości niematerialnych i prawnych oraz wartości intelektualnej, stanowiącej o tworzeniu kapitału intelektualnego. Stanowią one dobra zaspokajające potrzeby związane z prawami człowieka (rys. 1.3) oraz potrzeby wyższej kategorii niż podstawowe w piramidzie Masłowa (rys. 1.5). W zarządzaniu dobra niematerialne są niezwykle istotnym elementem, choćby motywowania pracowników, czy też wartości dodanej do dóbr materialnych. Dotyczy to zwłaszcza informacji w formie programów sterujących oraz Gossen H. H., “Die Entwicklung …“ op. Cit. Debreu G., „Theory of Value. An Axiomatic Analysis of Economic Equilibrium”, Yale University Press, New Haven and London, 1959. http:// http://cowles.econ.yale.edu/P/cm/m17 . 38 McKenzie L.W., “The Classical Theorem on Existence of Competitive Equilibrium”, Econometrica, Vol. 49, No. 4 (1981), pp. 819-841. http://www.dklevine.com/archive/refs41388.pdf 39 Düppe T., & Weintraub E.R., “Finding Equilibrium: Arrow, Debreu, McKenzie and the Problem of Scientific Credit”, Princeton Univ. Press, Princeton, 2014. 40 Porównajmy dwa samochody jaguar xj i fiat panda. Oba jadą do przodu, do tyłu. Oba mają fotele, szyby, klamki, silnik, itd. Innymi słowy – mają podną użyteczność. Nie da się jednak zaprzeczyć, że samochody te różnią się zasadniczo wszystkim cechami użytkowymi w sposób ewidentny. Mówimy wówczas, że ekspresja cech limuzyny jaguara jest istotnie wyższa, niż fiata pandy. Jest to przedmiot dociekań aksjometrii, która próbuje zmierzyć subiektywizm odbioru mentalnego danego dobra. 41 Hartman, R. S., "Axiometric Structure of Intrinsic Value", Journal of Value Inquiry (Summer, 1974; v.8, no. 2, pp. 88-101 36 37 26 wiedzy ukrytej (np. dostarczonej wiedzy o optymalnym obiegu dokumentów w systemie ewidencji w ramach oferowanego programu FK). Rys. 1.6 Ilustracja subiektywizmu oceny wartości dobra W odniesieniu do produktu wartość dodana stanowi istotne poszerzenie pojęcia produktu stanowiącego dobro42: Produkt rdzenny (oferta bazowa). Zapewnia nabywcy korzyści bazowe. Produkt generyczny (zdefiniowano ustaloną użyteczność lub funkcjonalność). Jest tym, co nabywca rzeczywiście kupuje w myśl zasady „koń jaki jest każdy widzi”. Produkt oczekiwany (o zdefiniowanym uposażeniu ontycznym). Posiada cechy fizyczne, możliwe do makroskopowej oceny takie, jak: kształt, kolor, marka, model, cena, opakowanie, jakość; Produkt poszerzony posiada dodane korzyści niematerialne, takie jak: forma dostawy, gwarancja, rękojmia, serwis posprzedażny, usługi komplementarne, empatia załogi, sposób załatwiania reklamacji, instrukcje, instalacje on site, finansowanie (kredyty, sprzedaż ratalna, odroczone terminy płatności). “Theodore Levitt’s Product Level Hierarchy”, http://www.spookybin.com/study-zone/marketing-for-beginners/product-strategies/theodore-levitts-product-level-hierarchy/ 42 27 Produkt potencjalny jest produktem poszerzonym charakteryzującym się zdefiniowanym oddziaływaniem z otoczeniem. Oprócz korzyści dodanych, obejmuje wszystkie działania oraz informacje, które mogą uczynić go jeszcze bardziej atrakcyjnym i przyciągnąć nabywcę (np. kastomizacja, marketing, forma dostawy). Zarządzanie ma na tym polu istotne zadanie: dopasowania możliwości konsumpcji społeczeństwa do potencjału sił wytwórczych, czego objawem są działania marketingowe i próby wykreowania nowych potrzeb oraz produktów w celu zwiększania sprzedaży i poszerzenia rynku. Procesy te są ciągłe w czasie i nieograniczone ani ilościowo ani jakościowo, podobnie, jak potrzeby. Cykl życia produktu. Nic nie jest wieczne. Upodobanie klientów są zmienne. Potrzeby są nieograniczone i dodatkowo zmienia się ich układ w czasie u każdego konsumenta. To powoduje, że każda firma oferująca dobra musi brać pod uwagę zmienność popytu i bardzo dokładnie monitorować rynek. Rys. 1.7 Krzywa cyklu życia produktu (dobra). Cykl życia każdego produktu składa się z czterech faz: wprowadzenia, wzrostu, dojrzałości i schyłkowej, co zaprezentowane zostało na rys. 1.7. W fazie wprowadzenia podejmuje się przede wszystkim działania w zakresie pozycjonowania danego dobra na rynku. Polegają one na informowania klientów o nowym produkcie, który pojawił się lub niebawem pojawi i udrażnianiu kanałów komunikacyjnych. Faza ta wymaga znaczących nakładów na działania promocyjne i informowanie potencjalnych nabywców o istnieniu produktu oraz wywołanie potrzeb rynkowych. Jego cena jest zwykle w tym czasie wyższa, co 28 ma na celu kompensację wysokich nakładów poniesionych na jego zaprojektowanie, wytworzenie i wdrożenie. Cena ta musi być konkurencyjna i dostosowana do możliwości nabywczych konsumentów, tak żeby zachęcić ich do zainteresowania się produktem i zakupienia go. Ideałem jest takie skalkulowanie ceny nowego produktu tak, żeby zapewnić jedynie zwrot kosztów prototypowej serii. Nie jest wówczas problemem ujemny zysk, o ile w kolejnym etapie cyklu życia produktu spodziewamy się znaczącego wzrostu sprzedaży (rys. 1.7). Faza wzrostu charakteryzuje się najszybszym przyrostem sprzedaży. Powoduje to obniżenie kosztu jednostkowego produkcji, promocji i logistyki. Skutkiem jest spodziewany wzrost ilości sprzedaży na rynku. Na tym etapie produkt wdrożony z sukcesem zaczyna mieć konkurentów. Zaczynają pojawiać się substytuty i imitacje. Jedną ze strategii ochrony interesów jest stałe powiększanie udziału w rynku, co może wiązać się z obniżaniem ceny i marży. Można również przyjąć strategię ochrony wartości intelektualnej związanej z produktem (wzory użytkowe, patenty) oraz budować kluczowe kompetencje własnego zasobu wytwórczego, utrudniając powstawanie substytutów. To zwykle wymusza ciągłą innowacyjność na działaniach producenta i modyfikacje produktu43. Na tym etapie cyklu życia powinien pojawić się istotny zysk, który pozwala powetować ewentualne straty powstałe w fazie wprowadzenia danego dobra na rynek. Produkt jest już znany i nakłady na jego promocję i reklamę mogą zostać zoptymalizowane. Standardowa produkcja nie wymaga wówczas na innowacje. Pozwala to skoncentrować się na optymalizacjach logistycznych i doskonaleniu procesów produkcji oraz zapewnienia jakości. W Fazie dojrzałości sprzedaż osiąga swoje maksimum, podobnie jak zysk. Na początku obserwujemy subfazę wzrostu, kiedy przyrost sprzedaży maleje. Następuje nasycenie rynku i plateau krzywej sprzedaży (subfaza stabilności) aż do osiągnięcia ekstremum. Po przekroczeniu ekstremum następuje subfaza dojrzałości wygasającej, kiedy sprzedaż zaczyna spadać, ale stosunkowo wolno. W podobny sposób zachowuje się krzywa zysku. W fazie dojrzałości można mówić o grupie i rynku stałych klientów, powracających do firmy (marki) albo powtarzających zakup, jeżeli rozważamy pojedyncze dobro. W fazie dojrzałości kontrahenci w mniejszym stopniu są podatni na reklamę. Decydujące znaczenie dla decyzji o zakupie zaczyna mieć cena. Jest to racjonalne zachowanie, odzwierciedlające idee I prawa Gossena. Pojawiają się wtedy obniżki, promocje, upusty, Najlepiej ilustruje to ewolucja smartfonów i wojna na rynku pomiędzy Apple a Samsungiem, Motorolą i Google. Od roku 2008 firma Apple i Samsung dostarczyły VI wersje swoich flagowych smartfonów, a Google zaoferował 6 odsłonę Androida o nazwie Mershmallow. Niezależnie od wojny gigantów na rynku pojawiły się doskonałe substytuty firmy Huawei, LG, Sony i kilku pomniejszych graczy. Strategia Apple umożliwiająca produkowanie dużo i drogo towarów luksusowych powoli przechodzi w fazę zmiany na bardziej standardowych zachowań. 43 29 akcje marketingowe, mające zachęcić klienta do zakupu. Na rynku działa wówczas wielu konkurentów i można spotkać różne zamienniki oryginalnych produktów. Strategie rozwoju dla producenta na tym etapie polegają na zdobywaniu nowych rynków, nowych segmentów rynku (grup konsumentów) poprzez ewolucje produktu i wartość dodaną z nim związaną. Są to typowe działania innowacyjne na poziomie produktowym, dystrybucji i sprzedaży. To pozwala wydłużyć fazę dojrzałości produktu w czasie. Mamy wówczas do czynienia zoptymalizacją procesów logistycznych i intensyfikacją dystrybucji. Wprawdzie zyski jednostkowe maleją, ale produkt ciągle zdobywa nabywców w dużej ilości i zapewnia odpowiednią zyskowność na poziomie integralnym. Warto odnotować fakt wynikający z obserwacji, że faza dojrzałości jest tym dłuższa, im stabilniejszy jest sektor i rynek danego produktu. Niemały wpływ na długość tej fazy ma również poziom innowacyjności oferowanego dobra, pozycja rynkowa producenta i systemy sprzedaży. Faza schyłkowa charakteryzuje się spadkiem produkcji i sprzedaży. Przestają działać typowe instrumenty marketingowe i promocje. Najskuteczniejsze jest wówczas obniżanie cen, znalezienie nowych, tańszych i efektywniejszych kanałów dystrybucji, zmiana zastosowań produktu, nowe grupy klientów lub modyfikacje. Spadają wówczas zyski i konieczne staje się ciągłe monitorowanie szybkości spadku sprzedaży w czasie. Menedżer musi prowadzić analizy trzech obszarów: poziomu cen rynkowych konkurencji, kosztów oraz pozycji rynkowej na tle atrakcyjności sektora. Służą temu analizy portfelowe, w szczególności: metoda BCG (rozdział 6.5) oraz GE-McKinsey (rozdział 6.4). Natomiast syntezę decyzyjną na poziomie strategicznym, łączącą ze sobą relację fazy produktu oraz pozycji rynkowej firmy dobrze oddaje macierz ADL, którą przedstawiono w Tabela 1. Ważnym działaniem organizacji w fazie schyłkowej jest identyfikacja słabych punktów produktu oraz zagrożeń rynkowych, a przede wszystkim ustalenia relacji zyskowności ze sprzedaży do kosztów. Na tej podstawie można podjąć decyzję strategiczną o pozostaniu na rynku i ewentualnych innowacjach produktowych, zmianach portfelowych w strukturze oferty, albo wycofaniu się z konkurowania częściowo lub całkowicie. Procesy tych zmian, a tym samym wydłużenie fazy schyłkowej, kończącej procesy eksploatacji portfela oferty nie muszą być gwałtowne. Zależy to od zachowań rynku, do których organizacja musi się adaptować. Można również, w niektórych przypadkach, oferować usługi komplementarne, np. dostarczając części zamienne oraz serwis posprzedażny przez jakiś okres czasu. Firma Morgan Motor Co. daje gwarancje 50 lat na części zamienne do swoich pojazdów, co stanowi niejaki rekord na rynku, ale przynosi firmie korzyści strategiczne. 30 Podsumowując rozważania na temat cyklu życia produktów i konsekwencji dla zarządzania, należy zdać sobie sprawę, że analizy portfelowe posiadają znaczące ograniczenia wynikające z subiektywizmu przyjmowanych kryteriów decyzyjnych. Poza tym, niektóre produkty, tak jak coca-cola nie doświadczyły fazy schyłkowej, a rynek towarów luksusowych wcale nie musi być innowacyjny. Krzywa cyklu życia ma różne kształty w zależności od produktu. Stąd też interpretacje analiz muszą być poddane ocenom racjonalności przy braku ogólnych kryteriów czym ta racjonalność jest. To wynika z doświadczenia menedżera oraz porównań rynkowych. Tabela 1 Macierz wskazań decyzyjnych z metody ADL Pozycja w konkurencji wprowadzenie Faza cyklu życia produktu wzrost nasycenie Utrzymanie poUtrzymanie dozycji rynkowej. minującej pozyWzrost ze wzrocji rynkowej. stem branży. Dominująca Zdobycie i utrzymanie pozycji rynkowej. Mocna Inwestowanie w poprawienie pozycji rynkowej. Intensyfikacja udziału w konkurowaniu. Inwestowanie w poprawienie pozycji rynkowej. Zdobycie nowych rynków. Korzystna Selektywne zdobywanie pozycji rynkowej. Poprawa konkurencyjności. Selektywne zdobywanie pozycji rynkowej i Próby jej poprawienia.j. Przeciętna Selektywna poprawa konkurencyjności i pozycji rynkowej. Poszukiwanie niszy rynkowej. Utrzymanie nisz o ile istnieją. Słaba Silna poprawa pozycji rynkowej albo niepodejmowanie działalności. Silna poprawa pozycji rynkowej albo wycofywanie się z rynku. Utrzymanie pozycji rynkowej. Wzrost ze wzrostem branży. Minimalne inwestycje dla poprawienia pozycji rynkowej. Poszukiwanie nisz rynkowych. Stopniowe redukowanie aktywności. Poszukiwanie nowych. Stopniowe redukowanie aktywności. schyłek Utrzymanie pozycji rynkowej. Utrzymanie pozycji rynkowej. Wykorzystanie przewagi i nadwyżki zasobów. Efektywne wykorzystanie nadwyżki zasobowej. Redukowanie aktywności. Stopniowe redukowanie aktywności. Wycofywanie się z rynku. 1.2.3 Konsumpcja Z makroekonomicznego punktu widzenia konsumpcja oznacza sumę wydatków na rynku przeznaczoną na pozyskanie pożądanych wartości. W związku z powyższym można wyróżnić konsumpcję podstawową (autonomiczną), niezbędną dla egzystencji podmiotu konsumującego oraz konsumpcję dodatkową, 31 umożliwiającą zaspokojenie potrzeb wyższego rzędu. Konsumpcja autonomiczna nie zależy od dochodów i warunkuje przetrwanie podmiotu konsumującego. Natomiast konsumpcja dodatkowa jest uwarunkowana dostępnością kapitału swobodnego (najczęściej dochodu do dyspozycji). Opcją alternatywną dla konsumpcji dodatkowej jest oszczędzanie, czyli przeznaczanie zasobów kapitałowych na przyszłą konsumpcję. Słusznym wydaje się być założenie, które poczynił G.Debreu w swojej pracy dotyczącej teorii wartości44, że można skonsumować jedynie tyle, ile wartości zostanie wyprodukowane. A dodatkowo z twierdzenia granicznego H. Scarfa45 wynika, że ograniczoność zasobów konsumentów ogranicza możliwe plany konsumpcji. To powoduje, że na rynku pojawia się działalność spekulacyjna oraz instrumenty finansowe, zastępujące pieniądz (kontrakty terminowe, opcje realne, weksle, kredyty, etc.) w celu zwiększenia bieżącej konsumpcji lub sterowanie nią. Z konsumpcją wiąże się postawa socjo-kulturowa nazwana konsumpcjoniznem. Polega ona na nieusprawiedliwionym rzeczywistymi potrzebami, pomijając koszty społeczne lub straty ekologiczne, pozyskiwaniem dostępnej wartości z otoczenia. Towarzyszy temu głoszenie poglądów uznających taką ostentacyjną konsumpcję za wyznacznik jakości życia lub wręcz najważniejszą jego wartość i sens, co jest szczególnie mocno promowane przez media oraz wszelkie odmiany marketingu46. Z punktu widzenia otoczenia zarządzania, kreowanie takich postaw przez marketing jest celem samym w sobie. Napędza to produkcję zbędnych dóbr i ciągłe zwiększenie oferty rynkowej, a tym samym rozwój gospodarczy przez wzrost konsumpcji. Można przyjąć, że wyróżnikiem społeczeństw nowożytnych stało się rozpowszechnienie kredytu konsumpcyjnego, co obrazuje wzrost stopy preferencji czasowej (tu i teraz), przyznając wyższy priorytet konsumpcji teraźniejszej, niż przyszłej. Wpędza to całe grupy społeczne i narody w spiralę zadłużenia zmieniając znacząco obraz gospodarczy i wspierając działania spekulacyjne banków oraz instytucji finansowych w przejmowaniu kapitału i powodowania asymetrii jego rozkładu. Tym samym nadkonsumpcja staje się wrogiem stabilnego rozwoju społeczeństw, co zauważył już A. Smith47. Warto w tym miejscu zaznaczyć destrukcyjną rolę banków dla gospodarki obok wielu innych, ważnych funkcji usługowych, korzystnych dla biznesu, która polega na możliwości wprowadzania na rynek pustego pieniądza (bez pokrycia) w formie kredytów przy pokryciu depozytowym na poziomie 10-15%. To powoduje kreowanie surogatów pieniądza na rynku i napędzanie inflacji (niezależnie Debreu G., „Theory of the Value”, Cowles, 1954 Scarf H.E., Hansen T, “The Computation of Economic Equilibria”, Cowles Foundation for Research in economics at Yale University, Monograph No. 24, UK: Yale University Press, New Haven, London, 1973. 46 Gospodarek T., „Marketing systemowy. Nowa broń masowego rażenia”, [w] A.Styś „Współczesne problemy marketingu”, Difin Warszawa, 2015. http://gospodarek.eu/publikacje/Marketing%20systemowy.pdf 47 Smith. A., “Badania nad naturą i przyczynami bogactwa narodów”, Wydawnictwo Naukowe PWN, Warszawa, 2013. 44 45 32 od tej, generowanej przez banki centralne według bieżących zamówień politycznych), tym bardziej, że jako kredytobiorcy zwrócić bankowi musimy rzeczywisty kapitał, a nie ten bez pokrycia. To jest tak, jakby z powietrza tworzyć kapitał. Stąd hasło „bank nas okrada” jest wyjątkowo celne i na czasie. W ten sposób każda konsumpcja na kredyt obciąża całe społeczeństwo kosztami inflacji. Widać to gołym okiem w porównaniach wartości koszyka minimum socjalnego w czasie i ilość godzin pracy, która jest wymagana dla jego zapełnienia. Ale z drugiej strony, dzięki zwiększonej konsumpcji wewnętrznej, może rosnąć PKB i poprawiają się parametry makroekonomiczne państwa. Pozostaje zatem nierozwiązany problem centralny ekonomii: czy wzrost PKB kosztem nadmiernego zadłużenia i ukrytej inflacji rzeczywiście służy narodom (nie mylić w tej kwestii narodu z państwem)? Hipoteza cyklu życia. Z konsumpcją wiąże się „Hipoteza cyklu życia” zaproponowana przez I Fishera48 i R. Harroda49, którzy zauważyli, że jednostki oszczędzają najwięcej w środkowym etapie cyklu życia, odkładając na emeryturę. Ta koncepcja została rozwinięta przez A. Ando i F. Modiglianiego50, którzy stwierdzili, że jednostki przeznaczają na konsumpcję stały ułamek wartości bieżącej swojego dochodu uzyskanego na przestrzeni całego życia. Koncepcja ta stanowi alternatywę dla „dochodu absolutnego” M. Keynesa51, który stwierdził, że wydatki konsumpcyjne jednostki zależą od jej bieżącego dochodu rozporządzalnego, a oszczędzają tylko jednostki o wysokich dochodach. Przyjął równocześnie, że konsumpcja gospodarstw domowych rośnie wraz z dochodami, ale jej przyrost jest mniejszy niż przyrost dochodu do dyspozycji. Hipoteza cyklu życia jest również alternatywną do hipotezy „dochodu permanentnego” M Friedmana52. Friedman stwierdził, że wydatki konsumpcyjne nie zależą od dochodu bieżącego, a bardziej od dochodu permanentnego, który należy rozumieć jako przeciętny dochód spodziewany w okresie całego życia jednostki. Wynika stąd, że chwilowe zmiany dochodu nie wpływają znacząco na zachowania konsumpcyjne (skłonność do kredytowania konsumpcji i wykorzystywania oszczędności dla zachowania jej poziomu). Z prac Modiglianiego wynika, że konsument dąży do zrównoważonego standardu życia materialnego. Ten standard wyznaczany jest przez dochód Fisher, I., “The Theory of Interest”, The Macmillan Company, New York (1930), http://files.libertyfund.org/files/1416/0219_Bk.pdf 49 Harrod, R., “Towards a Dynamic Economics”, The Macmillan Company, London, (1948). 50 Ando A., Modigliani F., “Tests of the Life Cycle Hypothesis of Saving: Comments and Suggestions”, Oxford Institute of Statistics Bulletin, maj 1957, 99-124. 51 Keynes, J. M., The General Theory of Employment, Interest and Money. London: Macmillan, London 1936. 52 Friedman M., (1957). "The Permanent Income Hypothesis. A Theory of the Consumption Function”. Princeton University Press. http://papers.nber.org/books/frie57-1 ; http://www.nber.org/chapters/c4405.pdf 48 33 permanentny. Stąd oszczędności służą stabilizacji konsumpcji i jako takie są pochodną preferencji konsumpcyjnych, a nie odwrotnie. Tym samym oszczędności stanowią różnicę między poziomem stałej stopy życiowej a wysokością osiąganych za życia dochodów. Poziom dochodów konsumenta zmienia się w czasie. W młodości ludzie nie uzyskują na ogół wystarczających dochodów i nie są w stanie osiągać wysokiego standardu życia. Chcąc sprostać kreowanym potrzebom zmuszeni są do zaciągania kredytów i stałych oszczędności. Z czasem dochody rosną i umożliwiają powolne obniżanie poziomu zadłużenia, co generuje powstanie oszczędności na takim poziomie, który pozwoli im w wieku emerytalnym utrzymać swoją stopę życiową z okresu prosperity. Tak powinien działać racjonalny konsument, ale często obserwuje się zmiany katastroficzne wynikające z nadmiernego zadłużenia. Z punktu widzenia zarządzania, hipoteza cyklu życia ma istotne znaczenia nie tylko w skali makro, ale przede wszystkim mikro. Planowanie dotarcia do określonej grupy klientów wymaga rozumienia jaka jest struktura zagregowanych oszczędności oraz stratyfikacja dochodu do dyspozycji. Jednocześnie z hipotezy tej wynika, że ocena poziomu przyszłego bezpieczeństwa ekonomicznego jednostki determinuje bieżącą konsumpcję. Dochodowa elastyczność popytu. W ekonomii, elastyczność dochodowa popytu mierzy wielkość zmiany popytu na towary lub usługi przy zmianie dochodu osób pożądających danego dobra53. Jest ona obliczana jako stosunek procentowej zmiany wielkości popytu na dobra do procentowej zmiany dochodu. Na przykład, jeśli w odpowiedzi na 10% wzrost dochodów, wielkości popytu na dobra wzrosła o 20%, to elastyczność dochodowa popytu będzie wynosiła wówczas 2. Negatywna elastyczność dochodowa popytu jest związana z dobrami podrzędnymi. Wówczas wzrost dochodów powoduje spadek popytu na nie. Zwykle prowadzi to do zmian w kierunku dodatniego popytu na bardziej luksusowe substytuty. Jeżeli elastyczność dochodowa popytu dla danego dobra jest mniejsza niż 1, to jest ono dobrem niezbędnym. Dodatnia elastyczność dochodowa popytu jest związana z normalnymi towarami, gdzie wzrost dochodów prowadzi do wzrostu popytu na nie. Jeżeli elastyczność popytu jest większa niż 1, mamy do czynienia z dobrami luksusowymi lub dobrami wyższego rzędu. W końcu zerowa elastyczność dochodowa popytu zdarza się wówczas, gdy wzrost dochodów nie ma związku ze zmianą popytu na dane dobro. Dotyczy ona przede wszystkim dóbr podstawowych (sztywny popyt). Przykładowe wartości dochodowej elastyczności popytu na różne dobra wynoszą54: samochody 2,98; Samuelson A.A., Nordhaus W.D., „Ekonomia” tom 2, PWN, Warszawa, 2007. Wikipedia En, “Income elasticity of demand”, https://en.wikipedia.org/wiki/Income_elasticity_of_demand 53 54 34 książki 1,44; wyjście do restauracji 1,40; tytoń i papierosy 0,64; transport publiczny -0,36. Dla menedżera znajomość dochodowej elastyczności popytu jest wskaźnikiem niezbędnym do prognozowania zmian w strukturze popytu konsumpcyjnego, związanego ze wzrostem gospodarczym, zmianami dochodu do dyspozycji, stratyfikacją społeczną w regionie, itp. Natomiast badanie zmian struktury popytu przy zmianach dochodów jest przydatne do obliczeń wskaźnika kosztów utrzymania w różnych grupach społecznych i zawodowych ludności oraz planowania polityki marketingowej (str. 264). Badania związane z reakcjami popytu na zmiany dochodów oraz budżetów domowych pozwoliły określić kolejność oraz rozmiary wydatków przeznaczanych przez konsumentów na zakup określonych dóbr i usług. Te dane skonfrontowano z hierarchią potrzeb A. Masłowa (rys. 1.5) otrzymując zgodność w ciągu: najpierw są zaspokajane potrzeby podstawowe (żywnościowe i bytowe), które pochłaniają większą cześć dochodu do dyspozycji u konsumentów posiadających niskie dochody, a dopiero potem pozostała część dochodu może być przeznaczona na zaspokajanie potrzeb wyższego rzędu. Prawo Engela Jest przykładem empirycznej zależności ekonomicznej, powiązanej z dochodową elastycznością popytu, z której wynika, że w miarę wzrostu dochodów gospodarstwa domowego, jego wydatki na żywność rosną w sposób bezwzględny, ale ich względny udział w wydatkach ogółem zmniejsza się55. Relacje między prawem Engela, postępem technologicznym oraz procesami zmian strukturalnych w spożyciu społeczeństw ma zasadnicze znaczenie dla wyjaśnienia długoterminowego wzrostu gospodarczego56. 1.3 Rynek Rynek stanowi układ mechanizmów umożliwiających kontakt gestorów wartości i jej konsumentów. Jest to również zbiór transakcji wymiany wartości (w tym kupna-sprzedaży) oraz układ warunków w jakich one przebiegają. Rynek kreuje określony układ interesariuszy (dysponentów, nabywców, obserwatorów, itp.), zainteresowanych dokonywaniem operacji wymiany wartości z innymi interesariuszami. Każdy rynek ma określoną strukturę i charakterystykę przez strukturę interesariuszy oraz systemy wymiany wartości i jej oszacowań. Na każdym rynku ustala się równowaga dynamiczna ilościowo-wartościowa E. Engel, “Die Productions- und Consumptionsverhaeltnisse des Koenigsreichs Sachsen”, Zeitschrift des Statistischen Bureaus des Königlich Sächsischen Ministeriums des Innern”, Dresden, 1857. 56 Pasinetti, L., “Structural Change and Economic Growth: a Theoretical essay on the dynamics of the wealth of nations”. Cambridge University Press, Cambridge, (1981). 55 35 dóbr, czego wynikiem jest parametr równowagi – cena transakcji, stanowiąca reprezentację wartości dobra. Wynika ona z gry dwuosobowej pomiędzy oferentem wartości, a zainteresowanym jej przejęciem (np. nabywcą) w zadanych warunkach. To powoduje sytuację konfliktową, w której oferent przyjmuje strategię osiągnięcia najwyższej ceny, a przejmujący stara się uzyskać jak najniższą cenę. W rezultacie negocjacji gra się kończy wymianą wartości, a wypłatą jest równowagowa cena transakcji. Tym samym zbiór gier toczących się równocześnie na rynku definiuje pewien stan płytkiej i chwilowej równowagi dynamicznej mikromakro, gdzie ceny stają się parametrem charakterystycznym. Rys. 1.8 Ilustracja równowagi rynkowej, z ceną ja ko parametrem regulacji. Teoretycznie rynek powinien prowadzić do utworzenia trwałej równowagi ekonomicznej w sposób adaptatywny, działając na zasadzie „niewidzialnej ręki” [metafora należąca do A.Smitha]. Niestety już A. Smith zauważył, że żaden rynek sam się nie wyreguluje podając ku temu szereg przykładów „Pozwólmy bankom pożyczać pieniądze na o wiele więcej niż 5%, a zaczną pożyczać ludziom rozrzutnym i nieroztropnym, co doprowadzi do powstawania baniek spekulacyjnych i załamań finansowych. Pozwólmy, by „ludzie z jednej branży” zaczęli się konsultować, a „wymyślą, jak podnieść ceny”. Pozwólmy, by siły rynku nadal sterowały podziałem pracy, a ukształtują pracowników, którzy będą „tak głupi i niewyedukowani, jak tylko może być człowiek57”. Schlefer J., “Niewidzialna ręka rynku nie istnieje”, HBR Polska, 2016, http://www.hbrp.pl/news.php?id=763 57 36 Pomimo zdefiniowaniu ekonomicznego modelu równowagi ogólnej ADM G.Debreu i McKenzie, gdzie cena stanowi wystarczający parametr regulujący, nikt nigdy nie udowodnił, że do równowagi rynkowej prowadzi jakakolwiek siła wyższa. Ta równowaga dynamiczna jest zwykle przypadkiem chwilowym, kiedy dochodzi do zrównoważenia podaży i popytu. Ale zwykle bardzo szybko działania marketingowe, protekcjonizm państwowy oraz asymetria w dostępie do informacji powodują wychwiania z położenia chwilowej równowagi i przejście rynku do stanów metastabilnych, o ile nie całkowicie nieprzewidywalnych. Jeżeli takie celowe wychwiania są znaczące, tak jak to miało miejsce w roku 2008, dochodzi do sytuacji katastroficznych i załamań rynku. Te procesy stają się cykliczne, coraz bardziej globalne i coraz mniej przewidywalne. W dodatku nawet mały impuls psychologiczny może wywołać poważne komplikacje na skalę międzynarodową. Rynki można charakteryzować za pomocą pewnej liczby parametrów i badać ich atrakcyjność, co stanowi fundament dla działań przedsiębiorczych, tak jak to zaprezentowano w tabeli 2. Są to: ilość firm działających na danym rynku, swoboda wejścia na dany rynek, charakterystyka produktów, wpływ producenta dóbr na ich cenę, dostęp do informacji. Tabela 2 Charakterystyka rynków Skutkiem toczącej się gry rynkowej jest równowaga podaży i popytu, która może być mniej lub bardziej dynamiczna w zależności od charakterystyki rynku. Oczywistym jest, że żaden rynek nie jest nieskończenie pojemny. Z faktu, że istnieje na nim x firm nie oznacza, że zmieści się na nim bez większych perturbacji kolejna. Stąd dla potencjalnego przedsiębiorcy, najbardziej istotną charakterystyką jest atrakcyjność danego rynku lub sektora oraz perspektywa jego wzrostu. 37 Najbardziej istotną metodą takich ocen jest układ metod: analiza GE-McKinsey58 (rozdział 6.4) połączona z rzetelną analizą pięciu sił M. Portera59(rozdział 1.3.1) popartą wiarygodnym scenariuszem PESTLE (rozdział 6.3). Stanowi to istotny element zarządzania. 1.3.1 Konkurencja Konkurencja stanowi ogół procesów wymiany wartości w otoczeniu (na rynku), w których gestorzy wartości współzawodniczą ze sobą w zawieraniu transakcji jej wymiany. Czynią to poprzez przedstawianie korzystniejszej oferty w szerokim tego słowa znaczeniu. Nie tylko cena decyduje o decyzji przejęcia określonej wartości przez konsumenta, ale również wartość dodana do produktu bazowego, zmieniająca jego podstawowy charakter na pożądany60. Ponadto należy uwzględnić znaczący udział psychologizmu w podejmowaniu decyzji o zakupie oraz wpływ informacji zewnętrznej na konsumenta, bombardowanego wszechobecną reklamą i naciskami na bezmyślną konsumpcję. Konkurencja na rynku umożliwia ustalenia cen równowagi wymiany wartości (niekoniecznie godziwych) oraz ilości dóbr na rynku dzięki pojawiającym się ciągle konfliktom interesów podaży i popytu. Konkurencja stała się istotnym mechanizmem napędowym dla unikalnych aktywności ludzkich: innowacyjności i przedsiębiorczości. Modyfikacja i redefiniowanie produktów przez poszerzenie ich użyteczności lub funkcjonalności stanowi istotny element konkurowania, a jednocześnie jest przykładem innowacji produktowej. Z kolei wykorzystanie pomysłu przez wdrożenie go do praktyki gospodarczej jest przykładem działań przedsiębiorczych, wywołanych koniecznością konkurowania. Widać stąd wzajemne sprzężenie trzech zjawisk obserwowanych na rynku: przedsiębiorczości, konkurencyjności i innowacyjności. Jeżeli polityka i interesy grup nacisku nie przeszkadzałyby w swobodnym rozwoju tych zjawisk, wówczas moglibyśmy obserwować gigantyczny wzrost zamożności społeczeństw i bardziej równomierny podział wartości między narodami. Niestety swobodna konkurencja jest drastycznie ograniczana przez ponadnarodowe korporacje oraz kartele, a przedsiębiorczość jest zwalczana przez lobbystów politycznych tychże korporacji wymuszając na stanowiących prawo lokalne różne, korzystne regulacje (specjalne strefy ekonomiczne, zwolnienia z podatków, wyłączność operowania na danym rynku). Przykładem są korporacje farmaceutyczne i ich blokady patentowe na leki, ochrona rynków, nachalny, ko- Gospodarek T., „Zarządzanie…”, str. 244-247 Porter M.E., “Przewaga konkurencyjna”, Helion Gliwice, 2006 60 Andonov S., “Levels of Product Differentiation in the Global Mobile Phones Market”, http://www.economicswebinstitute.org/essays/levelsdifferentiation.pdf 58 59 38 rupcjogenny marketing, oraz skrajnie nieetyczne działania lobbystyczne i ekonomiczne prowadzone na całym świecie61. Poszczególne państwa próbują się przeciwstawiać praktykom monopolistycznym oraz korporacjonizmowi, ale nie są to działania nazbyt skuteczne, a bardziej pozorowane. Uwiadamiane publiczne „zwycięstwa” są albo są pyrrusowymi, albo pozornymi i nawet ogromne kary rzędu mld US $ nie stanowią istotnego uszczerbku dla globalnych korporacji, prędzej czy później przeniesionego na konsumenta. Korporacje wykształciły skuteczne mechanizmy autoadaptacji do zmienności otoczenia i jak widać po asymetrii rozkładu wartości rynkowej, to właśnie ponadnarodowe korporacje są więcej warte niż dochód niejednego państwa62. Rys. 1.9 Koncepcja oceny konkurencyjności rynku metodą 5 s ił M.Portera Konkurencję na rynku charakteryzuje się za pomocą modelu 5 sił M. Portera . Metoda ta uwzględnia pięć istotnych czynników wpływających na funkcjonowanie danego rynku (rys. 1.9): 63 Rath M., “Die Geschichte des Pharma Geshäfts teil. 1-4”. https://www.youtube.com/watch?v=VFDP0gku-JA&list=PL68gVFkfht18iJtDX_vY_USOi66O6nBw3 62 The 100 largest companies in the world by market value in 2015, http://www.statista.com/statistics/263264/top-companies-in-the-world-by-market-value/ 63 Porter M.E., “Przewaga…”, op. cit. 61 39 siła przetargowa dostawców, siła przetargowa nabywców, zagrożenie ze strony nowych wejść na rynek, zagrożenie ze strony dóbr substytucyjnych, konkurencja bieżąca (ilości firm aktualnie konkurujących i pojemności rynku). Każdy z powyższych aspektów charakterystyki rynku może być zmierzony za pomocą odpowiednich narzędzi analitycznych64. Model analizy konkurencji rynkowej M. Portera jest wprawdzie uniwersalnym narzędziem dla zarządzania strategicznego, ale główną przesłanką jego funkcjonalności jest konkurencja doskonała. Konkurencja doskonała stanowi pewien model ekonomiczny, który pozwala dla homogenicznych dóbr wyznaczyć stan równowagi, opisany za pomocą ceny jako jedynego parametru. Dotyczy to rynków na których: wpływ na ceny nie zależy od oferenta, swoboda wejścia na rynek jest nieograniczona, dostęp do informacji zbliżony jest do pełnego, a ilość firm konkurujących jest duża. W pełnej analizie rynku należy wyróżnić następujące czynniki: Wielkość rynku teraz i w przyszłości (Dane rządowe, Dane finansowe głównych graczy, dane statystyczne na temat sprzedaży). Trendy rynkowe (Analiza upodobań klientów, analiza konkurencji, analiza ryzyka, analiza produktów np. BCG, poziom innowacyjności sektora, poziom kastomizacji i uczestnictwa konsumenta w konstruowaniu oferty). Szybkość wzrostu rynku (Modelowanie popytu, analiza GE-McKinsey, analiza ryzyka, analiza zmienności sprzedaży w czasie, itp.). Zyskowność przeciętna na danym rynku. (Analizy przychodów ze sprzedaży w sektorze, analizy kosztów oferty rynkowej w cenach produkcji). Struktura kosztów w danej branży rynku (Analizy kosztów wytwarzania dóbr, kosztów logistyki zewnętrznej, kosztów sprzedaży, kosztów pośrednich sprzedaży i marketingu). Dostępne kanały dystrybucji (Analiza kanałów tradycyjnych, nowoczesnych, elogistyka, e-sprzedaż, technologie channel connect i social media). Globalne czynniki sukcesu (Metoda Key Performance Indicators dla sprzedaży, Metoda 5 sił Portera, Globalny łańcuch dostaw, poziom wirtualizacji sprzedaży). Powyższe analizy powinny stanowić podstawę akceptacji ryzyka podejmowania działalności gospodarczej lub decyzji o wejściu z produktami lub usługami na dany rynek. Niestety niewielu menedżerów stosuje te narzędzia, albowiem reguły H. Simona związane z ograniczoną racjonalnością dominują nad racjonalnością oraz rzetelnym pomiarem. 64 Aaker D.A., “Strategic Market Management”, 10th Ed; Wiley, New York, 2013 40 Raport konkurencyjności Czym innym jest konkurencyjność w skali mikro, a czym innym w skali makro. Badanie konkurencyjności przedsiębiorstw jest wykonywane lokalnie dla każdego rynku. W skali makro porównuje się konkurencyjność całych gospodarek. Najważniejszym analitykiem jest Światowe Forum Ekonomiczne (WEF), które prowadzi ciągłe badania porównawcze warunków rozwoju gospodarczego w różnych krajach (skala makro). Wynikiem jest Globalny raport konkurencyjności, dotyczący zdolności do zapewnienia długookresowego wzrostu gospodarczego przez różne państwa (Global Competitiveness Report)65. Raport ten jest złożoną oceną wielokryterialną, prowadzącą do uzyskania kilku syntetycznych wskaźników odniesienia, możliwych do porównywania zarówno pomiędzy państwami w danym roku, jak i zmienności konkurencyjności w szeregu czasowym. Od roku 2004 w raporcie pojawił się również ranking państw najbardziej konkurencyjnych (Global Competitiveness Index)66 (rozdziale 5.4). 1.3.2 Koniunktura i cykl Kondratiewa Koniunktura wiąże się z gospodarką, a bardziej ogólnie z rynkiem, jego chłonnością i pojemnością. Jest to splot różnorodnych czynników powodujących, że w danej gospodarce (lub na rynku) w danej chwili czasu dominuje popyt i pozytywne nastroje dla inwestowania, giełdy oraz pracy. Odwrotnym pojęciem jest dekoniunktura. Koniunktura wiąże się z istnieniem cyklów koniunkturalnych (zwanych falami Kondatiewa)67. Idealny cykl koniunkturalny obrazuje sinusoida. Długość tego cyklu zmienia się wraz ze zmiennością otoczenia. Cykl koniunkturalny obejmuje na ogół cztery fazy: ożywienie, boom, spowolnienie, recesja i trwa obecnie około 8-10 lat68. Jest to metaforyczne ujęcie w stosunku do czterech pór roku. Istnienie długoterminowych cykli koniunkturalnych nie jest potwierdzone w sposób ściśle naukowy - mierzalny, ale istnieje w historii ekonomii szereg przypadków cyklicznego rozwoju i zapaści gospodarczej na skalę światową. Ewidentnie można wskazać pięć takich okresów. Są to lata: 1770-1849 (z punktem zwrotnym 1815) rewolucji przemysłowej i kolei; 1850-1896 (z punktem zwrotnym 1873) okres stali i inżynierii; 1880-1920 (z punktem zwrotnym 1908) okres ropy elektryczności i masowej produkcji samochodów; 1940-1985 (punkt World Economic Forum, Globalny Indeks Konkurencyjności, Raport 2014-2015, http://reports.weforum.org/global-competitiveness-report-2014-2015/ dostęp 21.04.2016 66 World Economic Forum, Globalny Indeks Konkurencyjności, Ranking 2014-2015, http://reports.weforum.org/global-competitiveness-report-2014-2015/rankings/ dostęp 21.04.2016 67 Korotayev, Andrey V.; Tsirel, Sergey V. (2010). "A Spectral Analysis of World GDP Dynamics: Kondratiev Waves, Kuznets Swings, Juglar and Kitchin Cycles in Global Economic Development, and the 2008–2009 Economic Crisis". Structure and Dynamics 4 (1): 3–57. http://escholarship.org/uc/item/9jv108xp#page-1 68 „Cykl koniunkturalny jest podstawą”, Forbes, 5, (2011), http://www.forbes.pl/forbes-millennium-prestige/artykuly/millenium-prestige/cykl-koniunkturalny-jest-podstawa,14457,1 65 41 zwrotny około 1971) okres rewolucji naukowo-technicznej; 1985-2015 okres rewolucji ICT (punkt zwrotny 2008). Model idealnego cyklu koniunkturalnego przedstawiono na Rys. 1.10. Rys. 1.10 Idealny cykl koniunkturalny Występowanie cykli koniunkturalnych można wytłumaczyć za pomocą czterech zmiennych: 1. Technologie i innowacje – stanowią koło zamachowe rozwoju i wystąpienie fazy wzrostu gospodarczego (wzrost oparty na innowacyjności). Wszystkie rewolucje techniczne, przemysłowe, informacyjne spowodowały gigantyczny boom gospodarczy. 2. Demografia i potrzeby – rozwój społeczny i cykl życia określa preferencje zakupowe społeczeństwa (zakupy edukacyjne w początkowej fazie życia, zakupy związane z założeniem rodziny, zakupy inwestycyjne, okres maksymalnych zarobków i konsumpcji,…) powodują zmiany w cyklach koniunkturalnych wraz ze starzeniem się lub odmładzaniem społeczeństwa. 3. Spekulacja zasobami – powoduje boom gospodarczy i powstawanie baniek spekulacyjnych (wzrost zainteresowania kredytami, wzrost inflacji, wzrost wartości gruntów i nieruchomości). To zmienia strukturę spożycia i koniunkturę na rynkach. Pęknięcie bańki spekulacyjnej może być początkiem kryzysu, tak jak miało to miejsce w roku 2008 po niemal 10 letniej koniunkturze na rynku nieruchomości i kredytów subprime. 4. Dług deflacyjny – wynika z poziomu zadłużenia państwa i koniecznego ograniczenia konsumpcji. Może to prowadzić do stanu stagflacji, będącej wynikiem zarówno wzrostu cen, jak ograniczenia produkcji. Może się pojawić po 42 pęknięciu baniek giełdowych albo wskutek błędów polityki finansowej i fiskalnej państwa, skutkującej zmniejszeniem się wartości pieniądza. Z faktu istnienia cykli koniunkturalnych wynika dla menedżera stara zasada inwestowania: „Kupuj gdy tanio, sprzedawaj, gdy drogo”, ale przede wszystkim obserwuj zmiany w otoczeniu i naucz się rozpoznawać, w której fazie cyklu znajduje się gospodarka. Wówczas można ocenić jakie kluczowe filary rozwoju mogą się objawić i jak należy zmienić strategie działania organizacji. A dodatkowo przypomina się fakt, że dobrobyt nie bierze się z dotacji. W różnych fazach cyklu, różne inwestycje oraz struktury portfelowe dóbr są mniej lub bardziej zasadne. Z obserwacji zachowań rynkowych można zaproponować „kalendarz ekonomiczny” Rys. 1.11. Rys. 1.11 Kalendarz ekonomiczny [źródło: Bank Millenium za Forbes 69] Na kalendarzu ekonomicznym możemy poczynić szereg ciekawych obserwacji, szczególnie istotnych dla przedsiębiorcy, menedżera oraz inwestora. Okazuje się, że złoto nie jest panaceum na zmiany koniunktury, ale może być dobre 69 http://www.forbes.pl/cykl-koniunkturalny-jest-podstawa,artykuly,14457,1,1,2.html 43 na przetrwanie w okresie recesji. Inwestowanie w nieruchomości pod koniec recesji może być ciekawym pomysłem na biznes, bo zbliża się ożywienie (ale jeżeli recesja potrwa dłużej, to potencjalne zyski trzeba odłożyć na czas przyszły). Gdy stopy procentowe spadają, to lepiej rozpocząć zabezpieczanie interesu i ograniczać inwestycje (zwłaszcza w aktywa trwałe). A gdy rząd otwiera „zielone światło dla biznesu” albo ogłasza kolejną reformę za cudze pieniądze, to lepiej potraktować to jako początek głębszej recesji, niż ożywienie. Mamy wieloletnie doświadczenia w tej kwestii. 1.3.3 Informacja i wiedza Wiedza i informacje stanowią dzisiaj o skuteczności zarządzania i wyniku finalnym prowadzonej działalności gospodarczej. Jest nie tylko fundamentalnym składnikiem wiedzy, ale również redefiniuje produkt. Wiedza może być narzędziem walki ekonomicznej i bronią na konkurencyjnym rynku. Może być również narzędziem walki politycznej w rękach systemów władzy poprzez generowanie informacji użytecznych jednostronnie. W tym celu władza podporządkowuje sobie media, a posłuszni redaktorzy przejmują rolę kapłanów ze starożytnego Egiptu w tumanieniu społeczeństw. Taka asymetria w dystrybucji informacji społeczno-politycznej i świadoma manipulacja danymi statystycznymi pozwala osiągać cele utrzymania władzy i wygrywania wyborów. Ma również głęboki sens w przejmowaniu dochodu narodowego przez grupy nacisku i utrwalania błędnej wiedzy w społeczeństwie. Dla biznesu jest to bardzo zła okoliczność, ponieważ generuje brak zaufania do systemu władzy i ustawia automatycznie państwo jako wroga społecznego, co ma np. miejsce w Polsce od niepamiętnych czasów. Ale w końcu państwo tworzące system władzy stanowi aparat ucisku70 i nie musi być kochane przez nikogo, szczególnie jeżeli jest wykrzywioną demokracją o lewackiej proweniencji. Tym niemniej, ten kto podejmuje ryzyko działalności gospodarczej oczekuje przynajmniej normalności ze strony otoczenia i rzetelnej wiedzy o gospodarce i warunkach prowadzenia działalności biznesowej. Stąd informacja i wiedza stanowi oddzielną grupę zagadnień w zarządzaniu i poddziedzinę jego teorii. Wiedza traktowana jest przez menedżera jako narzędzie specyficzne. Można postawić osiem hipotez, stanowiących uogólnienie obserwacji wynikających z praktyki menedżerskiej. Menedżer oczekuje wsparcia podejmowanych decyzji przez dostępną wiedzę pewną i informacje pewne lub wysoce uprawdopodobnione. Karol Marks: „Państwo to narzędzie klasy panującej”; Włodzimierz Lenin: „Państwo jest machiną do utrzymywania panowania jednej klasy nad drugą”. Benito Mussolini – Nic bez państwa. Wszystko dla pańtwa i nic przeciwko państwu. 70 44 Istnieją w obszarze zarządzaniu zagadnienia wymagające analiz ilościowych lub pomiaru (wiedzy pewnej) oraz kompetencji i wiedzy w zakresie interpretacji danych. Zarówno w ekonomii, jak i teorii zarządzania istnieją metody ilościowe, gwarantujące uzyskanie wiedzy wysoce prawdopodobnej o faktach. Istnieją metody jakościowe, umożliwiające rozumienie modeli kognitywnych oraz interpretację danych ilościowych z obszaru zarządzania. Jednym z podstawowym zagadnień ekonomii i zarządzania jest optymalizacja, co wymaga zaangażowania wiedzy, doświadczenia oraz pomiarów. Wiedza stanowi zasób kluczowy i reprezentuje zbiór kompetencji kluczowych organizacji biznesowej. Wiedza może stanowić dobro w sensie ekonomicznym (może być towarem stanowiącym wartość). Zarządzanie wykorzystuje dane i informacje o przeszłości i teraźniejszości w celu uzyskania prognoz dotyczących przyszłości. Powyższa lista z pewnością nie jest kompletna, ale z punktu widzenia zarządzania wymienione hipotezy pozycjonują wiedzę wśród zagadnień centralnych teorii zarządzania. Nie jest zatem zaskoczeniem, że wykorzystując wiedzę, opracowano zintegrowane systemy zarządzania organizacjami, prowadzące do wyjątkowych optymalizacji wyników. Są to przede wszystkim japońskie metody „chudego zarządzania”, w tym zasady Kaizen71,72, KanBan73, JIT zwieńczone modelem produkcyjnym Toyoty74 (rozdział 3.3.3). Wiedza ukryta Koncepcja wiedzy ukrytej (tacit knowledge) pochodzi od M. Polanyiego75 i przyjęła się w praktyce zarządzania jako dobre wyjaśnienie pewnych działań odkrywania prawd lub nabywania umiejętności, które były niedostępne do pewnego momentu. Wiedza ukryta pozostaje jedynie stanem uświadomienia faktu jej istnienia gdziekolwiek. Nie można udowodnić, ani jej bytu, ani niebytu, bo jest niedostępna. Wiemy natomiast, że nas otacza, ponieważ co pewien czas dokonywane są odkrycia i zgłaszane są wynalazki. Znamy również posiadaczy wiedzy, która jest dla przeciętnego obserwatora niedostępna, niezrozumiała lub niemożliwa do przekazania. Ale specjalista wie, umie i potrafi przekazań. Jeżeli Imai M., „Kaizen. Klucz do konkurencyjnego sukcesu Japonii”, MT Biznes, Warszawa, 2007 Imai M., “Gemba Kaizen. Zdroworozsądkowe podejście do strategii ciągłego rozwoju”, MT Biznes, Warszawa, 2012 73 Anderson D.J., “Kanban: Successful Evolutionary Change for Your Technology Business”, Blue Hole Press, Sequim, 2010 74 Japan Management Association, D.J. Lu (ed.), “Kanban Just-in Time at Toyota: Management Begins at the Workplace”, Productivity Press; Rev Sub edition (1989) 75 Polanyi M., “The Tacit Dimension”, University of Chicago Press: Chicago, 1966. 71 72 45 przedstawimy teorię Hawkinga nawet bardzo wykształconej osobie, ale niezwiązanej w żaden sposób z fizyką, mamy gwarancję, że nie zrozumie ona zbyt wiele. Dla niej taka wiedza pozostaje w pewnym stopniu ukrytą, ale możliwą do odkrycia. Spróbujmy pojechać na rowerze czytając jedynie instrukcję obsługi – bez praktycznego treningu (rodzaj wiedzy ukrytej). Wiedza ukryta bywa przedstawiana jako "know-how", w przeciwieństwie do "know-what" (fakty), "know-why" (nauka), lub "know-who" (networking)76. Należy mieć świadomość istnienia ogromnych obszarów wiedzy niedostępnej tu i teraz. Ale też należy mieć świadomość możliwości konwersji określonej wiedzy ze stanu ukrycia do stanu ujawnionego. Jest to jeden z fundamentalnych celów zarządzania, wnoszący często katastroficzne korekty wszelkich prognoz, funkcji celu oraz strategii organizacji. Jeżeli dokonamy wynalazku i wdrożymy go, nasza pozycja rynkowa może ulec znaczącej zmianie. Stąd właśnie wynika unikatowa rola wiedzy ukrytej w zarządzaniu – pozyskać wiedzę dotychczas niedostępną i zrobić z niej użytek. To prowadzi w rezultacie do koncepcji organizacji opartej na wiedzy. Wart odnotowania jest model konwersji wiedzy ukrytej do jawnej SECI należący do I. Nonaki i H. Takeuschiego, który stanowi podstawę budowania organizacji opartych na wiedzy i metody przekazywania wiedzy w grupie77,78. W modelu SECI zdefiniowano z cztery wymiary przekazu wiedzy: Ukryta – ukryta (socjalizacja wiedzy niejawnej). Dotyczy wiedzy przekazywanej bezpośrednio (twarzą w twarz) albo nabywanej przez doświadczenie. Ten rodzaj przekazu dotyczy relacji mistrz-uczeń i pogłębienia pozyskanej wiedzy przez dalszą praktykę. Wiedza pozyskana pozostaje nadal niejawną publicznie i stanowi o przewadze konkurencyjnej danej organizacji. Stanowi równocześnie jej kluczowe kompetencje. Ukryta – jawna (uzewnętrznienie lub ujawnienie wiedzy). Ujawnienie publiczne patentu przez publikację albo ujawnienie tajemnicy firmowej wskutek działań zamierzonych. Ten rodzaj interakcji pozwala na krystalizację wiedzy i prowadzi do dalszego rozwoju oryginalnych koncepcji oraz powstawania nowej wiedzy w otoczeniu (np. systemy oprogramowania open source). Tak się dzieje w przypadku ujawnienia nowych produktów (np. smartfon będący pomysłem S. Jobsa i firmy Apple stał się dostępny po jego ujawnieniu i aktualnie mamy szereg firm produkujących podobne urządzenia, a przy tym rozwijających wiedzę i technologie ICT). Wikipedia, “Tacit knowledge”, http://en.wikipedia.org/wiki/Tacit_knowledge Nonaka I., "The Knowledge-Creating Company", Harvard Business Review 69 (6 Nov-Dec), (1991), 96–104 78 Nonaka I., Takeuchi H., “The Knowledge-Creating Company: How Japanese Companies Create the Dynamics of Innovation”, Oxford University Press, New York, 1995. 76 77 46 Jawna – jawna (kombinacja elementów). Ten rodzaj interakcji pozwala na asemblację i integrację posiadanej wiedzy oraz jej publiczne przetwarzanie i wymianę. Przykładem są sieci ICT wiedzy, działania business intelligence oraz hurtownie danych. Dzięki różnym syntezom i taksonomiom dostępnej wiedzy możliwe jest wnioskowanie indukcyjne, dedukcyjne i abdukcyjne79, co powiększa rozumienie i rozbudowę zasobów wiedzy. Wiedza jawna podlega procesom dyfuzji i migracji w otoczeniu biznesowym. Może stanowić źródło działalności biznesowej. Wiedza jawna jest wartością i elementem zasobów w łańcuchach dostaw. Rys. 1.12 Model SECI wymiarów wiedzy w organizacji Jawna – ukryta (internalizacja – przejęcie wiedzy jawnej na własny użytek). Jest to typowe działanie w budowaniu kluczowych zasobów, kiedy to powszechnie dostępna wiedza zostaje wykorzystana w sposób unikatowy, a sposób ten zostaje utajniony (czasem chroniony patentem). Może to dotyczyć pojedynczej osoby, która nabyła unikatowych uprawnień (np. zdobyła certyfikację zawodową) i staje się dla organizacji pracownikiem wiedzy i jej zasobem. Internalizacja jest również procesem ciągłej adaptacji i samorefleksji organizacji nad jej łańcuchem wartości w kontekście informacji płynących z otoczenia. Jest to jeden z najważniejszych elementów w zarządzaniu wiedzą. 79 Gospodarek T., „Aspekty…”, str. 217-224 47 Przedstawiony model SECI jest fundamentem zrozumienia wykorzystania wiedzy w procesach biznesowych i koncepcji zarządzania wiedzą. Dla każdego menedżera budowanie unikatowych zasobów wiedzy i kluczowych kompetencji jest imperatywem kategorycznym, o ile zarządzana organizacja ma generować wartość w dłuższej perspektywie czasowej. 48 Od danych do mądrości „Zbiór danych nie jest informacją, zbiór informacji nie jest wiedzą, zbiór wiedzy nie stanowi mądrości, a zbiór mądrości nie zawsze stanowi prawdę”. Ten cytat pochodzi od G. Bellingera i najlepiej charakteryzuje problem ontologiczny, czy informacja i wiedza to jedno. Nie wchodząc w rozważania filozoficzne na temat platońskiej koncepcji wiedzy, problemu Gettiera, itp.80, warto rozważyć model budowania wiedzy przedstawiony na Rys. 1.1381. H. Poincare celnie spuentował tą kwestię „Wiedzę buduje się z faktów, jak dom z kamienia; ale zbiór faktów nie jest wiedzą, podobnie jak stos kamieni nie jest domem”. Wiedza zawsze wynika z przetworzenia informacji, ale nie odwrotnie. Informacja może być wartościowym komunikatem dla odbiorcy. W konsekwencji może on ją wykorzystać, przetworzyć, zachować, uzupełnić, poddać heurystyce, itp. Ale dopiero gdy informacja zostanie zaabsorbowana i zapamiętana, może lecz nie musi zasilić zasób wiedzy. Wiedza stanowi wartościowy zasób organizacji i reprezentuje jej kluczowe kompetencje82. Rys. 1.13 Od informacji do mądrości (koncepcja funkcjonowania wiedzy). W modelu przedstawionym na Rys. 1.13 rozumienie i kontekst stanowią dwie cechy wyznaczające sposób praktycznego wykorzystania wiedzy oraz jej relacje. Im wyższy poziom wiedzy, tym większe jest doświadczenie i możliwość wykonania bardziej złożonych produktów oraz czynności z tym związanych. Wiedza generuje innowacyjność i możliwości modyfikowania portfela produktów oraz optymalizację łańcuchów wartości. Gospodarek T., “Aspekty…”, op. cit. str. 94. Davenport T., Prusak L., “Working Knowledge”, Harvard Business School Press, Boston (1998). 82 Gospodarek T., „Elastyczność zasobu informacyjnego”, [w], R. Krupski [red.], „Elastyczność organizacji”, Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu: Wrocław, 2008, str. 127-148. 80 81 49 Relacja pomiędzy posiadaniem i rozumieniem wiedzy, a stopniem komplikacji wykonywanych zadań została przedstawiona na Rys. 1.13. To jest przesłanka dla menedżera, którego zadaniem jest tworzenie kultury organizacji tak, żeby przejmowane technologie mogły być dostosowane do poziomu ich zrozumienia (były transparentne). Wdrożenie systemu ERP w organizacji, gdzie nie dokonano wcześniej opisu procesów i nie zdefiniowano obiegów informacji, z pewnością zakończy się porażką. Podobnie, jak zainstalowanie robotów bez zrozumienia sposobu ich wykorzystania z pewnością nie przyniesie pożytku inwestorowi. Natomiast dopasowanie kultury wewnątrzorganizacyjnej do wykonywanych zadań jest procesem budowania wiedzy i nabywania doświadczenia. Ale dopiero po pewnym czasie można mówić o mądrości. Proces rozumienia wiąże się z odkrywaniem znacznej ilości wiedzy ukrytej ( model SECI), w czym pomaga doświadczenie i zasób istniejącej wiedzy. 1.3.4 Równowaga makroekonomiczna Socjalistom, po jakimś czasie, zawsze kończą się cudze pieniądze. To zdanie przypisywane M. Tatcher, najlepiej ilustruje, jak równowaga ekonomiczna może zostać całkowicie zniszczona przez nieodpowiedzialną politykę finansową w skali makro83. Jeżeli dodamy do tego destrukcyjne działania ponadnarodowych korporacji, banksterów z funduszy hedgingowych oraz różnych macherów od inżynierii finansowej, a dodatkowo uwzględnimy działania nieformalnych grup nacisku globalnego typu Bilderberg84 i wszelakich, korporacyjnych lobby, jawi się nam obraz zdemoralizowanego świata finansjery, mającej na celu wykorzystanie całych narodów i wysysanie z nich kapitału, czego najlepszym przykładem jest sytuacja Grecji, jak również błędy polskiej transformacji ustrojowej opisane przez W. Kieżuna85. Dodać do tego należy presję na menedżerów wynagradzanych za wyniki finansowe zarządzanych organizacji, ciągłe próby zawłaszczania rynku i bezwzględną eliminację konkurencji. To wszystko powoduje, że światowy poziom asymetrii rozkładu dóbr i kapitału przekroczył już dawno granice bezpieczeństwa. W rezultacie zaczynają się odśrodkowe ruchy próbujące burzyć istniejący porządek świata, gdzie niecałe 20% populacji przejęło 80% światowych dóbr, a najbiedniejsze 20% posiada jedynie 1% światowych zasobów86. Skutki tej asymetrii obserwujemy również w Europie, pomimo głoszenia haseł o zrównoważonym rozwoju, gdzie migranci ekonomiczni rozpoczęli nieodwracalną w skutkach kolonizację zamożniejszych członków lewackiej Unii Europejskiej. Durkin M., “Britain's Trillion Pound Horror Story”, https://www.youtube.com/watch?v=DVPq8DjZ9s4 (film napisy PL) 84 http://www.prisonplanet.pl/polityka/bilderberg_2015_oficjalna,p2045412493 85 Kieżun W., „Patologia transformacji”, Wyd. Poltext Warszawa, 2013. 86 Roser M., “Income Inequality”. (2015), http://ourworldindata.org/data/growth-and-distribution-of-prosperity/income-inequality/ 83 50 Rys. 1.14 Równowaga makroekonomiczna W tych szybkozmiennych warunkach społeczno ekonomicznych musi funkcjonować biznes mniejszego formatu, utrzymując chwilowe stany równowagi mikro-makro na rynkach lokalnych. Wydaje się, że wszelkie globalne koncepcje zrównoważonego rozwoju i stabilności wzrostu można powoli zacząć uznawać za fikcję. Szybkozmienność otoczenia i coraz trudniejsza jego przewidywalność preferuje zachowania adaptatywne o bardzo krótkim okresie planowania i szybkich reakcjach na nadarzające się okazje. Obserwuje się w związku z tym awersję do ryzyka na rynkach kapitałowych i ucieczkę w „bezpieczne”, ale głównie fiducjarne aktywa (rys. 1.11), o ile takie w ogóle można definiować jako bezpieczne. Skutkiem tego powstają bańki spekulacyjne, a prawdopodobieństwo wywołania ogólnego kryzysu jest coraz większe przy równoczesnym skróceniu czasu pomiędzy kolejnymi zdarzeniami katastroficznymi na rynkach oraz wiel- 51 kością impulsu, który może wywołać reakcję lawinową. Taka metastabilna sytuacja panuje aktualnie na rynku ropy i niektórych surowców (w tym miedzi). Cena na poziomie $50 za baryłkę powoduje perturbacje u producentów i zaburza światowy system finansowy. To są poważne zagadnienia równowagi globalnej, które każdy menedżer musi mieć na względzie planując rozwój biznesu. Dlatego stałe śledzenie czynników analizy PEST oraz globalnych wskaźników gospodarowania i prowadzenia biznesu dla swojego działania powinno być jednym z imperatywów dobrego zarządzania. Model równowagi makroekonomicznej przedstawiono na rys. 1.11. Pozostaje on w ścisłym związku z modelem globalnego łańcucha dostaw przedstawionego na rys. 2.5. W modelu powyższym nie uwzględniono wpływu korporacji ponadnarodowych oraz procesów globalizacji, które zaburzają równowagę makroekonomiczną i wprowadzają zmiany reguł gry mikro-makro. Skutkiem tego są ogromne dysproporcje w dystrybucji światowego bogactwa i stopnia oligarchizacji państw, co hamuje rozwój narodowej przedsiębiorczości oraz wielkość kapitału do dyspozycji w lokalnych systemach makroekonomicznych na poziomie państw. Fakty te ilustruje globalny raport Research Institute of Credit Suisse „Global Wealth Report 2015”87 oraz dane źródłowe88. Na rys. 1.15 przedstawiono zmiany zamożności gospodarstw domowych w latach 2014-2015. Widać wyraźnie, że zamożność w Polsce pogorszyła się znacząco o -17,4%. To są skutki rabunkowej działalności kolejnych rządów po 1989 roku i rozbuchana sfera spożycia (marnotrawstwa) zbiorowego. Spodziewane rezultaty z wdrożenia programu 500+ nie powinny poprawić znacząco tej sytuacji, bo po drugiej stronie pojawia się konieczności zwiększenia obciążeń fiskalnych obywateli w sposób pośredni i bezpośredni oraz dalsze zadłużanie się państwa dla ratowania budżetu i systemu. W roku 2016 obserwujemy dalsze zubożenie gospodarstw domowych w Polsce o 4,2% (zgodnie z metodyką obliczania stosowaną przez Credit Suisse”89. Doprowadzi to w kontekście zawirowań w otoczeniu do nieprzewidywalnej w skutkach nierównowagi makroekonomicznej w ciągu kilku kolejnych lat. Już bowiem w styczniu 2017 dług publiczny przekroczył 1 bln złotych i jesteśmy bliżej wizji T. Konwickiego z „Małej apokalipsy” tyle, że nie dotyczy już ona Rosji. Credit Suisse, “Global Wealth Report 2015”, https://publications.credit-suisse.com/tasks/render/file/?fileID=F2425415-DCA7-80B8-EAD989AF9341D47E 88 Davies. J., Lluberas R., Shorrock A; Credit Suisse, “Global Wealth Databook 2016”, http://publications.credit-suisse.com/index.cfm/publikationen-shop/research-institute/?relavtivepid=A93C00ED-03E23BF6-BAA5D0B03B203545 89 Davies. J., Lluberas R., Shorrock A; Research Institute, Credit Suisse, “Global Wealth Databook 2016”, Nov. 2016 str. 101. 87 52 Rys. 1.15 Zmiany zamożności gospodarstw domowych w latach 2015-2016 88 . Zmiany wynikające z globalizacji i zaburzeń w skali makro prowadzą do powstania piramidy zamożności, zaprezentowanej poniżej rys.1.16. Widać wyraźnie, które rządy zubożają nasze bytowanie i warto zastanawiać się nad przyczynami, biorąc pod uwagę podatki, skrzywienia modelowe państwa oraz źle stanowione, zbiurokratyzowane prawo. Globalne wskaźniki o tym mówią. Ważnym wskaźnikiem dla prawidłowego rozkładu zamożności społeczeństw jest klasa średnia, której zdefiniowanie nie jest proste, albowiem brane są pod uwagę: dochody, styl życia, rodzaj wykonywanej pracy, a ponadto pojawiają się trudności współmierności wyników ze względu na różnice ekono- 53 miczne porównywanych regionów90. Klasa średnia odpowiada za tworzenie nowych miejsc pracy, kreowanie wzorców zachowań, generowanie oszczędności, uczestnictwo w różnych przejawach życia społecznego, kształtowanie opinii i postaw etycznych, działalność artystyczną, legislację, itp. Rozsądne zarządzanie w skali makro powinno zatem prowadzić do tworzenia się klasy średniej w jak najwyższym procencie w interesie społecznym. Niestety w modelu rozwoju państwa polskiego daje się zauważyć anihilacja obecnej klasy średniej, którą można docisnąć podatkami i restrykcjami na wytworzenie w zamian tej, socjalnej, zależnej od łaskawości władzy i jej dotacji. Rys. 1.16 Piramida rozkładu światowego dobrobytu 88 Oszacowanie ilościowe, dokonane w roku 2015 przez Credit Suisse dla Polski wynosi około 19,3% populacji, przy średniej dla Europy 33%. Największą populacją klasy średniej cieszy się Australia, aż 66%. Warto odnotować fakt, że w Polsce zmiana zamożności dla tej klasy w okresie 2000 – 2015 to 243 mld USD przy wzroście z 2,3 do 6,2 mln osób w tym samym okresie. Oznacza to, że nasza klasa średnia wprawdzie wzrosła liczebnie, to jednak jej zamożność nie poprawiła się równie wysoko i oscyluje w okolicach 25 000 USD. Dla porównania, w USA przynależność do klasy średniej zaczyna się od poziomu 50 000 USD (Low Middle Class). Wyżnikiewicz B., Obserwator Finansowy, „Klasa średnia rośnie w Polsce w siłę”, 15.05.2015, https://www.obserwatorfinansowy.pl/tematyka/makroekonomia/klasa-srednia-rosnie-w-polsce-w-sile/ 90 54 1.4 Kapitał jako reprezentacja wartości Pisał K. Marks: [Kruszcowa forma naturalna złota pozostaje powszechną formą ekwiwalentną wszystkich towarów, bezpośrednim społecznym ucieleśnieniem wszelkiej pracy ludzkiej. Pęd do tworzenia skarbów z natury nie zna granic. Ze względu na swą jakość, czyli formę, pieniądz nie zna granic, tzn. jest ogólnym przedstawicielem materialnego bogactwa, ponieważ jest bezpośrednio wymienialny na każdy towar. Ale jednocześnie każda rzeczywista suma pieniędzy jest ilościowo ograniczona, ma więc tylko ograniczoną siłę nabywczą. Ta sprzeczność między granicą ilościową a brakiem jakościowych granic pieniądza popycha wciąż zbieracza skarbu do syzyfowej pracy gromadzenia. Dzieje się z nim tak jak ze zdobywcą świata, który za każdym nowym podbojem zdobywa tylko nową granicę.] Kapitał stanowi siłę sprawczą procesów ekonomicznych. Jest on zasobem pierwotnym dla tworzenia złożonych układów społeczno-ekonomicznych oraz budowania relacji (rys. 1.2). Wymiana kapitału i jego przepływy stanowią wynik oddziaływań ekonomicznych systemu generującego wartość z otoczeniem. Prowadzą do fluktuacji oraz możliwości koncentracji kapitału w określonych punktach. Jednocześnie obserwuje się znaczne luki kapitałowe w innych punktach. Te dysproporcje generują powstawanie barier, uniemożliwiających przebieg podstawowych procesów ekonomicznych oraz zjawiska asymetrii rozwoju. Największym problemem centralnym ekonomii i zarządzania w skali makro jest zagadnienie: czy rację miał J. Hayek (i austriacka koncepcja makroekonomiczna), czy M. Keynes (i jego interwencjonizm państwowy). Z pewnością niekorzystnym zjawiskiem obserwowanym powszechnie w Europie jest rugowanie kapitału prywatnego przez kapitał państwowy oraz koncepcje rozdawnictwa różnych socjalnych datków (zasiłki, dotacje, etc.) i tym samym okradania przez państwa całej sfery produkcyjnej narodów poprzez zbędne daniny. Państwo nie ma swoich pieniędzy. Musi je zabrać jednym w sferze produkcyjnej, osłabiając ją, żeby rozdać innym w sferze nieprodukcyjnej lub zmarnować na własne potrzeby nieefektywnego administrowania wiecznym deficytem. To prowadzi do poważnych zaburzeń i asymetrii rozkładu kapitału w gospodarce, powodując nadmiernego zadłużanie się budżetów państwowych i przerosty zasobowe (w tym biurokratyczne) w sferze nieprodukcyjnej91. Traci się na przejrzystości funkcjonalnej gospodarki oraz użyteczności redystrybucji kapitału. Zyskują na tym banksterskie organizacje i ponadnarodowe korporacje, umożliwiając procesy zadłużania się społeczeństw i w rezultacie przejmowania zasobów państw zadłużonych za przysłowiową czapkę śliwek. Przykładem 91 Durkin. M., “Bilionowy brytyjski horror – film https://www.youtube.com/watch?v=DVPq8DjZ9s4” 55 mogą być wszelkie, polskie „prywatyzacje” polegające głównie na transferze kapitału za granicę oraz upadek wielu gałęzi polskiego przemysłu, który stanowił konkurencję dla zagranicznych korporacji. Wyjątkowym instrumentem na rynku kapitałowym jest pieniądz fiducjarny, taki który ma pokrycie w wierze w jego wartość, a nie w dobrach wymiernych lub kruszcu szlachetnym. Wymyślili to już Chińczycy z dynastii Yuan92. Wypuszczając papiery uznawane za wartościowe można odnieść znaczące korzyści gospodarcze (zwłaszcza z punktu widzenia emitenta). Dzisiejsza ekonomia globalna opiera się na pieniądzu fiducjarnym, dzięki któremu możliwe jest sterowanie inflacją przez rządzących oraz kreowanie popytu (na kredyt). Prowadzi to w rezultacie do coraz poważniejszych kryzysów, powstawania baniek spekulacyjnych oraz wojen ekonomicznych dotyczących walut referencyjnych. Zarządzanie makro systemami monetarnymi nigdy nie jest korzystne dla obywateli danego państwa, a jedynie dla państwa i jego wydatków. Natomiast możliwość kreowania pustego pieniądza przez banki prywatne dodatkowo uderza w dobrobyt narodów (dług publiczny, zadłużenie społeczeństwa, przejmowanie rzeczywistego majątku przez korporacje finansowe). Warto w tym miejscu zobrazować problem siły nabywczej dolara amerykańskiego w okresie od 1913 (kiedy miał 100% pokrycia w złocie) oraz dzisiejszego, który jest 50 razy mniej wart (ponieważ ma jedynie pokrycie w nadziei, że będzie jeszcze coś wart za lat kilka). Tą degrengoladę spowodowały właśnie banki i polityka zbiorowej konsumpcji na kredyt. W niektórych, spektakularnych przypadkach pieniądz fiducjarny całkowicie utracił swoją wartość (np. dolar Zimbabwe, czy też marka Republiki Weimarskiej z 1923 roku). 1.4.1 O jednostce kapitału Wydawać by się mogło, że problem jednostki kapitału nie powinien budzić większych zastrzeżeń, bo powinien to być wymiar pieniądza w danym kraju albo wymiar jakiejś międzynarodowej waluty umownej. Można takie założenie przyjąć w odniesieniu do zapisów księgowych, co jest uregulowane de iure w większości krajów. Ale porównywanie dwóch kapitałów w dwóch różnych kontekstach biznesowych i krajach jest już kłopotliwe. Ba, nawet odniesienie czasowe, obliczone jako różnica wartości wyłącznie w cenach bieżących, nie jest prawdą. Po pierwsze pojawia się kwestia: czy kapitał $1000 w kraju o dochodzie PKB na mieszkańca na poziomie $500 oznacza to samo co w kraju gdzie ten poziom to $10000? Oczywistą odpowiedzią jest, że to nie jest to samo. A skoro tak, to konieczne jest zastosowanie innej miary, a nie wybranej waluty. Von Glahn, R., “Fountain of Fortune: Money and Monetary Policy in China, 1000–1700”, Berkeley University Press, Berkley, 1996. 92 56 Unia Europejska stosuje w swoich analizach porównawczych umowną jednostkę PPS (Purchasing Power Standard)93 definiowaną jako parytet siły nabywczej i odniesioną do dochodu narodowego. W wersji bezwzględnej definicji PPS, siła nabywcza różnych walut krajowych jest odnoszona do ustalonego umownie koszyka dóbr, identycznego we wszystkich krajach porównywanych. Jest to szerszy odpowiednik koncepcji PPP (Purchased Power Parity) G. Casela94 zakładającej, że istnieje jednakowa cena danego produktu na całym świecie w przypadku braku ograniczeń handlowych i kosztów transportu (np. cena hamburgera w McDonalds, tzw. indeks BigMac). Niestety w warunkach ograniczonej konkurencji, prawo jednej ceny nie funkcjonuje ze względu na: cła i inne ograniczenia lokalne stosowane w handlu, działania banków centralnych i spekulację hedgingową, itp., podatki cenotwórcze typu VAT, akcyza, różne w różnych kracjach, dopłaty i subsydia towarów i produkcji (np. rolnictwo w UE), restrykcje lub zakazy produkcji niektórych produktów lub świadczenia pewnych usług, koszty transportu, które dla określonych produktów są relatywnie wysokie w stosunku do ich wartości. Jeśli cena jednostki jakiegoś dobra w jednym kraju jest inna niż za granicą, opłaca się kupować to dobro w kraju "tańszym" i sprzedawać w kraju „droższym”. Takie działanie, nazywane arbitrażem powinno powodować wyrównanie się cen tych samych dóbr we wszystkich krajach po określonym czasie. Innymi słowy, realny kurs walutowy w relacji do waluty referencyjnej zawsze będzie zbliżony do 1 (adaptatywne samouzgodnienie kursu waluty w czasie). Przeczy temu obserwowany efekt Samuelsona-Balassy95,96, który wskazuje, że: wyrażony w jednej walucie poziom cen wielu dóbr w krajach o dużej produktywności pracy jest wyższy, niż poziom cen takich samych dóbr w krajach o małej produktywności pracy. W wyniku tego, realny kurs waluty w krajach bogatszych jest zwykle wyższy niż 1, w odniesieniu do waluty referencyjnej i wraz z upływem czasu, waluty krajów bogatych stają się trwałe przewartościowane. Efekt Samuelona-Balsassy jest szczególnie mocno widoczny w przypadku dóbr niehandlowych. Idea odniesienia ceny porównawczej do dochodu narodowego na głowę mieszkańca powinna wyrównywać wady porównań wynikające z torii jednej ceny oraz efektu Samuelsona-Balassy. Ale i tutaj pojawiają się kłopoty natury subiektywnej, dotyczącej wyboru koszyka dóbr oraz obiektywnej, związanej z 93 Purchasing Power Standard ( http://europa.eu.int/estatref/info/sdds/en/strind/ecobac_gdp_sm.htm ). Cassel G., “Abnormal Deviations in International Exchanges”, The Economic Journal, 28(112), (1918), 413. 95 Balassa, B. (1964), "The Purchasing Power Parity Doctrine: A Reappraisal", Journal of Political Economy 72 (6): 584–596. 96 Samuelson, P. A. (1994), "Facets of Balassa-Samuelson Thirty Years Later", Review of International Economics 2 (3): 201–226. 94 57 nieporównywalną jakością dóbr posiadających określoną funkcjonalność lub użyteczność. Próbą takiego odniesienia obok wspomnianego PPS, jest stosowany przez Bank Światowy dolar międzynarodowy Int$, tzw. Geary-Khamis dolar97. Jest to hipotetyczna jednostka walutowa, która ma taką samą siłę nabywczą, jak dolar amerykański w USA w danym czasie. Jest on powszechnie stosowany w ekonomii, a lata 1990 i 2000 są często wykorzystywane jako punkt czasowy odniesienia. 1.4.2 Jak mierzyć kapitał Kolejnym punktem dyskusji nad rolą kapitału w zarządzaniu jest jego pomiar. Najtrudniejszym elementem pomiarowym jest kapitał intelektualny oraz informacyjny (rys. 1.17Rys. 1.17). Najczęściej kapitał mierzony jest jako wartość rynkowa dobra, ustalaną przez cenę równowagi w jednostkach walutowych. Pomiarem wartości całych organizacji zajmuje się księgowość. Niestety, w sprawozdaniach finansowych nie uwzględnia się kapitału intelektualnego, a jedynie wartości niematerialne i prawne, posiadające swoją wycenę. Stąd można wnosić98, że różnica pomiędzy wartością rynkową i księgową może stanowić bardzo zgrubne oszacowanie kapitału intelektualnego. Przede wszystkim nie może to być prawdą wobec stochastycznych wahań kursów spółek i znaczącego udziału aspektów psychologicznych w oszacowaniach giełdowych99. Zdarzają się również katastroficzne zmiany wartości rynkowej, przy stałym kapitale intelektualnym. Przykładem może być dekapitalizacja rynkowa firmy Nokia, gdzie w ciągu 6 miesięcy 2011 roku cena akcji spadła o 50%. Kapitał intelektualny oraz potencjał wytwórczy Nokii pozostały, ale konkurenci zrobili dwa kroki do przodu i w tym momencie rynek zareagował obniżką wyceny. Innym zagadnieniem związanym z wyceną kapitału jest zdolność do kreowania wartości. Ta jest mierzona najczęściej wskaźnikiem EBITDA100. Różni się on od przepływów pieniężnych z działalności operacyjnej głównie wyłączeniem płatności za podatki oraz dywidendy, jak również zmian w kapitale obrotowym. EBITDA różni się od wolnego przepływu środków pieniężnych, ponieważ wyklucza potrzeby gotówkowe na odtworzenie środków trwałych, pozostając wskaźnikiem niezależnym od podatków i wyrażony w PPS lub PPP może stanowić źródło porównań wartości generowanego kapitału. Można zauważyć, że wycena giełdowa spółki stanowi pewną krotność generowanego przez nią EBITDA, co umożliwia dokonania uśrednień dla branży lub pewnej zbiorowości organizacji podobnego typu, a następnie określenie 97 http://data.worldbank.org/data-catalog#Tables . Dobija D., „Pomiar i sprawozdawczość kapitału intelektualnego przedsiębiorstwa”, Warszawa: Wydawnictwo Wyższej Szkoły Przedsiębiorczości i Zarządzania im. Leona Koźmińskiego, 2004. 99 Mantegna R.N., Stanley H.E., “An Introduction to Econophysics: Correlations and Complexity in Finance”, Cambridge University Press, Cambridge, 1999. (polskie wydanie PWN, Warszawa 2001). 100 Earning Before Interests Taxes Depreciation and Amortization. 98 58 wskaźnika wartości w relacji do EBITDA. Ten wskaźnik można używać do ustalenia wartości firm nie notowanych na giełdach, jako uśrednione oszacowanie wartości kapitału na podstawie obliczonego wyniku EBITDA. Tak może postępować obserwator zewnętrzny, nie mający wiedzy na temat struktury wewnętrznej organizacji. Ale co w przypadku obserwatora wewnętrznego? Ten dysponuje wiedzą księgową oraz dodatkowymi informacjami odnośnie struktury kapitału i może ustalić nie tylko EBITDA ale również NPV dla potencjalnego nabywcy. Stąd oszacowania wewnętrzne mogą się różnić znacząco od oszacowań zewnętrznych. Tym samym istnieje pole do badań na temat bardzo użyteczny dla praktyki managerskiej: jak doprowadzić do wyrównywania oszacowań zewnętrznych i wewnętrznych oraz co stanowi o różnicy tych wycen? Odpowiednia konstrukcja sprawozdań finansowych oraz prezentacja przekrojów danych stanowi domenę rachunkowości MSR oraz standardów międzynarodowych sprawozdań finansowych MSSF. Niestety struktura kapitałów wirtualnych nie jest przez nie uwzględniana. 1.4.3 Kapitał uogólniony Dzisiejsza ekonomia musiała potraktować kapitał znacznie szerzej niż tylko jako reprezentację wartości. Na rys. 1.17 przedstawiono układ taksonomiczny kapitałów cząstkowych, składających się na system generujący wartość i praktycznie realizowany w różnych organizacjach. W tej koncepcji kapitał jest silnie ustrukturyzowany. Najważniejsze dwa składniki główne to: kapitał intelektualny, związany z zasobem ludzkim i jego relacjami oraz kapitał wiedzy, wartościujący szeroko pojęte zasoby informacyjne. Kapitał intelektualny oraz wiedzy generują pewien kapitał organizacji, umożliwiający zaistnienie innowacyjności (kapitał innowacji) oraz tworzenie procesów biznesowych (kapitał procesów), w tym opartych na wiedzy. Rdzeniem kapitału intelektualnego są cztery elementy: kapitał ludzki, kapitał struktury, kapitał kliencki oraz kapitał relacyjny. Te cztery ontologie konceptualne są ze sobą wzajemnie sprzężone i nie wydaje się być możliwym ich oddzielne rozpatrywanie. Można to określić jako „system kapitału intelektualnego”, którego zadaniem jest wniesienie wiedzy do generowanej przez organizację wartości i optymalizacja ekstensywna użyteczności zasobów pozostających w jej gestii. Taka koncepcja funkcjonowania kapitału w systemie generującym wartość wskazuje na duży stopień złożoności wyceny wartości. Problem ten dotyczy najbardziej kapitału ludzkiego oraz kapitału wiedzy. Zarówno użyteczność, jak i wynikająca zeń wartość chwilowa nie podlegają deterministycznym modelom oszacowań. Te wielkości są w najwyższym stopniu związane z oddziaływaniami otoczenia, określającego możliwości alokacji wytworzonej wartości oraz jej struktury w formie pożądanych produktów. Równocześnie otoczenie generuje 59 impulsy informacyjne o działaniach konkurencji, aktualnych preferencjach rynku oraz sytuacji makroekonomicznej, co zmienia w sposób adaptatywny procesy biznesowe systemu oraz strukturę jego kapitałów organizacyjnych i pośrednio wiedzy oraz intelektualnego. Rys. 1.17 Struktura kapitałów systemu generującego wartość 101. Stąd wysoki stopień zmienności w czasie wymaga szybkich reakcji managerskich oraz skrócenia do maksimum czasu zapóźnień informacyjnych, pochodzących od sprzężeń zwrotnych systemu z otoczeniem. To z kolei oznacza, że kapitał informacyjny stanowi jeden z krytycznych zasobów. 1.5 Działalność gospodarcza Jednym z aspektów wyłącznej działalności człowieka jest działalność gospodarcza. Służy ona tworzeniu wartościowych dóbr odpowiadających potrzebom rynku, które można wymienić na inne dobra lub ich równoważniki. Zasadniczym celem działalności gospodarczej jest wykreowanie wartości (korzyści finansowej, zaspokojenie potrzeby zbiorowej, uzyskanie dochodu, itp.). Stąd też 101 Gospodarek T., „Aspekty złożoności…”, str. 177 60 stanowi ona fundament każdej ekonomii. Przez działalność gospodarczą należy rozumieć wszelkie zamierzone i kontrolowane działania, w których praca ludzka, dostępne zasoby i wiedza zostają użyte przez przedsiębiorcę lub organizację (system generujący wartość) w celu wytworzenia określonej wartości dodanej. Stąd też przez lata pojawiły się różne formy i rodzaje działalności gospodarczej oraz produkty wytwórczości. Istnieje kilka ważnych klasyfikacji działalności gospodarczej. Jedną z nich jest Europejska Klasyfikacja Działalności NACE102 stosowana w Unii Europejskiej w celach statystycznych oraz ustalania regulacji prawnych. Inną, używaną w międzynarodowych rankingach jest klasyfikacja ONZ – ISIC103 (Międzynarodowa, standardowa klasyfikacja rodzajów działalności). W Polsce stosowana jest klasyfikacja PKD104 W katalogu znajduje się 1650 pozycji, które są rozróżniane i analizowane w sprawozdaniach statystycznych GUS. Jak widać, inwencja biurokracji w kwestii kreowania nowych działalności biznesowych może być nieograniczona i z czasem będzie w katalogu przybywać pozycji ku utrapieniu przedsiębiorcy i wbrew zasadzie brzytwy Ockhama. A wszystko po to, żeby wypełnić idee przedstawione przez R. Reagana: Jeżeli coś działa - uregulować. Jeżeli to nadal działa - opodatkować. A jeżeli przestaje działać - dotować. Działalność gospodarcza może być prowadzona w różnych formach od niezarejestrowanego uczestnika wymiany rynkowej (szarej strefy) poprzez przedsiębiorcę prowadzącego jednoosobową działalność, różnego rodzaju spółki aż do skomplikowanych organizacji globalnej o rozbudowanej strukturze korporacyjnej. W legalnej strefie, wszelka działalność jest ewidencjonowana, bądź rejestrowana, co wiąże się z przyjmowaniem rozlicznych obowiązków prawnych przez wykonującego działalność. Między innymi podlega on różnego rodzaju podatkom, musi wykonywać określone usługi, na ogół bezsensowne, na rzecz biurokracji państwowej oraz sprawozdawczości. To powoduje, że na drodze niekontrolowanego rozwoju wszelkich przejawów działalności gospodarczej pojawiają się różnorakie bariery. Oceną warunków dla prowadzenia działalności gospodarczej zajmuje się World Economic Forum, które rokrocznie wykonuje raport „Doing Business”. Polska w roku 2016 uplasowała się na bardzo wysokim, 25 miejscu na 189 krajów (ale uwaga szczegóły nie wypadają tak rewelacyjnie – patrz rozdział 5.4.7). Naj- Eurostat, Legal notice | Contact “RAMON - Reference And Management Of Nomenclatures”, Metadata, Statystycznej Klasyfikacji Działalności Gospodarczej we Wspólnocie Europejskiej, Rev. 2 http://ec.europa.eu/eurostat/ramon/nomenclatures/index.cfm?TargetUrl=LST_NOM_DTL&StrNom=NACE_REV2&StrLanguageCode=PL&IntPcKey=&StrLayoutCode=HIERARCHIC 103 International Standard Industrial Classification of All Economic Activities; http://unstats.un.org/unsd/statcom/doc02/isic.pdf 104 Polska Klasyfikacja Działalności http://stat.gov.pl/Klasyfikacje/doc/pkd_07/pkd_07.htm 102 61 lepiej wypadamy w handlu zagranicznym, gdzie plasujemy się ex-equo z krajami UE na 1 miejscu. Najgorzej w zakładaniu spółki prawa handlowego 85 miejsce i płaceniu podatków 58 miejsce. Są to problemy, których żaden rząd od 25 lat nie potrafił rozwiązać, a obecny jedynie je pogłębi. W każdym razie, robienie interesu w Polsce nie jest pozbawione racjonalności. 1.5.1 Model systemowy działalności gospodarczej Jak powstaje wartość w systemie generującym ją? Na rys. 1.18 przedstawiony został model sprzężenia zwrotnego generowania wartości przez system. Pozostaje on w relacji kontekstowej do modelu funkcjonowania wartości przedstawionego na rys. 1.2. Kreatorzy lub dysponenci wartości (w chwili t1) mają intencje wykreowania określonego pozytywu dla interesariuszy (w chwili t2). Mają w tym celu odpowiednie zasoby i kompetencje oraz wolę podjęcia działania. Są w stanie prognozować pewne konsekwencje takiego działania (np. wytworzone zostaną dobra materialne albo podniesie się poziom życia, albo zaspokojone zostaną określone potrzeby). Rezultat działania objawi się w otoczeniu, bo tylko wówczas można mówić o wykreowaniu wartości. Otoczenie jest społeczeństwem uposażonym w kulturę, cywilizację, wizję rozwoju, itd., jak również w zasoby, takie jak: środowisko naturalne, kompetencje społeczne, kapitał, itp. Te zasoby mogą być potrzebne, aby intencja wygenerowania wartości stała się faktem. Oznacza to, że musi zaistnieć gra dwu lub wieloosobowa105 pomiędzy kreatorami wartości a otoczeniem, polegająca na powstaniu określonego pozytywu i jego akceptacji bądź odrzucenia przez dane otoczenie. Nie precyzujemy w tym miejscu czym jest dany pozytyw ani jak zostanie on wykreowany. Gra tego nie wymaga. Konieczne jest jedynie ustalenie reguł uznawania czegoś za wartość (kryteria wartości) oraz sposobu weryfikacji zaistnienia wartości w otoczeniu. Wypłatą w grze będzie zaistnienie pozytywu w otoczeniu (np. nowego samochodu albo wiersza). Ale zanim ten pozytyw stanie się ostatecznie wartością, musi zostać poddany ocenie aksjologicznej. Konsekwencją pozytywnej weryfikacji zaistnienia wartości może być jej uznanie powszechne (w całym układzie wartości) albo uznanie szczegółowe, dotyczące wyłącznie gestora tej wartości (np. fotografii rodzinnej). Na tym polega działalność gospodarcza. System generujący wartość prowadzi grę z otoczeniem o uznanie oferowanego pozytywu za wartościowy. Pojawiająca się luka konsekwencjalno intencjonalna (pomiędzy tym, co zakładano, a tym co uzyskano) wyraża się przez rezultat gry oraz przyjęte kryteria aksjologiczne. To jest przykład działania sprzężenia zwrotnego, tak charakterystycznego dla sterowania wszelkimi systemami. W ten sposób została pokazana 105 Strafin P.D., „Teoria gier”, Wydawnictwo Scholar, Warszawa, 2006 62 celowość ujęcia systemowego w odniesieniu do określenia działalności gospodarczej. 63 Rys. 1.18 Funkcjonowanie wartości w systemie wartościującym. Model przedstawiony na rys. 1.18 zawiera w sobie rozwiązanie kwestii złożoności w podejściu do działalności gospodarczej. Nie precyzuje jak w sposób ilościowy mierzyć kwestie luki intencjonalno-konsekwencjalnej ale pozwala na tworzenie takiej miary i ustala czego powinna dotyczyć. 1.5.2 Otoczenie działalności gospodarczej Jeżeli przyjmiemy, że system generujący wartość (nie ważne czy jest to organizacja, firma, przedsiębiorca, itp.) prowadzi działalność gospodarczą, to nie jest on izolowany od otoczenia. Co więcej, otoczenie ustala reguły gry rynkowej, ustala zasady funkcjonalne, a w końcu ustala co jest wartością. Dlatego nie da się rozważać żadnych kwestii zarządzania bez uwzględnienia wpływu otoczenia oraz interakcji z systemem. Stanowi to podstawę ważnej metody analitycznej PESTLE, traktującej o wpływie poszczególnych aspektów otoczenia na działanie organizacji biznesowej. Tymi aspektami są otoczenie: polityczne, ekonomiczne, społeczne, technologiczne, prawne, środowiskowe. W wyniku analizy PESTLE menedżer otrzymuje scenariusz zmian otoczenia, który może być wykonany w wariantach: optymistycznym, pesymistycznym oraz najbardziej prawdopodobnym. Szczegółowo analiza PESTLE została przedstawiona w rozdziale 6.3. Jeżeli przyjrzymy się strukturze globalnego łańcucha dostaw (rys. 2.4Rys. 2.4) okaże się, że jednym z najważniejszych aspektów analizy otoczenia działalności gospodarczej jest analiza interesariuszy106. Jest to badanie układu relacji formalnych i nieformalnych, umożliwiająca zawieranie aliansów, użycie wpływów oraz inne działania pozwalające na optymalizację realizacji celu. Analiza interesariuszy ma za zadanie nie tylko ustalenie relacji sprzyjających i niesprzyjających, ale również ocenę siły wpływu i zaproponowanie scenariusza zmiany układu interesariuszy na najbardziej korzystny. Jest to również jedno z narzędzi zarządzania zmianami (rozdział 4.2). Kolejna, ważna przesłanka dla podjęcia działalności gospodarczej albo aktu przedsiębiorczego pochodzi z analiz rynku, w szczególności badania atrakcyjności sektora, którego taka działalność dotyczy. Służą do tego: analiza McKinsey’a (rozdział 6.4.1) oraz analiza pięciu sił wg. M. Portera (str. 39). Menedżer powinien zdawać sobie sprawę z realiów i specyfiki rynkowej, ponieważ to otoczenie decyduje o wartości oferowanych dóbr. Dlatego takie dane, jak zamożność społeczeństwa (dochód do dyspozycji), pojemność rynku oraz zachowania konsumenckie (kultura i poziom rozwoju społecznego) stanowią istotne uzupełnienie uwarunkowań działalności gospodarczej. Żeby działalność gospodarcza, a zwłaszcza przedsiębiorczość na danym terytorium istniała, muszą po temu zaistnieć określone warunki w jej otoczeniu. 106 Gospodarek T., “Zarządzanie dla …”, str. 229-238 Te, jak już wyżej wspomniano, najlepiej określa globalny raport Światowego Forum Ekonomicznego, „Doing Business” 107(str. 405) oraz raport „Globalny indeks konkurencyjności, GCI108 (str. 401). W otoczeniu działalności gospodarczej pojawiają się kwestie nie związane z ekonomią, ale z funkcjonowaniem człowieka w systemie społecznym. Część z nich została omówiona w rozdziale 1.1.1 oraz 1.2.1. Ale równie ważnymi kwestiami stają się przedsiębiorczość, innowacyjność oraz działalność gospodarcza. Z tym wiążą się kolejne aspekty zachowań ludzkich, kultury, etyki itd. W tej części monografii zostaną opisane przedsiębiorczość i innowacyjność. 1.5.3 Przedsiębiorczość Jest to kolejna domena działalności ludzkiej, której nie da się przełożyć na modele fizykalistyczne i mierzalne. Przedsiębiorczość jest cechą człowieka, jego zdolnością, która pozwala wybranym prowadzić skutecznie działalność gospodarczą lub zarządzać organizacją. Jak zatem należy to pojęcie rozumieć?109 Przedsiębiorczość pojedynczych osób jest to zdolność do podejmowania ryzyka i zmiany statusu społecznego z pracownika na pracodawcę (lub samozatrudnionego, freelancera) oraz statusu ekonomicznego na wyższy. Przedsiębiorczość organizacji (lub wprost pracodawcy) może być traktowana jako zdolność do podejmowania ryzyka i zmiany jej funkcji celu w kierunku wyższej użyteczności (większej kreacji wartości dodanej), a tym samym uczynienia jej bardziej efektywną ekonomicznie i stabilniejszą w czasie. Przedsiębiorczość korporacji (sieci) może być interpretowane jako zdolność do tworzenia globalnej (korporacyjnej) funkcji celu w kierunku zmiany użyteczności całej struktury sieciowej korporacji i jej zasobów ku wyższej użyteczności. Przedsiębiorczość całego narodu lub kraju może być rozumiana jako zdolność do zaangażowania się w jak największym stopniu jego obywateli w procesy zmian społeczno – ekonomicznych, prowadzących do poprawy efektywności funkcjonowania państwa i dobrobytu jego obywateli. We wszystkich powyżej wymienionych przypadkach najważniejszym elementem definicji jest funkcja celu oraz proces zmiany, prowadzące do wyższej efektywności ekonomicznej, co można mierzyć ilością wytworzonej wartości dodanej. Ale dla rozwoju przedsiębiorczości muszą zostać stworzone warunki ekonomiczne i społeczne. To nie jest tak, że temporalna decyzja władzy w postaci The World Bank, „Doing Business”, data, http://data.worldbank.org/data-catalog/doing-business-database 108 World Economic Forum, “The Global Competitiveness Report”, 2016, http://reports.weforum.org/global-competitiveness-report-2015-2016/downloads/ 109 Gospodarek T., “Logical Layers of Entrepreneurship”, Proceedings of the The 9th International Entrepreneurship Forum (9th IEF), 16-18 September 2009, Istanbul, https://www.essex.ac.uk/conferences/ief/9th/documents/040-Tadeusz%20Gospodarek-28.08.09.pdf 107 66 interwencji ekonomicznej w skali mikro (dotacja na kilka projektów) automatycznie uruchomi procesy w skali makro. Przedsiębiorczość wymaga znacznie większego zaangażowania na poziomie krajowym i lokalnym110, albowiem opiera się ona na co najmniej trzech filarach (rys. 1.19). Rys. 1.19 Warunki dla wzrostu przedsiębiorczości Podobne warunki stawiane są dla zaistnienia innowacyjności i konkurencyjności gospodarki narodowej. Zawsze pojawia się kwestia dobrego prawa, małego poziomu biurokracji, łatwość rozliczeń podatkowych, infrastruktura, poziom rynku, wiedza. Na tym należy budować przedsiębiorczość. Jest to zagadnienie złożone i tylko podejście systemowe może przynieść sukces. Nie da się wyrwać z kontekstu jednego parametru i coś uczynić na wejściu w kierunku jego poprawy, oczekując głębokich zmian na wyjściu. To tak nie działa. A przede wszystkim nie działa prosta transformacja od eksperymentu na skalę mikro do uogólnienia na skalę makro. Eksperyment ekonomiczny daje się przeprowadzić tylko raz. Każda próba powtórzenia będzie innym eksperymentem, albowiem w międzyczasie otoczenie się zmienia i wraz z nim zmieniają się warunki pomiaru. Z punktu widzenia zarządzania należy zastanowić się nad kwestią: jak inwestor powinien oceniać, czy poziom przedsiębiorczości w danym kraju gwarantuje, że jego biznes nie będzie napotykać na poważne bariery w otoczeniu jego inwestycji. Tą 110 Gospodarek T., “Zarządzanie dla …”, op. cit., str. 108-113 67 problematyką zajmują się instytucje międzynarodowe prowadzące badania statystyczne i rankingi gospodarcze różnego rodzaju. Za najważniejsze należy uznać Global Entrepreneurship Monitor (GEM)111,112, Doing Business113 publikowany roczny raport przez Bank Światowy, Entrepreneurship at a Glance114 publikowany przez OECD oraz Eurobarometer Survey on Entrepreneurship115, publikowany przez UE. Z powyższych raportów można uzyskać bardzo dobre informacje na temat różnych krajów oraz światowych tendencji rozwoju przedsiębiorczości. Wskaźniki te zostały przedstawione bardziej dokładnie w rozdziale 5.4. Decyzja o podjęciu działalności gospodarczej Każdemu, potencjalnemu kandydatowi na przedsiębiorcę można zadać dwa zasadnicze pytania (powinny one znaleźć się w biznes planie, patrz rozdział 4.2.3): Dlaczego zamierza on podjąć działania przedsiębiorcze? Jakie czynniki popychają go do stania się animatorem przedsiębiorczości? Czego oczekuje od otoczenia? Ze względu na złożoność kwestii problem należy podzielić na logiczne warstwy, które można rozważać rozłącznie, a których złożenie pozwala wnioskować o całości zagadnienia. Odpowiedzią może być model zaprezentowany poniżej na rys. 1.20 związany z warstwami przedsiębiorczości116. Model ten zakłada istnienie kilku warstw logicznych podejmowania decyzji przedsiębiorczej: warstwa otoczenia dalszego (środowisko naturalne, ekosystem biznesu, oraz komunikacja w szerokim tego słowa znaczeniu), warstwa otoczenia bliskiego (okazje, które można przejąć, presja ekonomiczna związana z potrzebami, życzenia i namowy osób bliskich do podjęcia działalności gospodarczej), warstwa zasobów (wiedza i kluczowe kompetencje, zasoby do dyspozycji, potrzeby społeczne przedsiębiorcy przynależności do klasy osób o wysokim statusie społecznym, itp.). Przedsiębiorca podlega działaniu otoczenia, co często przekłada się na życzenia poprawienia swojej pozycji społeczno-ekonomicznej, czasami uniezależnienia się od trudnych relacji korporacyjnych, pozyskania nadarzającej się okazji (np. 111 Global Entrepreneurship Monitor, http://www.gemconsortium.org/; PARP „Global Entrepreneurship Monitor”, za rok 2015, http://www.parp.gov.pl/gem-2015-global-report 113 http://data.worldbank.org/data-catalog/doing-business-database op. cit. 114 OECD, Entrepreneuship and business statistics, “Entrepreneurship at glance”, 2015 http://www.oecd.org/std/business-stats/entrepreneurship-at-a-glance-22266941.htm 115 EC, Flash Eurobarometer Reports, “Entrepreneurship in the EU and beyond”, 2012 http://ec.europa.eu/public_opinion/flash/fl_354_sum_en.pdf 116 Gospodarek T., “Logical layers…”, op. cit. 112 68 zarobienia określonych pieniędzy) albo wywieranej na niego presji ekonomicznej (konieczności utrzymania rodziny, zasobów). Istnieje przekonanie społeczne, że przedsiębiorcy dzieje się lepiej. Rys. 1.20 Warstwy zagadnień związanych z podjęciem decyzji przedsiębiorczej Każdy dysponuje określoną wiedzą, którą może uzupełnić (warstwa wiedzy), niezależnie od sytuacji. Każdy posiada jakieś zasoby (kapitał, relacje, zdolności). W końcu każdy uczestniczy w społeczeństwie, gdzie zajmuje swoją pozycję, jest przez nie oceniany i chce z tego społeczeństwa pozyskać pożądane zasoby. To wszystko powoduje, że jednostka może zdecydować się na zmianę statusu z zatrudnionego lub niezatrudnionego na przedsiębiorcę. Muszą być jednakże spełnione dodatkowe warunki w otoczeniu, opisywane przez kolejne warstwy: bezpieczeństwa środowiska (nie tylko naturalnego ale przede wszystkim ekosystemu biznesu), muszą byś ustalone czytelne i jasne zasady oddziaływań i relacji z otoczeniem, a dodatkowo musi być zapewniona komunikacja pomiędzy otoczeniem a przedsiębiorcą oraz transfery wiedzy. Jeżeli te trzy filary zewnętrzne (stanowiące rozłączne warstwy logiczne problemu przedsiębiorczości) zostaną ocenione jako zadowalające, przedsiębiorca może uruchomić posiadane zasoby, kompetencje i relacje społeczne dla osiągnięcia celów (zniwelowania 69 presji ekonomicznej, pozyskania okazji lub spełnienia własnych życzeń poprawienia statusu). Skutkiem będzie oczywiście podjęcie decyzji przedsiębiorczej (najczęściej powstanie nowej firmy). 1.5.4 innowacyjność Jest to zjawisko gospodarcze, pojawiające się na styku procesów wytwórczych i wdrażania nowych idei lub pomysłów. Dzięki temu można produkować dobra o wyższej wartości dodanej i lepiej konkurować na rynkach. Innowacyjność stanowi jeden z najważniejszych filarów rozwoju, zwłaszcza w krajach o wysokim poziomie dochodu narodowego na mieszkańca (rozdział 5.4.5). Działanie innowacyjne polega na wykorzystaniu wiedzy ukrytej i przekonwertowaniu jej na wiedzę jawną, możliwą do użycia w procesach, produktach, zarządzaniu etc. Nie ma dzisiaj praktycznie możliwości zaistnienia innowacyjności bez warunków umożliwiających działania gospodarczego w obszarach wiedzy, informacji oraz technologii teleinformatycznych. Dla menedżera rozumienie zagadnień związanych z innowacyjności stanowi podstawę wiedzy i fundament budowania konkurencyjnej organizacji. Istnieje kilka rodzajów innowacji w biznesie, spośród których za najważniejsze należy uznać: innowacyjność produktową, procesową, organizacyjną i dostępu. Innowacyjność produktowa dotyczy wyrobów i usług. Polega na dokonaniu zmian lub udoskonaleniu wyrobu już wytwarzanego, rozumianych jako znacząca zmiana jego funkcjonalności, użyteczności czy też akceptacji rynkowej. Tym samym innowacją nie można nazywać zwykłego ulepszenia czegoś. Innowacją z pewnością będzie produkt, w którym znacząco poprawiono parametry techniczne, użyto nowych komponentów i materiałów. Innowacja produktowa może również polegać na rozszerzeniu oferowanego asortymentu o nowy produkt, którego cechy technologiczne lub przeznaczenie różnią się znacząco od uprzednio wytwarzanych. Innowacje mogą również dotyczyć zmienności udziału wiedzy oraz informacji w udoskonalanych produktach (systemy informacyjne i oprogramowanie) co wyraża się zwiększeniem jego wartości dodanej i wyższym poziomem kastomizacji. Innowacyjność procesowa, którą należy rozumieć jako zmiany stosowanych przez przedsiębiorstwo procesów wytwórczych dóbr lub świadczenia usług oraz sposobów docierania z produktem do konsumenta. Unowocześnianie lub zmiany funkcjonalne w obszarze procesów wytwarzania związane są najczęściej z dokonywaniem zmian w urządzeniach i technologii lub organizacji produkcji. Mogą stanowić kombinację wielu rodzajów zmian i wiązać się z wykorzystaniem wiedzy (w tym ukrytej). Celem zmodyfikowanych procesów jest zwykle dostarczenie nowych lub udoskonalonych produktów, które nie mogłyby być uzyskane lub dostarczone na rynek za pomocą dotychczas stosowanych metod. 70 Innowacyjnością procesową można również nazwać zwiększenie efektywności produkcji lub dostarczenia istniejących produktów w sposób ekstensywny (bez powiększania zasobów) przy użyciu wiedzy. Można podjąć dyskusję, czy innowacją procesową jest tworzenie zasobów unikatowych oraz kluczowych kompetencji zwiększających konkurencyjność rynkową organizacji. Ponieważ można zdefiniować procesy, w których takie zasoby i kompetencje powstają (procesy uczenia się, procesy zarządzania), należy te działania zaliczyć właśnie do tej kategorii, a nie do innowacji organizacyjnych. Innowacyjność organizacyjna polega na wprowadzaniu nowych metod zarządzania w organizacjach biznesowych, relacjach wewnętrznych oraz zewnętrznych. Jest to ingerencja w strukturę łańcucha wartości powodująca istotne zmiany efektywności gospodarczej organizacji. Często jest to układ zmian w strukturze interesariuszy, usieciowieniu organizacji lub zmiany w obszarze łańcucha dostaw Przykładem mogą być zmiany strategii zarządzania, połączenia konsolidacyjne, przejęcia innych przedsiębiorstw. Są to również innowacje wewnątrz organizacji związane z wdrażaniem systemów zarządzania jakością typu TQM czy six sigma. Mogą to być także optymalizacje w obszarze logistyki i strumienia wartości. Rezultaty działań innowacyjnych w zakresie organizacji i zarządzania wywierają pozytywny, dający się zmierzyć wpływ na wynik ekonomiczny, szczególnie na wzrost produktywności, zwiększenie sprzedaży, zmniejszenie kosztów. Pomiar poziomu innowacyjności organizacyjnej może być mierzony za pomocą kluczowych wskaźników efektywności organizacji117. Zastosowania metody KPI opisane jest w rozdziale 4.9.1. Innowacyjność marketingowa (a poprawniej - innowacyjność dostępu) jest zastosowaniem nowych metod w obszarze komunikacji z konsumentem oraz udostępnieniu danego dobra. Mogą to być znaczące zmiany w wyglądzie produktu, jego opakowaniu, nowych formach promocji, polityce sprzedaży i finansowania lub zastosowaniu nowego modelu biznesowego w zakresie polityki lub strategii sprzedaży. Przykładami są tutaj przypadki działania związane z brandingiem, metodami komunikacji channel connect118 lub model sprzedaży uwzględniający inżynierię finansową (leasing, buy back, kredyt 50/50…). Pomiaru innowacyjności organizacji można dokonać za pomocą metody Hansena i Birkinshaw’a zdolności organizacji do kreacji nowych idei oraz innowacji, bazującej na koncepcji łańcucha wartości innowacyjności119. W metodzie Parmenter, D., “Key performance indicators: Developing, implementing, and using winning KPIs”, (2nd ed.). Hoboken: John Wiley & Sons, 2010. 118 Channel Connect nie jest reklamą, ale sposobem, w jaki konsumenci odnoszą się do wszystkich kanałów komunikacji, przez które można przesyłać przekazy dotyczące marki. W CC nie chodzi wyłącznie o nawyki medialne konsumentów (kiedy, co i gdzie), ale o to, jak i dlaczego konsumenci stykają się z kanałami komunikacji i jak z nich korzystają. CC nie dotyczy postaw konsumentów wobec danej marki,, ale raczej o miejsc i sposobów komunikacji marki z nimi. CC nie ocenia kreatywnej strony reklamy,, ale ma za zadanie rozpoznać odpowiedni kontekst, w którym można nadać przekaz i odpowiednio go wzmocnić. 119 Hansen M.T., Birkinshaw J., “The Innovation Value Chain”, Harvard Business Rev., 05, (2007). 117 71 tej należy wypełnić prostą ankietę, gdzie odpowiedzi są generowane przez pracowników firmy, a oceniane kategorie skalowane w umownej skali (oryginalnie 3 stopniowej). Wynik pozwala na orientacyjne ustalenie potencjału kreatywności i innowacyjności organizacji i skupienie się na najlepiej ocenianym aspekcie w celu jego rozwinięcia oraz znalezieniu słabych punktów, które można próbować poprawić. Całość metody oceny wynika ze struktury łańcucha wartości innowacyjności, który można przedstawić jako strukturę trzech faz: kreowania pomysłu, konwersji pomysłu na projekt oraz wdrożenia projektu (jego dyfuzji do otoczenia). Bardziej szczegółowo metoda została zaprezentowana w monografii „Zarządzanie dla racjonalnego menedżera”120. Innowacyjność w skali makro (gospodarki) Czym innym jest innowacyjność w skali mikro, a czym inny w skali makro. Innowacyjność gospodarki bierze się wprawdzie z innowacyjności jej przedsiębiorstw, ale dotyczy przede wszystkim warunków istnienia innowacyjności w skali mikro, co określamy potencjałem innowacyjności danego kraju. Firmowany przez WIPO (World Intelectual Property Organization) Cornell University and INSEAD (Światowa szkoła biznesu) raport, definiuje rokrocznie globalny wskaźnik innowacyjności oraz ranking krajów według potencjału innowacyjności121. Polska w roku 2015 znalazła się na pozycji 46 (wskaźnik procentowy DTF 0,68). Natomiast ze względu na wskaźnik efektywności innowacji kraj nasz zajmuje w rankingu światowym pozycję 93 na 134 państwa ze wskaźnikiem procentowym 0,34. Te dane wskazują na wyjątkowo błędne założenia polityki gospodarczej Polski przez ostatnie 25 lat. Niestety, w rezultacie antynarodowych interesów staliśmy się dostawcą taniej siły roboczej dla silnej i innowacyjnej gospodarki niemieckiej i ponadnarodowych korporacji. Nasze zasady prywatyzacji polegały głównie na wrogich przejęciach i sprzedaży za przysłowiową czapkę śliwek pereł w koronie polskiego przemysłu, dla bieżącego ratowania rozbuchanej sfery budżetowej i realizacji programów konsumpcji socjalnej oraz kurczowego trzymania się u władzy kolejnych partii rządzących. Przy tych wszystkich założeniach następowało i nadal postępuje stopniowe niszczenie rodzimej przedsiębiorczości przez nadmierne opodatkowanie i politykę otwarcia na obcy kapitał. W kolejnych budżetach zapisywano żenująco niskie nakłady na naukę oraz sektor B+R. Wykreowano stos barier biurokratycznych, prawnych i podatkowych przez kolejne zastępy biurokratów władających krajem. Budowanie PKB na ciągłym zadłużaniu państwa ponad możliwości spłaty, kurczenie się sfery produkcyjnej na rzecz sfery biurokratyczno-urzędniczej i wypieranie kapitału prywatnego przez państwowy stanowią wystarczające bariery 120 121 Gospodarek T., op. cit. „Zarządzanie dla…” str. 64-65. https://www.globalinnovationindex.org/content/page/past-reports/ 72 w rozwoju innowacyjności w Polsce. R. Atkinson i S. Ezell w globalnym raporcie innowacyjności 2015 przedstawili sześć zasad zbudowania innowacyjnej gospodarki122. 1. Polityka proinnowacyjna powinna koncentrować się na maksymalizacji innowacji we wszystkich gałęziach przemysłu, a nie tylko w obszarze technologii high-tech. 2. Należy wspierać wszystkie rodzaje i fazy innowacji. Jednym z największych błędów popełnianych przez kraje próbujące rozwijać innowacyjność, jest zakres strategii innowacyjności, zawężany do obszaru rozwoju i produkcji produktów high-tech. Przy tym należy skupiać się na strategiach wzrostu globalnej wydajności gospodarki przez zmiany portfela produkcji ku sektorom generującym wyższą wartość dodaną. 3. Konieczny jest reinżyniering produkcji i twórcza destrukcja. Aby odnieść sukces w dziedzinie innowacji, narody muszą zrobić więcej niż tylko uruchomienie niektórych działań wnoszących wartość dodaną, związanych ze wspieraniem lub uzupełnieniem innych, wiodących gospodarek (bycia podwykonawcą lub donorem taniej siły roboczej). Należy dopuścić destrukcyjną innowacyjność, burzącą istniejące układy gospodarcze, która zwykle jest generowana przez nowych uczestników rynku i nowe relacje. 4. Utrzymanie niskich cen dóbr kapitałowych z importu, zwłaszcza związanych z technologiami informacji i telekomunikacji (ICT). Bez nowych inwestycji kapitałowych orzeźwiających narodowe rynki, innowacyjność traci swoją moc i wydajność. Następuje wzrost stagnacji, a konkurencyjność lokalnego biznesu zanika. Najprostszym i najważniejszym sposobem, w jaki kraje mogą utrzymać koszty dóbr inwestycyjnych na niskim poziomie jest ograniczenie ceł i innych barier handlowych. Technologie ICT ogólnego przeznaczenia są fundamentalnym czynnikiem nowoczesnego wzrostu gospodarczego, stanowiąc jedną czwartą wzrostu wartości PKB w wielu krajach rozwijających się dzisiaj. Pomimo że wiele krajów nakłada wysokie podatki i cła na produkty ICT próbując zwiększyć dochody budżetowe lub stworzyć konkurencyjny krajowy przemysł ICT, to takie narody, jak Chiny, Gruzji, Malezja i Wietnam ograniczyły kontrybucje nakładane przez rząd na produkty IT. Dzisiaj widać wyraźnie, że to te właśnie kraje notują wzrosty innowacyjności. 5. Wspieranie kluczowych czynników wejścia innowacji. Firmy nie tylko muszą mieć dostęp do najlepszych w swojej klasie, przystępnych cenowo technologii ICT, ale także potrzebują dostępu do innych kluczowych czynników Atkinson R., Ezel S., “Principles for National Innovation Success”, [w] The Global Innovation Index 2015. Effective Innovation Policies for Development, Dutta S.,Lanvin B., and Wunsch-Vincent., Eds, https://www.globalinnovationindex.org/userfiles/file/reportpdf/gii-full-report-2015-v6.pdf 122 73 innowacji, w tym: infrastruktury cyfrowej, wykwalifikowanych pracowników, wiedzy - zarówno jej kreowania, jak i transferu do produkcji. Kraje coraz bardziej uznają talent jako istotne źródło przewagi konkurencyjnej, a tym samym doskonałe kształcenie i szkolenia stanowią główny trzon ich strategii innowacji. Ponieważ przedsiębiorczość jest ryzykowna i najczęściej dotyczy przedsiębiorców zakładających firmy po raz pierwszy, inicjatywy dotyczące pomocy przedsiębiorcom wydają się być krytyczne. 6. Opracowanie krajowej strategii innowacji i poprawy efektywności gospodarki oraz stworzenie organizacji wspierających realizację założeń strategicznych dało dobre rezultaty w wielu krajach (np. Kenia, Wietnam, Tajlandia). Niestety zdarza się, że przerost formy organizacyjnej opiekuńczego państwa nad efektami ma również miejsce w tej kwestii, czego przykładem jest Polska. Przedstawione zasady pokazują, że innowacyjność nie jest zjawiskiem przypadkowym. Jest zjawiskiem złożonym, zjawiskiem społeczno – ekonomicznym wymagającym czasu, kapitału i odpowiedniego ekosystemu biznesowego. Nie da się jej wygenerować przez rzucenie określonej kwoty pieniędzy w mniej lub bardziej sensowne projekty w skali mikro, sterowane przez urzędniczą sforę agencji, komitetów, biur i urzędów. Innowacyjność w skali państwa to jest głęboka reorganizacja społeczna polegająca między innymi na likwidacji zastałości i niesprawności administrowania państwem, a przede wszystkim wykluczenia całej sfory urzędniczej z mieszania się do działalności gospodarczej. Innowator musi być zainteresowany materialnie swoim wynalazkiem, a wdrażający przedsiębiorca musi otrzymać wsparcie ograniczające jego ryzyko. W swojej pracy123 pokazałem, wykorzystując diagram Ishikawy, główne przyczyny słabego wyniku innowacyjności polskiej gospodarki. Gospodarek T., „Innowacyjność po polsku. Raport oparty na analizie globalnego wskaźnika innowacyjności GII za rok 2015”, Google Books, GGKEY:0LENHUK9TEK, 2016 http://gospodarek.eu/publikacje/Innowacyjnosc%20po%20polsku.pdf 123 74 2 Podmiot i przedmiot zarządzania Wkraczamy w zagadnienia epistemologii zarządzania, próbując ustalić definicje, zakres wiedzy związany z tematem, jak również zbudować model koncepcyjny – czym i jak można zarządzać. Zastanawiałem się kiedyś, czy można zarządzać psem, rozumianym jako zasób i aktywo generujące wartość? W myśl istniejących w literaturze definicji, metodologii, praktyk oraz form działalności pytanie to ma sens ze wskazaniem na odpowiedź twierdzącą. A zatem istnieją przesłanki do dyskusji na temat czym zarządzamy. Ł. Sułkowski przedstawił ten problem nader szeroko, a mimo to nie uwzględnił obszaru ujęć holistycznych i wymiernych ani tych, związanych ze złożonością nauk o zarządzaniu124. To wymaga rzetelnego uzupełnienia, czego w tej monografii taram się w mniej lub bardziej sensowny sposób dokonać. Niestety złożoność i adaptatywność zarządzania powoduje, że w dalszym ciągu definicje z tego obszaru wiedzy nie mają mocy aksjomatów, a teorie są bardziej opisowe niż wyjaśniające. 2.1 Organizacja jako system generujący wartość Proponuję przyjąć opisową definicję złożoności, uwzględniającą większość obserwowanych zachowań systemów generujących wartość. System stanowiący przedmiot zarządzania może być uznany za złożony jeżeli: można w nim określić mnogość relacji i oddziaływań między komponentami (np. elementami zasobów, wydzielonymi podstrukturami, etc.), głównie o charakterze nieliniowym, jego stan chwilowy nie może być opisany dokładnie za pomocą skończonej liczby zmiennych (parametrów stanu układu) w danym kontekście i przestrzeni fazowej, jego rozwój w czasie może być opisany formalnie za pomocą układu równań różniczkowo-całkowych (nieliniowość), uwzględniających dane bieżące i przeszłe, jest wrażliwy na warunki początkowe i zmiany parametrów sterujących, co może objawiać się łatwą utratą stabilności stanu, w tym zachowaniami chaotycznymi lub katastroficznymi, można obserwować lub zdefiniować wielość ścieżek jego rozwoju w czasie, ewoluuje w sposób ciągły i wykorzystuje zasady autoadaptacji i uczenia się. Zauważmy, jak dobrze powyższe stwierdzenia pasują do zachowań organizacji. Można przyjąć, że każda organizacja, w tym jednoosobowe podmioty gospodarcze, stanowią systemy generujące wartość. A to oznacza, że wszelkie, pra- 124 Sułkowski Ł., „Epistemologia w naukach o zarządzaniu”, PWE Warszawa, 2005 75 widłowo użyte ujęcia systemowe w stosunku do zarządzania powinny prowadzić do poprawnych wniosków odnośnie ocen aksjologicznych funkcjonowania organizacji oraz formułowania dobrych praktyk i metod. Tabela 3 Metafory kognitywne organizacji Metafora Rozumienie organizacji maszyna Organizacja stanowi zespół dobrze spasowanych ze sobą części o ściśle określonych rolach i zadaniach. organizm Organizacja jako ontologia podatna na upływ czasu (narodziny, rozwój, dojrzałość, starzenie się, śmierć), działająca w otoczeniu i od niego zależna mózg kultura system polityczny Organizacja jest tworem świadomie działającym, samorefleksyjnym, uczącym się. Organizacja jako system z symbolicznym sposobem porozumiewania się i działaniem, odmiennym od działania innych. Organizacja jako system społeczny działający razem w celu osiągnięcia indywidualnych celów Organizacja jako narzędzie uciwięzienie psysku i zniewolenia, ograniczająca chiczne indywidualność jednostki. Organizacja jako zmienny układ Przepływ i trans- relacji z otoczeniem, wpływający formacja w sposób ciągły na jego zmiany i odwrotnie. Organizacja jako sposób wyzyinstrument do- sku, stale kontrolująca postępominacji wanie i postawy jednostek nią związanych Charakterystyka Nadrzędnym celem jest sprawność, wydajność oraz optymalność. Człowiek jest elementem mechanizmu (trybikiem maszyny) a jego działania określają zadania. Nacisk na autoadaptację do warunków zewnętrznych i otoczenia. Organizacja jako system, elastycznie dostosowuje się do otoczenia i zaspokaja własne potrzeby. Nacisk na zdolność uczenia się. Ludzie stanowią najważniejszy zasób organizacji Nacisk na indywidualizację charakteru organizacji rozpoznawalnej w otoczeniu oraz unikatowość kreowanej wartości. Władza ustala cele, reaguje na konflikty oraz zapobiega sprzecznym działaniom. Korporacyjne ograniczanie wolności jednostki poprzez narzucanie pożądanych postaw i zachowań grupowych. Zmienność strategiczna. Wykorzystanie okazji i scenariuszy do świadomego ustalania własnej pozycji w otoczeniu. Kontrolę i dominacja organizacji nad ludźmi, wykorzystywanie wszelkich możliwości do osiągania najlepszych wyników 76 Organizację można rozpatrywać z punktu widzenia różnych ujęć epistemologicznych, nie uzyskując spójnego rezultatu rozważań nad sposobami optymalnego zarządzania nią. Są to ujęcia: Zasobowe (organizacja jako zbiór wartościowych zasobów i kluczowych kompetencji). Procesowe (organizacja jako zbiór procesów biznesowych, prowadzących do osiągnięcia celu). Społeczne (organizacja jako zbiór interesariuszy, których oczekiwania mają być zaspokojone). Polityczne (organizacja jako układ władzy, umożliwiający wymuszenie określonych działań, prowadzących do celu). Strukturalne (organizacja jako struktura zasobów, procesów oraz relacji stanowiąca system generujący wartość). Każde z powyższych ujęć wnosi istotny wkład w procesy wyjaśniania dopasowania danej organizacji do jej ekosystemu biznesowego i poprawy jej funkcjonalności, pomimo różnych punktów wyjścia do analiz. Ale do koncepcji organizacji można podejść również w sposób metaforyczny, tak jak to uczynił w swojej książce G. Morgana125 (tabela 3). Jeżeli zastanowić się głębiej nad metaforami Morgana, można dojść do wniosku, że dla każdej z nich uda się bez problemu podać co najmniej jeden przykład organizacji z życia wziętej, dobrze dopasowany do charakterystyki danej metafory. Bardziej dogłębne zrozumienie tych koncepcji pozwalają na tworzenie dobrych modeli funkcjonalnych o bardziej sformalizowanym charakterze oraz definiowaniu kierunków ewentualnych zmian. 2.1.1 Definicja systemowa organizacji W swoich rozważaniach na temat definicji organizacji doszedłem do następującego sformułowania formalnego, bazującego na teorii zasobowej: [Df ] Niech będzie dana jakakolwiek struktura S = [U,O,R,P] określona na zbiorze obiektów ekonomicznych (zasobów) U zawierająca: 1. niepusty zbiór U obiektów, nazywany zasobem struktury S, 2. uporządkowany zbiór O dozwolonych oddziaływań w S, 3. niepusty zbiór R relacji określonych w S, 4. niepusty zbiór P procesów zmiany stanu zasobów U, oddziaływań O lub relacji R, 5. układ sterowania rozwojem struktury S w czasie, 6. zdefiniowane cele istnienia struktury S, 7. określoną miarę stanu struktury S i jej składników [U,O,R,P] w danej chwili. wówczas: 125 Morgan G., „Obrazy…”, op. cit. 77 Zbiór S stanowi system ekonomiczny zdolny generować wartość, o zdefiniowanym w danej chwili stanie i celach egzystencji. Zarządzanie strukturą S polega na kontrolowanej zmianie jej stanu w czasie, w tym dostępnych zasobów U, dozwolonych działań O oraz relacji R przez realizację procesów ze zbioru P. Oddziaływanie S z otoczeniem polega na wymianie kapitału, zasobów lub wartości na zasadach gry dwuosobowej o sumie zero. Powyższa definicja wyczerpuje zakres epistemologiczny zagadnień dotyczących organizacji w ujęciu systemowym. Zrozumienie jej pozwala odnieść się do wielu zagadnień opisowych, dla których trudno jest zbudować jednoznaczne określenia (np. etyka, czy optymalizacja funkcjonalna). Wydaje się być koniecznym opisanie komponentów używnych w definicji organizacji. Czym jest zbiór zasobów U? Zbiór ten należy rozumieć jako wszelkie dostępne dla organizacji elementy jej łańcucha dostaw, w tym również te, które organizacja może pozyskać z otoczenia na zasadzie wypożyczenia, outsourcingu, itp. Zasobami są nie tylko materiały do produkcji i majątek trwały, ale również pracownicy (zasób ludzki), wiedza (zasoby wiedzy), wartości niematerialne i prawne oraz kapitał uogólniony (zasoby kapitałowe). Jeżeli tak będziemy pojmować zasoby, wówczas reprezentacja formalna organizacji może być wyrażana poprzez zdefiniowanie stanu chwilowego jej zasobów (ilości, wartości, produktywności, itd.) co przekłada się na możliwość zdefiniowania stanu za pomocą zbioru parametrów charakteryzujących zasoby126. Czym jest uporządkowany zbiór oddziaływań O w strukturze S? Skoro celem organizacji jest generowanie wartości w otoczeniu, to oczywistym jest, że musi ona w jakiś sposób oddziaływać ze swoim otoczeniem, albowiem tylko tam wartość może zostać ujawniona. Stąd konieczne jest ustalenie jakie to oddziaływania mogą być dostępne. Wykorzystam w tym celu teorię gier i oddziaływania organizacji z otoczeniem będą traktowane jako gra dwuosobowa przeciwko otoczeniu127. Grą może być zatem oddziaływanie polegające na kupnie – sprzedaży dobra, albo oddziaływanie oferta – preferencja, albo pożyczka – zwrot z procentem, itp. Uczciwą grą (dozwolonym oddziaływaniem) o sumie zero, z pewnością nie jest kradzież, wymuszenie, rozbój, nadmierne opodatkowanie. Są to oddziaływania niedozwolone, aczkolwiek możliwe. Określenie, co może być dozwoloną grą zapewniają regulatorzy rynku oraz wszelkie władze funkcjonujące w otoczeniu, zdolne do tworzenia reguł i prawa (o ile same stosuje się do zasad uczciwej gry, a nie do zasad działania przestępczości zorganizowanej w sektorze państwowym). 126 127 Gospodarek T., “Aspekty…”, op. cit. rozdział 5 Straffin P.D., “Teoria...”, op. Cit. 78 Czym jest niepusty zbiór relacji R w strukturze S? Skoro struktura S zawiera zasób ludzki, a dodatkowo jest uporządkowana, oznacza to, że musiał zostać określony porządek pomiędzy elementami zbioru zasobów, tak żeby mogły zostać utworzone sprzężenia pomiędzy elementami zasobu, a także pomiędzy elementami zasobu ludzkiego a otoczeniem. Stąd wyróżnia się relacje formalne i nieformalne, relacje porządkujące (np. hierarchiczność władzy lub zarządu), relacje sprzężeń (grupy produkcyjne), itp. Relacje konstytuują strukturę S i nadają jej optymalność funkcjonalną oraz użyteczność zbiorowi zasobów. Równocześnie relacje definiują zbiór interesariuszy oraz sens istnienia i logikę funkcjonowania struktury S w ekosystemie biznesowym. Czym jest zbiór procesów P? To jest istota działania struktury S jako systemu. Procesy są ciągiem logicznym działań struktury S w czasie, związanych z użyciem jej zasobów, wykorzystaniem pracy ludzkiej, informacji, wiedzy i doświadczenia w celu osiągnięcia zakładanego celu. Tym samym zbiór procesów tworzy mapę działań, która stanowi reprezentację formalną i obraz organizacji, podobnie jak zbiór zasobów z określonym stanem. Wyniki przeprowadzenia procesów są bowiem tożsame ze zmianą stanu zasobów w organizacji w czasie. Ale istnieją również procesy, które mogą zmieniać elementy zbioru oddziaływań O oraz relacji R w strukturze S, nie zmieniając zbioru zasobów. Tym samym mogą zmieniać funkcjonalność struktury S, a nawet użyteczność zbioru zasobów U. Stąd należy mieć na względzie, że ujęcie procesowe jest najszerszym z możliwych, opisujących organizacje. Czym jest układ sterowania strukturą S? Jak każdy system, tak też struktura S generująca wartość musi zawierać element sterujący. Jest to zarząd wyłoniony z zasobu U struktury S. Zarząd ustala cele i podejmuje działania, uruchamiając procesy ze zbioru P dla ich realizacji. W szczególności przystępuje do gier przeciwko otoczeniu w imieniu struktury S przyjmując wybrane strategie oraz dokonuje pomiaru jej stanu w czasie oraz poziomu realizacji zakładanych celów, wykorzystując sprzężenia zwrotne oraz ustaloną miarę położenia społeczno ekonomicznego organizacji. Zarząd dba o optymalność funkcjonalną struktury S oraz efektywność strategii prowadzonych gier z otoczeniem. Jakie są cele stawiane przed strukturą S? Podstawowym celem egzystencji systemu generującego wartość będącego strukturą S jest kreowanie wartości w otoczeniu. Ale równie ważnym celem jest trwanie systemu w czasie oraz wypracowanie mechanizmów obronnych umożliwiających utrzymywanie stanu równowagi struktura – otoczenie przy wystąpieniu skutków podjętego ryzyka działań. Są to trudne do realizacji problemy, wymagające inteligentnego sterowania, które może zapewnić tylko człowiek. On to bowiem, podejmuje ryzyko wejścia do gry i przyjmuje strategie działania, na które otoczenie odpowiada w najbardziej złośliwy sposób. Również tylko on posiada zdolność przedsiębiorczości, 79 innowacyjności w działaniu oraz prognozowania przyszłości. Człowiek sterujący systemem potrafi ustalić i zrealizować jeden z fundamentalnych celów biznesu: zaspokoić w maksymalnym stopniu potrzeby wszystkich interesariuszy związanych z istnieniem i funkcjonowaniem struktury S. Czym jest miara stanu struktury S w danej chwili czasu? Jest to najtrudniejsze z zagadnień definicji, ponieważ wymaga określenia czym jest wartość w danym otoczeniu, jak również czym są szczegółowe cele organizacji oraz interesy jej interesariuszy. Dopiero wówczas można ustalić zbiór kwantyfikatorów niezmienny w czasie, który pozwala na uzyskanie liczby będącej miarą wielokryterialną stanu. To jest właśnie ten zasadniczy problem zarządzania – menedżer musi umieć wyrazić stan organizacji w języku formalnym, albo zaproponować model semantyczny pozwalający na pomiar i porównania wyniku w czasie. Na tym opierają się zasady kontrolingu, np. metoda DuPonta (rozdział 4.9 albo metoda KPI (Key Performance Indictors) rozdział 4.9.1. Jeżeli zostanie określony zbiór wskaźników dla miary integralnej, wówczas można ustalać stan struktury S i badać jego zmiany wskutek podjęcia różnych działań. Dzięki pomiarowi rezultaty sprzężenia zwrotnego od otoczenia mogą być użyteczne. Praktyka pokazała, że działalność gospodarcza jest na tyle różna, że nie da się zastosować jednego, uniwersalnego typu organizacji do wszystkich przypadków. Widać to choćby z konieczności ujęcia w ramy prawne działalności banku z jednej strony i szewca świadczącego usługi z drugiej, albo stowarzyszenia filatelistów. To powoduje, że biznes wykreował wiele użytecznych struktur organizacji, a ich wykorzystanie pozwala na różne optymalizacje oddziaływań z otoczeniem. 2.1.2 Rodzaje organizacji Jak wspomniano w poprzednim rozdziale istnieje wiele różnych struktur prawnych oraz funkcjonalnych organizacji. Wynika to z następującego twierdzenia128: Nie istnieje jedyny uniwersalny: model struktury i działania organizacji, sposób zarządzania dowolną organizacją, cel działania dowolnej organizacji i sposób jego osiągnięcia, łańcuch wartości dowolnej organizacji. Przy tym kluczowym elementem powyższych zdań jest słowo „jedyny”. Na rys. 2.1 przedstawiono dwa podziały organizacji wynikające z rodzaju prowadzonej działalności oraz z typu struktury formalnej, odpowiadającej wielkości oraz układom właścicielskim i relacyjnym. Należy zauważyć, że ze względu 128 Gospodarek T., “Aspekty…”, op. cit. str. 64 80 na typ struktury organizacje podlegają różnym przepisom prawnym, podatkowym oraz sprawozdawczym, co umożliwia szereg działań optymalizacyjnych i adaptatywnych do zmienności otoczenia oraz stawianych celów. Rodzaj działalności Komercyjne Społeczne Rządowe Pozarządowe Wyznaniowe Edukacyjne Wojskowe Organizacje kultury Typ struktury Systemowe o Rządowe i władzy o Franczyzowe o Licencyjne Jednopodmiotowe o Spółki handlowe o Przedsiębiorcy o Stowarzyszenia o Związki o Fundacje Wielopodmiotowe o Korporacje o Związki o Stowarzyszenia Sieciowe o Łańcuch dostaw o Sieć korporacyjna Rys. 2.1 Dwa rodzaje taksonomii organizacji Wyobraźmy sobie, że przedsiębiorca ma dobry pomysł na biznes i potrzebuje uruchomić firmę. Jeżeli chciałby to rozpocząć od struktury spółki akcyjnej, to z pewnością nie było by to działanie optymalne. Koszty założenia są duże, a procedury sądowe długie. Kapitał zakładowy musi wynosić 100 tys zł. Liczba godzin na biurokrację, którą musiałby przeznaczyć rocznie to 271129. Do tego jeżeli coś zarobi zapłaci podatek CIT. A gdy zechce wypłacić pieniądze akcjonariuszom, to jeszcze dopłaci podatek PIT. Natychmiast musi zostać czynnym podatnikiem VAT. Na dodatek musi prowadzić pełną księgowość (co najmniej 1500 zł miesięcznie) ze skomplikowaną sprawozdawczością finansową i na rzecz GUS, a przede wszystkim natychmiast płacić haracze: na ZUS od pensji rady nadzorczej i prezesa oraz podatek od wynagrodzeń osób zatrudnionych. Do tego dochodzą możliwości kontroli z 40 źródeł, a jeszcze niczego firma nie sprzedała. Spółka akcyjna musi mieć radę nadzorczą (3 osoby) oraz zarząd. Musi spisać regulaminy i wiele innych, zbędnych kwitów wskutek obowiązywania chorych 129 Doing Business 2016, World Bank, http://www.doingbusiness.org/~/media/GIAWB/Doing%20Business/Documents/Annual-Reports/English/DB16-Full-Report.pdf 81 przepisów. Dalszy komentarz wydaje się być zbędny. A nasz minister napisał w programie odpowiedzialnego rozwoju130 „Prosta Spółka Akcyjna – optymalna forma prawna dla start-upów”??? Komentarz zbyteczny. Niestety, to urzędnicy decydują za biznes co jest dla niego dobre, a to zawsze jest tak jakby koniowi nakazać pchać swój wóz. Zanim menedżer wybierze odpowiednią formę prawną i układ właścicielski dla firmy należy dokonać szeregu analiz, zwłaszcza związanych z prawem podatkowym, uciążliwością rachunkowości oraz biurokracji, kosztami formalnymi (założenia i utrzymania struktury). Oczywistym jest, że im dłużej można pracować na karcie podatkowej albo na ryczałcie, to tak należy robić. Warto mieć na uwadze krzywą Greinera (rys. 2.2) Na spółki kapitałowe przyjdzie może kiedyś czas, ale niekoniecznie należy je zakładać w Polsce. Istnieją korzystniejsze dla ich funkcjonowania lokalizacje nie tylko w Europie, czego dowodem jest ranking Doing Business. Podział organizacji ze względu na wielkość Ponieważ organizacje mogą różnić się wielkością konieczne stało się ustalenie ich taksonomii de iure, co ma istotne znaczenie ze względu na tworzone prawo gospodarcze, statystykę oraz relacje biznesowe. O podziale na kategorie decydują dwa kryteria: liczba zatrudnionych oraz wielkość obrotów lub suma bilansowa majątku, zgodnie z danymi przedstawionymi w Tabela 4. Tabela 4 Podział organizacji biznesowych ze względu na wielkość 1–2 <15 <200 <500 >500 1-6 <250 <500 <1000 >1000 <10 <50 <250 <1000 >1000 2 10 50 X X albo EU* mln € 2 10 43 X X Kryterium bilansu Mikro Małe Średnie Duże Globalne i EU* mln € Kryterium obrotu Kategoria Kryterium liczby zatrudnionych Aus USA EU* W Unii Europejskiej obowiązuje kryterium łączne liczby zatrudnionych i obrotu albo wartości bilansowej majątku. O przypisaniu decyduje niższa wartość kryterium. *) Powyższy podział jest stosowany we wszystkich oficjalnych dokumentach rządowych, prawnych oraz raportach statystycznych globalnych i lokalnych. 130 Ministerstwo Rozwoju, “Plan na rzecz Odpowiedzialnego Rozwoju”, op. cit. str. 34. 82 2.1.3 Cykl życia organizacji Podobieństwo funkcjonowania w czasie organizacji do cyklu życia w przyrodzie zostało dostrzeżone przez badaczy wiele lat temu131. Również zagadnienia wzrostu organizacji zostały empirycznie opisane i zdefiniowano pięć faz wzrostu132. W polskiej literaturze zagadnienia te można znaleźć w książce A. Koźmińskiego133. Cykl życia typowej organizacji składa się z pięciu etapów (model krzywej Greinera): Narodziny (zaistnienie nowego bytu – zwykle przedsiębiorcy) nowe przedsięwzięcie (pomysł, idea), mobilizacja kapitału, inicjacja lokalnego łańcucha dostaw, pozyskanie klientów. Młodość (etap przetrwania na rynku) wzrost i ekspansja wszystkich zasobów organizacji, utworzenie łańcucha wartości organizacji, optymalizacja łańcucha dostaw, ustalenie celów i wizji rozwoju. Dojrzałość (etap formalizacji i hierarchizacji struktury) budowa równowagi mikro-makro, ustalenie struktury interesariuszy i stabilizacja formy prawnej, zaistnienie zasobów klasy VRIN i kluczowych kompetencji, definiowanie reprezentacji formalnych organizacji, optymalizacje łańcucha wartości, planowanie, kontroling i autoadaptacja do warunków otoczenia. Późna dojrzałość i rewitalizacja (etap stabilizacji kultury organizacyjnej i zmian strukturalnych) okres rutyny kultury wewnątrzorganizacyjnej, wykorzystanie kapitału intelektualnego, walka z nadmierną biurokracją, scenariusze redefinicji łańcucha wartości i rewitalizacji organizacji, zmiana ze struktury hierarchicznej zarządzania ku macierzowej, strategia zmiany. Schyłek (etap agonii i zejścia organizacji po nieudanej rewitalizacji) nieudane wdrożenie strategii zmiany, rozproszenie zasobów i kluczowych kompetencji, Lester, D., Parnell, J. and Carraher, S. “Organizational life cycle: A five-stage empirical scale”, International Journal of Organizational Analysis, 11(4), (2003), 339-354. 132 Greiner, L.E., “Evolution and revolution as organizations grow”, Harvard Business Review, (1972), p3746. http://in8dna.com/Portals/0/documents/partners/HBR_EvolutionRevolution.pdf 133 Koźmiński A.K., „Organizacja”, [w]: Koźmiński A.K., Piotrowski W., „Zarządzanie. Teoria i praktyka”, Wyd. 5. Wydawnictwo Naukowe PWN, Warszawa, 2000, s. 38-42. 131 83 błędna wizja rozwoju, zanik zdolności adaptatywnych, upadłość. Powyższy cykl można przedstawić, jak na rys. 2.2 poniżej134: Rys. 2.2 Schemat cyklu życia organizacji (krzywa Greinera) Menedżerowie najwyższego poziomu muszą sobie zdawać sprawę z aktualnego etapu rozwoju organizacji, którą kierują, żeby w porę można było opracować taktyki i strategie optymalizacji oraz koniecznych zmian. Poszczególne etapy rozwoju organizacji zostały w literaturze dobrze opisane, a metody działania charakterystyczne dla tych etapów sprawdzone praktycznie na wielu przykładach. Niektóre organizacje, takie jak 3M, Apple, czy są przykładem ciągłego sukcesu na etapie dojrzałości i przekształcania, wykorzystując strategie ciągłej zmiany. Każdy etap charakteryzuje się napięciem kryzysowym i momentem zmian rewolucyjnych przejścia organizacji do kolejnego punktu rozwoju. I tak, pod koniec etapu przedsiębiorcy organizacja zaczyna odczuwać potrzeby przywództwa, albowiem zaczynają być wymagane bardziej złożone struktury zarządzania. W kolejnym etapie konieczne staje się delegowanie większych uprawnień menedżerom niższego szczebla i pojawia się konieczność syntezy oraz kontroli, co skutkuje rewolucyjną zmianą formalizacji struktury (pojawiają się obiegi dokumentów, mapy procesów, mapy zadań, kontroling operacyjny i taktyczny, systemy zintegrowane IT). Ponieważ powiększa się biurokracja i budowana jest 134 Greiner, L.E., “Evolution …”, op. cit. 84 kultura organizacyjna powstaje kryzys kontroli. Pojawia się potrzeba rewolucyjna zmian koordynacji rozbudowanej struktury i walki z biurokracją, którą sobie wcześniej narzucono. W końcu pojawia się kryzys rutyny i zastałości kulturowej organizacji. Konieczna staje się rewitalizacja i realizacja strategii zmiany. Jeżeli się uda, wówczas organizacja albo nabiera nowego rozpędu albo kontynuuje sukces fazy dojrzałości. Jeżeli nie, następuje upadek. Wzrost organizacji w czasie zmienia jej cechy charakterystyczne w poszczególnych fazach modelu Greinera można to opisać tak, jak w tabeli 5. Różnice dotyczą następujących cech: struktury, elastyczności, portfela dóbr, systemu nagradzania i kontroli, innowacyjności, celów strategicznych, stylu zarządzania na poziomie prezesa. Tabela 5 Charakterystyka faz cykli rozwojowych organizacji w modelu Greinera Cechy Start-up Faza cyklu rozwoju Konsolidacja Formalizacja Przedbiurokratyczna (wystę- Biurokratyczna pują elementy (w pełni repreformalne, np. zentatywna) procedury) Charakterystyka formalna Nie zbiurokratyzowana Elastyczność Wysoka Portfel dóbr Pojedyncze produkty lub usługi Wynagradzanie i kontrola Personalna, paternalistyczna Innowacyjność Właścicielska Cele giczne Przetrwanie Wzrost Zasoby Zewnętrzne oparte na lokalnym łańcuchu dostaw, definiowanie kluczowych kompetencji. Optymalizacja VRIO własnych zasobów do kategorii VRIN. Budowanie kluczowych kompetencji. Redundancje zasobowe. Istnieją zasoby klasy VRIN i zdefiniowane kluczowe kompetencje. Styl zarządzania na poziomie top Indywidualny przedsiębiorca Charyzmatyczny przywódca Delegacja i kontrola strate- Średnia Słaba Istnieje główny produkt lub usługa Personalna według wkładu w sukces Przez pracowników i menedżerów Istnieje linia produktów i/lub usług Bezosobowe systemy formalne Przez wydzielone zespoły B+R Wewnętrzna stabilizacja i wzrost pozycji rynkowej Rewitalizacja Red Tape (przerosty biurokracji i formalizacji) Brak elastyczności Wiele linii produktowych i/lub usługowych Sformalizowane w relacji do produktów i usług Przez zinstytucjonalizowane struktury B+R Reputacja i kluczowa pozycja rynkowa Ochrona zasobów i kluczowych kompetencji. Wykorzystanie globalnego łańcucha dostaw. Optymalność logistyczna. Podejście zespołowe, biurokratyczne 85 Dodatkowo można analizować strukturę zatrudnienia pracowników w poszczególnych fazach oraz w zależności od wielkości firmy. O ile liczba pracowników biurowych w mikroprzedsiębiorstwie jest zerowa, to w korporacji fazy biurokratycznej sięga 20% ogółu zatrudnionych. Odwrotnie wygląda to w odniesieniu do pracowników liniowych. Tu w początkowej fazie rozwoju liczba ich sięga 80% i maleje w korporacjach do poziomu 60%. Są to jednak dane zmienne w zależności od typu organizacji oraz jej struktury. O ile bank jest stosunkowo łatwo definiowalny, o tyle wysoce innowacyjne korporacje, takie jak 3M nie podlegają prostym regułom w kwestii optymalnej struktury zatrudnienia. Jest to bowiem związane z budowaniem optymalnych zasobów ludzkich klasy VRIN i kapitału intelektualnego (w tym kluczowych kompetencji). Jeżeli przyjrzymy się wielkim korporacjom, które w sposób spektakularny upadły, np. Nokia, to właśnie w końcowych etapach dojrzałości popełniono kardynalne błędy strategiczne. Pomimo wysokiego poziomu kultury organizacyjnej na poziomie globalnej korporacji, nie dokonano rewolucyjnej zmiany portfelowej w roku 2010, lekceważąc sygnały płynące z rynku. Decyzje S. Elopa, który wówczas pełnił funkcję dyrektora zarządzającego spowodowały, że od października 2010 wartość akcji Nokii spadały o 23 mln $ dziennie! W ten sposób rozpoczął się początek końca wielkiej korporacji, która w kwietniu 2014 ostatecznie upadła (została kupiona za niewielkie pieniądze przez Microsoft)135. 2.2 Łańcuch wartości organizacji, Jeżeli ktoś prowadzi biznes, to podstawowym pytaniem powinno być: dlaczego to robi?, a kolejnym: co jest wartością, którą generuje?. Dopiero wówczas można poruszać kwestie jakie są cele działalności gospodarczej jego organizacji i jak je zrealizować. Jest to pewien układ logiczny definiujący misję organizacji oraz to, czym jest wartość generowana w otoczeniu. Kwestię definicji misji najlepiej określił D. Abell136. Wychodząc z trójwymiarowej koncepcji biznesu, gdzie każdą działalność gospodarczą można przedstawić jako kombinację trzech zmiennych: grupy klientów, do których adresowana jest wartość generowana przez firmę, funkcje dla klienta, czyli zbiór użyteczności produktów i usług oferowanych, alternatywy technologiczne, czyli jak optymalnie wytworzyć produkt. Nykänen P., Salminen M., “Kto pogrążył Nokię?”, Project Syndicate, 14.07.2015, http://project-syndicate.pl/artykul/kto-pogr%C4%85%C5%BCy%C5%82-noki%C4%99,1172.html?snippet=Salminen 136 Abell D. F., “Defining the Business: The Starting Point of Strategic Planning.”, Englewood Cliffs, NJ, Prentice Hall, 1980. 135 86 Abell doszedł do wniosku, że każda organizacja może zdefiniować swoją misję w podobnym układzie trzech zmiennych: rynek, produkty i możliwości technologiczne (rys. 2.3). Zbudowanie na tej podstawie koncepcji biznesowej prowadzi do zdefiniowania łańcucha wartości zgodnie z koncepcją M. Portera137. Stanowi on ilustrację powiązań wewnętrznych i zewnętrznych organizacji, wpływających na tworzoną w otoczeniu wartość (mierzoną najczęściej dochodem lub marżą i wyrażaną pieniądzem), co przedstawia rys. 2.4. Rys. 2.3 Definicja misji organizacji komercyjnej wg. D.Abella. W strukturze łańcucha wartości wydzielono czynności pierwotne (zarządzane w układzie planowanie – koordynacja - kontrola) oraz pomocnicze, związane ze wspomaganiem procesów za pomocą zasobów, wiedzy oraz zasobów ludzkich. 137 Porter M. E., “Przewaga …”, op.cit 87 Rys. 2.4 Koncepcja struktury łańcucha wartości organizacji 137 Wśród czynności pierwotnych wyróżniono: Logistykę wewnętrzną, której zadaniem jest koordynacja zaopatrzenia produkcji oraz zapewnienia na czas i w odpowiedniej ilości koniecznych zasobów, ilości pracy i kapitału do realizacji procesów wytwórczych. Jest to bardzo ważny aspekt kreowania wartości, który zwykle można optymalizować na różne sposoby. Logistyka generuje wartość dodaną przez: optymalizację kosztów działalności biznesowej, optymalizację wykorzystania zasobów, optymalizację oddziaływań z otoczeniem, optymalizację relacji biznesowych, optymalizację wykorzystania wiedzy i informacji, stabilizację układu logistycznego w formie łańcucha dostaw, stabilizację równowagi mikro-makro. Logistykę zewnętrzną, której zadaniem jest minimalizacja odległości czasoprzestrzennej produktu od producenta do konsumenta. Dla procesów pierwotnych logistyka zewnętrzna wiąże się z odpowiednią strukturą łańcucha dostaw oraz synchronizacją dostępności zasobów w outsourcingu. Głównymi zagadnieniami w tej części łańcucha wartości są: usługi transportowe (kurierzy, poczta, transport masowy, specjalityczny), usługi logistyczne (centra logistyczne, magazyny, transshipment), wynajem maszyn i urządzeń (sprzęt specjalistyczny, pomiarowy, transport), usługi niematerialne (prawne, brokerskie, ubezpieczeniowe, finansowe, IT), usługi materialne (kooperacja, podwykonawstwo, budownictwo). W obszarze logistyki zewnętrznej można poszukiwać znaczących optymalizacji łańcucha wartości w spoób ciągły, albowiem siły wytwórcze oraz technologie dostępne w otoczeniu zmieniają się w sposób dynamiczny. 88 Procesy są kolejnym aspektem kreowania wartości (rys. 2.7). To jest element dynamiczny firmy, zmieniający stan zasobów i kapitału w czasie. Proces zwykle składa się z kilku czynności, ma swojego adresata i właściciela monitorującego przebieg. Dla każdego procesu określić stan wejścia i wyjścia. To oznacza, że tworząc mapę procesów organizacji, musimy uwzględnić wszystkie powyższe aspekty. Można wyróżnić następujące typy procesów biznesowych: procesy zarządzania (w tym taktycznego, strategicznego i korporacyjnego), procesy operacyjne (kreują pierwotny strumień przychodu, stanowiąc część rdzenia biznesowego) np. sprzedaż, produkcja, magazynowanie, zakupy, Procesy wspomagające (księgowość, rekrutacja, wspomaganie IT), Procesy przetwarzania informacji i wirtualizacji biznesu. Sprzedaż i marketing zasługuje na szczególne potraktowanie w strukturze łańcucha wartości (rozdział 4.6). Można zadać zapytanie, który towar jest najlepszy? I sensowną odpowiedzią będzie stwierdzenie – ten sprzedany. Wartość powstaje w otoczeniu, a zatem tylko sprzedane dobra można uznać za wynik funkcjonowania łańcucha wartości. To jest dokładna realizacja marksistowskiej koncepcji wartości (cytat ze str. 55). Dlatego działania związane ze sprzedażą, alokacją na rynku oraz uwiadomieniem kreowanej wartości w otoczeniu stanowią kluczowe procesy każdej organizacji. Szczególnie istotnymi są: budowanie modelu relacji z konsumentami (kanały dystrybucji, polityka sprzedaży, struktura obsługi sprzedaży, polityka cen …), kastomizacja produktów (sprzężenia zwrotne z rynkiem, zmiany sposobów produkcji, elastyczność oferty…), kreacja marki i zarządzanie nią (w odniesieniu do firmy lub do produktu), wirtualizacja procesów sprzedaży i marketingu (social media, internet), budowanie bazy wiedzy o otoczeniu (o konkurencji, o rynku, o klientach), budowanie kanałów komunikacji z konsumentem (channel connect), usługi dodane (sprzedaże buy back lub z montażem, płatności odroczone). Serwis i usługi posprzedażne. Są to działania rozumiane jako wartość dodana do produktu, albo jako usługi posprzedażne, wspierające działania marketingu, wzmacniające reputację marki oraz firmy. Jest to przedłużenie relacji z konsumentem i trwalsze wiązanie go z organizacją lub produktem. Uwzględnione w strukturze łańcucha wartości czynności pomocnicze są konieczne, żeby te pierwotne mogły być realizowane. Należą do nich działania typowe dla warstwy middle office i back office organizacji (rozdział 2.2.4) związane z zarządzaniem. Optymalizacja infrastruktury polegająca na ciągłej adaptacji funkcjonalności i produktywności zasobów oraz kapitału do zmieniających się warunków prowadzenia działalności gospodarczej. Ma to znaczenie zwłaszcza w związku z modelem rozwoju organizacji (rys. 2.2) oraz teorią kontyngencji (rys. 1.1) i funkcjonowaniem wartości w otoczeniu (rys. 1.2). 89 Zarządzanie zasobem ludzkim wiąże się z całością realizacji celów organizacji i uwspólnianiu ich z celami indywidualnymi. Ma za zadanie zaspokajanie potrzeb różnych interesariuszy, tworzenia kultury organizacji, w tym kluczowych kompetencji oraz kapitału intelektualnego. Bez tego trudno jest kreować innowacyjność i przedsiębiorczość. Kwestie zarządzania zasobem ludzkim omawiane są szeroko w różnych miejscach niniejszej monografii. Kwestii tych dotyczy cały rozdział 4.5. Rozwój technologiczny zapewnia innowacyjność oraz dopasowanie oferty do zmieniających się potrzeb rynku. Służy konwersji wiedzy ukrytej na jawną, zgodnie z modelem SECI (rys. 1.12). Wraz z rozwojem technologicznym organizacja tworzy własne zasoby klasy VRIN (rozdział 2.2.2), co pozwala na wyróżnienie się na rynku oraz unikalność produkcji, a wraz z tym umożliwia wykreowanie marki i wartości dodanej. Łańcuch dostaw jest strukturą zewnętrzną, pozwalającą na realizację procesów logistycznych i pozyskanie zasobów, których z jakichkolwiek względów nie są dostępne w organizacji. Dobrze ułożony łańcuch dostaw pozwala na optymalizację kosztów i poprawę efektywności nie tylko produkcji, ale i dystrybucji wraz z marketingiem. Ważną kwestią jest fakt, że to łańcuch wartości zawiera w sobie łańcuch dostaw, a nie odwrotnie. 2.2.1 Łańcuch dostaw w łańcuchu wartości, Wyobraźmy sobie sytuację, w której przedsiębiorca rozpoczyna działalność sklepu internetowego. Zanim cokolwiek sprzeda musi podpisać umowy: z pocztą, z kurierem, z firmą e-płatności, z ZUS, z bankiem, z dostawcami, … Nagle powstała cała sieć powiązań, której animatorem stał się nasz podmiot gospodarczy. Na tym polega kreacja lokalnych łańcuchów dostaw. Został on przedstawiony na rys. 2.5. Ilość i rodzaj zasobów oraz usług w globalnym łańcuchu dostaw jest nieograniczona. Łańcuch dostaw staje się elementem łańcucha wartości i pozwala zrozumieć, jak otoczenie wpływa na kreatorów wartości, którzy budują własne, lokalne łańcuchy wartości. Ten łańcuch lokalny może się rozszerzać aż do formy globalnej w miarę rozwoju organizacji i jej zapotrzebowania na coraz bardziej unikatowe zasoby oraz podział pracy. 90 Rys. 2.5 Trójwarstwowy układ łańcucha dostaw 138 Ewolucję logistyczną organizacji pozostającej pod wpływem otoczenia zmiennego i słabo przewidywalnego można przedstawić następującym ciągiem czasowym. W pierwszym etapie organizacja nie posiada stałych umów dostaw ani stałych odbiorców generowanej wartości. To powoduje, że początkujący biznes plan nastawiony jest na temporalne okazje lokalne, a organizacja zachowuje się na rynku w sposób całkowicie behawioralny. W miarę rozwoju w czasie, o ile działalność przynosi sukcesy, zaczyna ona podpisywać różne umowy z dostawcami i pozyskiwać pierwszych, stałych klientów. Jej model biznesowy oraz zarządzania ewoluuje do typu mieszanego, sieciowo-lokalnego, a jej bliskie otoczenie stabilizuje się częściowo, wskutek usztywnienia struktur oddziaływań poprzez sieć. W ostatecznej fazie, firma staje się animatorem lokalnego łańcucha dostaw, na który składa się szereg usługodawców oraz interesariuszy bliskiego i dalszego otoczenia. Kreatorzy pierwotnej wartości generowanej przez uczestników łańcucha są to producenci, dystrybutorzy, sprzedawcy i dostawcy usług materialnych. Oni potrzebują całego szeregu usług niematerialnych (warstwa druga) dla funkcjono- 138 Gospodarek T., „Aspekty…”, op. cit. str. 90 91 wania własnych procesów biznesowych, w szczególności, usług wiedzy (prawniczych, informatycznych, doradczych), usług finansowych (bankowość, ubezpieczenia, leasing, inżynieria finansowa) oraz usług wspomagających procesy wytwórcze (magazynowanie, logistyka, transport). Stąd każdy element warstwy pierwotnych kreatorów wartości animuje szereg relacji sieciowych, stając się automatycznie węzłem. Kluczowym łącznikiem między warstwami jest architektura SOA (zorientowana na usługi) wymiany informacji oraz wsparcie internetowe. Natomiast regulacje de iure oraz de facto pochodzą z warstwy relacji formalnych. Są to najczęściej ograniczenia usztywniające strukturę GSC (Globalny łańcuch dostaw). Kreatorzy wtórnej wartości generowanej przez uczestników łańcucha, którą stanowi warstwa usług niematerialnych. Warstwa ta miałaby ograniczone racje bytu, gdyby nie istnienie warstwy pierwotnych kreatorów wartości. Tym niemniej, w istniejącym środowisku, w którym można zdefiniować pierwotną warstwę generowanej wartości, każdy element warstwy wtórnej tworzy własny LSC (lokalny łańcuch dostaw), wynikający z potrzeb formalnych, generowanych przez warstwę relacji formalnych i nadzoru. W ten sposób usługi finansowe, dotyczące dyfuzji wiedzy albo biurokratyczne, stanowią źródło wartości i stają się węzłami sieci GSC. Warto zauważyć, że takie organizacje, jak poczta, czy firmy kurierskie, tworzą rozległe sieci w GSC, pomimo że animatorami ich działań są producenci pierwotni, wymagający fizycznego przenoszenia towarów materialnych. Regulatorzy i nadzorcy wprowadzający ograniczenia jakościowe, ilościowe oraz relacyjne możliwych oddziaływań z otoczeniem. Jest to działanie powodujące obniżenie efektywności gospodarczej GSC oraz LSC, wymagające rozpraszania znacznego kapitału na funkcjonowanie tej warstwy. Za najbardziej szkodliwych interesariuszy systemów GSC należ uznać, wszelkich koncesjonariuszy, większość urzędów kontrolnych państwa, większość agencji rządowych, przymusowe ubezpieczenia oraz sprawozdawczość. Ta warstwa w relacjach do kreatywności GSC powoduje wyłącznie straty ekonomiczne. Stąd wynika konieczność elastycznego reagowania optymalizującego przez wszelkie ogniwa GSC na sygnały pochodzące z warstwy regulatorów i nadzorców. Globalizacja stanowi między innymi wynik takich działań, ponieważ zarządzanie GSC i jego węzłami może być przenoszone ponadnarodowo. Lokalny łańcuch dostaw jest strukturą zarządzalną. To znaczy, że istnieje możliwość wpływania na jego optymalizację zależnie od potrzeb organizacji oraz od złożoności procesów biznesowych, które muszą zostać zrealizowane przez łańcuch wartości. Łańcuchy dostaw tworzą sieci prowadzące do globalizacji dostępności zasobów oraz przepływu kapitałów, dóbr i usług. Stają się strukturami globalnymi, gdzie zarządzanie jest możliwe jedynie na poziomie węzłów sieci jako model rozproszony w pełni adaptatywny. 92 2.2.2 Zasoby i kluczowe kompetencje O roli zasobów w generowaniu wartości wspomniano już w rozdziale 1 (rys. 1.2). Bez udziału zasobów nie ma możliwości wykreowania jakiejkolwiek wartości. Pisał P. Drucker „Pierwszą powinnością i nieustającym obowiązkiem managera przedsiębiorstwa jest dążenie do najlepszych, możliwych do osiągnięcia wyników ekonomicznych przy wykorzystaniu aktualnie zaangażowanych i dostępnych zasobów”. Ta kwestia pozostaje aktualna do dziś. Jakby na potwierdzenie tej tezy można przytoczyć słowa B. Gates’a „Dajcie swoim pracownikom bardziej wyszukane zadania i lepsze narzędzia, a odkryjecie, że potrafią oni udźwignąć większą odpowiedzialność i wykonywać swoją pracę w mądrzejszy sposób”. Krótko mówiąc, udostępnij zasoby, a zbudujesz kluczowe kompetencje i kapitał ludzki. Jeżeli popatrzymy na organizację jako strukturę zasobowę (rozdział 0), to okaże się, że poprzez pomiar stanu jej zasobów za pomocą prostych parametrów, możemy określić położenie ekonomiczne całej organizacji. O znaczeniu zasobów w teorii zarządzania pisałem w monografii „Aspekty złożoności i filozofii nauki w zarządzaniu”139, poświęcając teorii RBT (Resource Based Theory) cały rozdział. Wynika to z faktu, że użyteczność zasobów organizacji stanowi jeden z ciekawych obiektów badawczych teorii zarządzania. Dotyczy to zwłaszcza użyteczności ukrytej, która zawsze zwiększa stan niepewności podejmowanych decyzji biznesowych i wprowadza istotny margines błędu dla wszelkich prognoz. Dobry zespół ludzi może ad hoc spowodować skokowy wzrost użyteczności dostępnego zasobu, wykorzystując wiedzę ukrytą lub efekt synergii grupowej działania ku optymalizacji użyteczności lub wykazania się innowacyjnością. Na podstawie obserwacji praktyki biznesowej można spekulować, że jeżeli 20% najcenniejszych zasobów przynosi 80% przychodów organizacji, to równocześnie 80 % pozostałych zasobów wymaga zastanowienia się nad ich użytecznością. To daje szerokie pole do działania menedżerom w budowaniu optymalnej struktury zasobów i szukania dla nich nowych zastosowań. Stąd między innymi wynika szczególna rola zasobów w zarządzaniu. Zasoby można podzielić na 10 zasadniczych grup: Grunty, budynki, budowle, Majątek trwały (maszyny, urządzenia, pojazdy, inwentarz żywy, inne środki trwałe), Majątek ruchomy (wyposażenie, narzędzia, materiały do produkcji, inne materiały), Wartości niematerialne i prawne (informacje, licencje, patenty, opracowania, programy IT, dzieła, projekty, multimedia), Kapitały (akcje, obligacje, udziały, instrumenty pochodne, kapitały niefinansowe, kredyty pozyskane, kontrakty), 139 Gospodarek T., „Aspekty…”, op. cit., str. 284-299 93 Środki pieniężna (waluty, aktywa wysokopłynne, równoważniki pieniądza), Materiały i surowce (materiały, surowce, towary, półprodukty), Zasoby ludzkie (pracownicy wiedzy, pracownicy pozostali, twórcy), Zasoby środowiska naturalnego (biosfera, atmosfera, ekosystem), Zasoby wiedzy (kapitał intelektualny, kapitał wiedzy –rys. 1.17). Każda firma wykorzystuje dostępne zasoby w odpowiedniej konfiguracji dla swojego łańcucha wartości. Część posiada na własność, część musi pozyskać z globalnego łańcucha dostaw. Nadrzędną cechą zasobów jest ich produktywność i użyteczność. Czasami organizacja decyduje się na pewne redundancje zasobowe, co zwiększa bezpieczeństwo działalności (np. banki muszą posiadać zdublowane zasoby IT wymagane niezawodnością działania). Jest to związane z krytycznością procesów biznesowych. Trudno wyobrazić sobie funkcjonowanie szpitala bez zabezpieczenia zasilania awaryjnego prądowego. Z drugiej zaś strony japońskie metody produkcji oparte na koncepcji optymalizacji Kanban i Just-in-time eliminują wszelkie marnotrawstwo i redundancje. Sukces Toyoty potwierdził słuszność tych działań. Ale z drugiej strony, katastrofa w Fukushimie brutalnie zweryfikowała brak zabezpieczeń zasobów, powodując katastrofalne zmiany pozycji Toyoty na rynku amerykańskim. Nie ma zatem uniwersalnej recepty dla każdej organizacji, jaka powinna być optymalna struktura jej zasobów, a przed menedżerem zawsze stoi problem jak tą strukturę zbudować i optymalizować. Do zbudowania struktury wartościowych zasobów, określanych mianem VRIN (przypis 11) służy metoda VRIO140,141. Jest to procedura ustalenia kluczowego zasobu organizacji klasy VRIN, umożliwiającego efektywne generowanie wartości w dłuższej perspektywie czasowej i utrzymanie przewagi rynkowej. Składa się na nią analiza czterech kwestii: 1. Pytanie o wartościowość zbioru zasobów (V = value): Czy firma jest w stanie wykorzystać możliwości lub zneutralizować zagrożenie zewnętrzne z pomocą dostępnego zbioru zasobów? 2. Pytanie dotyczące unikatowości (R = replacement): Czy dostęp do zasobów VRIN lub umiejętności posłużenia się nimi pozostaje w rękach stosunkowo nielicznych? 3. Pytanie dotyczące imitowalności (I = imitation): Czy posiadany zbiór zasobów jest trudny do naśladowania bez znaczących nakładów kapitału i włożonego trudu, aby go skopiować lub zastąpić podobnym? Barney, J.B., “Firm resources and sustained competitive advantage.” Journal of Management, 19, (1991), s. 99-120 141 Wernerfelt, B., “A resource-based view of the firm.” Strategic Management Journal, 5, (1984), pp. 171180 140 94 4. Pytanie na temat organizacji (O = organization): Czy zorganizowana organizacja jest gotowa i zdolna do wykorzystania dostępnych zasobów i oferowanych przezeń możliwości wytwarzania wartości? Struktura zasobu VRIN nie jest trwała w czasie i musi podlegać ciągłym procesom optymalizacji w odpowiedzi na dynamiczną zmienność otoczenia. Podobnie zmienna jest użyteczność zasobów, zwłaszcza że dzisiejsze środki produkcji mają charakter inteligentnych narzędzi, których funkcjonalność może się zmieniać na żądanie przez użycie wiedzy i informacji (oprogramowanie sterujące). Te same roboty są w stanie wyprodukować nadwozie samochodu osobowego i traktora. Należy je jedynie przeprogramować i ustawić na odpowiednio skonfigurowanej linii produkcyjnej. W ten sposób dochodzimy do pojęcia elastyczności i inteligencji zbioru zasobów, co pozwala na działania adaptatywne organizacji, zgodnie z zasadą kontyngencji rys. 1.1. Kluczowe kompetencje Organizacja nie tylko wymaga zdefiniowania optymalnego zasobu klasy VRIN, ale również posiadania określonego poziomu wiedzy i doświadczenia, aby zasób ten wykorzystać w jak najlepszy sposób. To połączenie wiedzy i doświadczenia generuje pewien zasób wiedzy ukrytej, ale znanej organizacji tej lub jej zasobowi ludzkiemu. Ten konstrukt tworzony w fazie utajnienia wiedzy, zgodnie z modelem SECI (rys. 1.12) nazywamy kluczowymi kompetencjami. Koncepcja kluczowych kompetencji została przedstawiona przez C.K. Prahalada i J. Hamela142 i stanowi uzupełnienie teorii zasobowej. Jest to również odpowiedź na postulaty 2 i 3 metody VRIO. Wyobraźmy sobie, że mamy system zintegrowany IT i klient zakupił pakiet bez serwisu wdrożeniowego. Teoretycznie jest możliwe, że samodzielnie zainstaluje oprogramowanie, a nawet je skonfiguruje do pracy na podstawie instrukcji obsługi. Ale przeniesienie danych i ich integracja bez specjalistycznej wiedzy (będącej domeną twórców systemu) oraz doświadczenia w tego typu operacjach (doświadczenia wdrożeniowców) sukcesu nie da się osiągnąć. To właśnie jest przykład kluczowych kompetencji. To jest tak, jak z jazdą na rowerze na podstawie instrukcji obsługi. Brakuje tego czegoś co nazywamy praktyką, aby udało się jechać. Zarządzanie kluczowymi kompetencjami oraz transfer wiedzy na zewnątrz stanowią ważny element zarządzania wiedzą w organizacji i stanowi o jej sukcesie. Jeżeli uda się zbudować znaczący potencjał intelektualny jako zasób unikatowy, organizacja ewoluuje ku koncepcji tworzenia wartości w oparciu o wiedzę. Wówczas kluczowe kompetencje i kapitał intelektualny stanowią o sile ryn- Prahalad C. K., Hamel G., “The core competence of the corporation.” Harvard Business Review, 68 No. 3, (1990), pp. 79-91” 142 95 kowej i konkurencyjności. Takie organizacje są często przejmowane przez większe korporacje w celu uzupełnienia luki kompetencyjnej (np. Microsoft przejął serwis youtube żeby pozyskać kompetencje, a Google przejęło Motorolę, żeby pozyskać jej patenty). Mapa zasobów (model RDF) Gdy rozważamy ujęcie zasobowe organizacji, to należy również zwrócić uwagę na rolę zasobów w jej strukturze. Służy temu model RDF143, który ma za zadanie zaprezentowania przypisań poszczególnych zasobów do procesów oraz zadań stawianych stanowiskom. Model RDF pozwala na optymalizację produktywności struktury zasobowej oraz znalezienie wąskich gardeł w odniesieniu do obciążeń kluczowych zasobów przy tworzeniu harmonogramów działania organizacji. Równie użytecznym jest stosowanie modelu RDF przy projektowaniu systemów IT, ponieważ można ograniczyć się wyłącznie do grupy zasobów związanych z funkcjonalnością przetwarzania informacji. Przykładem mapy zasobów na najbardziej ogólnym poziomie może być struktura systemu IT w typowej stacji obsługi samochodów przedstawiona poniżej na rys. 2.6 (obraz dotyczy jedynie zasobów IT, podobne można stworzyć dla innych grup zasobów). W zaprezentowaanym na rys. 2.6 modelu każdy element zasobu powinien mieć odnośnik do kodu procesu, który wymaga jego użycia oraz kodu stanowiska pracy, do którego jest przypisany. Umożliwia to stworzenie map relacyjnych szczególnie użytecznych przy projektowaniu systemów IT, wspomagających zarządzanie. 143 Resource Description Framework (nazwa i znaczenie przejęta z informatyki). 96 Rys. 2.6 Rozmieszczenie zasobów IT w strukturze stacji obsługi samochodów 2.2.3 Procesy w organizacji i ich znaczenie dla zarządzania Procesy w organizacji stanowią kluczowy element jej funkcjonalności. To właśnie w trakcie ich realizacji powstaje wartość. Zbiór procesów realizowanych przez organizację stanowi jedną z jej reprezentacji formalnych i pozwala na ilościowe opisanie wyniku działania, albowiem każdy proces ma zdefiniowany stan w chwili rozpoczęcia i po jego zakończeniu. To ma znaczenie fundamentalne, podobnie jak w ujęciu zasobowym. Dlatego procesowe podejście do opisu organizacji obok zasobowego jest najbardziej wartościowe z punktu widzenia zarządzania. Można przyjąć następującą metaforę kognitywną144: ujęcie zasobowe organizacji w języku informatyki stanowi opis jej hardware, podczas gdy ujęcie procesowe odpowiada opisowi jej software. Warto zauważyć, że zbiór procesów stanowi istotny element rdzenia łańcucha wartości organizacji (rys. 2.4). Definicja procesu wg słownika PWN: „Jest to przebieg następujących po sobie i powiązanych przyczynowo określonych zmian”, jest literacko poprawna, ale oddaje w sposób niepełny sens epistemologiczny tego pojęcia z punktu widzenia zarządzania, albowiem słowa „przyczynowo” i „określonych” muszą zostać sprecy- 144 Gospodarek T., „Modelowanie…”, op. cit. str. 17 97 zowane. Dlatego podejmując się zdefiniowania procesu z obszaru łańcucha wartości organizacji należy wykorzystać wcześniej zaprezentowaną definicję organizacji (str. 77) i przyjąć następujące rozwinięcie: Df: Procesem biznesowym nazywamy zamierzone działanie organizacji w czasie, prowadzące do mierzalnej zmiany stanu jej zasobów, użyteczności lub funkcjonalności. Takie określenie procesu obejmuje wszystkie możliwe kombinacje dla „określoności” działań. Zmiana stanu zasobów może oznaczać wygenerowanie wartości przez organizację, wymiany części zasobów lub pozyskania nowych. Może dotyczyć zmian kapitału, w tym intelektualnego oraz materiałów do produkcji. Zmiana użyteczności może być związana z innowacyjnością lub modyfikacją portfelową oferowanych produktów i usług. Z kolei zmiana funkcjonalności oznacza optymalizacje w obrębie struktury organizacji, zarządzania nią, itp. Tym samym, naturalnym skutkiem przyjętej definicji jest wyróżnienie czterech typów procesów biznesowych, przebiegających w organizacjach: 1. Procesy operacyjne (kreują pierwotny strumień przychodu, stanowiąc rdzeń biznesowy) np. sprzedaż, produkcja, zakupy. 2. Procesy wspomagające procesy główne (księgowość, rekrutacja, wspomaganie IT, kontrola jakości). 3. Procesy dotyczące zarządzania i wykonywania władzy (w tym zarządzania taktycznego, strategicznego, korporacyjnego, kontrolingu, HR). 4. Procesy przetwarzania informacji i wirtualizacji biznesu (funkcjonowanie warstw middle office i virtual office, budowanie wiedzy, budowanie kapitału intelektualnego). Każdy proces można scharakteryzować za pomocą siedmiu cech. 1. Definiowalność - Należy jasno określić stany wejścia do procesu i wyjścia zeń, warunki brzegowe dla przebiegu działań i ograniczenia tak, żeby można było ustalić różnicę stanu zasobów w czasie. 2. Porządek – Musi zostać określony harmonogram czasowo-zadaniowy czynności zarówno w układzie czasoprzestrzennym, kompetencyjnym oraz rzeczowym. Wynika to z zastosowania modelu koncepcyjnego (workflow). 3. Klient (odbiorca rezultatów) – Każdy proces musi mieć określonego odbiorcę stanu wyjściowego, który jest klientem procesu. 4. Wartość dodana – Transformacja mająca miejsce w procesie musi dodawać wartość dla odbiorcy wprost (rezultat wymierny) lub pośrednio (za pomocą zmiany stanu zasobów, użyteczności, funkcjonalności, etc.). Innymi słowy każdy proces biznesowy ma zdefiniowaną funkcję celu w formie wymiernej, określającej wynik procesu. 5. Relacja inkluzji – Proces nie może istnieć sam dla siebie, musi być zawarty relacyjnie w strukturze organizacji pozostając w synergii z pozostałymi. Oznacza to, że można stworzyć mapę procesów, stanowiącą model koncepcyjny funkcjonowania organizacji i jedną z jej reprezentacji formalnych. 98 6. Relacja przynależności - Proces powinien mieć zdefiniowanego właściciela procesu, odpowiadającego za jego przebieg, rozwój i monitoring. Stanowi to warunek sine equa non zarządzania. 7. Uniwersalność – Proces zasadniczo, ale niekoniecznie, powinien obejmować kilka czynności, które można opisać formalnie np. za pomocą dokumentów, wyników pomiarów lub przetworzonej informacji. Powyższy zbiór cech generuje model ilustracji przebiegu i dokumentowania procesów dla celów stworzenia mapy procesów organizacji i tym samych stworzenia fundamentów białej księgi organizacji rys. 2.7. Jest to przypadek, gdzie powstaniu wartości dodanej w procesie AB towarzyszy rozpraszanie pewnej ilości kapitału (koszty produkcji, zużycie materiałów, amortyzacja maszyn, koszty pracy pracowników, inne koszty). Rys. 2.7 Opis przebiegu procesu biznesowego Proces rozpoczyna się w chwili tA, a stan przypisanych mu zasobów na wejściu oznaczony jest jako A (przed realizacją celu) i jest mierzony za pomocą zbioru zmiennych Ф(A,tA). Koniec procesu oznaczany jest jako B i ma zostać osiągnięty w chwili tB (po zrealizowaniu celu). Stan B różni się od A, ale jest opisany za pomocą zbioru tych samych zmiennych co w stan A, tyle że o innych wartościach Ф(B,tB). Dla tego procesu istnieje funkcja celu L(A,B), co do której można wnosić, że opisuje jakieś optimum działania (minimum kosztów, maksimum 99 efektywności, minimum czasu, minimum strat, etc.). W naszym przypadku z rys. 2.7 jest to minimum kapitału utraconego (rozproszonego), co oznaczono jako L kapitalmin B tB A t A _ rozproszon y Proces AB jest uruchamiany przez menedżera, który dysponuje informacją wstępną, umożliwiającą podjęcie racjonalnej decyzji o jego uruchomieniu lub wstrzymaniu. Z chwilą uruchomienia dokumentuje on stan A za pomocą ustalonych dokumentów i zbioru parametrów Ф(A,tA). Po zakończeniu procesu i osiągnięciu stanu B, menedżer procesu dokumentuje informację za pomocą takich samych dokumentów oraz zbioru parametrów Ф(B,tB). W ten sposób tworzy informację zwrotną (feedback), a jednocześnie wynik procesu przekazywany jest do odbiorcy rezultatu (klienta). Ten dokonuje oceny, czy osiągnięto wynik zadowalający stosując kryteria oceny aksjologicznej, które odpowiadają określeniu: dobry, pozytywny, zadowalający etc i dokumentuje fakt otrzymania wartości dodanej za pomocą ustalonego formatu dokumentu (np. przyjęcie z produkcji, dowód wewnętrzny, …), który został przyjęty w ramach funkcjonowania struktury organizacji. Równocześnie za pomocą odpowiednich dokumentów opisywane są stany A oraz B procesu, co umożliwia pomiar. Mapa procesów organizacji Jeżeli uda się opisać pewien zbiór procesów w sposób opisany powyżej, definiując przy okazji miarę rezultatu oraz kryteria oceny aksjologicznej, możliwe jest stworzenie mapy procesów, stanowiącej reprezentację formalną modelu funkcjonalnego organizacji. Jest to zagadnienie szczególnie istotne przy wdrożeniach systemów IT wspomagających zarządzanie, zwłaszcza klasy ERP. Komputer wymaga modelu semantycznego zadania w języku sformalizowanym, tak żeby można było stworzyć zbiór algorytmów w języku formalnym (programowania) odwzorowujący w sposób wzajemnie jednoznaczny rzeczywistość i jej obraz abstrakcyjny145. W ten sposób można skatalogować całość działalności organizacji. Dla ułatwienia opisu procesów, można zastosować następujący model semantyczny: Proces – nazwa, Kategoria – proces główny, pomocniczy, IT Typ – określa grupę procesów o podobnym workflow (np. sprzedaż), Cel – funkcja celu procesu (definicja miary wyniku), Wartość dodana w procesie i jej miara (różnica wartości stanów po i przed), Czynności – ciąg logiczny harmonogramu workflow procesu, Właściciel (menedżer, który inicjuje start procesu i jego kontrolę), Odbiorca (klient otrzymujący dokument końcowy), Uczestnicy (przetwarzający informacje źródłowe i dokumenty), 145 Gospodarek T., „Systemy ERP. Modelowanie, projektowanie, wdrażanie”, Helion, Gliwice, 2015. 100 Dokumenty opisujące proces - ich cechy (szablony) oraz adresy docelowe, Zasoby powiązane z procesem (stany magazynowe, kapitał,…), Relacje procesu (powiązania z innymi procesami). Ilustracją może być schemat (mapa procesów) dla dokumentu faktura, przedstawiony na rys. 2.8. Na schemacie tym połączono ze sobą procesy w grupy i przyporządkowano im odpowiednie zasoby według modelu RDF. Pozostaje jeszcze wpisać proces w mapę zadań (workflow) oraz dołączyć dokumenty opisujące do obiegu dokumentów w organizacji. W ten sposób powstaje kompletna reprezentacja formalna organizacji, zwana niebieską księgą. Podsumowanie Jak łatwo zauważyć, każdą organizację można rozpatrywać jako unikatową mapę procesów, co sugeruje zasadność powołania koncepcji ujęcia procesowego, jako ważnego konstruktu teoretycznego zarządzania. Ujęcie procesowe jest ważnym modelem epistemologicznym i punktem wyjścia dla rozważań wspomagania zarządzania za pomocą technologii IT. Stanowi najbardziej sformalizowaną reprezentację organizacji, umożliwiającą definiowanie stanu, wyników działania oraz monitoring łańcucha wartości. Każdy zarządzający organizacją powinien dążyć do stworzenia mapy procesów w układzie relacyjnym z opisem stanowisk i kompetencji oraz obiegiem informacji. W ten sposób powstanie niebieska księga zarządzania, umożliwiająca jednoznczne modelowanie semantyczne na poziomie języków formalnych. W konsekwencji można zbudować system ERP146. 146 Gospodarek T., „Sytemy ERP, …”, op. cit. 101 Rys. 2.8 Przykładowa mapa przetwarzania faktury zakupu w języku UML 147 147 Ibid. str. 71 2.2.4 Organizacja jako układ warstw logicznych W opisie łańcucha wartości organizacji, a zwłaszcza jej struktury, korzystnie jest używać modelu warstw logicznych mapy zadań, który pozwala na uproszczenie map procesów, workflow oraz przydziału zasobów przy praktycznej realizacji tworzenia białej lub niebieskiej księgi organizacji. Wyróżniamy trzy zasadnicze warstwy logiczne funkcjonalności, są to: front office, middle office i back office. Do tego można dodać warstwę virtual office, reprezentującą funkcjonalność części wirtualnej biznesu danej organizacji. Warstwa front office 1. Zadania realizowane przez warstwę front office to jest kontakt bezpośredni z klientem, wszelka sprzedaż, obsługa zamówień, zarządzanie bazą danych klientów, ustalanie i monitorowanie planu sprzedaży, prognozowanie rynku, zarządzanie portfelem towarów i usług. 2. Procesy główne realizowane w tej warstwie to jest: sprzedaż towarów, sprzedaż usług, sprzedaż wyrobów, zamawianie towarów, zbieranie i przetwarzanie zamówień od klientów, marketing, rozliczenia sprzedaży, rozliczenia z klientami, kontroling operacyjny przychodów ze sprzedaży. 3. Procesy pomocnicze stanowią wystawianie dokumentów źródłowych (faktury, oferty, zamówienia, dokumenty kasowe, dokumenty relacyjne do dokumentów sprzedaży, dokumenty zakupu), usługi świadczone wewnętrznie (sprzedaż wewnętrzna, baza klientów, obsługa CRM, wirtualizacja sprzedaży), prognozowanie popytu, 4. Procesy zarządcze to jest zarządzanie relacjami z klientami, kontroling operacyjny (raporty o sprzedaży dotyczące: kontrahentów, dokumentów, obrotu towarowego, usług wewnętrznych), 5. Zasoby warstwy front office stanowią systemy sprzedaży, CRM, systemy ICT, sieć LAN/WAN i Internet, itp. 6. Relacje z warstwą middle office polegają na ustalaniu formatów dostępie do formularzy, szablonów, algorytmów, kontroli i analizy danych, transferach danych, stosowaniu obiegów dokumentów, procedur, norm i instrukcji). 7. Relacje z back office polegają na wymianie online danych księgowych, danych o płatnościach, danych magazynowych, dokumentów sprzedaży, dokumentów magazynowych, danych kadrowo-płacowe (naliczenia prowizji, przerobów, realizacji planów)). Powyższy układ projektu warstwy front office zapewnia czytelne relacje z zasobami oraz procesami obsługi klienta, co prowadzi do czytelności map procesów oraz map zadań, ograniczonych do sprzedaży i relacji z klientami. Warstwa back office 1. Zadania realizowane przez warstwę dotyczą ograniczonego kontaktu z klientem. Ma to miejsce po nawiązaniu relacji przez warstwę front office (np. uzgodnienia księgowe, kontrola płatności, uzgodnienia formatów wymiany danych). Do back office należy obsługa wewnętrzna procesów zarządczych, których klienta nie dotyczą, w tym: zarządzanie danymi księgowymi, kadrowymi, zarządzanie organizacją, kontroling. 2. Procesy główne realizowane w warstwie back office to są wszelkie rozliczenia finansowe, fizyczna realizacja kontraktów, zarządzanie zasobami, działania HR, kontrola funkcjonalności, efektywności, wyniku, itp. 3. Procesy pomocnicze polegają na wystawianiu dokumentów źródłowych (zamówienia dostawy, dokumenty relacyjne do dokumentów sprzedaży, dokumenty zakupu, finansowe, kadrowo-płacowe), a także dokumentowania usług świadczonych wewnętrznie (kontrola dokumentów, księgowanie, kontrola płatności między działami). Są to również ustalenia położenia ekonomicznego, raportowanie taktyczne, rozliczenia i rozrachunki. 4. Procesy zarządcze dotyczą zarządzania relacjami w organizacji, kontrolingu taktycznego (eaporty zintegrowane, budżetowanie, kontrola strategii, ustalanie parametrów) oraz analizowanie kluczowych wskaźników efektywności KPI (rozdział 4.9.1), 5. Zasoby warstwy back office stanowią różne elementy, takie jak: system FK i jego moduły satelickie, sieć LAN/WAN, moduł EIS (definiowanie raportów i ich układu), zasoby produkcyjne, zasoby ludzkie związane z produkcją i wykonawstwem, surowce i materiały. 6. Relacje z middle office polegają na dostarczeniu wiedzy: formaty wymiany informacji, formularze, szablony, algorytmy, kontrola oraz analiza danych, zabezpieczenie danych, transfery danych, obiegi dokumentów, szablony procedur, instrukcje. 7. Relacje z front office polegają na kontroli działania oraz dostarczaniu danych rzeczywistych o stanach magazynowych, dostępnych zasobach, rozrachunkach (dane dokumentowe, dane o sprzedaży, dane o płatnościach, dane magazynowe, dane o kontrahentach) Powyższy układ logiki działania warstwy back-office pozwala na szczegółowe określenie zadań w projekcie funkcjonalnym organizacji (white print) i ograniczyć złożoność map procesów oraz map zadań (wyłączenie elementów pozostałych warstw). Warstwa middle office 1. Zadania middle office wiążą się z brakiem kontaktu z klientem, obsługa wewnętrzna procesów od strony zapewnienia zasobów IT oraz dokumentowa- 104 2. 3. 4. 5. 6. 7. nia, zarządzanie wiedzą oraz systemem IT, przygotowanie algorytmów, szablonów raportowych, kwerend konsolidacji, procedur, map wiedzy, obiegów dokumentów, etc. Procesy główne realizowane w warstwie middle office dotyczą wsparcie informacyjnego procesów sprzedaży, logistyki wewnętrznej i zewnętrznej, dostarczania wiedzy dla warstwy back office, itp. Procesy pomocnicze polegają na realizacji obiegu dokumentów i informacji, zabezpieczeniu danych oraz dostępu do informacji w całej organizacji, mapowanie wiedzy, nadzór nad systemem IT, tworzenie szablonów raportów, algorytmów i procedur, tworzenie procedur, instrukcji, projektów. Procesy zarządcze dotyczą zarządzania wiedzą, systemem IT, siecią, obiegiem informacji, bezpieczeństwem IT. Zasoby warstwy stanowią: system IT na poziomie administratora systemu, sieć LAN/WAN, oprogramowanie serwerowe i komunikacyjne, systemy bezpieczeństwa danych, pracownicy wiedzy organizacji. Relacje z front-office i back office polegają na ustalaniu formatów, formularzy, szablonów, algorytmów, kontroli, zabezpieczeniu i transferach danych, obiegów dokumentów, szablony procedur, instrukcje, zasilania systemu CMS organizacji. Relacje wyłącznie z back office dotyczą kontrolingu od strony projektowania i ustalania metod pomiarowych położenia finansowego oraz wyników łańcucha wartości, w tym: wskaźników położenia ekonomicznego, monitorowania kosztu własnego, efektywności zatrudnienia, opłacalności, oraz algorytmów i formularzy budżetowania działów sprzedaży, ocen okresowych. Warstwa virtual office 1. Zadania – przenieść funkcje i usługi warstwy front office do sieci Internet. 2. Procesy główne realizowane w warstwie virtual office to jest sprzedaż internetowa i e-logistyka. Mogą to być również e-usługi (np. e-government), funkcje klienta CRM, pozyskiwanie danych dla systemów BI. 3. Procesy pomocnicze dotyczą zarządzanie informacją, dokumentami generowanymi w formie elektronicznej, transferów danych do warstwy back office oraz wymiana danych z front office, funkcje menedżerskie CRM, funkcje prezentacyjne CMS. 4. Procesy zarządcze związane są z zarządzaniem relacjami z klientami, zarządzanie portalem www, zarządzanie prezentacjami CMS. 5. Zasobami warstwy są pracownicy działu marketingu i sprzedaży online, systemy IT, CRM oraz CMS, usługi świadczone przez warstwę middle office. 6. Relacje z front office polegają na uwspólnieniach danych dotyczących klientów oraz sprzedaży. 105 7. Relacje z back office dotyczą transferów dokumentów, danych dotyczących fizycznych stanów magazynowych, informacji o klientach (płatnościach). 8. Relacje z middle office stanowią usługi w ramach systemu CRM oraz CMS, konfiguracje praw dostępu na serwerach LAN/WAN, prezentacje wirtualne na stronie, konfiguracja platform portalu korporacyjnego lub strony www. Można zauważyć, że warstwa midle office stanowi wydzieloną warstwę inteligencji organizacji. Jest dostawcą wiedzy dla pozostałych warstw. Jej istnienie pozwala zbudować kluczowe kompetencje i wykorzystywać je. Dlatego mapy zadań dla warstwy middle office wydają się być szczególnie istotne we wszelkich rozważaniach na temat struktury organizacji, a relacje międzywarstwowe muszą być bardzo precyzyjnie dokumentowane. 2.3 Człowiek w organizacji W kolejnym punkcie rozważań warto odnieść się do roli człowieka w organizacji i jego unikalnych zachowań, opisanych w rozdziale 1.1.1. Jest to kolejne złożone zagadnienie w teorii i praktyce zarządzania, co przekłada się na trudności w opisie stanu podmiotu oraz jego procesów biznesowych. Istnieją możliwości opisu stanu zasobów, co częściowo rekompensuje niedogodności wynikające z możliwych zachowań ludzkich w organizacji. Efektem może być optymalizacja zachowań organizacyjnych i społecznych. Ale nawet rozważając kwestie ryzyka działalności, to zatrudnienie pracownika lub jego funkcjonowanie w organizacji kategoryzowane jest do grupy ryzyka hazardowego, co znacząco wpływa na możliwości ścisłego opisu stanu organizacji. 2.3.1 Relacje człowieka i organizacji W rozdziale 1.1.1 wskazano, że człowiek podejmujący działalność gospodarczą lub podejmując pracę w ramach istniejącej organizacji nawiązuje szereg relacji. Wiążą się one z możliwością zaspokojenia potrzeb i uczestnictwa w konsumpcji dóbr (rozdział 1.2). Z punktu widzenie zarządzania organizacją, najważniejszymi relacjami stają się wszelkie zależności formalne człowiek – organizacja oraz nieformalne człowiek – grupa i człowiek – otoczenie. Wiąże się to z uwspólnieniem celów indywidualnych z celami organizacji. Im bardziej obie te kategorie celów będą zbieżne, tym większa efektywność pracy pracownika zostanie osiągnięta, co zazwyczaj przekłada się na wyższą efektywność funkcjonowania organizacji. Pamiętajmy jednak, że w relacjach jednostka – grupa reguła przekory ma szczególne zastosowanie. Można wskazać pięć najważniejszych rodzajów interakcji, organizacja - pracownik: 106 Włączenie lub eliminacja jednostki polegające na ocenie przydatności, uświadomieniu podjęcia decyzji o włączeniu lub eliminacji, budowaniu zasad etycznych relacji i kryteriów umożliwiających bezstronne sądy w zakresie włączeń lub eliminacji. Eliminowanie zjawisk patologicznych (nepotyzm, kumoterstwo, protekcja). Utrzymanie wartościowej jednostki w strukturze, na co składają się działania edukacyjne, aspekty identyfikacji z organizacją, procesy adaptacji w grupie oraz generowanie wysokiej użyteczności jednostki dla osiągania celów organizacji i własnych. W tej kategorii mieszczą się działania motywacyjne, sprawowania władzy i przywództwa. Wywołanie stanu niezawodności pełnionej roli, poprzez odpowiednie umiejscowienie kompetencyjne, udostępnienie wiedzy i działania integrujące z organizacją i jej zasobem ludzkim. Wykorzystuje się w tym celu motywacje szkoleniowe, awanse poziome, powierzanie zadań wymagających włączenia procesów wiedzy, wymianę informacji oraz zachowania inteligentne. Zachowania stabilizujące, takie jak: działania lojalnościowe wobec organizacji, ochrona tajemnicy służbowej, tworzenie silnych relacji wewnątrzorganizacyjnych w grupie lub zespole. Są one niezbędnym działaniem zarządzania kadrami i organizacją jako całością. Obniżają ryzyko hazardowe wynikające z nieprzewidzianych działań ludzkich. Generowanie wartości dodanej, wykraczające poza zakres pełnionej roli, zdefiniowanej w zakresie obowiązków, np. działania kooperacyjne, twórcze (wynalazki, sugestie ulepszające organizację), stwarzanie korzystnej dla organizacji atmosfery w otoczeniu. Dotyczy to wbrew pozorom wszystkich pracowników, a nie tylko pracowników wiedzy. To właśnie jest najlepszą cechą japońskich systemów produkcji, zwłaszcza Kaizen i Kanban148. Na relacje w organizacji mają szczególny wpływ oczekiwania dwustronne, a więc pracownika od organizacji oraz organizacji od pracownika. Czego zatem oczekuje pracownik od zatrudniającej go organizacji? Z teorii potrzeb A.Maslowa (rys. 1.5), osiągnięć McClellanda149, motywacji C.Alderfera150, oczekiwań V.Vrooma151 i celów E. Locke’a152, wynikają cztery fundamentalne grupy oczekiwań: 148 Imai M., op. cit McClelland D.C., „Human…”, op. cit. 150 Alderfer C.P., “Existence, Relatedness, and Growth; Human Needs in Organizational Settings”. Free Press, New York 1972. 151 Vroom V.H., “Work and Motivation”, J. Wiley & Sons, 1964, [paperback] Jossey-Bass Publishers, San Francisco, 1995. 152 Locke, E. A.; Shaw K. N.; Saari L. M., Latham, G. P., "Goal Setting and Task Performance: 1969–1980", Psychological Bulletin (American Psychological Association) 90(1), (1981), 125–152. 149 107 1. spełnienia potrzeb w zakresie bezpieczeństwa ekonomicznego (godziwa zapłata, wraz z gwarancją stabilności jej uzyskiwania w dłuższym horyzoncie czasowym), 2. spełnienia potrzeb przynależności (afiliacji i identyfikacji z organizacją stanowiącą system społeczny z wartością), etycznych i moralnych zachowań relacyjnych, (to czego zwykle korporacje nie zapewniają), 3. spełnienia potrzeb wyróżnienia się i budowania pożądanego własnego wizerunku wobec otoczenia, które dzięki prestiżowi organizacji oraz pozycji zajmowanej w firmie mogą zostać spełnione, 4. spełnienia celów dalekiego horyzontu czasowego, związanych z uznaniem społecznym, poszanowaniem oraz godnym życiem. Jeżeli organizacja potrafi zaspokoić wspomniane potrzeby, pracownik może w zamian zaoferować pożądane zachowania organizacyjne i wnieść wartość dodaną do jej funkcji celu. Warto zwrócić uwagę na szczególną rolę menedżera w analizie możliwości spełniania potrzeb przez organizację względem pracownika oraz odpowiedniego sterowania dostępnymi środkami dla ich rzeczywistej realizacji. Zdefiniowane potrzeby pracownicze mogą generować powstanie nowych organizacji, usług i dóbr komplementarnych, umożliwiających ich spełnienie oraz budowanie nowych relacji z otoczeniem (związki zawodowe, usługi medyczne i socjalne, stowarzyszenia tematyczne), rozszerzając istniejący, globalny łańcuch dostaw o usługi niezwiązane bezpośrednio z generowaną wartością. 2.3.2 Model systemowy budowania relacji w organizacji W analogii do koncepcji systemowego ujęcia działalności gospodarczej z rys. 1.18, można zaproponować podobny przedstawiony model na rys. 2.9. W zaprezentowanym modelu jednostka adaptująca się w grupie zadaniowej w czasie t1 posiada określone zasoby oraz ma ustalone cele. Grupa w tym samym czasie również posiada zasoby i cele, które zwykle są wartościowsze dla organizacji niż te, oferowane przez jednostkę adaptującą się (ale nie mui to być być prawdą). Skuteczne dopasowanie przyjmowanej jednostki do zespołu polega na uwspólnieniu zasobów oraz celów. Odbywa się to na drodze zadań zlecanych przez organizację, stanowiącą najbliższe otoczenie dla zespołu. W czasie wspólnej pracy w wyniku realizacji procesów biznesowych powstaje wartość w otoczeniu. Przy okazji jednostka i grupa nabywają korzyści pośrednich. Po upływie pewnego czasu do chwili t2 pracownik nabywa doświadczenia, kluczowych kompetencji, którymi dysponuje grupa, odkrywa pewną wiedzę ukrytą (model SECI rys. 1.12) oraz buduje relacje formalne i nieformalne. Cały czas dokonywane są oceny aksjologiczne rezultatów w kategoriach dobry-zły zarówno przez jednostkę, jak i przez grupę. Jeżeli przeważają oceny dodatnie, można przyjąć, że jednostka jest zaadaptowana przez zespół, w przeciwnym przypadku konieczne są zmiany in- 108 dywidualne, stosownie do wymagań stawianych przez grupę. Z tej pozycji następuje kolejny cykl adaptacji. Czasami wskazane są działania coachingowe (rozdział 4.5.3). 109 Rys. 2.9 Model integracji jednostki z grupą w ujęciu systemowym 153 153 Gospodarek T., „Zarządzanie…”, op. cit. str. 184. Takie dopasowanie osoby do grupy metodą kolejnych przybliżeń powoduje, że zbudowany zespół staje się drużyną. Osoby nie potrafiące przystosować się odpadają i mogą być zastąpione przez innych. W zespołach adaptatywnych przywództwo wyłania się samoistnie, a liderzy grupy mogą się zmieniać w zależności od zadań powierzonych przez organizację. Model ten wykorzystywany jest do budowania zespołów scrum154 w metodzie agile management155. Zarządzanie agile jest szczególnie mocno rozwijane w organizacjach opartych na wiedzy oraz twórczych, tam gdzie formalne struktury nie sprawdzają się lub tam gdzie wynik końcowy projektu nie jest dokładnie znany. 2.3.3 Pracownik w organizacji Jednym z fundamentalnych zagadnień zarządzania jest uzgodnienie celów organizacji z celami jej pracowników. Im lepiej to zostanie zrealizowane, tym bardziej efektywną staje się struktura generująca wartość. Pokrewnym zagadnieniem jest kwestia: dlaczego pracownik ma się dodatkowo wysilać i realizować założenia planów oraz dyscypliny organizacyjnej. Znana zasada „kija i marchewki” jest tu wystarczającym wyjaśnieniem. Bardziej naukowo, jest to równoległe stosowanie dwóch, przeciwstawnych imperatywów hipotetycznych: jeżeli nie będziesz realizować planów, to zostaniesz zwolniony z pracy, który jest równoważony przez: jeżeli będziesz się starać i realizować plany, otrzymasz nagrodę. Ta równowaga jest zależna od stylu zarządzania organizacją i stała się fundamentem działu zarządzania zasobami ludzkimi (Human Resources HR). Istnieją trzy koncepcje behawioralne funkcjonowania pracownika w organizacji, nazwane „X”,”Y” (D. McGregor) 156 oraz „Z” (A.Maslow, G.Ouchi) 157. Można je przedstawić syntetycznie, tak jak w tabeli 6. Koncepcja McGregora zakłada dwa przeciwstawne ujęcia zachowań pracowniczych i odpowiadających im relacji menedżerskich (X i Y). Jak można się spodziewać, wychodząc z dwóch przeciwstawnych zbiorów założeń, można otrzymać wiele kombinacji sytuacyjnych, prowadzących do głębokich niejednoznaczności interpretacyjnych dotyczących optymalnych kierunków zarządzania. Co więcej, nie pozwala to na stworzenie żadnej, sensownej prognozy. Przeciwstawieniem tej sytuacji jest koncepcja „Z”, która zakłada partnerstwo pomiędzy pracownikiem a organizacją za punkt wyjścia dla wspólnego kreowania wartości. Stanowi ona podstawę adaptatywnych systemów zarządzania i systemowego ujęcia human resources. Koncepcja „Z” ugruntowała socjologiczny nurt w zarządzaniu uwzględniający potrzeby pracownika w miejscu 154 Scrum guides, http://www.scrumguides.org/ Agile https://pl.wikipedia.org/wiki/Programowanie_zwinne 156 McGregor D., http://www.accel-team.com/human_relations/hrels_03_mcgregor.html 157 Wikipedia, „Theory Z”, http://en.wikipedia.org/wiki/Theory_Z 155 pracy. To jest najbardziej racjonalne na dzień dzisiejszy ujęcie kwestii budowy kapitału społecznego. Tabela 6 Koncepcje funkcjonowania pracownika w organizacji. Koncepcja X Koncepcja Y Przeciętny pracownik jest leniwy, nielubiący swojej pracy i stara się wykonać jak najmniej. Pracownicy nie są z natury leniwi. Otrzymując szansę pracy wykonają ile się da dla dobra organizacji Żeby być pewnym, że pracownicy pracują wystarczająco ciężko, należy prowadzić ścisłą kontrolę. Menedżerowie powinni tworzyć ścisłe zasady pracy i wdrażać określony systemu nagród i kar w celu kontroli pracowników. Aby umożliwić pracownikom pracy w interesie organizacji, menedżerowie muszą tworzyć scenografię pracy, która umożliwia pracownikom wykazania inicjatywy i samoukierunkowania. Menedżerowie powinni dążyć do decentralizacji władzy, przenosząc ją na pracowników i upewnić się, że posiadają niezbędne zasoby do osiągnięcia celów organizacyjnych. Koncepcja Z Zaleca się traktowanie pracownika jako człowieka zaangażowanego w wiele dziedzin życia, a nie tylko jako ogniwo łańcucha produkcji W miejscu pracy należy tworzyć szanse wykorzystania i rozwinięcia zdolności oraz talentów pracowników. Należy zapewnić dobra i usługi, warunkujące przyzwoity poziom egzystencji pracownika i jego komfort pracy Konieczne jest stworzenie możliwości współdziałania grupowego w celu eliminacji egocentryzmu indywidualnego. Należy włączać wszystkich do procesu zarządzania. Motywacja Ważnym zagadnieniem wynikającym z relacji pracownik organizacja jest motywacja. Jest to problem każdego menedżera, jak zmotywować swojego pracownika do podejmowania zadań stanowiących cele organizacji, zarówno te operacyjne, jak i strategiczne. Kwestii tej został poświęcony rozdział 4.5.2. Kapitał ludzki Człowiek w organizacji stanowi fundament najbardziej jej istotnego zasobu związanego z wiedzą, kreatywnością, przedsiębiorczością, innowacyjnością oraz samorefleksją. Te elementy składają się na kapitał intelektualny i kulturę organizacji. Analizując strukturę kapitału uogólnionego (rys. 1.17) możemy zauważyć, że to jest domena zasobu ludzkiego tworzącego organizację. Teatr może się spalić, ale ludzie stanowiący zespół teatru mogą dalej funkcjonować, bo to oni tworzą sztukę i stanowią o jego kapitale intelektualnym. W każdej organizacji mamy do czynienia z pracownikami wiedzy, którzy stanowią jej aktywa, albowiem ich utrata wymaga poniesienia określonych kosztów dla odtworzenia status quo. Zwykle powoduje to dodatkowo utratę potencjalnych korzyści, które można by było uzyskać. 112 W odróżnieniu od pracowników wiedzy organizacje mogę dysponować zasobem ludzkim nie będącym pracownikami wiedzy. Ci stanowią wyłącznie koszt dla organizacji, ale bez tego nie uda się wytworzyć wartości. Poprzez procesy absorpcji i dyfuzji wiedzy zasób ludzki może się uczyć, zdobywać doświadczenie i kompetencje, przekształcając się w kapitał ludzki. Dobrze zgrany zespół pracowników wykonujących proste czynności staje się cennym zasobem, albowiem pozyskanie nowych kadr lub przyuczenie do wykonywania procesów może nie być takie proste. Stąd można zakładać, że zarówno pracownicy wiedzy, jak i ci pozostali, stanowią kapitał ludzki każdej organizacji. Na nim można dopiero budować kapitał intelektualny i kluczowe kompetencje, co należy do zadań menedżera. 2.3.4 Menedżer i przywódca To co czasami pozwala na osiągnięcie nieprawdopodobnych wyników w działalności firmy jest zwykle niemierzalne i nieuchwytne. Jest to charakterystyczne dla działania systemów inteligentnych i zasady synergii. Żeby taki stan osiągnąć menedżer musi mieć „to coś”, co pociąga za nim grupę do podejmowania wspólnych działań. Charyzmatyczni menedżerowie osiągali i osiągają sukcesy, motywując swoim zaangażowaniem i geniuszem zespoły ludzi i wytyczając nowe kierunki biznesowe oraz nieprawdopodobne cele. Innowacyjne produkty nie powstałyby zapewne bez udziału przywódców klasy: Enzo Ferrari, Coco Chanel, Steve Jobsa, Elona Muska czy Billa Gatesa. Na tym polega przywództwo i jego rola w biznesie. Przywództwo zaspokaja grupę potrzeb określonych przez piramidę Masłowa (rys. 1.5), związaną z przynależnością i wyróżnieniem się. Dlatego odpowiednie działania ze strony kierownika zespołu, a zwłaszcza dyrektora naczelnego, umożliwiają integrację działań zespołowych i lepsze dopasowanie celów indywidualnych z grupowymi. Nie powinno być zatem zaskoczeniem, że temat przywództwa znajduje się w centrum uwagi dzisiejszych nauk o zarządzaniu i w związku z tym pojawiła się w literaturze przedmiotu znaczna ilość opracowań158,159. Każda organizacja wymaga odpowiedniego typ przywództwa. Wynika ono z rozeznania realizowanych procesów biznesowych, funkcji celu, definicji wartości, zasobów do dyspozycji oraz kultury organizacyjnej. Tylko innowator i wizjoner jest w stanie znaleźć nową, niekonwencjonalną funkcjonalność zasobów. Z kolei agitator jest w stanie wykreować nowe potrzeby w otoczeniu. Stąd właściwym kierunkiem poszukiwań odpowiedniej formy przywództwa w organizacji jest jej strategiczna orientacja rynkowa (rozdział 4.6). 158 159 Avery G.C., „Przywództwo w organizacji. Paradygmaty i studia przypadków”, PWE, Warszawa, 2009. Maxwell J.C., „Przywództwo. Złote zasady”, MT Biznes, Warszawa, 2010. 113 Wśród różnego typu przywództwa, wyróżnianego w literaturze, szczególnie interesujące jest przywództwo wizjonerskie wg H. Mintzberga i F. Westleya160. Na podstawie licznych obserwacji wyróżnili oni kilka typów przywódców - wizjonerów: Kreator (Sakichi Toyoda – Toyota) to osoba, która jest zainspirowana oryginalną ideą i ma osobistą wolę wcielenia jej w życie. To podejście cechuje liderów nowych organizacji lub nowych aktywności w już istniejącej strukturze. Przykład Toyoty, gdzie cały klan rodziny Toyoda tworzył przez lata potęgę gospodarczą Toyoty jest najlepszym. Agitator (Helena Rubinstein – Helena Rubinstein Inc.) to przewidująca osoba z wyobraźnią, która znajduje i wykorzystuje pomysły innych (patenty, koncepcje), po czym wciela je umiejętnie w życie. Potrafi oddziaływać na otoczenie. Podejście to cechuje liderów nowych organizacji oraz twórców innowacyjnych dóbr. Takim agitatorem wizjonerem był Steve Jobs. Idealista (Janusz Korwin-Mikke – partia) to jest typowy perfekcjonista, którego wizja musi do kogoś apelować (musi skrystalizować marzenia elektoratu). Wymaga się od niego podejścia pragmatycznego i mądrości politycznej, aby ożywić wizję i być liderem. Podejście to cechuje liderów misjonarskich organizacji. Majsterkowicz (Tim Cook –Apple) to osoba, która jest bardziej odkrywcza i organizatorska niż twórcza (obdarzona wyobraźnią). Jest ona dobrym strategiem, budowniczym i promotorem, który współpracuje z ludźmi i potrafi natchnąć swoją wizją organizację (głęboki wpływ osobisty i nastrojowy symbolizm). Wróżbita (William Hewlett – Hewlett-Packard) to osoba, która jest oryginalnym myślicielem jako kreator i przenikliwa, jak majsterkowicz. Jej wizja nie jest zogniskowana na produkcie, lecz na procesach. Podejście to cechuje budowniczych organizacji oraz nowej funkcjonalności dostępnych zasobów. Dzisiejsza klasyfikacja przywództwa wyróżnia cztery typy: klasyczny, transakcyjny, wizjonerski i organiczny161. Można również określić zbiór najważniejszych cech charakteryzujących przywództwo w organizacjach. Są to: zasób wiedzy pracowników, źródło władzy przywódcy, poziom władzy pracowników, sposób podejmowania decyzji, styl decyzyjny, forma zarządu, koncepcja zarządu, struktura organizacji, zdolność autoadaptacji oraz rodzaj otoczenia162. Przywództwo i jego analiza nie są badaniami stricte naukowymi. Jest to głównie opis i systematyczne dokumentowanie różnych przypadków bazujące Westley F., Mintzberg H., “Visionary Leadership and Strategic Menedźment”, Strategic Management Journal, vol. 10, (1989), str. 17-32. 161 Avery G.C., op. cit. 162 Gospodarek T., “Zarządzanie…”, str. 182. 160 114 na obserwacjach, nie poddających się uogólnieniom. Jest to typowe zjawisko systemowe, do którego należy podchodzić tak, jak do badania inteligentnych systemów. Każda organizacja stanowi system, co zostało już wcześniej omówione (str. 77) i każda z nich ma swoje unikalne przywództwo. Nie można pomijać faktów, które w sposób ewidentny świadczą o istnieniu relacji przywódca-grupa w organizacjach oraz szczególnej roli psychologii społecznej w badaniu przywództwa. 2.3.5 Aspekty etyczne Tam, gdzie pojawia się człowiek i jego relacje z otoczeniem, pojawiają się kwestie moralności, budowania kryteriów etycznych oraz ocen aksjologicznych postępowania. Nie da się tego aspektu oddzielić od biznesu i jego uwarunkowań ekonomicznych. Normy i zasady etyczne mogą unicestwić najlepiej zapowiadający się koncept gospodarczy, ale również mogą nadać „ludzką twarz” projek- tom biznesowym. 115 Rys. 2.10 Aspekty etyczne zarządzania 163 W dzisiejszych czasach te działania menedżerskie, które charakteryzują się wysoką oceną etyczną, stanowią jeden z czynników higieny pracy. Działania banksterskie są przykładem wysoce niemoralnych przedsięwzięć wykorzystujących głupotę, chciwość lub nieświadomość ludzką (np. polisolokaty lub gra na foreksie) i prędzej, czy później, odbiją się negatywnie na macherach finansowych i ich poplecznikach unurzanych w te procedery. W rozdziale 1.1.2 omówione zostały podstawowe zasady postępowania w relacjach międzyludzkich oraz relacjach organizacja – pracownik. Można w rozwinięciu tych idei zaproponować perspektywę etyczną dla biznesu, przedstawioną na rys. 2.10. W modelu tym odpowiedzialność biznesu analizowana jest w układzie stabilizacja – asertywność wobec odpowiedzialność – rozwój. Menedżer staje przed wyborem po między czterema filarami postępowania moralnego. Są to aspekty: etyki cnoty, etyki budowania systemu, etyki deontologicznej, teleologiczne (prognozy konsekwencjalnej). Aspekty etyki cnoty odnoszą się do relacji człowiek- organizacja oraz zarządzający – pracownik. Jako fundamenty działania odpowiedzialnego i stabilizującego należy wymienić właściwe zarządzanie kadrami (HR), konstrukcja i stosowanie prawa cywilnego oraz właściwa komunikacja społeczna. Kant swoją zasadę etyczną postępowania względem ludzkości sformułował następująco: „Postępuj tak, aby ludzkość nigdy tobie ani innym jednostkom nie służyła za środek lecz zawsze była celem”. Stanowi ona wyraźne odniesienie do złotej zasady postępowania (rozdział 1.1.2). Wyborowi temu odpowiada stabilizacja oraz odpowiedzialność jako wartości nadrzędne. Nie oznacza to, że również inne nie będą brane pod uwagę. Aspekty budowania systemu związane są z optymalizacją. Tak pojęta postawa etyczna oznacza znaczący poziom asertywności menedżera przy zachowaniu odpowiedzialności za działanie kierowanego podmiotu w długim horyzoncie czasowym. W działaniach nadrzędna jest wizja strategiczna oraz intencjonalność podejmowania decyzji. Intencje dotyczą ograniczania ryzyka, optymalizacji działań, budowania właściwych relacji wewnętrznych organizacji oraz jej relacji z otoczeniem. Budowanie systemu wiąże się również z obiektywizmem oceny pracowników i tworzeniem struktur biurokratycznych, gdzie kontrola i nagradzanie stają się bezosobowe, a dodatkowo podlegają formalizacji. Najlepszym cytatem odnoszącym się do postaw etycznych budowania systemu może być wypowiedź P. Druckera „Jeżeli przeciętnemu biznesmenowi zada się pytanie, co 163 Gospodarek T., „Aspekty…”, str. 158 116 to jest biznes, odpowie prawdopodobnie – „to organizacja, która ma osiągnąć zyski”. Tej samej odpowiedzi udzieli najprawdopodobniej każdy ekonomista. Tymczasem ta jest nie tylko fałszywa; jest także dla tematu nieistotna (…) nie oznacza to, że zysk i rentowność są nieważne. Oznacza natomiast, że rentowność nie jest celem przedsiębiorstwa ani działalności w biznesie, lecz ich czynnikiem ograniczającym. Zysk nie stanowi wyjaśnienia przyczyny czy racji bytu działań i decyzji biznesu, lecz sprawdzian jego wartości… Problemem bowiem każdego biznesu nie jest maksymalizacja zysku, lecz osiągnięcie dostatecznego zysku, który pokrywałby ryzyko działalności ekonomicznej, w ten sposób pozwalając uniknąć strat”164. Aspekty teleologiczne dotyczą postaw etycznych, ukierunkowanych na ciągły rozwój adaptatywny i zmianę, jako nadrzędny cel biznesu. Wiążą się z asertywnością postaw i wizjonerstwem w działaniu przy jednoczesnym legalizmie działania (ochrona własności intelektualnej, uczciwość konkurencji, etc.). Przykładem realizowania takiej postawy był Steeve Jobs (Apple). Główną ideą postawy rozwojowej jest tworzenie takich relacji z otoczeniem, żeby to otoczenie wskazywało na kierunki pożądanej optymalizacji i wszelkich zmian, w czym pomaga asertywność w zarządzaniu. W podejmowaniu decyzji dominują postawy konsekwencjalne, racjonalność celów oraz ograniczenie niepewności poprzez wykorzystanie nauki i wiedzy. Myśl reprezentującą takie postępowanie etyczne wypowiedział C. Fourier „Nie tylko do przemysłu stosować należy pojęcie postępu, należy nim objąć również obyczaje i mechanizm socjalny”, która nabiera dodatkowego sensu w kontekście wypowiedzi. G.B. Shaw’a „Człowiek rozsądny dostosowuje się do świata; człowiek nierozsądny z uporem próbuje dostosować świat do siebie. Dlatego wszelki postęp zależy od ludzi nierozsądnych”165. Aspekty etyki deontologicznej nieco rzadziej występują w praktycznym działaniu menedżerów. Upadek moralności przejawia się szczególnie w działaniach marketingu. Deontologizm w działaniu wiąże się z realizacją równocześnie stabilizacji i rozwoju, czyli pozornie sprzecznych ze sobą kwestii. Można jednak doszukiwać się skutecznie faktów opisywanych stwierdzeniami: „stabilizacja przez rozwój” oraz „rozwój dzięki stabilizacji”. Zdanie odzwierciedlające idee takiej postawy etycznej jest trawestacją cytatu L. da Vinci166. Doradcy, którzy zajmują się reorganizacjami powinni zrozumieć wpierw czym jest organizacja, czym jest biznes i czym jest wartość, i w jaki sposób równowaga i harmonia tych elementów je utrzymuje. To właśnie jest głównym przesłaniem postaw intencjonalnych w tworzeniu prawidłowych i sprawiedliwych relacji wewnętrznych w organizacji oraz prowadzenia uczciwej gry rynkowej. W praktyce etyka deontologiczna wiąże się z działaniem sieci, gdzie mamy do czynienia ze stabilizacją jej węzłów przez strukturyzację i wykorzystanie zasobów w całej strukturze przez uwspólnienie. 164 Drucker P., Wikicytaty, https://pl.wikiquote.org/wiki/Przedsi%C4%99biorczo%C5%9B%C4%87 Wikicytaty https://pl.wikiquote.org/wiki/Post%C4%99p 166 https://pl.wikiquote.org/wiki/R%C3%B3wnowaga 165 117 Przykładem może być również działanie antyglobalistyczne, którego celem jest zachowanie równowagi pomiędzy biznesem lokalnym i korporacyjnym. 118 3 Zarządzanie. Zakres, cele, metody Z czym się kojarzy określenie „zarządzanie”? Można w tej kwestii wypowiedzieć cały szereg zdań, mających potwierdzenie w praktycznych obserwacjach. Wszystkie mogą zaczynać się następująco: zarządzanie jest to: proces społeczno ekonomiczny, zbiór sterowanych przemian stanu systemu społeczno ekonomicznego, oddziaływanie człowieka na system społeczno-ekonomiczny, zmiana w czasie relacji w obrębie systemu społeczno ekonomicznego, ustalanie celów przez organizację i wymuszanie ich osiągania, ustalanie sposobów pomiaru stanu podmiotu zarządzanego, monitorowanie w czasie stanu podmiotu zarządzanego, podejmowanie i wdrażanie decyzji, redukowanie niepewności i ryzyka działania, inspirowanie dla działań przedsiębiorczych i innowacyjnych, dokumentowanie i modelowanie zdarzeń biznesowych, prognozowanie i przewidywanie zmian położenia organizacji w czasie, planowanie działań organizacji lub jej części, projektowanie i koordynowanie działań w ramach mapy zadań, tworzenie modeli funkcjonalnych procesów biznesowych, ustalanie struktury i funkcjonalności łańcucha wartości organizacji, ustalanie relacji z interesariuszami organizacji, kierowanie zespołem ludzkim, optymalizowanie efektywności działania, funkcjonalności, elastyczności i użyteczności struktury, działania adaptatywne stosownie do zmian w otoczeniu, ustalanie pozycji rynkowej i konkurowanie. Czy wyczerpano wszystkie, możliwe aspekty zarządzania dla sformułowania jakiejś bardziej sformalizowanej definicji? Z pewnością nie. O samej technice zarządzania można stwierdzić, że jest to założony ciąg podejmowanych decyzji, sztuka tworzenia relacji społecznych oraz więzi ekonomicznych i świadoma reorganizacja zbioru zasobów w celu zmiany ich użyteczności, itp. W dalszej kolejności pojawiają się zapytania: jak definiować system społeczno-ekonomiczny, jak definiować oddziaływania ekonomiczne lub społeczne w obrębie systemu zarządzanego oraz co to jest stan chwilowy systemu? W końcu kwestia zasadnicza - jak przewidzieć rozwój w czasie zarządzanej organizacji w sposób najbardziej akceptowalny? Zarządzanie może dotyczyć stanu mikro (organizacja, sieć franczyzowa) lub makro (jednostka samorządu terytorialnego, gospodarka narodowa, sektor gospodarczy, globalny łańcuch dostaw). To oznacza, że mogą pojawiać się różne metody zarządzania, dobre praktyki oraz efekty i z pewnością to, co dobrze 119 działa w skali mikro, niekoniecznie będzie dobrze funkcjonować w skali makro. W dodatku można oczekiwać podziałów kompetencyjnych menedżerów, różnic w poziomach decyzyjnych oraz splotów decyzji tak, że nie da się określić skutków pojedynczej decyzji, bo te, wcześniej wydane, są jeszcze realizowane. Można natomiast oczekiwać, że w szczególnie korzystnych okolicznościach będą istnieć ciągi decyzyjne posiadające własność Markowa167 i podlegające zasadzie optymalności Bellmana168. Wówczas uznanie skutków decyzji w przedziale czasowym Δtn za optymalne, oznacza, że decyzje podjęte we wcześniejszych przedziałach czasowych niż n-ty, były również optymalne. Powstaje jeszcze do rozważenia kwestia: czym różni się zarządzanie od administrowania? Zarządzanie jest pojęciem szerszym, gdzie administrowanie stanowi jeden z elementów zarządzania. W administrowaniu nie występują elementy: konkurowania, działań adaptatywnych, zachowań behawioralnych, innowacyjność, przedsiębiorczość. Występuje natomiast element biurokracji i relacyjności, opisy formalne procesów, funkcjonalność zasobów oraz hierarchia decyzyjnej, tak jak to definiował M. Weber169. Dlatego władze terytorialne zajmują się głównie administrowaniem z elementami zarządzania (np. kadrami lub zasobami). 3.1 Zarządzanie jako zagadnienie złożone, Złożoność w nauce nie jest pojęciem odnoszącym się do trudności problemu. Jest ona związana z niemożliwością opisania go w sposób jednoznaczny za pomocą istniejących teorii lub modeli. Najczęściej mamy do czynienia z sytuacją złożoności jeżeli opis zachowań obiektu, który opisujemy zależy od zmienności otoczenia, a dodatkowo wykorzystuje on procesy adaptatywne optymalizacji zachowań. Tym samym złożoność odnosi się do badań obiektów, które składają się z wielu elementów składowych, oddziaływujących wzajemnie i równocześnie z otoczeniem. Takie obiekty nazywane są systemami. Gdy próbujemy wyjaśnić jakieś nowe zjawisko posługujemy się modelami kognitywnymi będącymi uproszczeniami rzeczywistości. Na ile dopuszczalne są te uproszczenia zależy od problemu oraz dostępnych teorii. W zarządzaniu mamy do czynienia z szeroko pojętą adaptatywnością, behawioryzmem oraz ograniczoną racjonalnością, co dodatkowo komplikuje poznanie i opis. Gdy próbujemy opisać jakiś fakt z obszaru nauk społecznych za pomocą języka formalnego nauki, popadamy w konflikt równoważności znaczenia z wyrażeniem tego sądu o fakcie w języku potocznym (złożoność semantyczna). Albowiem język, którym posługuje się menedżer dalece różni się od języka teorii formalnych, co Podgórska M., Śliwka P., Topolewski M., Wszołek M., „Łańcuchy Markowa w teorii i zastosowaniach”, wyd. 2, Szkoła Główna Handlowa, Oficyna Wydawnicza, Warszawa, 2002. 168 Bellman R.E., DreyfusS.E., „Programowanie dynamiczne. Zastosowanie”, PWE Warszawa, 1967 169 Zieleniewski J., „Organizacja i zarządzanie”, PWN, Warszawa 1969 s. 111 167 120 można zauważyć w nieniejszej monografii. Kolejnym problemem jest fakt, że jakakolwiek próba opisu rzeczywistego stanu obiektu społeczno-ekonomicznego (systemu) za pomocą skończonej liczby zmiennych, jest tylko przybliżeniem i to zazwyczaj grubym. Jeżeli dysponujemy wiedzą o przeszłości i teraźniejszości, nie możemy wypowiedzieć żadnego sądu pewnego na temat przyszłości. Drugim utrudnienieniem jest fakt, że jeżeli podmiot poznający nie może być rozdzielny z przedmiotem poznania, to popadamy w konflikt racjonalności tego sądu. Dotyczy to sytuacji menedżera, który próbuje opisać stan organizacji, którą kieruje i jest równocześnie jej częścią. Takich problemów poznawczych występuję znacznie więcej. Problemy zarządzania związane ze złożonością omówiono już wcześniej. Dotyczą one roli człowieka w organizacji (str. 14), teorii kontyngencji (str. 10) oraz braku jednoznaczności dopasowania struktury oraz sposobów osiągania wyników przez organizację (str. 77). To stanowi o złożoności zarządzania i konieczności poszukiwań budowania wiedzy za pomocą ujęć systemowych. System stanowiący podmiot badań może być uznany za złożony jeżeli: można w nim określić mnogość relacji i oddziaływań między komponentami (elementami zasobów, podstrukturami) o charakterze nieliniowym, jego stan chwilowy nie może być opisany dokładnie za pomocą skończonej liczby zmiennych (parametrów stanu układu) w danym kontekście, jego rozwój w czasie może być opisany formalnie za pomocą układu równań różniczkowo-całkowych, uwzględniających dane bieżące i przeszłe, jest wrażliwy na warunki początkowe i zmiany parametrów sterujących, co może objawiać się łatwą utratą stabilności, w tym zachowaniami chaotycznymi lub katastroficznymi, można obserwować lub zdefiniować wielość ścieżek jego rozwoju w czasie, ewoluuje w sposób ciągły, wykorzystując zasady autoadaptacji i uczenia się. Wszystkie powyższe aspekty właściwości systemów dotyczą w bardzo istotny sposób problematyki zarządzania praktycznego, czego szczególne dowody przedstawione zostaną w rozdziale 4. 3.1.1 Ujęcie cynefin Jak radzić sobie z problemem złożoności funkcjonowania systemów? Przede wszystkim należy podzielić każdy problem na warstwy logiczne, albowiem redukcja złożoności (o ile się da) jest najlepszą metodą wstępną. Później można próbować ujęć holistycznych. Tak sugeruje metoda cynefin170, której idea zotała zaprezentowana na rys. 3.1. Dla dowolnego problemu ujmowanego s sposób systemowy można wyróżnić pięć domen opisanych poniżej. 170 Snowden D.J., Boone M.E.; “A Leader’s Framework for Decision Making”, HBR, 11,2007 121 Domena prostoty, gdzie relacje pomiędzy przyczyną a skutkiem są oczywiste dla wszystkich. Wówczas można stosować najlepsze praktyki i podejście do problemu na zasadzie: zrozum - kategoryzuj - odpowiedz. Domena komplikacji, gdzie ustalenie relacji przyczynowo-skutkowych wymaga analiz lub innych form badań oraz wiedzy eksperckiej. Podejście do problemu wyczuj - analizuj – odpowiedz. Można przy tym zastosować dobre praktyki, o ile istnieją. Domena złożoności właściwej, gdzie relacje pomiędzy przy-czyną a skutkiem mogą być postrzegane retrospektywnie, ale nie są do przewidze-nia w przyszłości. Podejście metodyczne do problemu: próbuj - wyczuj – odpowiedz. Można stosować praktyki rozwijane (w fazie B+R) Domena chaotyczności, gdzie nie ma relacji przyczynowo-skutkowej na poziomie systemu. Właściwe podejście to działaj - wyczuj – odpowiedz a wówczas można odkryć nowatorskie praktyki. Domena nieuporządkowania- brak metodologii. Działanie metodą prób i błędów, gdzie fundamentem sterującym są informacje pochodzące ze sprzężenia zwrotnego z otoczenia. Rys. 3.1 Koncepcja metody cynefin Metoda cynefin wskazuje na różnorodność możliwych zachowań w zależności od warunków stawianych przez otoczenie. Jednocześnie zwraca uwagę, że 122 nie zawsze podejście agile management (zarządzanie zwinne) przyniesie spodziewany rezultat w rozwiązywaniu problemów systemów złożonych. 3.1.2 Stan organizacji, Ustalenie położenia ekonomicznego organizacji będącej systemem generującym wartość, lub jej komponentu, stanowi jeden z imperatywów każdego menedżera. Kwestia ta jest szczególnie ważna z punktu widzenia wspomagania komputerowego oraz budowy modeli semantycznych dla problemów związanych z podejmowaniem decyzji w niepewności171, oszacowań skutków decyzji172, ustalania wyceny różnych aktywów173,174, analiz zdolności do generowania wartości, pomiaru poziomu udziału rynkowego175, itp. Zasady budowy systemów informatycznych wymagają istnienia jednoznacznych reprezentacji numerycznych problemów praktycznych (np. oceny efektywności zarządzania), co wymaga wprowadzenia modeli formalnych dla zagadnień niematematycznych, typowych dla nauk społecznych. Podstawowymi źródłami inspiracji i analogii naukowych w zarządzaniu wymiernym są nauki przyrodnicze, w szczególności fizyka i chemia, opisujące oddziaływania materii z otoczeniem. Szereg udanych analogii pomiędzy zagadnieniami ekonomii i termodynamiki oferuje ekonofizyka176,177. Szczególnie interesujące są analogie definicji stanu oraz wykorzystania zasad termodynamiki dla analiz zachowań makroekonomicznych178. Pozwala to na zastosowanie równania Clapeyrona opisującego stan gazów doskonałych oraz równania entropii, jako metafor fizykalistycznych stanu systemu ekonomicznego. Należy jednak zachować bardzo daleko idącą ostrożność we wnioskowaniu opartym na takich analogiach, albowiem zachowanie obiektów fizycznych nie jest tożsame z zachowaniami inteligentnymi człowieka179,180. Tym niemniej koncepcje określenia stanu systemu generującego wartość najlepiej przejąć z fizyki. Gospodarek T., “Modelowanie…”, op. cit. Anderson D.R., Sweeney D.J., Williams T.A., Martin K., “An Introduction to Management Science. Quantitative Approaches to Decision Making”, 13th Ed., West Publishing Company, St. Paul 2013. 173 Hull J.C., Options, Futures, and Other Derivatives, 7th Ed., Prentice Hall, Upper Saddle River NJ, 2008 174 Jackson M., Staunton M., „Zaawansowane modele finansowe z wykorzystaniem Excela i VBA”, Wydawnictwo Helion, Gliwice 2004, str. 234-244. 175 Cooper L.G., Nakanishi M., “Market-Share Analysis. Evaluating Competitive Marketing Effectiveness”, Kluwer Academic Publishers, Dordrecht 1988. 176 Mantegna R.N., i inni op. Cit. 177 Mimkes J., “Econophysics and Sociophysics: Trends and Perspectives”. [w] B.K. Chakrabarti, A. Chakraborti, A. Chatterjee (eds.), Wiley-VCH Verlag, Weinheim 2006. 178 Gospodarek T., „Physicalistic Reasoning in Management Science”, Acta Physica Polonica A, 117(4), 2010 179 Mirowski P., “More Heat than Light - Economics as Social Physics, Physics as Nature's Economics”, Cambridge University Press, Cambridge, 1989, 180 Mesjasz C., “Systems Metaphors, Systems Analogies, and Present Changes”, [w] International Relations, Cybernetics and Systems. An International Journal (Vienna), vol. 25, , no. 6, 1994: 763-780, 171 172 123 Większość mierzalnych oddziaływań organizacji z otoczeniem ma charakter ekonomiczny, wyrażany w jednostkach kapitałowyh i wiąże się z przepływami wartości. Zarządzanie powinno prowadzić do optymalizacji oddziaływań z otoczeniem oraz stabilizacji położenia równowagi mikro-makro w długim okresie czasu. Zwykle jednak zarządzanie prowadzi do świadomych wychwiań od położenia równowagi lokalnej, co związane jest z wykorzystywaniem okazji, reakcji na impulsy zaburzające pochodzące z otoczenia, itp. Stąd zarządzanie oddziaływaniami stanowi pewien kompromis w grze, polegający z jednej strony na maksymalizacji funkcji celu zysku organizacji, z drugiej zaś strony na minimalizacji ryzyka destabilizacji równowagi mikro w czasie. Takie postawienie zadania optymalizacji nieliniowej stanowi doskonałe źródło inspiracji dla zastosowań metod fizycznych wnioskowania, które można adaptować dla celów zarządzania. Df. Stanem organizacji nazwiemy wartość funkcjonału zależnego od zbioru parametrów mierzalnych (,,…) opisujących jej łańcuch wartości w danej chwili t. = (,,,…, t) Z powyższego określenia wynika, że stan organizacji nie jest tożsamy z jej chwilową wartością, ale również uwzględnia produktywność, efektywność i zasoby, czyli wszystko to, co składa się na definicję łańcucha wartości ( str. 90). Wartość księgowa albo rynkowa organizacji może być jednym z parametrów stanu o wysokiej wadze istotności. Jeżeli uznamy, że najlepszym miernikiem oceny stanu jest wycena giełdowa danej firmy, to teoretycznie jej stan można mierzyć w sposób racjonalny wartością chwilową akcji (jednym parametrem). Nie jest to całkowicie pozbawione sensu, ale dla menedżera, który ma istotny wpływ na wartość akcji, taka miara nie jest wystarczająca, albowiem nie pozwala na ustalenie przyczyn wewnętrznych stanu. Dysponuje on wiedzą, której nie ma otoczenie, ale oczekuje informacji, które pozwalają na kontrolę parametrów procesów biznesowych. Poza tym zawsze pojawia się kwestia, jak oceniać stan takiej organizacji, jak: mały sklep internetowy, biuro rachunkowe, stacja obsługi samochodów czy gmina. Lemat: Stan organizacji dokonany wyłącznie przez otoczenie nie uwzględnia informacji dostępnych wyłącznie wewnątrz niej, natomiast stan definiowany przez łańcuch wartości nie uwzględnia wyceny przez otoczenie. Z powyższego lematu wynika, że stan może zostać ustalony przy wykorzystaniu koncepcji teorii gier, jako wynik gry dwuosobowej przeciwko otoczeniu, gdzie miarą jest wartość funkcjonału (miara). W praktyce oznacza to, że powinny istnieć całe systemy wielokryterialne ustalające stan. Dlaczego pojęcie stanu jest tak ważne? Otóż definiuje on miarę położenia, taką że zmiana jest pro- 124 stą różnicą dwóch stanów w różnym czasie. Jeżeli o zmiennych możemy powiedzieć, że stanowią układ zupełny181, to wówczas przemiana od stanu 1 do stanu 2 nie zależy od drogi. To pozwala na monitoring ciągły oraz zarządzanie zmianami. Problemem jest jednak złożoność uniemożliwiająca opis rzeczywisty za pomocą skończonej liczby zmiennych. Można jednak próbować stosowania modeli przybliżonych o skończonej liczbie zmiennych i ceteris paribus. Wówczas wiele zagadnień mierzalnych staje się przewidywalnymi z dobrą dokładnością, a przynajmniej możliwe staje się uchwycenie przyczyn zmiany. Z koncepcją stanu powiązane są metody kontrolingu, np. drzewo DuPonta182 lub metoda Altmana 183 oraz metoda kluczowych wskaźników efektywności (KPI)184. We wszystkich z nich fundamentalną zasadą jest zbiór wskaźników stanowiących miarę. Model KPI Model kluczowych wskaźników efektywności (Key Performance Indicators) stanowi zbiór finansowych oraz niefinansowych mierników stopnia realizacji celów organizacji. Jest ważnym narzędzie kontrolingu, ponieważ umożliwia zbudowanie spójnego kryterium oceny zmian położenia ekonomicznego. KPI koncentrują się na tych aspektach funkcjonowania organizacji, które są najbardziej krytyczne dla obecnego i przyszłego jej sukcesu (np. wysokiej wyceny rynkowej). Wskaźniki wchodzące w skład modelu nie są czymś nowym w organizacji, ponieważ najczęściej są lub były już obliczane, ale nie znalazły uznania u zarządzających albo były obliczane w rozproszeniu (np. w różnych działach i nie wykorzystywano ich w wyższych warstwach decyzyjnych). D. Parmenter podzielił kluczowe wskaźniki na dwie zasadnicze grupy: Rezultatu –Mierniki te są przydatne w ocenach wyników pracy struktury organizacyjnej (oddziału, wydziału, etc.), ale nie pomagają zarządzającym rozwiązać problemu źródeł wewnętrznych rezultatu. Trudno jest bowiem ustalić, które elementy działające w tym samym czasie z całej struktury organizacji są odpowiedzialne za osiągnięcie lub nieosiągnięci zakładanego wyniku zbiorczego. Efektywności - mogą być przypisane do zespołu lub klastra zespołów współpracujących dla wspólnego celu. Np. wyniki sprzedaży dziennej, wyniki napraw w dziale usług. Tym samym dobry lub zły wynik może mieć ustalonego adresata. Układ zupełny zmiennych oznacza, że opis danej wielkości za pomocą funkcji zależnej od tych zmiennych jest zgodny z rzeczywistością (eksperymentem, teorią, etc.). Zmiana wielkości opisanej za pomocą układu zupełnego zmiennych dana jest różniczką zupełną funkcji opisującej i nie zależy od drogi (stanów pośrednich). 182 Gołębiowski G., Tłaczała A., „Analiza finansowa w teorii i w praktyce”, Warszawa: Difin, 2009, s. 237. 183 Stabryła A., „Zarządzanie strategiczne w teorii i praktyce firmy”, PWN, Warszawa-Kraków 2002, s. 359 184 Parmenter D., “Key…” op. cit. 181 125 Dlatego mierniki efektywności zapewniają przejrzystość pomiarową i decyzyjną. Nie są z kolei zbytnio użyteczne w zarządzaniu taktycznym i strategicznym. Zdefiniowano siedem grup analitycznych w skutecznie funkcjonujących zestawach KPI, analizowanych dla wielu tysięcy organizacji185. Są to wskaźniki: niefinansowe – te, które nie są mierzalne w jednostkach monetarnych, (np. wydajność, godziny fakturowane, przestoje), szybko zmienne w czasie – mierzone często np. codziennie (sprzedaż dzienna, stan gotówki w kasie), istotne dla CEO - wskaźniki istotne dla zarządu oraz dyrektoriatu (stan zamówień, koszty działalności, wskaźnik rentowności), proste – zrozumiałe dla każdego pracownika, wskazujące wprost działania naprawcze (liczba braków, ilość godzin przestojów), grupowe – za które odpowiedzialność może być przypisana grupie lub strukturze (sprzedaż usług warsztatu, koszty działania działu), istotnego wpływu – takie, które dotyczą więcej niże jednego centrum zysku lub kosztów oraz więcej niż jednej strategicznej karty wyników (koszty pracy, podatki lokalne). ograniczniki słabości - zachęcają do podjęcia odpowiednich działań (zostały wcześniej przetestowane, jako zapewniające pozytywny wpływ na wyniki). Do kontroli w czasie takiego zestawu wskaźników i ich prezentacji online służą systemy informatyczne klasy ERP186, wspomagające zarządzanie i będące miernikami dla sprzężenia zwrotnego w adaptatywnych modelach funkcjonowania organizacji biznesowych. 3.1.3 Cele stawiane przed zarządzaniem Jak już pokazano w poprzednich rozdziałach, zarządzać można systemem generującym wartość w swoim otoczeniu (ekosystemie biznesowym). Stąd można wnosić, że fundamentalnymi celami stawianymi systemom zarządzania i menedżerom są: osiągnięcie zakładanego wyniku ekonomicznego, zaspokojenie w jak najwyższym stopniu interesariuszy, uzyskanie i utrzymanie władzy w organizacji, zawłaszczenie wysokiej pozycji rynkowej, pozyskanie kluczowych zasobów i kompetencji, utrzymanie stanu optymalnej efektywności. Historia myśli ekonomicznej i koncepcje zarządzania w ciągu ostatnich stu lat doprowadziły do optymalności zachowań organizacyjnych w szybkozmiennym 185 186 Ibid. Gospodarek T., “Systemy ERP...”, rozdział 3.9.2 126 otoczeniu i zwiększenia elastyczności na katastroficzne zmiany zachodzące w ekosystemach biznesu. Jednak cele nie zmieniły się znacząco. Zmienił się obraz biznesu i sposoby osiągania wyników. Jest znacząco więcej organizacji opartych na wiedzy i innowacjach. Dominuje przede wszystkim optymalność i efektywność. Zasady prakseologii są bardzo szeroko wykorzystywane, zwłaszcza w japońskich modelach zarządzania produkcją (rozdział 3.3.3). Warto również zauważyć, że jeżeli przyjmiemy za zasadny dla zarządzania model gry organizacji przeciwko otoczeniu (str. 62), to można oczekiwać, że istnieje optymalny stan minimaksowy równowagi w sensie Nasha187, a nawet możliwe jest, że będzie to stan Pareto optymalny. To jest bardzo mocne stwierdzenie, nakazujące poszukiwanie optymalnych rozwiązań dla menedżerów. Nie wiemy wprawdzie jak to zrobić, ale wiemy, że można! A więc głównym celem zarządzania powinno być poszukiwanie takiej równowagi mikro-makro. W tym kontekście szczególnie jaskrawo jawi się paradoks zarządzania188: menedżerowie zawsze starają się maksymalizować zyski okazjonalne, niezależnie od przyszłych korzyści, jakie można czerpać z utrzymywania stabilnej równowagi mikromakro. I odwrotnie, racjonalność utrzymania długoterminowej stabilności sugeruje odrzucenie wielu okazji i utrzymanie zewnętrznych granic (np. realizację zasady zrównoważonego rozwoju. Jednak tymczasowe korzyści i preferencje managerów prowadzą do zwiększenia liczby niesymetryczne interakcji pomiędzy organizacjami i ich otoczeniem, aż do wystąpienia punktu krytycznego, w którym mogą się pojawić katastrofalne procesy gospodarcze. A zatem zarządzający chcą mieć ciastko i równocześnie zjeść je. To właśnie powoduje, że cele organizacji muszą być bardzo dokładnie formułowane i monitorowane w czasie. Stąd właśnie wynika cała koncepcja zarządzania zmianami (rozdział 4.2). Jeżeli odniesiemy się do koncepcji łańcucha wartości, (rys. 2.4), to zarządzanie w tej kwestii ma na celu zajęcie się pięcioma aspektami zdefiniowanymi przez H. Fayola już w roku 1918189: przewidywanie i planowanie, organizowanie, dowodzenie, koordynowanie, kontrolowanie. To się przez lata specjalnie nie zmieniło. Nawet w koncepcji zarządzania przez cele, należącej do P. Druckera, planowanie, koordynowanie i kontroling stanowią fundamenty działania menedżera. A zatem optymalizacja łańcucha wartości organizacji jest imperatywem zarządzania i punktem wyjścia dla wszelkich innych działań zarządczych. Ale wynik końcowy w postaci wykreowanej wartości i wysokiej wyceny organizacji przez otoczenie nie bierze się wyłącznie z optymalizacji struktury, czy też jej portfela. Równie ważnymi aspektami, stanowiącymi cele zarządzania są Gospodarek T., „Does the optimum management for the given economic process exist?” Management, 11, No. 2, (2007), 39-42, http://www.gospodarek.eu/publikacje/Existing%20optimum%20management.pdf 188 Gospodarek T., “Aspekty…”, str. 84. 189 Fayol H., “Administration industrielle et générale; prévoyance, organisation, commandement, coordination, controle”, H. Dunod et E. Pinat, Paris, 1918 187 127 aspekty jakości i produktywności. Na tym polu dominującymi byli Japończycy, a wśród nich metody Just in Time, Kaizen i KanBan zastosowane do zarządzania koncernem Toyoty. System zbudowany został przez klan Toyoda, T. Ohno, S. Shingo oraz M. Imai i K. Ohmae (strategia Toyoty). To oni doprowadzili jakość i oszczędność do perfekcji, jako fundament. Schemat ten można przedstawić jak na rys. 3.2. Rys. 3.2 System produkcji Toyoty 190 Celem zarządzania jest też zaspokojenie pracowników, stanowiących zasób kadrowy organizacji w stopniu umożliwiającym normalny rozwój i efektywne wykonywanie obowiązków służbowych. Zauważono to już w początkach XX wieku, a prekursorami kwestii relacji pracownik-organizacja byli B. Rowntree, E. Mayo. Dzisiaj jest to nazywane budowaniem kapitału społecznego, przywództwa oraz systemów socjo-technicznych STS191. Teoria STS wprowadza aspekty społeczne oraz zachowań ludzkich do technicznych aspektów budowy organizacji i procesów organizacyjnych. Skupia się na procedurach i wiedzy z Gospodarek T., “Zarządzanie dla …”, op. cit. str. 69. Trist E., Bamforth K., “Some social and psychological consequences of the longwall method of coal getting”, Human Relations, 4, (1951), pp.3-38. 190 191 128 tym związanej. Dąży do optymalizacji równoległej w zakresie wydajności i jakości pracy, jak i w życiu ludzi192. Wynikiem są koncepcje zrównoważonego rozwoju biznesu TBL/PPP (str. 136). Równie ważnym celem zarządzania jest formalizacja procesów, wprowadzenie odpowiedniego do zadań poziomu biurokracji oraz optymalizacja struktury poprzez mapowanie procesów i zadań, rozkład zasobów, wdrażanie obiegów dokumentów i informacji oraz układ procedur. To jest budowanie ładu korporacyjnego oraz kultury organizacyjnej. Procesy te występują szczególnie wyraźnie na etapie dojrzałości rozwoju organizacji (rys. 2.2). Idea doskonałej biurokracji w biznesie pochodzi z lat dwudziestych ubiegłego wieku od Maxa Webera i nie za wiele można wnieść do jej koncepcji, poza tym, że dzisiejsi menedżerowie muszą się mierzyć z bardzo dokładnymi danymi oraz wymogami otoczenia odnośnie informacji, które muszą być wymieniane (np. z urzędami podatkowymi, itp.). To komplikuje procedury biurokratyczne i osłabia efektywność działania w obszarze głównego łańcucha kreowania wartości. Na samym końcu celem zarządzania staje się trafna prognoza rozwoju i koncepcja zmiany w organizacji. Ten cel wymaga wykorzystania metod zarządzania strategicznego oraz dobrego wsparcia metodycznego i informacyjnego. Na podstawie prognozy zarządzający tworzą strategie oraz polityki jako dokumenty formalizujące planowane transformacje. Ale fundamentem zawsze jest wizja i udane przewidywanie zmian w otoczeniu. To są dzisiaj zagadnienia kluczowe business intelligence oraz zarządzania wiedzą będące domeną warstwy middle office organizacji. Zarządzanie strategiczne ma na tym polu liczne sukcesy, ale też znamienne porażki. 3.1.4 Niejednoznaczność rezultatu zarządzania Jak już wspomniano wcześniej, nie ma ani optymalnej formy organizacji, odpowiedniej dla wszystkich rodzajów działalności gospodarczej ani nie ma jednakowej drogi osiągnięcia zakładanego wyniku. W dodatku zarządzanie jest zagadnieniem złożonym, znamiennym tym, że jest realizowane przez wdrażanie pakietów decyzyjnych. Niestety, o ile intencje podjęcia decyzji mogą być ustalone a priori, o tyle konsekwencje ich realizacji nie są możliwe ani do przewidzenia ani do ustalenia w sposób jednoznaczny post factum. W danej chwili czasu trwają skutki wykonywania wielu decyzji równolegle. Niektóre decyzje są ze sobą sprzężone, niektóre stanowią następstwo czasowe i zależą od wyniku procesów w poprzednim przedziale czasu. Jeszcze inne dotyczą więcej niż jednego procesu. To powoduje, że rezultat zarządzania nie może być ustalony w sposób jednoznaczny. A zwłaszcza może nie być możliwym ustalenie, która decyzja miała kluczowy wpływ na rezultat. Ropohl G., “Philosophy of socio-technical systems, in: Society for Philosophy and Technology”, Spring 1999, Vol. 4, (3), 1999. 192 129 Każdy menedżer musi postawić cele dla swojego zakresu działania. Cele te można realizować w różnorodny sposób, zarówno przez zwiększenie efektywności, przez optymalizacje funkcjonalne, przez innowacyjność, itp. A zatem tak ważnym aspektem jest określenie funkcji stanu organizacji, albowiem rezultat nie zależy wówczas od drogi przemiany (sposobu), ale od wartości parametrów określających stan w chwili początkowej i końcowej. To jest analogia do tego, jak postępujemy w fizyce. Jeżeli możemy ustalić niezmienniczość miary stanu organizacji w czasie (np. zbiór KPI, zestaw kwantyfikatorów celu), to można wówczas uznać, że osiąganie celu mierzone za pomocą funkcji stanu nie zależy od sposobu realizacji. Niestety, tak elegancka idea w przypadku zachowań adaptatywnych i inteligentnych jest tylko przybliżeniem i w zależności od sytuacji, może być obarczone poważnym błędem. Wraz z wprowadzoną złożonością, parametry stanu przestają być niezależne od czasu, a zależą od stanów przeszłych i sytuacji bieżącej. To również powoduje niejednoznaczność rezultatów zarządzania. W zarządzaniu projektami często posługujemy się pojęciem produktu, rezultatu oraz oddziaływania. Np. instalacja 10 komputerów i oprogramowania ich pakietem office jest produktem. Rezultatem będzie np. liczba zatrudnionych osób wykorzystujących do pracy arkusz kalkulacyjny i edytor tekstu. Oddziaływaniem będzie liczba opracowań i dokumentów sprzedanych, wykonanych przy użyciu tego systemu. A zatem zarządzanie uwzględnia przynajmniej trzy kategorie celu takiego projektu. Warto zwrócić uwagę, że najbardziej rozmytą kwestią pomiarową jest oddziaływanie, które ma skwantyfikować skutki wdrożenie projektu w otoczeniu, po określonym czasie. Tu niejednoznaczność zarządzania staje się bardzo wyraźna (sprzedaż można zrealizować na wiele sposobów). W końcu wyobraźmy sobie sytuację z pogranicza etyki i biznesu. Menedżer musi podjąć trudną decyzję. Zwolnić kilkanaście osób i utrzymać firmę przy życiu, czy próbować utrzymać stan zatrudnienia z poważnym ryzykiem upadłości. W obu wariantach, które ma do wyboru ocena rezultatu nie będzie jednoznaczna. A przynajmniej będzie różnie interpretowana przez różnych interesariuszy. Takich sytuacji wyboru lepszego wariantu ze wzystkich złych mamy na co dzień znacząco więcej. Podsumowując kwestie niejednoznaczności rezultatów zarządzania należy stwierdzić, że tam gdzie decyzja może być oparta na rzetelnym pomiarze i kryteriach wyboru wariantu pozbawionych subiektywizmu, tam zarządzanie pozwala osiągnąć rezultat zbliżony do jednoznacznego. A zatem tylko tam, gdzie kryterium wyboru oparte jest na modelu semantycznym danego problemu (np. jednoznaczna postać bilansu i rachunku wyników z mocy ustawy o rachunkowości), tam zarządzanie może ograniczyć poziom niejednoznaczności rezultatu. 130 Tam, gdzie mamy do czynienia z ujęciem systemowym, opisanym modelem cynefin (a to najczęściej ma miejsce w praktyce), tam wieloznaczność interpretacji rezultatu nie może zostać usunięta. 3.1.5 Zarządzanie mikro i makro Czy administrowanie prowincją można uznać za zarządzanie? Otóż problemem rozstrzygającym staje się zagadnienie konkurowania. Jeżeli władze gminy, czy powiatu działają tak, żeby przyciągnąć do siebie inwestorów, a dodatkowo czynią tak, żeby mieszkańcy chcieli mieszkać, a nie uciekać z danego regionu albo lepiej żeby inni chcieli się tu osiedlać, wówczas można twierdzić, że mamy do czynienia z zarządzaniem. Jeżeli obserwujemy jedynie wypełnianie zadań wynikających z odpowiednich ustaw o samorządzie i innych przepisów prawa, pozostaniemy na pozycjach defensywnego administrowania biedą, która na ogół towarzyszy słabym jednostkom samorządu terytorialnego. Ale kwestia zarządzania makro nie ogranicza się jedynie do sformalizowanych struktur administracji państwowej. W otaczającej nas rzeczywistości gospodarczej mamy do czynienia nie tylko z samodzielnymi organizacjami, ale również ze złożonym strukturami biznesowymi, takimi jak: sieci, łańcuchy dostaw, konsorcja oraz korporacje o charakterze globalnym. To uzasadnia wyraźny podział zarządzania na mikro (poziom samodzielnej jednostki biznesowej SBU) oraz makro (poziom sieci albo korporacji). O ile na temat zarządzania mikro istnieje niezwykle rozbudowana literatura przedmiotu, o tyle na temat zarządzania makro pojawiają się jedynie skromne opracowania, a realna wiedza dla kadr menedżerskich poziomu zarządu korporacji globalnej jest bardzo trudno osiągalna (na ogół opiera się wyłącznie na studiach przypadku) i jest oferowana wyłącznie przez nieliczne ośrodki naukowe o światowej renomie, które stać na zatrudnienie wykładowców-praktyków z obszaru top management. Zarządzanie makro nie może być realizowane w trybie online, ponieważ wymaga zwłoki czasowej dla dystrybucji decyzyjnej na poziom mikro. Innymi słowy, podjęta decyzja na szczycie władzy korporacji musi zostać przetworzona na układ decyzji wzajemnie sprzężonych, dotyczących elementów struktury (poszczególnych SBU). Taka zwłoka czasowa oraz konsekwencje wynikające dla decyzji na poziomie mikro, powodują możliwość powstania niespójności logicznej rezultatu na poziomie makro po wykonaniu działań na poziomie mikro. A zatem sprzężenie zwrotne na poziomie makro (korporacji) charakteryzować się będzie większym odchyleniem niż analogiczne na poziomie mikro (SBU). Dlatego zarządzanie makro posługuje się modelami opartymi na elastyczności, równowadze oraz poszukiwaniu relacji pomiędzy otoczeniem, a łańcuchem wartości w skali makro. Należą do nich modele: zrównoważonego rozwoju, TBL, 131 równowagi mikro-makro. Charakterystycznym dla zarządzania makro jest utrzymanie równowagi dynamicznej mikro-makro, co można przedstawić jak na rys. 3.3. Równowaga mikro-makro W modelu równowagi mikro – makro przyjąłem jako fundamentalne założenie, że zarządzanie polega na sterowaniu grą dwuosobową systemu generującego wartość (gracz mikro) przeciwko otoczeniu (gracz makro), co umożliwia wykorzystanie elementów teorii gier dla interpretacji oddziaływań mikro-makro. Każdy z graczy, zarówno w skali mikro, jak i makro, dąży do optymalizacji wyników gry, stosując jakąś zasadę minimum lub ich skończony ich zbiór (np. minimum kosztów, minimum zużycia energii, minimum szkód w środowisku naturalnym, itd.), działając zgodnie z zasadą przedstawioną na rys. 1.18 w kontekście uwarunkowań przedstawionych na rys. 2.5. Można zauważyć, że w skali mikro realizowane są działania optymalizacyjne tworzenia relacji z otoczeniem, ustanawiania oddziaływań (sposobów wymiany wartości, budowania pozycji rynkowej), budowania wartościowych zasobów (w tym kluczowych kompetencji) oraz zmian użyteczności struktury organizacyjnej. W skali makro optymalizacja wiąże się z poprawą stabilizacji istniejących struktur i zwiększenia odporności na zdarzenia katastroficzne, przy równoczesnym zapewnieniu równomierności rozwoju regionalnego i bardziej równomiernego podziału dóbr. Stąd pojawiły się praktyki zrównoważonego rozwoju, globalnego łańcucha dostaw, budowania sieci globalnych oraz zdroworozsądkowy interwencjonizm państwowy, stanowiące metody osiągania wysokiego poziomu stabilizacji mikromakro z punktu widzenia makro. 132 Rys. 3.3 Równowaga mikro – makro w zarządzaniu Z założeń teorii równowagi ogólnej G. Debreu wynika, że można skonsumować jedynie tyle, ile da się wyprodukować, co wydaje się być prawdą ogólną. Żeby równowaga mikro-makro mogła trwać w czasie, teoria zakłada powszechne istnienie ekonomii otwartej. To oznacza, że istnieje swobodny dostęp do rynku oraz powszechny dostęp do informacji. W takich warunkach, konsument może swobodnie kształtować swoje preferencje, a producenci konkurują w nieograniczony sposób. Wówczas model równowagi ogólnej Arrow-DebreuMcKenzie (ADM))193 opisuje poprawnie zachowania rynkowe. Jak łatwo zauważyć, powyższe założenia są nierealne w dzisiejszej gospodarce, bo mamy ograniczenia celne, podatkowe. Wiedzę chronimy patentami. Informacje zniekształcamy zabiegami marketingowymi. Dodatkowo pieniądz zostaje często zastąpiony surogatem lub wymyślnym produktem inżynierii finansowej, a działanie banków centralnych pogłębia chaos w ustalaniu rzeczywistej wartości dóbr. Zmienia to w sposób istotny reguły gry rynkowej i oddziaływania mikro-makro. Tym niemniej, w otoczeniu ustala się szereg równowag dynamicznych (metastabilnych) w sensie modelu ADM o charakterze lokalnym. Ponieważ zastosowano w rozważaniach na temat działalności biznesowej model gry przeciwko otoczeniu, stąd wynika istnienie stanu równowagi w tej grze w sensie Nasha. Tym samym możliwe staje się wyznaczenie pewnego optimum Arrow K.J, Debreu G., “Existence of an Equilibrium for a Competitive Economy”, Econometrica 22, No. 2 (1954), 265-290. 193 133 oddziaływania mikro-makro jako punktu siodłowego gry. W dalszej konsekwencji, może zaistnieć w tej grze stan określany jako optimum Pareto194, gdzie poprawienie pozycji jednego gracza nie powoduje pogorszenie pozycji drugiego, ale nie musi, co najlepiej widać w działaniach rządu wobec opodatkowania przedsiębiorców. Stan równowagi w sensie Pareto jest najbardziej pożądaną formą rozwoju mikro i to jest cały sens analizy równowagi mikro-makro. Jest to naukowa realizacja idei złotej zasady postępowania w zarządzaniu. Zrównoważony rozwój Jednym z przykładów zarządzania makro, realizowanym w praktyce jest model zrównoważonego rozwoju. Ma on na celu zaspokojenie aspiracji rozwojowych obecnego pokolenia w sposób umożliwiający realizację tych samych dążeń następnym pokoleniom195. Model wyodrębnia trzy główne obszary, na których należy skoncentrować się przy tworzeniu skutecznej strategii osiągnięcia zrównoważonego rozwoju196: Ochrona środowiska i racjonalna gospodarka zasobami naturalnymi (ograniczanie zanieczyszczenia środowiska, ochrona zagrożonych wyginięciem gatunków zwierząt i roślin, promocja odnawialnych źródeł energii). Wzrost gospodarczy i sprawiedliwy podział korzyści z niego wynikających (ułatwienie dostępu do rynków dla państw rozwijających się, finansowanie rozwoju, zmiana nieracjonalnych wzorców konsumpcji i produkcji). Rozwój społeczny (walka z ubóstwem, dostęp do edukacji, ochrony zdrowia). W Polsce oficjalna definicja zrównoważonego rozwoju wynika z ustawy „Prawo ochrony środowiska197”. Przez rozwój zrównoważony rozumie się „taki rozwój społeczno-gospodarczy, w którym następuje proces integrowania działań politycznych, gospodarczych i społecznych, z zachowaniem równowagi ekologicznej oraz trwałości podstawowych procesów przyrodniczych, w celu zagwarantowania możliwości zaspokajania podstawowych potrzeb poszczególnych społeczności lub obywateli zarówno współczesnego pokolenia, jak i przyszłych pokoleń”. W 2006 RE przyjęła Odnowioną Strategię Zrównoważonego Rozwoju UE. Zalicza się do niej działania w zakresie: ochrony środowiska, sprawiedliwości i spójności społecznej, dobrobytu gospodarczego oraz realizacji zobowiązań w skali międzynarodowej. W dokumencie wyodrębniono siedem kluczowych wyzwań w obszarze polityki gospodarczej, ekologicznej i społecznej: zahamowanie zmian klimatycznych i promowanie czystej energii; 194 Wikipedia, Optimum Pareto https://pl.wikipedia.org/wiki/Optimum_Pareto Gospodarek T., „Modelowanie…”, str. 165 196 Wikipedia, Agenda 21, https://pl.wikipedia.org/wiki/Agenda_21 197 Ustawa z dnia 27 kwietnia 2001 r. „Prawo ochrony środowiska”. Dz.U. 2001 nr 62 poz. 627 Art. 3 pkt. 50. 195 134 zapewnienie, by systemy transportowe odpowiadały wymogom ochrony środowiska oraz spełniały gospodarcze i społeczne potrzeby społeczeństwa; promowanie zrównoważonych wzorców produkcji i konsumpcji; lepsze zarządzanie i unikanie nadmiernej eksploatacji zasobów naturalnych; promowanie wysokiej jakości zdrowia publicznego na niedyskryminujących zasadach oraz lepsza ochrona przed zagrożeniami dla zdrowia; stworzenie społeczeństwa opartego na integracji społecznej, uwzględniającego solidarność między pokoleniami oraz w ramach pokoleń, a także zagwarantowanie jakości życia obywateli; aktywne promowanie zrównoważonego rozwoju na forum międzynarodowym oraz zapewnienie zgodności wewnętrznych i zewnętrznych polityk UE z zasadami zrównoważonego rozwoju, jak również z podjętymi przez UE międzynarodowymi zobowiązaniami. Zgodnie z zaleceniami KE, wdrażanie strategii zrównoważonego rozwoju powinno mieć charakter horyzontalny (równorzędny) w stosunku do realizacji wszystkich innych polityk i strategii. Poziom globalny UE powinien być logicznie podzielony na poziomy: krajowe, wojewódzkie, powiatowe i gminne. Zakłada się addytywność działań w układzie pionowym. To jest praktycznie najtrudniejszym elementem zarządzania wdrażaniem strategii zrównoważonego rozwoju, ponieważ zakres kompetencji jednostek szczebla wyższego na ogół nie jest sumą zakresów kompetencji szczebla niższego (powiaty z mocy ustawy mają różniące się kompetencje i zadania od samorządów gminnych). To nie przekłada się na łączność dokumentacji planistycznych i utrudnia zarządzanie w skali makro. Dotychczasowe doświadczenia planistyczne na poziomie różnych szczebli samorządu terytorialnego pokazują trudności wdrażania zasad zrównoważonego rozwoju w praktyce planistycznej. Wynikają one często z niejednoznacznego rozumienia i definiowania pojęcia „rozwój zrównoważony” na poziomie powiatu lub gminy. Warto przyjąć na podstawie dokumentu „Sustainable Urban Development” następujące zasady definiowania: 1. wynikające z celów rozwoju zrównoważonego: poprawa warunków życia mieszkańców, uwzględnianie interesów obecnego i przyszłych pokoleń, sprawiedliwość między i wewnątrzgeneracyjna w dostępie do środowiska i innych szans rozwoju, 2. dotyczące sposobów realizacji celów zrównoważonego rozwoju: odtwarzanie zasobów odnawialnych, substytucja zasobów nieodnawialnych, zachowanie różnorodności biologicznej, emitowanie takich ilości zanieczyszczeń, które środowisko jest w stanie przyjąć i zneutralizować. 135 3. dotyczące opracowania i wdrażania koncepcji rozwoju: podejście kompleksowe, ale z koncentracją na kluczowych problemach, planowanie zintegrowane, wielowariantowość rozwiązań koncepcji planistycznych, 4. dotyczące planowania przekształceń zagospodarowania: dostosowywanie zagospodarowania do uwarunkowań przyrodniczych i kulturowych, zachowanie właściwych proporcji między terenami biologicznie czynnymi i zabudowanymi, minimalizacja uciążliwości zagospodarowania, koncentracja zagospodarowania. Podstawowe znaczenie dla zarządzania makro zgodnie z zasadami zrównoważonego rozwoju ma odejście od ujęć sektorowych, na rzecz zharmonizowanych programów wielozadaniowych. To wiąże się ściśle z polityką oraz koncepcjami państwa. Szersze omawianie tych kwestii wykracza to poza ramy niniejszego dyskursu. 136 Koncepcja TBL Triple Bottom Line198 (albo PPP – People, Planet, Profit) wykorzystuje koncepcję zrównoważonego rozwoju dla celów oszacowań wartości organizacji oraz jej efektywności. W księgowości Bottom Line oznacza zysk lub stratę w sensie finansowym. Triple Bottom Line jest rozszerzeniem oszacowań efektywności na sferę socjalną (People), sferę zysków (Profit) oraz sferę środowiska naturalnego (Planet). W tym sensie wartości generowaną przez organizację należy rozumieć szerzej niż tylko widzianą przez pryzmat kapitału. Zarządzanie zgodnie z koncepcją TBL powinno koncentrować się na wysokimi poziomie etycznym odniesionym do wymienionych wyżej obszarów: Ludzie - odnosi się do sprawiedliwych i korzystnych praktyk biznesowych dotyczących zatrudnienia, warunków pracy, społeczności i regionu, w którym organizacja prowadzi swoją działalność. Działanie zgodne z zasadami TBL pojmuje wzajemność interesu struktury społecznej, dobra korporacji, zatrudnionych oraz pozostałych interesariuszy. Wiąże się to np. ze zwrotem części zysku z powrotem do producenta lokalnego surowców, a nie transferowania za granicę. Firma TBL nie skorzysta z pewnością z pracy dzieci, a swoim pracownikom zapłaci godziwe pensje. Planeta - (kapitał naturalny) odnosi się do zrównoważonych praktyk w zakresie wykorzystania środowiska naturalnego. Organizacja klasy TBL wykorzystuje naturalne środowisko w sposób minimalizujący wpływ jej działalności na środowisko, przynajmniej mu nie szkodząc. Podejmuje wysiłki na rzecz zmniejszania swoich śladów ekologicznych, ograniczając konsumpcję energii, zmniejszając ilości odpadów produkcyjnych, unieszkodliwiając mniej toksyczne odpady przed ich usunięciem. Metoda oceny uciążliwości dla środowiska wytwarzanych produktów przez organizacje stosujące zasady TBL bazuje na całym cyklu życia produktu (od kołyski do grobu). Zysk –jest rozumiany jako wartość oferowaną w otoczeniu, a nie jako księgowy wynik operacyjny. Są to zatem realne korzyści gospodarcze, które generuje dana organizacja. Jeżeli nawet zysk księgowy jest mały, ale zatrudnienie jest duże, to taka organizacja jest użyteczna zgodnie z koncepcją TBL. Ale jeżeli zysk jest transferowany na zasadzie „wypompowania kapitału” i wykorzystania dominującej pozycji ekonomicznej, to takie działanie nie jest akceptowalne. W koncepcji TBL widać wyraźnie naleciałości socjalistycznej i lewicowej koncepcji rozwoju organizacji, które mają się nijak do zasad wolnego rynku. Nie można jednak odmówić racji ideom PPP stanowiącym podstawę działania organizacji pożytecznej dla otoczenia. Zasady te są jednak trudne do wdrożenia w praktyce. Dodatkowo pomiar stanu oraz wskaźniki stopnia osiągnięcia celu TBL są raczej nierealne do wprowadzenia i stosowania. Elkington J., “Cannibals with Forks: the Triple Bottom Line of 21st Century Business”, Capstone Publishing Ltd., Oxford, 1997. http://appli6.hec.fr/amo/Public/Files/Docs/148_en.pdf 198 137 3.2 Aspekt czasowy zarządzania Ponieważ zarządzanie zawsze dotyczy stanów przyszłych i związane jest z podejmowaniem decyzji, warto zastanowić się nad problemem czasu w zarządzaniu. Zwłaszcza że podejmując decyzję, menedżer ma intencję osiągnięcia określonego celu. Intencja ta może zostać wcielona w życie po określonym czasie realizacji działań związanych z wdrożeniem decyzji i dopiero wówczas można poznać konsekwencje powziętych działań. Pomiędzy intencją a konsekwencją istnieje określony przedział czasu, stanowiący z punktu widzenia wiedzy, bardzo interesujący obszar badań niepewności położenia podmiotu podlegającego działaniom związanym z podjętą decyzją. Jest to luka braku wiedzy odnośnie przyszłości, która zawsze towarzyszy menedżerowi. Jego imperatywem jest zmniejszanie tej luki do minimum, ale stanu niepewności nie da się wyeliminować w 100%. Kwestia ta powoduje wyróżnienie przynajmniej trzech kategorii czasowych zarządzania: zarządzanie operacyjne, związane z bieżącą działalnością na poziomie operacyjnym, gdzie podejmowane decyzje nie mają charakteru ogólnoorganizacyjnego, a ich konsekwencje pojawiają się szybko, zarządzanie taktyczne, wiąże się z poziomem decyzyjnym horyzontu czasowego raportu kontrolingowego oraz poziomu wydziału albo jednostki organizacyjnej, zarządzanie strategiczne, dotyczy całej organizacji i wiąże się z podejmowaniem decyzji o skutkach odległych w czasie, rzędu pół roku lub więcej. Im dłuższy jest horyzont czasowy decyzji, tym większa jest niepewność pomiędzy intencją, a konsekwencją podejmowanych działań. Co więcej, zbiór decyzji wzajemnie sprzężonych, następczych i równoległych, podejmowanych w danym czasie utrudnia dokładne ustalenie rezultatów wynikających z działań związanych z wdrożeniem dowolnie wybranej decyzji z tego zbioru. 3.2.1 Struktura decyzji W tym miejscu pojawia się interesującego zagadnienie - co jest ważniejsze przy podejmowaniu decyzji: intencje oparte na informacjach i analizach historycznych i dotyczące teraźniejszości, czy konsekwencjalne analizy przyszłych skutków wdrożenia decyzji oparte na symulacjach i prognozowaniu. Jak łatwo się domyślić, nie da się w tej kwestii udzielić jednoznacznej odpowiedzi. Zależy to od czasu, którego decyzja dotyczy oraz kontekstu podejmowania decyzji. Inny horyzont czasowy dotyczy decyzji w sprawach bieżącej produkcji, a inny w sprawach programu strategicznego lub planowanej inwestycji. W pierwszym przypadku dominować będą analizy wykonalności na poziomie parametrów mierzalnych (np. ilości godzin warsztatowych do dyspozycji, ilości dostępnych surowców). W drugim zaś, racjonalnym będzie wykonanie określonego pakietu analiz, dotyczących sytuacji 138 bieżącej oraz predyktywnych, będących symulacją przyszłych stanów. Zawsze jednak pozostanie niepewność wynikająca z niedoinformowania menedżera oraz świadomego ograniczenia parametrów branych pod uwagę w modelach analitycznych. Najlepszy menedżer, wspierany przez najlepsze systemy prognozowania i najdokładniejsze dane czasu bieżącego, nie może wypowiedzieć zdania prawdziwego na temat przyszłości. Podejmujący decyzje, nigdy nie dysponuje pełną informacją. Musi radzić sobie z niepewnością i zaakceptować ryzyko poniesienia strat, związane z marginesem błędu. Dlatego jednym z imperatywów kategorycznych każdego menedżera jest ograniczenie niepewności decyzyjnej do minimum. Na tym między innymi polega redukcja niepewności pomiędzy intencją podjęcia a konsekwencją wdrożenia decyzji. Można zaproponować dobrą praktykę (procedurę) postępowania przy podejmowaniu decyzji, jak na rys. 3.4. Rys. 3.4 Proces podejmowania decyzji. zidentyfikować wszelkie, możliwe źródła niepewności i wybrać te najistotniejsze, które można wyeliminować, ustalić te elementy niepewności, których wyeliminować lub ograniczyć się nie da i dokonać próby oszacowania poziomu niedokładności wyniku, zastosować metody ilościowe analiz dla danego problemu decyzyjnego (np. modelu gazeciarza, symulacji Monte Carlo etc.), zastosować wybrane metody analiz jakościowych lub quasi-ilościowych, związanych z danym problemem, np.: SWOT/TOWS, PEST, umożliwiające oceny wartościujące w kategoriach aksjologicznych (dobre, lepsze, złe), zbudować kryterium oceny wariantów decyzyjnych, umożliwiające wybór najlepszego z nich, przy równoczesnym ograniczeniu poziomu niepewności. Struktura decyzji składa się z dwóch elementów proceduralnych: 1. strukturyzacji problemu (ustalenia z czym przyszło się nam zmierzyć, jakie mogą być alternatywne scenariusze albo rozwiązania oraz jakim kryterium należy się posłużyć dla wybrania wariantu w sposób racjonalny, 139 2. analizy problemu (dokonania oceny ilościowo – jakościowej dla zdefiniowanych wariantów problemu i zastosowanie ustalonego kryterium dla znalezienia najbardziej racjonalnego wariantu decyzyjnego, po czym dokonania wyboru do realizacji. Oznacza to, że podjęcie decyzji stanowi wybór optymalnego wariantu z możliwych (jakkolwiek rozumieć w tym miejscu optymalność). W skrajnym przypadku jest to wybór pomiędzy podjęciem decyzji, a jej niepodejmowaniem. Możemy z obserwacji naszego otoczenia wnioskować o tym, że niepodjęcie decyzji może być niekiedy optymalną decyzją, a decyzja optymalna wcale nie musi oznaczać sukcesu, ale najmniejszą stratę z możliwych. 3.2.2 Ograniczona racjonalność i heurystyki uproszczone Okazało się w praktyce, że menedżer do podjęcia decyzji nie potrzebuje kompletnych danych oraz analizowania kryteriów wymagających ścisłych obliczeń, tak jak to zaprezentowano na rys. 3.4. Wystarczy, że zostanie spełniony jakiś ograniczony zbiór oczekiwań, a decyzja zostanie podjęta. Zauważył to jako pierwszy H. Simon, a problem nazwano zasadą ograniczonej racjonalności podejmowania decyzji (nagroda Nobla 1978). Satysfakcja zamiast optymalności daje wystarczające podstawy do podjęcia decyzji przez managera. Stanowi ona krytyczny poziom maksymalizacji lub minimalizacji dla kryterium decyzyjnego. Człowiek podejmujący decyzję będący homo administratus, dąży do realizacji swoich własnych celów, ale często nie wie, jakie one są. Jest świadomy istnienia kilku alternatyw decyzyjnych, ale bardziej dąży do podjęcia satysfakcjonującej decyzji na podstawie subiektywnie wybranych danych, niż kontynuowania poszukiwań prowadzących do decyzji optymalnej. Simon wyróżnił trzy fazy podejmowania decyzji (rys. 3.5). Rys. 3.5 Podejmowanie decyzji zgodnie z zasadą ograniczonej racjonalności 199 199 Wikipedia, Herbert Simon, https://pl.wikipedia.org/wiki/Herbert_Simon 140 Sposób analizowania faktów przez człowieka na ogół odbiega od ścisłego wyliczania i porównań mierzalnych opcji. Najczęściej stosowane są uproszczone schematy myślowe, niekoniecznie prowadzące do racjonalnych wniosków. Problemy wykorzystania uproszczonych schematów myślowych w podejmowaniu decyzji konsumenckich i menedżerskich rozwinęli D. Kahneman i A. Twersky (nagroda Nobla D. Kahneman 1982)200. Zauważyli oni, że wszystkie uproszczone schematy analiz sytuacji związane z podjęciem decyzji można podzielić na trzy kategorie opisane poniżej. 1. Heurystyka reprezentatywności. W tym przypadku decydent dokonuje klasyfikacji czegoś do grupy spełniającej kryteria decyzyjne na podstawie częściowego podobieństwa do znanego przypadku typowego lub charakterystycznego (nieuprawnione analogie). W ten sposób powstają nadinterpretacje, związane z iluzoryczną wagą wybiórczej wiedzy, pozorną korelacją lub inną zależnością funkcyjną, niekompletnością próby losowej, etc. i zwykle prowadzi do błędów decyzyjnych. Schemat ten jest najczęściej występującym w praktyce zarządzania. 2. Heurystyka dostępności (jeżeli o tym myślisz, to musi być ważne). Polega na przypisywaniu większego znaczenia zdarzeniom, które łatwiej sobie uświadomić lub tym, które są bardziej wyraziste emocjonalnie. Np. prawdopodobieństwo zaistnienia wypadku lotniczego jest znacznie przeszacowane po każdym wypadku, opisanym w mediach. Na dodatek media szczególnie nagłaśniają mało prawdopodobne zdarzenia o charakterze katastroficznym. To skutecznie wywołuje subiektywne odczucia prowadzące do przeszacowań typu: podróżowanie samolotem jest szczególnie niebezpieczne (bo w prasie napisano o dwóch wypadkach samolotów w krótkim okresie czasu). 3. Heurystyka zakotwiczenia (dostosowania), polega na tym, że używa się jakiejś początkowej wartości lub informacji, nie będącej najbardziej aktualną lub rzetelną w celu udzieleniu odpowiedzi na zadane pytanie lub zbudowania kryterium decyzyjnego. To szczególnie dobrze działa w przypadku polityków, którzy chcą uzasadnić tendencyjne stwierdzenia i uzyskać poparcie nieświadomych wyborców. Wykorzystywana wówczas informacja stanowi punkt wyjścia do dalszych, wykrzywionych wnioskowań, będąc zakotwiczeniem dla głoszonych „prawd” lub oszacowań przy braku kompletności danych. Takie zachowania ludzkie stanowią podstawę funkcjonowania marketingu. Umożliwiają również wykorzystanie słabości wnioskowania przy budowaniu relacji, motywowaniu lub perswazji. Bazuje na tym teoria wpływu201 i działanie Tversky, A., Kahneman, D., “Judgment under Uncertainty: Heuristics and Biases”. Science, New Series, Vol. 185, No. 4157, (1974), pp. 1124-1131. 201 Cialdini R., "Wywieranie wpływu na ludzi. Teoria i praktyka", Gdańskie Wydawnictwo Psychologiczne, Gdańsk, 2000. 200 141 lobbingu. Dotyczy to również podejmowania decyzji przez menedżera. Nie jest zatem zaskoczeniem, że zasada ograniczonej racjonalności ma tak duże znaczenie w naukach społecznych, a zwłaszcza w zarządzaniu. 3.2.3 Aspekt czasowy decyzji Aspekt czasowy decyzji w procesach zarządzania wiąże się z aspektem przyczynowo-skutkowym ich podejmowania. Można zaproponować podział decyzji ze względu na horyzont czasowy skutków na: Decyzje strategiczne. Wdrożenie ich jest odsunięte w czasie. Wykonanie podlega określonym harmonogramom czasowo-zadaniowym, a sama decyzja strategiczna staje się w rezultacie pakietem decyzji następczych, związanych z programami operacyjnymi powiązanej strategii. Skutki podjętej decyzji strategicznej są odległe w czasie. Dotyczą problemów globalnych organizacji, a nie jej poszczególnych działów lub jednostek (SBU). Mogą również dotyczyć sektora zagadnień ogólnoorganizacyjnych (np. informatyzacji firmy, prowadzenia polityki rachunkowości, itp.). Typowy problemem decyzyjny: Jak dokonać alokacji wszystkich, dostępnych zasobów między szanse produktowo – rynkowe? Główne charakterystyki: centralizacja decyzji, brak wymuszenia sytuacyjnego, duży poziom niepewności, złożoność strukturalna, agregacja decyzji cząstkowych w pakiety następcze, wizjonerstwo. Decyzje taktyczne. Wdrożenie wymaga pewnego, niezbyt odległego czasu. Skutki są na ogół widoczne niedługo po wdrożeniu. Dotyczą korekt lub wspomagają decyzje strategiczne wynikające z pomiarów kluczowych wskaźników efektywności, albo informacji zwrotnych z otoczenia. Decyzje taktyczne związane są przede wszystkim z kontrolą wykonania scenariuszy okresowych decyzji strategicznych. Typowy problemem decyzyjny: Jak zorganizować w sposób optymalny procesy biznesowe oraz akwizycje produktowe oraz wartościowe zasoby niezbędne dla ich realizacji? Główne charakterystyki: decentralizacja decyzji, wymuszenie sytuacyjne przez otoczenie, niewielki poziom niepewności, oparcie na pomiarze, agregacja decyzji cząstkowych w pakiety sprzężone. Decyzje operacyjne. Ich wdrożenie jest natychmiastowe. Skutki widoczne są szybko. Dotyczą najczęściej optymalizacji bieżącej lub uruchomienia procesu. Mogą być też związane ze kontrolą parametrów efektywności i sterowaniem procesami na poziomie operacyjnym. Typowy problemem decyzyjny: Jaką postać ma mieć budżet na najbliższy miesiąc i jaki harmonogram produkcyjny będzie realizowany? 142 Główne charakterystyki: decentralizacja decyzji, wymuszenie sytuacyjne wewnętrzne, agregacja w pakiety równoległe, mały poziom niepewności decyzyjnej, optymalność lokalna. Decyzje strategiczne mają przede wszystkim charakter intencjonalny, podczas gdy operacyjne mają podłoże ewidentnie konsekwencjalne. Decyzje taktyczne mają charakter mieszany. 3.2.4 Własność Markowa i zasada Bellmana Większość zdarzeń w praktyce gospodarczej wymaga ciągłości działań w czasie. To oznacza, że przedział czasowy określonego zadania biznesowego można podzielić na mniejsze podprzedziały. W każdym z tych podprzedziałów zapadają określone decyzje i realizowane są działania. Dodatkowo występuje niepewność ustalenia położenia ekonomicznego podmiotu w każdym podprzedziale w sposób stochastyczny. Stąd wyniki w danym podprzedziale zależą od wyników uzyskanych w poprzedzających go podprzedziałach. Taki ciąg zdarzeń, w którym prawdopodobieństwo dowolnego zdarzenia zależy jedynie od wyniku poprzedniego nosi nazwę procesu Markowa. Natomiast procesy, w których przyszłe stany podmiotu są warunkowo niezależne od stanów przeszłych, ale są zdeterminowane wyłącznie przez stan bieżący posiadają własność Markowa. Można to przedstawić następująco: „Funkcja celu w procesie wieloetapowym jest sumą kartezjańską wartości tej funkcji uzyskanych w kolejnych etapach, przy czym wartość uzyskana w n-tym etapie zależy od stanu w etapie poprzednim oraz podjętej wówczas decyzji, a nie zależy od drogi, po której system dotarł do etapu n-1”. W ten sposób możemy uzasadniać stosowanie scenariuszy rozwoju w czasie, w analizie PEST, SWOT czy też analizie interesariuszy. Bazuje na tym prognozowanie strategiczne oraz symulacja stanów w systemach biznesowych. Stąd ważną kwestią w zarządzaniu jest uzasadnienie losowości zdarzeń determinujących scenariusze decyzyjne w przedziałach czasowych i odpowiednie zdefiniowanie zmiennych losowych, reprezentujących zmiany podmiotu w czasie. Wówczas symulacja Monte Carlo ma uzasadnienie (str. 380). Większości zdarzeń gospodarczych możemy przypisać własność Markowa. Zasada Bellmana Bardzo ważnym aspektem pochodnym własności Markowa jest obserwacja skutków decyzji podjętych w danym przedziale czasowym, jako wynik ciągu decyzji podjętych w poprzedzających go przedziałach. Traktuje o tym zasada Bellmana202, którą można przedstawić w następującej formie: Skutki optymalnej decyzji podjętej w końcowym etapie wieloetapowego procesu decyzyjnego, stanowiącego Bellman R.E., „Adaptative Control Processes: a guide tour”, Princeton, Princeton University Press, 1961.; („Adaptacyjne procesy sterowania. Przewodnik problemowy”, Warszawa: PWN, 1965). 202 143 łańcuch Markowa, stanowią o optymalności podjętych decyzji w etapach pośrednich procesu, ze względu na początkowy stan układu. Oznacza to, że jeżeli ustalimy parametry stanu wejściowego do procesu w chwili t0, a w końcowym etapie tk uzyskaliśmy wynik uznany za optymalny, to wszelkie poprzedzające decyzje w ciągu, w kolejnych przedziałach czasu tk-1, tk-2, … też musiały być optymalne Innymi słowy system dochodził do stanu końcowego na zasadzie kolejnych przybliżeń w wyniku informacji pochodzących ze sprzężeń zwrotnych. Tak działa zarządzanie adaptatywne, a zasada Bellmana wskazuje, że wynik optymalny nie zależy od drogi, a jedynie od stanu wyjściowego w kolejnym akcie adaptacji systemu do kontekstu. Warto o tym pamiętać w praktyce menedżerskiej. Taka niezależność od drogi wpisuje się w zasadę niejednoznaczności metod zarządzania, podkreślanej przez teorię kontyngencji. 3.2.5 Scenariusze i pakiety decyzyjne Skoro możliwe jest zaistnienie ciągów decyzyjnych w określonym przedziale czasowym, to możliwe jest prognozowanie określonych skutków podejmowania decyzji w kolejnych przedziałach czasu. W ten sposób powstają scenariusze decyzyjne. Metoda ta ma kilka wariantów. Charakteryzuje się zawsze istnieniem jakiejś zmiennej losowej, której wielkość można szacować lub symulować na podstawie posiadanych danych czasu bieżącego. Wśród scenariuszy decyzyjnych należy rozróżnić trzy rodzaje: drzewo decyzyjne stosowane dla oszacowań wartości jakiegoś waloru, oparte na dwumianowym rozkładzie prawdopodobieństwa. Przykładem mogą być drzewa dwumianowe Cox-Ross-Rubinstein dla oszacowania wartości opcji albo akcji i budowania portfela optymalnego inwestora203, scenariusze decyzyjne oparte na modelach ryzyka stosowane np. w bankowości dla oszacowań ryzyka spłaty zadłużenia204. scenariusz rozwoju, oparty na ustalanym arbitralnie prawdopodobieństwie zaistnienia danego kierunku zmiany. Wykonywane są zwykle w trójscenariuszu: optymistycznym, pesymistycznym oraz największego prawdopodobieństwa. Takie scenariusze wykorzystywane są w analizie PEST, SWOT, analizie interesariuszy. Sposób wykonania scenariusza rozwoju został przedstawiony w rozdziale 4.2.2, str. 208, oraz w poświęconym analizie PEST(LE) 6.3 str. 427. Pakiety decyzyjne W każdej organizacji w określonym czasie podejmowanych jest szereg decyzji przez wielu menedżerów oraz w wielu jej działach. Zbiór decyzji podjętych Jackson M., i wsp. op. cit. rozdział 10, dodatek Excel „Opcje1”. Zemke J., „Scenariusze procesów decyzyjnych w warunkach zarządzania ryzykiem obsługi zobowiązań Długoterminowych”, http://zif.wzr.pl/pim/2013_3_2_19.pdf 203 204 144 w danej chwili czasu lub w danej sprawie nazwiemy pakietem decyzji. Charakteryzuje się on tym, że na ogół nie jest możliwym określenie konsekwencji wdrożenia określonej decyzji, wybranej z pakietu. W danym momencie realizują się skutki wielu podjętych wcześniej decyzji, a równocześnie podejmowane są kolejne na różnych szczeblach zarządzania. Ciągłość czasu nie pozwala na dokonanie podziałów szczegółowych skutków pojedynczych zdarzeń w organizacji. To między innymi wpływa na złożoność zarządzania. Wśród pakietów decyzyjnych można wyróżnić trzy szczególnie istotne kategorie wzajemnie powiązanych decyzji: 1. Decyzje sprzężone – podejmowane przez kilku niezależnych menedżerów w celu osiągnięcia określonego rezultatu, wspólnego wszystkim (np. sprzedaż nowego samochodu wymaga kilku decyzji wzajemnie sprzężonych w różnych działach auto stacji). Przy tym trudno jest ustalić, która z podjętych decyzji ma charakter kluczowy. Dla realizacji procesu biznesowego konieczne jest podjęcie kompletu decyzji sprzężonych. 2. Decyzje następcze – są to decyzje zależne, wynikające z otrzymania informacji na temat rezultatów podjętej kontekstowo decyzji w poprzednim przedziale czasowym (w łańcuchu Markowa) Są one charakterystyczne dla zarządzania wykorzystującego sprzężenia zwrotne. Przykładem może być zachowanie optymalizacyjne w zakresie portfela zamówień. Obserwujemy rotację magazynu w danym przedziale czasu oraz zachowanie rynku i na tej podstawie podejmujemy decyzję o zamówieniu na kolejny okres. 3. Decyzje równoległe – są to decyzje podejmowane równocześnie przez różnych menedżerów niekoniecznie w celu osiągnięcia jednego celu (np. decyzje podejmowane niezależnie w magazynie i w dziale marketingu). Decyzje równoległe dotyczą również zarządzania na różnych poziomach. Równolegle mogą być podejmowane decyzje operacyjne, taktyczne i strategiczne, ale skutków ich podejmowania nie da się ustalić w odniesieniu do wybranej z nich w danym momencie. Pakiety decyzyjne stanowią fundament zarządzania i im lepiej opisane są procesy biznesowe danej organizacji, tym mniejsza staje się niepewność rezultatu dla decyzji sprzężonych i następczych. 145 3.3 Metodologia zarządzania W zakresie metodologii zarządzania staramy się odpowiedzieć na kwestię jak postawić, a następnie zrealizować cele stawiane przez menedżera zarządzanemu podmiotowi. Metodologia podejmuje się opisania zagadnień, jak pozyskać wiedzę pewną na temat tego, co istnieje w zarządzaniu (systemu generującego wartość, bytującego w otoczeniu), ustala dobre praktyki, funkcje celu, kryteria i warunki przeprowadzenia procesu biznesowego, etc. Finalnym wynikiem rozważań metodologicznych są modele operacyjne i semantyczne zarządzania, aż do poziomu „białej księgi” włącznie205. Przykładami mogą być: metoda macierzy logicznej LFA, metoda produkcji JIT, Gemba Kaizen, metoda zapewnienia jakości „Sześć sigma”, metoda sprzedaży samochodu, działanie CRM i CMS, sposób motywowania, itp. Widać stąd, że to właśnie metodologia stanowi dla teorii i praktyki zarządzania fundament wiedzy użytecznej. Dlatego warto zastanowić się nad niektórymi modelami wynikającymi z metodologii, a użytecznymi dla menedżera. Przegląd metodologiczny podzieliłem na szereg zagadnień zarządzania w ujęciu historycznym. Można wydzielić dziesięć wyróżniających się trendów: kierunek produktywność, orientacja na jakość, administracja doskonała, behawioryzm i adaptatywność, optymalność i prakseologia, kapitał społeczny i zasoby ludzkie, koncepcje równowagowe (STS, PPP/TBL, zrównoważony rozwój), zmiana organizacji, pomiar, model, symulacja (badania operacyjne), ujęcia systemowe i sieciowe. Wyłaniające się w obecnych czasach nowe trendy i kierunki działań można zaklasyfikować do wyżej wymienionych grup zagadnień. 3.3.1 Dzieło Adama Smitha „Źródłem wszelkiego bogactwa jest praca ludzka”. Ten cytat w zasadzie wyjaśnia cały sens podejmowania działalności gospodarczej i funkcjonowania wartości oraz własności społeczeństwie. To praca, a nie dotacje i subwencje mają być źródłem naszego dobrobytu. Nie zadłużanie narodów i malwersacje hedgingowe, ale realna praca i produkcja mogą poprawić byt. 205 Gospodarek T., “Systemy ERP…”, op. cit. 146 W zasadzie to od dzieła A. Smitha „Badania nad naturą i przyczynami bogactwa narodów” wydanego w 1776 roku zaczyna się rozwój nauk o zarządzaniu. Smith jako filozof i myśliciel przeprowadził sławny eksperyment z produkcją szpilek do kapeluszy, który pokazał, że podział czynności koniecznych dla wykonania wyrobu finalnego na zorganizowany zespół ludzi prowadzi do zmniejszenia nakładu pracy. W tym przypadku 10 osobowy, wytrenowany zespół wykonał 48 000 szpilek w ciągu jednego dnia, podczas gdy jedna osoba wykonująca kompletny produkt, była w stanie uzyskać wydajność 200 szpilek dziennie. Oto kilka ważnych cytatów z „Bogactwa narodów”, które stanowiło pierwsze ujęcie metodologiczne w ekonomii nadmiernie wprawdzie wykorzystując metodę opisową zjawisk, ale wystarczająco wizjonerską na swoje czasy. Niektóre zawarte tam sentencje pozostają aktualne do dziś. „Egoizm jest siłą napędową społeczeństwa komercyjnego. To nie dobrej woli rzeźnika, piwowara czy piekarza zawdzięczamy nasz obiad, lecz ich dbałości o interes własny”. „Rynek jest mechanizmem samoregulującym ceny, ilości dóbr i usług oraz dochody, mechanizmem scalającym społeczeństwo, a zarazem własnym strażnikiem”. „Sprawne funkcjonowanie społeczeństwa zapewnia mechanizm rynkowy - rząd nie powinien ingerować w procesy gospodarcze, ponieważ "niewidzialna ręka rynku” dokonuje optymalnej alokacji zasobów do poszczególnych dziedzin wytwarzania”. To są fundamentalne założenia dla wytłumaczenia działalności gospodarczej i koncepcji zarządzania. Niestety już sam A. Smith zauważył, że żaden rynek nie wyreguluje się sam, a „twardego” dowodu dostarczyli G. Debreu i K. Arrow, wykazując, że przy pewnych założeniach istnieje na nim równowaga ogólna. Istnieje, bowiem, pewien zestaw cen, które równoważą podaż i popyt na wszystkie towary206. Natomiast A. Chandler207 podkreślił związki między strategią i strukturą firmy wskazując, że aktywne działania zarządu firmy (widzialna ręka) są bardziej skuteczne w realizowaniu jej celu, jakim jest dostarczanie produktu klientom, niż ”niewidzialna ręka” rynku A. Smitha. Tym niemniej z obserwacji A. Smitha wynika prawo podziału, które można przedstawić w formie twierdzenia: Schlefer J., “Niewidzialna…”, op. cit., Chandler, A. D., Jr., “The Visible Hand: The Managerial Revolution in American Business”, Harvard University Press, Cambridge MA, London, 1977. 206 207 147 Jeżeli powtarzalna praca jakiejś grupy zostanie podzielona tak, że każdą czynność składową procesu rozdzielimy i będziemy ją wykonywać seriami, na jak najwyższym poziomie specjalizacji, to ogólny nakład pracy i zaangażowania zasobów zmniejszy się. Powyższe prawo podziału stanowi fundament teoretyczny zarządzania naukowego, które największe sukcesy odniosło w okresie rewolucji przemysłowej w latach 1890-1915. 3.3.2 Kierunek produktywność Pod koniec XIX wieku istniała konieczność wytworzenia ogromnej ilości dóbr, żeby nasycić rynek i nadać rewolucji przemysłowej rozpędu. Problemem była wówczas produktywność i wydajność pracy. Jednym z remediów na słabą wydajność była specjalizacja, praca zespołowa i poszukiwanie możliwości zautomatyzowania procesów wytwórczych. W ten sposób, poprzez pomiar i eksperyment powstało zarządzanie naukowe. Stanowiło ono cykl studiów poświęconym relacjom pomiędzy człowiekiem i procesami produkcyjnymi. W wyniku tego stało się możliwe redefiniowanie efektywności procesów produkcyjnych i ich optymalizacja pod kątem wydajności. Całość koncepcji skupiała się na usprawnieniach organizacji pracy pojedynczego człowieka na swoim stanowisku pracy oraz pracy małych, wyspecjalizowanych zespołów. Innymi słowy, zarządzanie naukowe analizuje i dokonuje syntezy przepływów pracy, a następnie ich optymalizacji ukierunkowanej na efektywność czynności.208 Okres dominacji zarządzania naukowego zwany jest „Tayloryzmem” od nazwiska jego twórcy Winslowa Taylora. Rozwinęło się w latach 1880-1920 w przemyśle wytwórczym osiągając największe znaczenie około roku 1910. Pomimo że teoria ta została poniechana około lat 30-tych, większość jego koncepcji pozostaje aktualna do dnia dzisiejszego. W szczególności dotyczą one zastosowania racjonalnego myślenia, analiz optymalności, syntezy procesów produkcyjnych, logiki podejmowania decyzji opartej na pomiarze, posługiwania się empiryzmem, pomiarze efektywności, eliminacji odpadów, standaryzacji najlepszych praktyk. Jednocześnie zarządzanie naukowe traktowało człowieka jako trybik w maszynie, wprowadzając zniewolenie przypisania do procesu. Filozofią było budowanie etosu pracy i dobrej roboty. Postponowano tradycyjne zachowania społeczne w procesach produkcji lub w celu ochrony statusu poszczególnych pracowników, posiadających unikalne umiejętności. Największym sukcesem zarządzania naukowego była transformacja produkcji rzemieślniczej do produkcji Workflow należy definiować w szerszym sensie jako opis obiegu informacji pomiędzy rozmaitymi obiektami biorącymi udział w danym procesie produkcyjnym. Według koalicji WorkFlow Management Coalition (WFMC), jest to: „automatyzacja procesów biznesowych, w całości lub w części, podczas której dokumenty, informacje lub zadania są przekazywane od jednego uczestnika do następnego, według odpowiednich procedur zarządczych”. https://www.businessprocessglossary.com/7002/workflow 208 148 masowej oraz transfer wiedzy między pracownikami i jej przeniesienie na wykorzystanie narzędzi. H. Ford ukoronował te osiągnięcia wprowadzeniem taśmy produkcyjnej. Jednocześnie wprowadzono wówczas dokumentowanie procesów, harmonogramowanie, chronometrażowanie, katalogowanie czynności w procesach oraz plany produkcyjne. W. Taylor sformułował cztery zasady funkcjonowania przedsiębiorstwa. 1. Analizuj sposoby, w jaki pracownicy wykonują zadania, gromadząc wiedzę, eksperymentuj nad optymalizacją wykonania. 2. Zapisz nowe zadania do wykonania w formie instrukcji i reguł standaryzowanych. 3. Starannie dobierz pracowników pod względem posiadanych kwalifikacji do wykonywanych zadań i naucz ich procedur. 4. Ustal minimalny poziom kwalifikacji i płać według osiągniętego rezultatu. Po kilkunastu latach funkcjonowania zarządzania naukowego w praktyce zidentyfikowano kilka istotnych problemów. Praca wyspecjalizowana na taśmie była nudna i frustrująca, a system organizacji zainteresowany był wyłącznie wydajnością, a nie potrzebami ludzi. Poprawa umiejętności i wydajności nie powodowała wzrostu wynagrodzenia, ani zmiany statusu pracownika. Znacząca poprawa wydajności procesów produkcyjnych zwiększała bezrobocie, bo mniejsza ilość pracowników była w stanie obsłużyć nowoczesne maszyny, o coraz wyższej wydajności. Wraz z uproszczeniem czynności wzrastały żądania ilości pożądanej pracy od pracownika, przy czym stopień jej komplikacji nie wzrastał. Zjawiskiem powszechnym stała się duża rotacyjność robotników pracujących na taśmie, co obniżało wynik ekonomiczny wskutek przestojów i koniecznego przyuczania nowych pracowników do pracy. Zarządzanie naukowe powstało w okresie erupcji produkcji przemysłowej oraz rewolucyjnych zmian technologicznych wytwarzania dóbr. Dlatego w początkowej fazie rozwoju było ukierunkowane na dostosowanie się kultury pracy do możliwości technologii i poszukiwania efektywności, co w końcu udało się osiągnąć. Jednak pełna kontrola i standaryzacja na szczegółowym poziomie tłumi działania innowacyjne, które zawsze wprowadzają chaos organizacyjny burząc istniejącą doskonałość. To wstrzymuje postęp technologiczny oraz procesy ciągłości doskonalenia. Ograniczenia te zostały dopiero rozwiązane przez Japończyków w modelu lean management. W późniejszym okresie pracownicy zaczęli przeciwstawiać się tayloryzmowi, widząc znaczące zagrożenia społeczne i ekonomiczne. Zarządzanie naukowe zaczęło podążać w kierunku zwiększenia humanizacji pracy, co finalnie doprowadziło do zaistnienia systemów STS (str. 172). 149 Najwybitniejszymi przedstawicielami zarządzania naukowego byli: Frederick Winslow Taylor – twórca koncepcji zarządzania naukowego. Wprowadził pracę w systemie akordowym, chronometrażowanie oraz pomiar ilości pracy. Frank Bunker Gilbreth wraz Lillian Evelyn (Moller) Gilbreth, którzy zasłynęli z badań ruchów roboczych, wprowadzenia metody cyklograficznej oraz chronocyklograficznej. Jako pierwsi użyli metody filmowej i opracowali katalog 17 mikroruchów (therbligów). Karol Adamiecki. Wprowadził pomiar pracy metodą chronometrażu (harmonogramy) jako pierwszy na świecie w roku 1896, przed L. Ganttem. Opracował prawo podziału pracy (regułę specjalizacji), prawo koncentracji (łączenie komórek produkcyjnych w większe struktury) i prawo harmonii. Henry Ford, który przedstawił koncepcję linii produkcyjnej osiągając wydatny wzrost wydajności pracy przez podział operacji na najprostsze czynności (na taśmie) oraz możliwość zatrudnienia niskowykwalifikowanych pracowników. Henry Laurence Gantt. Rozwinął system pracy akordowej i zastosował motywację jako czynnik wzrostu wydajności. Opracował w roku 1910 system harmonogramowania (podobnie do Adamieckiego), który do dziś jest wykorzystywany pod nazwą wykres Gantta. Harrington Columbus Emmerson, który w roku 1913 podsumował osiągnięcia zarządzania naukowego przedstawiając 12 zasad wydajności, mających zastosowanie po dziś dzień. Są to: 1. Jasno określony cel zadania. 2. Zdrowy rozsądek w podejmowaniu działań. 3. Fachowa rada w trudnej sytuacji. 4. Dyscyplina. 5. Uczciwe postępowanie. 6. Niezawodne sprawozdania. 7. Czasowy plan przebiegu działania. 8. Ustalenie proceduralne działań. 9. Opracowanie wzorców i norm postępowania. 10. Przystosowanie warunków pracy do zadań. 11. Wzorcowe metody pracy. 12. Nagroda za wydajność. Na tym można zakończyć informacje o zarządzaniu naukowym, jako kontrowersyjnej teorii, która przyniosła skok cywilizacyjny na początku XX wieku, ale została poniechana ze względu na brak humanizmu pracy i niedopasowanie do potrzeb człowieka, który podlegał jej działaniu. 150 3.3.3 Kierunek niezawodność, efektywność, jakość Wraz z rozwojem koncepcji zarządzania naukowego i gigantycznego przyrostu wydajności pracy na początku XX wieku, pojawiły się ważne uzupełnienia ukierunkowania zarządzania na produktywność. Jednym z nich był kierunek optymalizacji jakości produktów oraz systemu pracy i zasobów, które umożliwiały poprawę parametrów oferowanych dóbr. Drugą grupą były aspekty zapewnienia niezawodności oraz ciągłości produkcji. Trzecią była efektywność procesów oraz systemów wewnątrzorganizacyjnych. Wszystkie wywodzą się z zarządzania naukowego, ale wyraźnie dostrzegają kluczową rolę człowieka i bardziej pasują do definicji reinżynieringu procesów produkcyjnych, niż do czystej optymalizacji ilościowo-wartościowej. Do zagadnień optymalizacji produkcji przez systemy zapewnienia jakości należą między innymi koncepcje produkcyjne: batch production, job production oraz flow production. Wyspecjalizowane metody zapewnienia jakości, niezawodności, wydajności oraz efektywności, jak: RCM, TPM, QRM, TOC, TQM, Lean, Toyota Way, SixSigma. RCM RCM (Reliability Centered Maintenance) – Jest to metoda konserwacji systemów produkcyjnych ukierunkowana na ich niezawodność. Zwykle w planowaniu działań konserwacyjnych dokonuje się wyboru zadań przez ustalenia, jakie czynności można lub należy wykonać w odniesieniu do zasobów trwałych (maszyn i urządzeń). Nie jest przy tym istotne uzasadnienie dlaczego właśnie takie czynności należy przeprowadzić. Stosując zasady metody RCM takie podejście jest niewłaściwe. Celem koncepcji RCM jest bowiem zabezpieczenie funkcjonalności, a nie zabezpieczenie działania konkretnych zasobów trwałych. Stąd w praktyce stosowania RCM wymagana jest systematyczna analiza poszczególnych funkcji systemu produkcyjnego, które muszą zostać zabezpieczone, a następnie analizuje się i eliminuje możliwe zagrożenia. Tym samym analityk biznesowy określa i zabezpiecza usterki funkcjonalne procesów i czynności, a nie awarie maszyn czy urządzeń z tym związanych. Podejście RCM realizuje w sposób racjonalny proces optymalizacji nie tylko działań konserwacyjnych, eliminując przy tym arbitralne decyzje typu „naprawiamy to, bo chyba już wypada”, ale również politykę outsourcingu zasobów i zarządzania majątkiem trwałym. Więcej na temat procedur RCM można znaleźć na stronie „Inżynieria i utrzymanie ruchu”.209 Andrzejczak M., [red]., „Analiza systemowa RCM”, http://www.utrzymanieruchu.pl/menu-gorne/artykul/article/analiza-systemowa-rcm/ 209 151 TPM TPM (Total Productive Maintenance)210 jest przykładem optymalizacji efektywności związanej z całkowitym i produktywnym utrzymaniem ruchu zasobów trwałych (w szczególności maszyn). Jest elementem systemu oszczędnej produkcji lean management i zapewnienia maksymalnej produktywności. Dzięki odpowiedniemu zorganizowaniu współpracy pomiędzy grupą utrzymania ruchu a działem produkcji, metoda TPM pozwala na poprawę efektywności, a czasem i funkcjonalności nawet znacząco wyeksploatowanego parku maszynowego. Dodatkowo pozwala znacznie zmniejszyć takie zagrożenia, jak: awarie maszyn, nieplanowane przestoje, desynchronizacja funkcjonalności na taśmie, pracę maszyn na zwolnionych obrotach. TPM jest japońską metodę zarządzania operacyjnego pewnym wycinkiem produkcji, stanowiąc składnik szerszego systemu efektywnego zarządzania operacyjnego produkcją Kaizen211. Opiera się na ośmiu filarach212: 1. koncentracja na poprawianiu efektywności, 2. konserwacja autonomiczna (wewnętrznymi siłami), 3. planowana konserwacja (wykorzystująca RCM), 4. utrzymanie jakości (nawet przy zużytym parku maszynowym), 5. obniżenie kosztów produkcji, 6. działania wyprzedzające w zarządzaniu zasobami, 7. szkolenie i edukacje, 8. dbałość o środowisko. Wynikiem stosowania zasad TPM jest integracja operatywności człowieka z funkcjonalnością maszyn, co powoduje usprawnienie pracy. Kluczowe jest przy tym zwiększanie efektywności wykorzystania maszyn nie przez kupowanie nowych, ale głównie przez poprawę organizacji pracy oraz zaprojektowanie i przestrzeganie standardów konserwacji. Dodatkowo przez zapewnienie skutecznego systemu szkolenia pracowników, prowadzący do zaistnienia procesów usprawniania pracy jako sprzężenia zwrotnego do podjętych działań. QRM QRM (Quick Response Manufacturing)213 Metoda szybkiej reakcji produktowej na zapotrzebowanie rynku, szczególnie istotna w branżach szybkozmiennych, takich jak: przemysł modowy214, informatyka czy też produkty innowacyjne w Nakajima S., “Introduction to TPM: Total Productive Maintenance”, (Preventative Maintenance Series), 11 Ed., Productivity Press, Univ. Minnesota, 1998. 211 Imai M, op. cit. 212 Wikipedia, „Total Productive Maintenance”, https://pl.wikipedia.org/wiki/Total_Productive_Maintenance 213 Suri R., “It's About Time. The Competitive Advantage of Quick Response Manufacturing”, Productivity Press, (2010). 214 Hammond J. H.; Kelly M. G., “Quick response in the apparel industry”, Harvard Business School Note N9-690-038, (1990). 210 152 fazie start-up. Filozofię systemu produkcji zgodnie z QRM można streścić do sformułowania: krótsze czasy realizacji zamówienia poprawiają jakość, zmniejszają koszty i eliminują odpady pomniejszające wartość dodaną producenta, przy jednoczesnym zwiększeniu konkurencyjności oraz udziału w rynku, służąc klientom lepiej i szybciej. Jest to przykład optymalizacji o najszerszym spektrum możliwych działań, począwszy od planowania poprzez procesy lean management po logistykę. Strategie realizujące QRM opierają się na harmonogramowaniu produkcji i możliwościach kastomizacji online, bazując na sprzężeniach zwrotnych z otoczeniem oraz modelach zarządzania agile. Dzięki temu możliwa jest szybka produkcja krótkich serii za rozsądną cenę. QRM jest strategią zorientowaną rynkowo i może być komplementarna z ogólnymi strategiami wytwarzania, takimi jak: lean management, TQM, Kaizen, czy six sigma. Metoda QRM wywodzi się z japońskiej koncepcji TBC (Time Based Competition) z lat osiemdziesiątych215 oraz koncepcji QR (Quick Respons) stosowanej z sukcesem w szybkozmiennym przemyśle modowym (fast fashion)216. Jej celem jest zbudowanie strategii konkurowania na rynku prowadzącej do utrzymania trwałej przewagi konkurencyjnej, głównie dla firm niszowych i producentów dóbr innowacyjnych o niskim wolumenie sprzedaży. Skrócenie czasu od zaprojektowania produktu do jego wytworzenia dotyczy reorientacji biznesowej całej organizacji, a nie tylko jej działu. Stąd wdrożenie QRM jest szczególnie interesujące jako przykład zarządzania zmianami. TOC – teoria barier TOC (Theory of Constraints). Jest to metoda zarządzania, z lat dziewięćdziesiątych, która wykorzystuje pogląd, że jakikolwiek zarządzalny system produkcyjny jest ograniczony w działaniu przez skończoną liczbę barier (wąskich gardeł)217. Wykorzystuje się tu aksjomat ograniczonej funkcjonalności systemu, który mówi, że skuteczność działania dowolnego systemu zależy od prawności działania jego najsłabszego ogniwa218. A to oznacza, że jedna osoba, maszyna czy też relacja w łańcuchu dostaw może niekorzystnie wpłynąć na cały wynik procesu. Stąd umiejętność zarządzania zagrożeniami i wąskimi gardłami jest ważnym elementem każdej strategii produkcji. Podstawowym założeniem teorii ograniczeń jest fakt, że efektywność działania organizacji może być mierzona i kontrolowane za pomocą kombinacji trzech zmiennych: przepustowości, kosztów operacyjnych oraz zapasów. Stalk Jr. G., "Time – The Next Source of Competitive Advantage". Harvard Business Review 66, July/August, (1988), 41–51. 216 Przykładem strategii QR w biznesie są firmy Zara, H&M, Peacocks. 217 Goldratt E.M., Cox J., „Cel i doskonałość w produkcji”, Wyd. Mintbooks, Warszawa 2007. 218 Gospodarek T., „Modelowanie…”, op.cit., str. 108. 215 153 1. Zapasy są równoważne zainwestowanemu kapitałowi na zakup towarów, które mają być następnie sprzedane (lub przetworzone na produkty). 2. Koszty operacyjne stanowią całość wydatków na sprzedaż zapasów. 3. Przepustowość jest natomiast czasem, w którym system wygeneruje pieniądze poprzez sprzedaż. Teoria barier zakłada również, że każda organizacja ma swoje cele i istnieje co najmniej jedna bariera ograniczająca osiągnięcie każdego celu (np. braki kapitałowe, zasobowe, itp.). Stąd działania biznesowe realizowane w ramach tej strategii są zorientowane na cele. Model zarządzania zgodny z TOC definiuje trójelementowy układ programowania produkcji drum-buffer-rope. Drum – Rdzeń procesowy, gdzie zakłada się plan operacyjny i uruchamia jego realizację zgodnie z harmonogramem oraz workflow, uwzględniając „wąskie gardła” i obciążenia zasobów, wcześniej przypisanych do procesów (model RDF, str. 96). Buffer – są to zapasy materiałowe oraz zasoby dla realizacji procesu ustalone na wejściu (przed zdefiniowaniem „wąskich gardeł” workflow). Mogą to być zasoby związane z wydajnością, ilością oraz czasem. Mogą one same z siebie generować „wąskie gardła” (np. wydajność lakierni może blokować produkcję równoległą kilku modeli). Rope – dotyczy logistyki wewnętrznej materiałów lub elementów dla stanowiska pracy. Tu również możemy mieć do czynienia z „wąskim gardłem” związanym ze strumieniem dostaw, problemami jakościowymi komponentów oraz czasem dostępu do podzespołów. Metoda TOC zakłada ciągłość doskonalenia procesów wytwarzania. Wymaga to wykorzystywania następujących zasad: identyfikacja ograniczeń występujących w procesach, realizacja procesów z uwzględnieniem występujących ograniczeń, redukcja lub likwidacja występujących ograniczeń, zmiana norm i procedur na stanowiskach generujących „wąskie gardła”. Pomiędzy wyrobami i niezbędnymi do ich wytworzenia zasobami występują ścisłe relacje, dla których „wąskie gardła” mają charakter zdarzeń losowych. W procesach wytwarzania zgodnie z koncepcją TOC ustala się stan dynamicznej równowagi, gdzie ilość produktu wytwarzanego w jednostce czasu nie zmienia się wraz z ilością pojawiających się stochastycznie wąskich gardeł. TQM TQM (Total Quality Management). W późnych latach 70 i 80 japońska dominacja w produkcji wysokiej jakości dóbr za konkurencyjną cenę mocno dotknęła 154 gospodarki krajów zachodnich. To zmusiło do postawienia pytania: Skoro Japonia może, to dlaczego my nie?219 (A.Feigenbaum). Odpowiedzi na nie częściowo udzielił K. Ishikawa,220. Te dwie książki w zasadzie umożliwiły zdefiniowanie nowej metody zarządzania produkcją TQM. Jeszcze w latach dwudziestych W. Shewhart wprowadził metody statystyczne do analizy jakości produkcji. Ale prawdziwymi prekursorami zarządzania produkcją całkowicie zorientowaną na wysoką jakość byli E.Deming oraz J. Juran. W roku 1984 amerykańska marynarka wojenna poprosiła o opracowanie skutecznej metody kontroli i poprawienia jej działań. W wyniku prac powstał raport, w którym uwypuklono cztery kluczowe aspekty221: 1. Jakość jest określana przez wymagania klientów. 2. Najwyższe kierownictwo jest bezpośrednio odpowiedzialne za jakość. 3. Podniesienie poziomu jakości wymaga systematycznych analiz i doskonalenia procesów pracy. 4. Poprawa jakości jest ciągłym wysiłkiem całej organizacji. Sam proces TQM zdefiniowano następująco222: „System Total Quality Management (TQM) w Departamencie Obrony USA jest strategią ciągłej poprawy wydajności na wszystkich poziomach i we wszystkich obszarach odpowiedzialności. Łączy on w sobie podstawowe techniki zarządzania, dotychczasowe wysiłki optymalizacyjne, oraz specjalistyczne narzędzia techniczne w ramach zorganizowanej struktury. Koncentruje się na ciągłym doskonaleniu wszystkich procesów. Zwiększona wydajność jest ukierunkowana na osiągnięcie takich ogólnych celów jak: koszt, jakość, harmonogram oraz potrzeby wynikające z misji i przydatności oraz stabilizacji. Zwiększenie zadowolenia użytkowników jest nadrzędnym celem. Wysiłek implementacji TQM opiera się na pionierskich prac dr W. E. Deminga, dr J. M. Jurana i innych, i korzysta z doświadczeń zarówno z sektora prywatnego, jak i publicznego w ciągłym doskonaleniu procesów.”. E. Deming zasłynął z wprowadzenia do teorii zarządzania cyklu PDCA (Plan, Do, Check, Act)223, umożliwiającego logiczną kontrolę nad produkcją i jakością produktów. Sformułował również czternaście zasad zapewnienia wysokiej jakości: 1. wytrwale doskonal, 2. przyjmij filozofię nowego, 3. twórz jakość wraz z produktem, 4. porzuć praktykę najniższej ceny, 5. stale doskonal system produkcji i usług, 6. wprowadź zasadę szkolenia pracowników, Feigenbaum A.V., „Total quality control”, McGraw-Hill, New York ,1983. Ishikawa K., „What is total quality control? The Japanese way”, Prentice-Hall, Englewood Cliffs1985. 221 Wikipedia, “Total Quality Management”, https://en.wikipedia.org/wiki/Total_quality_management 222 ibidem 223 Deming, W. E., “Out of the Crisis”, MIT Center for Advanced Engineering Study, Cambridge, 1986. 219 220 155 7. 8. 9. 10. 11. 12. 13. 14. buduj przywództwo, usuń strach, usuń bariery pomiędzy wydziałami, porzuć slogany, eliminuj zarządzanie przez liczby, usuń bariery odczuwania dumy z pracy, stwórz program edukacji i samodoskonalenia, transformacja to zajęcie dla wszystkich. J. Juran doszedł do wniosku, że jakość trzeba zaplanować również w cyklu działań: planowanie, kontrolowanie, doskonalenie. Ustalił dziesięć kroków, prowadzących do skutecznego wdrożenia systemu TQM w produkcji: 1. uświadomić potrzeby i szanse doskonalenia jakości, 2. ustalić cele ciągłego doskonalenia systemu produkcji, 3. stworzyć organizację, która pomoże w realizacji zaplanowanych celów, 4. przeszkolić wszystkich pracowników, 5. przydzielić pracownikom zadania problemowe, 6. informować o przebiegu procesu doskonalenia, 7. okazywać uznanie pracownikom, 8. ogłaszać wyniki doskonalenia, 9. odnotowywać sukcesy, 10. włączyć usprawnienia do procesów biznesowych W ten sposób nadano sens jednej z najbardziej istotnych koncepcji w zarządzaniu. Nie ma jednak ogólnej definicji, jak w sposób jednoznaczny należy pojmować TQM. Wydaje się, że najlepszym odzwierciedleniem tej idei jest zdanie: „TQM jest filozofią zarządzania organizacją w sposób, który umożliwia mu efektywnie i skutecznie sprostać potrzebom i oczekiwaniom zainteresowanych stron, bez utraty wartości etycznych”224. Lean Lean (Lean manufacturing albo Lean production). Stanowi ukoronowanie wysiłków optymalizacji produkcji wychodząc od Tayloryzmu do japońskich standardów metody kaizen. Jest systematyczną metodą redukcji wszelkiego marnotrawstwa w procesach produkcyjnych225. Koncentruje się na tym wszystkim co przynosi wartość dodaną, eliminując przy tym wszystko inne. Koncepcja zarządzania lean management wywodzi się z systemu produkcyjnego Toyoty TPS (Toyota Production System rys. 3.2)226. Juran J. M., “A History of Managing for Quality: The Evolution, Trends, and Future Directions of Managing for Quality”, ASQC Quality Press, Milwaukee, 1995. 225 Wikipedia, “Lean manufacturing”, https://en.wikipedia.org/wiki/Lean_manufacturing 226 Holweg M., "The genealogy of lean production". Journal of Operations Management 25, No.2, (2007) 420–437 224 156 Lean można definiować jako zbiór narzędzi menedżerskich, które służą identyfikacji i eliminacji wszelkich odpadów oraz marnotrawstwa, co powoduje równoczesną poprawę jakości i redukcję czasu produkcji. W szczególności są to takie działania, jak: SMED, mapowanie strumienia wartości, Kanban, poka-yoke, TPM, modelowanie procesowe. Specjalną odmianą ujęcia lean jest wspomniany wyżej system produkcji „Toyota way”, który skupia się na płynnych przepływach pracy, eliminując przy tym przestoje i wąskie gardła zasobowe. Ideą przewodnią lean production jest eliminacja marnotrawstwa. S. Shingo ustalił trzy główne filary marnotrawstwa: muda (bezwartościowy nakład pracy), mura (niedoskonałości procesowe) oraz muri (przeciążenia i wąskie gardła)227. Do grupy muda zalicza się 7 składowych marnotrawstwa podlegającego optymalizacji. 1. Transport - zbędne przenoszenie elementów i podzespołów, które nie jest w rzeczywistości potrzebne, aby wykonać obróbkę. 2. Zapasy magazynowe - wszystkie materiały, półprodukty oraz gotowe produkty nie podlegające przetwarzaniu w danym momencie. 3. Przemieszczenia -zbędne przemieszczenia ludzi lub urządzeń w stopniu większym niż jest to wymagane do wykonywania przetwarzania. 4. Oczekiwanie - zbędne przerwy w produkcji, spowodowane oczekiwaniem na dostawy na kolejnym etapie produkcji lub w trakcie zmian załogi w systemie zmianowym. 5. Nadprodukcja - wszelka produkcja, która wyprzedza popyt. 6. Procesy - zbędne działania produkcyjne, wynikające ze złego oprzyrządowania lub wadliwego zaprojektowania produkcji i logistyki. 7. Usterki - wszelki wysiłek włożony w wyszukiwanie i usuwanie wad. W skład zagadnień optymalizacyjnych z grupy mura wchodzą aspekty projektowania stanowisk pracy, układu procesów, przebiegu i harmonogramowania pracy, eliminacja wąskich gardeł, planowanie zaangażowania zasobów dla realizacji zadań produkcyjnych. Muri i muda są monitorowane i stanowią punkt wyjścia dla projektowania kolejnego procesu produkcyjnego. Stanowią równocześnie sprzężenie zwrotne dla muri (organizowanie optymalnych przepływów pracy). W ten sposób powstaje procedura optymalizacyjna produkcji, stanowiąca dobrą praktykę zarządzania: 1. Skatalogować jak najwięcej dostrzeżonych problemów jakościowych, a także przestoje i inne problemy nieciągłości oraz niestabilności produkcji, wykonując audyt wewnętrzny dla kierownictwa. Shingo, S., “A Study of the Toyota Production System from an Industrial Engineering Viewpoint”, Japan Management Association, Tokyo, 1984. 227 157 2. Uczynić przepływy części i materiałów w systemie produkcyjnym lub procesie na tyle ciągłymi, na ile jest to możliwe, używając komórek produkcyjnych (workcells) umieszczanych w lokalizacjach rynku, gdzie to jest konieczne i unikać zmian w cyklu pracy operatorów procesów. 3. Przedstawić standardy pracy i ustabilizować tempo pracy różnych komórek w całym systemie (synchronizacja w czasie). 4. Rozpocząć sterowanie ciągłością pracy w systemie, mając na uwadze planowanie produkcji i jej dopasowanie do codziennych zleceń z kart kanban. 5. Nawet w wyniku redukcji wielkości partii produkcyjnej i chwilowej utraty płynności, zmienić częstotliwość dostaw wewnętrznych i zewnętrznych; jeśli jest to możliwe odpowiednio do poziomie popytu wewnętrznego. 6. Popraw ujawnione problemy jakościowe za pomocą dostępnych narzędzi. 7. Usuń niektórych pracowników (lub zwiększ ich ilość) i przejdź do realizacji procedury, określonej w punktach 1 - 7 ponownie, monitorując zmiany rezultatu. Przedstawiona procedura lean management jest przykładem procesu autoadaptatywnej optymalizacji ciągłej. Skutki jej stosowania przez Toyotę doprowadziły do spektakularnej poprawy wydajności i redukcji kosztów (rys. 3.2). Stanowi to podstawę dzisiejszych metod produkcji w większości liczących się korporacji globalnych. Lean management stał się jednym ze standardów światowych teorii zarządzania. SixSigma SixSigma jest najbardziej zaawansowanym systemem zarządzania procesami, ukierunkowanym na osiąganie wysokiej jakości wyrobów i powtarzalności produkcji w czasie. Dążeniem zarządzających jest osiągnięcie na tyle doskonałego układu procesów, w którym liczba błędów produktów finalnych nie przekracza kilku przypadków na milion. Metodę wprowadzono w Motoroli w latach osiemdziesiątych. W 1995 J. Welch uczynił z 6σ fundamentalną strategię biznesową w korporacji General Electric228. Wprawdzie lean management i six sigma mogą się wzajemnie uzupełniać, to jednak obie metody różnią się znacząco co do koncepcji229. Six sigma wywodzi się ze statystycznego podejścia do kwestii pomiaru błędów i oznacza, że maksymalne odchylenie parametrów wyjściowego produktu w procesie, nie może przekraczać wartości sześciu odchyleń standardowych. Jest to doświadczalnie ustalone kryterium poprawności przebiegu dowolnego pro- Morgan J., Brenig-Jones M., “Lean Six Sigma For Dummies”, 3rd Ed., John Wiley & Sons, Hoboken, 2015. 229 Lean Center, „Czym się różni Lean i Six Sigma?”, http://www.leancenter.pl/bazawiedzy/lean-i-sixsigma-roznice 228 158 cesu, w którym błędy są zjawiskiem stochastycznym i podlegają rozkładowi normalnemu. Poza przedziałem sześciu odchyleń standardowych może znaleźć się maksymalnie 3,4 wystąpienia na milion przypadków. Redukcja defektów w procesie do tak minimalnego poziomu oznacza niemal absolutną powtarzalność i pośrednio gwarantuje wysoką stabilność systemu produkcyjnego. Doktryna Six Sigma stwierdza co następuje: ciągłe wysiłki na rzecz stabilnych i przewidywalnych wyników procesów (tj. zmniejszenie zmienności procesów) mają kluczowe znaczenie dla sukcesu całej firmy; procesy produkcyjne i biznesowe mają cechy, które mogą być mierzone, analizowane, kontrolowane i ulepszane. osiągnięcie trwałej poprawy jakości wymaga zaangażowania całej organizacji, a szczególnie kierownictwa najwyższego szczebla. Funkcje zawarte Six Sigma oprócz inicjatywy poprawy jakości obejmują: czyste skupienie się na osiągnięciu wymiernych korzyści finansowych z każdego projektu Six Sigma, zwiększony nacisk na silną rolę przywództwa w zarządzaniu i wsparcie procesów, klarowne zobowiązanie do podejmowania decyzji na podstawie danych statystycznych i metod do sprawdzania, a nie założeń i domysłów. Metodyka bazuje na koncepcji cyklu Deminga (TQM str. 140) i polega na realizacji projektów 6σ na dwa sposoby DMAIC albo DFSS230: DMAIC231 stosowana jest w celu projektowania optymalizacji istniejących procesów i się z pięciu kroków „Z”. 1. Zdefiniować system produkcyjny, biorąc pod uwagę głos klienta, jego konkretne wymagania i cele projektu. 2. Zmierzyć kluczowe aspekty obecnego procesu, zebrać odpowiednie dane i obliczyć produktywność procesu w bieżącym stanie. 3. Zanalizować dane w celu zbadania i zweryfikowania związków przyczynowo-skutkowych istniejącej sytuacji. Określić, jakie są relacje formalne w procesie, upewniając się, że wszystkie istotne czynniki zostały wzięte pod uwagę. Poszukać przyczyn zaistnienia defektów. 4. Zoptymalizować lub poprawić obecny proces w oparciu o analizę danych za pomocą technik projektowania procesów, poka yoke, itp. Ustalić działania pilotażowe dla ustalenia wydajności zoptymalizowanego procesu. 5. Zapewnij ciągłą kontrolę stanu przyszłego procesu zapewniającą, że wszelkie odchylenia od celu będą skorygowane zanim spowodują one zaistnienie 230 231 Wikipedia „Six sigma”, https://en.wikipedia.org/wiki/Six_Sigma DMAIC skrót od Define, Measure, Analyze, Improve, Control 159 wad. Wdrożyć metody ciągłej kontroli, takie jak: statystyczna kontrola wyników procesów, zespoły kontroli produkcji, wizualizację miejsc pracy oraz stale monitorować ten proces. Procedury te powtarza się aż do uzyskania pożądanego poziomu jakości. DFSS – Design For Six Sigma, poświęcony tworzeniu nowych produktów lub projektowaniu nowych procesów. 1. Zdefiniuj cele projektu, które są zgodne z wymaganiami klienta i strategią organizacji. 2. Zmierz i zidentyfikuj cechy, które mają krytyczne znaczenie dla zapewnienia jakości. 3. Oszacuj możliwości produktów, wydajność procesu produkcji i ryzyko. 4. Zanalizuj i rozwijaj alternatywne projekty procesów i produktów. 5. Zaprojektuj lepszą alternatywę, najlepiej odpowiadającą zmierzonym cechom krytycznym, na podstawie analizy wykonanej w poprzednim kroku. 6. Zweryfikuj czy rozwijany projekt biegnie zgodnie z założeniami. 7. Stwórz pilotażowe realizacje praktyczne i przekaż projekt właścicielowi procesu. Powyższe rozważania wskazują, że system SixSigma może prowadzić do bardzo wydajnych procesów produkcyjnych wychodząc z innych założeń niż model lean w wersji japońskiej. Niestety jego wdrożenie nie jest ani proste ani pozbawione wad. Warto zauważyć, że wszelka standaryzacja procesów oraz zapewnienie wysokiej powtarzalności praktycznie uniemożliwia zaistnienie innowacyjności. Stanowi to jeden z fundamentalnych zarzutów dla tej metody optymalizacji w organizacji. Tym niemniej, wiele światowych korporacji stosuje z sukcesem metodę 6σ odnosząc spektakularne sukcesy finansowe. Standaryzacja procesowa Metody zarządzania ukierunkowane na produktywność, jakość oraz standaryzację spinają systemy zapewnienia jakości i normalizacji. Do najbardziej znanych należą: ISA-88, IEC 62264, B2MML, ISO 14001, ISO 900X, itp. oraz systemy kontroli procesów PLC i DCS. Wszystkie, wymienione metody są wykorzystywane w dzisiejszej praktyce zarządzania i ciągle rozwijane, pomimo że ich początki datowane są na lata trzydzieste. Standaryzacja pozwala na globalizację procesów produkcyjnych, kooperację i wykorzystanie globalnych łańcuchów dostaw. Ponadto standaryzacja jest warunkiem kompatybilności systemów IT w logistyce. Wszelkie kody towarowe produktów muszą być rozumiane w identyczny sposób w różnych krajach i przez różne systemy zarządzania magazynami oraz transportem, a języki wypowiedzi inżynierskiej muszą zostać sprowadzone z wieloznaczności mowy potocznej do jednoznacznych semiotycznie określeń formalnych (np. schematy, ikony, diagramy, symbole, itp.). Wszelkie 160 systemy związane z zapewnieniem mierzalnych efektów muszą być standaryzowane i wymierne. 3.3.4 Kierunek optymalizacja funkcjonalna organizacji Ten kierunek zarządzania rozwijał się od wczesnych lat dwudziestego stulecia obejmując ujęcia uniwersalistyczno-socjologiczne. Obejmuje on następujące zagadnienia: 1. funkcjonalność zarządzania i struktury organizacji, 2. role menedżera i władzę w organizacji, 3. optymalizację struktur organizacji, 4. planowanie, kontrolę i pomiar stanu, 5. aspekty socjologiczne i przywództwo, 6. rolę pracy grupowej i budowania społeczności, 7. transformację do organizacji opartej na wiedzy, 8. wirtualizację i wykorzystanie technologii IT. Jak widać z powyższego wyliczenia, kierunek optymalizacji organizacji jest niezwykle ważny dla całej teorii zarządzania. Dotyczy on definiowania podstawowych funkcji, zakresu działań, przedmiotu zarządzania i pozwala wywodzić modele zachowań organizacji, relacji pracownik-organizacja. Dotyczy to również tzw. „miękkich obszarów zarządzania”, zależnych od aspektów psychologicznych oraz wpływu niemierzalnych zjawisk społecznych na łańcuch wartości, jak: przywództwo, samorefleksja, uczenie się, odkrywanie wiedzy. Finalnym osiągnięciem kierunku optymalizacji organizacyjnej jest zarządzanie wiedzą oraz kapitał intelektualny, jako cenne zasoby umożliwiające wirtualizację procesów biznesowych i ich globalizację. Sprawność organizacyjna i humanizacja pracy Problem ten został omówiony od strony teoretycznej w rozdziale 2.3. W tym punkcie zostaną przedstawione działania mające miejsce na przestrzeni ponad 100 lat istnienia teorii zarządzania. Jak wiadomo w czasach, gdy zarządzanie naukowe święciło swoje tryumfy, potrzeby pracownika nie były brane pod uwagę przez menedżerów. Liczyła się wyłącznie sprawność operacjonalna i wydajność pracy. Pierwszym, znanym przedsiębiorcą, który zwrócił uwagę na konieczność uwzględnienie potrzeb człowieka w pracy był B. Rowntree, brytyjski przemysłowiec i socjolog, prowadzący firmę Rowntree & c.o. w okresie największych sukcesów tayloryzmu. Wprowadził on w praktyce następujące elementy relacji pracownik-organizacja w swojej fabryce: 8 godzinny dzień pracy (1896), plan emerytalny, 5 dniowy (44 godziny) tydzień pracy, rady pracownicze, poradnię psychologiczną, nagrody z zysku (1923). Zrealizował jako prekursor to, co dzisiaj 161 wydaje się być takie oczywiste, a jego sukcesy biznesowe w skutecznym konkurowaniu z Cadbury i Fry pokazały, że wybrana strategia rozwoju Rowntree& c.o. była słuszna. Kolejnym, ważnym krokiem w kwestiach socjalizacji pracy była wydana w 1923 r filozofia O. Sheldona232. Podstawowe przesłania tego dzieła to są trzy tezy, odbiegająca znacząco od koncepcji zarządzania naukowego. Służba społeczeństwu to jest podstawowy cel i główna idea przemysłu. Przemysł to nie jest maszyna, którą można rozpatrywać w kontekście wydajności lecz złożona forma ludzkich relacji. Przewodzenie ludziom wymaga cierpliwości, odwagi i ponad wszystko sympatii. W kolejnych latach zaczęły się pojawiać rozwinięcia idei znalezienia odpowiednich relacji człowiek-praca, człowiek-stanowisko pracy, człowiek-organizacja. Wśród najważniejszych należy wymienić prace E. Mayo. Jego idee można podsumować w trzech sentencjach. Celem zarządzania jest zharmonizowanie logiki wydajności z logiką uczuć. Bardzo istotnym czynnikiem dążenia do wydajności pracy jest przekształcenie zbiorowiska samotników w grupę społeczną. Wydajność pracy silnie uwarunkowana jest nieformalnymi powiązaniami pracowników. Było to wyraźne zwrócenie uwag na synergizm pracy grupowej oraz konieczność zajmowania się relacjami człowieka i organizacji, ponieważ ma to istotny wpływ na efektywność i wydajność. Również w latach trzydziestych zwrócono uwagę na rolę przywództwa, władzy i koordynacji w zarządzaniu i sterowanie relacjami w grupie. M. Parker Follett potraktowała przedsiębiorstwo jako pewien system społeczny, na który składają się różnorodne relacje formalne i nieformalne oraz hierarchiczność ich struktury. Najważniejszą myślą tego nurtu były stwierdzenia: „Ludzie winni być odpowiedzialni nie przed kimś, ale raczej za coś”, oraz „Autorytet to władza formalna, wynikająca z wykonywania danej funkcji. Autorytet zatem przypisuje się nie osobie, a stanowisku”. Były to początki kształtowania się koncepcji przywództwa w organizacji, pozostające w głębokiej relacji z nurtem administracji, rozwijanym w tym czasie przez M. Webera i H. Fajola. Ważnym rezultatem ponad 40 lat doświadczeń od czasów E. Mayo były prace E. Mumford, która wprowadziła do koncepcji zarządzania systemy socjotechniczne233. Ideę tą można opisać zdaniem: „…jeśli rozpozna się interakcje między technologią a ludźmi i opracuje się systemy, które są zarówno technicznie 232 233 Sheldon O., „The Philosophy of Management”, Pitman&Sons, London, 1923 Mumford E., “Sociotechnical…”, op. cit. 162 efektywne, jak społecznie skuteczne, to pozwoli to na podniesienie poziomu zadowolenia z pracy”. E. Mumford sformułowała następujące tezy: zadowolenie z pracy opiera się na następujących elementach: rozwoju wiedzy i umiejętności pracowników, dopasowaniu psychologicznym pracy, skuteczności pracy, wyzwaniach związanych z pracą, czynnikach etycznych. W latach 80-tych trwał tryumfalny pochód japońskich metod zarządzania, a bezwzględne metody produkcyjne eliminowały konkurencję z gry. Amerykanie zastanawiali się, jak można przeciwstawić się ekspansji Japonii i ponownie przejąć palmę pierwszeństwa. Powstała wówczas koncepcja W. Ouchi - pracownika „Z” i transformacji społecznej zmierzającej ku kategorii społeczeństwa „M” (tabela 6). Ouchi postawił dwie grupy tez. I. W odniesieniu do miejsca pracy. W miejscu pracy powinno się stworzyć szansę do wykorzystania i rozwinięcia zdolności i talentów pracowników. Należy wspierać możliwości współdziałania i współpracy grupowej by wyeliminować indywidualny egocentryzm. Należy zapewnić dostęp do dóbr i usług zapewniających przyzwoity poziom egzystencji. II W odniesieniu do pracownika: Pracownika traktować należy całościowo, jak człowieka zaangażowanego w wiele dziedzin życia, nie zaś jako kolejne ogniwo łańcucha produkcji. Należy sprawiać, by praca była także przyjemnością, by dawała radość. Należy dawać pracownikowi poczucie znaczenia. Należy wzmacniać pozytywne zachowania pracowników. Powinno włączać się wszystkich ludzi do procesu zarządzania. Menedżer nie powinien tworzyć sztywnych struktur organizacji. Należy dbać o otwartą i szczerą komunikację. W latach dziewięćdziesiątych zauważono, że poprawę efektywności funkcjonowania organizacji można osiągnąć wyłącznie na drodze zmian wynikających z lepszego rozumienia procesów oraz powiązania z tym zasobów ludzkich. Tak zrodziła się koncepcja reinżynieringu M.M. Hammer i J.A. Champy234. Reinżyniering oznacza fundamentalne przemyślenie od nowa i radykalne przeprojektowanie procesów w firmie, prowadzące do dramatycznej (przełomowej) poprawy osiąganych wyników. To przeprogramowanie procesów polegało nie tylko na zmianie wydajności, ale przede wszystkim na relacjach człowiek- 234 Hammer M., Champy J., „Reengineering w przedsiębiorstwie”, Warszawa 1996, s. 16. 163 proces biznesowy. Ujęto to w formie manifestu reinżynieringu, który uwzględnia następujące elementy: zastąpienie komórek funkcjonalnych w firmie przez zespoły odpowiedzialne za konkretny proces biznesowy, zastępowanie prostych zadań przez pracę wielowymiarową, zmianę roli pracowników z wykonawców na kreatorów rozwiązań (partnerstwo w procesie tworzenia produktu), ograniczanie kontroli i zwiększanie autonomii stanowisk w firmie, wynagradzanie pracowników za wyniki, a nie za samą aktywność, zmianę roli przełożonych (z kontrolnej na koordynującą i inspirującą), zmianę struktur hierarchicznych (demokratyzacja procesów zarządzania), gromadzenie informacji w jednym, ogólnodostępnym banku danych. Od tego momentu zaczęły rozwijać się organizacje wykorzystujące wiedzę, zmianę i kapitał ludzki jako źródło sukcesu. Stały się one motorem napędowym rozwoju nowoczesnych metod systemowych zarządzania oraz adaptatywnych koncepcji dostosowania się organizacji do otoczenia. Znamienne stają się w tej kwestii wypowiedzi B. Gates’a „Jeżeli nie wierzy się, że wszyscy pracownicy mogą przyczyniać się do sukcesu firmy, cała technologia świata nie pomoże zwiększyć ich kompetencji” oraz „W erze cyfrowej, każdy pracownik musi być pracownikiem wiedzy”. To są obserwacje, które zostały wykorzystane przez największych innowatorów amerykańskich po roku 1990, do których należy zaliczyć: J. Welcha, S. Jobsa i S. Wozniaka, W. Hewletta i D. Packarda, E. Muska, S. Zuckenberga, i wielu innych, którzy pchnęli świat do przodu. Sprawność administrowania organizacją Wychodząc od koncepcji Taylora sprawności organizacji i zarządzania naukowego, już na początku XX wieku zauważono, że dla sprawnego funkcjonowania biznesu konieczne jest sprawne zarządzanie organizacją oraz administrowanie jego otoczeniem gospodarczym. Te przesłanki stanowiły fundament dla prac M. Webera, który w latach dwudziestych przedstawił zasady doskonałej administracji w organizacji235. Idealna struktura powinna posiadać następujące cechy: spisany system reguł i standardów zachowań pracowników, czytelny system hierarchii i władzy, system selekcji i oceny pracowników, jasno sprecyzowany układ zadań i ról. Weber zaproponował również reguły idealnej biurokracji w biznesie, które mają następującą postać: władza ma prawo wymagać od ludzi odpowiedzialności za ich działania, Weber M., “Wirtschaftsgeschichte. Abriß der universalen Sozial- und Wirtschaftsgeschichte”, Duncker und Humblot, Leipzig, 1923, 235 164 pozycja w firmie powinna wynikać z kompetencji, a nie z kontaktów społecznych, obowiązki dla każdego stanowiska mają być wyraźnie określone tak, żeby ludzie wiedzieli czego się od nich oczekuje, linie podziału władzy powinny być jasno określone tak, że pracownicy wiedzą kto komu podlega, zasady, standardy, procedury operacyjne i normy stanowią przewodnik działalności firmy, konieczna jest rozdzielność własności środków produkcji od funkcji administrowania. Jak łatwo zauważyć, powyższe reguły są aktualne do dnia dzisiejszego, a szczególnie ważnym aspektem jest rozdział własności środków produkcji od funkcji administrowania. To definiuje pojęcie menedżera, jako najemnego pracownika, który nie musi być właścicielem firmy aby pełnić funkcje zarządcze. Koncepcje M. Webera rozwinął francuski inżynier górnictwa, H. Fayol. Jego ogólna teoria administrowania biznesem jest często nazywana Fayolizmem236. H. Fayol skupił uwagę na powinnościach menedżera i funkcjach zarządzania, proponując dla nich pięć kluczowych aspektów: 1. przewidywanie, 2. organizowanie, 3. dowodzenie, 4. koordynowanie, 5. kontrolowanie. Wskazał kluczowe funkcje przedsiębiorstwa, które do dziś pozostają aktualne. Są to funkcje: techniczne, handlowe, finansowe, ubezpieczeniowe, rachuby, administracyjne. Wyodrębnił też funkcje kompetencyjne przeznaczając dla dyrektorów - funkcje poznawcze, dla administracji - funkcje społeczne, a dla brygadzistów - funkcje techniczne. Na podstawie powyższych ustaleń Fayol w logiczny sposób wydedukował znane powszechnie w teorii zarządzania 14 zasad. 1. Podział pracy - większa i lepsza produkcja dzięki specjalizacji czynności i rozgraniczeniu funkcji. 2. Autorytet - władza oparta na akceptacji przez tych, którzy tej władzy podlegają. 236 Witzel M., “Fifty key figures in management”,. Routledge, London, 2003 165 3. Dyscyplina - posłuszeństwo, pracowitość, lojalność (relacje pracownik zwierzchnik organizacja), 4. Jedność rozkazodawstwa - każdy pracownik powinien mieć tylko jednego przełożonego, 5. Jednolitość kierownictwa – w każdym zespole powinien być jeden szef i jeden plan realizowany, 6. Podporządkowanie interesu osobistego interesowi ogółu z zastrzeżeniem, że najlepiej godzić oba te interesy, 7. Wynagrodzenie – sprawiedliwe, nagradzające pracownika i motywujące go do dalszej pracy, 8. Centralizacja dowodzenia organizacją lub procesem. Ta zasada dotyczy organizacji niebędących sieciowymi. W sieciach, których za czasów Fayola nie było, zarządzanie rozproszone jest skuteczne. 9. Hierarchia – czytelna komunikacja przełożeni - podwładni. 10. Ład – właściwe miejsce dla każdej rzeczy i człowieka w organizacji. 11. Ludzkie traktowanie pracowników. 12. Stabilizacja personelu tak, aby pracownicy mogli osiągnąć biegłość w wykonywaniu zadań i utożsamiać się z firmą, 13. Inicjatywa – umożliwić podwładnym podejmowanie inicjatyw. 14. Harmonijne zgranie personelu - współpraca. Zasady fayolizmu są na tyle uniwersalne, że dopiero w dzisiejszych czasach organizacji sieciowych, organizacji opartych na wiedzy oraz korporacjonizmu muszą być one zmodyfikowane. Ale w organizacjach standardowych, działających na rynkach lokalnych, można posługiwać się nimi bez zastrzeżeń i nie za wiele można do nich dodać. Koncepcje behawioralne Z założenia i przekonań, że to człowiek stanowi najbardziej istotny element organizacji, wynikają aspekty psychologiczne w jej funkcjonowaniu, złożoność relacji i zachowania inteligentne. To powoduje, że ścisłe ujęcia ilościowe dotyczące problemów decyzyjnych, nie prowadzą do znaczących sukcesów objaśniających zachowania pracowników i grup. Ma to swoje odzwierciedlenie w teorii zarządzania. W praktyce, im niższy jest poziom zarządzania dotyczący problemu (np. proces kanoniczny systemu produkcji), tym bardziej prawidłowe i racjonalne są wnioskowania oparte na pomiarze. Im dłuższy jest horyzont czasowy skutków podejmowanej decyzji i im jest ona bardziej globalna (np. strategiczna, dotycząca korporacji), tym bardziej rozmyty staje się kontekst i tym gorzej ścisłe ujęcie ilościowe przybliżają rzeczywistość. Wynika to z ograniczonej ilości zmiennych, za pomocą których próbujemy opisać złożone zagadnienie. Możemy być zmuszeni równolegle przetwarzać kilka równań, w których pojawia się konieczność uwzględnienia stanów przeszłych, wpływających na stan 166 teraźniejszy i przyszły. W końcu słabość modeli prognostycznych związana jest z nieuwzględnieniem pewnych zmiennych oraz indeterminizmem zjawisk rzeczywistych. W organizacjach realizowane są różne cele różnych interesariuszy. Często występują związane z tym konflikty i konieczność renegocjacji strategii oraz celów. To wszystko wpływa n złożoność problematyki, o czym traktuje rozdział 3.1. R.M. Cyert i J.G. March w roku 1963 przedstawili behawioralną teorię firmy237, a ich książka stanowi jedną z ważniejszych pozycji w literaturze nauk o zarządzaniu. W koncepcji neoklasycznej ekonomii zakładano, że organizacje operują pełną i doskonałą informacją. Ponadto przyjmowano za aksjomat, że celem bazowym jest maksymalizacja zysku i produktywność. Mało uwagi przywiązywano do problemów alokacji zasobów w procesach oraz relacji wewnątrzorganizacyjnych. To powodowało niedopasowanie licznych obserwacji rynku do istniejących wówczas teorii ekonomicznych. W koncepcji behawioralnej zakłada się, że organizacja oferując dobra, oddziaływuje na rynek za pomocą cen. Po czym próbuje przewidywać, jak odpowie on na zaproponowane ceny, a następnie w zależności od uzyskanych danych, dopasowuje swoje zasoby oraz ich alokację. A zatem fundamentem działania są sprzężenia zwrotne. Teoria behawioralna dotyczy przede wszystkim dużych organizacji, gdzie istnieje rozdział własności oraz zarządu, a ponadto można ustanowić zmienną i elastyczną strukturę oraz łańcuch dostaw. Każda duża firma uczestniczy w sieci albo układzie koalicyjnym, w którym musi w ciągły sposób dostosowywać się do zmienności otoczenia. W tym układzie współdziałania, organizacja musi ustalać cele oraz podejmować decyzje. Stąd pojawiają się różnorodne konflikty, które wpływają na zmienność zachowań. Cyert i March ustalili pięć zasadniczych celów, które organizacje realizują. Są to: produkcja, zapasy, pozycja rynkowa, sprzedaż i zysk. W zasadzie nie różni się to znacząco od koncepcji zarządzania ukierunkowanych na optymalność. Różnica polega na ustalaniu celów. Zgodnie z koncepcją H. Simona ograniczonej racjonalności, organizacja, wobec złożoności problemów i występującej niepewności ustala cele na poziomie satysfakcjonującym, a nie maksymalnym. Cele są wynikiem negocjacji w grupie (łańcuchu dostaw), w której dana organizacja uczestniczy. Ustala je kierownictwo. Realizacja celów następuje na dwóch poziomach zarządzania: zarządu i kierownictwa operacyjnego. Propozycje różnych działów są analizowane i poddawane ocenie według dwóch kryteriów: dostępności koniecznych zasobów oraz czy dana realizacja poprawi „zdrowie” organizacji. Schemat działania organizacji w modelu behawioralnym można przedstawić następująco: 237 Cyert R.M., March J.G., „A Behavioral Theory of the Firm”, Prentice-Hall, Englewood Cliffs, NJ 1963. 167 znajdź motywujące problemy, znajdź uogólniające problemy, utwórz zespoły zadaniowe, twórz mechanizm nadzoru, utwórz mechanizm zmian planu, zwiększaj obszar aktywności, utwórz więzi osobiste, utwórz nowe formy nauczania, utwórz nowa strukturę organizacyjną, wykorzystaj nowoczesną technikę do nauczania. Ważnym elementem teorii behawioralnej były prace R. M.Kanter238, tzw. model PAL, dotyczący alokacji zasobów i realizacji zmiany w korporacji. Stanowią go trzy elementy: Pool (łączenie zasobów w synergicznie działające systemy), Ally (nawiązywanie sojuszy z innymi organizacjami), Link (formowanie wewnętrznych relacji formalnych i nieformalnych). Model PAL stanowi doskonałe podsumowanie idei teorii behawioralnej organizacji. Kanter zaproponowała również kluczowe elementy realizacji tego modelu. Są to: inwestycje długoterminowe ważność kontaktów między uczestnikami aliansów niezależność uczestników aliansu integracja procesów komunikacji w aliansie informacja o kierunkach zmian członków aliansu instytucjonalizacja aliansu Teoria behawioralna umożliwia wejście w strukturę organizacji i jej relacje. Nie pozwala jednak na porównania z otoczeniem Jest zbyt skomplikowana, żeby można było ją powszechnie stosować, ale wnosi znaczący wkład w poznanie działania organizacji i przyczyny jej powstania. Ujęcie behawioralne wykorzystuje koncepcję X, Y McGregora (tabela 6), ustalającą relacje interesariuszy, jakimi są pracownicy organizacji, z organizacją. Posługuje się teoriami osiągnięć McClellanda, motywacji C.Alderfera, oczekiwań V.Vrooma i celów E. Locke’a (rozdział 0). To powoduje, że wielu badaczy odwołuje się do teorii behawioralnej. Jedną z liczących się firm, które działają według zasad behawioralnych jest koncern VW-Audi AG. Kanter R. M., “The change masters: innovation and entrepreneurship in the American corporation”, Simon and Schuster, New York, (1984) 238 168 3.3.5 Ujęcia systemowe W rozdziałach 1.5.1; 2.3.2 oraz 3.1 przedstawiłem zastosowanie ujęć systemowych w różnych aspektach teorii zarządzania. Najważniejszym zagadnieniem metodologicznym jest prawidłowe wykorzystanie ogólnej teorii systemów239240. Z faktu uznania czegoś za system wynikają określone własności takich obiektów, jak również sposoby ich bytowania w ekosystemie biznesu241. Ujęcia systemowe pozwalają na uogólnienia objaśniające określone zachowania, a nie tylko deskryptywne. Są jednak zbyt ogólne, żeby z ich pomocą budować modele ilościowe lub ścisłe prognozy. W ciągu całej historii zarządzania ujęcia systemowe dostarczyły kilka szczególnie ważnych podteorii, z których na szczególną uwagę zasługują: ujęcie behawioralne, koncepcje adaptatywne (np. teoria kontyngencji), systemy samoorganizujące się i samorefleksyjne, zarządzanie wiedzą i informacją oraz ujęcie zasobowe242. Pierwszym badaczem, który zauważył konieczność rozpatrywania organizacji jako system był Aleksander Bogdanow (jeszcze na długo przed L. von Bertalanffy i N. Wienerem). W swojej pracy z 1922 r zaproponował, że: organizacja winna być rozpatrywana jako system, wszystkie systemy rządzą się tymi samymi prawami, wszystkie systemy mogą być określone poprzez ich strukturę, system to układ relacji między jego elementami, cybernetyka to nauka o działaniu organizacji, celem działania systemu winna być jego sprawność. Bogdanow stworzył pojęcie „tektologia” jako nauka o organizacji. Stanowiła ona przyczynek do prakseologii. Głównymi jej założeniami były poniżej przestawione sformułowania. Podstawowym systemem organizacyjnym jest kompleks, będący układem niezależnych i autonomicznych części, stanowiących sumę synergiczną. Zadaniem kompleksu jest pozostawanie w zgodzie z jego otoczeniem i ciągłe adaptowanie się do niego. Stabilny kompleks, to jest kompleks zdolny do przetrwania w swoim otoczeniu. Podstawową cechą kompleksu jest jego celowość. Pomiędzy celami i strukturami występuje relacja następstwa. Narzędziami kompleksu są: język, schematy organizacyjne oraz normy. Gospodarek T., “Modelowanie…”, op. cit, str. 107. Boulding K.E., „General Systems Theory. The Skeleton of Science”, Management Science, 2(3), (1956), 197-208. 241 Bertalanffy L. von, “General System Theory. Foundations, Development, Applications”. New York: Braziller, 1968.; („Ogólna teoria systemów. Podstawy, rozwój, zastosowania”. Warszawa: PWN 1984). 242 Gospodarek T., „Aspekty…”, op. cit. str. 284-300. 239 240 169 W latach pięćdziesiątych i sześćdziesiątych ujęcie systemowe wiązane było głównie z koncepcjami behawioralnymi. W roku 1965 H. Leavitt sformułował model organizacji, który zwany jest "diamentem Leavitta". Zgodnie z tym modelem organizacja jest złożonym i uporządkowanym systemem zbudowanym z czterech składowych: zadań, techniki, struktury i ludzi. Leavitt zauważył, że wszystkie elementy systemu są ze sobą powiązane relacjami i oddziaływują między sobą (każdy z każdym). Zmiana jednego z elementów systemu prowadzi do zmiany pozostałych trzech, co unaocznia działanie reguła przekory i sprzężenia zwrotnego. Konsekwencją takiego rozumienia organizacji jest konieczność uwzględnienia wpływu oddziaływania planowanej zmiany na każdy z tych czterech elementów niezależnie. Ponieważ struktura organizacji może tworzyć układy grupowe o topologii hierarchicznej lub bardziej spłaszczonej (gwieździste). Leavitt stwierdził, że grupy hierarchiczne o strukturach gwiazdy są skuteczniejsze w działaniu, a równocześnie bardziej podatne na kontrolę. Natomiast najbardziej kreatywne są grupy płaskie, o strukturze mesh (każdy z każdym). Praktyka zarządzania wskazuje, że nadmierne spłaszczenie organizacji może doprowadzić do utraty kontroli i utrudnienie funkcjonowania zintegrowanych systemów informacyj-nych. Ujęcie zasobowe Traktując organizację jako uporządkowany zbiór zasobów możemy wyprowadzić metodologię zarządzania, odnoszącą się nie tylko do teraźniejszości, ale również do przyszłości. Stąd też w większości przypadków ujęcie zasobowe przypisywane jest do metodologii zarządzania strategicznego, jako jedna ze „szkół strategii”243. Jednak ujęcie zasobowe spełnia kryteria czegoś znacznie więcej niż przykład metodologiczny – można je uznać za samodzielną podteorię teorii zarządzania. Jak pisał P. Drucker „Niektórzy postmoderniści uważają, że sam kapitał ludzki i wiedza mogą przenosić góry. Ale to nie wiedza i idee, a maszyny budowlane zmieniają fizycznie rzeczywistość, a ludzie poprzez pomysły jedynie wskazują, jakich zasobów użyć i gdzie”. Przekłada się to na logiczną konsekwencję dla metodologii zarządzania, wyrażonej kolejną myślą „Pierwszą powinnością i nieustającym obowiązkiem menedżera przedsiębiorstwa jest dążenie do najlepszych, możliwych do osiągnięcia wyników ekonomicznych przy wykorzystaniu aktualnie zaangażowanych i dostępnych zasobów”. A zatem odnosząc się do zbioru zasobów w sposób holistyczny, odnosimy się do pewnego definiowalnego stanu (ilość, wartość, parametry użyteczności, parametry funkcjonalności w procesie), który pośrednio określa stan systemu generującego wartość (rozdział 2.2.2, w kontekście 3.1.2). Ujęcie to pozwala traktować organizację jako „szarą skrzynkę”, która co do 243 Obłój K., „Strategia organizacji”, wyd. III, PWE, Warszawa, 2014. 170 struktury nie musi być dokładnie znana (rządzi się swoimi wewnętrznymi relacjami), natomiast posiada dobrze zdefiniowany system zasobów, któremu postawiono za zadanie realizację procesów zdefiniowanych w ramach łańcucha wartości. Ponieważ cele można skwantyfikować, stąd można określić wyjściowy stan zasobów i skutki z tego wynikające. Jest to bardzo wygodne ujęcie, abstrahujące od skomplikowanych relacji człowiek - organizacja (częściowa reifikacja) w analizach funkcjonowania operacyjnego organizacji. Umożliwia ono definiowanie modeli ilościowych związanych z produktywnością, efektywnością i funkcjonalnością organizacji, określając w wyniku stany optymalne alokacji zasobów oraz pomiar. Może wykorzystywać sprzężenia zwrotne w procesach autoadaptacji struktury zasobowej. W końcu pozwala zdefiniować stany przyszłe, do których zarząd powinien zmierzać. Jest to wykorzystywane w ujęciach zasobowych zarządzania strategicznego przy budowaniu przewagi konkurencyjnej. Celem samym w sobie modelu zasobowego jest stworzenia systemu zasobów klasy VRIN używając metody VRIO (rozdział 2.2). Systemy socjotechniczne (STS) Jednym z aktualnych osiągnięć systemowego ujęcia w teorii i praktyce zarządzania są systemy socjotechniczne. Koncepcja wprowadzona przez E. Trista, K. Bamfortha i F. Emery na podstawie obserwacji pracy w kopalniach angielskich w latach pięćdziesiątych. 171 Rys. 3.6 Idea integracji w systemy socjotechniczne Teoria STS wprowadza aspekty społeczne oraz zachowań ludzkich do technicznych aspektów budowy organizacji i procesów organizacyjnych. Skupia się na procedurach i wiedzy z tym związanej. Dąży do optymalizacji równoległej w zakresie wydajności i jakości pracy, jak i w życiu ludzi244. Głównymi zagadnieniami systemów socjotechnicznych są: analiza pracy, projektowanie pracy, doskonalenie pracy, wzbogacanie pracy, powiększanie pracy, rotacja pracy, motywacja. W rezultacie wykorzystanie systemów STS prowadzi do humanizacji pracy przy równoczesnej możliwości wykorzystania japońskich koncepcji zarządzania, opisanych w rozdziale 3.3.2. Ujęcie prakseologiczne Mumford E., “Sociotechnical Systems Design: Evolving Theory and Practice”, Manchester Business School, 1985. 244 172 Jednym z nurtów optymalizacji systemowej jest minimalizacja nakładów oraz wysiłku na uzyskanie określonego celu. Najbardziej odpowiadają tej koncepcji zasady prakseologii (rys. 1.4). Koncepcja rozwinięta przez L. von Misesa oraz T. Kotarbińskiego została w sposób doskonały wykorzystana przez japońskie systemy produkcyjne (rozdział 3.3.3). Dotyczy ona wszelkich modyfikacji w obrębie łańcucha wartości. Ujęcie to stanowi najbardziej racjonalne podejście do kwestii zarządzania, kierując sią zdrowym rozsądkiem, oszczędnością oraz logiką działań. Bardzo dobrze idee prakseologii zostały przedstawione w książce „Traktat o dobrej robocie” T. Kotarbińskiego245. 3.3.6 Kierunek strategiczny Jednym z fundamentalnych zagadnień stawianych przed zarządzaniem jest prognozowanie. Nie trzeba nikogo przekonywać, że większość kwestii zarządzania dotyczy przyszłości i odpowiedzi na pytanie, jak osiągnąć zamierzone cele. To jest właśnie próba wypełnienia luki wiedzy pomiędzy tym jak jest, a jak być powinno. Na tym oparte jest zarządzanie strategiczne. Z założenia koniecznym jest ustalenie stanu wyjściowego i wyobrażenie sobie jak ma się on zmienić wskutek wdrożonych działań. Stąd też kierunek strategiczny zawsze powiązany jest ze zmianą w organizacji (rozdział 4.2). Decyzje strategiczne są oparte na intuicyjnej ocenie oddziaływania organizacji ze środowiskiem biznesowym i stanowią odpowiedź na pytania dotyczące sposobu konkurowania na rynku, sensu działania oraz trwania w czasie. Najważniejsze pytania kierowane ku zarządzaniu strategicznemu przedstawione są poniżej. Co jest wartością organizacji? Kto jest klientem docelowym dla oferowanych produktów i usług? Gdzie są klienci i w jaki sposób dokonują zakupów? Co jest uważane za "wartość" dla klienta? Które interesy, produkty lub usługi powinny być włączone lub wyłączone z portfela organizacji? Kim są interesariuszy organizacji i jakie relacje powinny zostać zachowane, a jakie należy zmienić? Co odróżnia organizację od jej konkurentów w oczach klientów i innych zainteresowanych stron? Jakie umiejętności i zasoby należy rozwijać w organizacji? Jakie są najważniejsze szanse i zagrożenia dla organizacji? Jak organizacja może wzrosnąć? Jak firma może generować większą wartość dla inwestorów? Jak osiągnąć optymalność łańcucha wartości? 245 Kotarbiński T., “Traktat …”, op. cit. 173 Jak widać są to bardzo poważne i złożone kwestie, wymagające znacznego zasobu wiedzy i doświadczenia w jej stosowaniu. A to oznacza, że zarządzanie strategiczne musiało stworzyć metodologię i dobre praktyki, o których należy wiedzieć. Zarządzanie strategiczne w układzie liniowym Pierwsze teorie opisowe zarządzania strategicznego pojawiły się w latach pięćdziesiątych, kiedy to P. Selznick przedstawił koncepcję analizy SWOT246. Kolejne odsłony koncepcji związane są z T. Levittem (autorem terminu „globalizacja”), który stwierdził, że: zarządzanie strategiczne jest odpowiedzią na krótkowzroczność zarządzania marketingowego, opartego na cechach produktu; rynek stanowi obszar zaspokajania potrzeb klientów, a nie obszar wprowadzania produktu; celem organizacji jest stworzenie swojego klienta i utrzymanie go w walce rynkowej. Syntezą powyższych stwierdzeń jest sentencja: „Jeśli nie myślisz o kliencie, to znaczy, że wcale nie myślisz”. Na początku lat sześćdziesiątych pojawiła się dyskusja nad funkcjonowaniem zasady „niewidzialnej ręki rynku”. A. duPont Chandler Jr., w swoich pracach podkreślił związki między strategią i strukturą firmy oraz doniosłość roli strategii w działalności organizacji, definiując dźwignie strategiczne przedsiębiorstwa związane z efektem skali oraz zasięgiem działania247. Uważał, że aktywne działania zarządu firmy (widzialna ręka) są bardziej skuteczne w realizowaniu celu firmy, jakim jest dostarczanie produktu klientom, niż ”niewidzialna ręka” rynku A. Smitha248. Według Chandlera „strategię stanowi zbiór długoterminowych celów i zamierzeń odnośnie kierunków dalszej działalności i zakresów alokacji zasobów”. W tym samym czasie Igor Ansoff zaproponował istotne narzędzie analityczne dla zarządzania strategicznego, nazwane macierzą Ansoffa rys. 3.7. Definiuje się cztery strategie podstawowe i przedstawia je w formie elementów macierzy 2x2 w układzie produkt – rynek, gdzie wiersze tworzą rodzaje produktów, a kolumny, typy rynków. Te elementy to: penetracja rynku związana ze wzrostem udziału organizacji w rynku; rozwój rynku, związany z rozszerzeniem konkurencyjności i oferty, 246 Selznick P. "Foundations of the Theory of Organization". American Sociological Review, vol. 13, No 1, (1948), pp. 25–35 247 Chandler, A. D. Jr., ” Chandler, A.D. Jr., “Strategy and Structure: Chapters in the History of the American Industrial Enterprise”, MIT Press, Cambridge, 1962. 248 Chandler A. D. Jr., “The Visible Hand. The Managerial Revolution in American business”, Belknap Press of Harvard University Press, Cambridge, 1977. 174 rozwój produktu, związany z udoskonalaniem funkcji produktu, rozszerzeniami linii produktowej na tym samym rynku , dywersyfikacja związana z nowymi produktami na nowych rynkach, Rys. 3.7 Macierz Ansoffa Model wyboru zachowania strategicznego jest określony przez następujące wymiary: zachowanie budżetowe, czyli takie, w którego ramach nie następują zmiany strategiczne, strategiczną adaptację, która jest zgodna z poprzednimi zmianami strategicznymi w kierunku „organizacji służącej otoczeniu”, strategiczną nieciągłość odrzucającą dawniejsze doświadczenie. W latach siedemdziesiątych czołowym przedstawicielem nurtu strategicznego o liniowej charakterystyce był B. Henderson. Dostrzegł znaczenie kultury organizacyjnej dla sukcesu działania firm. Zwrócił uwagę na fakt, że alokacja zasobów przedsiębiorstwa powinna być zgodna z charakterystyką struktury jego portfela, udziałów w rynku i siły rynkowej w poszczególnych segmentach rynku249. Założył firmę konsultingową Boston Consulting Group, która opracowała analizę strategiczną optymalnej struktury portfela BCG ( rozdział 6.5). Innymi, ważnymi kwestiami, wprowadzonymi przez Hendersona do zarządzania, była krzywa cenowa oraz krzywa doświadczenia. Krzywa cenowa wiąże się z następującym sformułowaniem: „lider rynku musi obniżać ceny proporcjonalnie do obniżania się kosztów jednostkowych, aby utrzymać swój poziom udziału w rynku”. Z kolei krzywa doświadczenia wynika z eksperymentalnej formuły: Cn = C1∙n-a, którą należy rozumieć w ten sposób, że cena na jednostkę maleje wykładniczo wraz z ilością produkcji. Oryginalny cytat z Hendersona brzmi: „Koszty w sposób charakterystyczny obniżają się o około 20-30% za każdym razem, gdy podwaja się skumulowane doświadczenie”. To oznacza również, że wraz z narastaniem inflacji, koszty wytwarzania powinny maleć. 249 Henderson B., “The Logic of Business Strategy”, Ballinger Publishing Company, Cambridge, MA1984 175 Rys. 3.8 Krzywa doświadczenia B. Hendersona Z obserwacji prowadzonych w ramach BCG powstała reguła 3&4 charakterystyki rynku, która brzmi następująco: „Stabilny rynek konkurencyjny nigdy nie ma więcej niż trzech znaczących konkurentów, z których największy ma nie więcej niż cztery razy większy udział w rynku niż ten najmniejszy”250. Reguła ta nie jest wprawdzie ścisła, ale w kilku przypadkach dokładnie się sprawdza. Właściwe ukonstytuowanie się zarządzania strategicznego W latach osiemdziesiątych nastąpił intensywny rozwój nurtu strategicznego w zarządzaniu, głównie za sprawą takich badaczy, jak: H. Mintzberg (koncepcje planowania strategicznego)251, D. Abell (definicja misji str. 87) , M. Porter (koncepcja łańcucha wartości i metoda pięciu sił, str. 86) , K. Ohmae (koncepcja struk- Henderson B., „The Rule of Three and Four”, (1976), https://www.bcgperspectives.com/content/Classics/strategy_the_rule_of_three_and_four/ 251 Mintzberg H.,”The Rise and Fall of Strategic Planning”, Free Press, New York, (1994). 250 176 tury strategii Toyoty) oraz E. Chaffee (podział i charakterystyka strategii na liniową, adaptacyjną i interpretacyjną)252, R. Kaplana i D. Nortona (zrównoważona karta wyników)253,254. Do powyższego grona należy dodać przedstawicieli nurtu zasobowego: B. Wernerfelta255, J. Barneya256, G. Hamela i C. Prahalada257. W tym czasie powstały najbardziej charakterystyczne metody budowania strategii i posługiwania się strategicznym sprzężeniem zwrotnym w praktyce zarządzania. Niestety, jak się to wkrótce okazało prognozowanie strategiczne nie pozwoliło na przewidzenie sytuacji kryzysowych w gospodarce, a zwłaszcza tej z roku 2008, co oznacza, że aktualnie zarządzanie strategiczne musi odbu-dowywać swoją reputację. Jednak na podstawie obserwacji można wykazać, że ci, którzy nie budują strategii i nie stawiają perspektywicznych celów w końcu zaczynają realizować cele innych, albo przechodzą ku fazie schyłkowej swojej organizacji. Właściwa konstytucja zarządzania strategicznego powstała z konieczności przejścia od modelu liniowego do modelu adaptatywnego, co w dużej mierze wiązało się koncepcją kontyngencji struktury organizacji. H. Mintzberg zauważył, że organizacja w ramach swojej działalności biznesowej musi pogodzić dwie sprzeczne tendencje: podziału pracy i sprawnej koordynacji zadań. Należy to uczynić przez maksymalną synchronizację i normalizację procesowo-zasobową na drodze: wzajemnego dostosowania, bezpośredniego nadzoru, standaryzację procesów pracy, standaryzację celów, standaryzację umiejętności, standaryzację norm. Chaffee E.E., “Three Models of Strategy”, Academy of Management Rev., 10, No. 1, (1985), 89-98. Kaplan R.S., Norton D.P., “The Balanced Scorecard: Measures That Drive Performance”, Harvard Business Review, Jan.–Feb. 1992. 254 Kaplan R.S., Norton D.P., „Wdrażanie strategii dla osiągnięcia przewagi konkurencyjnej”, Wyd. Profesjonalne PWN, Warszawa 2010. 255 Wernerfelt, B., “A resource-based view of the firm.” Strategic Management Journal, 5, (1984), 171-180. 256 Barney, J.B., “Firm resources and sustained competitive advantage.” Journal of Management, 19, (1991), 99-120. 257 Prahalad C. K., i inni, „The core…”, op. cit. 252 253 177 Zarządzanie strategią należy realizować według modelu 5P: 1. Plan – strategia jako prognoza i plan, 2. Ploy – strategia jako taktyka i działanie, 3. Pattern – strategia jako szablon działania, 4. Position – strategia jako pozycja firmy, 5. Perspective – strategia jako perspektywa. Rys. 3.9 Metafora struktury organizacji wg H. Mintzberga Powyższe uogólnienia umożliwiły Mintzbergowi przedstawienie metafory struktury zarządzania, jak na rys. 3.9. Odpowiada ona realizacji strategii adaptatywnej, która wyłania się w zależności od zmian w otoczeniu i w zasadzie toruje drogę dla sformułowań teorii kontyngencji. Budując skuteczną strategię dla firmy Toyota, opartą na optymalizacji i ciągłej adaptacji do zmiennych warunków otoczenia, K. Ohmae wprowadził do literatury światowej koncepcję trójkąta strategicznego (rys. 3.10). Zdefiniował on możliwe kierunki działań organizacji w celu osiągnięcia racjonalnych celów strategicznych (w tym pozycji rynkowej). Wynikiem był trójpodział kierunków strategicznych: ukierunkowane na potrzeby klienta, ukierunkowane na efektywność organizacji, ukierunkowanie na konkurowanie na rynku. Koncepcja ta podsumowuje większość rozważań różnych autorów strategii. Została w dodatku praktycznie sprawdzona w globalnym koncernie o bardzo wysokiej kulturze korporacyjnej oraz o wyjątkowych zdolnościach adaptatywnych. 178 Szczególne zaś sukcesy odniosła w budowaniu efektywności organizacji i jej procesów ściśle sprzężonych z oczekiwaniami rynku (rozdział 3.3.3). Rys. 3.10 Trójkąt strategiczny wg. K. Ohmae Opisując nurt strategiczny nie można pominąć prac P. Druckera, który jest wybitnym przedstawicielem nurtu zasobowego, a którego wypowiedzi były prezentowane wcześniej. Wprowadził on do literatury pojęcie korporacji oraz koncepcję zarządzania przez cele. Drucker wyróżnił siedem cech, charakteryzujących dobre zarządzanie. Zarządzanie: dotyczy przede wszystkim ludzi, jest głęboko osadzone w kulturze, wymaga prostych i zrozumiałych wartości, celów działania i zadań, jednoczących uczestników organizacji, powinno doprowadzić do tego, by organizacja była zdolna do uczenia się, wymaga komunikowania się, wymaga rozbudowanego systemu wskaźników, musi być jednoznacznie zorientowane na podstawowy i najważniejszy rezultat, jakim jest zadowolony klient. Powyższe zasady wydają się być dość oczywiste, a jednak patrząc na działalność różnych organizacji, zwłaszcza tych, gdzie państwo ma cokolwiek do powiedzenia, nasuwa się pytanie o racjonalność oraz brak wiedzy. Szkoły strategii Lata dziewięćdziesiąte umożliwiły skonkretyzowanie metodologii i praktyk (niekoniecznie dobrych) zarządzania strategicznego. Ustalono szereg ważnych obserwacji i faktów. Należy przede wszystkim wymienić poniższe. 179 Nie istnieje jedyna, najlepsza strategia dla dowolnej organizacji. Nie ma sensu tworzyć strategii dla niektórych podmiotów gospodarczych (do strategii trzeba dojrzeć zarówno rozmiarem jak i poziomem kultury). Istnieje szereg dylematów strategicznych, które nie mają rozwiązania na poziomie dzisiejszej wiedzy. Zmienność rynku nakazuje wysoki poziom zachowań adaptatywnych. Globalizacja zmienia dostępność do zasobów, co wymaga prognoz rynkowych o wysokiej wiarygodności. Obserwuje się skracanie horyzontu czasowego strategii i stąd silny wpływ scenariuszy na kształt projektów zmiany. Przepływ informacji wymusza nowe technologie komunikacji pomiędzy organizacją a rynkiem, zmieniając drastycznie istniejące strategie taktyczne (sprzedaży, innowacyjności, bezpieczeństwa). W książce „Strategia organizacji”258, K. Obłój wyróżnił sześć metodologii nazwanych „szkołami strategii”. Są to: 1. szkoła planistyczna, 2. szkoła ewolucyjna, 3. szkoła pozycyjna, 4. szkoła zasobów i kompetencji, 5. szkoła prostych reguł, 6. szkoła opcji realnych. Każda z nich nadaje się do zastosowania w określonym przypadku i każda z nich jest wspierana sukcesem konkretnych firm. Ta systematyka w połączeniu z koncepcjami D. Abella, K. Ohmae oraz wynikami analiz PEST, SWOT pozwala wybrać najbardziej odpowiedni model tworzenia strategii organizacji, a przynajmniej odrzucić te, znacząco odstające od założeń biznesowych i zakładanych celów. 258 Obłój K., „Strategia …”, op. cit. str. 61-196 180 Tabela 7 Charakterystyka szkół strategii [na podst. 258 ] Nazwa Planistyczna Ewolucyjna Założenia Organizacje dzięki budowaniu planów strategicznych mogą i powinny swoją przyszłość kształtować w uporządkowany sposób. W tworzeniu strategii najbardziej liczy się perspektywa prezesa lub zarządu organizacji. Budowanie strategii jest upo-rządkowanym i sformalizowanym procesem. Efektem planowania jest gotowa strategia, ustalająca co, kto i jak ma robić. Proces budowania strategii jest uwarunkowany kulturą organizacji, polityką głównych koalicji interesariuszy, historią, oddziaływaniem otoczenia i dlatego nie może być w pełni racjonalnym. Strategia organizacji jest wypadkową założeń, działań strategicznych i samorzutnie powstających sytuacji korygujących (strategie wyłaniające się). Strategie zamierzone i samorzutnie wyłaniające się tworzą z czasem Sukcesy Powtarzalność pro-cesów, standaryzacja, czytelne raportowanie i kwantyfikacja, przewidywalność rezultatu i produktu, szybkość i precyzja monitorowania. Opisuje studia przypadków w sposób zadowalający. Uwzględnia proces autoadaptacji. Uzupełnia szkołę planistyczną, dając odpowiedź jak wprowadzić zmiany. Wady Przypadki Twórcy Ograniczenia różnorodności, centralizacja planowania, ograniczenie innowacyjności. Sztuczne rozdzielenie planistów strategii od jej wykonawców. Brak szybkiej adaptacji do zmienności otoczenia. General Electric, Nissan Polska, KGHM H.I. Ansoff, R.L. Ackoff Ma charakter opisowy, nie pozwalający na generalizacje. Podstawową metodą jest studium przypadku. Bazuje na analogiach nie zawsze uzasadnionych. Zakłada, że organizacje mają własność uczenia się, co nie jest na ogół prawdą. Motocykle Hondy, Ambra S.A., Telewizory Samsung, E. Wrapp, J.G. March, H. Mintzberg wzorce postępowania, stanowiące faktycznie realizowaną strategię. Pozycyjna Zasobów i kompetencji Prostych reguł Istotą strategii jest osiąganie przewagi konkurencyjnej. Strategie należy formułować pod kątem walki z konkurencją. Bazowymi strategiami szkoły pozycyjnej są minimalizacja kosztów i zróżnicowanie produkcji. Warto albo być wielkim, albo stosunkowo małym, niszowym graczem na rynku. Organizacja jest strukturą zasobów oraz umiejętności ich użycia. Organizacja dąży do uzyskania struktury zasobów klasy VRIN. Przewagę konkurencyjną buduje się przez skonfigurowanie zbioru zasobów i kluczowych kompetencji, które należy chronić. Pomiędzy zasobami a celami musi istnieć dynamiczna równowaga dopasowania. Istotą przewagi konkurencyjnej jest zdolność do wykorzystywania okazji wyłaniających się ad hoc. Produkcja lean, JIT, systemy japońskie produkcji, silna pozycja managera przywódcy, wyraźne metody konkurowania. Wykorzystanie analiz otoczenia i stosowanie zasad kontyngencji. Szczególna rola marki oraz marketingu w walce o pozycję rynkową. Statyczność orientacji, niezbyt odległy okres planowania, silny racjonalizm i eliminacja „miękkich” aspektów zarządzania. Założenie doskonałości kompetencji managera i wizjonerstwo przywództwa. Stanowi najbardziej zaawansowany model objaśniający przewagę rynkową, stan organizacji jej funkcje celu i użyteczność. Jest epistemologiczną nadbudową nad szkołą planistyczną, ewolucyjną i pozycyjną. Zbytnia ogólność, trudność w jej opera-cjonalizacji, koncent-ratcja nad sukcesem firmy jako podstawa analiz (brak odniesienia do kwestii, jakich kompetencji zabrakło gdy firma upadła). Dobrze opisuje wpływ innowacyjności na suk- Brak solidnych podstaw teoretycznych, ubóstwo Wina Bordeaux, Apple Inc., Toyota, Ambra S.A. KGHM Int., Coca-Cola, Huta Oława. SMG/KRC, 3M, Zara K. Ohmae, J. Trout, K. Levi. B.Wernerfelt, J.B. Barney, P. Drucker, B. Levy, G Hamel, C. Prahalad. C. Christiansen K.M. 182 Skuteczne konkurowanie na współczesnych rynkach wymagających innowacyjnych strategii. Innowacyjne strategie wykorzystania szans opierają się na kilku istotnych procesach i prostych regułach regulacji. Opcji realnych W warunkach skrajnej niepewności można budować racjonalne strategie, które mają postać szeregów czasowych opcji realnych. Opcje realne mają różne wartości dla różnych kontekstów, łańcuchów dostaw oraz uwarunkowań czasoprzestrzennych i można je oszacować ilościowo wraz z prawdopodobieństwem wykonania danej opcji . Ciągi decyzyjne podlegają zasadom Markowa i Bellmana, a do wyboru ścieżki optymalnej stosuje się drzewa decyzyjne lub symulacje. ces rynkowy, uwzględniając procesy przedsiębiorczości. Pozwala na szybkie ukierunkowanie operacyjne organizacji. Nie ogranicza stosowania najlepszych praktyk z innych metodologii strategii. Strategie inwestycyjne, scenariusze zoptymalizowane, konstrukcje portfolio, strategie hedgingowe, położenie finansowe… warsztatu i krótki horyzont czasowy prognozy. Słaba metodologia oceny. Metoda nadaje się wyłącznie do problemów mierzalnych. Jest ograniczona wyłącznie do oszacowań rynku, technologii albo organizacji z małą liczbą zmiennych stanu (projekt inwestycyjny, etc.). Eisenhardt, Mostva S.A. L. Trigeorgis, A. Dixit, R. Pindyck, R.C. Merton 183 Czym jest strategia Wypowiadając się na temat zarządzania strategicznego nie sposób pominąć kwestii jego podstawowego narzędzia, jakim jest strategia. Już H. Mintzberg zauważył problematykę złożoności definiowania strategii poprzez model 5P (str. 178). W pracach E. Chaffeee problem ten ujawnia się jeszcze bardziej wyraziście. Wydaje się, że jedyną możliwością ustalenia czym jest strategia stanowi dogłębna analiza ontologiczna i epistemologiczna259. Na tej podstawie proponuję definicję. Df. Strategia stanowi uporządkowaną wiedzę czasu bieżącego o domniemanym stanie jej podmiotu w ustalonym okresie w przyszłości. Wychodząc z informacji dostępnych z okresów przeszłych i teraźniejszych (misja), prognozowany jest za pomocą dostępnych w teorii zarządzania metod i analiz stan przyszły (wizja). Prawdziwość takiej prognozy można sprawdzić wyłącznie w przyszłości, której ona dotyczy. Tym samym strategia charakteryzuje się: punktem wyjścia, określającym misję i stan organizacji w chwili projektowania strategii (bilans otwarcia); określoną wizją, stanowiącą definicję stanu przyszłego organizacji oraz luki strategicznej, którą należy zniwelować poprzez wdrożenie strategii; zbiorem celów, prognoz oraz kwantyfikatorów, umożliwiających monitorowanie jej wdrażania w czasie; projektami umożliwiającymi realizację celów cząstkowych, budżetem, harmonogramami, niezbędnymi zasobami oraz sposobem monitorowania; układem interesariuszy, relacjami z kontekstem oraz imperatywem uruchomienia. To wszystko można wyrazić w postaci formalnej, stanowiącej model działania i jego odniesienie do „białej księgi organizacji”. Stąd wynikają dalsze konsekwencje dla epistemologii strategii, co stanowi przedmiot dociekań teorii zarządzania strategicznego. Jak działa zarządzanie strategią W tym miejscu warto zauważyć, że zarządzanie strategią stanowi pewien cykl w sprzężeniu zwrotnym (od projektu i ustalenia parametrów wejścia, poprzez działania i wdrożenia programów i projektów strategicznych, monitoring uzyskanych efektów i pozyskanie informacji zwrotnej z otoczenia). W ten sposób dokonuje się proces autoadaptacji procesów i działań organizacji do założeń strategii oraz strategii do kultury organizacji. Schemat ten można przedstawić, jak na rys. 3.11. Występują w nim dwa ciągi logiczne: 1. Ciąg realizacyjny, składający się z planu strategicznego, planu operacyjnego oraz realizacji (uruchomienia procesów). Gospodarek T., „Strategia jako struktura naukowa zarządzania”, w R. Krupski [red.] „Zarządzanie strategiczne. Strategie organizacji”, Prace Naukowe Wałbrzyskiej Wyższej Szkoły Zarządzania i Przedsiębiorczości, Seria Zarządzanie, Wałbrzych 2010, str. 215-242 http://gospodarek.eu/publikacje/Strategia%20naukowa.pdf 259 184 2. Ciąg procesowy, umożliwiający wdrożenie ciągu realizacyjnego, na który składają się: opracowanie strategii, planowanie strategii, zestrajanie organizacji, planowanie operacyjne, monitorowanie, testowanie i adaptacja do wyników sprzężenia zwrotnego. Rys. 3.11 Schemat zarządzania strategią Procesy można podzielić na zbiory czynności i podprocesów, co zostało zobrazowane na rysunku rys. 3.11, tworząc pewną strukturę logiczną, z której można zbudować macierz logiczną projektu strategii oraz jej mapę. To co chcemy osiągnąć za pomocą strategii stanowi zmianę organizacji i najczęściej odpowiada adaptacji do granicy fazy jej rozwoju (rys. 2.2) , co można przedstawić tak, jak na rys. 3.12 poniżej. 185 Rys. 3.12 Zmiana strategiczna jako cel działania Schemat ten nie wymaga większego komentarza. Warto jedynie zauważyć, że zarządzanie strategią stanowi fundament zarządzania zmianami (rozdział 4.2). Stąd tak ważna jest rola zarządzania strategicznego dla organizacji, pomimo poważnych obaw co do wiarygodności prognozowania przy braku kompletnych informacji oraz turbulentnie zmieniającego się ekosystemu biznesowego w czasie. Należy po prostu mieć na uwadze, że ci którzy realizowali jakąś racjonalną strategię, osiągali na ogół lepsze rezultaty, niż ci, którzy nie realizowali żadnej. Faktem jest również, że na temat strategii powstało wiele cennych opracowań naukowych, umożliwiających wypracowanie dobrych praktyk w zakresie jej projektowania, wdrażania i monitorowania. Przy okazji udało się rozwinąć w sposób znaczący dziedzinę wiedzy – zarządzanie strategiczne. 186 4 Wybrane zagadnienia praktyczne W tej części monografii zamierzam przedstawić najważniejsze aspekty praktycznego wykorzystania teorii zarządzania oraz jego modeli funkcjonalnych. W zasadzie każdy z poniżej prezentowanych tematów powinien prowadzić wprost do zdefiniowania modelu białej księgi zarządzania wybranym zagadnieniem zarządzania organizacją. Udokładnienie natomiast białej księgi i rozbudowanie do poziomu niebieskiej księgi powinno stanowić naturalny układ wiedzy dla danego przedmiotu specjalistycznego. I tak biała księga zarządzania ryzykiem powinna stanowić model wyjściowy dla opracowania strategii zarządzania ryzykiem, zbioru procedur i mapy procesów związanych z obniżaniem poziomu ryzyka, które następnie w postaci sformalizowanej będą podstawą zbudowania niebieskiej księgi zarządzania ryzykiem. Dlatego przyjąłem za racjonalne przedstawić na poziomie podstaw zarządzania wybrane założenia modeli funkcjonalnych, pozostawiając specjalistom rozwinięć opartych na uporządkowanym szkielecie bazowym wiedzy. 4.1 Zarządzanie projektem Zarządzanie projektami stanowi jeden z fundamentalnych aspektów zarządzania operacyjnego. Praktycznie każde zamówienie produkcyjne, każda inwestycja, każda inicjatywa gospodarcza może zostać sprowadzona do realizacji w formie projektu (lub zbioru projektów). Ciągi logiczne projektów stanowią fundament dokumentów planistycznych, programów gospodarczych i działań władz. Doświadczenie pokazuje, że szereg projektów biznesowych kończyło się i kończy nadal niepowodzeniem z różnych powodów, od braku koordynacji działań przez źle określone kwantyfikatory rezultatu, po niedoszacowanie kosztów i braki zasobowe dla realizacji procesów składających się na całość. Stąd wynika tak ważna rola zarządzania projektami w rzeczywistości gospodarczej. Czym jest projekt w sensie zarządzania? Ten byt można określić jako logiczny ciąg działań mający swój początek i koniec, prowadzący do realizacji założonego, wymiernego celu w określonym czasie, wykorzystując niezbędne zasoby, informacje i wiedzę. Wszystkie projekty mają pięć, wspólnych cech: ustalony cel przedsięwzięcia, skończony czas trwania, uporządkowane działania jakiejś struktury realizującej projekt w czasie, zdefiniowane zasoby i kwantyfikowalny rezultat. Projekt jest pojedynczym, a nie cyklicznym aktem biznesowym. Może się składać z szeregu procesów lub podprojektów, prowadzących do jego realizacji, ale ma swój definitywny koniec. Jest to zatem bardzo interesujący konstrukt teoretyczny dla praktyki zarządzania. Można sobie wyobrazić, że całość działalności gospodarczej organizacji da się podzielić na zbiór projektów, a wówczas formalna reprezentacja zarządzania i map procesów powinna się dać łatwo definiować. Nie jest to jednak takie proste ze 187 względu na konieczność ciągłej adaptacji organizacji do zmienności otoczenia, relacje pomiędzy jej interesariuszami i podejmowanie ryzyka biznesowego ad hoc, czego nie można zrealizować przez sztywne ramy projektów. W dodatku w praktyce działalności gospodarczej zachodzi konieczność prowadzenia na raz wielu projektów w układzie równoległym oraz sprzężonym, co wiąże się z kłopotami ustaleń przyczynowo-skutkowych. Każdy projekt można przedstawić w postaci sformalizowanego szablonu, na który składają się: harmonogramy zadań w czasie, harmonogramy użycia zasobów, harmonogramy ponoszonych kosztów, itp. Ponadto wymagane są kwantyfikatory celu i rezultatu oraz mapy procesów powiązanych z projektem. Wszystkie te elementy można połączyć w macierz logiczną (rozdział 6.7). Tym samym projekt biznesowy jest zagadnieniem mierzalnym i zarządzalnym. Zarządzanie projektami doczekało się form standaryzowanych260, co oznacza, że istnieją najlepsze praktyki opisane normami oraz sposoby osiągania celu zoptymalizowane metodycznie. Takimi standardami są przede wszystkim PRINCE2261 opracowany przez amerykańską agencję CCTA (The Central Computer and Telecommunications Agency), PMI262, (PMBOK Guide został zatwierdzony przez American National Standards Institute ANSI, jako narodowy standard w zakresie dobrych praktyk zarządzania projektami) oraz norma ISO 21500 z 2012 roku263. Natomiast jedną z najbardziej popularnych metod zarządzania regionalnymi projektami inwestycyjnymi jest metoda macierzy logicznej LFA (rozdział 6.7). Obecnie szczególnie ciekawym podejściem do zarządzania projektami jest podejście agile (rozdział 4.1.2), które nie jest w sztywny sposób sformalizowane i unormowane, ale daje doskonałe rezultaty w przypadku projektów twórczych.264 Patrząc na konstrukcję projektu, warto przyjąć pewien model postępowania, tak jak ma to miejsce z zarządzaniu strategią rys. 3.11, żeby na każdym etapie jego realizacji można było ustalić stopień zaawansowania wykonania, koszty oraz położenie na harmonogramie czasowo zadaniowym Gantta. Jest to niezależne od przyjętej metody postępowania i standardu. Ważnym jest również panowanie w czasie realizacji nad alokacją zasobów, tak żeby nie powstawały „wąskie gardła” oraz stany bezproduktywne. Najlepiej zastosować wspomaganie zarządzania projektem za pomocą odpowiedniego programu komputerowego. Kompendium wiedzy o zarządzaniu projektami, MT&DC, Warszawa, 2006. „PRINCE2 - Skuteczne zarządzanie projektami”, The Stationery Office Ltd (TSO), 2009 ISBN 9780113312245 (polskie wydanie 2010). 262 A Guide to the Project Management Body of Knowledge, Fifth Edition, PMI, USA, 2012. 263 Zandhuis A., Stellingwerf R., “ISO 21500. Guidance on Project Management. A Pocket Guide”, van Haren Publishing, Amersfoort, 2013. 264 Dąbrowski M., „Matryce opisujące metodykę AgilePM” http://4pm.pl/artykuly/matryce-opisujace-metodyke-agilepm-wersja-pl-oraz-en http://miroslawdabrowski.com/downloads/AgilePM/Agi260 261 lePM PL - Macierz Fazy Projektowe vs Produkty Zarzadcze vs Role vs Odpowiedzialnosci %5Bv1.4%2C 10.2014. PL%5D.pdf 188 Wspomaganie IT zarządzania projektami jest bardzo dobrze rozwinięte. Istnieją na rynku programy (w tym serwerowe dla grupowych działań menedżerskich), z których za najważniejsze należy uznać: Microsoft Office Project265 stanowiący standard przemysłowy zarządzania projektami. Różne programy zarządzania projektami porównywane są przez różne gremia, wśród nich przez PC Magazine (ranking 2016)266. Warto również zwrócić uwagę na oprogramowanie open source, oferujące nie mniejszą funkcjonalność za darmo (ranking TechWorld 2016)267. Wśród nich szczególnie ciekawym jest program Trello268, czyli „darmowy, estetyczny i praktyczny sposób na organizowanie jakichkolwiek spraw z kimkolwiek chcesz”, którego założenia opracował T. Ohno, jeden z prezesów i twórców potęgi Toyoty. Najcenniejszym polskim źródłem informacji w zakresie zarządzania projektami jest portal 4PM, gdzie można znaleźć mapy koncepcji, matryce procesów, opisy metodyczne z zakresu zarządzania projektami269. W dalszej części zostanie przedstawionych kilka elementów z procedury postępowania z projektem niezależnych od standardów, jako pewnego logicznego ciągu działań od definiowania projektu do monitoringu rezultatów jego wdrożenia. 4.1.1 Studium wykonalności O ile biznes plan odnosi się do jakiegoś przedsięwzięcia biznesowego (niekoniecznie związanego z dużą inwestycją) w sferze prywatnej bez analizowania wariantów wykonania określonych działań, o tyle studium wykonalności stanowi rozbudowaną jego wersję w odniesieniu do projektu inwestycyjnego, gdzie zaangażowanie środków jest na tyle duże (albo angażowane są środki publiczne), że konieczne jest szczegółowe uzasadnienie racjonalności wykonania projektu wraz z analizą wariantów oraz efektywności inwestycji. Studium wykonalności pozwala uniknąć bezpośredniego przechodzenia od fazy koncepcyjnej inwestycji, która na ogół nie wymaga ponoszenia znaczących kosztów przez inwestora, do fazy projektowej, wymagającej zaangażowania znaczących zasobów i nakładu pracy. Głównym celem studium wykonalności jest wykazanie zasadności realizacji projektu, w tym jego zgodności z: celami inwestycji, obowiązującymi strategiami na poziomie krajowym, regionalnym, wspólnotowym oraz uzasadnienie optymalnego kosztu i montażu finansowego. Dodatkowo dokument ma wykazać, że przedsięwzięcie jest możliwe do zrealizowania na poziomie 265 Microsoft Office Project https://products.office.com/pl-pl/project/project-professional-desktop-software PC Magazine, “The Best Project Management Software of 2016”, http://www.pcmag.com/article2/0,2817,2380448,00.asp 267 Egan M., TechWorld, “14 best free project management software programs 2016: Great project management software tools that don't cost a penny”, http://www.techworld.com/picture-gallery/startups/10-best-free-projectmanagement-software-programs-3625922/ 268 Trello, https://trello.com/ 269 Dąbrowski M., Szczepkowski J., Portal 4PM http://4pm.pl/ 266 189 operacyjnym, technologicznym oraz finansowym i pozostawi trwałe efekty po zakończeniu projektu. Tym samym ustala zgodność realizowanych przedsięwzięć z przepisami dotyczącymi podejmowania inwestycji, istniejącymi zagrożeniami wypowiadając się na tematy związane z ryzykiem inwestycyjnym. Wskazuje najlepsze z możliwych do zastosowania rozwiązań technicznych, technologicznych, organizacyjnych, finansowo-ekonomicznych, biorąc także pod uwagę kwestie ekologiczne. Dokument uzasadnia wybór opcji (wspomaga podjęcie decyzji - rozdział 3.2.1), której realizacja prowadzi do rozwiązania zdiagnozowanych problemów w sposób optymalny. Określa również korzyści i koszty realizacji projektu wykorzystując w tym celu całą paletę analiz ekonomicznych. Strukturę studium wykonalności dobrze przedstawiono w materiałach programów operacyjnych w ramach funduszu EFRR. Przykładem może być szablon zaczerpnięty z Regionalnego Programu Operacyjnego dla Dolnego Śląska270. Nie rozróżnia on projektów małych i dużych oraz nie wyszczególniania specyficznych dla różnych projektów analiz technicznych, specyficznych (kanalizacja, infrastruktura drogowa, informatyka). Każda inwestycja charakteryzuje się specyficznymi pomiarami technicznymi, analizami efektywności oraz kwantyfikatorami rezultatu, co powoduje, że występują różnice w szczegółach studium dla różnych przypadków, zwłaszcza dotyczących analizy wariantów rozwiązań technicznych. 1. Przedmiot studium: geneza i istota projektu, potencjał i możliwości, nazwa i cel projektu, podmioty odpowiedzialne za realizację przedsięwzięcia. 2. Podsumowanie i wnioski: wprowadzenie do projektu, koszty przedsięwzięcia, podsumowanie wyników analiz i finansowanie, główne uwarunkowania inwestycji (prawne, administracyjne), zalecenia i rekomendacje. 3. Otoczenie makroekonomiczne i trendy: potencjał położenia geograficznego, potencjał społeczno-gospodarczy, zidentyfikowane problemy, uwarunkowania społeczno-ekonomiczne realizacji przedsięwzięcia. 4. Logika wdrożenia inwestycji: źródła identyfikacji projektu, cele projektu, spójność i komplementarność z różnymi programami strategicznymi, 270 http://dolnyslask.pl/upload/RPO/03_dokumenty_i_wytyczne/konsultacje/metodologia_sw.pdf 190 5. 6. 7. 8. 9. analiza SWOT, korzyści i oddziaływanie, rezultaty, produkty, matryca logiczna (LogFrame). Analiza rynku: definicja rynku usług, wielkość rynku i jego podział, udział nowego przedsięwzięcia w rynku, odbiorcy usług, konkurencja, analiza popytu bieżącego i przyszłego. Analiza instytucjonalno-prawna: status prawny beneficjenta, status prawny inwestora, status prawny operatora, powiązania prawno -własnościowe pomiędzy uczestnikami projektu, przygotowania formalno -administracyjne przedsięwzięcia, wydane decyzje i zezwolenia administracyjne, wymagane decyzje i zezwolenia do wydania i harmonogram ich wydania, trwałość projektu instytucjonalna. Analiza techniczna: opis istniejącego systemu/przedsięwzięcia (stan istniejący), analiza wariantów, analiza opcji, lokalizacja, opisu projektowanego zakresu przedsięwzięcia, przygotowanie inwestycji. Plan wdrożenia i funkcjonowania przedsięwzięcia struktura organizacyjna wdrażania i eksploatacji, strategia cenowa, procedury przetargowe, harmonogramy realizacji, umowy z odbiorcami i inne. Analiza finansowa: założenia analizy finansowej (metodyka analiz finansowych i płynności), prognoza przychodów i kosztów przedsięwzięcia, koszty realizacji przedsięwzięcia, koszty przygotowawcze, koszty inwestycyjne, inwestycje odtworzeniowe, 191 10. 11. 12. 13. pozostałe koszty związane z realizacją inwestycji, odsetki i podatki, oszacowanie kosztów operacyjnych, materiały i energia, usługi obce, podatki i opłaty, wynagrodzenia z narzutami, amortyzacja, pozostałe koszty, koszty remontów i konserwacji, określenie przychodów związanych z planowanym przedsięwzięciem, kapitał obrotowy, prognoza rachunku zysków i strat oraz bilansu inwestora w okresie realizacji i eksploatacji inwestycji, rachunek przepływów (zmiana przepływów) pieniężnych inwestora w okresie realizacji i eksploatacji inwestycji, analizy „luki finansowej” i jej wyliczenie, obliczenie poziomu dofinansowania, kalkulacja rentowności finansowej projektu, analiza i ocena finansowej wykonalności projektu (trwałość finansowa). Finansowanie: ocena zdolności finansowej beneficjenta/inwestora/operatora, przegląd dostępnych źródeł finansowania, wybór systemu finansowania wraz uzasadnieniem, struktura finansowania, harmonogram finansowo-rzeczowy. Analiza kosztów i korzyści społeczno-ekonomicznych: analizy kosztów i korzyści społeczno-ekonomicznych metodą CBA, obliczenia ENPV i EIRR dla projektu, prezentacja efektów w kontekście realizacji celów RPO i polityk wspólnotowych, podsumowanie i wnioski z analizy CBA. Analiza ryzyka i wrażliwości analiza ryzyk ekonomiczno-finansowych, analiza ryzyk formalno-instytucjonalnych, analiza ryzyk ekologiczno-technicznych, podsumowanie analiz ryzyka. Załączniki: założenia projekcji finansowej - scenariusz z projektem i bez, wyniki analizy ekonomiczno-finansowej projektu inwestycyjnego, opis struktury instytucjonalnej projektu, 192 matryca logiczna projektu, zastosowany schemat pomocy publicznej, analiza zdolności kredytowej beneficjenta i struktura finansowania projektu, harmonogram Gantta realizacji projektu, harmonogram rzeczowo-finansowy. Powyższa struktura studium wykonalności obrazuje, jak należy podejść do definiowania przedmiotowej inwestycji. Nierzadko studium wykonalności musi być uzupełnione o operat oceny oddziaływania skutków wdrożenia projektu na środowisko, w szczególności na obszary chronione natura 2000 i dodatkowe załączniki dotyczące pomiarów oraz analiz specyficznych (np. ocena ruchu na danej drodze). Czasami dla wykonania studium konieczne jest powołanie podmiotu gospodarczego, realizującego praktycznie pomiary geologiczne lub badania w skali pół mikro, bez których uzyskanie danych o wydajności, efektywności i kosztach nie było by możliwe. Takim przykładem jest spółka celowa Ajax Ltd. w Vancouver, stanowiąca część KGHM International, zajmująca się przygotowaniem danych dla studium wykonalności dotyczącego budowy kopalni miedzi planowanej nieopodal. 4.1.2 Zarządzanie zwinne projektami (agile) Bardzo interesującym sposobem zarządzania operacyjnego, opartego na zasadzie adaptatywnej i analogii do metody kolejnych przybliżeń, jest zarządzanie agile (zwinne, zmyślne, sprytne)271. Polega ono na sformułowaniu zadania do wykonania i stworzeniu małego, elastycznego zespołu, który to zadanie ma wykonać w określonym czasie. Zespół realizujący nietypowe zadanie, nazywany jest scrum (od młyna w grze rugby) i liczy od kilku do kilkunastu osób, posiadających większość kompetencji związanych z wykonaniem zadania. Jego skład nie może być zmieniany do końca zadania, a dobór w grupie musi gwarantować synergię działania jego członków. Jest to przykład grupy samoorganizującej się w działaniu. Tym samym z zewnątrz stanowi obiekt przypominający czarną skrzynkę, gdzie na wejściu jest zadanie do wykonania, a na wyjściu rezultat. Nie ma przy tym znaczenia jak ów zespół sobie poradzi z problemem, ani jak się zorganizuje. Istotnym jest, że członkiem zespołu realizującego projekt jest jego zleceniodawca, który na bieżąco ustala poziom dopasowania wyniku do oczekiwań, a jednocześnie to on kończy zadanie. Drugim elementem modelu agile jest metoda pracy, polegająca na ciągu działań prowadzących do kolejnych prezentacji końcowego rezultatu, coraz bardziej dopasowanego do wymagań zleceniodawcy, co określony interwał czasowy (np. co tydzień). Opiera się to na zasadzie Bellmana (str. 143) optymalności działań w przedziałach czasowych. Zespół scrum nie jest nadzorowany z zewnątrz – organizuje się sam. Przywództwo i władza temporalna wyłania się w nim automatycznie w miarę Schwaber K., Sutherland J., “The Scrum Guide. The Definitive Guide to Scrum: The Rules of the Game”, http://4pm.pl/wp-content/uploads/2016/07/2016-Scrum-Guide-US.pdf 271 193 potrzeb. Rozdział zadań jest logiczną konsekwencją kompetencji i zadań składających się na projekt. Jak łatwo się domyślić, szczególne zastosowanie zarządzania agile dotyczy realizacji projektów intelektualnych, takich jak: tworzenie oprogramowania, przeprowadzenie eksperymentu badawczego, stworzenie spektaklu, itp272. Model agile w działaniu Wyobraźmy sobie zadanie polegające na stworzeniu scenografii dla przedstawienia teatralnego. Zleceniodawcą i zarządzającym projektem jest scenograf, który staje się naturalnym liderem zespołu scrum. Odbiorcą gotowej scenografii jest reżyser spektaklu. Na wejściu zadania reżyser w miarę jasno określa założenia spektaklu i wizję scenografii. Scenograf buduje z tego koncepcję twórczą (plan) i powołuje zespół scrum, na który składają się rzemieślnicy potrafiący wykonać odpowiednie prace fachowe, inżynier odpowiedzialny za bezpieczeństwo i formalne zgodności z normami. Zespół opracowuje wspólnie plan działania, tworzy harmonogramy czasowo-zadaniowe i rzeczowe, przypisuje zasoby do zadań i ustala termin pierwszej prezentacji wyniku na określony termin. Następnie poszczególni członkowie zespołu przystępują do wykonania zadań w zakresie swoich kompetencji w projekcie, wykorzystując dostępne w organizacji zasoby materialne, intelektualne i ludzkie (wsparcie zasobowe organizacji). W dniu ustalonym odbywa się prezentacja gotowej scenografii. Jest ona na tym etapie niedoskonała, ale pozwala na szybkie zmiany zarówno koncepcji, jak i elementów. Scenograf prezentuje wynik reżyserowi spektaklu, a ten ustala konieczne poprawki. Cykl wejście – wyjście powtarza się. Po którymś cyklu reżyser stwierdza, że uzyskał to, czego oczekiwał i projekt uważa się za zakończony. Jak łatwo zauważyć, na początku nie znano dokładnego rezultatu zadania. Był on modyfikowany online przez zespół scrum w czasie działania. Rezultat końcowy wyłonił się w czasie ostatniego przybliżenia, gdy odbiorca stwierdził, że już osiągnięto cel. Dopiero w tym momencie można było zdefiniować finalnie projekt i jego parametry szczegółowe. Do tego momentu: nie były znane relacje w zespole scrum na początku projektu, za wyjątkiem składu osobowego oraz przypisanych zadań przez twórcę (scenograf). Zespół organizował się w pracy sam i kontrolował się sam. Wynik kolejnego przybliżenia działań był akceptowany przez odbiorcę (reżyser); na wejściu do projektu były znane jedynie wstępne harmonogramy czasowe, czasowo zadaniowe oraz potrzeby materialne (zasoby) dla wykonania projektu w stanie podstawowym; 272 Gospodarek T., „Zarządzanie…”, op. cit. str. 187 194 nie były znane ani koszty końcowe ani zasoby (materialne, ludzkie i usługi obce), ponieważ ich ustalenie było możliwe dopiero po zakończeniu cyklu agile, a dodatkowo modyfikowano je w kolejnych podejściach. Oczywistym jest, że w zarządzaniu agile nie przekracza się budżetu zaplanowanego w projekcie, albowiem kończy się on zwykle wcześniej, niż zakłada harmonogram. Najczęściej odbiorcza szybciej zostaje usatysfakcjonowany, niż w typowym ujęciu liniowym zarządzania projektami. W czasie wykonywania zadań, każdy członek zespołu scrum wnosi własny wkład intelektualny do projektu i poprawia efektywność jego realizacji. Wynika to z konstrukcji samoorganizacji grupy w relacji do zadań. Ogranicza się formalizmy, zbędne relacje oraz biurokrację w dokumentowaniu procesu realizacji. Rezultat na ogół jest znacząco lepszy niż zakłada się na początku wejścia do cyklu agile, ponieważ jest on modyfikowany ad hoc przez całą grupę we właściwym kierunku nadawanym przez odbiorcę. Warto zauważyć, że działania typu agile można wprowadzić w sektorze małych i średnich organizacji, a nie tylko w dużych. To jest ogromna zaleta modelu. Gwarantuje on przede wszystkim zaangażowanie intelektualne grupy scrum dlatego najlepiej nadaje się do tworzenia innowacyjnych projektów. Wynikiem jest produkt w wysokim stopniu kastomizowany, co dla klienta jest istotne. 4.1.3 Metoda PERT/CPM i harmonogramowanie W zarządzaniu projektami jednym z najważniejszych elementów panowania nad czasem, budżetem oraz logistyką jest harmonogramowanie. Dotyczy to nie tylko ustalenia relacji czasowo-zadaniowych oraz czasowo-zasobowych, ale również znalezienia wąskich gardeł i czasu nieproduktywnego. Trudno jest wyobrazić sobie zarządzanie projektem bez wspomagania jakimś sensownym programem komputerowym. We wstępie do rozdziału wymieniłem kilka z nich. W dalszej części tego rozdziału wykorzystam program Microsoft Office Project, posługując się przykładowym projektem wdrożenia systemu IT w dużej organizacji oraz program Excel, który pozwala na wykonywanie różnorodnych przeliczeń. O ile wszystkie harmonogramy i przeliczenia można wykonać za pomocą arkusza kalkulacyjnego, o tyle wykonanie wykresów Gantta lub sieciowych, alokację zasobów i planowanie kosztów lepiej wykonać przy pomocy programów specjalizowanych. Nie ma tutaj złotej reguły. Logika projektu Warunkiem koniecznym zastosowania jakiejkolwiek technologii IT do zarządzania projektem jest utworzenie jego reprezentacji formalnej. Bez tego nie będzie można nawiązać dialogu z systemem IT. Innymi słowy, w pierwszej kolejności należy przedstawić projekt jako ciąg logiczny procesów (działań) do realizacji w czasie. Jeżeli projekt jest złożony (np. wybudować autostradę) konieczne jest podziele- 195 nie go na etapy (podprojekty) oraz działania, tak żeby możliwe było zebranie wyników działań cząstkowych w jednej, syntetycznej bazie danych. Najważniejszym zagadnieniem logiki projektu jest jego ścieżka krytyczna, czyli najdłuższy ciąg zadań, w którym niezakończenie któregokolwiek z nich, uniemożliwia wykonanie kolejnego273. O ścieżce krytycznej można wypowiedzieć następujące stwierdzenia: dla każdego projektu istnieje co najmniej jedna ścieżka krytyczna (może być też wiele równoległych), między zadaniami istnieją różnorodne relacje czasowe (następstwa, równoczesności, powtarzalności), zakończenie ostatniego zadania ścieżki krytycznej jest równoznaczne z zakończeniem projektu, czas trwania ścieżki krytycznej określa czas trwania całego projektu, ścieżka krytyczna może być modyfikowana ad hoc. Jeżeli czasy wykonania poszczególnych zadań różnią się od zakładanych, albo architektura zasobowa projektu zmieni się, albo struktura relacji międzyzadaniowych zostanie zmieniona, wówczas ścieżka krytyczna będzie też ulegać zmianom. Jak zależy to od menedżera projektu i realizacji pakietu zadań w praktyce. Dlatego konieczne jest monitorowanie czasowe harmonogramów projektu. Można wyróżnić dwa rodzaje logiki projektowej, wykorzystywane w specjalizowanych programach wspomagających zarządzanie projektami, obie wykorzystujące model ścieżki krytycznej. Logika oparta na metodzie CPM (Critical Path Method) wykorzystuje ciąg zadań tak, że opóźnienie wykonania któregokolwiek z nich, opóźni zakończenie całego projektu. Jest ona szczególnym przypadkiem metody PERT ponieważ nie analizuje się w niej odchyleń czasowych wykonania. Logika oparta na metodzie PERT (Program Evaluation and Review Technique), gdzie projekt jest reprezentowany w formie diagramu sieciowego (grafu skierowanego). Wierzchołki grafu reprezentują zadania składające się na projekt, łuki natomiast, ukierunkowane powiązania pomiędzy zadaniami. Do nich są przypisane czasy trwania poszczególnych czynności, których zakończenie wymagane jest do przejścia do realizacji następnego zadania. Przykładem niech będzie uproszczony projekt wdrożenie systemu IT w jakiejś organizacji, wpisany do formularza programu Microsoft Office Project (tabela 8). Jest to projekt posiadający jedną ścieżkę krytyczną oraz kilka równolegle realizowanych podprojektów. Projekt został zrealizowany praktycznie wykorzystując załączone dane. Tabela 8 Prezentacja projektu jako ciągu zadaniowego 273 Wikipadia PL, „Ścieżka krytyczna”, https://pl.wikipedia.org/wiki/%C5%9Acie%C5%BCka_krytyczna 196 W kolumnie „Poprze” umieszczono oznaczenia cyfrowe, wskazujące na to, które zadanie musi zostać wykonane wcześniej (budowanie ścieżki krytycznej). To pozwala wykonać harmonogram bez nakładania się zadań następczych. Dopuszcza natomiast wykonanie zadań równoległych. Przypisania w projekcie i harmonogramowanie W opisie projektu konieczne jest przypisanie zasobów oraz kosztów do poszczególnych zadań. Wówczas programy pozwalają na bieżące śledzenie kosztów, zakupów oraz użycia zasobów. Dodatkowo, niektóre programy umożliwiają wykrywanie nadmiernych przypisań zasobowych oraz istnienie wąskich gardeł. W 197 praktyce zarządzania większymi projektami jest to bardzo pożądana funkcjonalność. Przykładowe przypisania zasobów w tabeli 9 pochodzą z programu Microsoft Project. Tabela 9 Przypisania kosztów i zasobów w projekcie Kolejnym elementem formalnego ujęcia projektu jest jego harmonogram kosztowy oraz rzeczowy. Wygodnie jest prowadzić takie rozliczenie za pomocą arkusza kalkulacyjnego, albowiem programy typu Project nie dają tak szerokich możliwości łączenie informacji zarządzania projektem oraz finansowych. Możliwe jest natomiast eksportowanie danych z harmonogramu czasowo-zadaniowego do arkusza kalkulacyjnego i w wygodny sposób ułożenie sobie prac rozliczeniowych. Przykładowy arkusz kalkulacyjny zadania określonego w harmonogramie projektu (tabela 9), stanowi oddzielny arkusz kalkulacyjny (rys. 4.1). Każde, następne zadanie zawiera w sobie zadanie poprzedzające i przenosi jego koszty, tak że na końcu koszt projektu jest narastającym rezultatem wykonanych zadań (arkusz ostatniego zadania). To można przenieść następnie na skalę czasową w kolejnym arkuszu (zakładka „Koszt_projektu) i wówczas otrzymujemy harmonogram kosztowo-czasowy (rys. 4.2). Te dane służą następnie do prognozowania przepływów finansowych oraz analiz rentowności (NPV, ENPV, IRR) i efektywności. 198 Rys. 4.1 Przykładowy arkusz kalkulacyjny harmonogramu rzeczowego Wykres sieciowy i wykres Gantta Wykresy harmonogramowania stanowią grupę metod prezentacji projektów wśród których najważniejszymi są: Wykres sieciowy PERT274 Wykres Gantta Prezentacje graficzne przykładowego projektu zostały przedstawione w formie wykresu sieciowego (rys. 4.3) oraz wykresu Gantta (rys. 4.4). Zarówno wykres sieciowy, jak i Gannta stanowią mapę projektu i pozwalają na ustalenie położenia czasowo-zadaniowego w dowolnym momencie realizacji projektu. Programy wspomagające zarządzanie projektami dodatkowo mają wbudowane opcje kontroli położenia na wykresach i raportowania. Wawak. S., Encyklopedia zarządzania „Wykresy sieciowe”, https://mfiles.pl/pl/index.php/Wykresy_sieciowe 274 199 Rys. 4.2 Harmonogram kosztowy dla projektu z przykładu 200 Ścieżka krytyczna 201 Rys. 4.3 W ykres sieciowy dla projektu Ścieżka główna Punkt kontrolny Zadanie cząstkowe Zadania równoległe Podprojekt Rys. 4.4 W ykres Gantta dla projektu (ścieżka krytyczna) 202 203 4.2 Zmiana w biznesie „Kto stoi w miejscu, ten się cofa” – ten cytat sentencji J.W. Göthe jest najlepszym wstępem do zagadnienia zmienności w biznesie. Jak należy rozumieć zmianę w kontekście zarządzania? Wydaje się tutaj koniecznym zastosowanie rozważań ontologicznych i udzielenie odpowiedzi na kilka kluczowych pytań, które ta dziedzina filozofii stawia275. Na podstawie udzielonych odpowiedzi możemy zbudować pewien zakres wiedzy odnośnie podmiotu i przedmiotu zmiany. Dopiero wówczas możliwe staje się ustalenie spójnej definicji zmiany. Kolejnym, logicznym krokiem może być podjęcie prób zbudowania metodologii postępowania i zarządzania zmianą. Możemy wówczas oczekiwać spójności wywodu i uporządkowania pojęć, które w literaturze przedmiotu są za bardzo rozmyte276,277. Zmiana i projekt biznesowy są ze sobą powiązane, albowiem zmiana dokonuje się przez realizację projektu tranzycji lub procesu transformacji. A zatem projekt lub zbiór projektów jest narzędziem dokonania zmiany. To rozróżnienie ułatwi dalsze rozważania. Należy sobie uzmysłowić, że zmiana dokonuje się na ogół w sferze działań zasobu ludzkiego, kultury organizacji, jej struktury lub funkcjonalności, a projekt biznesowy nie musi dotyczyć ani kwestii reinżynieringu ani relacji międzyludzkich ani poważniejszej reorganizacji procesów. Warto również zauważyć, że wdrażanie strategii jest przykładem procesu transformacji od pewnego stanu wyjściowego (misji), poprzez stan przejściowy w okresie realizacji programów strategicznych, do stanu docelowego, stanowiącego urzeczywistnienie wizji strategicznej i zmiany. Takim działaniom towarzyszy zawsze niechęć i obawa przez zmianami w sferze zasobów ludzkich organizacji. Stąd zarządzanie zmianą polega między innymi na znalezieniu sposobów redukcji oporów wewnętrznych oraz tych, pochodzących z kontekstu otoczenia i wykreowaniu przywództwa dla procesów tranzycji. Potrzebne są również metody śledzenia przemian oraz kwantyfikatory rezultatu. W końcu każdy proces tranzycji ma swoje ROI (rozdział 4.7.1), które należy wyliczyć. 4.2.1 Aspekty epistemologii zmiany W większości publikacji na temat zarządzania zmianą, pojęcie zmiany jest przedstawiane w sposób niekompletny i na ogół intuicyjny, powiązany z miękkimi aspektami zagadnienia. Jak wspomniałe wyżej to można zdecydowanie poprawić, wychodząc z fundamentalnych kwestii ontologicznych, dotyczących uniwersalium Gospodarek T., „Aspekty …”, op cit. str. 24 Change Management Framework, Charles Sturt University, http://www.csu.edu.au/special/wpp/resources/change-management-framework 277 Prosci, Change Management Learning Center, http://www.change-management.com/articles.htm 275 276 204 „zmiana”. Możliwe jest wówczas lepsze określenie zakresu zagadnienia, jak również zmierzenia się z problemem definicji zmiany w biznesie. Ontologia stawia sześć zasadniczych pytań w kwestii tego co istnieje, jak „to coś” bytuje i w jaki sposób jest charakteryzowane (uposażenie ontyczne bytu). 1. Jak cechy danego bytu (np. organizacji) odnoszą się do niego samego? Pytanie jest ważne, ponieważ zmiana sposobu, w jaki cechy odnoszą się do organizacji, czy procesu biznesowego będzie decydować o jednym z kierunków zmian. Jest istotne, czy organizacja jest mała, czy duża. Czy proces biznesowy jest wirtualizowany, czy też nie. Tranzycja mapy procesów do formy sformalizowanej i wdrożenie jej w praktyce, oznacza zmianę w obszarze interpretacji opisu stanu rzeczy przez cechy. A zatem zmiana jest w tym momencie usankcjonowana i zdefiniowana przez siłę ekspresji cech w sensie akjometrycznym. 2. Które cechy bytu są najważniejsze, w odróżnieniu od mało istotnych atrybutów? Jest to kolejna kwestia umożliwiająca rozróżnienie pomiędzy zmianą a korektą w odniesieniu do obiektu związanego z zarządzaniem. Zamiana kluczowych cech określających podmiot lub przedmiot zarządzania na mniej znaczące atrybuty, albo dodanie nowych określeń do katalogu cech charakteryzujących może sugerować zmianę. Warto w tym miejscu posłużyć się przykładem zmiany określeń w odniesieniu do stacji obsługi samochodów, która z niezależnego warsztatu nagle stała się koncesjonariuszem sieci fabrycznej. Ona nadal wykonuje usługi, ale cechy przynależne marce, jakości i prestiżowi nagle stały się ważne w opisie procesów i działań. Natomiast fakt że można kupić części danej marki samochodów przeszedł do kategorii atrybutów (stał się oczywistością wynikającą z umowy koncesyjnej). 3. Jakie funkcje wyróżniają daną ontologię jako wyizolowany byt? Tu w sposób ewidentny możemy definiować zmiany poprzez różnice w sposobie bytowania (funkcjonalność, nowe funkcje, nowe struktury, etc.). Wyobraźmy sobie, że posiedliśmy pakiet kluczowych kompetencji uruchomienia skomplikowanego systemu IT dzięki zmianie dokonanej w układzie zasobów (przejęliśmy serwisantów, nabyliśmy certyfikacje, podpisaliśmy stosowne umowy). Organizacja zaczyna być serwisantem lub VAR np. firmy SAP lub IBM. Zmieniają się funkcje i zadania, które wprawdzie dotyczą w dalszym ciągu informatyki, ale zostały one przedefiniowane na nowo. 4. Co stanowi o tożsamości danego bytu? Ta kwestia odpowiada za miarę zmiany. Określenie tożsamości podmiotowej lub przedmiotowej w chwili początkowej pozwala się odnieść do niej po określonym czasie. Zmiana pojawi się, o ile określenia tożsamości będą się różnić. W tym miejscu najlepszym przykładem jest zmiana tożsamości marki (rys. 4.16). Firma 3M, z lokalnych zakładów górniczych w Two Harbors w Minnesocie stała się innowacyjną marką globalną, wykorzystującą najnowsze zdobycze nauki i oferująca dzisiaj 55000 produktów, a jej tworzyw użyto na Księżycu. 205 5. Jak można uzasadnić, że dany byt istnieje? Jeżeli potrafimy dać świadectwa bytowania przedmiotu lub podmiotu rozważań dotyczących zmiany i określić desygnaty istnienia zarówno w chwili początkowej analizy, jak i po pewnym czasie, wówczas mamy podstawy do rozsądzania o zaszłej zmianie. Wróćmy do przykładu firmy 3M. W roku 1902 świadectwem jej istnienia było kilku odbiorców minerałów, wykopanych przez górników. Siedziba firmy znajdowała się w małym miasteczku. Tam też mieszkali jej właściciele i złożony były dokumenty rejestracji. Dzisiaj świadectwem istnienia 3M są fabryki rozrzucone po całym świecie, produkty dostępne w każdym markecie, reklama w mediach i spektakularne osiągnięcia innowacyjnych produktów. Z pewnością zmiany desygnatów istnienia 3M wykonały lot kosmiczny, podobnie jak buty N. Armstronga, wykonane z materiałów 3M. 6. Kiedy analizowany byt przestaje istnieć, w odróżnieniu od jego zmiany? Umiejętność określenia tożsamości istnienia bytu po dokonaniu jego tranzycji lub transformacji umożliwia wnioskowanie odnośnie zmiany. Tu posłużę się przykładem firmy Siemens Nixdorf Informationssysteme A.G, produkującej komputery PC, serwery, bankomaty i kasy fiskalne. Produkcja bankomatów i kas w 1999 roku została przejęta przez Goldman Sachs i Kolberg Kracis Roberts i pod nazwą Wincor-Nixdorf rozpoczęła tworzenie się nowego bytu, który w 2004 roku zadebiutował na giełdzie we Frankfurcie. W roku 2009 firma została przejęta przez koncern Fujitsu i marka Siemens-Nixdorf na laptopach i komputerach PC wygasła. Przez pewien czas występowała jako Fujitsu-Siemens, by w końcu stać się wyłącznie Fujitsu. W ten sposób zmiana sprowadzi czasami do unicestwienia bytu. Mamy zatem sześć aspektów umożliwiających rozpatrywanie zmiany organizacji lub innego podmiotu biznesu. Na tym należy również budować definicję zmiany. Żeby zostać dobrze zrozumianym, jeżeli organizacja była w stanie ekonomicznym A i po dokonaniu pewnych działań przeszła do stanu B, to nie jest to zmiana w sensie ontologicznym. Ale jeżeli organizacja wchłonęła inną i stała się korporacją, to można wówczas mówić o zmianie. Stąd jawi się kolejna kwestia ontologiczna: których obiektów (ontologii) w biznesie zmiana może dotyczyć? To pytanie jest bardzo interesujące, bo nie ma na nie jednoznacznej odpowiedzi. Dotyczy ona podmiotu i przedmiotu zmiany, co jest domeną dociekań epistemologicznych. Kolejnym, bardzo ważnym aspektem zmiany w biznesie jest jej przebieg czasowy. Można w tej kwestii analizować dwa skrajne przypadki zmiany pozostającej pod kontrolą: ewolucyjny i rewolucyjny. Może również zdarzyć się przypadek katastroficzny, który w małym stopniu zależy od planowanych działań i ma przebieg nagły w nieprzewidywalnym momencie (wybuch elektrowni w Fukushimie spowodował zmiany katastroficzne w całym łańcuchu dostaw koncernu Toyota, a wiele firm w wyniku tego przestało istnieć). Jest on najczęściej wynikiem jakiejś akcji ze strony otoczenia, wywołującej zaburzenie równowagi mikro-makro, której 206 system generujący wartość nie jest w stanie zbuforować. Zmiany mają wówczas charakter wymuszony i adaptatywny. Są to zwykle działania ratunkowe ad hoc, które mogą zostać zrealizowane jako sensowny projekt tranzycji. Ostatnią kwestią epistemologiczną zmiany jest ustalenie podmiotu i przedmiotu procesu tranzycji. Biorąc pod uwagę strukturę organizacji można odnosić rozważania podmiotowe do zmian: mapy procesów, jednostki organizacyjnej (SBU) i całej korporacji. Rozważania przedmiotowe można wówczas definiować jako wszelkie działania odnoszące się do funkcjonalności, użyteczności, redefinicji łańcucha wartości oraz lokalnego łańcucha dostaw. Tym samym zmiana może zostać zdefiniowana podobnie, jak strategia. Ale można również działania na rzecz zmiany odnosić do zasobów ludzkich, w szczególności do grup pracowniczych, menedżerów operacyjnych, dyrektoriatu jako podmiotów oraz kluczowych kompetencji, wiedzy oraz zakresu obowiązków i zadań, jako przedmiotów zmiany. Na podstawie powyższych rozważań ontologicznych można podjąć próbę zdefiniowania zmiany w organizacji. Punktem wyjścia jest systemowa definicja organizacji (rozdział 2.1.1). [Df ] Zmianą w organizacji o ustalonym celu istnienia oraz stanie ekonomicznym, będącej strukturą S = [U,O,R,P] określoną na niepustych zbiorach: 1. U obiektów u zwanych zasobami, 2. uporządkowanym zbiorze O dozwolonych oddziaływań w S, 3. zbiorze R relacji określonych w S, 4. zbiorze P procesów zmiany w czasie stanu zasobów U, oddziaływań O i relacji P, nazywamy dowolne przekształcenie któregokolwiek ze zbiorów U,O,R,P stanowiących strukturę S, takie, że po jego zajściu, konieczna staje się redefinicja celów istnienia struktury S lub zmiana miary jej stanu. Przez redefinicję celów istnienia struktury S oraz zmiany jej miary rozumieć należy spełnienie zadość którejkolwiek z wymienionych wyżej sześciu kwestii ontologicznych. To ujęcie w zasadzie wyczerpuje wszystkie, dotychczas podejmowane w literaturze przedmiotu próby zdefiniowania zmiany w organizacji. Warto również zauważyć, że zmiana wartości parametrów stanu nie stanowi zmiany w rozumieniu niniejszej definicji. Tym samym spełnione są racjonalne przesłanki rozumienia wzrostu efektywności ekonomicznej, wynikające z istniejącego sposobu prowadzenia działalności gospodarczej, jako zdarzenia nie będącego zmianą. Do uznania wspomnianego wzrostu za wynik zmiany, konieczna jest w tym celu redefinicja miary. Z epistemicznego ujęcia definicji zmiany wynika równocześnie logiczna konsekwencja dla ustaleń kierunków metodologicznych. 207 Można w tym miejscu sprawdzić działanie definicji oraz ujęcia ontologicznego zmiany, odnosząc się do jej zakresu, podmiotu i przedmiotu, używając układu zaproponowanego przez E. Cameron i M. Greena278: zmiana w zespole (podmiotowoprzedmiotwa), zmiana w organizacji (podmiotowo-przedmiotowa), zmiana przywództwa (przedmiotowa), restrukturyzacja (podmiotowa), fuzja i przejęcie (podmiotowa), zmiana kultury (przedmiotowa), zmiany procesów (przedmiotowa), zmiana kompleksowa (podmiotowo-przedmiotowa). 4.2.2 Metodologia zmiany Każdy strateg zajmujący się zmianami organizacji, czy też realizator projektu wdrożenia zintegrowanego systemu IT zadaje sobie pytanie, czy wdrażać projekt metodą „big bang” czy krok po kroku. I tu również nie ma jednoznacznej odpowiedzi, bo wynik zależy od zbyt wielu zmiennych, nie dających się zmierzyć i w sposób pewny prognozować. Są jednak sposoby planowania zmiany, traktując zagadnienie jako projekt tranzycji. Warto zwrócić uwagę na systematyczną metodę wdrażania strategii opisaną na str. 184. Na rys. 3.11 przedstawiono cały cykl działań koniecznych do realizacji zmiany strategicznej według modelu zaprezentowanego na rys. 3.12. Strategia zawiera w sobie szereg zmian i projektów tranzycji. Stąd wszelkie zalecenia dotyczące zarządzania strategią można stosować do zarządzania zmianami. W szczególności dotyczy to dopasowania kultury organizacji do wizji strategicznej oraz stawianych celów transformacji w wyniku realizacji jej projektów. Z drugiej strony, przy projektowaniu zmiany możliwe jest prognozowanie scenariuszowe, pozwalające na mniej lub bardziej prawdopodobne przewidywanie ewentualnych skutków wdrożenia projektu tranzycji. Oferują one wsparcie prognozy przez porównanie z jakimiś wcześniej zaistniałymi scenariuszami. To w znacznej mierze ułatwia zarządzanie zmianą, ponieważ scenariusze wymagają zdefiniowania kwantyfikatorów analizowanych w czasie279. Należy zaznaczyć, że nie istnieją w kwestiach metodologicznych jednoznaczne opisy najlepszych praktyk albo metod realizacji zmiany. Wynika to w dużej mierze z braku dobrze uwarunkowanych ustaleń epistemologicznych. Posługujemy się studiami przypadku dla udanych tranzycji albo spektakularnych zdarzeń przemian. Tych przypadków jest opisanych dużo w literaturze przedmiotu, ale nie są to kompletne dokumentacje od projektu do kwantyfikatorów. Najlepszym dokumen- Cameron E., Green M., “Making Sense of Change Management. A complete guide to the models, tools & techniques of organizational change”, 2 nd Ed. Kogan Page, London and Philadlphia, 2009. http://www.bms.lk/download/GDM_Tutorials/e-books/Making_Sense_of_Change_Management.pdf 279 Kamugisha S., The Effects of Change Management in an Organisation: A Case Study of National University of Rwanda (Nur), Wyno Journal of Management & Business Studies, Vol. 1(1), 2013, 1-18, http://www.wynoacademicjournals.org/management_biz.html 278 208 tem wspomagającym zarządzanie zmianą, który w sposób kompleksowy przedstawia szablon dokumentacji zmiany we wszystkich fazach jej wdrażania, jest pozycja Change Manangement Plan, Workbook, and Template 280. Modela metodologiczny ADKAR Kwestiami zmiany w praktyce, w najbardziej kompletny sposób zajmuje się serwis Prosci281oferując liczne artykuły i wiadomości. Jednym z podejść Prosci jest model ADKAR, definiujący metodologiczne aspekty zagadnienia wdrażania projektu tranzycji w przypadku zespołu lub jednostki. Można to zaprezentować jako: Awareness (obawa przed zmianą), Desire (potrzeba uczestnictwa i wspierania zmiany), Knowledge (wiedza na tematy związane ze zmianą), Ability (zdolność do wdrożenia pożądanych umiejętności i zachowań), Reinforcement (umacnianie dokonanych zmian). Nikt nie lubi zmian, zwłaszcza gdy coś działa i zawsze wśród grupy, której zmiana ma dotyczyć pojawiają się obawy. Czy to nie obróci się przeciwko nam? Czy damy radę się przestawić? Czy po zmianie będziemy mieli pracę? Takie kwestie muszą zostać wyjaśnione i rozwiązane, czasami nawet w formalny sposób przez liderów zmiany. Model Lewina W roku 1947 K. Lewin zaproponował model kognitywny rozumienia zmian w organizacji, stanowiący fundament rozwoju koncepcji zarządzania zmianami282. Używając metafory odmrażania i zamrażania kształtu bloku lodu dla zobrazowania zmian kształtu organizacji, zaproponował trójstopniowy model takiej zmiany. Rozmrażanie – stan, w którym rozmrożone zostają stare struktury i burzony jest stary ład. Odczucia interesariuszy organizacji na tym etapie są ambiwalentne. Z jednej strony jest to strach przed zmianą, a z drugiej dostrzegane są potrzeby zmian, mające uchronić organizację przed porażką w przyszłości. Na tym etapie następuje: przygotowanie organizacji do akceptacji konieczności zmiany, rozbicie istniejącego status quo i zbudowanie nowego sposobu działania, opracowanie przekonującej informacji dla wszystkich interesariuszy dlaczego istniejący sposób działania nie może być kontynuowany, postawienie wyzwań organizacyjnych, w obszarach zmian przekonań, wartości, postaw i zachowań, oczekiwanie stanu niepewności. “Change Manangement Plan, Workbook, and Template”, Queensland Gov. Chief Information Office, http://www.nrm.wa.gov.au/media/10528/change_management_plan_workbook_and_template.pdf 281 Prosci, “Change Management Learning Center”, http://www.change-management.com/tutorials.htm 282 Lewin K., . "Frontiers in Group Dynamics: Concept, Method and Reality in Social Science; Social Equilibria and Social Change", Human Relations. Vol. 1, (1947), 5–41. http://journals.sagepub.com/doi/pdf/10.1177/001872674700100103 280 209 Zmiana – implementacja zmiany, której skuteczność zależy od założonego projektu tranzycji, przywództwa w procesie transformacji oraz stopnia zaangażowania pracowników. Na tym etapie: pracownicy rozwiązują problemy związane z niepewnością i szukają nowych sposobów działania, ludzie zaczynają wierzyć i działać w sposób, który wspiera nowy kierunek reorganizacji, poświęcają czas dla przyjęcia nowego kierunku działania i uczestniczą aktywnie w przemianie, koniecznie muszą zrozumieć korzyści płynące z realizowanej zmiany, zdawać sobie sprawę, że nie każdy będzie pasować do wspierania zachodzącej zmiany i korzyści z niej płynących. Zamrażanie- pracownicy integrują się z nowym status quo i akceptują go, jako stan normalny. Organizacja przechodzi w stan zmieniony. Objawia się to następująco: zmiany zaczynają się wyraźnie kształtować, a pracownicy rozumieją nowe sposoby pracy, ustala się stabilny schemat organizacyjny, spójne opisy stanowisk pracy, nowa mapa procesów, zmodyfikowane obiegi dokumentów, etc., zmiany są zinternalizowane lub zinstytucjonalizowane poprzez włączenie do codziennej pracy i struktur organizacji, potwierdzenie wysiłków ludzi włożonych w dokonaną reorganizację, wzmacnia ich wiarę w przyszłe zmiany, świętowanie sukcesu zmiany pomaga pracownikom uznać zakończenie procesu transformacji. Model Kottera Kotter zaproponował model zmiany organizacji jako logiczny ciąg ośmiu kroków283, przedstawionych w tabeli 11. Model ten jest przykładem zdroworozsądkowego podejścia do wdrażania dowolnej strategii lub polityki wewnątrz organizacji, stanowiąc fragment 3 (zestrajanie organizacji) i 4 (planowanie operacji) schematu wdrażania strategii (Rys. 3.11). Tabela 10 Model zmiany wg. Kottera Krok 1 2 283 Nazwa Nadanie priorytetu pilności dla dokonania zmian Utworzenie koalicji przewodzącej zmianie Objaśnienie Należy pomóc innym w dostrzeżeniu konieczności zmian i przekonać ich do ważności natychmiastowego rozpoczęcia działań. Zebrać odpowiednią grupę interesariuszy, mającą moc sprawczą dokonania zmiany i stworzyć zespół wiodący. Kotter, J. P., “Leading Change”, Harvard Business Press Review, Boston, (1996). 210 3 4 Opracowanie koncepcji zmiany Rozpropagowanie wizji w organizacji 5 Wzmocnienie działań harmonizacji organizacji i strategii 6 Ustanowienie krótkoterminowych celów i nagród za ich realizację 7 Nigdy nie osłabiać działań i nie poddawać się 8 Integracja zmian z kulturą organizacji Stworzyć wizję zmiany i opracować strategię dla jej realizacji. Utworzyć projekt w sensie macierzy logicznej LFA. Doprowadzić do sytuacji, w której większość interesariuszy rozumie i akceptuje projektowane zmiany i strategię. Usunąć przeszkody blokujące wprowadzenie zmian. Przemodelować systemy lub struktury nie odpowiadające wizji zmiany. Zachęcić do podejmowania niekonwencjonalnych działań i podejmowania ryzyka. Zaplanować krótkoterminowe osiągnięcia, które można łatwo uwidocznić (kamienie milowe zmiany). Identyfikować i nagradzać pracowników, którzy byli zaangażowani w te osiągnięcia. Zwiększać wiarygodność zmiany systemów, struktur i polityk, które nie pasują do wizji strategicznej. Zatrudnić, promować i rozwijać tych pracowników, którzy mogą wdrożyć strategię. Ożywiać proces za pomocą nowych projektów tranzycji oraz tematów powiązanych z wizją zmian. Artykułować powiązania pomiędzy nowymi zachowaniami oraz reorganizacją zasobów i struktury, a sukcesem organizacji. Opracować sposoby ciągłości transformacji i sukcesji. Powyższy model można uznać za dobrą praktykę w odniesieniu do realizacji zmian przez zespoły strategiczne organizacji. Analiza scenariuszowa zmiany Budowanie scenariuszy jest standardową metodą postępowania w podejmowaniu decyzji i działań prowadzących do zmiany. Przykładem są strategie, a zwłaszcza cele odległe w czasie oraz te, dotyczące restrukturyzacji. Warto w tym miejscu w sposób szczególny podkreślić, że zarządzanie zmianami jest podejściem stricte konsekwencjalnym menedżera i wymaga zarówno pomiaru, jak i prognoz skutków podejmowanych działań. Każdy scenariusz budowany jest w układzie: pesymistyczny (najgorszy z możliwych), optymistyczny (najlepszy z możliwych) oraz najbardziej prawdopodobny (np. scenariusz PEST, str. 431 oraz analiza SWOT str. 440). Zanim zostanie zbudowany scenariusz zmiany, konieczne jest zdefiniowanie kluczowych charakterystyk obiektu przedmiotowego. Przykładem jest definiowanie zmiany strategicznej (rys. 3.12), dla której miernikiem może być strategiczna karta wyników Kaplana i Nortona (rys. 4.35). Zbiór takich kwantyfikatorów można ustawić w kolumnie i dla każdego ustalić poziom wartości minimum oraz maksimum w skali 0 – 10 (lub podobnej) metodą DTF (rozdział 5.1.3). W ten sposób można dokonać skalowania dla scenariusza pesymistycznego i optymistycznego (Rys. 4.5). Scenariusz najbardziej 211 prawdopodobny leży gdzieś pośrodku. Oczywistym jest, że ustalając prawdopodobieństwa uzyskania określonego wyniku dla danego wskaźnika można nanieść na diagram również wynik najbardziej prawdopodobny. Biorąc pod uwagę trzy możliwości zachowania się danej zmiennej: uzyskanie wartości minimalnej z prawdopodobieństwem P1, uzyskanie wartości maksymalnej z prawdopodobieństwem P2 oraz wartości średniej z prawdopodobieństwem P3, gdzie P1+P2+P3 = 1, możemy wykreślić wariant z maksymalnym prawdopodobieństwem. Rys. 4.5 Układ scenariusza zmiany Wariant najbardziej prawdopodobny będzie znajdować się gdzieś pomiędzy pesymistycznym, a optymistycznym. Taka analiza pozwala na prognozę zachodzenia zmiany w zależności od czynników zewnętrznych, jak i wewnętrznych podmiotu, w którym ta zmiana się dokonuje. Scenariuszy nie należy mylić z harmonogramami Gantta i rzeczowymi, które stosuje się w zarządzaniu projektamirys. 4.4). Scenariusz jest elementem prognozy skutków wdrożenia projektu tranzycji lub zajścia zmiany, podczas gdy harmonogramy stanowią plan operacyjny realizacji. 212 Kluczowe wskaźniki efektywności zmiany Ustalić kierunek zmian to jedno, ale zdefiniować monitoring i miarę efektywności dokonanej zmiany, to jest zupełnie inne zagadnienie. W przypadku projektu tranzycji w organizacji, konieczne jest ustalenie pewnej liczby możliwych do zdefiniowania kwantyfikatorów, ewidentnie powiązanych z dokonywaną zmianą. Należy mieć na uwadze, że organizacja nie przechodzi w stan spoczynku w momencie tranzycji. Ona działa nadal. Stąd skutki wprowadzenia zmian muszą dawać się mierzyć na tle innych pomiarów, związanych z kontrolingiem oraz finansami. Przykładowy zestaw kluczowych wskaźników efektywności zmiany można przedstawić następująco: 1. liczba zmian wprowadzonych do produktów lub usług zgodnie z wymaganiami klientów, np. ewidentna poprawa jakości, 2. zmniejszenie liczby zakłóceń działania łańcucha wartości wskutek niedokładności organizacyjnych, dokumentacji i procedur procesowych, 3. zmniejszenie liczby niepożądanych zmian lub zdarzeń stochastycznych, wymagających działań awaryjnych, 4. wskaźnik sukcesu zmiany (procentowy wskaźnik efektów uznanych za sukces z katalogu projektu tranzycji), 5. zmiana liczby procesów charakteryzujących się słabszymi wskaźnikami oceny (np. niezawodności, dopasowania do harmonogramów zadaniowych - wąskie gardła), 6. procentowy wskaźnik dopasowania efektów zmiany do oczekiwań (założenia i efekty opisane za pomocą kwantyfikatorów wymiernych), 7. średni czas wprowadzenia zmiany ad hoc, 8. wskaźnik efektywności ekonomicznej zmiany w procesie tranzycji (ROI dla procesu), 9. poziom akceptacji zmiany przez pracowników, zarząd i otocznie, 10. procent wskaźników kontrolingowych, który uległ poprawie. Układ wskaźników efektywności zmiany musi zostać utworzony dla każdego procesu tranzycji, podobnie jak ma to miejsce w projektowaniu strategii. 4.2.3 Biznes plan jako projekt zmiany Jak zaplanować przedsięwzięcie biznesowe w sposób świadomy, a następnie przejść do jego wdrożenia w praktyce? To pytanie stanowi fundament zarządzania zmianą, niezależnie od poziomu rozwoju organizacji. Najczęściej zmiana polega na powstaniu nowego bytu gospodarczego, ale również dotyczy wszelkich rozszerzeń działalności. Wiedza przekazana w niniejszej monografii umożliwia skonstruowanie bardzo dobrego i rozbudowanego biznes planu nie tylko dla projektu przedsiębiorczego, opartego na jednoosobowej działalności, ale również dla projektu realizowanego przez duży start up, będący spółką akcyjną. Wszystkie niezbędne analizy 213 i opisy konieczne dla stworzenia takiego dokumentu zostały opisane wcześniej, a rolą niniejszego rozdziału jest syntetyczne ujęcie tego, co należy uwzględnić w sposób uporządkowany w biznes planie. Każdy, kto zamierza rozpocząć działalność gospodarczą lub wdrożyć jakiś projekt biznesowy, powinien zadać sobie kilka pytań związanych z kwestią dlaczego chcę uruchomić ten projekt biznesowy, a w szczególności odpowiedzieć na następujące kwestie, które ująłem w sześć pytań zaczynających się od „co”. 1. Co chcę osiągnąć wdrażając dany projekt biznesowy? 2. Co wiem o planowanym biznesie? 3. Co mam na start? 4. Co ryzykuję? 5. Co będzie, gdy projekt się nie uda i poniosę porażkę? 6. Co może mi pomóc w odniesieniu sukcesu? Teraz dopiero następuje odpowiedni moment na zdanie sobie sprawy, czym jest biznes plan. Jest on dokumentem opisującym przedsięwzięcie gospodarcze, jego produkty lub usługi, sposób wejścia na rynek oraz sposób finansowania całej operacji lub procesów z tym związanych. Opisuje inwestycje, które należy wykonać oraz te, które są w trakcie realizacji, a dotyczą planowanego biznesu. Odpowiada na sześć podstawowych kwestii. 1. Kto robi ten biznes? (Animatorzy biznesu i ich zasoby). 2. Co jest przedmiotem biznesu? (Łańcuch wartości dla przedsięwzięcia). 3. Komu ten biznes jest dedykowany? (Analiza interesariuszy i rynku). 4. Jak to zostanie zrobione? (Strategia, mapa procesów i łańcuch dostaw). 5. Ile to będzie kosztować? (Analizy ekonomiczne i finansowe). 6. Jakie jest ryzyko przedsięwzięcia? (Bariery wejścia i wyjścia, zagrożenia). Ponadto w biznes planie formułuje się cele na najbliższy czas (od roku do kilku lat) i sposoby ich osiągnięcia w powiązaniu z aktualną sytuacją firmy, rynku oraz prognozami na przyszłość. Nie powinno zatem dziwić, że najważniejszym składnikiem biznes planu jest prognoza finansowa danego projektu, czyli ocena, czy poniesione nakłady się zwrócą oraz analiza zagrożeń. Biznes plan jest równocześnie wielopłaszczyznową oceną ekonomiczną animatora projektu biznesowego, jego potencjału, szans rynkowych i zagrożeń czyhających w otoczeniu. Opisuje działania marketingowe i sprzedaży oraz perspektywę dla interesariuszy projektu biznesowego, kreśląc wizję rozwoju organizacji, która będzie go realizować. Stąd do utworzenia dobrego biznes planu potrzebna jest znajomość: metod badania rynku, analiz finansowych i diagnoz ekonomicznych otoczenia Każdy przedsiębiorca powinien posiadać biznes plan dla swojej firmy lub przedsięwzięcia gospodarczego, który rozumie i zamierza realizować, bo ułatwia to późniejsze zarządzania i ogranicza ryzyko popełnienia błędów decyzyjnych. Biznes plan tworzymy dla określonych interesariuszy projektu biznesowego. Musi on być zatem dostosowany do oczekiwań konkretnego adresata. Pożądana 214 jest pewna uniwersalność formy dokumentu, przynajmniej dla banku (udzielającego kredytu), inwestora (wykładającego kapitał) i właściciela (podejmującego ryzyko uruchomienia projektu). Bank na pewno zwróci szczególną uwagę na finansowe aspekty przedsięwzięcia, w tym: sposoby zabezpieczenia kredytu, rezerwy finansowe, planowane przepływy gotówkowe oraz ryzyko. Inwestor będzie przyglądać się przede wszystkim merytorycznej stronie samego projektu, ryzyku inwestycji, analizom efektywności ekonomicznej, osobistym predyspozycjom kierownictwa firmy oraz unikatowości planowanego projektu biznesowego. Dla właściciela poprawnie i realnie opracowany biznes plan jest użytecznym narzędziem w procesie zarządzania organizacją wdrażającą projekt oraz planowania działań ad hoc. Może wręcz zastępować strategię. Tworzenie biznes planu jest typowym projektem planistycznym, który można realizować zgodnie z zasadami macierzy logicznej (LFA - rozdział 6.7). Jest to jedna z dobrych praktyk, prowadząca zawsze do sukcesu. To, do czego ma to doprowadzić, jest wypełnienie pewnego szablonu dokumentu treścią. Struktura biznes planu Typowy biznes plan ma ustaloną strukturę, której należy się po prostu trzymać. Ale wypełnienie treścią poszczególnych elementów stanowi umiejętność i pozwala na uzyskanie dokumentu finalnego, który może się wyróżniać na tle innych. Tym samym może być lepszym ambasadorem projektu biznesowego wobec interesariuszy zewnętrznych. Poniżej przedstawiam typową strukturę biznes planu, zrozumiałą dla większości ekonomistów oraz menedżerów. 1. Streszczenie menedżerskie projektu biznesowego (maksimum 2 strony). 2. Firma i branża. Historia i obecna sytuacja firmy. Wizja, misja i cele do osiągnięcia. Charakterystyka branży i otoczenia PEST(LE). Analiza SWOT. Zasoby i kluczowe kompetencje. 3. Przedsięwzięcie biznesowe. Prezentacja przedsięwzięcia. Interesariusze (analiza wpływu). Zakres koniecznych inwestycji. Uwarunkowania prawne i techniczne. Konieczne zasoby i środki. 4. Plan sprzedaży i marketingu. Oferowany produkt lub usługa. Analiza rynku. Strategia marketingowa. Cena. 215 Promocja. Dystrybucja. 5. Plan działania. Działalność: produkcja lub usługi. Zarządzanie firmą. Harmonogramy działań. 6. Plan finansowy. Nakłady inwestycyjne. Źródła finansowania. Harmonogram finansowy. Aktualne dane finansowe. Prognozy finansowe. Rachunek zysków i strat. Przepływy pieniężne - cash flow (CF). Bilans firmy (o ile jest sporządzany). Punkt rentowności (BEP). Analiza wskaźnikowa (EBITDA, NPV, IRR). Ocena efektywności (CBA, Wskaźnik Efektywności). 7. Ocena ryzyka przedsięwzięcia. Analiza ryzyka zgodnie z normą (ISO oraz AIRMIC, ALARM, IRM). Analiza wrażliwości dla projektu. Symulacja wyniku dla najbardziej istotnych ryzyk finansowych i rynkowych. 8. Załączniki. Co należy rozumieć w odniesieniu do punktów biznes planu wykracza poza ramy niniejszej monografii. Opracowania tych kwestii są powszechnie dostępne w Internecie, np. Biznes plan dla wnioskodawców ubiegających się o dofinansowanie projektu w ramach Programu Operacyjnego Innowacyjna Gospodarka284, projekt biznes planu po angielsku, autorstwa rządu brytyjskiego wraz z licznymi przykładami285 oraz organizacji pozarządowych Entrepreneur286, Prince’s Trust287. Istnieją również liczne programy komputerowe, umożliwiające wygenerowanie gotowego dokumentu na podstawie danych wprowadzanych na zasadzie wypełniania ankiety288 lub ułatwiające wykonanie analiz fianansowych w Excelu289. PARP, “Biznes plan dla POIG”, https://poig.parp.gov.pl/files/74/108/212/2210.doc Gov.UK, “Write a business plan”, https://www.gov.uk/write-business-plan 286 Entrepreneur, “Biznes Plan: A Step-by Step Guide”, https://www.entrepreneur.com/article/247574 287 Prnce’s Trust, „Business Plans”, https://www.princes-trust.org.uk/help-for-young-people/tools-resources/business-tools/business-plans 288 Nowyinteres.pl, “Biznes plan jest prosty”, http://www.nowyinteres.pl/ 289 Wykorzystaj to.pl, „Prosty biznes plan, czyli jak sprawdzić, czy na tym zarobię”, http://wykorzystajto.pl/860-biznes-wlasna-firma-zarzadzanie_prosty-biznes-plan-czyli-jak-sprawdzic-czy-na-tym-zarobie.html i arkusz analityczny w Excelu, https://docs.google.com/spreadsheets/d/1XgzuMRpAMsI4bnm-G4VnKqhS8oRc6HQmRfPeSCCgdY/edit?hl=pl#gid=3 284 285 216 Profesjonalne biznes plany w języku angielskim oferuje oprogramowanie firmy Palo Alto Software „LivePlan. Online planning”290, wydanie desktopowe „Biznes Plan Pro. Premier Ed”291 oraz należący do JIAN Business Power Tools, “BizPlanBuilder”292. Kończąc rozdział poświęcony zmianom, warto podkreślić, że dobry biznes plan pozwala na świadome sterowanie przebiegiem zmiany w czasie. Z założenia preferuje on działanie ewolucyjne i dzięki temu ogranicza ryzyko niepowodzenia. Umożliwia zmianę scenariusza działań na każdym etapie realizacji. Nie gwarantuje wprawdzie sukcesu danego biznesu, ale doświadczenie tych, którzy zrealizowali swoje biznes plany wskazuje, że osiągali oni założone wskaźniki położenia ekonomicznego. A to jest wystarczającym powodem do potraktowania stosowania biznes planu jako dobrej praktyki w biznesie i w zarządzaniu zmianą. 4.3 Zarządzanie ryzykiem Jak już wspomniałem wcześniej, działalności gospodarczej zawsze towarzyszy ryzyko. Jest ono skutkiem istnienia niepewności w chwili podejmowaniu i wdrażania decyzji. Ryzyko związane jest ze stanem świadomości podejmującego je co do możliwości poniesienia pewnej straty wskutek podjęcia określonych decyzji i działań. Tym samym akceptując i ponosząc większe ryzyko należy oczekiwać wyższego poziomu zysku z podjętych działań lub oczekiwać dodatkowej premii w przypadku sukcesu. Taka nagroda zwykle przekracza spodziewaną wartość potencjalnej straty, którą można ponieść w przypadku porażki. Z drugiej strony, ryzyko jest na ogół proporcjonalne do prawdopodobieństwa wystąpienia zdarzenia obciążonego i do wielkości strat, które mogą wystąpić jako skutek293. Ten mechanizm jest jednym z motywatorów podejmowania różnych wysiłków i działań przez człowieka. Na rys 4.6 przedstawiony został model takonomii czynników ryzyka, który najlepiej wyjaśnia gdzie można spodziewać się jego wystąpienia w działalności gospodarczej. 290 Live Plan, https://www.liveplan.com/ Palo Alto, “Biznes Plan Pro”, http://www.paloalto.com/business_plan_software/features/premier 292 Business Power Tools, http://www.businesspowertools.com/project/bizplanbuilder-small-cloud-businessplan-software-app-template-crowd-fund/ 293 Jones J. A., „An Introduction to Factor Analysis of Information Risk (FAIR). A framework for understanding, analyzing, and measuring information risk”, 2011, http://www.riskMenedźmentinsight.com/media/docs/FAIR_introduction.pdf . 291 217 Rys. 4.6 Układ czynników ryzyka [Na podst.: AIRMIC 29 5 …]. Najprostszym skutkiem ponoszonego ryzyka są bezpośrednie straty finansowe u inwestorów giełdowych, zwłaszcza tych, spekulujących na Forexie. Można zdefiniować następujące skutki zmaterializowania się ryzyka w formie realnych strat: przejście organizacji w stan niebytu, zaistnienie niekorzystnych zmian w strukturze zasobów, ograniczenie możliwości lub efektywności generowania wartości, osłabienie relacji wewnętrznych, 218 osłabienie oddziaływań i relacji z otoczeniem, obniżenie funkcjonalności zasobów, obniżenie użyteczności i wartości organizacji, uzyskanie negatywnej oceny audytorów, wywołanie niekorzystnych działań adaptatywnych u interesariuszy, poniesienie nieplanowanych kosztów. Skutki pośrednie ryzykownych działań i spekulacji finansowych dotyczą nie tylko bezpośrednich graczy, ale całych systemów społecznych. Wskutek bessy giełdowej systemy portfelowe zabezpieczenia emerytalnego obniżają swoją wartość, podobnie jak aktywa bankowe. W skrajnych przypadkach dochodzi do upadłości instytucji finansowych i zachowań katastroficznych na szeroką skalę (przypadek upadłości ENRON oraz Lehman Brothers). Dlatego ryzyko działalności gospodarczej musi być pod kontrolą, a każdy system generujący wartość powinien inwestować w systemy wspomagające szacowanie i obniżanie ryzyka. Nie należy się dziwić, że biznes wypracował metodologię postępowania z ryzykiem i najlepsze praktyki, co opisano w sposób normatywny294 oraz standard AIRMIC, ALARM, IRM295 (rys. 4.6). 4.3.1 Taksonomia ryzyka Ryzyko w działalności gospodarczej zostało podzielone ze względu ma miejsce powstawania na dwie główne kategorie: Ryzyka wewnętrznie zorientowane (a priori) związane są z działaniami i decyzjami wewnątrz organizacji, na redukcję których mamy wpływ. Przykładem mogą być decyzje finansowe o zakupie środków trwałych lub plan optymalnej struktury zapasu magazynowego. W obu przypadkach istnieje ryzyko nie trafienia z efektywnością zakupu i spowodowania problemów w obszarze płynności finansowej. Tych ryzyk można uniknąć lub zredukować je, zanim jeszcze wystąpią. Ryzyka zewnętrznie zorientowane (a posteriori) wiążą się ze zmianami w otoczeniu, na które organizacja wpływu nie ma i przejawiają się po podjęciu działań. Można jedynie w sposób adaptatywny ograniczać skutki zaistnienia zdarzeń ryzykownych w otoczeniu i próbować je przewidzieć przed podjęciem decyzji. Stąd wynika bardzo istotny aspekt prognozowania ryzyk zewnętrznie zorientowanych dla przedsięwzięć biznesowych, szczególnie projektów związanych z inwestycjami. Drugim kluczem taksonomicznym dla ryzyka są jego rodzaje. Wyróżniono cztery, główne kategorie rodzajowe, wśród których mogą występować ryzyka we- ISO Guide 73:2009. Risk Menedźment. http://www.iso.org/iso/catalogue_detail?csnumber=44651 AIRMIC, ALARM, IRM, “A Risk Management Standard”, 2002 http://www.theirm.org/publications/documents/Risk_Menedźment_Standard_030820.pdf 294 295 219 wnętrznie zorientowane oraz zewnętrznie zorientowane, jak na Ryzyko finansowe. Zewnętrznie zorientowane ryzyka dotyczą zmienności stóp procentowych na rynku międzybankowym, kursów walut oraz zmienności kosztów kredytów. Wewnętrznie zorientowane, leżące po stronie organizacji, wiążą się z możliwości utraty płynności finansowej oraz zahamowaniem przepływów finansowych. Podejmując złą decyzję o zakupie inwestycyjnym lub wydatku niecelowym, można przewidzieć skutki dla przepływów finansowych. Stąd, jednym z imperatywów zarządzania ryzykiem jest kontrola przepływów finansowych zarówno dla projektów inwestycyjnych (studium wykonalności), jak również bieżącej działalności organizacji. Ryzyko finansowe objawia się na każdym poziomie zarządzania: operacyjnym, taktycznym oraz strategicznym. Im dalszy horyzont czasowy skutków ryzykownych decyzji, tym prawdopodobieństwo wystąpienia zdarzeń katastroficznych jest większe, a ich skutki poważniejsze. Stąd ryzyko finansowe decyzji strategicznych jest bardzo poważnym zagadnieniem nauk o zarządzaniu i praktyki menedżerskiej. Ryzyko strategiczne. W tej grupie ryzyk, po stronie otoczenia (zewnętrznie zorientowane), mamy takie czynniki, jak: zachowania konkurencji, zmiany konkurencji, zmiany preferencji klientów, zmiany technologiczne, upodobania oraz styl życia konsumentów. Możemy w tej kwestii próbować w sposób elastyczny dostosowywać się do zmienności rynku, a nawet uczestniczyć w jego kształtowaniu (o ile mamy wystarczająco duży potencjał). Nie mamy jednak wpływu na konsumentów od strony popytowej – możemy dostosowywać podaż i uatrakcyjniać ofertę. Przyjęcie niewłaściwej strategii rynkowej w dłuższym horyzoncie czasowym, może spowodować nawet upadłość. Z kolei, po stronie czynników ryzyka strategicznego, wewnętrznie zorientowanego, mogą występować zaburzenia równowagi podaży i popytu wraz z utratą równowagi mikro-makro. To może być spowodowane działaniem samej organizacji. Oferując produkty słabo konkurencyjne lub nieakceptowane na rynku w wyniku błędnych decyzji strategicznych, możemy ponieść znaczne straty. Przykładem mogą być modele samochodów, które nie przyjęły się na rynku, a ich producenci ponieśli znaczące straty. Praktyka biznesowa wskazuje, że liczba nietrafionych strategii oraz związanych z tym produktów jest ogromna. Ryzyko operacyjne. Jest to jeden z ważniejszych aspektów zarządzania ryzykiem, albowiem dotyczy codziennej praktyki gospodarczej i najbardziej licznego pakietu decyzji w organizacji. Skutki tych decyzji nakładają się na siebie, wywołując różnorodne interakcje, często trudne do przewidzenia w chwili ich podejmowania. Menedżerowie średniego szczeble wdrażają równolegle całe pakiety decyzyjne. Nie ma przy tym praktycznie możliwości kontroli wzajemnych działań. Cele cząstkowe są osiągane na drodze mnogości procesów, które są uruchamiane równolegle. 220 Ryzyka operacyjne zewnętrznie zorientowane dotyczą relacji kultury otoczenia i możliwości niedopasowania się organizacji do istniejącego jej poziomu. Nie da się w Szwajcarii osiągnąć sukcesu stosując afrykańskie standardy działania operacyjnego oraz procedury niezgodne z regulacjami doskonale zorganizowanego państwa. Drugim czynnikiem destabilizującym działalność gospodarczą są wszelkie regulacje państwowe, które zwłaszcza w niestabilnych systemach gospodarczych i prawnych, takich jak Polska, potrafią wywrócić panujący ład wewnątrz organizacji. W odniesieniu do ryzyk operacyjnych wewnętrznie zorientowanych, głównym ich źródłem są systemy logistyczne, informatyczne oraz kontroli finansowej. Luki w działaniu któregoś z wymienionych elementów skutkują natychmiast problemami w realizacji procesów łańcucha wartości organizacji. Te ryzyka możemy jednak eliminować, a problemy monitorować na bieżąco, np. dzięki zintegrowanym systemom informatycznym klasy ERP. Ryzyko hazardowe występuje zawsze w działalności gospodarczej zarówno jako wewnętrznie zorientowane, jak i zewnętrznie zorientowane. Wiąże się ono z relacjami ludzkimi w organizacji oraz oddziaływaniami między podmiotami gospodarczymi. Każdy, podpisany kontrakt z dostawcą lub klientem jest formą hazardu, bo nigdy nie wiadomo czy uda się wszystko zrealizować zgodnie z założeniami. Dla przykładu klient nie zapłaci, bo w międzyczasie ogłosił upadłość. W drugą stronę, klient nam zapłacił, ale nie zrealizujemy kontraktu, bo personel zastrajkował. Zawsze gdy mamy do czynienia z zatrudnieniem pracownika pojawia się element hazardu i na nic się zdadzą wyszukane procedury rekrutacji oraz nadęte struktury head hunterów. Sprzeczności pomiędzy celami organizacji i indywidualnymi zawsze będzie źródłem ryzyka działalności. Znakomitym przykładem ryzyka hazardowego są relacje logistyczne w systemach produkcji just in time. Jednym z najbardziej nieprzewidywalnych aspektów zarządzania organizacją są rozliczne regulacje: prawne, podatkowe, korporacyjne, etyczne etc. oraz te, tworzone na bieżące potrzeby polityczne. Wszelkie zaburzenia i tak już słabo otwartych ekonomii przez hordy lobbystów, korporacje i banksterów stale wnoszą poważne ryzyko dla działalności gospodarczej. W Polsce co cztery lata wieje wiatr historii i następują coraz lepsze zmiany, na ogół na gorsze dla biznesu. Takie działanie w odniesieniu do relacji mikro-makro bez przerwy powoduje wychwiania od stanu równowagi istniejących ekosystemów biznesowych. W odpowiedzi organizacje mogą jedynie monitorować sytuację za pomocą dostępnych narzędzi i wykorzystać odpowiednio regułę przekory LeChateliera, zasady optymalizacji i autoadaptacji. Nie wyeliminuje to jednak ryzyka z ich działalności. 221 4.3.2 Style zarządzania ryzykiem Zarządzając ryzykiem cały czas należy pamiętać, że biznes nie jest hazardem i nie lubi ryzyka. Kapitał zaś, idzie tam, gdzie chce. Biznes lubi stabilizację, ciszę i twarde relacje, które są przewidywalne w długim okresie czasowym. Z zasady prowadzenie biznesu związane jest z ograniczaniem do minimum ryzyk wszelkich, albowiem biznes to jest co najwyżej kontrolowana gra przeciwko otoczeniu, a nie ruletka. Całkowita eliminacja ryzyka nie jest tu możliwa, z czym przedsiębiorca, menedżer i właściciel muszą się pogodzić. Ludzie z natury nie lubią ponosić strat i są niechętni podejmowaniu ryzykownych działań. Wolą zabezpieczenia i ochronę własności, niż perspektywę niepewnej nagrody. Z tym faktem związane są cztery style zarządzania ryzykiem, wynikające z teorii gier, reprezentujące postawy decyzyjne wobec potencjalnej straty lub zysku296. Pesymistyczna, charakteryzowana przez kryterium L. Savage'a. Minimalizuje ono oczekiwaną przez decydenta stratę, związaną z podjęciem decyzji gorszej niż optymalna, dla pewnego problemu decyzyjnego (ochrona kapitału, ochrona stabilności, strategie mini-mini etc.). Stąd rodzi się koncepcja prowadzenia biznesu z minimum ryzyka. Przykładem mogą być fundusze inwestycyjne ochrony kapitału, gdzie nie jest ważne ile się zarobi, ale ważne jest aby lokowany kapitał nie stracił na wartości. Optymistyczna, charakteryzowana przez kryterium P. Laplace’a, najwyższej oczekiwanej wypłaty, przy założeniu, że wszystkie stany natury są jednakowo prawdopodobne, co zwykle jest trudne do stwierdzenia. Postawa ta charakteryzuje ofensywne zarządzanie w poszukiwaniu maksymalnych korzyści i wykorzystywnia okazji. Dominują tu strategie maxi-maxi, inwestycje w ryzykowne projekty wysoce zyskowne, tworzenie funduszy inwestycyjnych. Zrównoważona, charakteryzowana przez kryterium A. Walda, według którego należy wybrać tą decyzję, której odpowiada najwyższa spośród najgorszych wypłat. Wyraża ona tym samym zachowawczą strategię postępowania, gwarantując najmniejszą stratę, a zarazem maksymalizując zysk. (Strategie maxi-mini, zrównoważony rozwój, dywersyfikacja portfeli etc.). Przykładem mogą być fundusze zrównoważonego wzrostu. Fundamentem działań jest zasada bezpiecznego i racjonalnego inwestowania. Racjonalna, charakteryzowana przez kryterium L. Hurwicza, według którego należy wybrać tą decyzję, której odpowiada maksymalna wypłata, ale przy założeniu pewnego współczynnika optymizmu (λ) z przedziału [0,1]. Tym samym postawa racjonalna jest kompromisem między podejściem optymistycznym Laplace’a a pesymistycznym Savage’a. Zarządzanie według kryterium 296 Strafin P.D., op. cit 222 Hurwicza charakteryzuje zmienne ryzyko i podejście adaptatywne w zależności od okoliczności. Dotyczy strategii wyłaniających się od, wykorzystania opcji realnych oraz szeregów czasowych. Menedżer ma różne możliwości zachowań wobec decyzji obarczonych ryzykiem. Nie ma przy tym ścisłej reguły, które z kryteriów jest najlepsze. Zależy to od kontekstu biznesowego, stopnia niepewności oraz psychologicznego nastawienia danego menedżera do poniesienia straty. Inne nastawienie do ryzykownych inwestycji i działań będzie mieć bank, fundusz emerytalny, a zupełnie inne będzie mieć gracz giełdowy na instrumentach pochodnych. Z racjonalnego punktu widzenia należy przyjąć, że kryterium Hurwicza jest najbardziej uniwersalnym, a przez parametr optymizmu pozwala dopasować poziom ryzyka do problemu. 4.3.3 Model zarządzania ryzykiem w organizacji Jak zorganizować proces podejmowania istotnych decyzji w większej organizacji, żeby ograniczyć ryzyko? Należy zbudować model umożliwiający równocześnie prognozę skutków decyzji, dostęp online do danych bieżących i przeszłych wspomagających podejmowanie decyzji oraz kontrolę back office decyzji podejmowanych przez front office297. Takie modele wydają się być najbardziej efektywne w zarządzaniu ryzykiem, a wsparcie przez systemy ERP jest naturalnym wyborem narzędzi rys. 4.7. 297 Gospodarek T., “Modelowanie...”, op. cit., str. 159 223 Rys. 4.7 Model zarządzania ryzykiem oparty na uwarstwieniu logicznym decyzji Model ten jest szczególnie użyteczny w przypadku organizacji finansowych oraz prowadzących transakcje biznesowe z wykorzystaniem instrumentów pochodnych (opcje, kontrakty, swapy), gdzie wycena instrumentów i ich zakup lub sprzedaż należą do operacji ryzykownych. 4.4 Zarządzanie informacją i wiedzą (ujęcie zasobowe) Zarządzanie wiedzą stanowi dzisiaj jedno z kluczowych zagadnień współczesnego zarządzania. Ewolucja łańcucha wartości organizacji oraz procesy globalizacji spowodowały, że istnieje dzisiaj szereg podmiotów gospodarczych, których wartością generowaną jest wiedza oraz produkty wykorzystania wiedzy. Na rys. 1.12 przedstawiony został model SECI zarządzania wiedzą oraz zasady konwersji wiedzy ukrytej do jawnej (i odwrotnie). Z kolei na rys. 1.13 zaprezentowałem pozycjonowanie wiedzy w ciągu logicznym: dane, informacja, wiedza, mądrość. Nie wnikając bardziej szczegółowo w kwestie epistemologiczne, przejdziemy do metod prowadzących do zarządzania wiedzą. Istnieją różne definicje pojęcia „informacja”. Tu zostanie zastosowane określenie w poniższym brzmieniu. [Df] Informacja jest to takie przetwarzanie i organizacja danych, która powiększa poziom wiedzy u odbiorcy lub wywołuje określone działanie. Abstrahując od fizycznego oraz kogniwistycznego znaczenia podanej definicji, należy zauważyć, że informacja jest wielkością niematerialną, bytem metafizycznym, któremu można jednak nadać zereg cech będących uposażeniem ontycznym (spójność, wartość, ilość) oraz atrybutów (aktualność, przydatność). Maszyna wykonuje określone czynności dlatego, że oprócz masy, energii i uporządkowania mechanicznego posiada informacje zakodowane w procesorach sterujących. A zatem pewna wielkość niematerialna decyduje o tym, że działa ona lepiej, gorzej lub w ogóle działa. Jest to wiedza zapisana na nośnikach fizycznych w formie użytecznych informacji. Te, zapisane informacje sterujące, możemy zgromadzić na fizycznym nośniku, przesyłać, kopiować, uaktualniać, umożliwiając ich rozprzestrzenianie i przetwarzanie. Z samego faktu, że informacja daje się zapisać wynika, że ma ona określone cechy ilościowe. Traktuje o tym teoria C. Shannona, stanowiąca fundament obliczeń ilości informacji i jej przesyłania298. Ale skoro można informacje zapisać i gromadzić – to można mówić o definiowaniu pewnego zasobu informacyjnego, stanowiącego zbiór użytecznych informacji z punktu widzenia prowadzonych procesów ekonomicznych. Zanim do tego 298 Shannon C.E., A Mathematical Theory of Communication, The Bell System Technical Journal, Vol. 27, pp. 379–423, 623–656, July, October, 1948. 224 dojdzie, należy umieć oszacować pojęcie użyteczności informacji, nauczyć się wartościować użyteczność, określić zależność pomiędzy treścią komunikatu i otoczeniem. To powoduje, że informacjom obok cech ilościowych, wynikających z teorii Shannona, należy nadać pewne, rozpoznawalne cechy jakościowe, umożliwiające ocenę ich przydatności oraz wartości. Traktują o tym fundamentalne prace teoretyczne W.Gitta299 oraz M. Mazura300. W ten sposób powstają przesłanki do zarządzania informacją i wiedzą. 4.4.1 Wiedza jako cenny zasób organizacji Informacje mogą być w dowolnej organizacji generowane, przetwarzane, przechowywane, usuwane, wymieniane, kradzione, etc., Nazwijmy te działania ogólnie operacjami na informacjach. Ich prowadzenie wymaga uwzględnienia i istnienia określonego zasobu informacyjnego. Można rozpatrywać osiem następujących elementów, związanych z finansowaniem, technologią przetwarzania informacji, treścią, wartością, interpretacją danych oraz zespołem ludzkim zarządzającym informacją i wiedzą301: 1. Urządzenia fizyczne aktywne i pasywne umożliwiające zapis, przetwarzanie, zabezpieczenie oraz przesyłanie informacji (komputery, dyski, drukarki, przełączniki, modemy, …). 2. Serwisy umożliwiające operacje na informacjach, szczególnie jej przesyłanie i wymianę z otoczeniem (Internet, ATM, DNS, NAT, CMS,… 3. Procedury, standardy, algorytmy i oprogramowanie związane z operacjami na informacjach (Windows, Procedura instalacji sieci, Standard RS-232, OSI, algorytm odwrotnej notacji polskiej, program FK,…). 4. Zbiory informacji wewnętrznych, stanowiące wiedzę układu, wykorzystywane w procesach biznesowych lub stanowiące wartość niematerialną i prawną. 5. Zbiory informacji zewnętrznych, użytecznych w procesach biznesowych, realizowanych przez system ekonomiczny. 6. Osoby związane z utrzymaniem zdolności układu do operacji na informacjach. 7. Osoby związane z wykorzystaniem informacji, budowaniem wiedzy i mądrości układu. 8. Kapitał pokrywający koszty pozyskania informacji, bieżącej konserwacji, ochrony oraz utrzymania zdolności operacyjnej na informacjach przez system. Można dokonywać operacji na informacjach bez używania systemu informatycznego (ręcznie) oraz informatyków. Nie da się jednak tego wykonać bez osób, związanych z budowaniem i wykorzystaniem wiedzy oraz tych, dla których informacje stanowią narzędzia w procesach zarządzania. Zasób informacyjny stanowi podstawę działania osób związanych z operacjami na informacjach. Stąd logicznym 299 Gitt W., "Am Anfang war die Information" Hanssler, Neuhausen-Stuttgart, Germany 1994 Mazur M., Jakościowa teoria informacji, WNT, Warszawa 1970. 301 Gospodarek T., „Elastyczność …”, op. cit. 300 225 jest wydzielenie czterech obszarów rozważań dotyczących zasobów informacyjnych. Globalny zasób informacyjny organizacji Globalnym zasobem informacyjnym (ZIG) nazywać będziemy wirtualne zasoby informacyjne, operacyjne zasoby informacyjne oraz ludzkie zasoby informacyjne związane z operacjami na informacjach i wspomagające podejmowanie decyzji w systemie generującym wartość. Tym samym ZIG stanowi kombinację wirtualnego zasobu informacyjnego (ZIW), operacyjnego zasobu informacyjnego (ZIO) oraz informacyjnego zasobu ludzkiego (ZIL). Innymi słowy: ZIG = ZIW ZIO ZIL Wirtualny zasób informacyjny Wirtualnym zasobem informacyjnym (ZIW) nazywać będziemy wszystkie informacje, składające się na wiedzę i mądrość organizacji w danej chwili czasu, nadające się do wykorzystania w realizowanych przez nią procesach biznesowych. Przedstawiona definicja ZIW nie uwzględnia ani hardware ani software ani zespołu ludzkiego, związanych z operacjami na informacjach. Jednocześnie pomija informacje nieprzydatne w procesach biznesowych organizacji. Wirtualny zasób informacyjny można podzielić z kolei na: wewnętrzny, stanowiący własność intelektualną organizacji (wiedza, organizacja), który należy chronić, albowiem stanowi on kapitał i pozwala na osiąganie przewagi konkurencyjnej na rynku oraz wyróżnienie się; zewnętrzny, udostępniany organizacji do wykorzystania (sygnały lub informacje) lub pozyskany z otoczenia w dowolny sposób i możliwy do przekonwertowania na wewnętrzny. Wraz z rozwojem techniki i technologii zmienia się oprogramowanie (element ZIW). Powoduje to dynamiczną rozbudowę zasobów informacyjnych i wzrost wydajności systemów IT. Jednak prawo Shannona o ilości informacji nie przekłada się na jej jakość. Stąd pojawia się konieczność coraz bardziej zaawansowanej filtracji oraz selekcji danych przez zasób informacyjny. Istnieje moment, że dochodzimy do poziomu big data przetwarzania i konieczności tworzenia efektywnych narzędzi data mining oraz business intelligence. To jest domeną zintegrowanych systemów IT zbierających coraz większe ilości danych. Obowiązuje przy tym zasada wykładniczego wzrostu ilości informacji w otoczeniu – ilość informacji dopływających do zasobu z zewnątrz rośnie wykładniczo w czasie. Jest to związane z wykładniczym wzrostem mocy obliczeniowej procesorów oraz systemów przetwarzania informacji. Dodatkowo, każdy zasób informacyjny dąży do maksymalizacji entropii informacyjnej i trzeba dbać o to, żeby nie uległ całkowitemu rozproszeniu, a przetwarzał wyłącznie dane użyteczne. 226 Wiedza ZIW obejmuje coraz większy zakres metaanaliz i z czasem coraz większy kontekst. Tym samym jej użyteczność ulega rozmyciu, stając się mniej precyzyjnym zasobem dla podejmowania decyzji, zwłaszcza ekonomicznych, ale za to umożliwia modelowanie. Z drugiej strony dowolne prawdy, znane z lokalnego rynku, przenoszone na rynki zewnętrzne mogą okazać się fałszem, a wnioskowanie na podstawie tak uogólnionych informacji może być obarczone dużym ryzykiem. Dlatego istnieje równowaga zakresu kontekstu i zawartości zasobu informacyjnego, dla których ma on optymalną wartość użytkową. Ten stan równowagi należy utrzymywać w czasie, pozyskując odpowiednie informacje z zewnętrznych źródeł i eliminując informacje, które utraciły znaczenie na dany moment. W przeciwnym razie zasób będzie rozpraszać użyteczną wiedzę, zwiększając entropię informacyjną. ZIW posiada cechę niezużywalności, polegająca na tym, że użyta informacja, jako wartość dodana w procesie ekonomicznym nie zużywa się i może zostać ponownie w nim użyta. Tym samym ZIW nie zmniejsza swojego potencjału informacyjnego i wiedzy w pewnym przedziale czasowym. Może jednak podlegać modyfikacjom i uaktualnieniom. ZIW ma ograniczoną użyteczność w odniesieniu do relacji biznesowych podmiotu. Użyteczność informacji zasobu wiedzy zawsze pozostaje w relacji z otoczeniem biznesowym i łańcuchem dostaw. W jego obrębie ustala się stan optymalny użyteczności zasobu ZIW. Poza tym obszarem, zasób ma użyteczność ograniczoną (przeniesienie go w całości do innej firmy niekoniecznie przyniesie korzyści). ZIW podlega zasadzie ograniczonej użyteczności krańcowej H. Gossena, albowiem każda następna informacja na ten sam temat ma coraz mniejszą użyteczność. Po prostu liczba potwierdzeń danej informacji wymagana dla zakwalifikowania jej do zasobu wiedzy jest skończona. Powyższe fakty na temat informacyjnego zasobu wirtualnego danej organizacji pozwalają na zdefiniowanie optymalnych działań w zakresie zarządzania nim. Są to: ochrona przed rozproszeniem wiedzy, budowanie optymalnego zasobu, maksymalizacja użyteczności wiedzy posiadanej, odkrywanie wiedzy i rozbudowa funkcjonalności zasobu. Jak to uczynić, stanowi kwestie przedmiotu zarządzania informacją i wiedzą. Operacyjny zasób informacyjny Operacyjnym zasobem informacyjnym (ZIO) nazywać będziemy wszystkie systemy i urządzenia techniczne, oprogramowanie, technologie zapisu, przetwarzania, transmisji danych, umożliwiające automatyzację operacji na informacjach. ZIO służy do obsługi technologicznej zasobu ZIW. Składa się na niego: system informatyczny lokalny (hardware, software, sieć LAN), system łączności (Internet, sieć WAN LAN, telekom, systemy dzierżawione), systemy wymiany danych (protokoły, procedury, standardy), 227 systemy ochrony danych (procedury, protokoły bezpieczne, zabezpieczenia dostępu, programy), systemy zabezpieczeń przed awariami (hardware i software), systemy zabezpieczeń przez atakami z zewnątrz (hardware, software, procedury, standardy). ZIO posiada szereg specyficznych własności, którymi zarządzający informacją i wiedzą musi zarządzać. Służą one wzrostowi efektywności procesów przetwarzania informacji, jej zabezpieczeniu, udostępnianiu i wymianie, filtracji danych zewnętrznych itp. Nikt dzisiaj nie wyobraża sobie efektywnej pracy z informacją bez użycia zaawansowanych technologii IT, a zwłaszcza internetowych. Podstawowymi cechami ZIO są te, wymienione poniżej. Skalowalność - system informatyczny powinien umożliwiać obsługę dowolnego zasobu informacyjnego, niezależnie od jego wielkości. Innymi słowy, najlepszym rozwiązaniem są platformy hardware i software, niezależne od rodzaju sprzętu oraz używanych systemów operacyjnych. Ich budowa powinna być modułowa, umożliwiając w dowolnym momencie dodanie kolejnego. Użyte protokoły i standardy powinny mieć charakter otwarty (np. XML, PHP, HTTP). Spójność - spójny system informacyjny jest to taki system, w którym raz wprowadzona informacja jest dostępna w dowolnym jego punkcie, a informacja przetworzona pozwala na wskazanie danych źródłowych, użytych w metaanalizie (od ogółu do szczegółu). Systemy spójne są w wysokim stopniu zintegrowane i połączone on-line siecią. Algorytmy wymiany danych są zdefiniowane w formie buforów i umożliwiają identyfikację danych źródłowych przesyłanych między modułami. Systemy o wysokim wskaźniku spójności wymagają dużego nakładu pracy przy ich wdrażaniu i często modyfikują znacząco istniejący system informacyjny wirtualny. Bezpieczeństwo - bezpieczny system informatyczny, jest to taki system, w którym założone poziomy ochrony danych przed utratą, niepowołanym dostępem oraz nieuprawnionym wykorzystaniem są zapewnione. Nie ma w 100% bezpiecznych systemów IT. Zasoby informacyjne i wiedzy podlegają zazwyczaj szczególnej ochronie. W niektórych przypadkach informacje mają charakter niejawny i z mocy prawa ich przetwarzanie wymaga użycia procedur specjalnych, zwiększonego bezpieczeństwa. Im bardziej chronione są informacje, tym mniejsza staje się zdolność systemu informacyjnego do uczestnictwa w ich wymianie. Niezależnie od powyższych aspektów bezpieczeństwa, istnieją rozwiązania z kategorii „critical applications”, gdzie krytycznym elementem jest zachowanie ciągłości pracy zasobu informacyjnego, niezależnie od warunków zewnętrznych. Ta kategoria superbezpiecznych zasobów informacyjnych ma zastosowanie w bankach, nawigacji, lotnictwie, etc. Aktualność informacyjna - system informatyczny można uznać za aktualny informacyjnie, jeżeli dane przetwarzane są w czasie rzeczywistym. Systemy online 228 czasu rzeczywistego są najlepszym rozwiązaniem dla obsługi zasobów informacyjnych. Niestety są najbardziej kosztowne, najbardziej zaawansowane technologicznie i „zasobożerne”, co powoduje, że bardziej uzasadnione ekonomicznie są systemy quasi online. Dodatkowo są one łatwiejsze do wdrożenia. Sztuczna inteligencja - system inteligentny, to jest taki system, który umożliwia dostosowanie zasobów informacyjnych do aktualnego poziomu odbiorcy. Każdy system informatyczny zawiera pewną ilość inteligentnych tagów, agentów oraz usług umożliwiających uzyskanie maksymalnej transparentności technologii dla użytkownika. Inteligencja systemu w połączeniu ze skalowalnością pozwala na modyfikację jego funkcjonalności wraz ze wzrostem poziomu świadomości informatycznej zasobu kadrowego układu. Jednocześnie elementy sztucznej inteligencji zawarte w systemie, umożliwiają maksymalizację użyteczności istniejącego zasobu informacji i wiedzy. Dokładność - system informacyjny dokładny, to jest taki system, w którym wyniki przetwarzania obarczone są mniejszym błędem od założonego poziomu, który można zdefiniować. Ten element dotyczy obsługi systemów informacyjnych, w których dokonuje się weryfikacji hipotez, opracowuje analizy oraz podejmuje decyzje. Najważniejszym elementem jest oszacowanie błędu wyniku. Jest to również cecha systemów finansowych, bazujących na danych księgowych, gdzie z mocy ustawy o rachunkowości, na systemy informacyjne nakłada się wymogi dokładności oraz rzetelności. Powyższe cechy pozwalają na określenie pożądanej charakterystyki systemu informatycznego dla dowolnych zastosowań w zakresie obsługi zasobów informacyjnych wirtualnych. To jest kolejnym zadaniem menedżerów zarządzania wiedzą i informacją. Dobrać takie narzędzia, żeby zasób ZIW był efektywny. Jak można zmierzyć efektywność, opisałem szerzej w monografii „Systemy ERP…”. Informacyjny zasób ludzki Systemy informacyjne w organizacjach służą przede wszystkim wspomaganiu podejmowania decyzji oraz tworzeniu wartości dodanej w procesach ekonomicznych. Są zatem narzędziem zarządzającego, dostarczając odpowiednio przetworzone informacje oraz metaanalizy. Końcowe decyzje podejmuje zawsze człowiek. Im lepiej człowiek wykorzystuje zasoby informacyjne, tym mniejsze jest ryzyko podjęcia błędnych decyzji i tym pewniejsze prognozy są możliwe do opracowania. System operacji na informacjach nie będzie funkcjonować samorzutnie. Konieczny jest w tym celu pewien zespół ludzki, utrzymujący zasoby ZIW i ZIO w stanie gotowości do użycia, modyfikujący jego część wirtualną oraz odpowiadający za trwałość i użycie zasobów. To stwierdzenie uzasadnia zdefiniowanie trzeciego elementu w obrębie zasobu informacyjnego. Ludzkim zasobem informacyjnym (ZIL) nazywać będziemy wszystkie osoby związane z operacjami na informacjach, odpowiadające za utrzymanie zasobów ZIW i 229 ZIO w stanie gotowości do użycia oraz osoby decydujące o wykorzystaniu informacji i zasobu informacyjnego w procesach biznesowych. ZIL można zatem określić, jako wydzieloną grupę pracowników wiedzy z zasobu osobowego organizacji, związaną z: serwisem sprzętowym i telekom, programowaniem i serwisem software, zarządzaniem wiedzą i informacją, twórczością, programowaniem i instruktarzem, podejmowaniem decyzji z użyciem zasobu informacyjnego. W powyższym układzie można budować wiedzę w organizacji i zajmować się jej użyciem, wymianą, dystrybucją, uaktualnianiem, itp. Wynika stąd użytecznie twierdzenie: Zarządzanie wiedzą odbywa się w części ZIL zasobu informacyjnego ZIG za pomocą zasobu ZIO ze skutkiem zmian w części ZIW. Rzeczywiście, decyzje o użyciu wiedzy podejmuje menedżer, który za pomocą urządzeń i technologii ICT może dokonać dowolnych zmian w wirtualnej części zasobów informacyjnych. To jest najbardziej ogólne i czytelne ujęcie. Zasób ZIL charakteryzują trzy zasadnicze cechy, które można modyfikować, rozbudowywać i zmieniać w procesach zarządzania informacją i wiedzą: Wiedza - zasób informacji użytecznych, nadających się do wykorzystania w procesach biznesowych organizacji, dostępnych w ZIW dla grupy stanowiącej ZIL. Wiedza stanowi specyficzną własność zasobu informacyjnego ludzkiego, niekoniecznie dostępna dla ZIW. System informatyczny ZIO oraz zbiór danych i informacji zgromadzony w ZIW stanowi jedynie narzędzie dla funkcjonowania zasobu ZIL. Tu bowiem odbywa się dalsze doskonalenie przetworzonej informacji na doświadczenie i mądrość, które są póki co domeną zasobu ludzkiego. Podejmowane próby wykorzystania sieci neuronowych, uczących się, stanowią jedynie modelowe działanie wspomagające człowieka. Zasób ludzki generuje zapotrzebowanie na informacje i modeluje architekturę zasobu informacyjnego wirtualnego, który wykorzystuje. Określa on również zasady filtracji dla użyteczności informacji i decyduje o kształcie metaanaliz. Stąd pochodzą decyzje, które informacje staną się elementem zasobu informacyjnego (zostaną przekonwertowane na wiedzę), a które zostaną odrzucone. Wiedza może zostać przekazana w formie nauczania bezpośredniego lub opracowań pisanych, audio –video lub multimedialnych. Może stanowić również towar. Decyzyjność - czyli zdolność do podejmowania decyzji przez ZIL na podstawie danych pochodzących z zasobu informacyjnego oraz doświadczenia popartego dostępną wiedzą, zgromadzoną w ZIW. Zasób informacyjny stanowi jedynie narzędzie dla zespołu podejmującego decyzje. Dobrze podzielony na warstwy logiczne system podejmowania decyzji, wsparty zasobem informacyjnym, skraca 230 czas realizacji procesów biznesowych i stanowi o konkurencyjności całej organizacji. Im bardziej czytelny jest system podejmowania decyzji, tym wyższa staje się decyzyjność zarządzających. Inteligencja – Jest to zdolność adaptacji zasobu informacyjnego do zmieniających się warunków zewnętrznych i wewnętrznych jego funkcjonowania. Jest to bodaj najważniejsza cecha ludzkiego zasobu informacyjnego. Zasób ten stanowi siły szybkiego reagowania na sygnały i informacje z otoczenia. Buduje strategie, plany i systemy oceny sytuacji. Decyduje o architekturze wirtualnego zasobu informacyjnego i jego zmienności w czasie oraz bieżącemu dopasowaniu do potrzeb. Jest to działanie inteligentne, którego na dzień dzisiejszy nie udało się powielić w systemach komputerowych. Im lepsze i szybsze dopasowanie zasobu ZIL do zmian w otoczeniu, tym bardziej inteligentny jest zasób ludzki i cała organizacja. Dlatego wszyscy oczekują od zasobów informacyjnych wysokiego poziomu inteligencji i dopasowania narzędzi metaanaliz do wysokiego poziomu użyteczności (logika rozmyta, sieci neuronowe, modelowanie matematyczne). 4.4.2 Koszty zasobów IT i ich użyteczność Nie ma przychodu bez ponoszenia kosztów. Utrzymanie w stanie gotowości zasobu IT nie jest bezkosztowe. Zasoby informacyjne zalicza się do aktywów przedsiębiorstwa. Są one szybko zmienne co do wartości księgowej, ze względu na moralne starzenie się w czasie, jak również zmiany technologiczne następujące w otoczeniu. Z utrzymaniem zasobu informacyjnego wiążą się określone koszty: utrzymania zasobu (koszty pozyskania, umorzenia wartości niematerialnych i prawnych, amortyzacja sprzętu, koszty wynagrodzeń), przetwarzania informacji na wiedzę i mądrość (koszty zaplecza techniczne i zespołu ludzkiego), przechowywania i utrzymywania informacji (koszty hardware i software), zarządzania informacją (koszty procedur, software i zespołu ludzkiego), koszty ochrony (systemy zabezpieczeń, systemy backup i repozytorium), koszty wymiany informacji (usługi zewnętrzne, hosting, telekom, sprzęt i oprogramowanie, interfejsy łącznikowe). Zgodnie z powyższymi rozważaniami, każdy zasób informacyjny ma swoją reprezentację liczbową w postaci: wartości bilansowej, produktywności, kosztów utrzymania, itp., wyrażoną w jednostkach pieniężnych. Wartości te są zwykle trudne do oszacowania, ale nie niemożliwe. Wynika to z faktu, że skutek wykorzystania lub utraty informacji w określonym kontekście może prowadzić do zachowań nieliniowych, np. chaotycznych lub katastroficznych (organizacja popada w tarapaty). Z drugiej strony, ta sama informacja może generować w warunkach normalnej stabilności mierzalną wartość dodaną w powtarzalnych procesach i do jej wyceny daje się stosować standardy MSR. 231 Każdy zasób informacyjny jest szczególnie podatny na zjawiska anihilacji, utraty fukcjonalności, rozproszenia i dezintegracji. Mają na to wpływ różne czynniki, zarówno wewnętrznie zorientowane, jak i zewnętrzenie zorientowane. Postęp technologiczny w zakresie: hardware, software, systemów wymiany informacji, systemów zarządzania wiedzą. Poziom edukacji informatycznej; społeczeństwa, zasobu kadrowego układu, kadry zarządzającej układem, otoczenia biznesowego, Kontekst informacji; dezaktualizacja informacji i wiedzy w czasie, zmiany wartości zasobu wskutek zachodzących przemian w otoczeniu, utrata unikalności zasobu wskutek odkrycia lub dokonania wynalazku, utrata unikalności wskutek rozpowszechnienia wiedzy, Każdy zasób informacyjny podlega przemianom, prowadzącym do coraz wyższego poziomu absorpcji informacji zewnętrznych i bardziej efektywnego wykorzystania ich w procesach ekonomicznych. Wzrasta przy tym wartość zasobu informacyjnego nie tylko pod względem księgowym, ale również jego użyteczności. Czasami wzrost ten może być skrajnie wysoki wskutek dokonania wynalazku lub wygenerowania unikalnej wiedzy, nadającej się do użycia przez system generujący wartość. Możliwa jest również relacja odwrotna, kiedy to otoczenie posiądzie wiedzę, dezaktualizującą wiedzę organizacji i spowoduje utratę jej kluczowych kompetencji. W rezultacie pozycja rynkowa może zostać zachwiana. Pamiętajmy, że informacja kosztuje, wiedza kosztuje, a systemy IT również generują poważne koszty. Stawiając pytanie systemowi IT należy mieć świadomość, czy koszt uzyskania informacji nie przekracza skutków ekonomicznych braku jej posiadania. Jednym z ważnych elementów zarządzania wiedzą jest zatem optymalizacja kosztowa, co wiąże się ze skuteczności zarządzania zasobem informacyjnym. 4.4.3 Bezpieczeństwo informacyjne Ostatnim zagadnieniem, które na poziomie podstaw zarządzania powinno zostać zaprezentowane, jest bezpieczeństwo informacyjne. Aktualnie informacja i wiedza mogą być wykorzystane jako źródło przychodu, czynnik przewagi konkurencyjnej, czy też siła sprawcza prestiżu. Ale informacja może być również bronią ofensywną i narzędziem przestępstw. Stąd dalej wynika, że menedżer musi orientować się w zagrożeniach informacyjnych i móc im zapobiegać. To generuje kolejną 232 dziedzinę zarządzania zasobami IT związane z bezpieczeństwem systemów przetwarzania informacji w organizacji. Dzisiaj ta dziedzina już bardzo rozległej wiedzy rozwija się nadzwyczaj szybko, a liczba zagrożeń rośnie eksponencjalnie. Bezpieczeństwo danych związane jest z ochroną informacji i jej elementów krytycznych. Za najważniejsze aspekty ochrony informacji należy uznać: poufność - zapewnienie, że dostęp do określonych informacji posiadają jedynie osoby uprawnione (certyfikowane) przez administratora zasobu ZIW; integralność - gwarancja, że dane w ZIW są kompletne i nie zostały zmienione, dodane lub usunięte w nieautoryzowany sposób (zagrożenie sabotażem, celowym działaniem osób trzecich lub wprowadzeniem wirusów); dostępność – stanowi o tym, że tylko upoważnione osoby i usługi IT mogą skorzystać z informacji w określonym miejscu i czasie (system uprawnień i dziedziczenia praw dostępu do danych na serwerach bezpiecznych); spójność – oznacza, że informacja skonsolidowana nie została rozsynchronizowana w trakcie przetwarzania między modułami systemu zintegrowanego z danymi źródłowymi, co może się wiązać z działaniem celowym (atak hakerski, działanie wirusa, wadliwe oprogramowanie, brak standaryzacji). Powyższe elementy związane są z przetwarzaniem danych za pomocą urządzeń IT, a ich bezpieczeństwo zapewniają odpowiednie programy agentowe, rejestry użycia danych, raporty krzyżowe oraz procedury i standardy używane w organizacji. Bezpieczeństwo informacji i wiedzy jest czymś innym. Dotyczy ono nie tyle sfery technologicznej systemu zarządzania organizacją, ale również jej procesów i przede wszystkim procedur zachowania tajemnicy handlowej oraz tajemnicy organizacyjnej. Są to dla przykładu zasady nieujawniania kwot wypłaty, zasady poufności umów handlowych, zasady tajemnicy technologicznej, itp. Wszystkie te aspekty dotyczą relacji człowiek – otoczenie i dostępem do informacji. Możliwości ochrony są jedynie ograniczone do nadzoru przestrzegania procedur oraz istnieniem zagrożenia karnego za ujawnienie informacji poufnych stronom trzecim. Sposoby praktyczne realizacji zarządu informacją i wiedzą w organizacji stanowią wydzieloną tematykę nie tylko zarządzania, ale również systemów ICT. Niestety, liczba zagrożeń rośnie eksponencjalnie wraz z czasem i mocą obliczeniową procesorów i na dzień dzisiejszy nikt nie może stwierdzić, że jego zasoby informacyjne są bezpieczne. Ważne raporty dotyczące bezpieczeństwa w cyberprzestrzeni publikuje Symantec302 w wersji PDF raport ISTR można pobrać ze strony303. Równie ważne informacje na temat zagrożeń w sieci publikuje Kaspersky Lab304. Wśród Symantec, „Norton Cybersecurity Insights Report”, 2016 http://us.norton.com/cyber-security-insights Symantec, “ISTR report”, https://www.symantec.com/content/dam/symantec/docs/reports/istr-21-2016en.pdf 304 Kaspersky Lab., “Kaspersky Security Bulletin 2015/2016”, Kaspersky Lab Global Research and Analysis Team, http://newsroom.kaspersky.eu/fileadmin/user_upload/de/Downloads/PDFs/Kaspersky_Security_Bulletin_2015_2016.pdf 302 303 233 nich warto wyróżnić: raport na temat zagrożeń i ich ewolucji305 oraz raport na temat rozwoju oprogramowania wirusów wymuszających okup ransomware306. W zasadzie takie firmy globalne, jak: Microsoft, IBM, Cisco, etc. publikują raporty o zagrożeniach w sieci, związanych z ich produktami. Te informacje są szczególnie użyteczne dla podejmowania działań ochronnych i tworzenia polityki bezpieczeństwa IT. 4.5 Zarządzanie zasobami ludzkimi Największym problemem każdej organizacji jest człowiek i jego nieobliczalność w działaniu. Wizjoner może w każdej chwili zmienić obraz organizacji przez wynalazek, odkrycie lub działanie innowacyjne (S.Jobs, D.Harley, H.Rubinstein). Sfrustrowany pracownik może wykraść bezcenne dane i przekazać je konkurencji lub innym interesariuszom, pogrążając firmę lub powodując wielkie szkody307. Ale też bez zasobu ludzkiego nie da się stworzyć znaczącej wartości. Jednakże wraz z udziałem człowieka w procesie biznesowym, zadanie to nie dość, że staje się złożonym, to jeszcze przewidywalność rezultatu obarczona jest większą lub mniejszą niepewnością. Stąd teza, że to człowiek może wnieść największą wartość do organizacji, ale jednocześnie to on kreuje najwyższe ryzyko (rozdział 4.3). Najlepszym motto dla dalszej dyskusji jest cytat z wypowiedzi B. Gatesa, który w tym miejscu powtórzę: „Dajcie swoim pracownikom bardziej wyszukane zadania i lepsze narzędzia, a odkryjecie, że potrafią oni udźwignąć większą odpowiedzialność i wykonywać swoją pracę w mądrzejszy sposób”. Jednym z ważnych aspektów zarządzania organizacją są relacje wewnętrzne w jej strukturze. Istnieje w strukturze S stanowiącej organizację (rozdział 2.1.1), wewnętrzny układ interesariuszy będących jej pracownikami. Relacje pracownik-organizacja są dwustronne i niekoniecznie symetryczne. Inne są bowiem oczekiwania pracowników w stosunku do organizacji, a inne organizacji w stosunku do pracowników. Dlatego ten układ organizacja - pracownicy jest przykładem złożonej gry wieloosobowej, gdzie celem każdego gracza jest osiągnięcie optimum Pareto spełnienia własnych oczekiwań. Wypłatą jest wzajemna użyteczność objawiająca się realizacją procesów biznesowych organizacji i wynikające z tego faktu relacyjne korzyści dla obu stron (gra o sumie niezerowej). Strategią organizacji w takiej grze jest zarządzanie kadrami. Strategią pracowników są działania generowane przez ujemne lub dodatnie sprzężenia zwrotne, wynikające ze stawianych wymagań Gostev A., Unuchek R., Garnaeva M., Makrushin D., Ivanom A., „It Threat Evolution in q1 2016”, Kaspersky Lab., https://securelist.com/files/2016/05/Q1_2016_MW_report_FINAL_eng.pdf 306 Kaspersky Lab., „KSN Report: Ransomware in 2014-2016”, https://securelist.com/files/2016/06/KSN_Report_Ransomware_2014-2016_final_ENG.pdf 307 ARD “Falciani und der Bankenskandal”, film http://www.ardmediathek.de/tv/DoX-Der-Dokumentarfilm-imBR/Falciani-und-der-Bankenskandal/Bayerisches-Fernsehen/Video?bcastId=24831852&documentId=35696800 305 234 przez organizację i jej procesy. W tej sytuacji, osiągnięcie optimum Pareto należy rozumieć tak, że poprawa sytuacji organizacji nie odbywa się kosztem pogorszenia sytuacji jej pracowników, a przy tym poprawa sytuacji jednego z pracowników (awans, premia…) nie pogarsza sytuacji pozostałych. Wydaje się to niezwykle proste i oczywiste, ale osiągnięcie zadowalającego przybliżenia stanu Pareto na linii organizacja pracownik w praktyce gospodarczej, wymaga skomplikowanych działań zarządczych. Dlatego też zarządzanie kadrami stanowi jedno z najważniejszych zagadnień zarządzania organizacją308. Większość ludzi pragnie, by postrzegano ich jako uczciwych i godnych zaufania. Zależy nam także na tym, by odbierano nas jako konsekwentnych i przewidywalnych. Stąd wynikają trzy najbardziej pożądane wizerunki publiczne i powiązane z ich osiągnięciem cele: wzbudzać sympatię, uchodzić za osobę kompetentną, przekonanie innych o posiadaniu wysokiego statusu społecznego i władzy. Możliwość wykazania się i pozyskania niezbędnych zasobów może zapewnić między innymi organizacja i kariera zawodowa. Wymaga to jednak zbudowania odpowiednich relacji i uwspólnienia celów. Podstawowymi celami organizacji biznesowej są: tworzenie wartości w otoczeniu, przetrwanie w czasie oraz zaspokojenie interesów swoich interesariuszy w maksymalnym stopniu. Taki zbiór celów indukuje zbiór relacji oraz działań prowadzących do ich realizacji. Wymaga to odpowiedniego zarządzania potencjałem ludzkim, a zwłaszcza planowanie kariery i ścieżki rozwoju pracowników (przynajmniej tych, będących pracownikami wiedzy i budujących kapitał intelektualny (rozdział 1.4.3). Aktualne tendencje na rynku wskazują, że pracownik przestaje być najważniejszym aktywem309. Badania przeprowadzone w USA przez firmę doradczą Korn&Ferry na populacji 800 szefów i menedżerów firm globalnych wskazuje, że najważniejsze są aktualnie technologie, zwłaszcza automatyka, sztuczna inteligencja i robotyka mogące poprawić wyniki ekonomiczne bez angażowania dodatkowych ludzi310. Na dwóch pierwszych miejscach menedżerowie ustawili infrastrukturę zaplecza oraz technologie bezpośredniego kontaktu z klientem. Na dalszym miejscu jest kultura organizacji, zarządzanie zapasami oraz badania i rozwój. Prawie 66% respondentów postrzega czynnik ludzki jako składnik kosztów, a nie aktywa. To skłania do poważnej refleksji, a zwłaszcza do rewizji paradygmatów ważności zasobu ludzkiego w swojej aktualnej wersji i powrotu do mocniejszej ekploracji koncepcji reinżynieringu, jako odpowiedzi na nowe wyzwania. Pocztowski A., „Zarządzanie zasobami ludzkimi. Strategie – procesy – metody”, PWE, Warszawa 2008 JFRA, Money.pl, „Pracownik przestał być najważniejszy. Globalne korporacje zmieniają priorytety”, http://www.money.pl/gospodarka/inflacjabezrobocie/wiadomosci/artykul/raport-korn-ferry-technologie-sila-robocza,245,0,2204149.html 310 Korn Ferry Institute, Reports&Insights, https://www.kornferry.com/institute/reports-and-insights 308 309 235 4.5.1 Relacje i interakcje w organizacji Zagadnienie zarządzania kadrami należy rozpocząć od zdefiniowania najważniejszych interakcji organizacja – pracownik. Traktując organizację jako inteligentny system oddziaływujący z otoczeniem można wyróżnić pięć głównych grup interakcji definiujących zakres działań w zarządzaniu kadrami311: Włączenie lub eliminacja jednostki polegające na ocenie przydatności, uświadomieniu podjęcia decyzji o włączeniu lub eliminacji pracownika, budowaniu zasad etycznych relacji i kryteriów umożliwiających bezstronne sądy w zakresie włączeń lub eliminacji, eliminowanie zjawisk patologicznych (nepotyzm, kumoterstwo, „nasizm”). Utrzymanie wartościowej jednostki w strukturze systemu, na co składają się działania edukacyjne, identyfikacji z organizacją, procesy adaptacji w grupie oraz generowanie wysokiej użyteczności jednostki dla osiągania celów. W tej kategorii mieszczą się również działania motywacyjne, pozwalające na osiąganie stanu integracji zasobu ludzkiego. Wywołanie stanu niezawodności pełnionej roli, poprzez odpowiednie umiejscowienie kompetencyjne, udostępnienie wiedzy oraz działania integrujące z systemem i jego zasobem ludzkim. Motywacje szkoleniowe, awanse poziome, powierzanie zadań wymagających włączenia procesów wiedzy, wymiany informacji oraz zachowań inteligentnych. Konwersja wiedzy ukrytej do jawnej. Zachowania stabilizujące system, działania lojalnościowe wobec organizacji, ochrona tajemnicy służbowej, tworzenie silnych relacji wewnątrz organizacyjnych, identyfikowanie się z organizacją w otoczeniu. Generowanie wartości dodanej, wykraczające poza zakres pełnionej roli, zdefiniowanej w zakresie obowiązków, np. działania kooperacyjne, działania twórcze (wynalazki, sugestie ulepszające organizację etc.), stwarzanie korzystnej dla organizacji atmosfery w otoczeniu. Wybierając kandydata do pracy lub oceniając go, konieczne jest zdefiniowanie relacji organizacja-pracownik oraz miarę dla oceny wielokryterialnej jego dopasowania do struktury i użyteczności. Stosując metodę kolejnych przybliżeń, poprawne zarządzanie kadrami prowadzi do równowagi pomiędzy możliwościami pracownika a oczekiwaniami organizacji. W ostateczności pozwala na ustalenie miary dopasowania pracownika, odpowiadającej kulturze organizacji i strukturze jej procesów biznesowych. Pracownik ma zwykle zupełnie inne cele niż organizacja do której należy. Wynikają one głównie z hierarchii potrzeb Masłowa (rozdział 1.2.1 i rys. 1.5). Można wyróżnić cztery fundamentalne grupy oczekiwań pracownika w stosunku do organizacji, wymienione poniżej. 311 Gospodarek T., “Zarządzanie dla…”, str. 160-167 236 1. Spełnienie potrzeb w zakresie bezpieczeństwa ekonomicznego (godziwa zapłata, wraz z gwarancją stabilności jej uzyskiwania w dłuższym horyzoncie czasowym). 2. Spełnienie potrzeb przynależności (afiliacji i identyfikacji z organizacją) oraz etycznych i moralnych zachowań relacyjnych. 3. Spełnienie potrzeb wyróżnienia się i budowania pożądanego wizerunku dla otoczenia. 4. Osiągnięcia celów dalekiego horyzontu czasowego, związanych z uznaniem społecznym, poszanowaniem oraz godnym życiem. Te oczekiwania można uszczegółowić do postaci pięciu grup czynników definiujących kryteria zadowolenia z pracy. Grupa I – oczekiwania płacowe i kompensaty: wysokość otrzymywanego wynagrodzenia, nagrody i premie pieniężne zależne od wyników, pozapłacowe kompensaty pracy (mieszkania służbowe, samochód), pokrycie kosztów kształcenia i certyfikacji zawodowych, dodatkowe dni urlopu płatnego, możliwość podjęcia dodatkowego zatrudnienia. Grupa II – oczekiwania uznania i potwierdzenia kompetencji: uznanie za strony przełożonych, posiadanie szacunku wśród współpracowników, możliwość awansu i rozwoju zawodowego, praca na stanowisku kierowniczym, szkolenia krajowe i zagraniczne, partycypacja pracownicza ( udział w zarządzaniu). Grupa III komfort pracy i organizacja pracy wykonywanie pracy, którą lubisz, elastyczny lub nienormowany czas pracy, swoboda w działaniu (autonomia), praca w komfortowych warunkach, dobra organizacja pracy (jasny podział ról i zadań), dobre stosunki międzyludzkie. Grupa IV bezpieczeństwo socjalne: bezpieczeństwo zatrudnienia, możliwość godzenia życia zawodowego z osobistym, opieka medyczna, możliwość korzystania z obiektów sportowych, opieka nad dzieckiem (przedszkole, żłobek…) udział w planie emerytalnym. Grupa V typ organizacji wysokie standardy etyczne i moralne organizacji, 237 rozpoznawalna międzynarodowo marka firmy, status dużej organizacji, status organizacji opartej na wiedzy, organizacja w określonej branży, organizacja sieciowa lub korporacyjna. Wzajemne relacje pracownika z organizacją nie wyczerpują tematu zarządzania kadrami. Pojawiają się relacje pracownik - pracownik oraz pracownik – grupa w tym nieformalne. Na te aspekty menedżer powinien zwracać uwagę, ponieważ to one warunkują atmosferę w pracy i działanie zespołowe, które nie musi być synergiczne. Dobry menedżer łączy właściwie jednostki w zespoły i próbuje osiągnąć dodatkowe korzyści z synergii grupowej oraz transferu wiedzy w zespole. Skutkiem prawidłowego zarządzania kadrami jest zasób ludzki, który nabiera wartości poprzez stworzenie kapitału intelektualnego oraz kluczowych kompetencji. Staje się cennym zasobem klasy VRIN. Kolejną, ważną kwestią jest zbudowanie zespołu, który będzie w stanie realizować w sposób optymalny zadania organizacji. I tu pojawia się bardzo skomplikowane zagadnienie, związane z osobowością człowieka. Załóżmy teraz, że mamy stworzyć zespół złożony z teoretyka choleryka, ekstrawertyka estety oraz jakiegoś flegmatyka księgowego. Czy z takiego konglomeratu cech wyniknie jakaś użyteczność dla organizacji? W tej kwestii psychologia i psychologia społeczna próbują się jakoś wypowiadać. Niestety precyzyjne i jednoznaczne wskazania chwilowo nie istnieją, a te, którymi się posługujemy przypominają prognozowanie pogody za miesiąc. Możliwe jest określenie pożądanych relacji międzyludzkich na podstawie licznych obserwacji. W. Marston312 wyróżnił układ czterech postaw, umożliwiających interakcje interpersonalne ujęte w model DISC313 (rys. 4.8). Są to postawy: Dominująca (przywódcza) – cechująca się pożądanym zachowaniem w trudnym otoczeniu. Postawę taką reprezentują osoby aktywne, przedsiębiorcze, lubiące wyzwania, potrafiące sobie poradzić w każdej sytuacji. Trudności ich nie zniechęcają, ale dodają zapału to dalszej pracy. Zorientowane są głównie na wynik i działanie. Inicjatywna (wpływowa) – oznacza pozytywne zachowanie jednostki, ale w sprzyjającym otoczeniu. Wykazują ją osoby pogodne, optymistycznie patrzące na świat, dla których ważne są uczucia. Osoby te są ufne, zorientowane na ludzi, łatwo nawiązują kontakty oraz zjednują sobie przyjaciół. Są lubiane i do zespołów wnoszą pogodę ducha i serdeczną atmosferę. Stała (pasywna) – stabilna postawa w przychylnym środowisku. Wykazują ją osoby cierpliwe, cechujące się ostrożnością wobec nagłych i nieplanowanych 312 W.M. Marston, Emotions of Normal People, Taylor & Francis Ltd., New York 1928. Dominance, Influence, Steadiness, Complaint (Conscientiousness) – metodologiczny system harmonizacji pracy grupowej oraz produktywności systemów generujących wartość; http://www.discprofile.com/whati sdisc.htm 313 238 zmian. W grupie pracują one efektywnie potrafiąc również motywować innych. W razie potrzeby chętnie udzielają pomocy. Zorientowane są na ludzi i pracę zespołową. Nie mają wyrazistych cech przywódczych. Complaint (krytyczna) – nieufna i ostrożna postawa w nieprzychylnym otoczeniu. Osoby ostrożne unikają konfliktów poprzez wycofywanie się lub adaptatywne dopasowanie własnej postawy do postaw innych. Minimalizują ryzyko błędu przy podejmowaniu decyzji. Charakteryzują się dokładnym i skrupulatnym zbieraniem i analizowaniem wszelkich informacji. Są spokojne, systematyczne i dokładne. Ważną cechą takich osób krytycznych jest zorientowane na zadania (typowe dla księgowych). Ustalenie optymalnych cech osobowościowych w metodzie Marstona wymaga przeprowadzenia odpowiednich testów psychologicznych. Na podstawie uzyskanych wyników klasyfikuje się osoby do danej kategorii osobowości w układzie DISC (rys. 4.8). Doświadczenie pokazuje, że budując zespół, najlepiej współpracują ze sobą pokrewne typy osobowości DISC, a słabo przeciwstawne 314. Aspekt ten zaprezentowano w tabeli 11. Tabela 11 Ocena osoby o określonej kategorii DISC przez inną osobę DISC ’ Interakcje 314 D’ I’ S’ C’ D pozytywny pionierski rywalizujący wymagający bezczelny arogancki dyktatorski wymagający kłótliwy wymagający gorący arogancki I sztuczny lekkoduszny powierzchowny zachwycony optymistyczny ekstrawertyk ambitny powierzchowny nieuważny optymistyczny powierzchowny sztuczny S powolny niepozorny nieukształtowany nieprzekonujący nieuczestniczący powolny niezawodny przyjazny cierpliwy niedokładny ostrożny wahający się C ostrożny pedantyczny zorientowany problem defensywny odrzucający pesymistyczny zorientowany na na zorientowany na istotę problemu problem ostrożny precyzyjny zorientowany na jakość elastyczny Gospodarek T., “Zarządzanie dla…”, str. 178 239 Rys. 4.8 Model DISC w praktyce [na podst 315.] The Mindmap Blog, “US Constitution Mindmap: Creating a “More Perfect Union””, http://mindmapblog.files.wordpress.com/2008/06/disc-styles.jpg 315 240 Doświadczenia zarządzania pokazują, że atmosferę w grupie i możliwości współpracy warunkują nie tylko kwalifikacje, ale również postawy osobnicze, cele organizacji oraz motywatory „twarde”. Istnieje również cały szereg aspektów socjokulturowych określających zdolność działań synergicznych grupy. 4.5.2 Motywacja Motywacja stanowi pojęcie psychologiczne, które dotyczy zachowań ludzkich w organizacji. Jest jednym z kluczowych aspektów zarządzania praktycznego, powodując szereg cennych dla organizacji (i jej pracowników) efektów. Cytując za Wikipedią316, „Motywacja jest stanem gotowości istoty rozumnej do podjęcia określonego działania. Jest to wzbudzony potrzebą zespół procesów psychicznych i fizjologicznych określający podłoże zachowań i ich zmian, jak również wewnętrzny stan człowieka mający wymiar atrybutowy”. W zarządzaniu motywacja budowana jest poprzez zbiór procesów motywacyjnych. Ukierunkowują one zachowania podmiotu na osiąganie istotnych dlań celów (zmiana otoczenia, zmiany osobowości, zmiana położenia socjalnego lub ekonomicznego). Procesy motywacyjne dają się rozłożyć na pojedyncze motywy, stanowiące przeżycia pobudzające człowieka do działania. Ujemne motywy mogą prowadzić do powstrzymania od wdrożenia decyzji o wykonaniu lub wybrać opcje mniejszych skutków. Motywacja dzieli się na wewnętrzną i zewnętrzną. O motywacji wewnętrznej mówi się wtedy, gdy człowiek (pracownik) dąży do realizacji własnych potrzeb. W przypadku motywacji zewnętrznej, zachęta do podejmowania trudu jest indukowana przez otoczenie za pomocą odpowiednich bodźców. Mogą to być nagrody, kary lub wywoływanie odpowiednich stanów psychofizycznych w czasie realizacji celów organizacji (np. współzawodnictwo i walka). Warto zauważyć, że motywowanie pracowników wyłącznie poprzez pensje i premie nie jest dziś w wielu wypadkach wystarczające do podejmowania trudnych zadań na rzecz organizacji. Świat zaczyna cenić czas wolny, możliwość rozwoju osobistego oraz uznanie społeczne. Praca jest jedynie środkiem do osiągnięcia stanu pozwalającego na lepsze wykorzystanie czasu wolnego, a nie jest celem samym w sobie. To powoduje, że działy HR muszą podejmować trud monitoringu potrzeb i upodobań, podpowiadając menedżerom prowadzenie elastycznej polityki motywacyjnej. Motywacje są ściśle powiązane potrzebami oraz celami317. Traktują o tym badania F. Herzberga318 i jego teoria dwuczynnikowa motywacji i higieny (Motivator- Wikipedia, “Motywacja”, http://pl.wikipedia.org/wiki/Motywacja Bartkowiak G., Psychologia zarządzania, Wydawnictwo AE w Poznaniu, Poznań, 1997. 318 Herzberg F., Mausner B., Snyderman B., Bloch B., The Motivation to Work, John Wiley and Sons, 2nd Ed., New York 1959 316 317 241 Hygiene Theory)319 dotycząca zadowolenia z pracy. Zgodnie z nią, wpływ na pracowników mają dwa zbiory czynników: motywujące oraz higieny pracy, przedstawione w tabeli 12. Tabela 12 Czynniki zadowolenia i niezadowolenia z pracy wg. F. Herzbe rga 319 Czynniki motywujące Czynniki higieny pracy Osiągnięcia i cele Rozpoznawalność (wyróżnienie) Kariera własna (samorealizacja) Odpowiedzialność Promocja Awans Polityka i zarządzanie firmą Nadzór techniczny Płace Nadzór personalny Warunki pracy Czynniki higieny pracy zapobiegają frustracji (problem w okresie Tayloryzmu), podczas gdy czynniki motywujące wywołują satysfakcję z podejmowanych działań, zwiększającą poziom zaangażowania pracownika w realizację celów organizacji, a przy okazji lepszego spełnienia niektórych, własnych potrzeb. Potrzeby w obszarze higieny pracy mają cykliczny charakter i zawsze powracają do pytania: co organizacjo zrobiłaś dla mnie ostatnio? W związku z tym, nie mają one ograniczenia od góry. Stąd też wynika ciągła ich eskalacja. Ale żeby czynniki motywujące mogły funkcjonować poprawnie, konieczne jest zaspokojenie na poziomie akceptowalnym potrzeb z obszaru higieny pracy. Dlatego motywować można skutecznie dopiero wówczas, gdy zostaną spełnione pewne minima, określane jako wzbogacanie pracy. To jest jedno z ważniejszych spostrzeżeń w podejściu Herzberga. Motywacja pozostaje w relacji z teorią potrzeb Masłowa i ma charakter dwustopniowy (najpierw warunki pracy, potem rezultaty). W praktyce zarządzania wypracowano szereg zasad wzbogacania pracy, które należy traktować jako dobre praktyki. Należą do nich wymienione poniżej. Zwiększenie zaufania do pracowników przez ograniczenie albo likwidację pewnych form kontroli pracy. Zwiększenie poziomu odpowiedzialności poprzez zlecanie bardziej złożonych zadań oraz zakresu kompetencji. Powiększenie swobody decyzyjnej w obrębie stanowiska pracy i uelastycznienie czasu pracy na rzecz rozliczeń zadaniowych. Udostępnianie niektórych raportów okresowych bezpośrednio pracownikom, informowanie o położeniu ekonomicznym i planach strategicznych organizacji. Zwiększanie kompetencji pracownika poprzez powierzanie trudniejszych zadań oraz uczestnictwo w procesach ustawicznej edukacji. 319 Herzberg F., "The Motivation-Hygiene Concept and Problems of Manpower", Personnel Administrator, vol 27, I-II,(1964), pp. 3–7. 242 W analizie motywacji brane są pod uwagę również teoria sprawiedliwości J.S. Adamsa320, teoria oczekiwań V. Vrooma321 oraz teoria warunkowania instrumentalnego B.F. Skinnera322. Model sprawiedliwości J.S. Adamsa oparty jest na obserwacji, że pracownicy dokonują ważenia pomiędzy elementami wnoszonymi do organizacji (pracy), takie jak: wiedza, doświadczenie, kompetencje, lojalność, czas, a tym, co w zamian od organizacji otrzymują, np. płaca, uznanie, nagrody, awanse, pochwały etc., po czym porównują uzyskany wynik do wyników innych osób zatrudnionych na podobnych stanowiskach. Jeżeli pracownik uważa, że wynik porównania nie odbiega znacząco od wzorca lub średniej dla niego dostępnej, to nabiera poczucia sprawiedliwości. W przeciwnym wypadku doświadcza on poczucia niesprawiedliwości i w konsekwencji deficytu motywacji. To w dłuższej perspektywie czasowej może przeradzać się we frustracje różnego typu. Jest to całkowicie wytłumaczalne i poparte licznymi obserwacjami. Ludzie w codziennym życiu ciągle porównują swoją sytuację z sytuacją innych osób. Znajdują w ten sposób punkt odniesienia, aby móc określić swoje położenie społeczno-ekonomiczne lub zdefiniować efektywność własnego postępowania. Jednostka może poprzez porównywanie do innych, będących dla niej układem odniesienia, prawidłowo oszacować własne działania oraz postawy w określonych sytuacjach, w szczególności w relacjach pracownik - organizacja. Takie procesy porównywania się do wzorców są właściwymi działaniami dla każdego i wynikają z konstrukcji naszych zmysłów oraz sposobów subiektywnej oceny. Dlatego, między innymi, obiektywne wskaźniki i mierniki postępowania oraz zewnętrzne oceny danych zjawisk podawane liczbowo, mają mniejsze znaczenie wobec porównań do realnej sytuacji. Najbardziej istotnym dla człowieka jest subiektywne wrażenie o pozytywnym wydźwięku, które może on zyskać w wyniku porównania z otoczeniem. Stąd wprost wynika jedna z optymalizacji relacji człowiek – otoczenie (w szczególności pracownik-organizacja): dążność do wyrównania poziomu poczucia sprawiedliwości. Teoria oczekiwań Vrooma zwraca uwagę na fakt, że zanim uda się wygenerować skuteczną motywację, należy spełnić dwa warunki: 1. Motywowany musi czegoś silnie pragnąć. 2. Prawdopodobieństwo zaspokojenia potrzeby jest wysokie. W ujęciu Vrooma motywacja wyraża skłonność do ponoszenia wysiłku, ale pojawi się dopiero wówczas, gdy jednostka będzie przekonana o możliwości osiągnięcia celu i jego opłacalności w dowolnym tego słowa znaczeniu. Tym samym reprezentuje ona pewien stan równowagi pomiędzy intensywnością pragnienia i stanem 320 Adams J.S., Freeman S., Equity Theory Revisited: Comments and Annotated Bibligraphy, [w] L. Berkowitz, E. Walster (red.), Equity theory: toward a general theory of social interaction, Academic Press, New York 1976. 321 Vroom V.H., “Work…” op. cit. 322 Skinner B.F., “The Behavior…”, op. cit. 243 wiedzy na temat możliwości jego realizacji. Jeżeli zatem informacja dostępna dla pracowników jest niepełna, to pozostając w stanie niepewności, mogą oni zredukować własną motywację i ograniczyć wysilanie się. W ten sposób brak jawności kryteriów nagradzania (uznaniowość nagrody lub demokratyczne ustalenia przez głosowanie) ograniczają motywację. Model motywacji wg Vrooma jest trudny do zastosowania w praktyce. Wymaga złożonej analizy równowagi wartości rezultatu dla każdego pracownika, w relacji do prognozy jego wysiłku i prawdopodobieństwa osiągnięcia celu. Udane wdrożenie tego modelu może przynieść organizacji wartościowe efekty, szczególnie jeżeli dotyczy to pracy twórczej i motywowania do podejmowania działań innowacyjnych. Koncepcja oczekiwań Vrooma uwzględnia dynamiczne cechy osobowości człowieka, szczególnie adaptatywność jego zachowań oraz preferencji. Stawia określone wymagania pracownikom. Pracownicy natomiast dokonują racjonalnych kalkulacji i wybierają działania, których wynik jest osiągalny i prowadzi do założonego celu w nadziei zdobycia obiecanej nagrody (stanowiącej motywację). Niestety założenie, że człowiek działa zawsze racjonalnie nie jest prawdziwe i nie da się przewidzieć wszystkich skutków zastosowania danego wariantu motywacji. Dokonując zatem działań motywujących, należy mieć na uwadze nadrzędność działania reguły przekory oraz zasadę optymalności działania nad wszelkimi, innymi poczynaniami. Model Skinnera – jest kolejną metodą w zakresie motywowania wykorzystującą warunkowanie instrumentalne. Opracowana została przez B.F. Skinnera, a jej funkcjonowanie najlepiej oddaje przenośnia metody kija i marchewki. Podstawę teoretyczną stanowi koncepcja behawioralna relacji pracownik – pracodawca oraz stwierdzenie, że człowiek jest całkowicie zdeterminowany przez warunki zewnętrzne. W wyniku różnych, złożonych oddziaływań, zachowuje się on w sposób adaptatywny w stosunku do chwilowych warunków i bodźców. Zachowanie inteligentne człowieka w danej chwili jest wynikiem przeszłych doświadczeń i zachowań. Ludzie zachowują się tak, jak się wcześniej nauczyli reagować na różne sytuacje położenia, nabywając odruchów Pawłowa. Innymi słowy, pewne zachowania indukują pozytywne konsekwencje, a inne nieprzyjemne skutki. Oczywistym jest, że każdy człowiek woli doznania przyjemne i uczucie zadowolenia. Dlatego będzie wykazywać skłonności do powtarzania zachowań przynoszących mu korzyści i unikania tych, które wiążą się z negatywnymi skutkami (np. karaniem). Istnieją cztery typy oddziaływania na pracownika: Wzmocnienie pozytywne – są to: nagroda, pochwała, awans za działania przynoszące dodatnie efekty organizacji, szczególnie związane z realizacją jej celów. Uczenie unikania – korekty bieżące w wyniku działań adaptatywnych i autorefleksyjnych w relacjach do określonych sytuacji. Pracownik i menedżer uczą się wzajemnie prawidłowych zachowań i eliminują zagrożenia pojawienia się kar. 244 Stosowanie wygaszania – działania zarządzania związane z ignorowaniem pewnych zachowań i postępowań. Powoduje to zanikanie ich występowania po określonym czasie. Karanie – czyli radykalny sposób na natychmiastowe zaprzestanie określonych działań albo eliminację niepożądanych zachowań. Model Skinnera szczególnie dobrze pasuje do korporacyjnych stosunków pracy, albowiem pomija w procesach motywacji stany wewnętrzne człowieka i jego osobowość. Odrzuca przy tym wolną wolę na rzecz działań deterministycznych, wymuszających określony ład. Zawsze należy mieć jednak na uwadze, że jeżeli pracownik nie dostrzega związku między swoim wysiłkiem i zaangażowaniem w działalność firmy a wynikiem jego starań, w szczególności związków z płacą, awansami i nagrodami – prędzej czy później będzie się starał znaleźć inne miejsce pracy. Nie jest tajemnicą, że w pierwszej kolejności dobrowolnie zrezygnują z pracy najlepsi i najbardziej mobilni pracownicy, którzy będą poszukiwać swojej szansy gdzieś indziej. 4.5.3 Coaching i ścieżka kariery W zarządzaniu kadrami pojawia się zagadnienie budowania kluczowych kompetencji oraz definiowanie ścieżki kariery szczególnie cennych pracowników organizacji. Wiążą się z tym działania ponad standardowe oraz budowanie relacji na drodze indywidualnego wsparcia przy pomocy trenera-konsjerża (coacha). Ogół takich działań i metod osiągania założonych celów rozwoju w krótkiej perspektywie czasowej nazywany jest coachingiem. Model funkcjonalny coachingu został zaczerpnięty ze sportu i metod tam stosowanych dla wykreowania mistrza323, które zostały wzbogacone o zdobycze psychologii w zakresie oddziaływań międzyludzkich. Ścisłe zdefiniowanie coachingu nie jest możliwe, aczkolwiek można ustalić szereg desygnatów związanych z funkcjonowaniem takiego bytu w praktyce i na tej podstawie próbować syntezy epistemologicznej324,325. Jedną z metafor syntetycznych, opisujących coaching jest sentencja: „konsultant pomoże ci kupić odpowiedni rower. Terapeuta pomoże zidentyfikować lęki przed nauką jazdy na rowerze. Coach będzie biegł za tobą, aż wystartujesz i sam zaczniesz jeździć na rowerze”326. Coaching jest modnym zagadnieniem w teorii zarządzania (w jej części metodologicznej) i mocno eksploatowany w literaturze dotyczącej aspektów psychologicznych w funkcjonowaniu człowieka w organizacji. Stanowi przedmiot zainteresowania zarządzania ścieżkami kariery. Wilson C., “Coaching biznesowy”, Wyd. MT Biznes, Gdańsk 2010 Wujec B., „Geneza i definicje coachingu”, Coaching Review 1, (2012), str. 4-28 325 Starr J., „Podręcznik coachingu. Sprawdzone techniki treningu personalnego”, Wyd. Oficyna, Warszawa 2015 326 Szulc W., “Coaching – misja życia”, Wyd. Złote Myśli, Gliwice 2008, str. 13 323 324 245 Z punktu widzenia naukowego, coaching jest zbiorem dobrych praktyk i relacyjnych działań pomiędzy coachem (tym który wie i potrafi), a coachee (tym, który chce pozyskać dostępne dla coacha zasoby na zasadzie świadczenia przez tego ostatniego usług typu consierge). Nie jest to usystematyzowana i ustrukturalizowana wiedza, ale bardziej zbiór opisów obserwacji na temat używania pewnej metody, nie do końca popartych pomiarem oraz twardymi faktami. Należy jednak podkreślić, że coaching jest narzędziem służącym odkrywaniu i optymalizacji własnych możliwości przez coachee (poddanemu procesom coachingu). Zajmuje się zagadnieniami rozwoju osobowości podmiotu i własną pracą nad sobą w celu doskonalenia przy udziale trenera osobistego. Dlatego w dalszej części coaching będę definiować jako: [Df] metoda definiowania i wypełnienia luki zasobowej u podmiotu coachingu wykorzystująca model usług concierge świadczonych przez osobę coacha, posiadającego odpowiednie zasoby. Jak łatwo zauważyć, charakterystyczne dla coachingu jest występowanie silnej relacji międzyludzkiej podmiot – coach (więź, zaufanie, wiara w skuteczność, itp.), co podkreślane jest w literaturze przedmiotu. Coach dysponuje nie tylko wiedzą praktyczną, ale również możliwościami outsourcingu różnych usług wspomagających procesy przejmowania zasobów przez coachee. Odwołanie się do serwisu concierge jako modelu funkcjonowania coachingu wydaje się być szczególnie trafne, ponieważ wykreowanie mistrza w sporcie lub w biznesie wymaga nie tylko treningu, ale również zapewnienia spełnienia różnych potrzeb, utrzymujących odpowiedni poziom stanu psychofizycznego u podmiotu, który ma osiągać zakładane cele i wyniki. Wymogi stawiane przez dzisiejsze otoczenie dla potencjalnego mistrza w jakiejkolwiek dziedzinie życia są na tyle ciężkie, że nie ma on ani czasu ani energii ani wiedzy żeby równoważyć samodzielnie zapotrzebowanie na rozliczne zasoby, konieczne do normalnego funkcjonowania. Kandydat na mistrza potrzebuje wsparcia i odciążenia od organizowania sobie pewnych elementów życia i codziennej działalności (np. wyjazdy służbowe, harmonogramy treningowe, zasoby materialne, dostęp do wiedzy, odnowę biologiczną). To załatwia konsjerż, który może ale nie musi być jednocześnie coachem. Luka zasobowa Znając zakres działania coachingu i jego określenia, pozostaje do rozpatrzenia kwestia: jak definiować lukę zasobową, wymagającą stosowania coachingu jako metody jej wypełnienia. Składają się na nią następujące elementy: Luka wiedzy, którą można wypełnić przez zastosowanie konsultingu specjalistycznego. Zadanie coacha polega na zorganizowaniu odpowiednich szkoleń, konsultacji, udziału w konferencjach oraz dostępu do wiedzy źródłowej, tak żeby zainteresowany pozyskał brakujące zasoby. 246 Luka kompetencji, która wiąże się z brakami doświadczenia praktycznego w wykonywaniu określonych zadań oraz brakami wiedzy specjalistycznej. Rola coacha polega na zorganizowaniu odpowiednich szkoleń, konsultacji i treningu praktycznego w celu uzupełnienia kwalifikacji. Luka sprawności fizycznej i zdrowia, która dotyczy sytuacji zdrowotnych związanych z leczeniem, rekonwalescencją, rehabilitacją lub potrzebą poprawienia stanu tężyzny w związku z jakimś celem. W tej kwestii coach ma za zadanie wykonania planu treningowego i zorganizowanie całego procesu fizycznie stając się po części konsjerżem, trenerem i powiernikiem, tym bardziej że często pracownicy podupadają na zdrowiu psychicznym wskutek ciągłego stresu i wymagają uspokojenia sytuacji. Luka motywacji powstaje w wyniku doznania poczucia niesprawiedliwości, działania stresu, niespełnienia potrzeb, frustracji, obaw lub istnienia ograniczeń, itp. Wymaga ona zdefiniowania i uświadomienia co w tej kwestii może wymagać wsparcia zewnętrznego. Rola coacha polega wówczas na wsparciu pokonania barier i wdrożeniu działań motywujących, a czasami terapeutycznego counsellingu. Luka relacji stanowi niedobór zasobów związanych z potrzebami przynależności lub odpowiedniego układu relacji wymaganego na danym stanowisku. Do zadań coacha będzie należeć doprowadzenie do stworzenia właściwej struktury relacji, koniecznych np. dla spełnienia potrzeb afiliacji albo uzyskania statusu osoby wpływowej o wysokim statusie społecznym. Luka wizerunku jest związana z niezaspokojeniem potrzeb akceptacji, szacunku lub uznania jako osoby kompetentnej, wartościowej lub o wysokim statusie społecznym. Coach musi ustalić ścieżkę pozyskania niezbędnych zasobów i sposób ich przejęcia praktycznego, tak żeby zaspokoić ambicje i dążenia podmiotu coachingu. W tej kwestii zastosowanie mentoringu ma istotne znaczenie. Luka czasu wiąże się z brakiem możliwości wykonania wielu czynności umożliwiających funkcjonowanie jednostki w życiu codziennym ze względu na zbyt duże zaabsorbowanie sprawami zawodowymi (np. trening sportowy wielogodzinny, ciągła podróż, nadmiar spotkań i spraw bieżących). Wówczas coach musi pełnić częściowo rolę konsjerża, a dodatkowo zapanować nad harmonogramami czasowymi i ich optymalizacją. Luka zasobów materialnych stanowi poważną kwestię motywacyjną dla podjęcia działań na rzecz poprawienia sytuacji materialnej zainteresowanego coachingiem. W takim przypadku coach musi mieć możliwości stworzenia odpowiednich warunków, żeby zaprojektowane działania przełożyły się na wypełnienie luki i powiązane były ze ścieżką kariery zawodowej. Powyższa lista nie wyczerpuje całości zagadnień związanych ze wsparciem, które może oferować coaching. Nowe przypadki zastosowań powstają ad hoc, a co najgorsze ich taksonomia nie jest usystematyzowana. Nie pozwala to ani na stworzenie 247 dobrego paradygmatu327 dla coachingu, ani ustalenia jego zakresu epistemologicznego. Istnieją natomiast opisane i sprawdzone empirycznie metody postępowania, którymi coaching może się posługiwać, takie jak: counseling, doradztwo, trening, mentoring, dokształcanie, samorefleksja, medytacja, działanie concierge, itp. Wykorzystanie wielu technik przekazania zasobów równolegle wpływa na trwałość efektów coachingu i jego efektywność ekonomiczną, a jednocześnie przewyższa efekty wynikające wyłącznie z zastosowania treningu.328. Dla kogo coaching? Coaching nie jest metodą-panaceum na rozwój lub eliminację problemów. Nie wszyscy pracownicy wykażą dodatnie sprzężenie zwrotne w wyniku jego zastosowania. Z pewnością działania concierge mogą wspomóc każdą interwencję, ale wybór pomiędzy terapią psychologiczną, zwykłym szkoleniem, a coachingiem jest związany z posiadanymi już zasobami przez coachee. Jeżeli inwestuje się w krótkoterminową interwencję coachingową u menedżera, można oczekiwać zwrotu z inwestycji. W przypadku pracowników nie będących pracownikami wiedzy, zastosowanie coachingu nie będzie mieć znaczenia. W przypadku budowania ścieżki kariery ważne jest wykorzystanie mentoringu i wszechstronnego budowania kluczowych kompetencji w dłuższym horyzoncie czasowym. Podejmując się organizacji coachingu warto wykorzystać konsultantów dostępnych na rynku, albowiem brak systematycznej wiedzy i występowanie luki naukowej w tym obszarze nie pozwalają na wykorzystanie stabilnej metodyki postępowania. Tematyka coachingu, mentoringu i podobnych zagadnień należy do kwestii nauki z przymrużeniem oka (tzw. wiedza kawiarniana, ale użyteczna). Nie można jednak zaprzeczyć, że jest to wiedza, działanie i wykorzystanie kluczowych kompetencji coacha, które mogą przynieść pozytywne rezultaty u adresata usługi. Z naukowego punktu widzenia jest to wiedza niezupełna i niespójna, gdzie można jednocześnie udowadniać prawdę i fałsz, wychodząc z tych samych przesłanek (ponieważ egzemplifikacją empiryczną są zindywidualizowane studia przypadku). Dlatego należy zachować dużą ostrożność w wybieraniu partnerów biznesowych dla realizacji coachingu. Warto również analizować studia przypadku projektów zakończonych sukcesem i odnosić je do własnego problemu na zasadzie uprawnionej analogii, a nie metafory. Metoda porównania ze wzorcem może być jedynym kryterium aksjologicznym dla konkretnego przypadku zastosowania. Kuhn T., “Struktura rewolucji naukowych”, Aletheia, Warszawa 2001. McGovern J., Lindemann M., Vergara M., Murphy S., Barker L., Warrenfeltz R., “Maximizing the Impact of Executive Coaching: Behavioral Change, Organizational Outcomes, and Return on Investment”, The Manchester Rev., Vol. 6, No. 1, (2006), str. 1–9. 327 328 248 4.5.4 Płace Jest to jedna z najważniejszych kwestii zarządzania zasobami ludzkimi. Płaca stanowi równoważnik wartości oferowanej przez pracownika organizacji, która kupuje jego pracę i czas. Płaca, teoretycznie, stanowi wynik gry dwuosobowej o sumie zero, tzn. nikt tu nie wygrywa i nikt nie przegrywa. Mamy kompromis, który o ile pozostaje stanem równowagi w sensie Pareto, o tyle zasoby ludzkie w danej organizacji pozostaną stabilne. Często jednak płaca nie jest równowagowa i poczucie krzywdy jednej ze stron gry powoduje sytuację konfliktową. Rozwiązanie może przyjąć różnorodne formy, co wiąże się z wystąpieniem ryzyka hazardowego i możliwości zaistnienia strat. W dodatku ocena poziomu zrównoważenia płacy nie podlega wyłącznie kryteriom racjonalnym i mierzalnym. Dokonuje się ona w znacznej mierze w sferze psychologicznej, a płaca stanowi najważniejszy czynnik motywujący i zadowolenie z pracy lub wywołujący frustracje i poszukiwanie lepszego zajęcia. Stąd też trudno się dziwić, że zarządzanie HR musi w sposób bardzo wyważony i sprawiedliwy traktować kwestie płacowe. Jak łatwo zauważyć, to pracownik niemal zawsze pozostaje na słabszej pozycji w relacjach z pracodawcą, zwłaszcza w korporacyjnych systemach globalnych organizacji. Dlatego prawo pracy wymaga tworzenia dokumentów typu: polityka płacowa, zbiorowy układ zatrudnienia, zakładowy system wynagrodzeń. Wówczas możliwa jest kontrola oraz ocena aksjologiczna płacy. Zarządzanie płacami stanowi wymierny aspekt szerszego obszaru zarządzania zasobami ludzkimi. Dlatego znajduje się w tej części monografii. Ze względu na różnorodność możliwości kompensat pracowników oraz formułowania umów o pracę, dzieło lub zlecenie, możemy mieć do czynienia z bardzo oryginalnymi rozwiązaniami systemów płacowych. Warto również zauważyć, że haracz, który państwo nakłada na płace przypomina funkcjonalnie podatku akcyzowego, mający na celu zniechęcić do konsumpcji danego dobra. Powoduje to szereg działań optymalizacyjnych, umożliwiających ograniczenia w płaceniu PIT, ZUS oraz podatku od płac, z którymi to państwo usiłuje walczyć, wykorzystując całą swoją perfidię działania, tak celnie opisywaną w dziele F. Bastiata329. Najlepiej oddaje to cytat „Wszelako nigdy jeszcze nie widziano i nigdy się nie zobaczy, a i nie sposób sobie tego wyobrazić, żeby państwo oddawało społeczeństwu więcej, niż mu zabrało”. Ma to głęboki sens w kontekście działania socjalnego państwa. „Złudzeniem obecnych czasów jest usiłowanie wzbogacić każdego kosztem wszystkich innych; uczynienie powszechnej grabieży przez jej organizowanie”330. Te absurdy ekonomii wespół z działaniem reguły przekory są motorem działań obrony własności ze strony przedsiębiorcy oraz pracownika. Z drugiej zaś strony łupieżcze państwo socjalistyczne wy- 329 330 Bastiat F., “Dzieła zebrane”, Prohibita, Warszawa, 2009. Bastiat F., http://lubimyczytac.pl/cytaty/636/autor/frederic-bastiat 249 myśliło demokrację by realizować proceder przejmowania własności jednostki i organizowania jej bytu na swoją modłę. „Nasi przeciwnicy sądzą, że działalność, która nie jest ani finansowana, ani regulowana przez państwo, jest skazana na upadek. My uważamy, że jest wręcz przeciwnie. Oni wierzą w ustawodawcę, a nie w ludzi. My wierzymy w ludzi, a nie w ustawodawcę.” I tak dochodzimy do ważnej kwestii, opodatkowania pracy i optymalizacji płacy. Opodatkowanie płacy Kiedyś płaca była traktowana jako to, co dostaję do ręki przy wypłacie. Była to kwota netto i nikogo nie interesowało, jakie dodatkowe koszty musiał ponosić pracodawca. Państwo nie mogło się jednak pochwalić wysokością płacy średniej, na tle innych, a poza tym nie było w stanie dokonywać swoich szalbierstw kreatywnej księgowości, więc wymyśliło płacę ubruttowioną. Natychmiast można było wprowadzić korekty podatków liczonych od brutto, inaczej sformułować kwoty bazowe opłat, należności za usługi biurokratyczne i usługi państwa. Jednym słowem dokonała się rewolucja bez rewolucji. A jak ładnie zaczęły wyglądać statystyki na tle Europy. Płace wzrosły, wskaźniki zamożności ruszyły ku wynikom krajów OECD. A tak naprawdę, to przysłowiowy Kowalski został po raz kolejny okradziony w majestacie prawa, nawet o tym nie wiedząc, a przede wszystkim, nie mając na to żadnego wpływu, albowiem demokracja może wszystko. Niby otrzymywał tyle samo do ręki w czasie kolejnej wypłaty, ale konsekwencje systemowe szybko i bez rozgłosu odebrały należną sobie część wskutek uruchomienia się mechanizmów przeliczeniowych, bazujących na wartości przeciętnego wynagrodzenia, które nagle wzrosło, a przy okazji dodało trochę inflacji. Jak to pisał Bastiat „Grabież legalna może przejawiać się na tysiąc sposobów, stąd nieskończona liczba jej przejawów: cła, ochrona rynku, dotacje, subwencje, preferencje, progresywny podatek dochodowy, bezpłatna oświata, prawo do pracy, prawo do zysków, prawo do płacy, prawo do opieki społecznej, prawo do środków produkcji, bezpłatny kredyt itd., itd. Wszystkie te przejawy – połączone tym, co dla nich wspólne, czyli usankcjonowaną grabieżą – noszą nazwę socjalizmu”. Wypowiedź ta w kontekście do: „Są ludzie, którzy uważają, że kradzież traci swoją niemoralność, gdy staje się legalna.” pokazuje, że tak właśnie działa dzisiejsza niby demokratyczna władza, utrwalająca socjalistyczny system oraz rozdawnictwo socjalne. Dlatego warto mieć świadomość jak płaca jest podatkowana i ile to kosztuje pracodawcę. Dokładne obliczenia online oferuje serwis Sedlak&Sedlak331. Wynagrodzenia.pl Sedlak&Sedlak, “Kalkulator wynagrodzeń”, http://wynagrodzenia.pl/kalkulator-wynagrodzen 331 250 Tabela 13 Opodatkowanie pracy pracodawca płaci 2 412,20 zł 165,28% Ta sama firma zlecenie 2 412,20 zł 2 000,00 zł 2 000,00 zł kwota netto 1 459,48 zł 72,97% 1 455,48 zł 1 687,00 zł 1 712,00 zł 195,20 zł 9,76% 195,20 zł - zł - zł ubezpieczenie rentowe 30,00 zł 1,50% 30,00 zł - zł - zł ubezpieczenie chorobowe 49,00 zł 2,45% 49,00 zł - zł - zł ubezpieczenie zdrowowotne 155,32 zł 7,77% 155,32 zł 180,00 zł - zł zaliczka na PIT 111,00 zł 5,55% 111,00 zł 133,00 zł 288,00 zł 2 000,00 zł 100,00% 2 000,00 zł 2 000,00 zł 2 000,00 zł 1 381,00 zł 1 600,00 zł 1 600,00 zł 345,16 zł 400,00 zł 400,00 zł Rodzaj płatności ubezpieczenie emerytalne kwota brutto podstawa opodatkowania koszt uzyskania przychodu Umowa o pracę % płatności Inna firma zlecenie Inna firma dzieło W tabeli 13 przedstawiona została kalkulację obciążeń płacy w kilku wariantach umowy. Jak łatwo zauważyć, na umowę o pracę za 2 000 zł brutto, pracownik otrzymuje 1 459 zł netto (ok. 73% kwoty brutto), natomiast pracodawca płaci 2 412 zł (165% narzutu na płacę netto). Oznacza to, że opodatkowanie płacy netto sięga 65%! Próba optymalizacji daje jedynie szanse oszczędności przy umowie o dzieło z pracownikiem zatrudnionym w innej firmie. Wówczas narzut na płacę netto wynosi ok. 17%, co jest akceptowalne dla pracodawcy, jak również dla samego pracownika, który otrzymuje 252 zł więcej niż na umowie o pracę. To, że nie ma składek ZUS jest raczej mało interesujące dla tych, którzy taką formę wybierają. W końcu są świadomymi obywatelami demokracji, skoro potrafią uczestniczyć w wyborach i wybrać sobie umiłowanych przywódców. Narzucanie przez państwo jakiegokolwiek systemu ubezpieczeń jest dokładnie tym, o czym pisał F. Bastiat. Za to szara strefa zatrudnienia rozwija się doskonale. Oficjalne zatrudnienie do prac dorywczych po prostu się nie opłaca nikomu, poza wiecznie deficytowym państwem. Wyobraźmy sobie teraz, że pracownik otrzymuje podwyżkę brutto aż 25%. To oznacza, że teraz netto zamiast 1 459 zł dostanie 1 808 zł, czyli 348, 62 zł netto więcej. A to jest jedynie 17% wzrostu płacy netto, a nie obiecane 25%! Za to pracodawca zapłaci za to o 603 zł więcej, czyli w stosunku do pierwotnej kwoty netto, tylko 41% więcej. Co to oznacza? Po prostu, nie warto dawać podwyżek, bo najlepiej na tym wychodzi państwo. Należy inaczej optymalizować wypłaty, stosując model „total rewards”, uwzględniający różne, dodatkowe bonusy, dla których uda się wyeliminować obciążenia podatkowe i ZUS. Tak powinna działać racjonalna strategia płacowa rozsądnego przedsiębiorstwa. Nie dziwmy się, że państwu zależy na jak najwyższej kwocie minimalnego wynagrodzenia. Jest to w jego najlepiej pojętym interesie. To jest gra na wydrenowanie 251 prywatnego pracodawcy w celu podniesienia płac w sferze budżetowej i opłat biurokratycznych, z niewielkim bonusem dla pracownika w tle. Te beneficja zależą często od minimalnej płacy krajowej, przeciętnego wynagrodzenia w gospodarce, itp. A jak można jednym ruchem wywindować średnią wynagrodzeń? Podnosząc ustawowo minimalne wynagrodzenie brutto. I już cel jest osiągnięty, zwłaszcza ten inflacyjny, który musi nastąpić. Aspekty organizacyjne wynagradzania Płaca zasadniczo wiąże się z procesami biznesowymi w organizacji i stanowi zwykle koszt zmienny przypisywany do produktu lub usługi. Może być również związana pośrednio z ilością produkcji poprzez rozliczenia czasu pracy przypisywanego do wyników zespołu produkcyjnego, wydziału, itp. Odpowiednie wynagrodzenie ma za zadanie utrzymanie zasobów ludzkich w stanie umożliwiającym optymalną realizację procesów biznesowych w organizacji. Służy temu racjonalne kształtowanie polityki płacowej332. Ma ona określone funkcje, wykazane poniżej. Pozyskanie pracowników odpowiednio przygotowanych do realizacji zadań. W tym celu organizacja musi oferować godziwą zapłatę zasadniczą. Dodatkowo należy uwzględnić premiowanie zależne od wyników oraz możliwości powiązania wynagrodzenia zasadniczego z efektami pracy. Utrzymanie odpowiedniego zasobu kadrowego, które można osiągać poprzez długoterminowe oddziaływanie, typu akcjonariat pracowniczy, udział w zyskach, samochód służbowy, itp. Motywowanie pracowników do realizacji celów organizacji poprzez konkurencję płacową, związaną z premiowaniem w szerokich przedziałach wartości, nagradzanie za szczególne osiągnięcia. Motywowanie do podnoszenia kwalifikacji poprzez finansowanie szkoleń, wynagradzanie za kompetencje oraz kategoryzację płacową w zależności od posiadanych kompetencji. Najbardziej popularnym systemem wynagradzania jest system ryczałtowy, ustalający stałą, miesięczną płacę lub kwotę umowy. Pozwala on na maksymalne uproszczenie rozrachunków i rozliczeń płacowych, ale pomija aspekty „miękkie” zarządzania kadrami, związane z motywacją, poczuciem ważności, itp. W przypadku administracji państwowej, szkolnictwa, rozmaitych służb i korporacyjnych firm zbiurokratyzowanych, ustalono urzędowe taryfikatory wynagrodzenia ryczałtowego w zależności od posiadanych kwalifikacji oraz zajmowanego stanowiska. To pozwala na różnicowanie płac z pominięciem rozliczeń indywidualnego lub grupowego wkładu w wynik. Jest to równocześnie zasada postrzegania wynagrodzenia jako kosztu mającego zmieścić się w określonym budżecie. 332 Borkowska S., „Strategie wynagrodzeń”, Dom Wydawniczy ABC, Kraków, 2001. 252 Drugim modelem przeciwstawnym do formy zryczałtowanej jest system prowizyjny naliczania płacy. Jest on prosty, zrozumiały i silnie motywujący. Pozwala wpływać na wysokość zarobków zarówno pracownikowi, jak i pracodawcy. Zwiększa zaangażowanie w procesy biznesowe organizacji i pozwala na zrozumienie zasad wynagradzania. Ale występują równocześnie pewne wady wynagrodzenia akordowego, związane z indywidualizacją celów działania pracownika zorientowanego na własne cele, a nie cele organizacji. Obniżenie poczucia bezpieczeństwa ekonomicznego, związane z brakiem stabilności wynagrodzenia. Większa rotacyjność pracowników związana z ograniczeniami możliwości fizycznych osiągania wyższej płacy. Czasami model wynagradzania wymaga zastosowania jakiegoś specyficznego sposobu naliczania płacy. Może to być zależność funkcyjna wynagrodzenia, w której zmienną jest ilość sprzedana, wyprodukowana, przetworzona, itp. Może to być również podział określonego budżetu, wypracowanego w danym okresie przez zespół, w zależności od wkładu pracy. Wówczas nie jest znana płaca za dany miesiąc, dopóki nie zostaną rozliczone wyniki pracy. Ma to wpływ na motywowanie do osiągania określonych rezultatów zespołowych, chętnie stosowany w korporacjach. Tak działają systemy płacowe w handlu, gdzie warunkiem uzyskania premii kwartalnej jest wykonanie planu sprzedaży przez zespół. Do całkowitego wynagrodzenia, doliczane są różne zasiłki oraz dodatki w zależności od okoliczności. Zasiłki związane są z socjalną pomocą państwa, ubezpieczeniami, zasługami, kwalifikacjami, itp. Dodatki mogą dotyczyć pracy w warunkach szkodliwych, umundurowania, przepracowanych nadgodzin, jubileuszy, pełnienia funkcji, użytkowania majątku własnego dla celów firmy, itp. W zależności od potrzeb można różne sposoby naliczania płacy mieszać, uwzględniając zarówno wynagrodzenie stałe, jak i zmienne. Tworzy się w tym celu dokumenty formalne, jak polityka płacowa firmy, strategia płacowa, zbiorowy układ pracy i płacy, zakładowy system wynagrodzeń, a następnie wpisuje się te sformalizowane reprezentacje umów o pracę w komputerowy system kadry-płace. Rozliczenia i rozrachunki z pracownikami są na tyle skomplikowane, a kodeks pracy na tyle obszerny, że lepiej jest wykorzystać inteligentne narzędzie wspomagające i prawidłowo liczące, niż walczyć z morzem przepisów, paragrafów i formularzy, stworzonych przez biurokratów państwa. Analizując sposoby tworzenia systemów płacowych warto skorzystać z serwisu wynagrodzenia.pl333 4.5.5 Wsparcie komputerowe zarządzania kadrami i płacami Wspomaganie zarządzania kadrami-płacami wymaga kilku programów zintegrowanych w system kadry-płace, który w maksymalnym stopniu pokrywa zapotrzebowanie na wielorakość wariantów rozrachunków i rozliczeń z pracownikami, 333 Wynagrodzenia.pl „Systemy wynagrodzeń”, http://wynagrodzenia.pl/kategoria/systemy-wynagrodzen 253 a jednocześnie zapewnia spełnienie rozlicznych wymogów formalno-prawnych. Dobrze wykonany system kadrowo-płacowy powinien stanowić inteligentną maszynę do pisania z określonymi funkcjonalnościami, automatycznie realizowanymi z chwilą wpisania nietypowych zdarzeń kadrowych lub informacji, dotyczących ilościowych składników płacy. Twierdzenie to wynika z faktu, że to co się rejestruje w kadrach w ramach codziennej działalności, to opisy zjawisk nietypowych dla działalności organizacji (zwolnienie pracownika, nieobecności, zmiany przypisań pracowników do grup lub zadań, wyjazdy służbowe, zmiany w kartotece, etc.). Odbywa się to na dobrą sprawę w jednej bazie danych kartoteki pracowników. Rys. 4.9 Zasada wymiany informacji w zintegrowanym systemie kadry-płace. Program płacowy, zintegrowany z kadrowym, po zdefiniowaniu składników listy płac ma za zadanie generować dokumenty płacowe w sposób automatyczny pobierając informacje zapisane w bazach danych kadrowych i wykorzystując algorytmy dla zdefiniowanych składników list płac. Wszelkie interwencje menedżerskie w system ograniczone są do zmian definicji tych składników oraz budowania list płac stosownie do potrzeb. Jeżeli stosowane są rozliczenia ilości pracy (akord czasowy, ilościowy albo grupowy), wówczas konieczny jest dodatkowy moduł rozliczający ilość pracy, zintegrowany z modułami kadrowym i płacowym. Dane zaimportowane stamtąd stają się jednym ze składników listy płac, podczas gdy informacje źródłowe wprowadzane są tam, gdzie praca akordowa jest mierzona, np. 254 przez mistrza zmianowego, lub przyjmującego ilość wykonanych sztuk od chałupnika wykorzystującego moduł rozliczeń akordowych. W przypadku prostych systemów wynagradzania, takich jak instytucje budżetowe, gdzie dominuje zryczałtowana płaca miesięczna bez konieczności naliczeń akordu, do rozliczenia firmy zatrudniającej 1000 osób potrzeba w zasadzie dwóch osób334. Na rys. 4.9 przedstawiono zasadę działania zintegrowanego systemu kadrowopłacowego z automatyczną rejestracją czasu pracy i dostępu do stanowisk oraz modułem rozliczenia ilości wykonanej pracy. Moduł „kadry” stanowi część parametryczną dla programu płacowego, a moduł „akord” umożliwia wyliczenie składników pracy zależnych od wyniku (np. prowizja od sprzedaży, udział w przychodach, liczba godzin usługowych sprzedanych, ilość wyprodukowanych sztuk, itp.) i przekazanie wartości zmiennej do modułu „płace”. Dodatkową funkcjonalnością modułu „akord” może być planowanie czasu pracy dla stanowisk lub pracowników, co pozwala na eliminację wąskich gardeł w wykorzystaniu zasobów. Moduł „płace” pobiera informacje z modułu „kadry” (obecności, zasiłki, dodatki, potrącenia) i generuje listy płac, rozdzielniki płac dla księgowości oraz dokumenty płacowe do udostępnienia w sieci LAN lub dalszego przetworzenia w module kadrowym. Funkcjonalność Można zdefiniować cały szereg zapytań do potencjalnego dostawcy albo wykonawcy programu. Pytania te powinny brzmieć335: czy oferowany system kadrowo-płacowy umożliwia: pracę w sieci? rejestrację pracownika zgodnie z prawem? zwolnienie pracownika (świadectwo pracy)? przypisania do struktury organizacyjnej (koszty)? zmiany przypisań kosztowych? Prowadzenie kartoteki pracowniczej z bazą danych zawierającą rejestry? funkcję angaże, zmiany angaży? funkcję delegacje i ich rozliczenie? funkcję umowy-zlecenia i o dzieło? definiować dowolnie listy obecności? wykorzystanie słowników list płac? wykonanie rejestrów czasu pracy? wykonanie rejestrów wykorzystania urlopów? wykonanie rejestrów zwolnień lekarskich? wykonanie rejestrów nieobecności? wykonanie rejestrów świadczeń niepieniężnych? 334 335 Gospodarek T., “Systemy ERP…”, op. cit. str. 116, 157. Gospodarek T., „Systemy ERP…”, str. 121-123 255 wykonanie rozliczenia czasu pracy w zakładzie z podziałem na wydziały, zespoły? wykonanie rozliczeń akordowych? wykonanie rozliczeń z tytułu praw autorskich i majątkowych? prowadzenie kasy zapomogowej? wykonanie list płac, również w formie pasków? wykonanie deklaracji podatkowe (PIT-4, PIT-11/8B, PIT-40)? wykonanie syntezy danych do sprawozdań GUS i ZUS,? przelewy na konta pracownicze? wykonanie definiowalnych raportów i rozdzielników dla kontrolingu? wykonanie sprawozdań o kosztach pracy na dział lub projekt? wykonanie sprawozdań o kosztach ZUS? wykonanie sprawozdań o podatkach od pracowników? szablony dokumentów tekstowych? szablony dokumentów seryjnych? automatyczne wystawiania przelewów płacowych? automatyczne wystawianie dokumentów z szablonów? automatyczne generowanie deklaracji podatkowych pracowników? kryteria bezpieczeństwa i ochrony danych osobowych? rejestr wglądów w dane osobowe? funkcjonowanie w środowisku bezpiecznym serwera SQL? przyjazny interfejs użytkownika? dokumentację zgodną z Ustawą o rachunkowości? elastyczne słowniki i podpowiedzi? użycie modułu współpracy z urządzeniami rejestrującymi czas pracy? bufor wymiany danych z Płatnikiem ZUS? bufor eksportu do FK? bufor importu z systemów planowania zaangażowania kadr? system zabezpieczenia danych (repozytorium)? System ergonomiczny powinien ustalać i podpowiadać ważne informacje na temat pracownika, takie, jak.: staż pracy w danym dniu, termin ważności badań lekarskich, status pracownika (zwolnienia lekarskie), wpływając tym samym na zmiany na listach płac oraz ewentualne terminy. Ponieważ ważnym aspektem zarządzania jest planowanie urlopów oraz przypisania pracownika do działów ze względu na rozliczenia kosztów i plany produkcyjne, inteligentny system kadry-płace powinien umożliwiać automatyzację rekonfiguracji oraz generowanie rejestrów zmian w celach kontrolnych. Dodatkowym aspektem ergonomii jest rozliczanie automatyczne czasu pracy (nadgodziny) i dni wolnych od pracy. System musi w sposób łatwy umożliwiać szybkie zamiany dni wolnych oraz wyznaczać godziny nadliczbowe. Ergonomia pracy zakłada, że jeżeli niczego nie zmieniono w module „kadry”, to stan normalny 256 (8 godzin pracy w dni robocze) został utrzymany i wszelkie konsekwencje tego faktu zostały zarejestrowane automatycznie (listy obecności, naliczenia płacy, stażu pracy, wymiaru urlopu, etc.). Czasami zdarza się, że pracownik w czasie urlopu zachoruje. Wówczas wprowadzenie danych o absencji może rodzić konflikt pokrywających się terminów. Pracownikowi należy przerwać urlop i przenieść na zwolnienie, a system musi taki stan automatycznie uwzględnić po wpisaniu informacji o L4 i wygenerować odpowiednie zapisy w rejestrach. Rys. 4.10 Zdefiniowana lista składników płacy dla listy płac System płacowy ma za zadanie pobrać aktualne informacje z rejestrów kadrowych i wygenerować listę płac według ustalonego szablonu. Składa się na to pewna liczba składników płacowych, z których część stanowi przychód pracownika, a część stanowi potrącenia. Ergonomiczny system pozwala na stosowanie różnych, definiowalnych algorytmów uwzględniania składników płacowych, w tym zapytań SQL i funkcji matematycznych. Prowadzi to do definicji listy płac, na której składniki pojawią się w określonej kolejności i są przeliczone automatycznie zgodnie z ustaloną polityką płacową (rys 4.10). Na tym jednak nie kończy się lista zadań stawianych przed modułem płacowym. Z punktu widzenia rachunkowości stanowi on księgę pomocniczą FK, co oznacza, że musi automatycznie generować rozdzielniki płac dla księgowości, ponadto wykonywać sprawozdania GUS, ZUS oraz deklaracje PIT zgodnie z formalnymi wymogami. Stąd łatwo zauważyć, zarządzanie kadrami i płacami na poziomie operacyjnym wymaga znaczącego zasobu wiedzy oraz znajomości bieżącej przepisów. Dobry system kadrowo-płacowy zawiera w sobie algorytmy oraz dobre praktyki w tym zakresie, co znacząco ułatwia zadanie. Kartoteka pracownika Najbardziej znamiennym narzędziem działu kadr jest baza danych o pracowniku. Od jej struktury zależy automatyzm działania systemu płacowego. Dodatkowo szereg sprawozdań bieżących, kontrolingowych oraz formalnych (GUS, ZUS) bazuje na danych pozyskiwanych bezpośrednio z bazy danych kartoteki. Kartoteka pracownika powinna zawierać następujące informacje: imię, nazwisko, datę i miejsce urodzenia pracownika, 257 stan cywilny, płeć, dane o dowodzie osobistym, adres zameldowania, adres zamieszkania, obywatelstwo, urząd skarbowy PESEL, NIP, dane o kontach bankowych pracownika, zdjęcie rodzaj stosunku do służby wojskowej, dane o kodzie tytułu ubezpieczenia, obowiązkowe i dobrowolnych ubezpieczenia społeczne i zdrowotnych, dane o podstawach składek emerytalno-rentowych, chorobowych i wypadkowych informacja o karalności bądź niekaralności, informacje dotyczące badań lekarskich, dodatkowo dane i adres osoby zawiadamianej o wypadku, ewidencja członków rodziny z wyszczególnieniem osób (dzieci), na które przysługuje zasiłek rodzinny, automatycznie później wypłacany na liście wynagrodzeń osoby, na które przysługuje zasiłek pielęgnacyjny typ ukończonej szkoły, nazwa szkoły, kierunek, tytuł zawodowy, zawód wyuczony, rodzaj i stopień znajomości języka obcego, staże, praktyki (miejsca i daty) rodzaje ukończonych kursów, daty ukończenia. historię zatrudnienia pracownika i dane dotyczące obecnego stanowiska rodzaj zatrudnienia, wymiar etatu, charakter procesu pracy, wynagrodzenie, system wynagradzania chorobowe wypłacane przez ZUS, ilość dni wykorzystanego urlopu, dane o pożyczkach oraz ewidencję ich spłat, dane związane z naliczaniem podatku dochodowego od osób fizycznych, dane z zakresu przebiegu pracy w innych przedsiębiorstwach: nazwa firmy, czas pracy, stanowisko, powód zwolnienia, kod zaliczania do stażu pracy, dane o przerwach w zatrudnieniu (urlop bezpłatny, urlop wychowawczy), 258 Struktura informacji o pracowniku powinna odpowiadać formularzowi angażu oraz informacjom ilościowym które następnie muszą być dostępne przy wypełnianiu innych formularzy dokumentów kadrowych. To w zasadzie definiuje model semantyczny kartoteki pracownika. Dokumenty kadrowo – płacowe i rejestry Program kadrowy musi umożliwiać generowanie różnorodnych dokumentów związanych z zarządzaniem zasobem ludzkim. Są to: 1. Dokumenty procesu rekrutacji i zatrudnienia umowa przedwstępna, umowa o pracę, umowa na okres próbny, umowa na czas określony, umowa na czas nieokreślony, umowa o pracę na zastępstwo, umowa o pracę tymczasową, umowa o pracę nakładczą, uontrakt menedżerski, porozumienie o wykonywaniu pracy w formie telepracy, umowa o pracę na czas określony dla telepracownika, oświadczenie pracodawcy o odmowie ponownego angażu, informacja o warunkach zatrudnienia u pracodawcy, u którego obowiązuje regulamin pracy, informacja o warunkach zatrudnienia dla pracownika zatrudnionego na podstawie umowy na czas nieokreślony na cały etat w podstawowym systemie czasu pracy. 2. Zmiana warunków zatrudnienia propozycja rozwiązania umowy za porozumieniem stron, rozwiązanie umowy za porozumieniem stron, rozwiązanie umowy o pracę z zastosowaniem skróconego okresu wypowiedzenia, rozwiązanie umowy o pracę za wypowiedzeniem (dot. umowy o pracę nz czas nieokreślony), rozwiązanie umowy o pracę bez wypowiedzenia, zwolnienie dyscyplinarne, cofnięcie wypowiedzenia umowy o pracę przez pracodawcę, cofnięcie wypowiedzenia umowy o pracę przez ciężarną, uchwała w sprawie odwołania prezesa zarządu i wypowiedzenia umowy o pracę, pozew o przywrócenie do pracy, oświadczenie pracodawcy o odmowie ponownego angażu. 259 3. Regulaminy regulamin pracy, regulamin wynagradzania, regulamin socjalny, regulamin zwolnień grupowych, regulamin rady pracowników, regulamin przyznawania nagród jubileuszowych, regulamin szkoleń pracowników. 4. Urlop wypoczynkowy wniosek o przesunięcie urlopu, wniosek o podział urlopu wypoczynkowego, odwołanie z urlopu wypoczynkowego, polecenie wykorzystania urlopu wypoczynkowego w okresie wypowiedzenia. 5. Urlop macierzyński i ojcowski wniosek o urlop ojcowski, zaświadczenie pracodawcy o udzieleniu ojcu dziecka urlopu macierzyńskiego, wniosek o dodatkowy urlop macierzyński, wniosek o dodatkowy urlop adopcyjny, wniosek o rezygnacji z części urlopu macierzyńskiego. 6. Urlop wychowawczy wniosek o urlop wychowawczy, oświadczenie rodzica o braku zamiaru korzystania z urlopu wychowawczego, oświadczenie rodzica o jednoczesnym korzystaniu z urlopu wychowawczego z drugim rodzicem, pismo pracodawcy o udzieleniu urlopu wychowawczego. 7. Urlop bezpłatny wniosek o udzielenie urlopu bezpłatnego, oświadczenie pracodawcy o udzieleniu pracownikowi urlopu bezpłatnego, porozumienie o udzieleniu urlopu bezpłatnego w celu wykonywania pracy u innego pracodawcy, wniosek zarządu zoz o udzielenie urlopu bezpłatnego w celu pełnienia z wyboru funkcji związkowej poza zakładem, wniosek zarządu zoz o zwolnienie pracownika z obowiązku świadczenia pracy na okres kadencji w jej zarządzie. 8. Dni wolne wniosek o udzielenie wolnego na poszukiwanie prac, wniosek o zamianę dnia wolnego. 9. Podróże służbowe 260 polecenie wyjazdu służbowego. 10. Odpowiedzialność i zakaz konkurencji umowa o indywidualnej odpowiedzialności materialnej za powierzone mienie, umowa o współodpowiedzialności materialnej za powierzone mienie, umowa o zakazie konkurencji. 11. Podatki i składki umowa o używanie prywatnego samochodu do celów służbowych, prośba o potrącanie niższych zaliczek na podatek, prośba o pobieranie wyższych zaliczek na podatek, oświadczenie pracownika o przekroczeniu rocznej podstawy wymiaru składek, wniosek o zwrot nadpłaconych składek na ubezpieczenia emerytalne i rentowe. 12. Inne dokumenty pracownicze świadectwo pracy, kwestionanariusz osobowy dla osoby ubiegającej się o zatrudnienie, kwestionanariusz osobowy dla pracownika, zaświadczenie o zatrudnieniu i wynagrodzeniu, ewidencja czasu pracy, umowa w celu podnoszenia kwalifikacji zawodowych pracownika, umowa o używanie prywatnego komputera do celów służbowych, upoważnienie do przetwarzania danych osobowych, dokumenty związane z tworzeniem rady pracowniczej, wniosek o podwyższenie kosztów uzyskania przychodu, pozew o zapłatę odszkodowania za szkody, zawiadomienie o przyznaniu nagrody. 13. Porozumienia i układy zbiorowe porozumienie o zawieszeniu stosowania zakładowego układu zbiorowego pracy, porozumienie w sprawie stosowania mniej korzystnych warunków zatrudnienia niż wynikające z umów o pracę, porozumienie w sprawie zawieszenia stosowania niektórych przepisów prawa pracy. 14. Umowy z pakietu antykryzysowego umowa o wypłatę ze środków funduszu gwarantowanych świadczeń pracowniczych z tytułu przestoju ekonomicznego, umowa o ustalenie nowych warunków spłaty należności funduszu gwarantowanych świadczeń pracowniczych. 261 Narzędziami dokumentującymi zdarzenia w obszarze kadrowym są różnego rodzaju rejestry, na podstawie których można ująć zmiany dokonane w czasie w kartotekach i wykonać odpowiednie raporty. Sposób ich prowadzenia narzuca prawo336,337 . Do rejestrów kadrowych należy zaliczyć rejestry: absencji, zwolnień lekarskich, zasiłków, ruchów pracowników (przypisania do zespołów/projektów, itp.), umów zleceń i o dzieło, czasu pracy, ilości pracy, praw majątkowych i autorskich, urlopów, pracowników zatrudnionych i zwolnionych, badań lekarskich, szkoleń, list płac, wypłat, podróży służbowych. Przykładem rejestru może być rejestr zwolnień lekarskich, gdzie oprócz czasu przebywania na zwolnieniu konieczne jest dodanie informacji o tym kto pokrywa koszty (wpływ na deklaracje ZUS) oraz jak ma się to objawić na kartotece pracownika, kartotece wynagrodzeń, rozdzielnikach kosztów, itp. Widać stąd poziom komplikacji zagadnień i konieczność zachowania precyzji zapisów określonych faktów w czasie. Rys. 4.11 Przykład rejestru zwolnień lekarskich 338 Listy płac i kartoteka wynagrodzeń art. 149 Kodeksu pracy, oraz § 8 pkt 1 rozporządzenia MPiPS z 28 maja 1996 r. w sprawie zakresu prowadzenia przez pracodawców dokumentacji w sprawach związanych ze stosunkiem pracy oraz sposobu prowadzenia akt osobowych pracownika (DzU nr 62, poz. 286). 337 Infor.pl, „W jakiej formie można prowadzić dokumentację kadrową”, http://kadry.infor.pl/poprzednie_tematy_dnia/604713,W-jakiej-formie-mozna-prowadzic-dokumentacje-kadrowa.html 338 MCM software, “Program kadrowo-płacowy KP PLUS”, MCM Wrocław, 2001. 336 262 Lista płac jest dokumentem płacowym, który ma na celu ustalenie zarówno należności dla pracownika, kosztu dla pracodawcy oraz należności pochodnych dla ZUS, urzędu skarbowego i innych interesariuszy obciążających pensje. Zadaniem listy płac jest takie przypisanie kosztu do kont księgowych, żeby można było dokonać rachunku kalkulacyjnego w układzie rodzajowym, miejsc powstawania oraz na produkcję. To powoduje, że nie może istnieć jeden typ listy płac, ale dla różnych wypłat warto stosować różnie zdefiniowane. Zarządzanie płacami powinno prowadzić do precyzyjnych rozliczeń oraz rozrachunków, co pozwala na odciążenie systemu księgowego i wprowadzenie automatyki księgowania za pomocą rozdzielnika kosztów płac. Żeby zbudować listę płac należy w pierwszej kolejności zdefiniować wszystkie składniki płacy, jakie wystąpią w organizacji. To definiowanie musi zawierać informacje dla przypisania wartości do odpowiednich pól w bazach danych. W szczególności, czy dany składnik jest należnością, rozrachunkiem czy potrąceniem. Dodatkowo musimy mieć informacje wynikające z przepisów prawnych, czy dany składnik płacy wchodzi do obciążeń na rzecz ZUS, czy jest opodatkowany, czy wchodzi do podstawy urlopu wypoczynkowego, zwolnienia L4, itd. W kolejnym elemencie definiowania musimy podać jak obliczyć wartość danego składnika (algorytm lub wyrażenie matematyczne) i jak go wprowadzić do bazy danych list płac. Kompletna lista płac jest zatem pewną strukturą tabelaryczną danych (bazą danych), stanowiąc szablon dla informacji szczegółowych zapisywanych na jej pozycjach. Taka budowa list płac pozwala na elastyczne zarządzanie nimi i budowanie dowolnych przekrojów informacyjnych, z których tworzone są sprawozdania, raporty oraz deklaracje. Stanowi zatem model rozliczeniowy kosztów pracowniczych przypisany do struktury procesów biznesowych danej organizacji. Jest to niezwykle ważny element zarządzania kadrami i płacami, ponieważ rzutuje na integralność i spójność wymiany informacji i precyzję rozliczeń księgowych. Rejestr płac wykonanych dla danego pracownika, w którym wskazano kwoty należności oraz adresy list płac, na których jego identyfikator się pojawił tworzą kartotekę wynagrodzeń. Jej struktura jest ustalona przepisami, a układ informacyjny musi być standaryzowany w celu wydrukowania odpowiedniego dokumentu na żądanie. Sprawozdania, raporty, deklaracje System kadrowo-płacowy musi wykonywać określone raporty, rejestry, sprawozdania oraz deklaracje. Ponadto może rejestrować i planować ścieżki kariery, harmonogramy szkoleń itp. Jednym z najważniejszych zadań w tej kategorii jest współpraca i wymiana danych online z aplikacją „Płatnik ZUS”, co umożliwia automatyczne wysyłanie deklaracji ZUS, których mamy sporo i mają one swoją formalną reprezentację de iure. Są to: ZPA, ZFA, ZUA, ZZA, ZCNA, ZWUA, ZWPA, dane do miesięcznych deklaracji RCA, RNA, RSA. Równie istotne jest generowanie 263 deklaracji podatkowych. Mamy w tej kwestii również poważny wybór: PIT-4R, PIT11, PIT-2, PIT-8AR, PIT-8C, PIT-40, IFT-1. Wykonywanie ręczne tych dokumentów nie wchodzi praktycznie w grę. Z punktu widzenia zarządzania HR oraz finansami organizacji konieczne jest wykonywanie rozdzielnika kosztów płac, wskaźnika efektywności zatrudnienia, sprawozdania o kosztach płacy, sprawozdanie o kosztach pozaprodukcyjnych płacy (np. koszt utrzymania związków zawodowych), sprawozdanie o wykorzystaniu czasu pracy, kartoteki wynagrodzeń, kartoteki rozliczeń akordu, oraz całego szeregu rejestrów etc. Na rynku istnieje bardzo dużo programów kadrowo płacowych, ale wdrożenie danego rozwiązania do istniejącego modelu biznesowego stanowi poważne wyzwanie dla działu HR, głównego księgowego, działu produkcji lub usług oraz informatyka. Praktycznie do pierwszego naliczenia płac nie wiadomo niczego o wdrażanym systemie i lepiej, żeby nie było konieczności sprawdzania, który algorytm został źle wprowadzony albo, które dane nie zostały uwzględnione. Dlatego planując wdrożenia wspomagania zarządzania kadrami i płacami, należy mieć dobrze działające procedury i dokumenty rozrachunkowe dotyczące płac. 4.6 Marketing i dystrybucja Zacznijmy od dwóch – przeciwstawnych cytatów: „Zaprzestać reklamy, by oszczędzić pieniądze, to tak jak zepsuć zegar, by oszczędzić czas” należący do T. Jeffersona oraz „Brakuje w biznesie zwykłej arystotelejskiej etyki i żaden akt prawny tego nie przywróci” należący do mnie. Na tych przeciwstawnych sądach można oprzeć całość wywodu na temat marketingu i jego bytowaniu w ekosystemie biznesu. Jest to walka pomiędzy etyką a chciwością, w której ta pierwsza musi ulec, oddalając biznes coraz bardziej moralności, zwłaszcza ten związany z handlem. Podobnie, jak kropla drąży skałę, tak marketing nadweręża systematycznie zasady arystotelejskiej etyki cnoty, wprowadzając w życie coraz większą dozę oszustwa i manipulacji do reguł gry rynkowej. Jak słusznie zauważył W. Lenin „kapitaliści sprzedadzą nam sznur, na którym ich powiesimy”. To najlepiej obrazuje chciwość systemów kapitalistycznych i chęć wzrostu gospodarczego przez rozbuchaną konsumpcję i życie na kredyt. Obniżanie standardów moralnych z tym związane można jedynie skwitować cytatem z A. Whiteheada „Moralnym jest w danej chwili to, co się większości podoba, a niemoralnym to, co się większości w danej chwili nie podoba”. Jak to dobrze pasuje do skrzywionej demokracji partyjnej, która ustala sama sobie prawo i zasady moralne zgodnie z temporalnym widzi mi się korporacji i systemu globalnego, a przeciw społecznościom lokalnym. Moralnym stało się permanentne kłamstwo i oszustwo, albowiem klient oszukany nie jest problemem. Problemem jest niesprzedany towar i nieosiągnięte cele, choćby najbardziej sprzeczne z ideami złotej zasady postępowania „nie czyń drugiemu, co tobie niemiłe”. A nad tym wszystkim stoi wszechobecny 264 marketing systemowy, bez którego sprzedaż się zawali, PKB dostanie zadyszki, deflacja nie da wzrostu haraczu podatkowego, a banki udławią się nadmiarem pustego pieniądza. Stąd najgorszym elementem społeczeństwa bezprzymiotnikowego jest jednak ten, który nie kupuje w nadmiarze, najlepiej na kredyt, a do tego pogardza głupotą reklamy oraz ściekiem medialnym na użytek wzrostu konsumpcji. Z tym marketing musi walczyć, a postawy wstrzemięźliwości zakupowej piętnować. I to jest kierunek zarządzania w marketingu. Zwiększyć asymetrię rozkładu wiedzy pomiędzy oferentem, a konsumentem i zmanipulować tego ostatniego do zakupu, najlepiej wywołując konieczność poddania się terapii zakupowej. Rys. 4.12 Model „4P” funkcjonowania marketingu [na podstawie 339] Fundamentalnym dziełem w zakresie marketingu jest książka „Principles of Marketing”, P. Kotlera i G. Armstronga340. Traktuje ona w sposób kompleksowy o różnych aspektach wywierania wpływu na konsumenta oraz organizacji sprzedaży i dlatego warto się na niej oprzeć we wszelkich kwestiach dyskusji o marketingu. Drugą pozycją wartą poświęcenia szczególnej uwagi jest książka „Marketing research” dotycząca metod ilościowych w badaniach marketingowych opartych na rzeczywistych danych C. McDaniela i R. Gatesa341. Kotler P. T., Armstrong G., “Principles of Marketing”, 16th Ed., Pearson Edu Ltd, Essex, 2016, str. 48 Ibid. 341 McDaniel C. Jr., Gates R., “Marketing Research”, 10th Ed., Wiley, Hoboken, N.J., 2014. 339 340 265 Model kognitywny funkcjonowania marketingu „4P” (Produkt, Promocja, Plasowanie, Plan cenowy), który można uznać za najbardziej odpowiadający rzeczywistości przedstawiono na rys. 4.12 4.6.1 Budowanie strategii marketingowej Marketing stanowi sztukę wyboru rynków docelowych i budowania na nim zyskownych relacji przez oferentów dóbr. Wykorzystuje w tym celu naukę, sztukę, media oraz technologie IT. Ideałem wykorzystania tak pojętego marketingu jest odpowiedź na dwa zapytania: Co możemy zaoferować konsumentowi? Jak najlepiej możemy się przysłużyć konsumentowi? Teoretycznie celem działań marketingu jest budowanie relacji z konsumentami (Customer Relationship Management - CRM), co ma zapewniać dostarczenie maksymalnej satysfakcji z konsumpcji dóbr. Stąd też kierunkami działania marketingu są: odpowiednia segmentacja rynku oraz wyszukiwanie lub budowanie grup docelowych konsumpcji oferowanych dóbr. Innymi słowy, marketing proponuje zestaw świadczeń lub korzyści, które obiecuje się dostarczyć klientowi w celu zaspokojenia jego potrzeb, oczekiwań lub wymagań. W praktyce biznesowej wyodrębiono następujący układ orientacji marketingowych opisanych poniżej. Orientacja na produkcję – dotyczy takiego sposobu wytwarzania, który jest preferowany przez konsumentów (np. custom fit lub przystępność zakupu – niska cena). Orientacja na produkt – związana jest z wysoką jakością, unikatowością lub cechami użytkowymi oferowanych dóbr, które są ważne dla klienta. Wiąże się to z ciągłym udoskonaleniem i innowacyjnością produktową. Orientacja na sprzedaż – opiera się na idei, że konsumenci nie będą kupować produktów danej firmy na zadowalającym poziomie, dopóki nie osiągnie ona wielkiej skali sprzedaży i nie wyda odpowiednio dużo na promocje oraz reklamę. Orientacja na rynek – przewodnią myślą tej koncepcji jest idea, że osiągnięcie celów organizacyjnych sprzedaży zależy przede wszystkim od poznania potrzeb i wymagań rynków docelowych. Na tej podstawie planowane jest dostarczenie pożądanych dóbr lepiej i w lepszej formie, niż to czyni konkurencja. Orientacja społeczna – opiera się na koncepcji, że organizacja podejmuje dobre decyzje marketingowe na podstawie życzeń konsumentów ukierunkowanych na budowanie z nimi długoterminowych interesów, w kontekście interesów społeczeństwa. Do zakresu kierunków działań należy również dodać budowanie marki (rozdział. 4.6.7), albowiem stanowi to zagadnienie wielodyscyplinarne, dotyczące zarówno produktu, sprzedaży, jak i oddziaływań społecznych. Ponieważ działanie marke- 266 tingu realizuje się przede wszystkim w mentalnej sferze postrzegania u konsumenta, należy rozróżnić dwie zasadnicze kategorie odczuć, które marketing stara się maksymalizować, a praktyka niekoniecznie to potwierdza. Postrzegana wartość – stanowi różnicę pomiędzy rzeczywiście otrzymanymi korzyściami, a poniesionym kosztem zakupu (luka marketingowa wartości), Satysfakcja z nabycia – rozumiana jako stopień dopasowania użyteczności dobra do oczekiwań kupującego (luka marketingowa użyteczności). Jak widać, marketing zawsze będzie w jakimś stopniu wywoływać luki wartości i użyteczności, albowiem reklama nie jest wiedzą rzetelną, a działania manipulacji nad konsumentem w celu nakłonienia go do zakupu nie wymagają prawdziwości wypowiadanych sądów o faktach. Zasady etyczne mają w marketingu ograniczone zastosowanie, pomimo licznych deklaracji i prób uprawdopodobnienia często karkołomnych hipotez342,343. Dotyczy to zwłaszcza bzdur marketingowych, wypisywanych w social mediach344 i na różnych blogach oraz stronach internetowych, czy też call center tworzonych na użytek zmanipulowania słabo uświadomionego konsumenta (te ostatnie są przykładem kompletnego braku zasad etycznych w biznesie). Fikcją jest budowanie przez dzisiejszy marketing stanu zrównoważenia relacji z klientami, który powinien polegać na traktowaniu konsumentów jako aktywów wymagających uczciwego zarządzania. Prawdą jest uzyskanie maksymalizacji efektu sprzedaży przy minimalnych nakładach na reklamę, co odbywa się zwykle kosztem interesu klienta. Zdarzają się również działania związane z budowaniem marki i reputacji, ale jest to margines oferty rynkowej. Każda organizacja musi zaplanować strategię dla swojej aktywności marketingowej. Jest to element zarządzania pojawiający się w biznes planie oraz dokumentach planistycznych dalszego zasięgu. Wiąże się z definicją wizją strategiczną organizacji (rys. 3.10) oraz portfolio oferowanych dóbr (analiza BCG rys. 6.5) oraz atrakcyjnością rynku (analiza McKinsey rys. 6.4). Portfolio i aktywność marketingową należy dostosować do przyjętej strategii rozwoju całej organizacji, eliminując dobra nie pasujące z oferty oraz zmieniając status produktów modyfikując je lub dywersyfikując ich alokację rynkową. To wpływa korzystnie na redefinicję łańcucha wartości (rys. 2.4) oraz lokalnego łańcucha dostaw (rys. 2.5). Planowanie strategii marketingu zorientowanej na optymalizację łańcucha wartości polega na budowaniu partnerstwa biznesowego w łańcuchu dostaw tak, że stworzony alians poprawia wydolność całego systemu logistyki zewnętrznej oraz sprzedaży oferowanych dóbr. Cracked, “23 Outrageous Marketing Lies You See Every Day”, http://www.cracked.com/photoplasty_817_23-outrageous-marketing-lies-you-see-every-day/ 343 Stampler L., Business Insider, „The 15 Biggest Lies Ever Told By Major Advertisers”, http://www.businessinsider.com/the-biggest-lies-ever-told-by-major-advertisers-2012-11?IR=T 344 Butters K., Get response blog, “10 Social Media Marketing Lies and Myths Debunked”, https://blog.getresponse.com/10-social-media-marketing-lies-myths-debunked.html 342 267 Idea działania każdej strategii marketingowej może zostać sprowadzona do modelu „4P 4C”345, przedstawionego na rys. 4.13. Posługując się portfolio produktów (Produkt), różnymi formami promocji (Promocja), programowanym dostępem klienta do oferowanych dóbr (Plasowanie) oraz strategiami cenowymi (Plan cenowy) – czyli „4P”, marketing ma za zadanie wykreować zaplanowane pozycjonowanie produktu na rynku oraz wyselekcjonować docelowego klienta. Jeżeli to się uda, klient i rynek odpowiedzą zwrotnie zdefiniowaniem produktu dopasowanego do potrzeb (Celowy produkt), określeniem najbardziej skutecznej formy komunikacji (Czytelna komunikacja), ustaleniem optymalnego sposobu udostępnienia produktów (Celowana dostępność), dopasowanym do klienta planem cenowym (Cena klienta) – czyli „4C”. Rys. 4.13 Model “4P 4C” marketingu ukierunkowanego na klienta. 345 Kotler P.T & co, op cit. str. 53 268 4.6.2 Strategie marketingowe Najważniejszymi strategiami w marketingu są dwa modele relacyjne z kategorii Customer Oriented, w których klient jest podmiotowym obiektem działań: Strategie zorientowane na klienta (Customer-Driven Marketing Strategy), gdzie konieczne jest podzielenie rynku na odpowiednie grupy interesariuszy wykazujące określone potrzeby i oczekiwania produktowe. Na tej podstawie możliwe jest stworzenie celowanego portfolio adresowanego do tych grup. Strategie te wykorzystują zatem relacje rynek – portfolio produktów. Strategie skupione na kliencie (Customer-Centered Marketing Strategy) istotnym jest targeting rynkowy (ustalanie interesujących segmentów lub grup konsumentów i wybór najbardziej optymalnych) oraz pozycjonowanie produktowe, na które składa się szeroko pojęty branding i działania promocyjne produktów. W tym przypadku strategia wykorzystuje relację odwrotną portfolio – rynek. Strategie zorientowane na klienta Podstawowymi działaniami marketingu i dystrybucji w ramach strategii Customer Oriented są: segmentacja rynku, targeting, różnicowanie i pozycjonowanie. Segmentacja rynku polega na podzieleniu dużego zbioru konsumentów na mniejsze podzbiory, do których dostęp jest łatwiejszy i bardziej efektywny ekonomicznie. Segmentację prowadzi się ze względu na: położenie geograficzne (państwa, regiony, miejscowości, itp.), układ demograficzny rynku (wiek, płeć, dochód do dyspozycji, wyznanie, itp.), zachowania behawioralne konsumentów (okazje cenowe, związek z marką, przynależność do grupy konsumenckiej), psychologiczne uwarunkowania konsumpcji (przynależność do grupy społecznej, styl życia, aktualny poziom konsumpcji). Jeżeli segmentacja rynku ma być skuteczna, konieczne jest, żeby przy podziale spełnić następujące warunki: mierzalności (podział musi dawać grupę statystycznie przeliczalną), dostępności (dostęp do wydzielonej grupy musi być określony), istotności (co oznacza, że można adresować tam informacje gwarantujące oddźwięk), zróżnicowanic (pozwala na wydzielenie segmentów obiecujących i podrzędnych) podatności na działania (podział umożliwia skuteczne adresowanie reklamy). Jak widać nie jest to zagadnienie trywialne, wymagające logicznych i przemyślanych działań, ponieważ pozwala ona ograniczać koszty reklamy i optymalizować wymianę informacji z konsumentami. Targeting rynku związany jest z wydzieleniem zbiorów konsumentów o podobnych potrzebach lub wymaganiach, które organizacja oferująca dobra jest w stanie zaoferować. Może się tak zdarzyć, że podział ten nie ma sensu. Dotyczy to przypadku towarów masowych (cukier, benzyna) gdzie adresatem jest cały rynek, a nie 269 jego segmenty (rynek niezróżnicowany). W przypadku rynków zróżnicowanych, targeting pozwala adresować odpowiednie dobra do wyselekcjonowanych segmentów rynku. Marketing selektywny jest wprawdzie droższy niż marketing dla rynków niezróżnicowanych, ale jest znacząco skuteczniejszy w przypadku dóbr nie należących do segmentu towarów masowych i codziennego użytku. Szczególną wersją marketingu selektywnego jest mikromarketing dedykowany dla rynków lokalnych i dóbr indywidualizowanych (kastomizowanych oraz marketingu personalnego „jeden na jeden”). Stosuje się go dla specyficznych dóbr i lokalnych marek dopasowanych do wymagań lokalnych społeczności i niszowych konsumentów. Jest podstawową strategią marketingową dla mikroprzedsiębiorstw, małych firm oraz sieci domokrążców. Zadaniem targetingu jest stworzenie mapy segmentów rynkowych i prognoza dystrybucji selektywnej. Różnicowanie – pozwala dopasować portfolio oferowanych dóbr do wyselekcjonowanych segmentów rynku i jego potrzeb (np. linie produktowe dostosowane do różnych portfeli). Różnicowanie dotyczy: produktów, cen, usług, kanałów dystrybucji, konsumentów oraz wizerunku marki. Promuje się przede wszystkim różnice pomiędzy konkurencyjnymi dobrami, które są: ważne, ewidentne, komunikatywne, trudne do zniwelowania, warte zapłaty oraz przynoszące profity. Porównanie samochodów różnych marek jest w tej kwestii szczególnie wymowne i pozwoliło na powstanie marek luksusowych umożliwiających wyróżnienie się konsumentowi, który stał się posiadaczem Ferrari czy Astona. Proponowana wartość jest mikstem różnorodnych korzyści, głównie w sferze psychofizycznej i realizacji potrzeb wyższego rzędu. Hasłem przewodnim jest koncepcja, że dla segmentu docelowego i jego potrzeb ta marka jest rozwiązaniem, które robi różnicę. Pozycjonowanie – związane jest z tworzeniem map rozpoznawania własnych marek na tle innych, konkurencyjnych produktów i usług. Ma na celu zidentyfikowanie potencjalnych przewag i kluczowych kompetencji umożliwiających poprawienie pozycji rynkowej. Pozycjonowanie powinno doprowadzić do stworzenia mapy pozycji rynkowych dla naszych produktów z portfolio oferty, w relacji do zdefiniowanych segmentów rynku. W tej kwestii szczególnie użyteczna jest analiza BCG (rozdział 6.5). Warto również wykorzystać metodę GE McKinsey, wykorzystującą relacje atrakcyjności rynkowej oraz pozycji danego produktu albo organizacji na rynku (rozdział 6.4). Powyższe działania pozwalają na wykreowanie docelowego klienta i optymalizację nakładów na reklamę oraz logistykę, zgodnie z modelem przedstawionym na rys. 4.13. 4.6.3 Strategie cenowe Jednym z aspektów strategii marketingowych jest ustalanie polityki cenowej produktów. Jest to bardzo poważna wiedza związana z modelami sprzedaży oraz 270 relacjami w łańcuchu wartości i definiowanym przez organizację lokalnego łańcucha dostaw. Inaczej budowane są ceny dla towarów szybkozbywalnych przez producenta dla sieci handlowych, inaczej dla hurtownika, a zupełnie inaczej ustala się ceny kartelowe dla towarów luksusowych w dystrybucji ekskluzywnych butików. Nie można przy tym pominąć aspektów ekonomicznych, jak: zamożność społeczeństwa (dochód do dyspozycji na danym obszarze), koszty logistyczne w łańcuchu dostaw (transport, komunikacja, usługi brokerskie i sieciowe), aspekty prawne związanych z ochroną konsumenta (przeciwdziałanie zmowom cenowym, dodatkowe certyfikacje i standardy), usługi dodane (serwis posprzedażny, opakowania, wiedza konieczna). Ponadto konieczne jest uwzględnienie aspektów kulturowych (uwarstwienie społeczeństwa, wzorce konsumpcji i styl bycia), a także już istniejące obyczaje handlowe (wyprzedaże, promocje, itp.). Wiąże się to bezpośrednio z kwestiami elastyczności popytu (rozdział 1.2.3), której badanie i monitorowanie jest imperatywem rozsądnie prowadzonego marketingu. Z punktu widzenia konsumenta istnieją trzy kategorie oddziaływania cenowego, opisane poniżej. Cena oparta na wartości – jej ustalanie wynika z oszacowania wartości przez konsumenta (zorientowana na klienta), a nie na kosztach wytworzenia i dystrybucji, jako kluczowych czynnikach cenotwórczych. Ta cena jest ustalona a priori, zanim zostanie wdrożony jakikolwiek program marketingowy. Jest to realizacja zasady towar jest tyle wart, ile można za niego otrzymać. Korzystna cena – opiera się na ofercie łączenia odpowiedniej jakości towaru i dobranych usług dodanych za uczciwą cenę, akceptowaną przez konsumentów. Firmy o ustalonej marce skłonne są poprawiać jakość lub dodawać opcje użytkowe przy zachowaniu określonej ceny, albo obniżyć cenę przy zachowaniu istniejących parametrów. Dzieje się zwykle tak po premierze innowacyjnych produktów, gdy wchodzą one jako standardowa oferta rynkowa (np. ceny nowych modeli smartfonów szybko ulegają obniżeniu do pewnego poziomu uważanego za korzystny, po czym wprowadzany jest kolejny model w zbliżonej cenie, ale o lepszych właściwościach użytkowych). W zakresie koncepcji strategii korzystnej ceny zawarte są dwie ważne praktyki marketingowe znane z codziennych obserwacji: „codziennie niskie ceny”(strategia marketingowa cen w sieci Biedronka), polegające na codziennym ustalaniu niskiej ceny dla kilku produktów z portfolio zamiast temporalnych rabatów, „wysoka-niska cena” pozwala na utrzymaniu wyższych cen w codziennej praktyce sprzedaży i stosowaniu dla niektórych pozycji towarowych wysokich rabatów okazjonalnie. Jest to typowa strategia cenowa sieci odzieżowych, gdzie nawet rabaty sięgające 70% nie powodują strat ze sprzedaży. 271 Cena oparta na wartości dodanej. Strategia ta polega na oferowaniu produktu podstawowego z dodatkowymi opcjami użytkowymi, konfiguracją, kastomizacją, etc. lub serwisem. Przykładem może być sprzedaż samochodu z pakietem serwisowym i ubezpieczeniem w cenie albo obietnica bezpłatnego uaktualnienia oprogramowania w jakimś okresie czasu. Cena oparta na kosztach. Strategia ta uwzględnia podstawowe aspekty ekonomiczne związane z kosztami wytworzenia, kosztami dystrybucji i logistyki oraz uczciwą marżę, zapewniającą funkcjonowanie całego systemu generującego wartość przy możliwości zapewnienia rozsądnego serwisu posprzedażnego. Metoda ta nie uwzględnia cen konkurencji, co nie zawsze stanowi skuteczne działanie. Przy obliczaniu cen metodą kosztową należy przeprowadzić kalkulacje finansowe, podobnie jak w przypadku projektu inwestycyjnego. Tworząc strategie cenowe należy zdawać sobie sprawę z wielu czynników, nie tylko ekonomicznych, mających wpływ na decyzje konsumenckie o zakupie. Analizując możliwości ustalenia cen, konieczne jest rozważenie warunków ekonomicznych, odpowiedzi partnerów handlowych na proponowaną cenę, uregulowania prawne i regulacje rządowe oraz uwarunkowania społeczne. Większość tych kwestii została omówiona w niniejszej monografii wcześniej. Do typowych strategii cenowych dla produktów należy zaliczyć poniższe. Strategię wysokiej ceny wstępnej – służącą zdjęciu maksymalnego zysku z warstwy konsumentów pożądających innowacyjnych wyrobów i nowinek rynkowych. Metoda ta jest stosowana z sukcesem przez firmę Apple, która w pierwszej fazie dystrybucji swoich nowych produktów zbiera największe żniwo. Warunkiem stosowalności tej strategii jest właściwa relacja wizerunku i jakości oferowanego dobra w relacji do ceny, albowiem to konsument musi chcieć posiąść dany produkt. Koszty wytworzenia krótkiej serii limitowanej produktu nie powinny stanowić bariery dla ustalenia wyższej ceny, albowiem korzyści z wysokiego pozycjonowania na rynku zrekompensują poniesione nakłady. Jednocześnie postawiona bariera wejścia na rynek konkurentom i substytutom powinna być wysoka, albowiem warunkuje to zachowanie unikalności oferowanego dobra. Strategia ceny penetracyjnej – związana jest z sondażem rynkowym dotyczącym akceptacji ceny dobra. Ustawia się niską cenę początkową, aby szybko i głęboko wejść na rynek i przyciągnąć dużą liczbę nabywców. Pozwala to szybko zwiększyć udział w rynku i wyżej wypozycjonować firmę lub markę. Strategia ta jest skuteczna na rynkach wrażliwych na cenę, co w Polsce dotyczy większości dóbr. Niskie ceny nie powinny jednak zachwiać konkurencji na rynku (dumping cenowy jest działaniem niedozwolonym w gospodarce rynkowej). Zgodnie z krzywą doświadczenia Hendersona (rys. 3.8), strategia ta umożliwia zmniejszenie kosztów produkcji i dystrybucji wraz ze wzrostem sprzedaży. W dalszych 272 okresach pozwala to na osiągnięcie większych korzyści przy mniejszym podniesieniu cen, w stosunku do ceny penetracyjnej. W ten sposób firma Huawei weszła na rynek ze swoimi smartfonami i poważnie zamieszała konkurencyjnością na rynku. Stosowanie takej strategii działania można zauważyć w serwisach aukcyjnych Allegro i eBay. Tam dokonuje się analiz akceptowalnej ceny poprzez licytację z ustaloną wartością minimalną. Strategie cenowe linii produktowej – dotyczy określonej linii produktowej najczęściej opartej na pewnej platformie bazowej i zmiennych konfiguracjach (modele komputerów różniące się cenowo ze względu na użyteczność i parametry), podobnych produktów jednej marki (kosmetyki – różne kremy na różną okoliczność), produkty uboczne tworzone przy okazji wytwarzania głównego produktu (np. dodatek do odzieży w postaci paska do sukienki) oraz zestawy produktowe sprzedawane po zredukowanej cenie (np. trzy gry w cenie dwóch). Strategie cenowe dla linii produkcyjnej stanowią fundament relacji producentów z sieciami dystrybucji i mają szczególne znaczenie w przypadku produktów szybko zbywalnych. Formy rabatowania oraz dodatkowe korzyści wynikające z alokacji linii produktowych, stanowią przedmiot negocjacji key account managerów i kupców sieciowych. Strategie adaptatywnego ustalania ceny – najczęściej stosowana metoda, bazująca na obserwacji rynku i szybkiej adaptacji cenowej stosownie do sygnałów płynących z otoczenia. W tej kategorii można wyróżnić kilka kierunków realizacji. Rabaty celowe - do tej kategorii działań należy udzielanie rabatów za szybką płatność lub odpowiedź na kwestię marketingową (np. zapisanie się do prenumeraty newslettera). Może to być również kupon rabatowy do wykorzystania przy kolejnych zakupach. Segmentacja cenowa – W tym przypadku stosuje się różne ceny dla poszczególnych segmentów rynku. Ma to miejsce, gdy firma sprzedaje towar w kilku cenach, pomimo że różnica nie wynika z kosztów wytworzenia. Stosowanie tej strategii wymaga możliwości podzielenia rynku na segmenty o różnych cechach i stopniu pożądania dóbr. Psychologiczne ustalenia cenowe – Istnieje możliwość sprzedaży dóbr po cenach bardzo wysokich, do tego stopnia, że niewielu konsumentów może sobie na taki produkt pozwolić. Dotyczy to produktów związanych z ostentacyjną konsumpcją, świadczącą o statusie majątkowym ich posiadacza. Przykładem mogą być luksusowe auta o cenie powyżej 1 mln $, zegarki szwajcarskie w podobnej cenie, czy też dzieła sztuki sprzedawane na aukcjach za ogromne sumy. Te ceny nie mają niczego wspólnego z kosztami wytworzenia. Są to wyłącznie psychologiczne ustalenia poszukujące odpowiedniego klienta. Inne działanie marketingowe w tym obszarze polega na prezentacji cen referencyjnych, które są na tyle kosmiczne, że klient je zapamięta. 273 Rabaty i upusty promocyjne – stosowane dla poprawienia popytu danego produktu. Są to akcje marketingowe typu specjalna akcja cenowa, rabaty gotówkowe, finansowanie niskooprocentowanych kredytów, dłuższa gwarancja, bezpłatne usługi, dodana opcja użytkowa, itp. Należy mieć świadomość, że klienci bardzo szybko przyzwyczajają się do akcji rabatowych i wstrzymują decyzje o zakupie do czasu spodziewanych obniżek. To psuje rynek i może spowodować trudności w harmonogramach sprzedażowych oraz logistycznych. Zwykle takie działania inicjują wojnę cenową na rynku. Strategie geograficznej polityki cenowej. Stosowana jest w łańcuchach dostaw, zwłaszcza globalnych. Jest związana z handlem transgranicznym lub na znaczne odległości, wymagające działań logistycznych zabezpieczanych kontraktami. Należy tu zaliczyć strategie cenowe wynikające z przepisów INCOTERMS346, np. EXW (Ex Works), FOB (Free on Board), CIF (Cost Insurance and Freight). Ceny zależą od usług dodanych związanych z pakowaniem, załadowaniem wysyłki, ubezpieczeniem, itp. Można wówczas stosować politykę takich samych cen z dostawą do dowolnego miejsca na Ziemi lub podzielić dostawę na strefy, wykorzystując podziały cenowe firm kurierskich. Strategie cenowe wewnątrz kanałów dystrybucji – Są to działania związane z kosztami logistyki oraz zapewnienia określonej reprezentacji produktowej na rynku. Stosuje się wówczas cały szereg działań związanych z ustalaniem jednakowej ceny w sieci dytrybucyjnej oraz systemy dopłat sieci do utrzymania poszczególnych jej węzłów (koncesji lub franczyzy). W sieciach dealerskich poszczególnych marek samochodowych stosuje się premie za wykonanie planu kwartalnego (tzw. druga marża) oraz kredytowanie samochodu na placu dealera przez importera w okresie 51 (lub więcej) dni. Prowadzona jest również sprzedaż z opcją usług dodanych do zrealizowania w dowolnym punkcie sieci lub odkupieniem używanego samochodu za ustaloną cenę w ustalonym czasie. Niezależnie od procedur i strategii ustalania cen, w bieżącej działalności marketingu stosuje się zmiany cen w czasie. Podwyżki cen można stosować gdy produkt jest „gorący” i sam się sprzedaje, albo gdy warunki zewnętrzne obniżają zyski ze sprzedaży wskutek inflacji lub nadmiernego opodatkowania. Ten ostatni przypadek miał ostatnio miejsce w firmie Microsoft, która podwyższyła ceny na swoje produkty w Wielkiej Brytanii ze względu na spadek kursu funta szterlinga. Obniżki cen na ogół wiążą się zawsze ze spadkiem popytu, wejściem nowego modelu produktu lub ujawnionych wad jakościowych, odkrytych po wprowadzeniu na rynek. Często zdarza się konieczność reakcji cenowej na działania konkurencji. Mamy wówczas do analizowania kilka ważnych kwestii. Dlaczego konkurent obniżył cenę i czy ma to charakter trwały? Czy ta obniżka ma jakiś wpływ na naszą pozycję rynkową i wyniki sprzedaży? 346 Incoterms 2015, http://www.one-ill.com/downloads/incoterms%202015.pdf 274 Czy inni konkurenci również odpowiedzieli obniżkami cen? Możemy wówczas reagować w sposób elastyczny, mając do dyspozycji kilka działań, wśród których na szczególną uwagę zasługują poniżej zaprezentowane. Obniżyć ceny do poziomu konkurencji. Utrzymać cenę, ale podnieść wartość postrzeganą naszego produktu za pomocą komunikacji i działań reklamowych. Dodać użyteczność i poprawić jakość, jednocześnie zwiększając cenę. Przyjąć wyzwanie i włączyć do walki markę niżej budżetową tego samego produktu (pończochy najwyższej jakości firmy Hanes sprzedawano również pod tańszą marką Treadwell, co pozwalało utrzymać sprzedaż na super konkurencyjnym rynku). Na podstawie powyższych informacji możliwe jest stworzenie własnej polityki cenowej, którą można wykorzystać w biznes planie lub wniosku o finansowanie danego projektu. 4.6.4 Kanały dystrybucji Wprowadzanie nowego produktu na rynek jest jednym z najważniejszych zadań marketingu. Zdarza się nader często, że próba alokacji nowego produktu na rynku kończy się porażką. Do najczęstszych przyczyn niepowodzeń można zaliczyć opisane poniżej347: Przeszacowanie pojemności rynkowej (złe analizy rynku lub ich brak). Słabe wzornictwo lub niedostosowanie do trendów rynkowych (brak wiedzy o upodobaniach konsumentów wynikające z błędów w działaniach marketingu). Niedopasowana użyteczność i jakość (błędna ocena rynku i oczekiwań klientów, wynikająca ze złych działań marketingu). Nieprawidłowe pozycjonowanie produktu (błędna ocena analityczna wynikająca z braku właściwej analizy konkurencji). Zły harmonogram wprowadzania na rynek (błędy w zarządzaniu marketingiem wynikające ze złego projektowania działań). Zbyt wygórowana cena (brak wiedzy o rynku i makroekonomicznych wskaźnikach w danej lokalizacji geograficznej powodująca złą politykę cenową). Nieefektywna promocja (błędy działań marketingu wynikające z braku wiedzy). Złe zarządzanie (zła organizacja marketingu i słabe zarządzanie projektami). Wysokie koszty B+R (złe analizy ekonomiczne przed podjęciem decyzji o realizacji określonego projektu B+R). Konkurencja na rynku i substytuty (czynniki zewnętrzne, które zlekceważył marketing podejmując decyzję o alokacji danego produktu na rynku). Jak widać z powyższego wykazu większość obserwowanych problemów związana jest z działaniami marketingu, a dokładniej z błędami w stosowaniu odpowiednich 347 Kotler P.T. Armstrong G., op. cit. 275 narzędzi i strategii. Warto zatem zastanowić się nad problemami dystrybucyjnymi powiązanymi relacyjnie z marketingiem. Połączenia logityczno-marketingowe stanowią kanały dystrybucji. Ograniczają one możliwość niepowodzeń rynkowych, ponieważ stanowią wyspecjalizowane struktury uwspólniające zasoby, a przede wszystkim wiedzę o rynku i doświadczenie pośredników tam działających. W praktyce biznesowej kanały dystrybucyjne są elementem łańcucha dostaw, stanowiąc zbiór organizacji wspólnie realizujących sprzedaż i logistykę zewnętrzną oferowanych dóbr w zoptymalizowany sposób (rys. 2.5). Są one ważnym elementem realizacji celów sprzedaży. Pośrednicy oferują większą sprawność w alokacji towarów na rynkach docelowych, niż mógłby to osiągnąć producent samodzielnie. Stąd też w strukturach kanałów dystrybucji pojawili się wyspecjalizowani fachowcy, tacy jak: brokerzy, dystrybutorzy, importerzy, centra logistyczne. W każdym kanale dystrybucyjnym mamy do czynienia z: fizycznymi przepływami produktów, przepływami własności, przepływami pieniężnymi (płatności), przepływami i wymianą informacji, przepływami promocji i zasobów marketingowych. Stanowią one wydzielone przedmioty zarządzania dystrybucją i wymagają ciągłej koordynacji oraz kontroli ze strony organizacji wiodącej w danym kanale dystrybucji. Przy tym konieczne są wyspecjalizowane usługi, umożliwiające synchronizację przepływów, ich dokumentowanie i rozliczenie finansowe. Dlatego zagadnienia działania kanałów dystrybucyjnych są wielodyscyplinarne. Dotyczą zarówno marketingu, logistyki, finansów, prawa oraz technologii IT. Zarządzanie kanałem dystrybucyjnym ma za zadanie ciągłą optymalizację celów oraz efektywności łańcucha dostaw z nim związanego. Ważnym elementem zarządzania jest likwidację konfliktów celów, konfliktów kompetencyjnych zajmowanej w łańcuchu roli oraz podziału marży pomiędzy wszystkimi uczestnikami struktury dystrybucyjnej. Wiąże się to z koniecznością negocjacji i budowania często złożonych struktur relacji (np. product manager, key account manager, regionalny kierownik sprzedaży i reprezentant handlowy z jednej strony, a z drugiej marketer, kierownik sklepu i kupiec sieciowy). Wynika to z faktu, że każdy z uczestników łańcucha dostaw ma swoje własne cele oraz oczekiwania ekonomiczne. Tym samym, koniecznym staje się ciągłe monitorowanie stanu równowagi i utrzymywanie kompromisu w zakresie podziału marży, kosztów obsługi kanału oraz ilości sprzedaży danego asortymentu. Jest to duży obszar praktyki zarządzania, mający swoje mechanizmy działania oraz narzędzia i metody realizacji celów. 276 Rozróżniamy trzy typy kanałów dystrybucji: 1. Konwencjonalne kanały dystrybucji - składają się z jednego lub więcej niezależnych producentów, hurtowników i detalistów. Każdy dąży do maksymalizacji własnych zysków i ma słabą kontrolę nad pozostałymi członkami danego kanału dystrybucji. Nie ma również formalnych dokumentów przypisywania roli i procedur rozwiązywania konfliktów. Tak uformowane struktury stanowią większość lokalnych łańcuchów dostaw na rynku. 2. Pionowy system dystrybucji (Vertical Marketing System VMS). Zapewnia przewodnictwo w obrębie struktury kanału dystrybucji. VMS składa się z producentów, hurtowników i detalistów działających jako jednolity system kreowania wartości, wykorzystujący korporacyjne systemy marketingowe, gdzie zdefiniowany został wprost jeden przywódca korporacyjny. Przykładami mogą być umowne systemy dystrybucyjne (franczyzowe, np. McDonalds) oraz administrowane systemy sprzedaży (przywódcą i administratorem jest na ogół największy uczestnik struktury danego kanału). Przykładem takich sieci jest dystrybucja samochodów danej marki, gdzie liderem jest krajowy importer (np. Peugeot Polska) dysponujący magazynem centralnym, a członkami sieci koncesjonariusze i ich lokalne łańcuchy dostaw. Może to być globalny dystrybutor części zamiennych w imieniu producenta (np. dla Forda jest to holding Motorkraft). 3. Poziomy system dystrybucji (Horizontal Marketing System HMS). Powstaje, gdy dwie lub więcej spółek na podobnym poziomie wielkości łączy się w celu stworzenia nowych możliwości dystrybucyjnych (zawiązuje się konsorcjum lub stowarzyszenie). Firmy takiego konsorcjum uwspólniają zasoby finansowe, produkcyjne lub marketingowe, próbując osiągnąć więcej, niż te organizacje byłyby w stanie osiągnąć rozdzielnie. W ten sposób powstają dobrowolne układy celowe biznesu, np. stowarzyszenie autoryzowanych dealerów marki (np. stowarzyszenie autoryzowanych dealerów forda, sieć dystrybucyjna Leclerc, w której każdy hipermarket negocjuje z dostawcami warunki handlowe). W kanale dystrybucyjnym analizowane są szczegółowo potrzeby i wymagania konsumenta, ustala się cele działania oraz sposoby realizacji wspólnych akcji marketingowych, identyfikuje się alternatywne działania podnoszące efektywność w obrębie struktury i dokonuje ocen efektywności oraz ekonomicznych. Tym samym kanały dystrybucji stanowią strukturę zarządzaną, niezależną od organizacji producenta danego dobra. Niezależnie od struktury organizacyjnej kanałów dystrybucji, istnieją trzy główne alternatywy dystrybucyjne ze względu na specyfikę oferowanych dóbr: towary masowe, np. chemia gospodarcza oraz towary masowe szybkozbywalne (np. jogurty, przetwory mięsne), towary ekskluzywne (torebki Louis Vuitton, samochody Aston Martin), 277 dobra podlegające dystrybucji selektywnej dla określonych grup konsumentów (abonament telewizji SAT, karta klubowa Jaguar). Dla każdego typu produktu można dopasować odpowiedni kanał dystrybucyjny oraz strategię marketingową, które będą się różnić wzajemnie. Inaczej wygląda organizacja dystrybucji i marketingu produktów mleczarskich o krótkim terminie przydatności do spożycia i transferze dużych objętości przy stosunkowo niskiej cenie jednostkowej, a zupełnie inaczej sprzedaż i dystrybucja drogich smartfonów, choć w obu przypadkach stworzono kanały dystrybucyjne i łańcuchy dostaw. Omawiając kwestie dystrybucyjne i modele sprzedaży dóbr, konieczne jest wprowadzenie dodatkowych elementów strukturalnych, związanych z faktem, że pewne grupy towarów wymagają kilku pośredników zanim dotrą do klienta. Wiąże się to z odległością pomiędzy producentem a konsumentem, masowością oraz wielkością spożycia. Nie jest możliwe, żeby każdy sklep zaopatrywał się samodzielnie u producenta proszków do prania lub kupował banany na plantacji gdzieś w Urugwaju. Potrzebny jest kanał dystrybucyjny, a w nim dwie kategorie handlowców: detalista i hurtownik. Pojęcie „detalista” zawiera wszystkie działania w zakresie sprzedaży produktów lub usług bezpośrednio konsumentom końcowym do ich osobistego użytku, a nie w celach biznesowych (np. dalszej odsprzedaży lub działalności wytwórczej). „Hurtownik” oznacza tego, kto w procesie dystrybucji nabywa dobra w celu ich dalszej odsprzedaży lub sprzedaży dla prowadzenia działalności gospodarczej przez nabywcę. To rozróżnienie jest ważne ze względu na kompletnie różne strategie marketingowe i narzędzia oddziaływania na rynek, jak również różne grupy docelowe klientów. Poza tym, ze względów logistycznych, możliwe jest tworzenie kilku poziomów hurtowników, np. importer, broker lub dystrybutor regionalny, hurtownia lokalna, detalista. W ten sposób skraca się drogę towaru do klienta i obniża koszty dostawy dóbr. Poprawia się ich dostępność, zwłaszcza w sieciach. Więcej na ten temat można przeczytać w rozdziale 4.8. 4.6.5 Marketing bezpośredni Marketing bezpośredni ma za zadanie dotrzeć bezpośrednio do starannie wybranych konsumentów, często na zasadzie indywidualnego kontaktu. Dla wielu firm marketing bezpośredni jest czymś więcej niż tylko dodatkowym kanałem reklamy, stanowiąc kompletny model prowadzenia działalności gospodarczej kastomizowanej i ukierunkowanej na klienta. Tam gdzie model marketingu bezpośredniego odnosi sukcesy, staje się wówczas jedynym kanałem dostępu. Zalety marketingu bezpośredniego dla nabywcy objawiają się w bezpośrednim dostępie do całej gamy produktów (np. katalog internetowy) oraz większym zakresem informacji podanej w bardziej użytecznej formie (selekcja, sortowanie online) niż jest to w stanie uczynić sklep lub dział sprzedaży. Ten rodzaj marketingu jest interaktywny i natychmiastowy, pozostawiając konsumentowi większy margines 278 kontrolny nad zakupem. Niestety, żeby wykorzystać w pełni zalety marketingu bezpośredniego, konsument musi posiadać wiedzę, żeby użyć narzędzi komunikacyjnych lub dla przykładu, dobrać właściwie detale wymagające dopasowania do czegoś (zakup części zamiennych nieoryginalnych, wymagający znajomości katalogów producenta). Marketing bezpośredni przynosi również korzyści sprzedawcy ze względu na interakcje jeden do jeden. Możliwy jest wówczas kontakt mailowy lub telefoniczny i dokonanie uzgodnień bezpośrednich w dowolnym momencie. Można również pozyskiwać dane o preferencjach dla systemu CRM. Dodatkowym atutem jest stosunkowo niski koszt komunikacji przy wysokim wskaźniku efektywności. Aktualnie stosowane są w praktyce biznesowej różnorodne formy marketingu bezpośredniego. Są to: sprzedaż bezpośrednia, kampanie e-mailowe (np. newsletter tematyczny) wysyłane do klientów zapisanych w bazie danych, marketing katalogowy (np. katalogi sieci ikea lub elektroniczne katalogi firm samochodowych), telemarketing (bardzo nielubiana forma komunikacji ze względu na liczne nadużycia, nie dotyczy to klientów z bazy danych CRM danej firmy), DRTV – marketing za pomocą telewizji interaktywnej (reklamy telewizyjne iTV, wyświetlane również na smartfonach), marketing przy użyciu kiosków (automaty sprzedające towary). W końcu marketing online, związany z reklamami w Interencie i walką z programami je blokującymi (adblockers) oraz marketing mobilny stanowią dzisiaj fundamentalne narzędzia sprzedaży. Ta forma marketingu jest najbardziej odpowiednia dla sektora małych i średnich przedsiębiorstw. To właśnie one powinny podejmować strategie cenowe i dostępu do konsumenta łączone z marketingiem indywidualnym. 4.6.6 Model etyczny marketingu W biznesie globalnym, najważniejszym wskaźnikiem marketingowym jest ROI (Return of Investment) marketingu, czyli jaki efekt ekonomiczny uzyskano z wyłożonego kapitału na reklamę. Wszelkie ograniczenia etyczne są de mode, a wzrost relatywizmu w pojmowaniu zasad współżycia społeczeństw upoważnia management do wyłączenia hamulców w rozbudowywaniu oferty rynkowej. Leży to w interesie wąskiej grupy posiadaczy kluczowych zasobów w skali globalnej, głównie ponadnarodowych korporacji oraz banków. Dlatego należy zastanawiać się nad etyką biznesu, zwłaszcza tego, korporacyjnego. Przedstawiony na rys. 4.14 model etyczny marketingu348 składa się z czterech domen stanowiących zbiory aspektów tematycznych: budowania systemu marketingu, konwencjonalizmu działań, intencjonalizmu podejmowania działań, Gospodarek T., „Marketing systemowy, perspektywa etyczna”, [w] Styś A., Łobos K., „Współczesne problemy zarządzania i marketingu”, Difin, Warszawa 2016, str. 40-52 348 279 etyki cnoty. Są one rozłożone na płaszczyźnie określonej przez układ współrzędnych: osi interesu oraz osi funkcjonalności. Model pozwala na wyodrębnienie czterech, skrajnych postaw etycznych, opierając się na następujących założeniach, że etycznym i moralnym jest jedna z czterech opcji. Rys. 4.14 Aspekty etyczne marketingu 1. Budowa systemu marketingu odpowiadającego maksymalizacji wypełnienia interesu producenta i wzrostu funkcjonalności systemowej oddziaływania na konsumenta, niezależnie od interesu podmiotowego konsumenta, skutków użycia marketingu systemowego i intencji podjęcia działania. 2. Budowa systemu marketingu odpowiadającego maksymalizacji wypełnienia interesu producenta i wzrostu funkcjonalności operacyjnej marketingu, niezależnie od interesu konsumenta oraz intencji podjęcia działania, przy zaawansowanej prakseologii i uwzględnieniu skutków działania marketingu. 280 3. Budowa systemu marketingu odpowiadającego maksymalizacji wypełnienia interesu konsumenta i wzrostu funkcjonalności systemowej oddziaływania na konsumenta niezależnie od interesu producenta oraz skutków i intencji użycia marketingu systemowego. 4. Budowa systemu marketingu odpowiadającego maksymalizacji wypełnienia interesu konsumenta i wzrostu funkcjonalności operacyjnej marketingu, niezależnie od interesu producenta bez uwzględniania aspektów etyki cnoty i uwzględnieniu skutków działania ale z uwzględnieniem deontologicznych intencji użycia. Tak należy pojmować jeden z ważnych elementów społecznej odpowiedzialności biznesu, wykorzystując w relacjach z konsumentem - model etyczny, najbardziej zbliżony do zrównoważonego. Należy przez to rozumieć, że jest on wynikiem gry rynkowej o sumie zero (stan równowagi w sensie Pareto). Biznes musi w tym celu pogodzić wiele sprzeczności interesów producenta i konsumenta, ale przede wszystkim trzymać się zasady, że poprawienie własnej pozycji, nie może powodować pogorszenia się pozycji pozostałych graczy (konsumentów). Wówczas marketing stanie się pożądanym narzędziem zarządzania, a nie narzędziem globalnego ogłupienia człowieka. 4.6.7 Zarządzanie marką Pierwszym problemem, który należy przedstawić w kwestii zarządzania marką jest definicja marki. Proponuję wziąć pod uwagę cztery ujęcia, definicji, które najlepiej oddają charakter tej ontologii. 1. American Marketing Association - Markę stanowi: nazwa, wyrażenie, wzór użytkowy, symbol lub jakakolwiek inna własność, pozwalająca zidentyfikować dane dobro (towar lub usługę) określonego sprzedawcy, odróżniając je od produktów innych sprzedawców. 2. Prawne określenie marki - Marka określa jedno dobro, grupę dóbr lub wszystkie dobra danego sprzedawcy. Użyta dla oznaczenia firmy jako całości, staje się znakiem handlowym TM. 3. Philip Kotler - Marka oznacza obietnicę sprzedawcy dostarczenia spójnych dla nabywcy własności, korzyści i usług, trudnych do uzyskania dla dóbr typu no name. 4. Ujęcie RBV - Marka jest elementem zasobu klasy VRIN, stanowiącym charakterystykę identyfikującą dobra i organizację firmującą je na rynku. Każde z powyższych sformułowań oddaje prawidłowo znaczenie marki. Przy tym ostatnia definicja, w ujęciu zasobowym zawiera epistemologicznie w sobie wszystkie trzy pozostałe. VRIN oznacza bowiem unikatowość, trudność w imitowaniu oraz w zastąpieniu substytutami. Ale równocześnie wiąże się z tym pewna wartość marki, czasami bardzo wysoka. 281 Oszacowaniami wartości marek zajmują się organizacje Milward Brown, ogłaszając co roku ranking najcenniejszych 100 marek na świecie349 oraz Interbrand z raportem „Interbrand Breaksthrough Brands”350. Niezależnie od wymienionych, rankingami wartości przedsiębiorstw (nie mylić z wartością marki) zajmuje się PriceWaterhouseCoopers (PWC)351 oraz Fortune 500352. W Polsce rankingiem najcenniejszych polskich marek (Top 200) zajmuje się czasopismo „Wprost”353. Warto zauważyć, że wśród 500 najcenniejszych marek globalnych nie ma żadnej polskiej. Tabela 14 Najcenniejsze polskie marki (za tygodnikiem Wprost) L.p Organizacja 1 2 3 4 5 PKO BP PZU PKN Orlen Cyfrowy Polsat LPP 6 Grupa Mlekovita 7 CCC 8 Grupa Maspex 9 10 Grupa Lotos Genin Noble Bank PKO BP PZU Orlen, Bliska Cyfrowy Polsat, Plus, Polsat Reserved, Cropp, House Wartość [mld zł] 3,2 – 5,1 2,8 – 4,4 3,7 – 4,3 3,3 – 4,1 1,3 – 2,2 Mlekovita 1,1 – 1,4 CCC 0,7 – 1,2 Tymbark, Kubuś, Libella 0,9 – 1,1 Lotos Noble Bank 0,7 – 0,9 0,3 – 0,5 Branża Bankowość Ubezpieczenia Przemysł paliwowy Media Handel (odzież) Przemysł mleczarski Handel (obuwie) Przemysł spożywczy Przemysł paliwowy Bankowość Marki Jeżeli przyjrzymy się rankingowi Milward-Brown, najcenniejszych marek globalnych, to wartości 10 najcenniejszych są o dwa rzędy wyższe, niż PKO BP. Warto odnotować fakt, że chińskie marki weszły na stałe do światowego rankingu na wysokie pozycje. I tak, China Mobile wszedł na 15 miejsce w rankingu, a serwis Alibaba na 18, a Bank of China ICBC na 27. W branży modowej dominuje Zara na 35 miejscu, a w luksusowych towarach Louis Voiton (LV) na 30 miejscu. Ranking Top 100 zamyka Adobe z wynikiem 10,44 mld USD (10 razy więcej, niż PKO BP). Jak widać są to liczby raczej jeszcze długo nieosiągalne dla polskich przedsiębiorstw. Tabela 15 Najcenniejsze marki globalne (na podstawie BrandZ 2016 354) Milward Brown, „BrandZ. Top 100 Global Brands”, http://www.millwardbrown.com/brandz/top-globalbrands/2016 350 Interbrand, „Breakthrough Brands”, http://interbrand.com/best-brands/interbrand-breakthroughbrands/2016/ 351 PWC, “Global Top 100 companies”, http://www.pwc.com/gx/en/services/audit-assurance/publications/top100-market-capitalisation.html 352 The Fortune 500, http://beta.fortune.com/global500/ 353 Adamczyk C., Wprost, Wydarzenia, „Ranking "Wprost": 10. najcenniejszych polskich marek”, 16.06.2015, https://www.wprost.pl/510524/Ranking-Wprost-10-najcenniejszych-polskich-marek 354 Milward Brown, „BrandZ. Raport Top 100, 2016 http://wppbaz.com/admin/uploads/files/BZ_Global_2016_Report.pdf 349 282 L.p Organizacja Branża 1 Google Technologie ICT 2 Apple Technologie ICT 3 Microsoft Technologie ICT 4 AT&T Usługi ICT, 5 6 7 8 9 10 Facebook Visa Amazon Verizon McDonalds IBM Internet Bankowość Handel internetowy Telecom Provider Fast Food Technologie IT Marki Google, IPhone, iPad, Macintosh, MacOS, iOS, watchOS, iTunes… Microsoft, Windows, Office, Visual Studio, Internet Explorer, Skype, Youtube… Bell, Ameritech, cingular, SBC, Pacific Bell, Bellsouth,… Facebook, Visa, Visa Electron, Amazon Verizon McDonalds, BigMac, Wartość [mln USD] 229 198 228 460 121 824 107 387 102 551 100 800 98 988 93 220 88 654 86 206 Czym znamienna jest marka i jak działa Marka, jako wydzielony byt musi się charakteryzować jakimiś cechami, a dodatkowo musi mieć określony sposób bytowania w środowisku biznesowym. Elementami marki są: nazwa (znak słowny) np. Microsoft, Chanel, Cervin, logo (wizualizacja graficzna marki) np. liternictwo Coca-cola, krokodyl Lacoste, fraza słowna: „Vintage stockings of the fifties”, „BMW radość z jazdy”. liternictwo: (np. wstążka Coca cola, napis Polskiego Towarzystwa Informatycznego) kolor (np. Owens-Corning kolor różowy izolacji, kolor żółty lidera Tour de France), dźwięk („Let’s get ready to rumble”, wydech Harley Davidson), zapach (różowo-jaśminowo-piżmowy perfum Chanel No. 5), smak (Kentucky fried chicken - receptura 11 ziół i przypraw), ruch: (np. drzwi w Lamborghini). Zarządzanie powyższymi elementami polega na ochronie patentowej, uwiadamianiu publicznym oraz na zapewnianiu odpowiedniego wizerunku dla produktów oznaczanych dowolnym elementem marki. Marka ma swoje cechy użyteczności, umożliwiające wyróżnienie i rozpoznawalność dóbr lub organizacji nią znakowanych na rynku: symbolika (reprezentacja relacji produktu, sprzedawcy i jego unikatowości), sugestywność (sugeruje zalety oznaczonego produktu i jego jakość): np. „Twardy”, „SunSail”, „Żubrówka”, ergonomiczność (łatwość posługiwania się danym elementem marki, łatwość do wymówienia, rozpoznania i zapamiętania), np. BMW, CD lub po prostu Dior, 283 rozpoznawalność, np. Microsoft, Coca Cola, Mercedes; skalowalność, (np. marka Amazon rozszerzyła się i rozszerza nadal z księgarni na inne produkty stając się globalnym pasażem e-handlu); pozytyw działania (marka jest pozytywem, który warto posiadać. Nie może nieść negatywnych skojarzeń w innych językach), np. Nova po hiszpańsku znaczy “nie idzie”. Oczywistym jest, że każdy, odpowiedzialny za działanie marki musi mieć na względzie cechy użyteczności, unikać nazw, które w różnych językach mogą mieć znaczenia obsceniczne, a dodatkowo analizować aspekty psychologizmu działania elementów marki. Marka ma również własną architekturę relacji z otoczeniem. Może być określona przez wykreowane relacje biznesowe przy użyciu różnych opcji brandingu (działań na rzecz kreacji marki). W danej chwili i miejscu może być konsekwencją przeszłych decyzji zarządczych, jak również realiów biznesowych. Zależy od interesariuszy organizacji, sytuacji rynkowej oraz strategii produktowej. Można określić trzy poziomy architektury marki. 1. Marka korporacyjna, (tzw, marka parasol i marka rodzina - Przykłady obejmują: Virgin Group i Heinz. Są one ukierunkowane na konsumentów i używane we wszystkich rodzajach działalności firmy. Nazwa marki jest znane wszystkim interesariuszom - konsumentom, pracownikom, akcjonariuszom, partnerom, dostawcom, etc. Marki te mogą być również stosowane w połączeniu z opisami produktów lub podsektorów marek: np. Heinz Zupa pomidorowa, czy Virgin Trains. 2. Marki „lokomotywy” i powiązane z nimi submarki, np. Nestle KitKat, Sony PlayStation. Marki te obejmują markę nadrzędną - która może być typem parasolowym lub rodzinnym, stosowanym, jako uwiarygodnienie dla danej podmarki lub fizycznego dobra. 3. Marka indywidualna – np. Procter & Gamble Pampers lub Dove Unilever. Poszczególne marki prezentowane są konsumentom, a nazwa spółki dominującej ma niewielkie znaczenie lub nie ma żadnego z punktu widzenia konsumenta (coś należy do koncernu Nestle i nikt na to uwagi nie zwraca). Ale inaczej będzie to wyglądać od strony interesariuszy typu: akcjonariusz lub partner spółki. Dla nich istotna jest marka producenta powstała z nazwy firmy. 284 Rys. 4.15 Zasada działania marki 355 Na rys. 4.15 przedstawiono zasadę działania marki. Centralnym obiektem relacji biznesowych marki z otoczeniem są dobra oznaczone marką. Posiadają one pewne właściwości rzeczywiste (koń jaki jest, każdy widzi), właściwości rzekome (cechy przypisywane danej marce prawdziwe lub niekoniecznie) oraz własności oczekiwane ze strony nabywcy (nie zawsze uzasadnione stanem rzeczywistym rzeczy). 355 Wikipedia „Brand”, http://en.wikipedia.org/wiki/Brand ] 285 Przy tym właściwości rzekome są domeną właścicieli marki i działań marketingowych, a oczekiwane przynależą grupie docelowych interesariuszy (nabywców marki). Z drugiej strony przedmioty marki pozostają w relacji ze znakami towarowymi, które są związane z nazwą marki (albo relacyjnie albo bezpośrednio) w sposób, który zależy od architektury danej marki. Wizerunek marki Jednym z fundamentalnych celów marketingu i zarządzania marką jest kreacja pozytywnego wizerunku danej marki. Wizerunek społeczny marki jako szlachetnej jest fundamentem sukcesu rynkowego. Jeżeli przyjrzeć się najbardziej pożądanym wizerunkom publicznym marki to można wymienić trzy: unikatowość, ekskluzywność oraz wysoka jakość dóbr znakowanych daną marką. Taktyka strategii budowania wizerunku wysokiej pozycji społecznej polega m. innymi na limitowanym dostępie do produktów i wiązaniu klienta z marką. Jest to zazwyczaj czynione przez: ekskluzywne kanały dystrybucji, pokazywanie unikatowych zalet dóbr w mediach, budowanie rynku wokół ludzi o wysokim statusie społecznym, oferowanie znaczącej wartości dodanej do produktu. Rys. 4.16 Tożsamość marki, a jej wizerunek Z wizerunkiem marki powiązana jest jej tożsamość, pozwalająca na wyróżnienie się na rynku i rozpoznawalność. Budowanie tożsamości marki pokazano na rys. 286 4.16. Wizerunek marki reprezentuje w znacznym stopniu jej misję rynkową. Wiąże się on ze sposobem jej postrzegania przez nabywcę. Może to być postrzeganie świadome, oparte na wiedzy i heurystyce lub emocjonalne, poprzez wrażenia, wyobrażenia i przekonania. Wizerunek marki jest uzależniony od sposobu dekodowania symboli oraz elementów marki oraz odnoszących się do niej przekazów. Jest ściśle powiązany z tożsamością marki, stanowiąc antycypację tożsamości marki w przyszłych okresach. Bardzo często znaczenie marki jest przeszacowane w stosunku do użyteczności produktów nią znaczonych, co wynika z behawioralnych zachowań konsumentów, socjotechnicznych zabiegów marketingu i ograniczonej racjonalności decyzji ludzkich. Kreowanie marki i zarządzanie operacyjne Zarządzanie marką ma swój poziom operacyjny, taktyczny i strategiczny, stanowiąc dobry przykład koncepcji ogólnego podziału zarządzania, wprowadzonego w rozdziale 3.2. Układ warstw logicznych zarządzania marką został przedstawiony na rys. 4.17. Stanowi on istotny element optymalizacyjny zarządzania marketingiem i działaniami funkcjonowania kanałów dystrybucji. Proces kreowania marki zaczyna się od stworzenia koncepcji marki. Składa się na niego: Określenie tożsamości Co będzie podmiotem marki? Jaki będzie typ marki (parasolowa, szczegółowa…)? Czym znamienna będzie marka? Jak będzie się wyróżniać w otoczeniu? Jaki będzie logotyp? Kto będzie właścicielem marki? Wniosek do Urzędu Patentowego zastrzeżenia w grupach EKD/EKU, zastrzeżenie logotypu (słowne, graficzne…), zakres oddziaływania ochrony. Kolejny aspektem staje się powstanie logotypu marki, żeby można było go zastrzec prawnie w urzędach patentowych jako znak towarowy. Składa się na to: opracowanie słowne znaku towarowego, opracowanie graficzne znaku, inne aspekty logotypu (wymienione wcześniej w elementach marki), wniosek zastrzeżenia znaku towarowego do Urzędu Patentowego, domena internetowa (lub zbiór domen komplementarnych, w szczególności: nazwa.com; nazwa.pl; nazwa.com.pl; nazwa.eu ), strona www. reprezentacja znaku na Facebook, Twitter, i innych mediach społecznościowych. 287 Marka, jako cenny zasób musi być z jednej strony chroniona, a z drugiej strony uwiadomiona publicznie, żeby potencjalny klient mógł się z nią identyfikować. Jest to sytuacja relacji dwóch sprzeczności, prowadząca w rezultacie do ustalenia optymalnej oferty informacyjnej i ochrony jak największej części wiedzy dotyczącej procesów biznesowych. Rys. 4.17 Schemat warstw logicznych zarządzania marką 288 Poniżej przedstawiono zespół działań umożliwiających pobieranie korzyści z posiadania marki jako zasobu VRIN w dłuższym horyzoncie czasowym. 1. Działania ochronne w otoczeniu (ochrona pasywna) ochrona prawna znaku (postępowania prawne przy nieuprawnionym użyciem), monitoring rynku (śledzenie substytutów i podróbek ukazujących się na rynku), zastrzeżenia patentowe i podobne (w szczególności domen w Internecie), walka z podróbkami (zawiadomienia organów ścigania o zdarzeniach). 2. Działania wewnątrzorganizacyjne (wsparcie procesowe) ograniczenia informacyjne (bezpieczeństwo biznesowe i tajemnica handlowa), budowanie wiedzy o sektorze i pozycji marki na rynku (rzecznik prasowy), standaryzacja jakościowa produktów (pozyskiwanie certyfikacji dla wyróbów), ograniczenia możliwości dostępu do produktów (blokowanie kanałów masowej dystrybucji w dostępie do wyrobów marki). 3. Działania rynkowe (ochrona aktywna) aktywna promocja marki i jej wizerunku (sponsoring, reklama, wydarzenia), zaangażowanie konsumentów w procesy kreowania produktów (wykorzystanie sprzężenia zwrotnego, kastomizacja produktów i usług), tworzenie społeczności skupionej wokół marki (fanpage, facebook, działania lojalnościowe, bonusy), inteligentna wirtualizacja marki (wykorzystanie nowoczesnych kanałów brandingu, np. channel connect). Ujawnienie i uwiadomienie marki jest działaniem koniecznym. Składają się na to następujące aspekty: 1. Synchronizacja w czasie informacja i dostępność dóbr danej marki (klient nie może czekać na reklamowany produkt, albo musi poczekać, tak jak w przypadku IPhone. Zależy to od strategii marketingowej w sprzedaży); zastrzeżenia prawne i ujawnienie marki (musi zostać zsynchronizowane w czasie z udostępnieniem produktów, bo inaczej ktoś inny może produkt opatentować jako swój). 2. Procesy propagacji informacji bezpłatnej roboty wyszukiwarek (wykorzystanie reklamy w internecie w formie pozycjonowania strony www oraz promocj płatnej na innych stronach), serwisy społecznościowe (Facebook, Twitter…), obrazy i filmy intrnetowe (YouTube, DeviantArt…), przekazy grupowe (reklama do określonej grupy użytkowników). 289 3. Uwiadomienia sformalizowane i płatne imprezy promocyjne (przykład „Zjazd na byle czym” realizowany przez firmę Red Bull, pikniki i imprezy rodzinne Coca Coli, itp.), lokalizacja i sponsoring (wykorzystanie produktów w filmach i na imprezach różnego typu, sponsorowanie zawodników i drużyn), ogłoszenia i uwiadomienia płatne (wykorzystanie wszelkich mediów, dających zadowalający response w reklamie), informacje przekazane do rozpowszechniania (przygotowane przez marketing treści, prezentujące zalety marki i związanych z nią produktów i usług), ogłoszenia formalne (Urząd Patentowy, Domeny…). Powyższe aspekty pozwalają wykreować markę i stanowią ważną część zagadnień zarządzania marką na poziomie operacyjnym i taktycznym. Schemat zarządzania marką zaprezentowano na Aspekty strategiczne marki Tworząc strategię marki musimy przede wszystkim ustalić misję i wizję marki, a ponadto ustalić cele jej funkcjonowania na rynku. Tak jak w przypadku budowania strategii, misję danej marki określają odpowiedzi na następujące pytania: 1. Czym jest nasza marka tu i teraz? 2. Jak jest postrzegana na rynku (reputacja)? 3. Jakie wartości wnosi dziś? Natomiast jej wizję określają odpowiedzi na następujące kwestie: 1. Do czego dąży marka w przyszłości? 2. Jak ma być postrzegana w otoczeniu (wizerunek)? 3. Jakie wartości będzie wnosić w przyszłości? Pozostałe aspekty zarządzania strategicznego marką wiążą się ze strategiami firmy (strategia marketingu, strategia zarządzania informacją i wiedzą, w końcu ze strategią rozwoju). Cele strategiczne dla marki można podzielić na trzy kategorie: 1. Oczekiwany efekt ekonomiczny wartość marki, ograniczenie kosztów zmiennych utrzymania marki, franchising i licencjonowanie marki, kreacja marek pochodnych. 2. Oczekiwany efekt rynkowy wyższy poziom kastomizacji produktów marki, wyższa pozycja rynkowa marki, znaczna społeczność skupiona wokół marki, wysoki poziom lojalności klienta wobec marki, pozytywna identyfikacja klienta z produktami marki. 3. Oczekiwany efekt medialny 290 wysoka pozycja marki w Internecie, rozpoznawalność rynkowa produktów marki, ograniczenie kosztów istnienia w mediach, wysoka pozycja w rankingach. reputacja marki. 5 Imperatywów zarządzania marką 1. 2. 3. 4. Rozdział o zarządzaniu marką można streścić do pięciu imperatywów: Imperatyw uwiadomienia marki Marka bez uwiadomienia nie funkcjonuje. Marka bez klienta zanika. Marka bez feed back ulega degeneracji. Marka bez brandingu nie rozwinie się. Marka bez channel connect może zostać wyparta z rynku. Imperatyw ochrony marki Marka bez zastrzeżeń prawnych nie funkcjonuje na rynku. Marka bez ograniczeń dostępu do wiedzy wrażliwej (tajemnica wytwarzania, wiedza ukryta, kluczowe kompetencje) nie będzie zasobem unikatowym. Brak bezpieczeństwa informacyjnego u gestora marki naraża zachowanie unikatowości przez zasób klasy VRIN. Brak systemów obronnych przeciwko łamiącym prawo własności intelektualnej degeneruje markę. Imperatyw relacyjności marki Marka bez sprzężenia zwrotnego z jej odbiorcą zaniknie. Brak uczestnictwa klienta w wytwarzaniu markowej wartości jest dzisiaj niemożliwe. Marka bez relacji z mediami funkcjonować nie będzie. Brak relacji ekonomicznych, psychologicznych i społecznych w kreowaniu marki wiedzie na manowce. O wartości marki decydują jej interesariusze. Imperatyw reputacji marki Marka bez reputacji jest martwa. Jeśli raz marka utraciła reputację, wówczas nawet 10-krotne zwiększenie wysiłków na jej odbudowę może nie wystarczyć. Utraty reputacji prędko się nie zapomina. Jedna medialnie nagłośniona wpadka marki może zniszczyć całą, misterną strategię budowy jej wizerunku. Wartości marki i jej reputacja są nierozłączne. Reputacji marki należy bronić, jak niepodległości, o ile ma ona świecić jasnym blaskiem. 291 5. Imperatyw optymalizacji marki Marka musi spełniać kryteria optymalności ekonomicznej. Marka musi pozostawać w optymalnych relacjach ze swoimi interesariuszami. Marka musi być optymalnym wyborem rynkowym. Marka musi dążyć do optymalizacji preferencji i użyteczności. Marka nieoptymalnie zarządzana prędzej, czy później zaniknie. 4.7 Aspekty zarządzania finansami Zarządzanie finansami stanowi jedno z najważniejszych działań operacyjnych każdej organizacji, związanymi z podejmowaniem decyzji finansowych. Najważniejszymi aspektami zarządzania finansami są: zarządzanie płynnością finansową, zarządzanie kosztami i rachunek kosztów, rachunkowość ex post i ex ante, sprawozdawczość finansowa, planowanie położenia finansowego, hedging (zabezpieczenie przed ryzykiem finansowym). Finanse każdej organizacji muszą pozostawać pod kontrolą ponieważ stanowią reprezentację formalną jej wyniku ekonomicznego w dowolnej chwili. Umożliwiają ustalenie maksymalnego poziomu wymiany dóbr z otoczeniem oraz maksymalną wartość zasobów do dyspozycji. Stanowią najważniejszy obszar optymalizacji ekonomicznej organizacji. Stąd wynika tak ważna rola zarządzania finansami w działalności gospodarczej. Głównym celem prowadzenia działalności gospodarczej jest generowanie zysku, czyli nadwyżki finansowej przychodów nad kosztami ich uzyskania. Zysk stanowi dodatnią wartość różnicy przychodów i kosztów. Jeżeli ta różnica jest ujemna, to mówimy o stracie. Stąd do kwestii zarządzania finansami będzie należeć oszacowanie wartościowe zarówno przychodów, jak i kosztów. W tym celu posługujemy się metodami i narzędziami z zakresu rachunkowości. Ale gdy ktoś zada pytanie, czy firma dysponuje zasobami pieniężnymi w określonym momencie, wówczas ani bilans, ani rachunek wyników nie dają poprawnej odpowiedzi. Konieczne jest ustalenie przepływów pieniężnych na dany moment. To samo dotyczy wartości aktualnej inwestycji, którą oblicza się metodą NPV albo wewnętrznej stopy zwrotu liczonej metodą IRR. Są to typowe analizy finansowe i należą do kwestii zarządzania płynnością oraz sprawozdawczości finansowej. Oczywiście rachunkowość posługuje się tymi narzędziami i pokrywa się to w znacznej części zakresu wiedzy z zarządzaniem finansami, ale obie dziedziny posiadają wiele rozłącznych zagadnień, standardów oraz metod ustalania położenia ekonomicznego. 292 4.7.1 Analiza finansowa projektu biznesowego Analiza finansowa projektów inwestycyjnych lub biznesowych ma na celu danie odpowiedzi na zasadnicze zapytanie: czy to się opłaca? Może się okazać, że zysk z zainwestowanego kapitału i zasobów będzie mały, a nawet może przynieść straty. Dlatego zarówno koszty, jak i potencjalne zyski dotyczące projektu biznesowego należy dobrze przeliczyć. Punktem wyjścia analiz finansowych jest wykonanie analizy marketingowej, rynku, ryzyka oraz zasobów dla planowanego przedsięwzięcia. Konieczne jest poznanie ceny sprzedaży dóbr wynikającej z analiz marketingowych i proponowanej strategii kształtowania cen. Należy obliczyć koszty związane z prowadzeniem własnej działalności gospodarczej oraz wytworzenia analizowanego produktu. Nie można przy tym popełnić błędu polegającego na : niewykorzystywaniu wszystkich istotnych analiz lub oparcie się na jednym wyniku, np. rachunku wyników, pomijając przy tym bilans oraz przepływy; nadto optymistycznym oszacowaniu wpływów wynikających z realizacji projektu (przeszacowanie sprzedaży); zaniżeniu kosztów realizacji projektu w celu uzyskania kredytu lub dotacji; nieuwzględnieniu wpływu ryzyka finansowego (analiza wrażliwości). Przychody, koszty i zyski Podstawową informacją finansową związaną z jakimkolwiek przedsięwzięciem biznesowym, czy to projektem, czy też działalności organizacji jest kwestia zyskowności. Zysk jest tym, co warunkuje podjęcie wysiłków i ryzyka. Dzieli się na zysk operacyjny (zysk z działalności), zysk brutto oraz zysk netto. Ujemny zysk operacyjny nazywany jest stratą. Zysk operacyjny = Przychody – Koszty uzyskania przychodu Zysk brutto = Zysk operacyjny + Przychody nadzwyczajne – straty nadzwyczajne Zysk netto = Zysk brutto – Podatek dochodowy – Inne podatki i opłaty Zysk netto jest tą częścią zysku brutto, która pozwala nam rozwijać naszą działalność oraz zaspokajać potrzeby własne. Zanim jednak osiągniemy zyski musimy ponieść koszty, albowiem nie są znane przypadki osiągnięcia przychodu bez poniesienia choćby minimalnych kosztów. Oprócz zysku, dla oceny wyniku finansowego przedsięwzięć gospodarczych stosuje się wskaźnik EBITDA356, który stanowi jeden z najbardziej rozpoznawalnych miar rentowności i wraz z pochodnymi wskaźnikami EBITA, EBIT oraz ROI/ROE są fundamentem informacji wynikającej z analizy finansowej dla celów kontrolingu w organizacjach (str. 352). Koszty dzielimy na: stałe, zmienne oraz quasizmienne. EBITDA Earnings Before Interest, Taxes, Depreciation and Amortization – zysk operacyjny przedsiębiorstwa bez potrącenia odsetek od zaciągniętych zobowiązań oprocentowanych (kredytów, obligacji, akcji), podatku dochodowego oraz innych obowiązkowych obniżek zysku (opłaty lokalne, podatki od obrotu), bez uwzględnienia amortyzacji majątku trwałego. 356 293 Koszty stałe – ponoszone są bez względu na wielkość produkcji, np. czynsz, wynagrodzenie ryczałtowe, amortyzacja, ubezpieczenie, odsetki od kredytu. Koszty zmienne –zmieniają się wraz ze zmianami ilości produkcji, np. koszt surowców, koszt usług zewnętrznych doliczanych do sztuki, koszty energii, itp. Koszty quasizmienne - są częściowo stałe (ułamek dodajemy do kosztów stałych) a częściowo zmienne (pozostałą część dodajemy do kosztów zmiennych). Może to być wynagrodzenie w systemie akordowym godzinowym (częściowo przypisywane do sztuki wytworzonej). W analizach finansowych koszty są grupowane w zależności od rodzaju lub miejsca powstawania i sumowane zarówno według grup, jak i globalnie. Koszty analizowane są również w okresach czasowych, co pozwala na porównania oraz tworzenie planów wydatków i harmonogramów kosztowo-zadaniowych i czasowych. Ewidencją poniesionych kosztów zajmuje się rachunkowość finansowa, przy czym zgodnie z rozlicznymi przepisami, nie wszystkie wydatki można zaliczać do kosztów uzyskania przychodów. Próg rentowności Ilościowy próg rentowności PRI (BEP357) wskazuje ile sztuk produktu o numerze „m” należy sprzedać po cenie Cm przy obliczonym koszcie zmiennym na jednostkę produktu Kjzm, aby pokryć koszty stałe Kst. Ilustruje to rys. 4.18. (4.1) PRI K st Cm K jzm Rys. 4.18 Ilustracja progu rentowności Przy sprzedaży na poziomie progu rentowności firma ani nie ponosi straty ani nie osiąga zysku (przychody równoważą całkowite koszty). Stąd wynik finansowy w 357 Angielska nazwa BEP (Break Even Point). 294 PRI jest równy 0, a przepływy pieniężne są równe amortyzacji. Wynika to z faktu, że jest ona kosztem niepieniężnym i nie ma wpływu na Cash-flow. Obok ilościowego progu rentowności PRI, w analizie finansowej funkcjonują jeszcze wartościowy próg rentowności PRW, który wskazuje jaka wartość sprzedaży pokryje jej koszty stałe oraz procentowy próg rentowności PR%, wskazujący jaka część maksymalnej zdolności produkcyjnej musi zostać zaangażowana w celu pokrycia kosztów stałych. (4.2) PRW PRI Cm PRW jest iloczynem ilościowego progu rentowności PRI oraz ceny jednostkowej Cm produktu o numerze „m”. (4.3) PR % PRI 100% Pmax PR% jest ułamkiem produkcji maksymalnej Pmax w punkcie progu rentowności PRI. Analiza progu rentowności pokazuje prostą zależność, kiedy dane przedsięwzięcie biznesowe może przynieść zysk. Należy zauważyć, że zamieniając dochodowość produktu [C(m) – Kzm(m)] na marżę, wyrażenia dla PR stają się prawdziwe również dla usług i handlu. Punkt opłacalności oraz wskaźnik bezpieczeństwa Punkt opłacalności wiąże się z możliwością zaspokojenia bieżących potrzeb organizacji, potrzeb właściciela (np. akcjonariuszy lub przedsiębiorcy) oraz kosztów zobowiązań związanych z usługami zewnętrznymi (np. spłaty kredytu, należności outsourcingowe). Jest to wielkość zysku netto, który należy wypracować, aby osiągnąć opłacalność działalności. Tym samym punkt opłacalności PO oznacza ile jednostek produktu oznaczonego jako „m” należy sprzedać, aby pokryć koszty stałe Kst i osiągnąć zakładaną wartość zysku Z, przy cenie sprzedaży Cm. (4.4) PO K st Z Cm K jzm Jeżeli w miejsce PO wstawimy maksymalną produkcję Pmax, wówczas wzór powyższy pozwala na obliczenie maksymalnego zysku brutto, jaki można uzyskać. Z max Pmax (Cm K jzm ) Kst (4.5) Zależność 4.5 pozwala zatem na odpowiedź, czy projektowany biznes ma sens lub czy to o taki, a nie inny efekt ekonomiczny chodzi w zadanym projekcie. Z punktem opłacalności wiąże się jeszcze jeden ważny wskaźnik ekonomiczny dla projektu biznesowego. Jest to wskaźnik bezpieczeństwa. Daje on odpowiedź na pytanie, co się stanie, gdy popyt spadnie o określoną wartość. Miernikiem jest w tym przypadku „wskaźnik bezpieczeństwa”. Wb zależy od progu rentowności ilościowej PRI i produkcji maksymalnej Pmax i dany jest wzorem: 295 (4.6) Wb 1 PRI Pmax Jeżeli Wb < 0 to biznes przyniesie stratę; gdy Wb przyjmuje wartości z przedziału [0, PRI] pokryte zostaną koszty stałe, przy Wb = 0,5 zysk będzie zerowy, natomiast gdy Wb będzie mieć wartość z przedziału [0,5; 1], wówczas możemy liczyć na zyski. Graniczny poziom ceny i jednostkowych kosztów zmiennych Graniczny poziom ceny jednostkowej Cgr sprzedaży oznacza taki jej poziom, przy którym sprzedając zakładaną ilość produktów x, przy jednostkowym koszcie zmiennym Kjzm nie osiągniemy żadnego zysku. (4.7) Cgr K jzm K st x Podobnie do granicznego poziomu ceny sprzedaży, można wyznaczyć graniczny poziom jednostkowych kosztów zmiennych. Jest to taki poziom kosztów zmiennych na jednostkę produktu, przy których sprzedając zakładaną ilość x produktu po cenie Cj nie osiągniemy zysków. Stąd dalej można wyznaczyć margines bezpieczeństwa kosztowego. (4.8) gr K jzm Cj K st x Podobnie jak w przypadku wskaźnika bezpieczeństwa cenowego można ustalić margines bezpieczeństwa ze względu na koszty zmienne jednostkowe MBjkz. Stanowi on ułamek procentowy granicznego poziomu jednostkowych kosztów zmiennych w stosunku do jednostkowego kosztu zmiennego. Im ten wynik jest wyższy, tym lepiej. (4.9) gr K jzm MB jkz 1 100% K jzm Analiza granicznych cen i kosztów zmiennych, marginesów bezpieczeństwa w kontekście ustaleń rentowności i opłacalności, pozwalają na wsparcie decyzji co robić w biznesie i czy to się będzie opłacało. 4.7.2 Oszacowania zmian wartości pieniądza w czasie W biznesplanach i studium wykonalności jedną z podstawowych kwestii jest oszacowanie wartości inwestycji lub kosztu pieniądza po pewnym czasie, mając na uwadze aktualne dane. Jest to prognozowanie wartości w przyszłości. Powszechnie wiadomym jest, że lepiej otrzymać pieniądze teraz niż w przyszłości. Wynika to przede wszystkim z działania: inflacji, ryzyka inwestycyjnego, preferencji konsumpcji oraz szkodliwego działania instytucji spekulacyjnych instytucji finansowych (fundusze hedgingowe, spekulacje na instrumentach pochodnych). Inflacja 296 5% oznacza, że posiadane dzisiaj 100 zł po roku ma wartość siły nabywczej już 95 zł, a po pięciu latach już tylko 77,38 zł Najlepiej obrazuje to przykład spadku wartości dolara od 1913 roku, kiedy miał on 100% pokrycie w złocie i dzisiaj, kiedy od 1971roku jest walutą w pełni fiducjarną (wierzymy na słowo, że papier zadrukowany jest tyle wart, ile podają) i można za niego nabyć niecałe dwa centy tego z roku 1913. Inflacja 50-krotna (rozdział 1.4.1). Wynika to właśnie z faktu dodruku pustego pieniądza w miarę potrzeb władzy. Dzisiaj co miesiąc dodrukowywane jest 60 mld Euro pustego pieniądza przez Europejski Bank Centralny, co prędzej czy później musi zakończyć się spektakularnym kryzysem. Tak samo możemy spojrzeć na obietnice rządowe w sprawach emerytury, czy też obligacji. Dzisiaj są one warte x, ale po kilkunastu latach nominalnie mogą być warte więcej. Z pewnością ealnie stanowią jedynie ułamek pierwotnej wartości. Na tym opierają się ubezpieczenia na życie lub polisolokaty. Zawsze ten, który korzysta z zapewnień agentów ubezpieczeniowych lub bankowych omamów zostanie wystrychnięty na przysłowiowego dudka. Bank służy zarabianiu pieniędzy kosztem depozytariuszy lub społeczeństwa, któremu oferuje pusty pieniądz (kredyty), a od którego odbiera ten realny pieniądz w ratach, dodatkowo z marżą i odsetkami, często zbójnickimi. Inflacja jest konieczna, bo gdy jest deflacja, to system bankowy cierpi, a konsumpcja hamuje, przez co rząd nie może uzbierać wystarczająco dużo na cudze potrzeby, a ponadto PKB spada. To wprost oznacza, że ktoś musi zawsze tracić na zmianie wartości pieniądza i nie jest to bynajmniej bank. I to jest ta cała mistyka finansów. Warto zatem analizować, czy opłaca się brać kredyty czy szukać alternatywnych sposobów finansowania biznesu. Wartość przyszła pieniądza Inwestując pieniądze, spodziewamy się uzyskania renty od wyłożonego kapitału. Jest to premia za poniesione ryzyko. Na rentę składają się wolna od ryzyka część odsetek, renta kompensująca inflację w czasie, premia za ryzyko nieotrzymania płatności od kontrahenta, premia za szybszą spłatę, premia za wrażliwość na zmiany instrumentów finansowych w czasie. Stąd wynika, że wartość depozytu pieniężnego zmienia się w czasie. Otrzymanie dzisiaj 100 zł nie jest tym samym, co otrzymanie niby tych samych 100 zł za rok. Wartość przyszłą depozytów określają dywidendy od zainwestowanego kapitału. Jest to procent składany, dla obliczenia którego stosujemy zależność (kapitalizacja roczna): Vn V0 (1 r )n (4.10) Gdzie Vn oznacza wartość depozytu po n-latach; V0 początkową wartość; n jest liczbą lat, a r stopą procentową. Kapitalizację można przeprowadzać w przedziałach krótszych niż rok, wówczas wzór (4.10) należy zmodyfikować. 297 Można zadać pytanie: Jeżeli inflacja jest równa stopie procentowej, to czy wówczas wartość depozytu po n latach jest równoważna jego wartości początkowej? Odpowiedź na to pytanie wymaga obliczenia odwrotnej zależności – ile tracimy rocznie od początkowej wartości V przy inflacji o stopie R (stopa dyskonta). (4.11) PVn FVn (1 R ) n Tutaj PVn stanowi wartość bieżącą przyszłego dochodu FVn w n-tym roku, przy stopie dyskonta (lub odsetek od kapitału) na poziomie R. Jeżeli stopa dyskonta nie zmieni się, to będziemy mieć wynik neutralny. Poza tym wynik zależy od sposobu kapitalizacji, która może być miesięczna lub kwartalna, a nie roczna. Przykład 4.1 Deprecjacja renty kapitałowej Jako przykład zmian wartości pieniądza można przedstawić wartość aktualną (dzisiejszą) stałej renty kapitałowej 1000 zł po 10 latach, jeżeli stopa dyskonta wyniesie 3% (zakładamy stałość stopy procentowej w całym okresie). Korzystając ze wzoru (4.11) obliczamy, że będzie to kwota 744 zł (wg dzisiejszej siły nabywczej), pomimo że za 10 lat zostanie również wypłacone 1000 zł. Te 256 zł siły nabywczej „wyparuje” w ciągu lat na działanie państwa i systemów finansowych. Przy obliczeniach rzeczywistych wartości wycenianych w pieniądzu, gdzieś w przyszłości, musimy posługiwać się dyskontowaniem (wzór (4.11). Jest to proces ustalania przepływów pieniężnych wstecz. Zakładamy przy tym stopy procentowe dyskonta na zasadzie prognozy. Są one związane ze stopami procentowymi kredytów bankowych w poszczególnych okresach, a prognoza obarczona jest ryzykiem finansowym braku trafności ustalenia stopy dyskonta, która wcale nie musi być stała, ale zmieniać się w zależności od sytuacji na rynkach. Warto przypomnieć sobie rok 2008 i początek kryzysu finansowego, kiedy to dla ratowania banków wyemitowano potężne ilości pustego pieniądza, a stopy procentowe zmalały do zera. Konieczne jest też analizowanie kalendarza ekonomicznego, przedstawionego na rys. 1.11. Rentowność i efektywność inwestycji Niezależnie od struktury majątku ani czynników nadzwyczajnych związanych z jego funkcjonowaniem, efektywność działania organizacji mierzona jest za pomocą wskaźnika rentowności ROI (Return of Investment). Jest on miarą bezwzględnej opłacalności, rozumianej jako stopa zwrotu z nakładów inwestycyjnych poniesionych na realizację danego przedsięwzięcia (niezależnie od źródła finansowania). Zakłada ona, że nadwyżka korzyści netto z inwestycji jest mierzona zyskiem (niekoniecznie wyrażonym w gotówce) oraz wartość pieniądza w czasie jest stała. Można w ten sposób mierzyć efektywność projektów IT, marketingowych, szkoleniowych. ROI wyliczamy z zależności: (4.12) ROI = [(Zysk operacyjny netto)/(całkowite nakłady inw estycyjne)]∙100% 298 Inwestycja jest opłacalna jeżeli ROI > Kryterium graniczne. Za kryterium można uznać średnie ROI w branży lub średni ważony koszt kapitału (WACC358). Najprostszym wariantem prognozowania wskaźnika ROI, a jednocześnie bardzo użytecznym wskaźnikiem rentowności inwestycji, przy założeniu liniowości jej amortyzacji jest średnia stopa zwrotu (ROIAV) (4.13) ROI AV = ½[(suma przyszłych zysków netto)/(wartość początkowa inwestycji) Jak widać, metoda średniej stopy zwrotu jest nadzwyczaj prosta, ale nie uwzględnia zmiany wartości pieniądza w czasie, bazuje na zyskach księgowych, a nie na przepływach pieniężnych pomijając wartość amortyzacji oraz wartość rezydualną inwestycji, a dodatkowo zakłada milcząco liniowość rozkładu zysków w czasie. Tym niemniej dla wstępnej oceny projektu biznesowego można ją z powodzeniem stosować. Piramida Du Ponta Najpopularniejszym z finansowego punktu widzenia układem wskaźników oceny efektywności inwestycji lub działalności biznesowej jest piramida Du Ponta359, opracowana w 1919 r. Jest to kaskadowy układ relacji finansowych prowadzących do wyznaczenia wskaźnika zwrotu z kapitału własnego (ROE). Źródłem danych do wyliczenia poszczególnych elementów analitycznych piramidy DuPonta są dane księgowe pobierane z rachunkowości. Zasadniczym celem jest określenia wzajemnego oddziaływania (współzależności przyczynowo-skutkowych), pomiędzy elementami kaskady wskaźników, składającymi się na ROE (rys. 4.19). Pozwala to na identyfikację kluczowych obszarów działalności przedsiębiorstwa, które wpływają na uzyskiwaną przez organizację rentowność kapitału własnego oraz możliwych skutków ich zmienności w czasie (rozdział 4.9.2). Analizę metodą DuPonta można przeprowadzać zarówno wstecz (retrospektywnie), jak i prognostycznie. Jest to bardzo wygodne narzędzie dla porównań w czasię stanu organizacji, a jednocześnie objaśnia, z czego wynika zysk w działalności organizacji. Ponieważ wynikiem analizy są liczby, piramida DuPonta dostarcza epistemicznego kryterium porównawczego inwestycji i projektów biznesowych. Układ ten jest różnie przedstawiany, np. można się posługiwać EBITDA zamiast zyskiem netto, ale z praktycznego punktu widzenia, operowanie kwotami netto są bardziej użyteczne dla wsparcia decyzyjnego. WACC (Weighted Average Cost of Capital), „Średni ważony koszt kapitału”, https://pl.wikipedia.org/wiki/%C5%9Aredni_wa%C5%BCony_koszt_kapita%C5%82u 359 Gołębiowski G., i in., „Analizy…”, op. cit. 358 299 Rys. 4.19 Piramida DuPonta 4.7.3 Wybrane aspekty rachunkowości Każdy, kto zarządza organizacją większą niż stragan, powinien zdawać sobie sprawę z konieczności zapisania formalnego zdarzeń gospodarczych, zachodzących w jego biznesie w formie pieniężnej. To działanie nazywane jest ewidencją gospodarczą. Rachunkowość spełnia szereg funkcji: informacyjną, rodowodową, rozliczeniową, kontrolną, sprawozdawczą i powierniczą360. Rachunkowość finansowa ma za zadanie z jednej strony określić wartość majątku organizacji (aktywa), a z drugiej sposób jego finansowania (pasywa), przy czym wartości te muszą być sobie równe (bilans). Ponadto do zadań rachunkowości należy sporządzanie sprawozdań finansowych w formie nadającej się dla porównań w czasie i pomiędzy różnymi podmiotami. Standardem międzynarodowym, określającym zasady rachunkowości jest GAAP361. W Unii Europejskiej wprowadzono uregulowania: MSR (międzynarodowe standardy rachunkowości) oraz Kiziukiewicz T., „Rachunkowość nie tylko dla księgowych”, PWE, Warszawa 2007, s. 13 Financial Accounting Foundation, “About GAAP”, http://www.accountingfoundation.org/jsp/Foundation/Page/FAFBridgePage&cid=1176164538898 360 361 300 MSSF (międzynarodowe standardy sprawozdań finansowych)362. W Polsce kwestie ewidencji rachunkowości finansowej reguluje ustawa o rachunkowości363. Menedżerowie, akcjonariusze, urzędy potrzebują rzetelnej informacji na temat położenia ekonomicznego organizacji oraz dowodów na prowadzenie zgodnie z prawem interesów. Dlatego rachunkowość powinna stanowić przedmiot szczególnej atencji zarządzania, a jednym z imperatywów menedżera jest umiejętność interpretacji zapisów księgowych oraz konstrukcji informacji syntetycznej, otrzymywanej z programów finansowo-księgowych. W końcu to na tej podstawie podejmowane są liczne decyzje. Rachunkowość w każdej organizacji jest realizowana przez grupę stanowisk opisujących procesy biznesowe za pomocą dokumentów. Ten kto wystawia fakturę, ten kto wydaje z magazynu, ten który nalicza przeroby mechanikom bierze świadomie lub nie udział w procesach księgowania, albowiem generując dokumenty na swoim stanowisku, przypisuje im automatycznie szablon dekretów na kontach księgowych. Księgowość może je uzupełniać lub zmieniać, ale gros pracy związanej z ewidencją rachunkową wykonano wcześniej. A zatem dobrze zorganizowana księgowość panuje nad rozproszonym po organizacji, sieciowym systemem wymiany informacji, redukując redundancje zapisów w systemie FK. To trzeba dobrze zorganizować i przemyśleć, albowiem na końcu wszystkich procesów księgowania, dekretowania czy ewidencjonowania pojawia się sprawozdanie finansowe oraz deklaracja podatkowa. A te muszą być rzetelne, aktualne i spójne, a w dodatku trzeba potrafić wyjaśnić, skąd się wzięły liczby na poszczególnych pozycjach. Zasady zapisu księgowego i plan kont Twórcą nowoczesnej rachunkowości był L. Pacioli, który opracował standard podwójnego zapisu księgowego: strony księgowania „winien” po lewej stronie – „bo wziął” co oznacza debet i „ma” po prawej stronie – „bo dał” czyli kredyt). Opisał to w dziele „Summa de arithmetica, geometria, proportioni et proportionalità” wydanym w Wenecji, w roku 1494. Od tego czasu w zapisach księgowych niewiele się zmieniło, poza ilością informacji rejestrowanej dzięki systemom komputerowym. Podwójny zapis stanowi fundament zasady równowagi bilansowej, gdzie suma wszystkich aktywów musi być równa sumie wszystkich pasywów. Innymi słowy aktywa firmy są finansowane ze źródeł zapisanych po stronie pasywów. Rozporządzenie Komisji (WE) Nr 1126/2008, z dnia 3 listopada 2008 r, przyjmujące określone międzynarodowe standardy rachunkowości zgodnie z rozporządzeniem (WE), nr 1606/2002 Parlamentu Europejskiego i Rady. http://polanskiaudyt.pl/msr-mssf/ 363 Ustawa z dnia 29 września 1994 r. o rachunkowości Dz. U. z 2016 r. poz. 1047, tekst jednolity z dnia 19.07.2016, http://www.mf.gov.pl/c/document_library/get_file?uuid=78ce716b-3ace-484e-be4c29a413469e75&groupId=764034 362 301 Przykład 4.2 Zapis księgowy dwustronny Zakup towaru handlowego za gotówkę wymaga zaewidencjonowania tego faktu przynajmniej na dwóch kontach księgowych: po stronie Ma konta "Kasa" (co odpowiada zmniejszeniu się stanu gotówki w kasie) oraz po stronie Winien konta "Rozliczenie zakupu towarów" (co stanowi informacje, że zakupiono towary i zwiększono wartość aktywów, ale bez informacji czy te towary wpłynęły do magazynu – to wymaga dalszych zapisów księgowych w ramach rozksięgowania). Zapis zdarzenia gospodarczego w pełnej rachunkowości odbywa się na kontach księgowych, które są logicznie poukładane w plan kont. Zapisy są wyrażane wartościowo w jednostkach pieniężnych. Zapis po jednej stronie konta nazywa się obrotem. Różnica w zapisie pomiędzy obrotami na danym koncie po obu stronach nazywa się saldem. Istnieją konta bilansowe, na których zapisy muszą się równoważyć oraz konta pozabilansowe, pomocnicze (kalkulacyjne), gdzie nie ma obowiązku księgowania dwustronnego. Służą one różnego rodzaju przeliczeniom (np. kosztów lub walutowych) w celu uzyskania syntetycznej informacji wprowadzanej na konta bilansowe. Zapisy na kontach można prowadzić jako liczby wymierne dodatnie z dokładnością do dwóch miejsc po przecinku, wówczas korekty muszą być księgowane przeciwnie jako wartości dodatnie, co zaburza czystość obrotów na danym koncie (pomimo zachowania salda i persalda). Można również stosować zapisy ujemne (storno), ale wówczas należy prowadzić rejestr relacji do dokumentu korygowanego, żeby można było wyjaśnić dany zapis korygujący. Pierwotną informacją w rachunkowości (dowodem księgowym) jest dokument księgowy, któremu przypisuje się formalną reprezentację w formie szablonu rozksięgowania na określonych kontach z planu kont. W przypadku księgowania danego dowodu księgowego np. faktury VAT sprzedaży, można ustalić szablon jego zapisów na różnych kontach analitycznych, zwany rozksięgowaniem dokumentu. Proces budowania takiego szablonu rozksięgowań nazywamy dekretacją dokumentu i stanowi on finansową reprezentację dokumentu księgowego. Im bardziej skomplikowany jest dokument, tym bardziej złożona staje się jego dekretacja na planie kont. Przykład 4.3 Dekretacja procesu sprzedaży. Dokonano sprzedaży towaru z magazynu, co udokumentowano dwoma dokumentami: fakturą VAT (w cenach sprzedaży) oraz WZ (wydanie z magazynu w cenach zakupu). Jak należy zdefiniować rozksięgowanie dla takiego przypadku? Najprościej zilustrować to tak, jak na rys. 4.20. Podana w przykładzie dekretacja pozwala na ustalanie wyniku operacyjnego online. Przy odpowiednim sposobie księgowania, możliwe jest ustalanie wskaźników EBITDA quasi-online bez konieczności zamykania miesiąca. 302 rys. 4.20 Przykład księgowania prostego (dekretacja dokumentu). W zastosowanym szablonie z rys. 4.20 nie uwzględniono komu sprzedano towar, w jaki sposób został on zapłacony oraz jak rozliczono zapłatę podatku. A można to jeszcze bardziej skomplikować, w zależności, czy była to sprzedaż w walucie lub z odroczoną płatnością. Wówczas szablon rozksięgowań będzie jeszcze bardziej rozbudowany. Tym niemniej, saldo całej operacji, obejmującej wszystkie konta bilansowe musi być zerowe. Na planie kont wyróżnia się konta analityczne oraz konta syntetyczne. Zapisy księgowe prowadzone są wyłącznie na kontach analitycznych. Obroty i salda z kont analitycznych mogą być agregowane następnie na kontach syntetycznych, co pomaga w analizie grup zdarzeń danego typu, a nie pojedynczych zdarzeń. Różnica pomiędzy saldami na kontach syntetycznych nazywana jest persaldo. Każde konto księgowe musi gromadzić następujące informacje: Nazwa (odpowiadająca istocie ujmowanych na nim składników lub zjawisk gospodarczych, np. kasa, bank, koszt energii, koszty wydziału napraw). Kod (identyfikator znakowy dla reprezentacji konta w księgach). Dane operacji (datę operacji, datę wpisu, numer dowodu księgowego, treść operacji, relacje do innych). Kwota operacji (wyrażona w walucie prowadzenia księgowości). Za architekturę i funkcjonalność rachunkowości odpowiada struktura planu kont. Stanowi ona zbiór zapisów, gdzie dowolne zdarzenie może być rozksięgo- 303 wane wielokrotnie w celach analitycznych i późniejszej agregacji rodzajowej informacji syntetycznej (np. przychody ze sprzedaży usług, materiały w przerobie, koszty działu napraw, należności przeterminowane, itp.). Plan kont ma swój układ logiczny w formie grup najbardziej syntetycznych (zespoły kont), który traktowany jest jako standard rachunkowości364 0 – Aktywa trwałe 1 – Środki pieniężne, rachunki bankowe i inne krótkoterminowe aktywa finansowe 2 – Rozrachunki i roszczenia 3 – Materiały i towary 4 – Koszty według rodzajów i ich rozliczenie 5 – Koszty według typów działalności i ich rozliczenie 6 – Produkty i rozliczenia międzyokresowe 7 – Przychody i koszty związane z ich osiągnięciem 8 – Kapitały (fundusze) własne, fundusze specjalne i wynik finansowy. Ten plan można następnie rozbudowywać w logiczny sposób na podgrupy, oraz konta analityczne, np. Przykład 4.4 Układ logiczny planu kont dla księgowania gotówki w kasach 1– Rozrachunki i roszczenia 1-100 – Gotówka w kasie (bilansowe, syntetyczne) 1-100-1 Gotówka w kasach złotowych (bilansowe, syntetyczne) 1-100–2 Gotówka w kasach walutowych (bilansowe, syntetyczne) 1-100-1-1 – Kasa złotówkowa nr 1 (bilansowe, analityczne) 1-100-1-2 – Kasa złotówkowa nr 2 (bilansowe, analityczne) 1-100-2-1 – Kasa walutowa w CHF (pozabilansowe analityczne) 1-100-2-10 – Przeliczenie CHF na złote (bilansowe) analityczne 1-100-2-2 – Kasa walutowa w EUR (pozabilansowe, analityczne) 1-100-2-20 - Przeliczenie EUR na złote (bilansowe) analityczne Wn 1 835 zł 350 zł 1 485 zł 100 zł 250 zł 150 CHF 615 zł 200 EUR 870 zł W analizowanym przykładzie mamy dwie kasy złotówkowe oraz kasę prowadzoną w walucie CHF i drugą w walucie EUR (krąg kasowy). Dzięki utworzeniu kont syntetycznych możemy natychmiast ustalić stan gotówki w walutach, ten sam stan przeliczony na złote według aktualnego kursu, sumaryczną gotówkę w kasach złotowych 1 i 2 i łączną wartość pieniędzy w kasach. Przykład 4.4 ukazuje, że ustawienie prawidłowego planu kont rzutuje na wynik całego systemu rachunkowości oraz syntezę informacji, co powoduje, że w zarządzaniu finansami ten aspekt jest jednym z kluczowych zagadnień. Prezesi oraz dyrektorzy organizacji sporządzających bilans powinni dokładnie zrozumieć tą kwestię zanim podpiszą dokument „Zakładowy plan kont”. Oto kilka ważnych aspektów mających zastosowanie przy konstrukcji planu kont. Gofin.pl, „Wzorcowy wykaz kont”, http://www.vademecumksiegowego.pl/artykul_narzedziowa,596,0,7771,wzorcowy-wykaz-kont.html 364 304 Ustalić z zarządem, jakie przekroje danych finansowych będą wymagane przez kontroling. W szczególności dotyczy to układu kosztów i sposobów ich księgowania. Ustalić jakie raporty finansowe będą wymagane przez kontroling operacyjny, np. kontrola płatności, kontrola dokumentów niezapłaconych, wiekowanie należności. Ustalić jakiego rodzaju deklaracje podatkowe oraz sprawozdania obowiązkowe GUS muszą być generowane przez rachunkowość. Ustalić strukturę skonsolidowanego raportu finansowego organizacji i ustalić, jak z bazy danych planu kont można go wykonać. Ustalić, które dane z ksiąg pomocniczych będą uzgadniane miesięcznie i jakie raporty szczegółowe oraz na jakich kontach będą porównywane. Ustalić, jak z planu kont otrzymać wymagane ustawą o rachunkowości sprawozdania: bilans, rachunek zysków i strat oraz przepływy finansowe. Przyjąć optymalny poziom analityki, umożliwiający uzyskanie wszystkich przekrojów informacyjnych (np. kosztów według miejsc powstawania z podziałem na rodzaje lub przypisane do projektu). Ustalić konta pozabilansowe dla prowadzenia tzw. księgowań „przelotowych”, które po określonym czasie zostaną przeksięgowane (np. produkcja w toku albo rozliczenie inwestycji). Obiegi dokumentów Obieg dokumentów oraz informacji jest to jedna z najważniejszych kwestii zarządzania strukturą organizacji, zwłaszcza budowania jej formalnej reprezentacji opartej na mapie procesów. Na rys. 2.8 przedstawiono sposób dokumentowania procesu ewidencjonowania faktury zakupu. Można zauważyć, że jest to złożony, logicznie powiązany ze sobą ciąg różnorodnych działań przygotowawczych, dotyczący kilku stanowisk struktury organizacji, zanim nastąpi finał w postaci dekretacji dokumentu w systemie FK. Jeżeli w organizacji istnieje mapa procesów, będąca elementem jej białej księgi, to kolejnym etapem modelowania są mapy obiegu dokumentów i informacji księgowej. Mamy dwa sprzężone ze sobą obiegi: fizyczny obieg dokumentu między stanowiskami struktury organizacyjnej, logiczny obieg dokumentu w strukturze systemu IT lub wymiany informacji, W tym pierwszym przypadku grupa pracowników dokonuje kolejnych czynności związanych z merytorycznym opisem procesu (np. wystawia dokument, zatwierdza dokument, dodaje elementy formalne do dokumentu, przekazuje go na inne stanowisko, wystawia dokument komplementarny, np. WZ do FA, przekazuje do archiwum). Ślady tych działań odnotowywane są na dokumencie w formie kolejnych podpisów, pieczątek, wydruków, etc. Ma to również swoje odzwierciedlenie w systemie IT wspomagającym zarządzanie. 305 Rys. 4.21 Powiązanie informacji w systemie rachunkowości na przykładzie FA. W drugim przypadku, mamy do czynienia wyłącznie z numeryczną reprezentacją dokumentu w formie elektronicznej. Obieg informacji następuję pomiędzy kolejnymi stanowiskami komputerowymi, gdzie dodawane są znaczniki wykonania określonej czynności oraz bazami buforowymi danych, pozwalającymi na użycie raz wprowadzonych informacji w dowolnym, innym miejscu systemu zintegrowanego IT. Jednocześnie dokonuje się na tym poziomie agregacja pewnych danych w logiczne struktury formularzy lub raportów, które umożliwiają generowanie informacji pochodnych (np. deklaracje, sprawozdania, raporty). Oba obiegi generują mapy, które stanowią element polityki rachunkowości, dokumentując logikę działania rachunkowości i jej satelitów (ksiąg pomocniczych). Finalną czynnością związaną z obiegiem dokumentów jest ich rejestr w systemie finansowo-księgowym i dekretacja na kontach planu kont. Wówczas można wykonywać dalsze przetwarzanie na użyteczne przekroje informacyjne. Struktura informacji w rejestrze musi odpowiadać wymogom ustawy o rachunkowości, albowiem stanowi to materiał dowodowy w naliczaniu podatków. W praktyce do opisania danego zdarzenia biznesowego zwykle nie wystarcza jeden dokument, ale pewna ich grupa logicznie ze sobą powiązana. W przypadku sprzedaży dokumentowanej fakturą FA, może to być dokument sprzężony WZ wydania towaru z magazynu oraz KP - kasa przyjmie, jako dowód wpłaty gotówki za fakturę. Stąd w rejestrze dokumentów zaksięgowanych pojawią się trzy powiązane 306 ze sobą logicznie wpisy. Każdy z nich jest związany z odpowiednim rozksięgowaniem na planie kont. Przykład wymiany informacji pomiędzy programem fakturowania a finansowo księgowym pokazano na rys. 4.21. W projektowaniu systemu rachunkowości zdefiniowanie takich powiązań między dokumentami oraz procesami biznesowymi stanowi fundament późniejszej efektywności działania całej księgowości oraz kontrolingu. Polityka rachunkowości Kompletnym projektem (białą księgą) rachunkowości jest dokument o nazwie polityka rachunkowości. Zgodnie z Art. 10 ustawy o rachunkowości, organizacja sporządzająca bilans powinna wyznaczyć zasady, według których prowadzona będzie rachunkowość. W szczególności należy określić: 1. rok obrotowy i wchodzące w jego skład okresy sprawozdawcze, albowiem nie musi to być okres od stycznia do grudnia. 2. metody wyceny aktywów i pasywów oraz sposób ustalania wyniku finansowego (ustawa dopuszcza wariant kalkulacyjny lub porównawczy) a także przepływów pieniężnych (wariant bezpośredni lub wariant pośredni)365, 3. sposobu prowadzenia ksiąg rachunkowych, w tym co najmniej: zakładowy planu kont, ustalający wykaz kont księgi głównej, przyjęte zasady klasyfikacji zdarzeń (rodzaje dokumentów i ich powiązania), zasady prowadzenia kont ksiąg pomocniczych (moduły generujące dokumenty źródłowe) oraz ich powiązania z kontami księgi głównej (bufory wymiany danych, rys. 4.20 i rys. 4.21); wykazu ksiąg rachunkowych, a przy prowadzeniu ksiąg rachunkowych przy użyciu komputera – wykazu zbiorów danych tworzących księgi rachunkowe na informatycznych nośnikach danych z określeniem ich struktury, wzajemnych powiązań oraz ich funkcji w organizacji całości ksiąg rachunkowych i w procesach przetwarzania danych; opisu systemu przetwarzania danych, a przy prowadzeniu ksiąg rachunkowych przy użyciu komputera – opisu systemu informatycznego, zawierającego wykaz programów, procedur lub funkcji, w zależności od struktury oprogramowania, wraz z opisem algorytmów i parametrów oraz programowych zasad ochrony danych, w tym w szczególności metod zabezpieczenia dostępu do danych i systemu ich przetwarzania, a ponadto określenie wersji oprogramowania i daty rozpoczęcia jego eksploatacji. 4. systemu służącego ochronie danych i ich zbiorów, w tym dowodów księgowych, ksiąg rachunkowych i innych dokumentów stanowiących podstawę dokonanych w nich zapisów. Gofin.pl, „Serwis głównego księgowego. Przykład nr 1 - Rachunek przepływów pieniężnych w jednostce innej niż bank i zakład ubezpieczeń”, http://www.sgk.gofin.pl/11,2384,127306,przyklad-nr-1-rachunek-przeplywow-pienieznych-w-jednostce.html 365 307 Polityka rachunkowości stanowi najważniejszy element projektu reprezentacji formalnej organizacji, co z punktu widzenia zarządzania ma kluczowe znaczenie, bo wymusza zaistnienie dokumentu opisującego model konceptualny działania. Ze strukturą księgi głównej i ksiąg pomocniczych wiąże się mniej lub bardziej skomplikowany systemem wymiany informacji366. Nie jest bowiem zapisane w ustawie, że wszystkie informacje muszą pochodzić z jednej bazy danych w systemie finansowo-księgowym. Nie ma sensu transferować osobno wszystkich, rozliczonych faktur sprzedaży z modułu sprzedaży hurtowni do systemu FK oraz paragonów ze sprzedaży detalicznej, a jedynie zbiorczą informację o sprzedaży dziennej. Nie ma sensu wpisywać wszystkich składników list płac szczegółowo do FK, a jedynie przekazać rozdzielnik płac, pozostawiając źródłowe dane w księdze pomocniczej kadr-płac. Podobnie nie ma sensu transferować danych o amortyzacji każdego składnika majątku trwałego, a jedynie rozdzielnik amortyzacji przygotowany przez moduł środki trwałe, będący księgą pomocniczą. Ale to oznacza, że w systemie rachunkowości muszą pojawić się takie moduły, realizujące zadania ksiąg pomocniczych wraz z właściwymi sobie bazami danych. Wiąże się z tym odpowiednia organizacja dostępu do informacji źródłowej, organizacja agregacji i transferu danych oraz zdefiniowanie sposobów dekretacji zbiorczych raportów typu: raport kasowy, wyciąg bankowy, raport sprzedaży paragonowej, itp. Zyskiem z takiego postępowania jest przejrzystość informacyjna, lepsze przekroje analityczne danych i większa wydajność działania rachunkowości, przy znacznym ograniczeniu liczby kont w planie kont księgi głównej. Dobra polityka rachunkowości stanowi jej białą księgę i pozwala na sformułowanie jednoznacznych modeli semantycznych dla raportów, deklaracji oraz sprawozdań finansowych, nadających się do wyrażenia w językach formalnych. Księgą główną jest baza danych dokumentów zaksięgowanych w formie rejestru uporządkowanego w kolejności zdarzeń, zgodnie z regułami sztuki. Zgodnie z Art. 17 ustawy o rachunkowości konta ksiąg pomocniczych prowadzi się w szczególności dla: 1. środków trwałych, w tym także środków trwałych w budowie, wartości niematerialnych i prawnych oraz dokonywanych od nich odpisów amortyzacyjnych lub umorzeniowych, 2. rozrachunków z kontrahentami, 3. rozrachunków z pracownikami, a w szczególności jako imienną ewidencję wynagrodzeń pracowników zapewniającą uzyskanie informacji, z całego okresu zatrudnienia, 4. operacji sprzedaży (kolejno numerowane własne faktury i inne dowody, ze szczegółowością niezbędną do celów podatkowych), 366 Gospodarek T., Systemy ERP…”, op. cit. str. 91 308 5. operacji zakupu (obce faktury i inne dowody, ze szczegółowością niezbędną do wyceny składników aktywów i do celów podatkowych), 6. kosztów i istotnych dla jednostki składników aktywów, 7. operacji gotówkowych w przypadku prowadzenia kasy. Rys. 4.22 Struktura polityki rachunkowości 309 Przykładem przeciwnej konfiguracji ksiąg rachunkowych jest system rachunkowości stosowany w koncesjach Mercedes Benz w Polsce, gdzie ze względów sprawozdawczości korporacyjnej (kwartalne raporty kontrolingowe GBMS), całość informacji musi pochodzić z księgi głównej systemu FK. Wymagane w tym celu przekroje informacyjne przychodów i kosztów wykreowały plan kont, który ma ponad 10 000 pozycji z analityką piątego stopnia włącznie. Nie da się na tym pracować ręcznie bez dobrego systemu automatycznej dekretacji, a systemy wspomagające zarządzanie muszą być bardzo precyzyjnie ustawione pod kątem wymiany danych źródłowych i zawierać szereg mechanizmów kontroli spójności oraz rzetelności informacji. Metody wyceny i rozchodu zapasów stanowią kolejne zagadnienie polityki rachunkowości, która powinna określić w jaki sposób dokonywana jest wycena i rozchód materiałów i towarów. Ustawa wyróżnia w tej kwestii trzy metody: FIFO (pierwsze przyszło, pierwsze wyszło) - rozchód danego składnika aktywów wycenia się kolejno po cenach (kosztach) tych składników aktywów, które zostały najwcześniej nabyte (wytworzone), LIFO (ostatnie przyszło, pierwsze wyszło) - rozchód składników aktywów wycenia się kolejno po cenach (kosztach) tych składników aktywów, które zostały najpóźniej nabyte (wytworzone), średnia ważona - po każdym przychodzie danego składnika – dokonywane jest sumowanie wartości jego zapasu i dzielone przez stan ilościowy danego składnika w magazynie, po czym tak uśredniona cena przypisywana jest każdemu z pozostałych na danej karcie magazynowej składnika. szczegółowa identyfikacja cen (kosztów) tych składników aktywów, które dotyczą ściśle określonych przedsięwzięć, niezależnie od daty ich zakupu lub wytworzenia. Ze względów organizacyjnych systemów zintegrowanych najlepiej jest stosować metodę FIFO, albowiem średnia ważona wprowadza chaos w układzie wielomagazynowym przy występowaniu dokumentów przesunięć oraz wydań na produkcję i zwrotów. W takim przypadku uzgodnienie miesięczne, kwotowe zapasu magazynowego w księdze głównej, wymaga korygowania protokołami różnic cen (wystąpią odchylenia). Koszty działalności operacyjnej są ważnym aspektem polityki rachunkowości, albowiem odpowiednie przekroje w zespołach kont 4 oraz 5. Sposób rejestracji kosztów. Musi on zapewnić wykonanie raportów, rozliczeń, sprawozdań i deklaracji. Jest to związane z przekrojami informacyjnymi, pożądanymi przez zarządzających. Równocześnie prawidłowa informacja o kosztach wytworzenia jest potrzebna działom sprzedaży, w celu prowadzenia negocjacji cenowych. Stąd w polityce rachunkowości należy określić przekroje informacyjne kosztów. Wartość rozchodu walut obcych z rachunku bankowego wymaga również określenia, po jakim przeliczniku będziemy tego dokonywać ze względu na powstające 310 różnice kursowe, które należy zaksięgować. Traktuje o tym Art. 30 ust. 2 ustawy o rachunkowości. Kurs waluty może być: faktycznie zastosowanym w dniu wynikającym z charakteru operacji, średnim, ogłoszonym dla danej waluty przez Narodowy Bank Polski z dnia poprzedzającego ten dzień. W przypadku otrzymania wpłaty na rachunek walutowy w walucie obcej nie można mówić o kursie faktycznie zastosowanym, gdyż nie dochodzi do faktycznej wymiany waluty. Z tego względu do wyceny wpływu należności na rachunek walutowy przyjmuje się kurs średni NBP z dnia poprzedzającego otrzymanie należności. Podobnie jest w przypadku rozchodów środków pieniężnych w walutach obcych. Raporty skonsolidowane, otrzymywane z systemu finansowo-księgowego w postaci złożonych informacji, pochodzących z różnych ksiąg (ilość sprzedaży, wartość, koszt własny, prowizje wypłacone, opcje udzielone, koszty negocjacji), których nie da się uzyskać bezpośrednio z księgi głównej ani z rejestrów dokumentów. Konieczne jest przedstawienie sposobu pozyskania takich danych i ustalenia algorytmu obliczeń oraz sposobu weryfikacji poprawności. Wykaz wskaźników, które mogą być pożądane przez zarząd opisano w rozdziale 4.9 i podrozdziałach dotyczących kontrolingu. Plan dekretów. Obok ręcznego księgowania, większość rachunkowości jest wspomagana programami finansowo-księgowymi lub zintegrowanymi systemami klasy ERP. Wówczas księgowanie może odbywać się automatycznie, wykorzystując kompletnie zdefiniowane szablony rozksięgowań (rys. 4.21). Dotyczy to zwłaszcza zaimportowanych danych z zewnętrznych źródeł lub ksiąg pomocniczych, np. banku (wyciągi bankowe w formie elektronicznej), programów fakturowania, magazynowych lub przesyłanych elektroniczne rozproszonych danych z oddziałów organizacji w celu ich konsolidacji w księdze głównej. Mechanizmy kontrolne danych. Jest oczywistym, że jeżeli dane źródłowe pozostają w jednej bazie księgi pomocniczej, a do księgi głównej trafiają dane przetworzone, muszą istnieć sposoby uzgodnienia salda w obu bazach. To jest zadaniem dla kontrolerów finansowych. Z praktyki księgowej wynika, że takie mechanizmy kontrolne dotyczą przede wszystkim: wyszukiwania księgowań nie bilansujących się (o ile takie zaistniały), zgodności zapisów w rejestrze z zapisami na kontach księgowych, stanów magazynowe w księdze pomocniczej i księdze głównej, braku możliwości zaksięgowania niekompletnego dokumentu, identyfikacji kogokolwiek dokonującego wpis do księgi głównej, kontroli kompletności i spójności baz danych od strony technologicznej, kontroli zgodności pozycji raportów z danymi źródłowymi, kontroli zamknięcia miesiąca i roku, kontroli księgowań wielokrotnych. 311 Utworzenie polityki rachunkowości pozwala na podjęcie próby wdrożenia zintegrowanego systemu IT, wspomagającego działanie rachunkowości. Istnieje na rynku bardzo wiele systemów finansowo-księgowych, które muszą prowadzić do uzyskania informacji zgodnych z ustawą o rachunkowości, zgodnie z jej postanowieniami. Ich wybór lub ocena funkcjonalności jest jednym z ważnych zadań zarządzania. Dokonuje się tego metodą wielokryterialną, gdzie poszczególne kryteria powinny wynikać z mapy procesów organizacji. Te zagadnienia opisałem szerzej w książce „Systemy ERP. Modelowanie, projektowanie, wdrażanie”, do której odsyłam zainteresowanych tematem. 4.7.4 Hedging Hedging jest jednym z bardziej interesujących zagadnień zarządzania finansami. Wykorzystuje zarówno zarządzanie ryzykiem, jak i kreowaniem oraz wprowadzaniem instrumentów pochodnych do systemów finansowych. Zmienia przepływy finansowe na bardziej przewidywalne w czasie. Hedging wykorzystuje narzędzia finansowe nazywane instrumentami pochodnymi. Są to kontrakty terminowe, różnego rodzaju opcje i swapy. Stanowi przykład działania reguły przekory oraz działania buforującego zmienność wartości instrumentów bazowych w czasie, takich jak: akcje, waluty, ceny surowców, itp. poprzez dobranie instrumentu pochodnego o przeciwnie skorelowanym trendzie czasowym. Tam gdzie mamy do czynienia z dużą skalą działania, znaczną konkurencją, niskimi marżami z działalności oraz ekspozycją na ryzyko zmian cen, tam może mieć zastosowanie hedging. Dlatego stosują go zarówno duże linie lotnicze, energetyka, fabryki przetwarzające surowce, dla których ryzyka finansowe mają strukturę złożoną, jak i mniejsze przedsiębiorstwa zajmujące się eksportem i importem, gdzie działalność wiąże się przede wszystkim z ciągłym ryzykiem kursowym. Producent jabłek może najprościej zabezpieczyć się przed spadkiem cen rynkowych, zawierając kontrakt terminowy z ceną określoną tu i teraz, obowiązującą w dniu wykonania dostawy za kilka miesięcy (a czasami na rok lub dwa z góry). Jeżeli cena spadnie w sposób istotny w relacji do ceny w dniu zawarcia kontraktu, to jabłka zostaną sprzedane po wyższej cenie, ustalonej w zawartym kontrakcie. Gdy cena jabłek na rynku w dniu dostawy będzie wyższa niż zapisana w kontrakcie, to wprawdzie sprzeda się je relatywnie taniej, ale i tak osiągnięty zostanie zysk wynikający z kalkulacji w dniu zawieraniu kontraktu. Kontrakt taki można przed realizacją sprzedać stronie trzeciej (pośrednikowi lub spekulantowi) za cenę różną, niż w nim to zapisano. Staje się on wówczas instrumentem pochodnym, w stosunku do przyobiecanej dostawy jabłek (wartościowego aktywa), na którym nabywca może zyskać lub stracić. W ten sposób powstał rynek instrumentów finansowych i giełdy obracające kontraktami terminowymi, podobnie jak giełdy walutowe, giełdy akcji i giełdy towarowe. 312 Już ten przykład pokazuje, że istnienie instrumentów finansowych pozostających w relacji do innych, generuje nowe możliwości działania i całkowicie zmienia sens funkcjonalności rynków pieniężnych, opartych na twardych zasadach (np. Bitcoin o skończonej liczbie jednostek monetarnych, waluty oparte na parytecie złota, itp.). Instrumenty pochodne stanowią surogaty pieniądza. Wprowadzają do rzeczywistych systemów monetarnych wartość całkowicie wirtualną. W zamian za poczucie bezpieczeństwa (a nawet jakąś tam gwarancję), klient płaci realnym pieniądzem nabywając instrument pochodny. Ponieważ ewentualne wykonanie opcji jest zwykle mniej prawdopodobne, niż jej niewykonanie, to powoduje, że wygasa ona bez żadnych skutków w terminie zapadalności. Jej wystawca zyskuje pieniądz ściągnięty z rynku, podobnie jak bank udzielający kredytu z częściowym pokryciem. Reszta jest jedynie wiarą w rynek i jego mechanizmy. Zagadnienia hedgingu należy rozpatrywać z pozycji sześciu podmiotów uczestniczących w rynku. Tego który posiada instrument bazowy – jakieś wartościowe aktywa, (np. pakiet akcji firmy X, taczkę złota) i jest zainteresowany zawarciem kontraktu na ich sprzedaż w ustalonej przyszłości po cenie ustalonej w teraźniejszości (tzw. pozycja krótka w kontrakcie). Tego, który chciałby zakupić instrument bazowy (aktywa lub towary) po ustalonej tu i teraz cenie od ich posiadacza lub pośrednika, z dostawą w ustalonej przyszłości, w ramach kontraktu (tzw. pozycja długa). Wystawcy derywatu, który może wystawić instrumenty finansowe pochodne (np. opcje lub kontrakty futures) do instrumentu bazowego, zabezpieczające w określony sposób transakcję kupna-sprzedaży w przyszłości (pozycja krótka). Nabywcy instrumentu pochodnego wyłącznie w celach zabezpieczenia kontraktu bazowego w przyszłości, od wystawcy opcji lub swapu (pozycja długa). Tego, który może uczestniczyć w pośredniczeniu obrotem instrumentami pochodnymi (bank, giełda, fundusz hedgingowy). Tego, który kupuje lub sprzedaje istniejące już na rynku instrumenty pochodne po cenach dnia w celach osiągnięcia zysku (fundusz hedgingowy, spekulant). To, co jest wspólne dla wszystkich podmiotów uczestniczących w przedmiotowych procedurach, to umiejętność zastosowania właściwych instrumentów pochodnych, wyliczenie ich wartości transakcyjnej oraz prawidłowe odgadnięcie trendu zmian cen rynkowych dla instrumentu bazowego w czasie (zabezpieczany jest kontrakt). Od tego zależy skuteczność zabezpieczenia oraz potencjalne koszty z tym związane. 313 Przykład 4.5 Afera z opcjami walutowymi O tym, że można bardzo źle dobrać instrumenty pochodne niech świadczy polska afera z opcjami na kursy walut z lat 2008-2009367. Jej bohaterami były banki oferujące niedouczonym menedżerom firm-eksporterów opcje zabezpieczające przed dalszym wzrostem kursu złotego w stosunku do USD i EUR. Niestety trend rynkowy poszedł nie w tym kierunku. Nastąpiło załamanie kursu złotego i opcje wykonano po niekorzystnym kursie wymiany. Zarobili spekulanci, a straciły rzetelne firmy tyle, że niektóre z nich nawet zbankrutowały. Dla przykładu Sanwil z Lublina stracił 12 mln zł na opcjach368. Żeby można było kontynuować kwestie stosowania hedgingu należy przedstawić instrumenty finansowe369 służące jako jego narzędzia. Instrumenty bazowe – są to aktywa lub dobra podlegające transakcjom handlowym w formie kontraktów (umów) o czasie dostawy późniejszym niż moment wyceny ich wartości. Przykładami mogą być: nieruchomości, waluty, akcje, towary, surowce, energia, itp. Instrumenty pochodne – są to zobowiązania relacyjne w stosunku do instrumentów bazowych, niebędące papierem wartościowym, stanowiące gwarancje wykonania kontraktu zmiany właności instrumentu bazowego, zachowania ustalonej ceny transakcyjnej w określonym czasie. Ich wartość jest uzależniona od wartości instrumentu bazowego. Instrumenty pochodne zawsze stanowią kontrakty między dwoma stronami. Klasyfikacja instrumentów pochodnych wynika z trzech aspektów: relacji między stronami kontraktu – instrumenty symetryczne (kontrakty terminowe i swap) oraz asymetryczne (opcje, gdzie jedna strona nabywa prawa, a druga przyjmuje zobowiązanie), miejsca obrotu – instrumenty giełdowe (futures, opcje) oraz pozagiełdowe (opcje OTC, kontrakty forward oraz kontrakty swap). relacji do instrumentu bazowego – instrumenty pochodne akcyjne (np. opcje na akcje), instrumenty na indeksy (np. swap na WIG 20), walutowe (np. opcje na kursy walut), na stopy procentowe (np. kontrakt FRA na obligacje skarbowe). Kontrakty terminowe Kontrakt terminowy stanowi zobowiązanie dwóch stron do przeniesienia własności pewnej ilości aktywa (intrumentu bazowego) za określoną cenę w teraźniejszości w ustalonym terminie w przyszłości. Charakteryzuje się on wartością reali- Newsweek, „KNF wiedziała co się święci”, 17.03.2009, http://www.newsweek.pl/newsweek-exclusive/knf-wiedziala-co-sie-swieci,37482,1,1.htm l 368 Wikipedia, „Kryzys opcji walutowych w Polsce”, https://pl.wikipedia.org/wiki/Kryzys_opcji_walutowych_w_Polsce 369 Jajuga K., „Instrumenty pochodne”, Komisja Nadzoru Finanowego, Warzawa, 2009, http://www.knf.gov.pl/Images/Instrumenty%20pochodne_tcm75-17587.pdf 367 314 zacji (ceną dostawy, wykonania, ceną kontraktu), ilością i rodzajem dóbr podlegających transakcji oraz terminem wygaśnięcia (terminem realizacji lub dostawy). Jest to instrument pochodny symetryczny, w którym obie strony przyjmują na siebie zobowiązania. Kupujący kontrakt (pozycja długa) zobowiązuje się do zakupienia w przyszłości przedmiotu umowy, a sprzedający kontrakt (pozycja krótka) zobowiązuje się go sprzedać na określonych warunkach. W praktyce gospodarczej występują dwa rodzaje kontraktów terminowych jako osobnych przedmiotów w obrocie (instrumenty pochodne): forward i futures. Kontrakty futures W kontrakcie futures na coś, inwestor zajmuje pozycję długą lub krótką (zależnie od przewidywanego trendu cenowego dla aktywa bazowego) wobec giełdy albo izby rozliczeniowej - pośrednika gwarantującego wykonanie kontraktu. Przy tym wnoszone są natychmiast depozyty na rachunek maklerski, co jest gwarancją wykonania kontraktu. Kontrakty futures są standaryzowane, tzn. terminy wykonania (4 w ciągu roku), instrumenty bazowe (np. pakiety aktywów), wielkości kontraktów są z góry ustalone. Dzięki temu negocjowana jest wyłącznie cena. Zajmując pozycję długą (kupując kontrakt) można stać się właścicielem aktywa bazowego taniej, gdy spodziewamy się, że jego cena na rynku kasowym będzie wyższa niż określona w kontrakcie w dniu jego realizacji. Odwrotnie, zajmując pozycję krótką (sprzedając kontrakt) można uniknąć straty, gdy cena aktywa bazowego będzie niższa niż w kontrakcie. Cena futures dąży do ceny natychmiastowej (tej na rynku kasowym) wraz ze skracaniem się czasu do terminu realizacji kontraktu. W przypadku kontraktów terminowych futures stosowana jest procedura codziennego rozliczania „marking to market”. Składa się na nią trzy elementy: w chwili zawarcia transakcji (otwarcia pozycji) obie strony, wpłacają na swoje rachunki inwestycyjne depozyty, stanowiące ułamek wartości kontraktu na aktywo bazowe; na koniec dnia rozliczeniowego salda rachunków obu stron są korygowane w zależności od zmiany ceny kontraktu bazowego, jeżeli jego cena: wzrosła - wówczas powiększane jest saldo strony długiej, a pomniejszane saldo strony krótkiej; spadła - wówczas powiększane jest saldo strony krótkiej, a pomniejszane saldo strony długiej; kiedy saldo którejkolwiek ze stron kontraktu futures spadnie poniżej pewnego dopuszczalnego poziomu (z góry ustalanego), wówczas ta strona musi je uzupełnić, dopłacając na konto odpowiednią kwotę. 315 Przykład 4.6 Kontrakt futures na WIG 20 Zakładamy się, że za trzy miesiące indeks WIG 20 będzie wynosić X. Przyjmujemy zobowiązanie wobec innego spekulanta, który twierdzi, że tak nie będzie. Zawieramy kontrakt na następujących zasadach, jeśli w dniu rozliczenia: wartość WIG20 jest niższa niż X, to strona długa płaci stronie krótkiej kwotę równą 10*(X – wartość WIG20); stanie się odwrotnie, tzn WIG20 będzie więkzy niż X, to strona krótka płaci stronie długiej kwotę równą 10*(wartość WIG20 – X), WIG20 = X to nikt, nikomu nie płaci. W przykładzie powyższym mamy zatem czystą postać gry dwuosobowej o sumie zero. Tak definiowane kontrakty futures są przykładem ryzyka hazardowego i w normalnym biznesie nie należy ich stosować. Warto prześledzić przykład scenariuszowy what if dla operacji na kontraktach terminowych typu futures. Przykład 4.7 Scenariusz dla futures Mamy cenę miedzi 6000$ za tonę na LME. Mamy również kontrakt futures na zakup 30 ton miedzi w cenie 185 000$. Podmiot X kupuje 30 ton miedzi po cenie LME, a podmiot Y kupuje futures wpłacając depozyt 10% wartości kontraktu sprzedaży 30 ton miedzi z dostawą za miesiąc (18 000$). Rozważmy teraz dwa scenariusze: I – cena miedzi za mieiąc wynosić będzie 6500$ za tonę II – cena miedzi za miesiąc wynosić będzie 5500$ za tonę Oczywistym jest, że cena kontraktu będzie odpowiadać cenie rynkowej, ponieważ jest on rozliczany po cenie obowiązującej w tym dniu. Oznacza to, że I - Podmiot Y uzyska [30*(6 500 – 6 000)] – [(185 000 – 180 000)] = 10 000$; II – Podmiot Y straci [30*(6 000 – 5 500)] – [(185 000 – 180 000)] = 20 000$ Dla podmiotu X scenariusze mają postać I – Podmiot X straci 30*(6 500 – 6 000) = 15 000$ II – Podmiot X zyska 30*(6 000 – 5 500) = 15 000$ Stopa zwrotu z kontraktu (zysk 10 000$ przy inwestycja 18 000$) wynosi 55,6%, ale w przypadku scenariusza pesymistycznego jest to -112% (więcej niż zainwestowano). Zarządzając hedgingiem należy mieć na uwadze, że zarobek na kontraktach terminowych futures może wydać się bardzo interesującym dodatkiem do zysków z działalności podstawowej, ale ewentualna wpadka jest zawsze bardziej kosztowna. Dlatego w hedgingu ten rodzaj derywatów nie ma większego znaczenia. W wycenach kontraktów terminowych stosuje się następującą zależność: Ft F0 exp( r t ) (4.14) gdzie Ft jest ceną terminową kontraktu dla bieżącej wartości aktywa F0 przy danej stopie procentowej, wolnej od ryzyka, w stosunku rocznym r i czasie pozostałym wyganięcia kontraktu w latach t, a współczynnik odpowiada za ograniczenie od 316 góry lub od dołu wartości kontraktu w czasie. Jak łatwo zauważyć, wartość dąży do początkowej w chwili t = 0 (wykonania kontraktu) przy = 0. Kontrakty forward W kontrakcie forward mamy do czynienia z pozagiełdowym gwarantem wykonania kontraktu (np. bank lub fundusz) ustalonego między stronami, przy czym ustalana jest osobno cena kupna (bid) oraz cena sprzedaży (ask) przez porednika. W momencie jego zawarcia żadna ze stron nie płaci. Po rozliczeniu kontraktu różnicę (ask – bid) skasuje pośrednik lub gwarant. Najczęściej stosowane są kontrakty forward na waluty oraz na stopy procentowe (kontrakty Forward Rate Agreement FRA np. na WIBOR lub LIBOR). Transakcje forward nie są standaryzowane, jak ma to miejce w przypadku futures. Tym samym warunki kontraktu są negocjowane w każdym aspekcie. Sposób realizacji również. Opcje Obok kontraktów terminowych opcje stanowią podstawowy instrument pochodny o niesymetrycznym profilu wypłaty oraz charakterystyce asymetrycznej relacji między kontrahentami, gdzie jeden z nich ma prawo, a drugi pozostaje zobowiązany. Wiąże się to z faktem, że opcja daje prawo do zakupu (lub przedaży) instrumentu bazowego w ustalonym terminie zwanym terminem wykonania opcji po cenie ustalonej, zwanej ceną wykonania opcji. Opcja może być kontraktem na nieregulowanym rynku OTC albo przedmiotem obrotu na giełdzie. Mamy dwa podstawowe rodzaje opcji: kupna (call) oraz sprzedaży (put). Pierwsza z nich jest prawem do zakupu, druga prawem do sprzedaży. W obu przypadkach muszą zostać określone trzy parametry: ilość instrumentu bazowego objętego transakcją zmieny własności, cena wykonania kontraktu (cena realizacji), termin wygaśnięcia, po upływie którego prawo gwarantowane opcją traci ważność będący równocześnie terminem do którego można kupić lub sprzedać intrument bazowy (wykonać opcję). Termin wykonania opcji generuje kolejne dwa rodzaje instrumentów zarówno put jak i call: opcja europejska, dla której prawo wykonania zapada w określonym terminie, opcja amerykańska, która może być wykonana w dowolnym terminie do momentu wygaśnięcia opcji. Warto wpomnieć również o opcjach egzotycznych370, gdzie wypłata zależy od wartości instrumentu bazowego w sposób złożony (np. opcje azjatyckie), wypłata może zależeć od kilku indeksów cen, a cena wykonania może być realizowana w innej walucie niż cena instrumentu bazowego po z góry ustalonym kursie (opcje quanto). Napiórkowski A., „Charakterystyka, wycena i zastosowanie wybranych opcji egzotycznych”, NBP Materiały i studia, Warszawa, 2001, http://www.nbp.pl/publikacje/materialy_i_studia/136.pdf 370 317 Szczególnym przypadkiem opcji egzotycznych są opcje binarne371 - specjalnie skonstruowane derywaty dla spekulantów – hazardzistów. Aktualnie są one wykorzystywane do naciągania klientów w Internecie. W kontrakcie opcyjnym występują dwie strony: wystawca opcji (option writter) oraz posiadacz opcji (nabywca – option holder). Ponieważ sytuacja wystawcy i posiadacza w kontrakcie jest nierówna, to za prawo, które gwarantuje opcja, nabywca (posiadacz) płaci sprzedającemu (wystawcy) premię opcyjną. Innymi słowy opcja kosztuje określoną cenę. Ponieważ opcja jest prawem, a nie obowiązkiem, nie musi ona zostać wykonana (wówczas jej wystawca zarobił). W praktyce giełd towarowych, ok. 80% opcji nie zostaje wykonanych! Działanie opcji można przedstawić następująco: dla opcji kupna (call) jej posiadacz ma prawo kupić instrument bazowy (np. akcje spółki X po ustalonym kursie), a wystawca opcji zobowiązał się do jego sprzedania. Tym samym nabył praw do uzyskania w określonym terminie kwoty pieniężnej, która zależy od różnicy między wartością kasową intrumentu bazowego a ceną wykonania kontraktu (sytuację wypłaty przedstawiono na rys. 4.23A opcja call w pozycji short z ceną wykonania K2 oraz opcja call w pozycji long z ceną wykonania K1); dla opcji sprzedaży (put) jej posiadacz ma prawo sprzedać instrument bazowy (np. dolary po ustalonej cenie), a wystawca opcji zobowiązał się do jego zakupu. Tym samym nabył praw do uzyskania w określonym terminie kwoty pieniężnej, która zależy od różnicy między a ceną wykonania kontraktu, a wartością kasową intrumentu bazowego (sytuację wypłaty przedstawiono na rys. 4.23B opcja put w pozycji short z ceną wykonania K1 oraz opcja put w pozycji long z ceną wykonania K2). Z konstrukcji opcji wynikają reguły wykonania: Opcja kupna (call) zostanie wykonana, jeżeli cena kasowa intrumentu bazowego, na który wystawiono opcję, jest wyższa niż cena wykonania. Opcja sprzedaży (put) zostanie wykonana, jeżeli cena kasowa intrumentu bazowego, na który wystawiono opcję, jest niższa niż cena wykonania. Można to sprowadzić do reguł przyjmowania pozycji opcyjnych. Mamy cztery warianty: pozycja długa dla opcji call albo pozycja długa dla opcji put, albo pozycja krótka dla opcji call albo pozycja krótka dla opcji put. Pozycja długa (nabycie opcji call) – jest uzasadnione, jeżeli spodziewamy się wzrostu cen instrumentu bazowego i stanowi zabezpieczenie się przed jego wzrostem w zamian za premię opcyjną zapłaconą z góry jej wystawcy. Gdyby cena rynkowa w terminie wykonania spadła zbyt mocno, posiadacz opcji poniesie stratę, ale tylko w wysokości premii opcyjnej, którą zapłacił (opcja po prostu nie zostanie wykonana). Natomiast przy wzroście ceny instrumentu bazowego, 371 Wikipedia, „Opcja binarna”, https://pl.wikipedia.org/wiki/Opcja_binarna 318 może wystąpić teoretycznie nieograniczony zysk dla pozycji długiej (opcja zostanie wykonana po cenie kontraktu niższej niż kasowa). Wykonawca opcji przejmie wówczas kontrakt i sprzeda towar na rynku po wyższej cenie rynkowej, zyskując różnicę pomiędzy ceną kasową aktywa bazowego kontraktu, a ceną wykonania opcji, pomniejszoną dodatkowo o premię zapłaconą wystawcy opcji. Pozycja długa (nabycie opcji put) – jest uzasadnione, jeżeli spodziewamy się spadku cen instrumentu bazowego i służy zabezpieczeniu się przed taką ewentualnością za cenę premii opcyjnej. Gdyby cena rynkowa w terminie wykonania wzrosła zbyt mocno, posiadacz opcji poniesie stratę, ale tylko w wysokości premii opcyjnej (opcja nie zostanie wykonana). Posiadacz opcji put będzie zyskiwać gdy cena rynkowa instrumentu bazowego spadnie poniżej ceny kontraktu (najlepiej w okolice zera). Wówczas opcja gwarantuje maksymalny zysk (ograniczony wielkością różnicy cen pomiędzy kontraktem, a ceną kasową). Pozycje krótka (sprzedaż opcji call) Jeżeli trend cenowy instrumentu pierwotnego wykazuje spadek, można rozważyć sprzedaż opcji call. Zobowiązuje się wówczas do sprzedaży w terminie wykonania opcji instrumentu bazowego z nią powiązanego po ustalonej cenie wykonania. W zamian za to, otrzymujemy premię opcyjną płaconą przez nabywcę opcji. Gdy cena rynkowa okaże się niższa niż cena wykonania, wówczas opcja call nie zostanie zrealizowana. Zysk wystawcy będzie równy otrzymanej premii. W przeciwnym razie wystawca opcji poniesie stratę, bo został przez opcję zobowiązany sprzedać instrument bazowy poniżej ceny rynkowej. Ponieważ cena instrumentu bazowego może wzrosnąć dowolnie, wielkość straty jest teoretycznie nieograniczona od góry. Pozycja krótka (sprzedaż opcji put) – Wiąże się ona z wystawieniem opcji sprzedaży. Takie działanie jest uzasadnione, gdy spodziewany jest wzrost cen instrumentu bazowego. Tym razem, wystawca zobowiązuje się do kupna w terminie wykonania opcji związanego z opcją put instrumentu bazowego po ustalonej cenie wykonania w zamian za premię opcyjną. Gdy cena rynkowa okaże się wyższa niż cena wykonania, wówczas opcja put nie zostanie zrealizowana. Zysk wystawcy będzie równy otrzymanej premii. Gdy cena rynkowa okaże się niższa niż cena wykonania, wówczas wystawca opcji poniesie stratę, bo jest zmuszony kupić instrument bazowy drożej niż na rynku. Tym niemniej, wielkość straty jest ograniczona wysokością ceny wykonania opcji (pomniejszonej o otrzymaną premię). Wynika to z faktu, że cena instrumentu bazowego zawsze jest większa od zera. Jak łatwo zauważyć, pozycja krótka w opcji put jest podobna do pozycji długiej w opcji call, przy czym wielkość straty jest ograniczona. Podobnie, pozycja długa w opcji call jest podobna do pozycji krótkiej w opcji put. Sugeruje to możliwość budowania złożonych układów opcyjnych na dany instrument bazowy, z których najprostszym jest kombinacja dwóch rodzajów opcji call-call, put-put oraz call–put o 319 przeciwnych trendach. Mamy wówczas do czynienia z zakładanym przedziałem uzyskania ceny zabezpieczanego instrumentu bazowego, niezależnie od jej zmian w czasie. Przedstawione to zostało na rys. 4.23. Strategie opcyjne Wyróżniamy kilka kombinacji dwuelementowych opcji call – put w zależności od celu zabezpieczenia oraz parametrów opcyjnych (różne ceny wykonania, różne rodzaje opcji)372, ale możliwe są również bardziej złożone kombinacje, więcej niż dwóch rodzajów opcji, np. strategia motyla oraz różnic cen i terminów wykonania dla opcji składowych. Przykładami prostych kombinacji dwuelementowych, gdzie obie opcje składowe mają te same czasy oraz ceny wykonania mogą być: strategia byka, strategia niedźwiedzia i strategia stelaża. Strategia byka (Call bull spread) rys. 4.23A– składa się na nią założenie długiej pozycji dla opcji call z niższą ceną wykonania K1 niż cena kontraktu dla aktywa bazowego i krótkiej pozycji w call z wyższą ceną wykonania niż cena kontraktu K2. Przy tym obie opcje mają ten sam termin wygaśnięcia. Cena opcji kupna maleje wraz ze wzrostem ceny wykonania. Ponieważ wartość opcji wystawionej jest niższa od wartości opcji kupionej K1<K2, zapłacimy na początku za różnicę premii opcyjnych (strategia typu debit), tym więcej, im szerszy jest przedział zabezpieczenia cen instrumentu bazowego. Strategi byka pozwala zarobić przy wzroście ceny instrumentu bazowego. Skala zysków i strat jest ograniczona i zawiera się w przedziale [K1,K2]. Wynika to z faktu wykonania opcji call przy określonej cenie rynkowej aktywa. Strategię byka można zrealizować również przy zastosowaniu opcji sprzedaży (Put bull spread), wystawiając opcję sprzedaży instrumentu pierwotnego o cenie K1 i kupując opcję sprzedaży tego samego instrumentu o cenie K2<K1. Różnica premii opcyjnych jest wówczas dodatnia, co nie wymaga wkładu na początku. Strategia niedźwiedzia (Put bear spread) rys. 4.23B– składa się na nią założenie długiej pozycji w opcji put z wyższą ceną wykonania K2 i krótkiej pozycji w opcji putl z niższą ceną wykonania K1. Podobnie, jak w strategii byka pojawia się spread premii opcyjnych, który będzie zyskiem „niedźwiedzia”, ze względu na różnice cen opcji put w transakcji. Takie działanie pozwala zarobić na spadku ceny instrumentu bazowego. Skala zysków jest tu również ograniczona. Podobnie, jak w przypadku strategii byka, strategię niedźwiedzia można również zrealizować za pomocą dwóch składowych opcji typu call. Strategia stelaża (Straddle) – polega na złożeniu dwóch długich pozycji w opcjach call i put z tą samą ceną i terminem wykonania (long straddle). Taki układ generuje zysk niezależnie od zmiany cen instrumentu bazowego. Straty powstaną w sytuacji, gdy cena instrumentu bazowego zrówna się z ceną wykonania. Dlatego strategię 372 Hull J. C., „Kontrakty…”, op. cit. 320 straddle stosuje się w sytuacji, gdy spodziewane są znaczne zmiany ceny instrumentu bazowego, ale ich kierunek jest trudny do określenia (są stochastyczne w pewnym przedziale wartości). Strategia inwestycyjna spread polega na nabyciu (zajęciu długiej pozycji) na opcję kupna call oraz opcję sprzedaży put o tej samej wartości i terminie wykonania. Analogiczny układ można wykonać na sprzedaży opcji kupna put i równocześnie sprzedaży opcji zakupu call z tą samą ceną oraz terminem wykonania (short straddle). Rys. 4.23 Ilustracja zysku dla strategie zabezpieczających kontrakt z wykorzystaniem opcji: spread byka (call) A oraz spread niedźwiedzia (put) B 321 W praktyce występują również strategie strangle (rozszerzonego, długiego stelaża) stanowiąca modyfikację straddle polegającą na wykorzystaniu opcji o różnych cenach wykonania oraz strategia motyla, wykorzystująca różnice czasowe i różnice cen wykonania opcji składowych równocześnie, których opisy można znaleźć w opracowaniach dla inwestorów giełdowych373,374. Działanie zabezpieczenia opcyjnego Ważnym aspektem zabezpieczenia jest umiejętność wyznaczenia scenariuszy dla każdego rodzaju zabezpieczenia, które w danym przypadku można zastosować. W rozdziale dotyczącym symulacji (str. 381) przedstawiono analizę what if, która ma szczególne zastosowanie w działaniach zabezpieczających. Najważniejsze jest obliczenie wartości opcji oraz prognozy cenowej w zależności od przyjętej strategii. Trudno jest to wykonać bez użycia wspomagania komputerowego. W Internecie występują serwisy, udostępniające odpowiednie narzędzia wykonane w programie Excel oraz Visual Basic375. Godną polecenia jest książka „Zaawanowane modele finansowe w Excelu”376. Wykorzystanie wzoru Blacka-Scholesa oraz symulacji Monte Carlo zostało zaprezentowane w rozdziale 6.8. Przykład 4.8 Strategia Bull spread call w akcji Dane do przykładu zaczerpnięto ze strony Bossa.pl 377. Mamy strategię opartą na dwóch opcjach call o nazwach LC (zakupiona) oraz LS (wystawiona) na aktywo bazowe o wartości kontraktowej 2 591 zł, przy następujących parametrach: S1 kurs wykonania opcji LC Long call (kupionej) = 2 400 zł S2 kurs wykonania opcji LS Short call (wystawionej) = 2 900 zł P1 premia zapłacona od opcji LC (kurs opcji Premium bought) = 258,50 zł P2 premia otrzymana od opcji LS (kurs opcji Premium sold) = 34,00 zł F Wartość instrumentu bazowego = 2 591 zł U Kurs rozliczeniowy instrumentu bazowego (Underlaying) = zmienna Zmienność cenowa (volatility) = 26,6% Stopa procentowa = 6,5% Czas do wygaśnięcia opcji = 71 dni Obliczenia dla zysku P P = S2 - S1 + P2 – P1 = 275,50 dla U > 2900 (dla U > S2) P = U – S1 + P2 – P1 dla S2 >U> S1 (zmienne w przedziale [S1,S2]) P = P1 – P2 = -224,50 dla U < 2 400 (strata maksymalna) (dla U < S1) Zysk maksymalny i strata maksymalna Pmax = S2 - S1 + P2 – P1 = 275,50 zł Bossa.pl, „Leksykon strategii opcyjnych”, http://bossa.pl/edukacja/opcje/strategie/ Pokonać Rynek, „Encyklopedia rynków”, http://pokonac-rynek.pl/edukacja/encyklopedia-rynkow/ 375 McPhee P., “Option Pricing Spreadsheet” https://www.optiontradingtips.com/pricing/free-spreadsheet.html 376 Jackson M., i wsp., „Zaawansowane…” op. cit., CD do rozdziału 10, 11, 12 (arkusze w Excelu) 377 Okuniewski Ł., „Poziomy spread byka - Horizontal Bull Spread”, Bossa.pl http://bossa.pl/edukacja/opcje/strategie/ograniczonego_ryzyka/bull/ 373 374 322 Lmax = |P1 – P2| = 224,50 zł Próg rentowności PR PR = S1 + P1 – P2 = 2 624,50 zł (wynik neutralny) W powyższym przykładzie zabezpieczono za maksymalnie 224,50 zł spadek ceny aktywa poniżej 2 400 zł. Ale gdy cena rozliczeniowa wzrośnie do 2700 zł uda się nam zarobić na wzroście ceny, ale maksymalnie ten zarobek wyniesie 275,50 zł (11%). Oznacza to tylko tyle, że przy dużej awersji do ryzyka zabezpieczenie według przyjętej strategii będzie efektywne (ale nie pozwoli zarobić jeżeli cena aktywa bazowego wzrośnie znacznie powyżej 2900). Dla menedżera o pozytywnym nastawieniu do ryzyka nie będzie to strategią satysfakcjonującą ( rozdział 4.3.2, str. 222). Dlatego kryterium Hurwicza378, traktujące parametrycznie kwestie akceptacji ryzyka w podejmowaniu decyzji, zwłaszcza w grach przeciwko naturze, powinno być wskazaniem dla konstrukcji strategii hedgingowej. Parametry greckie O ile w kontraktach terminowych mamy dwa parametry wpływające na zmienność ceny, to opcje mają aż sześć wymiarów zmienności (w dodatku są one relacyjne z pozostałymi). Dlatego do praktyki hedgingu i inwestowania na giełdzie w instrumenty pochodne, wprowadzono dodatkowe zmienne analityczne nazywane greckimi literami, wskazujące na trendy zmienności wartości opcji379. Delta – odpowiada za zmiany ceny opcji w zależności od zmian cen instrumentu bazowego. Dla opcji call jest zawsze dodatnia, dla opcji put zawsze ujemna (rys. 6.9). Delta zmienia się w czasie trwania opcji. Im bliżej terminu wygaśnięcia opcji ITM( rozdział 6.8.1), tym będzie ona bliżej 100% (call) oraz -100% (put), a w przypadku opcji OTM będzie bliżej zera. Gamma - mierzy poziom zmiany Delta w zależności od ceny instrumentu bazowego. Zarówno parametr Delta jak i Gamma nie są stałymi. Jakakolwiek zmiana któregokolwiek z sześciu czynników wpływających na cenę opcji powoduje trudne do interpretacji zmiany obu wskaźników. Wskaźnik Gamma jest najwyższy dla opcji ATM. Oznacza to, że przy przejściach opcji ITM w OTM wystąpi maksimum gamma. Jednocześnie należy zaznaczyć, że gamma jest identyczny dla opcji typu call oraz put. Rho – określa zmiany wartości opcji na zmiany stopy procentowej wolnej od ryzyka przy danym rozkładzie gęstości prawdopodobieństwa. Theta - opisuje zmiany wartości w modelu teoretycznym opcji wobec wraz z upływem czasu. Każda opcja ma datę wykonania/wygaśnięcia (expiration date). Theta określa spadek wartości opcji w jednostce czasu. Jagodziński J., „Rozszerzone kryterium Hurwicza podejmowania decyzji w procesach logistycznych”, Zeszyty Naukowe Wyższej Szkoły Bankowej we Wrocławiu, vol. 41 nr 3, (2014), s. 197-214. 379 Marczak K., “"Greeks" czyli opcyjna greka”, Bossa.pl http://bossa.pl/edukacja/opcje/kurs/greeks/ 378 323 Vega – stanowi wskaźnik zmiany ceny opcji powiązany ze zmiennością ceny instrumentu bazowego. Jest to zmiana ceny opcji, przy wzroście ceny instrumentu bazowego o jeden procent. Zależy od zmienności ceny opcji (volatility) oraz innych czynników i nigdy nie jest stała. Wskaźnik vega różni się dla opcji ITM, ATM i OTM przy tych samych parametrach. Z punktu widzenia inwestora analiza wskaźników greckich dla opcji odpowiada za poziom ryzyka ponoszonego w zarządzaniu zabezpieczeniami. To w zasadzie wyczerpuje prezentację zagadnień dotyczących hedgingu. Każdy menedżer powinien sobie zdawać sprawę z istnienia instrumentów finansowych i sposobu ich wykorzystywania. Bardziej szczegółowe informacje znajdują się w bogatej literaturze dostępnej online, a dodatkowo w serwisach wspomagających inwestowanie na giełdach. Szczególnie przydatne jest zainstalowanie sobie oprogramowania umożliwiającego analizy zachowań instrumentów finansowych. Wówczas zagadnienia teoretyczne są możliwe do praktycznej realizacji. 4.8 Wybrane kwestie zarządzania logistyką Z faktu, że zostało wyprodukowane jakieś dobro nie wynika, że stanowi ono wartość. Dopiero gdy konsument w otoczeniu wymieni je na jakiś równoważnik wartości, będzie można uznać, że osiągnięto cel działalności biznesowej. Będzie to możliwe jeżeli dane dobro zostanie dostarczone fizycznie od producenta do konsumenta i nastąpi zmiana własności. To jest główny cel logistyki: dokonać transferu dobra od producenta do konsumenta (pokonać lukę czasowo przestrzenną) w najbardziej pewny i optymalny sposób. Analizując strukturę łańcucha wartości dowolnej organizacji (rys. 2.4) można zauważyć, że wśród procesów podstawowych kreowania wartości znajdują się dwa elementy: logistyka wewnętrzna oraz logistyka zewnętrzna. Jest to w pełni uzasadnione, albowiem logistyka wewnętrzna ma za zadanie zapewnić zdolność produkcyjną poprzez dostarczenie zasobów, materiałów, surowców i mediów transportowych w wewnętrznych procesach wytwórczych organizacji. Natomiast logistyka zewnętrzna ma za zadanie skrócić dystans pomiędzy organizacją i konsumentem dla produktów. Obie logistyki różnią się między sobą, tym niemniej wspólną ich cechą jest optymalizacja transportu, przekazu informacji oraz transferu pieniędzy. Logistykę od strony zarządzania musimy traktować w trzech kategoriach: modeli koncepcyjnych zarządzania logistyką, modeli rzeczywistych realizacji zadań logistycznych, reprezentacji formalnych procesów logistycznych. Warto przy tym mieć na względzie, że: nie istnieje jeden, uniwersalny model organizacji logistyki, satysfakcjonujący wszystkich interesariuszy i nadający się do wszystkich organizacji, 324 nie istnieje jeden, uniwersalny sposób uzyskania optymalnego wyniku w zarządzaniu systemem logistycznym, nie istnieje jeden, uniwersalny opis formalny systemu logistycznego. Ale zawsze istnieje wymierna funkcja celu działań logistycznych oraz metoda pomiaru rezultatu. Dlatego konieczne jest tworzenie przez logistykę strategii taktycznych wpisujących się w mapę procesów i wizję organizacji. Niezależnie od powyższych stwierdzeń, logistyka obejmuje całość zagadnień inżynierskich oraz biznesowych, związanych z fizycznym funkcjonowaniem łańcuchów dostaw. Ta część wiedzy jest znamienna dla dziedziny logistyka, transport, magazynowanie i nie będzie omawiana w niniejszej monografii. W kolejnych rozdziałach omówię część projektowania systemów logistycznych, wynikających z teorii optymalizacji i dotychczas poznanych modeli koncepcyjnych w biznesie. 4.8.1 Optymalizacja logistyczna Logistyka wywodzi się bezpośrednio z prakseologii i ogólnych zasad działania systemów. Działania logistyczne mają za zadanie skrócenie dystansu pomiędzy dobrem a konsumentem, co wiąże się z optymalizacjami w zakresie całej rozmaitości procesów na szlaku producent konsument. Uogólnieniem optymalizacji logistycznej jest zestrojenie łańcucha dostaw danej organizacji (rys. 2.5) z jej procesami zdefiniowanymi przez łańcuch wartości (rys. 2.4). Logistyka stanowi zbiór problemów, decyzyjnych i w celu ich rozwiązania, posługuje się metodami wsparcia informacyjnego (ilościowego i jakościowego). W szczególności stara się odpowiadać na poniższe pytania. Ile wyprodukować i w jakim czasie? Jak zorganizować czas pracy? Jak dostarczyć? Jak zakupić? Czy przekazać zadania do 3PL? Jak zorganizować łańcuch dostaw? Jak wykorzystać zasoby? Każda z odpowiedzi na powyższe pytanie jest rozwiązaniem niezależnego problemu logistycznego, który wymaga złożonych działań. W procesach optymalizacyjnych posługujemy się kilkoma fundamentalnymi zasadami: zasada minimum działania, zasada minimum kosztów, zasada maksimum efektywności. To pozwala budować systemy logistyczne zoptymalizowane tak, jak to ma miejsce w teorii gier. Zasada 7W logistyki Na rys. 4.24 przedstawiona została zasada 7W logistyki. Ten model optymalizacji jest na tyle oczywistym, komentarz wydaje się być zbytecznym. Warto jedynie nadmienić, że wszystkie elementy 7W podlegają optymalizacji niezależnie. 325 Rys. 4.24 Zasada optymalizacji 7W logistyki Wąż logistyczny (rurociąg logistyczny) Przyjmijmy teraz, że na procesy logistyczne składają się następujące elementy, tworzące ciąg logiczny : zakupy materiałów, towarów, surowców (łańcuch dostaw od), składowanie na wejściu dla procesów generowania wartości (gospodarka magazynowa), działalność produkcyjna lub usługowa (optymalizacje zasobowe), składowanie wytworzonych produktów na wyjściu (magazyny sprzedaży), dystrybucja do klienta (łańcuch dostaw do). Wówczas istnieje możliwość niedopasowania poszczególnych elementów tego ciągu pod względem wydajności lub efektywności (rys. 4.25). Tworzą się wąskie gardła lub obszary nadmiarów zasobów, które nie są wykorzystane. Optymalizacja prowadzi do uzyskania równomiernych przepływów funkcjonalności zasobów w całym ciągu procesów. Jak to zrobić praktycznie - jest zadaniem inżynierii logistycznej. Jedno jest pewne – logistyka należy do zagadnień wymiernych zarządzania. Tym samym istnieją modele ilościowe optymalizacji oraz metody pomiarowe, umożliwiające oceny aksjologiczne. 326 Rys. 4.25 Model optymalizacji “rurociągu logistycznego” Zagadnienia równowagi logistycznej W większości zagadnień optymalizacyjnych logistyki wielkość optymalizowana zależy od dwóch, wzajemnie przeciwnych zmiennych, co powoduje, że istnieje taka wartość zmiennej niezależnej, dla której obie zmienne zależne są sobie równe. Wówczas możemy mieć do czynienia z lokalnym ekstremum optymalizacyjnym (rys. 4.30). Najczęstszym przypadkiem jest analiza kosztów dla dwóch skrajnych modeli logistycznych, zależnych od dwóch zmiennych. Można przytoczyć pewne przykłady działań logistycznych, gdzie optymalizacja kosztów dotyczy znalezienia punktu równowagowego dla dwóch, przeciwstawnych zmiennych. Jeżeli próbujemy oszczędzić na: transporcie, musimy liczyć się ze zwiększeniem kosztów magazynowania, transporcie, musimy liczyć się z wydłużeniem czasu realizacji zamówień, opakowaniach, musimy liczyć się z uszkodzeniami w transporcie, zakupach, musimy zwiększyć koszty zapasów, obsłudze, musimy zwiększyć liczbę magazynów, zapasach, musimy zwiększyć efektywność procesów produkcji zapasach, musimy zwiększyć koszty transportu. Powyższa lista nie wyczerpuje zagadnienia. Ogólnie wszystkie wymienione sytuacje można przedstawić graficznie, jak na rys. 4.26. Zadaniem zarządzania jest znalezienia takich punktów równowagowych. 327 Rys. 4.26 W ykres kosztów dla dwóch zmiennych logistycznych 4.8.2 Zagadnienie magazynowe Jest to ważny model optymalizacyjny, dotyczący zapytania: jak należy planować stan magazynu, żeby osiągnąć najwyższą rotacyjność? Pytanie to stanowi uogólnienie problemu gazeciarza na wiele zmiennych, a jednocześnie umożliwia ustalenie kryterium syntetycznego dla stanu optymalnego (np. maksymalna wartość zapasu w kredycie). Z obserwacji wielu firm wynika, że ok. 20% najbardziej rotujących towarów przynosi ok. 80% całkowitej rotacyjności magazynu. A to oznacza, że nad strukturą pozostałych 80% asortymentu warto się zastanowić, bo blokują rotacyjność kapitału. To właśnie stanowi fundament optymalizacji wielowymiarowej, stanowiącej zagadnienie magazynowe. Przykład 4.9 Prognozowanie rotacyjności magazynu metodą średniej kroczącej W sieci magazynowej dealerów pewnej marki samochodów ustalono algorytm zamawiania części z magazynu centralnego. Na podstawie kilkuletniej obserwacji obrotów magazynów części zamiennych o wartości zapasu powyżej 1 mln zł stwierdzono, że stany zapasu części powinny być analizowane w okresie 6 miesięcy w podziale na przedziały tygodniowe (rozchody pomniejszone o zwroty). Przyjęto, że rozchody estymowane na kolejny tydzień lub dwa, powinny być przybliżane metodą średniej kroczącej (z pewnymi modyfikacjami, specyficznymi dla marki i wielkości koncesji, których nie będę tutaj omawiać). Algorytm pozwala ustalić zoptymalizowany zapas magazynowy złożony z ok. 3 tys. pozycji rotujących w półrocznym okresie, na kolejny miesiąc pracy koncesji. 328 W powyższym przypadku, zmienna losowa określająca popyt na części zamienne dla każdej pozycji magazynowej jest ustalana metodą średniej kroczącej na podstawie danych z przeszłości oraz teraźniejszych. Jest to przybliżenie, które sprawdzono eksperymentalnie, osiągając zadowalającą dokładność w planowaniu zapasu magazynowego. Ale nawet w przypadku tak określonego algorytmu nie można stwierdzić ze 100% pewnością, że w kolejnym tygodniu rozchody z magazynu będą dokładnie takie, jak system sugeruje. Jednakże margines niepewności został zredukowany na tyle, żeby planowany tym sposobem stan magazynu uznać za optymalny. Istnieją różne podejścia do planowania zapasu magazynowego, zwłaszcza w systemach produkcji just-in-time. Stanowi to fundament zagadnień logistyki, która stanowi ważną dziedzinę nauk o zarządzaniu. Wykorzystuje się w tym celu zintegrowane systemy IT wspomagające zarządzanie magazynami, zwłaszcza te, klasy MRP oraz ERP. Warto zdawać sobie sprawę z faktu, że w przypadku produkcji zgodnej z normami ISO, występuje konieczność ustalenia w dowolnej chwili zarówno partii produktu, jak i źródła pochodzenia każdej części w produkcie finalnym. Wyobraźmy sobie w tym momencie samochód jako zbiór części poskładanych. Potrzeba dobrego systemu wspomagającego zarządzanie, żeby nie tylko zaplanować przychody i rozchody, ale również identyfikację dostawcy w relacji do partii produktu lub półproduktu. A to nie są jeszcze wszystkie problemy związane z zarządzaniem magazynami. Może być ich wiele sprzężonych w system logistyczny i wówczas rozliczenie ilościowo-wartościowe potrafi się mocno skomplikować380. Zagadnienie gazeciarza Jest to najprostsza wersja zagadnienia magazynowego, gdzie konieczne jest dokonanie prognozy rynkowej i powiązanie z nią optymalnego zapasu magazynowego. Jest to równocześnie najprostszy przykład optymalizacji nieliniowej. Przykład 4.10 Klasyczne zagadnienie gazeciarza Gazeciarz musi powziąć decyzję ile ma zakupić gazet po cenie C1, które następnie sprzeda w cenie C2. Gazety, które sprzeda w ilości n przyniosą zysk Z = n∙(C2 – C1). Jeżeli zamówi zbyt mało n < nopt (rynek może wchłonąć więcej gazet), nie osiągnie maksymalnego zysku Zopt. Jeżeli zamówi za dużo, to nie sprzeda wszystkich gazet, a te, które mu pozostaną przyniosą stratę s = k∙C1, pomniejszając zysk, co również uniemożliwia osiągnięcie maksymalnego zysku Zopt. W ten sposób postawiono zagadnienie optymalizacji ilości zamawianych gazet, w którym kluczowym elementem staje się rozkład krzywej prawdopodobieństwa popytu (dystrybuanta zmiennej losowej). Może to wymagać podejścia eksperymentalnego, albowiem zmienna może nie być ciągła i będzie wymagała aproksymacji. 380 Gospodarek T., „Systemy ERP…”, str. 100 329 Istnieje kilka wariantów zagadnienia gazeciarza (np. model ze zwracaniem niesprzedanej części po cenie C3 < C1 ) w zależności od typów rozkładów krzywej popytu. Istnieje również kilka rozwiązań, np. metoda macierzy dochodów, metoda rekurencyjna oraz metoda analityczna. Są to zagadnienia fundamentalne badań operacyjnych. Tym niemniej na poziomie podstaw zarządzania należy zdawać sobie sprawę z wagi prognozowania popytu oraz planowania zakupów ze względu na wynik ekonomiczny działalności. W przypadku, gdy dystrybuanta zmiennej losowej jest wyrażeniem analitycznym, problem gazeciarza ma rozwiązanie dokładne. W praktyce, rozkład zmiennej losowej nie zawsze jest znany, więc jest estymowany (dystrybuanta i parametry rozkładu są ustalane eksperymentalnie lub przyjmowane a priori). Wówczas rezultat jest przybliżeniem, ale często bardzo dobrym. W Internecie można znaleźć dokładne rozwiązania dla różnych przypadków381. Nie będą one omawiane dokładnie. Należy zdać sobie sprawę, że każdy magazyn posiada wiele pozycji, z których każda może być rozpatrywana za pomocą modelu gazeciarza. To powoduje, że istnieje możliwość ustalenia optymalnego stanu magazynowego jako sumy prostej wyników rozwiązania dla wszystkich pozycji. Dlatego zagadnienie gazeciarza jest tak użytecznym modelem, mającym zastosowanie praktyczne na poziomie zarządzania operacyjnego. Rozwiązania problemu Istnieją trzy zasadnicze metody rozwiązania problemu gazeciarza: macierz dochodów, metoda rekurencyjna oraz metoda analityczna. We wszystkich trzech przypadkach potrzebna jest znajomość rozkładu prawdopodobieństwa popytu. Najprostszym rozkładem jest stały popyt np. 10 szt., który pojawił się 9 razy w ciągu 30 dni. Możemy wówczas przyjąć, że prawdopodobieństwo popytu na 10 sztuk wynosi 9/30, czyli 0,3. Popyt może podlegać rozkładowi normalnemu, rozkładowi Poissona (dwumianowemu), Levy’ego lub być zupełnie stochastycznym. Dla każdego z tych rozkładów rozwiązanie problemu gazeciarza będzie mieć inną postać. Niezależnie od przyjętego rozkładu prawdopodobieństwa, konieczne jest wyliczenie dystrybuanty tego rozkładu F(x), czyli funkcji, która mówi, jakie jest prawdopodobieństwo, że popyt wyniesie nie więcej niż x (może być mniej). Żeby to obliczyć sumujemy prawdopodobieństwo wystąpienia danego popytu i każdego, mniejszego od niego. Dla rozkładów ciągłych jest to pole pod krzywą rozkładu prawdopodobieństwa w przedziale (, X]. Macierz dochodów. Tworzymy tablicę, w której wiersze dotyczą możliwych wartości naszej podaży, a kolumny możliwe wartości popytu. Niech „Z” będzie sprzedażą gazeciarza z dochodem „d” ze sprzedaży jednej gazety, kupionej po cenie „c”. Mamy teraz dwie możliwości: 381 Wikipedia, „Newsvendor model”, https://en.wikipedia.org/wiki/Newsvendor_model 330 popyt jest nie mniejszy od oferowanej (zakupionej) ilości gazet – wtedy gazeciarz sprzeda wszystkie gazety, osiągając dochód równy dZ (iloczyn dochodu d z jednej gazety i liczby sprzedanych gazet Z). popyt jest mniejszy niż oferowana liczba gazet – wtedy gazeciarz sprzeda tylko tyle sztuk ile wynosi popyt (czyli X), a przychód ze sprzedaży d∙X ≤ d∙Z. Niesprzedana nadwyżka s = Z – X przyniesie stratę, c∙(Z - X). Dochód całkowity dla tego przypadku wynosi zatem, d∙X – c∙(Z – X)). Wypełniamy następnie macierz dochodów i sumujemy wartości wierszy oraz kolumn, a następnie obliczamy sumę sum. Jest to wynik najbardziej prawdopodobny, obliczony niezależnie od rozkładu prawdopodobieństwa. Metoda rekurencyjna Jeżeli znamy oczekiwany dochód dla podaży na poziomie Z-1, to możemy obliczyć go dla wartości popytu o jeden większej. (4.15) D(Z) = D(Z-1) + d – (d+c)∙F(Z-1) A zatem dochód dla popytu X obliczamy jako dochód dla popytu o jeden mniejszego powiększony o dochód jednostkowy d pomniejszony o iloczyn dystrybuanty rozkładu prawdopodobieństwa dla popytu X – 1 i sumy dochodu jednostkowego oraz ceny zakupu. Wystarczy zatem znać wartość dla najmniejszej możliwej ilości sprzedaży (pierwszy wiersz w macierzy dochodów) i można wówczas niemal w pamięci wyliczyć dochód dla kolejnych ilości sprzedanych. Wzór analityczny Optymalną jest taka ilość podaży Zopt, dla której pomiędzy wartością dystrybuanty F(Zopt) oraz tej dla podaży o jeden mniejszej F(Zopt – 1)] zawarta jest wielkość F(X) = d/(d+s). A zatem najpierw szukamy wartości wyrażenia F(X), a następnie dwóch dystrybuant sąsiednich, pomiędzy którymi będzie ona zawarta. Następnie z tabeli rozkładu prawdopodobieństwa popytu odczytujemy liczbę stanowiącą wartość popytu X. Metoda analityczna jest najszybszym sposobem znalezienia optymalnej wartości podaży. Może być ona z powodzeniem wykorzystywana do planowania zapasu magazynowego, wspomaganego komputerowo. 4.8.3 Magazyn jako obiekt logiczny W logistyce wewnętrznej organizacji występują różnorodne magazyny, których zadaniem jest ułatwienie rozrachunków księgowych oraz ułatwienie procesów biznesowych. Z punktu widzenia reprezentacji formalnej, magazyn w strukturze zarządzania organizacją jest obiektem logicznym, miejscem w którym generowane są dokumenty przychodu i rozchodu rzeczy podlegających ewidencji. Niezależnie od tego jest to obiekt fizycznie realizujący procesy logistyczne. Różnorodność modeli biznesowych i sposobów realizacji procesów kreowania wartości pozwala domniemywać, że może istnieć cały szereg typów magazynów, w których rejestro- 331 wane są dokumenty przychodu lub rozchodu, wnoszące do rachunkowości logiczne podziały danych kosztowych lub operacyjnych. Na ogół dla realizacji złożonego procesu produkcyjnego wymagany jest układ współdziałających ze sobą magazynów. Przykład 4.11 Układ magazynów dla realizacji złożonego procesu produkcji Na rys. 4.27 przedstawiony został układ logiczny magazynów w firmie produkcyjnej, który umożliwia precyzyjne rozliczenie ruchu materiałów, surowców oraz wyrobów. Zakładamy, że każdy magazyn jest emitentem dokumentów przychodu (PZ – przyjęcie zewnętrzne, MM+ przesunięcie międzymagazynowe przyjęcie, PR+ protokół różnic superata) oraz rozchodu (WZ – wydanie zewnętrzne, RW – rozchód wewnętrzny, MM- przesunięcie międzymagazynowe wydanie, PR- protokół różnić ubytek). Tym samym jest on w stanie ustalić stan zapasu magazynowego w dowolnym momencie na podstawie dokumentów wyemitowanych w danym okresie w danym magazynie. To jest jedna z najistotniejszych właściwości systemu magazynowego, umożliwiająca traktowanie go jako pomocniczej księgi rachunkowości. Uzgodnienie zapasu w każdym z magazynów układu z księgą główną systemu rachunkowości jest kluczowym zadaniem w obrocie towarowym i materiałowym. Rys. 4.27 Przykładowy układ logiczny magazynów w produkcji 382 382 Gospodarek T., “Systemy ERP…”, str. 130 332 Magazyny tworzone są również ze względu na złożoność przepisów podatkowych lub procedur kontroli jakości. Dlatego wyróżnia się magazyny: opakowań zwrotnych, kaucjonowanych (palety, beczki, …) oraz te, które podlegają szczególnej ewidencji ze względu na rozliczenia podatku VAT. Istnieją magazyny będące składami podatkowymi, gdzie prowadzone są szczegółowe rozliczenia podatku akcyzowego oraz podatku VAT w sposób różny od typowego (składy celne). Wyróżnia się również magazyny, w których dokonuje się rozliczeń post factum produkcji na podstawie receptur i kompletacji oraz magazyny, gdzie prowadzona jest ścisła kontrola pozycjonowania obiektów magazynowanych i źródeł pochodzenia materiałów do produkcji ze względu na procedury kontroli jakości. W wielu przypadkach prowadzone są również magazyny pomocnicze BHP lub narzędzi w celach rozrachunków z tytułu płac oraz praw wynikających z różnych, często dziwnych przepisów prawa. Powyższe wskazuje na konieczność synchronizacji struktury rachunkowości i procesów biznesowych z układem logicznym magazynów. Jest to ważny element zarządzania i optymalizacji struktury organizacji, którego fizyczną realizacją są procesy logistyczne. Dobrze poukładany system magazynowy pozwala na wdrożenie zintegrowanych systemów IT, które w sposób automatyczny pozwalają rozliczać skomplikowane procesy. Magazyny w sprzedaży Teoretycznie może to być jeden magazyn zajmujący się sprzedażą wszystkiego, co w organizacji jest do sprzedania. Powstaje jednak problem natury organizacyjnej i rozliczeniowej. Czy sprzedajemy towary pełnowartościowe i niepełnowartościowe w jednym miejscu? Czy towary do dalszej odsprzedaży z działalności hurtowej lub detalicznej powinny być sprzedawane łącznie z własnymi produktami? Takich pytań można postawić znacznie więcej. Odpowiedzi jednoznacznych nie można udzielić, bo zależy to od wielkości firmy, organizacji jej rachunkowości oraz struktury procesów logistycznych. Jeżeli do tego dodamy specyfikę procesów sprzedaży w zależności od asortymentu (inaczej sprzedaje się paliwa, inaczej cement luzem, a jeszcze inaczej lekarstwa czy podzespoły elektroniczne). Poza tym większe organizacje mają zwykle oddziały zamiejscowe, co wiąże się z tworzeniem magazynów lokalnych. Magazyny sprzedaży mogą funkcjonować w trzech wariantach procesowych: najpierw klient ustala w magazynie co zostanie kupione i na podstawie wygenerowanego dokumentu WZ, dział sprzedaży wystawia dokument sprzedaży (klient zawsze wie, że to co zakupił jest na stanie magazynu w odpowiedniej ilości i jakości), klient w dziale sprzedaży ustala co zostanie kupione i na podstawie dokumentu sprzedaży magazyn generuje dokument WZ (klient nie ma pewności, że 333 towar w magazynie będzie dostępny, ale nie musi mieć kontaktu z magazynem), klient składa zamówienie za pomocą dowolnego kanału dostępu do działu sprzedaży, gdzie dokonywana jest kompletacja dostawy i uruchamiane są procesy transakcyjne (dział sprzedaży pozostaje w niepewności dostępności asortymentu). Niezależnie od powyższych wariantów, możemy mieć do czynienia z przekwalifikowaniami wyrobów na niepełnowartościowe. Korzystnym jest wówczas przeniesienie takich towarów do magazynu wyrobów niepełnowartościowych, gdzie można wykonywać ruchy wydań i przyjęć do serwisu w celu usprawnienia go i dopiero wówczas dokonania sprzedaży. To wiąże się również z innym sposobem liczenia kosztów sprzedaży, które muszą uwzględnić prace naprawcze i obciążyć produkcję fakturą wewnętrzną. Bardzo często zdarza się, że sprzedaż polega na kompletacji zestawu lub przygotowaniu produktu według określonej receptury. Wówczas tworzy się pomocnicze magazyny kompletacyjne, w których funkcjonują procedury pobierania detali zestawów dokumentami rozchodowymi RW i tworzenia kompletów, które są przyjmowane jako nowa pozycja magazynowa PZ. Przykład 4.12 Układ magazynów sprzedaży dla samochodów Sprzedaż samochodu nowego i samochodu używanego. W obu przypadkach konieczne jest stworzenie dwóch niezależnych magazynów i dodatkowo magazynu części zamiennych, stanowiących źródło uzupełniające podzespołów do kompletacji. Dokumenty sprzedaży różnią się w sposób istotny pomiędzy magazynami (rozliczenia VAT i akcyzy w przypadku samochodów nowych i sprzedaży samochodu używanego). Jeżeli dodane zostaną sposoby sprzedaży buy back oraz dodatkowe beneficja typu opcje realne, to rozróżnienie między magazynami sprzedaży samochodów nowych, używanych oraz części zamiennych jest w pełni uzasadnione. W podobny sposób można analizować układy magazynów dla produkcji. Parę słów komentarza wymaga również kwestia magazynu zakupów. Jest bardzo użytecznym rozwiązaniem zastosowanie jednego, centralnego magazynu zakupów w sensie logicznym (fizycznie nie ma to znaczenia). Wówczas wszelkie zakupy scentralizowane są dokumentacyjnie w jednym miejscu, skąd dokumentami przesunięć magazynowych przenoszone są do miejsc docelowych zamówień dostawy. Z punktu widzenia kontrolingu i sprawozdań finansowych jest to duże ułatwienie w agregowaniu danych w księdze głównej i bazach raportowych. Zagadnienia gospodarki magazynowej stanowią oddzielną grupę zagadnień zarządzania operacyjnego. Szczególne znaczenie mają one w projektowaniu systemów IT wspomagających zarządzanie. Zainteresowanych odsyłam do mojej książki na temat systemów ERP. 334 4.8.4 Kolejkowanie Kolejką nazywamy liniową strukturę czynności procesu, w której kolejne czynności dopisywane są na końcu kolejki, a wykonywane są te z początku kolejki (metoda FIFO – First-in-First-out pierwsze przyszło pierwsze wyszło). Przeciwieństwem funkcjonowania kolejki jest stos, gdzie obowiązuje zasada LIFO (Last-inFirst-out, ostatnie przyszło pierwsze wyszło). W logistyce metody kolejkowania stanowią bardzo istotny element funkcjonalności systemów magazynowych, transakcyjnych, transportowych. Szczególne zastosowania kolejkowania dotyczą przesyłów pakietów informacyjnych w sieciach LAN/WAN oraz w algorytmach wykonywania aplikacji komputerowych. W sieciach telefonicznych, help desk i call center, sprawność dostępu do źródłowych informacji jest kluczowym elementem. Dotyczy to również średniego czasu oczekiwania w kolejce, co dla zarządzania dostępem ma pierwszorzędne znaczenie. Kolejka do pojedynczego kanału dostępu W większości sytuacji kolejka powstaje stochastycznie i nie jesteśmy w stanie przewidzieć kiedy kolejni klienci przybędą. Czasami na linii produkcyjnej zdarzy się zacięcie i wówczas powstaje zator, który musi został rozładowany w jak najbardziej efektywny sposób. Najprostszym modelem kolejkowym jest powstawanie kolejki do budki z jedzeniem rys. 4.28. Rys. 4.28 Model systemu kolejkowego z dostępem jednokanałowym Do opisania ilościowego używamy rozkładu Poissona. (4.16) P( x ) x exp( ) x! gdzie: x = 0,1,2,... jest liczbą przychodzących klientów = jest średnią szybkością przybywania klientów w jednostce czasu Wartości exp(-) należy obliczyć na kalkulatorze lub arkuszu kalkulacyjnym. Załóżmy, że w ciągu godziny naszą budkę odwiedza 15 osób. Korzystając ze wzoru 335 (4.16) możemy obliczyć prawdopodobieństwo przybycia 5, 10, 20 osób w ciągu godziny. (lub innej jednostki czasu, np. kwadransa). Po drugiej stronie zagadnienia znajduje się efektywność obsługi klienta. Można założyć, że czas obsługi klienta jest stały i wówczas łatwo jest ustalić liczbę osób pozostających w kolejce (taki model obowiązuje w sterowaniu światłami na skrzyżowaniu). W przypadku sprzedaży standardowej stosuje się model eksponencjalnego zaniku. Jeżeli w jednostce czasu serwis jest w stanie obsłużyć zleceń (szybkość obsługi), to prawdopodobieństwo, że klient zostanie obsłużony w czasie t dane jest wzorem: (4.17) P( t ) 1 exp( t ) gdzie jest czasem obsługi jednego klienta. Połączenie zagadnienia powstawania kolejki oraz sprawności obsługi klienta prowadzi w pewnym momencie do stanu równowagi kolejki, gdzie liczba przychodzących jest równa liczbie obsłużonych w jednostce czasu. Łącząc ze sobą wzory 4.16 i 4.17, można odpowiedzieć na kilka kwestii. Ponieważ prawdopodobieństwo, że klient będzie musiał poczekać w kolejce wynosi /, to prawdopodobieństwo, że nikogo nie ma w systemie wynosi: (4.18) P(0) 1 / Średnia liczba osób pozostających w kolejce XQ (4.19) 2 XQ ( ) Średni czas, który klient spędzi w kolejce TQ (4.20) TQ ( ) Równania (4.18) - (4.20) opisują model projektowania systemów kolejkowych w dowolnym zagadnieniu logistycznym. Oczywistym jest, że model ten można rozbudowywać, dodając więcej centrów obsługi klienta – model wielokanałowy. Innym kierunkiem analitycznym dla systemów kolejkowych jest założenie, że czas obsługi klienta jest stochastycznym (np. naprawa samochodu). Wówczas dla obliczenia prawdopodobieństwa opuszczenia systemu przez klienta musimy stosować rozkład normalny. Wyrażenia (4.18) - (4.20) ulegają w tym wypadku istotnej modyfikacji, aczkolwiek dane wyjściowe oraz główna idea ich powstawania są identyczne, jak w modelu z rozkładem ekiponencjalnym. Przykład 4.13 Parametry modelu kolejkowego w Excel u Mamy system kolejkowy, w którym średnia liczba przychodzących w ciągu godziny wynosi 30. Średni czas obsługi jednego klienta wynosi 1 minuta. Zakładając, że przybywanie klienta można opisać za pomocą rozkładu Poissona, a czas obsługi podlega rozkładowi eksponencjalnemu wyznaczyć parametry takiego systemu kolejkowego. Tym samym = 30/60 (0,5); a = 1. Wykorzystamy arkusz kalkulacyjny, w którym do komórek: B7 wpisujemy =B4/60 a do B8 wpisujemy =1/B5 336 B10 wpisujemy =JEŻELI(B8>B7;1-B7/B8;"Szybkość obsługi jest za mała") B11 wpisujemy =JEŻELI(B8>B7;B7^2/(B8*(B8-B7));"0") B12 wpisujemy =JEŻELI(B8>B7;B11+B7/B8;"0") B13 wpisujemy =JEŻELI(B8>B7;B11/B7;"0") B14 wpisujemy =JEŻELI(B8>B7;B13+1/B8;"0") B15 wpisujemy =JEŻELI(B8>B7;B7/B8;"Złe parametry na wejściu") W wyniku obliczeń otrzymamy informacje zaprezentowane na rys. 4.29. Rys. 4.29 W yniki obliczeń dla systemu kolejkowego z przykładu 4. 13 Analizując powyższe dane można zauważyć, że prawdopodobieństwo stania w kolejce 1 minutę jest prawdopodobne w 50% nawet przy średnim czasie dochodzenia klienta do systemu co 2 minuty. Jeżeli model będzie bardziej złożony, a czas załatwienia sprawy dany będzie jako zmienna losowa (np. rejestracja samochodu w wydziale komunikacji), to rezultaty mogą być całkiem zaskakujące. Dostęp wielokanałowy Model zakłada, że klient z kolejki dochodzi do pierwszego, wolnego okienka obsługi. Tak, jak w modelu jednokanałowym, szybkość dochodzenia klientów wynosi , natomiast szybkość obsługi w każdym z k dostępnych kanałów wynosi . W tym przypadku wyrażenia (4.18) - (4.20) zmieniają się do postaci: (4.21) k 1 ( / ) n ( / ) k P(0) k! i 0 n! k k 1 Średnia liczba osób pozostających w kolejce XQ (4.22) XQ ( / ) k P(0) (k 1)!(k ) 2 Średni czas pobytu w kolejce klienta TQ 337 (4.23) TQ XQ Tego typu rozwiązania są realizowane praktycznie w systemach rejestracji klienta w dużym oddziale banku, urzędzie, przychodni lekarskiej, itp. Aspekt ekonomiczny systemu kolejkowego Nie zawsze likwidacja kolejki musi być ekonomicznie uzasadniona, albowiem wiąże się to z inwestycjami oraz kosztami, które mogą być większe niż potencjalna strata z tytułu nieobsłużenia klienta w określonym czasie. Przykładowa analiza kosztów związanych z funkcjonowanie systemu kolejkowego została przedstawiona na rys. 4.30. Istnieje zakres optymalizacji wydajności systemu, ale to optimum wynika z równowagi kosztów pochodnych jego funkcjonowania i kosztów obsługi. Warto zwrócić uwagę, że w ciągu 24 godzin pracy poczty, urzędu czy też restauracji, istnieją godziny szczytu oraz godziny normalne, kiedy nie ma zbyt wielu interesantów. Koszty ponoszone na poprawienie funkcjonalności systemu obciążają po równo całość czasu jego działania, ale przynoszą efekty jedynie w szczycie. Czasami nie warto ich ponosić. To jest dylemat do rozwiązania przez menedżera – wybór optymalnego kompromisu pomiędzy kosztem zasobów redukujących kolejki, a efektywnością obsługi klienta. Rys. 4.30 Koszt całkowity w systemie kolejkowym 338 4.8.5 Problem transportowy Problem ten związany jest z dystrybucją towaru w sieci złożonej z kilku producentów mających siedzibę w różnych miejscach i centrów dystrybucyjnych w kilku innych lokalizacjach, obsługujących obszary o różnym poziomie popytu. Takie sieci są standardem logistycznym (np. dystrybucja towarów mleczarskich, olejów silnikowych, paliw płynnych, nawozów mineralnych, pasz…). Problem zawsze dotyczy minimalizacji kosztów transportu przy maksymalnym poziomie zaspokojenia popytu. Optymalizacja może również dotyczyć zapasu magazynowego oraz najkrótszej drogi dostaw. Ogólnie problem transportowy daje się szczególnie dobrze opisać za pomocą modelu programowania liniowego (rozdział 5.3.1), gdzie funkcją celu podlegającą optymalizacji jest koszt transportu, rotacyjność towaru w sieci albo najkrótsza droga przy zadanych warunkach brzegowych. Przykład 4.14 Logistyka dystrybucji nawozów Mamy trzech producentów nawozów A, B i C położonych w miejscowościach X, Y, Z o zdolności produkcji odpowiednio 5000, 6000 i 2500 ton miesięcznie. Nawozy są dystrybuowane przez cztery centra P, Q, R, S mające siedzibę w miejscowościach K,M,N,L o przewidywanym zapotrzebowaniu kwa-rtalnym: 6000, 4000, 2000 oraz 1500 ton. Każdy producent może przesyłać towar do każdego centrum dystrybucji (łącznie 12 możliwych połączeń), przy czym koszty jednostkowe transportu są różne AP(3), AQ(2), AR(7), AS(6), BP(7), BQ(5), BR(2), BS(3), CP(2), CQ(5), CR(4), CS(5). Sytuację zilustrowano na rys. 4.31. Rys. 4.31 Dane dla przykładu 4.10 Wprowadzamy zmienne modelu optymalizacji. Są to ilości transportowane z miejsca pochodzenia i do miejsca przeznaczenia j, oznaczane jako: Xij (i = 1,2,3; j=1,2,3,4) 339 Rys. 4.32 Rozwiązanie problemu z przykładu 4.7 za pomocą programu Open Office Koszty transportu z fabryki A, B oraz C można wyrazić następująco: 3X11+2X12+7X13+6X14 (fabryka A) 7X21+5X22+2X23+3X24 (fabryka B) 2X31+5X32+4X33+5X34 (fabryka C) Suma powyższych wyrażeń stanowi naszą funkcję celu, którą mamy zminimalizować. Ale na rozwiązanie musimy nałożyć ograniczenia po stronie wielkości produkcji: X11+X12+X13+X14 ≤ 5000 dla (A) X21+X22+X23+X24 ≤ 6000 dla (B) X31+X32+X33+X34 ≤ 2500 dla (C) oraz ograniczenia po stronie popytowej (centra logistyczne): X11+X21+X31 = 6000 340 X12+X22+X32 = 4000 X13+X23+X33 = 2000 X14+X24+X34 = 1500 Dodatkowo interesują nas wyłącznie rozwiązania dodatnie i,j Xij 0 Mamy zatem 7 równań dotyczących liczebności przesyłanych dla 7 węzłów i po jednym ograniczeniu dla każdego z nich. Mamy 12 połączeń , dla których musimy wykonać obliczenia, zakładając dodatkowo, że wszystkie zmienne Xij są dodatnio określone (nadmiar zmiennych). Odrzucamy najdroższe połączenia i próbujemy rozwiązań układ tak, żeby sumaryczne dostawy były równe sumarycznemu popytowi dla maksimum 7 zmiennych. Rozwiązując układ równań liniowych otrzymujemy łączny koszt minimalny = 39 500 przy następujących ilościach transportowanych: AP = 3500; AQ = 1500; BQ = 2500; BR = 2000; BS = 1500; CP = 2500. Powyższy przykład pokazuje, jak za pomocą programowania liniowego można rozwiązywać pewne kwestie logistyczne. Zaprezentowany model jest uniwersalny na tyle, że za pomocą niewielkich modyfikacji można wykonać znacznie bardziej złożone projekty logistyczne. Na rys. 4.32 zaprezentowany został sposób rozwiązania problemu transportowego za pomocą Excela. 4.8.6 Zagadnienie komiwojażera (Zadanie chińskiego listonosza) Zadanie chińskiego listonosza postawił chiński matematyk Mei-Ku Kwan. Polega ono na tym, żeby listonosz, który ma doręczyć listy, przeszedł jak najkrótszą łączną drogę i powrócił do punktu wyjścia, przechodząc przez każdą z ulic na swojej drodze. Warunkiem optymalności jest, żeby listonosz nie przechodził po kilka razy przez zbyt wiele ulic (rys. 4.33). Rys. 4.33 Ilustracja problemu chińskiego listonosza w ujęciu grafów Eulera Problem ten daje się przedstawić w języku grafów z wagami383. Graf odpowiada sieci ulic. Waga każdej krawędzi odpowiada długości odpowiadającej jej Pearn W.L., Chou J.B., “Improved solutions for the Chinese postman problem on mixed networks.” Computers & Operations Research. 26 (8), 1999, s. 819-827 383 341 ulicy. Należy znaleźć taką trasę zamkniętą, dla której całkowita waga jest minimalna i gdzie każda krawędź występuje co najmniej jeden raz. Jeżeli graf jest typu eulerowskiego, to każdy cykl przejścia jest trasą zamkniętą. Jeżeli nie, to wówczas zadanie staje ię znacznie trudniejsze. Istnieje kilka algorytmów umożliwiających rozwiązanie problemu, np. algorytm Fleury’ego. W naszym przypadku można zauważyć, że wierzchołki B i E są jedynymi stopni nieparzystych (wychodzą z nich po trzy linie), to ścieżka BCDE jest grafem półeulerowskim o łącznej wadze 7+5+6=18 (da się ją przejść bez powtórzeń). Pozostaje dodać EFAEDABDB (łącznie 56). W wyniku otrzymamy 18 + 56 = 74. Pokazane zagadnienie jest szczególnym przypadkiem problemu najkrótszej drogi, którego przykładem jest problem komiwojażera. Komiwojażer wyjeżdża z miasta A i przejeżdża przez pewien zbiór miast, a na końcu wraca do miasta, z którego wyjechał. Im szybciej, taniej i krócej pokona tą drogę, tym lepiej. Zagadnienie polega na znalezieniu najkrótszego cyklu objechania wszystkich miast dokładnie jeden raz. Rozwiązanie takiego problemu jest możliwe metodą programowania dynamicznego384, wykorzystując zasadę optymalności Bellmana, którą w odniesieniu do problemu komiwojażera można sformułować następująco: jeżeli jakiś węzeł leży na optymalnej drodze, to najkrótsza droga od tego węzła do końcowego jest elementem drogi optymalnej. Zasade Bellmana w odniesieniu do procesów Markowa omawiana była w rozdziale 3.2.4. Problem transportowy wraz z zagadnieniem komiwojażera kończą w zasadzie teoretyczne modele obiektywnej optymalizacji w transporcie (tej która nie wynika z rozwiązań technologicznych oraz metodycznych). Nie poruszam kwestii sieci z węzłami pośredniczącymi (transshipment) ponieważ wykracza to poza ramy niniejszej monografii. Zainteresowanych odsyłam do książki Andersona i wsp385. 4.8.7 Strategie logistyczne Analizując model 7W logistyki (rys. 4.24) oraz model funkcjonowania łańcuchów dostaw (rys. 2.5), można zaproponować kilka czystych strategii logistycznych (minimalizujących i maksymalizujących funkcje celu). Przykładami mogą być te, przedstawione w tabeli 16. Tabela 16 Przykłady strategii logistycznych minimum Kosztów Czasu Strategia logistyczna oparta na maksimum Dopasowania do wymogów klienta Użyteczności zasobów Józefowska J., “Modele i narzędzia optymalizacji w systemach informatycznych zarządzania”, http://www.cs.put.poznan.pl/jjozefowska/wyklady/opt/DYNA.pdf 385 Anderson i wsp. „Management…”., rozdział 6.3 – 6.4 384 342 Zasobów Błędów operacyjnych Bezpieczeństwa i niezawodności Jakości W praktyce poszukiwanie optimum polega na użyciu strategii mieszanych, takich że definiując efektywność logistyczną systemu można znaleźć co najmniej dwie zmienne przeciwstawne, dla których możliwe jest zbudowanie funkcji celu posiadającej ekstremum (rys. 4.26). Projektując strategię logistyczną należy posłużyć się modelami działania całej organizacji i mapą jej procesów, uwzględniając w szczególności strukturę łańcucha dostaw, strategie marketingowe i politykę rachunkowości. Zostało to szeroko opisane wcześniej. Strategia logistyczna stanowi część integralną strategii całej organizacji, a zwłaszcza „białej księgi organizacji”. Wraz z innymi strategiami równoległymi i politykami definiuje w sposób formalny kluczowe aspekty efektywności i użyteczności dla łańcucha wartości. Musi ona wpisywać się w misję i wizję organizacji (rys. 2.3 i rys. 3.10). Jej zadaniem jest przede wszystkim rozbudowanie mapy procesów o czynności związane z przepływami fizycznymi materiałów, zasobów, produktów i finansów oraz ustalenie kwantyfikatorów efektywności ogółu procesów wytworzenia i udostępnienia produktu klientom. Należy pamiętać, że to nie strategia logistyczna dominuje strategię organizacji, ale jest w niej zawarta. Przykład 4.15 Strategiczne działania w firmie Apple Kiedy 25 sierpnia 2011 r. schorowany Steve Jobs oddał fotel prezesa Timowi Cookowi, akcje firmy Apple kosztowały poniżej 350$. Teraz ich kurs wynosi około 700$, a giełdowa wartość firmy to nieco ponad 600 mld dolarów (więcej niż wynosi PKB Polski za rok 2016). Cook dał się wcześniej poznać w Apple, jako świetny logistyk, dlatego nakazano mu przede wszystkim usprawnienie produkcji. Pod jego kierownictwem firma zaczęła przenosić produkcję do Chin (strategia korporacyjna obniżenia kosztów i skrócenia czasu dostępu do dóbr). T. Cookowi nie wystarczały jednak proste oszczędności, uzyskane dzięki tańszej sile roboczej. Miał ambicję zredukowania zapasów surowcowych – będących dla niego synonim zamrożonej gotówki i skorzystania z japońskich metod produkcji just in time. Tyle, że im mniej znajduje się towaru w magazynach, tym trudniej dostarczyć go na czas do klienta. Cookowi udało się jednak niemożliwe – zmniejszył zapasy i jednocześnie skrócił czas dostaw z fabryk do sklepów z 31 do zaledwie sześciu dni. Wykonanie strategii logistycznej najlepiej jest przeprowadzić zgodnie z procedurą macierzy logicznej LFA ( rozdział 6.7), odpowiednio modyfikując macierz do potrzeb struktury dokumentu. Definicja i zakres strategii logistycznych Próba dokładniejszego zdefiniowania zagadnienia sprowadza się do pytania: czym zatem jest strategia logistyczna? Tu odpowiedź składa się z czterech aspektów. Strategia logistyczna jest: 343 wiedzą przyszłą o procesach logistycznych i pozostających z nimi w relacji procesach biznesowych podmiotu po czasie prognozy, zbiorem uporządkowanym logicznie programów, projektów logistycznych, funkcji celu, informacji, wskaźników produktu, rezultatu i oddziaływania, projektem transformacji podmiotu realizującego procesy logistyczne ze stanu A do pewnego stanu B według przyjętego schematu logicznego działań, projektem optymalizacji stanu podmiotu według założonej funkcji celu przez procesy logistyczne. Kierunkami strategicznymi logistyki są: orientacja na zmiany podmiotowe – (usieciowanie, wejście w struktury łańcuchów dostaw, zmiany relacji w kierunku 3PL), orientacja na optymalizacje – (usprawnienie procesów logistycznych i poprawa efektywności działania podmiotu). orientacja na wirtualizację – (wdrożenie procesów wirtualizacji biznesu i e-logistyki). orientacja na operacjonalizację – (wdrożenie automatyzacji i systemów samosterujących dla istniejących procesów logistycznych). Jednym z ważniejszych aspektów definiowania strategii logistycznej jest ustalenie jej bilansu otwarcia. Składa się na niego: opis procesów biznesowych organizacji w kontekście zapotrzebowania na usługi logistyczne. Miernikiem może być wskaźnik pożądalności, opis zasobów własnych i pozyskiwanych z zewnątrz, znalezienie luk jakościowych w realizacji procesów biznesowych (luka pokrycia potrzeb w zakresie procesów dostaw i transferów oraz zasobów), określenie luk ilościowych w zakresie usług logistycznych i zasobów dla realizacji procesów (wskaźnik nasycenia), opis lokalnego łańcucha dostaw, zawierającego własny system logistyczny, ustalenie wskaźników kosztowo-efektywnościowych dla systemu logistycznego i dokonanie pomiaru integralnego: koszty ogółem i na proces, wskaźnik efektywności rynkowej, wskaźnik bezpieczeństwa i terminowości realizacji, inne wskaźniki (poziom zadowolenia klienta, etc.) Poziomy realizacji strategii logistycznych Strategia logistyczna może dotyczyć dwóch stanów: przemiany lub optymalizacji i może być rozpatrywana na pięciu poziomach kontekstowych. Przemiany wymagają jakichkolwiek zmian strukturalnych w istniejącej organizacji lub jej otoczeniu, a co najmniej zmian workflow, podczas gdy optymalizacja wiąże się ze zmianami 344 parametrów lub cech istniejącej struktury lub dodatkowymi jej działaniami, poprawiającymi użyteczność. Charakterystykę strategii logistycznych przedstawiono w tabeli 17 –poniżej. Tabela 17 Charakterystyka działań strategicznych logistyki Poziom Procesu Przemiany Strategia Optymalizacji W przypadku procesów kluczowych dotyczy decyzji o outsourcingu lub o istotnych zmianach zasobów oraz technologii procesu. Związana jest z automatyzacją, informatyzacją, zmianami proceduralnymi lub kontrolnymi procesu. Wiąże się ze zmianami funkcjonalnymi działu w tym reorganizacjami struktury oraz procesów ale nie likwidacją lub powstaniem. Dotyczy obniżenia kosztów wydziałowych, wprowadzenia nowych procedur lub rozwiązań automatyki i technologicznych, ale bez zmian strukturalnych. Działu Organizacji (SBU) Korporacji Globalny Wiąże się z likwidacją lub utworzeniem procesów, likwidacją lub utworzeniem działu, restrukturyzacją, outsourcingiem, usieciowieniem lub łańcuchem dostaw. Reorganizacja łańcucha dostaw, globalizacja logistyczna, zmiany koncepcji logistycznej na poziomie korporacyjnym (np. JIT). Zmiana w teorii logistyki i kulturze biznesowej na poziomie krajowym Dotyczy redukcji kosztów, reorganizacji wewnętrznej, reorganizacji relacji w łańcuchu dostaw, zmian adaptatywnych. Reorganizacja na poziomie SBU, obniżenie kosztów i poprawa wskaźników systemowych. Optymalizacja metod zarządzania ukierunkowanych Przykłady Logistyka załadunku i wyładunku (outsourcing, zmiana zasobów, zmiana technologii, monitoring). Logistyka reklamacji door2door; outsourcing, wymiana online, optymalizacja procedur. Logistyka dostaw (zmiana technologii, zmiana relacji, outsourcing, zmiana procedur). Logistyka magazynu części. (Utworzenie nowego magazynu, wprowadzenie automatycznej inwentaryzacji, wdrożenie systemu IT w dziale). Logistyka działu produkcji (Zmiana asortymentu, Reorganizacja struktury dostaw, Outsourcing). Logistyka działu usług (Zmiana procedur, Zmiana technologii na sieciową, Zmiana obiegu informacji). Wejście organizacji do sieci lub łańcucha dostaw (np. DAF, Chata Polska…) Otwarcie nowego działu lakierniczego (ASO, produkcja AGD) Likwidacja działu transportu (Outsourcing, 3PL…) Outsourcing dystrybucyjny (Raben Logistic, ZOTT Polska) Centralizacja zakupów i dystrybucji ( Peugeot Polska,…) Specjalizacja usług w korporacji (KGHM, PKP, Sygnity…) Sieci kooperacyjne (PSA = Peugeot + Citroen; Renault + Nissan…) Metody Lean Management System produkcji Toyoty Just-inTime System dystrybucji nowych produktów Apple 345 lub międzynarodowym na efektywność, jakość i pozycję rynkową. Planując wdrożenie którejś z koncepcji, należy mieć na uwadze horyzont czasowy strategii logistycznych. Poziom procesu - strategie operacyjne ad hoc. Na poziomie SBU strategie logistyczne taktyczne. Poziom korporacji - strategiczne. 4.9 Kontroling Jednym z najważniejszych aspektów zarządzania jest kontrolowanie. Przede wszystkim realizacji celów. W ślad za tym każdy menedżer chce uzyskać informacje bardziej szczegółowe o przyczynach sukcesu lub porażki projektu, czy też całej organizacji. I tak kontrola zstępuje na niższe poziomy zarządzania. A że informacje muszą być spójne, to powstaje konieczność syntezy danych od szczegółu do ogółu (globalnych wskaźników), a analizy raportów, od ogółu do szczegółu. To jest z grubsza cała idea kontrolingu. Pozostaje zatem zastanowić się nad definicją modelu kontrolingu organizacji. Najlepszym ujęciem będzie po raz kolejny podejście systemowe, co sprowadza się do modelu generowania wartości opisanego na rys. 1.18. Funkcja kontrolna przypada wówczas pewnemu narzędziu, które stanowi urządzenie pomiarowe sprzężenia zwrotnego pomiędzy stanem wyjściowym, a stanem wejściowym, które różnią się czasem. Kontrolingiem nazywamy układ pomiarowy umożliwiający zdefiniowanie i monitoring stanu organizacji w czasie. Układ pomiarowy musi składać się z podmiotu kontrolingu, miary, skali, kryteriów oceny rezultatu oraz urządzenia pomiarowego. Takim urządzeniem pomiarowym może być system ERP386. Idea pomiaru może być przedstawiona, jak na rys. 4.34 386 Gospodarek T., „Systemy ERP…”, str. 58 346 Rys. 4.34 Idea ujęcia systemowego kontrolingu z urządzeniem pomiarowym ERP Jak widać na powyższym schemacie warunkiem koniecznym staje się zdefiniowanie kryteriów rezultatu, miary (definicja stanu podmiotu) oraz zbioru danych i modeli ich syntezy w raporty cząstkowe o stanie (mierniki). W końcu konieczne jest zbudowanie raportu syntetycznego, stanowiącego reprezentację formalną rezultatu. Raport ten, porównywany w czasie, stanowi istotę kontrolingu oraz wskazania dla zarządzających, które parametry należy zmienić w kolejnym cyklu pomiarowo-kontrolnym. 4.9.1 Metoda KPI (Key Performance Indicators) Zbiór finansowych i niefinansowych, kluczowych wskaźników efektywności dla organizacji (Key Performance Indicators) określa stopień realizacji celów organizacji. Dla każdego wskaźnika można zbudować kryterium optymalności (zakres dopuszczalnych wartości). Można również budować z wybranych wskaźników kryteria integralne, oraz benchmarkingowe rezultatu (rozdział 5.1). KPI jest ważnym narzędziem kontrolingu, ponieważ umożliwia zbudowanie spójnego kryterium oceny zmian położenia ekonomicznego. Wskaźniki modelu KPI koncentrują się na tych aspektach funkcjonowania organizacji, które są najbardziej krytyczne dla obecnego i przyszłego jej sukcesu. Najczęściej nie są czymś nowym w organizacji, ponieważ są już obliczane przez systemy księgowe, sprzedaży, majątku trwałego, ale nie znalazły wcześniej uznania u zarządzających albo były obliczane w rozproszeniu. Stąd główną ideą systemu kontrolingu w odniesieniu do modelu KPI jest ustalenie zbioru kluczowych wskaźników efektywności jako stałej 347 miary optymalizacji (nie zmieniającej się co do struktury w czasie). D. Parmenter podzielił kluczowe wskaźniki na dwie zasadnicze grupy387: Rezultatu – obliczane na podstawie różnych danych wejściowych do systemu kontrolingu z więcej niż jednego centrum zysków/kosztów. Mierniki te są przydatne w ocenach wyników pracy struktury (np. całego SBU, wydziału, etc.), ale nie pomagają zarządzającym rozwiązać problemu źródeł wewnętrznych osiągniętego rezultatu. Trudno jest bowiem ustalić, które elementy tej struktury są odpowiedzialne za osiągnięcie lub nieosiągnięci zakładanego wyniku zbiorczego. Efektywności - mogą być przypisane do zespołu lub klastra zespołów współpracujących dla wspólnego celu. Tym samym dobry lub zły wynik danego wskaźnika może mieć ustalonego adresata. Dlatego mierniki efektywności zapewniają przejrzystość pomiarową i decyzyjną. Nie są z kolei zbytnio użyteczne w zarządzaniu taktycznym i strategicznym. Mogą za to być monitorowane online przez systemy ERP. Wszystkie wskaźniki powinny podlegać kryteriom modelu SMART388 ustalania celów, co zapewnia mierzalność i interpretowalność danego indykatora. Nie da się tego wykonać bez uprzedniego stworzenia modelu semantycznego (sposobu wyliczania i zasilania danymi źródłowymi online) dla każdego wskaźnika. Z obszernej analizy obejmujących większość typów organizacji (rozdział 2.1.2), zarówno w sektorze publicznym, jak i prywatnym, zdefiniowano siedem grup analitycznych w skutecznie funkcjonujących zbiorach KPI. 1. Wskaźniki niefinansowe – te, które nie są mierzalne w jednostkach monetarnych (np. ilość wykonanych detali, liczba nowych klientów). 2. Zmienne w czasie – mierzone często np. dziennie albo tygodniowo (dane o sprzedaży, dane o stanie magazynowym). 3. Istotne dla CEO – wskaźniki istotne dla zarządu oraz dyrektoriatu (położenie finansowe, przepływy finansowe). 4. Proste – zrozumiałe dla każdego pracownika, wskazujące wprost działania naprawcze (liczba reklamacji, liczba godzin przestojów). 5. Grupowe – za które odpowiedzialność może być przypisana grupie lub strukturze (sprzedaż warsztatu, zużycie materiałów). 6. Istotnego wpływu – takie, które dotyczą więcej niże jednego centrum zysku lub kosztów oraz więcej niż jednej strategicznej karty wyników (sprzedaż ogółem, marża zrealizowana w okresie), 7. Ograniczniki słabości - zachęcają do podjęcia odpowiednich działań (zostały wcześniej przetestowane, jako zapewniające pozytywny wpływ na wyniki). D. Parmenter, „How to implement winning kpis in 16 weeks”, 2009, http://davidparmenter.com/files/howto-implement-winning-kpis-in-16-weeks-article.pdf 388 Gospodarek T., „Aspekty…”, str. 130 387 348 Ten układ kluczowych wskaźników efektywności musi zostać skonstruowany dla każdej organizacji osobno. Podstawą i punktem wyjścia jest analiza łańcucha wartości, misja i cele stawiane przed organizacją. Zarządzający musi sobie odpowiedzieć na pytanie do czego dążymy i jak to będziemy kontrolować w czasie. Najlepiej posiłkować się w tej kwestii doradcami, mającymi pojęcie o systemach ERP oraz kontrolingu. Kluczowym ogniwem w takich działaniach jest główny księgowy lub dyrektor finansowy. Te osoby mają całość obrazu organizacji od strony najbardziej istotnych wskaźników i wyliczają je w ramach sporządzania bilansów oraz miesięcznych raportów. Wskaźniki finansowe są zazwyczaj głównymi elementami zbioru KPI. 4.9.2 Aspekty finansowe kontrolingu Jednym z najważniejszych aspektów zarządzania jest kontroling finansowy bez którego trudno jest zapanować nad biznesem na każdym poziomie jego rozwoju. Nawet jednoosobowa działalność gospodarcza musi panować nad płynnością finansową, albowiem łatwo jest przeinwestować i splajtować. 349 Przykład 4.16 Zaburzenie płynności finansowej Wyobraźmy sobie, że w grudniu dokonano zakupów towarów po okazyjnej cenie i zapełniono magazyn po sam sufit. Wydano na to wszystkie wolne środki, a dodatkowo zadłużono się na pewną kwotę. Bilans wypada okazale, bo jest dużo towaru (nie ważne, że wolnych środków pieniężnych brakuje). Rachunek wyników też wygląda dobrze, bo mamy dodatnie saldo (na papierze tak, niestety fizycznie w postaci towaru). A tu urząd skarbowy prosi o dokonanie zapłaty podatku dochodowego od tak dobrego wyniku – niestety pieniądzem, a nie jego surogatem. I jest problem, bo firma może go zapłacić dopiero po sprzedaży towar, a fiskus płatności w naturze nie przyjmuje. Podobnież pracownicy, chcą otrzymać pensję pieniądzem na czas, a nie w naturze. Tak właśnie można rozłożyć na przysłowiowe łopatki nawet bardzo dobrą firmę. Jak widać, ten prosty przykład 4.16 pokazuje, że przepływy finansowe zostały zachwiane przez decyzję o nadmiernym zakupie na magazyn, w nadziei na szybką sprzedaż. Nie zawsze jest to groźne, ale zawsze powoduje pewne perturbacje w obszarze płynności finansowej. A co będzie jeżeli się nie sprzeda? Wówczas pojawia się duży problem wymagający interwencyjnego poprawienia płynności finansowej (np. przez zaciągnięcie niekorzystnych kredytów krótkoterminowych). Dlatego dbałość o przepływy finansowe jest jednym z imperatywów przedsiębiorcy i menedżera. A monitoring sytuacji możliwy jest online za pomocą wskaźników kontrolingowych. To jednak jest czubek góry lodowej. Najważniejszym aspektem kontrolingu w większej firmie jest monitoring wskaźników finansowych i położenia ekonomicznego w czasie. Służą temu ustalone modele kontrolingowe, piramida Du Ponta389 oraz model Altmana, predykcji bankructwa organizacji (analiza dyskryminacyjna)390. Modele te definiują ciągi logiczne wskaźników cząstkowych, które można wyliczyć na podstawie danych z bilansu i rachunku wyników organizacji ( załącznik nr 1 i 2 do ustawy o rachunkowości), a następnie przetworzyć syntetycznie. Najbardziej syntetycznymi wskaźnikami dla zarządu są: ROS (wskaźnik zysku), ROA (stopa zysku z aktywów), ROE(rentowność kapitałów własnych), EBITDA (zysk przed opodatkowaniem, odliczeniem amortyzacji oraz odsetek). W Tabela 18 przedstawiony został układ wskaźników finansowych dla celów kontrolingu, dostępny przy pomocy prostych metod rachunkowych na podstawie danych źródłowych, pochodzących z tabeli bilansowej oraz rachunku zysków i strat, zdefiniowanych de iure w ustawie o rachunkowości391. Gołębiowski G., Tłaczała A., „Analiza finansowa w teorii i w praktyce”, Warszawa: Difin, 2009, s. 237 Stabryła A., „Zarządzanie…”, op. cit. 391 Ustawa o Rachunkowości z dnia 9 listopada 2000 r (Dz. U. 00.113.1186 z dnia 18 grudnia 2000) 389 390 350 4.9.3 Aspekty procesowe Kontroling dotyczy również optymalizacji struktury organizacji i jej efektywności działania. Model biznesowy, jak również odpowiadająca mu struktura powinny spełniać zasady ergonomii (rys. 1.4, str.), wynikające ze stosowania zasad prakseologii. To przekłada się na następujące aspekty: Mapa procesów (kontrola efektywności procesów str. 97), Mapa relacji formalnych (przypisania zasobów do zadań i informacji), Mapa informacyjna (hierarchia przetwarzania danych źródłowych na raporty syntetyczne i przekrojowe). Na tej podstawie powstaje formalna reprezentacja organizacji biznesowej poprzez odpowiednie dokumenty, wielkości mierzalne, wskaźniki i stąd definicja formalna jej stanu. Tym samym, istnieje możliwość wyznaczenia wskaźników efektywności zarówno operacyjnych, taktycznych, jak i strategicznych. Kontrola polega na ciągłym doskonaleniu reprezentatywności map do rzeczywistych procesów metodą kolejnych przybliżeń (adaptatywną). W pewnym momencie osiągany jest poziom dopasowania, tak jak minimum błędów w modelu 6σ ( str. 158) i dopiero zmiana modelu biznesowego wymusza kolejne dopasowania. 351 Tabela 18 Układ wskaźników finansowych systemu kontrolingu. Lp. Nazwa wskaźnika Metoda obliczania Interpretacja wskaźnika PODSTAWOWE WSKAŹNIKI FINANSOWE 1 Suma bilansowa (tys.zł) 2 Wynik finansowy brutto (tys.zł) 3 Wynik finansowy netto (tys.zł) 4 5 Przychody ze sprzedaży netto (tys. zł) Koszty działalności operacyjnej (tys. zł) 6 EBITDA 7 EBIT (pozycja z tabeli bilansowej) Wartość aktywów = wartości pasywów (pozycja z tabeli rachunku zysków i strat) (pozycja z tabeli rachunku zysków i strat) (pozycja z tabeli rachunku zysków i strat) (pozycja z tabeli rachunku zysków i strat) (pozycja z tabeli rachunku zysków i strat) Wartość obliczana z tabeli bilansowej (też jako pozycja sprawozdania F-01) Wartość z tabeli bilansowej (również jako pozycja sprawozdań F-01, F-02) Suma wystawionych dokumentów sprzedaży pomniejszona o korekty Suma kosztów według rodzajów lub suma według miejsc powstawania Zysk organizacji przed potrąceniem odsetek, podatków oraz amortyzacji. (pozycja z tabeli rachunku wyników) Zysk organizacji przed potrąceniem odsetek, podatków WSKAŹNIKI RENTOWNOŚCI (ZYSKU) 8 Rentowność sprzedaży netto ROS (w %) 9 Rentowność sprzedaży brutto (w %) 10 Rentowność majątku ROA (w %) 11 Skorygowana rentowność majątku (w %) (wynik finansowy netto * 100%) / (przychody netto ze sprzedaży) (Zysk ze sprzedaży x 100%) / (przychody netto ze sprzedaży) (zysk netto x 100%) / (majątek ogółem (aktywa)) (zysk netto +odsetki płacone od długu) / (majątek ogółem (aktywa)) Informuje o tym jaki procent sprzedaży stanowi marża po odliczeniu wszystkich kosztów i zapłaceniu podatku. Tendencją korzystną jest wzrost wskaźnika w czasie albo w stosunku do prognozy. Informuje o tym jaki procent stanowi marża ze sprzedaży w stosunku do całości przychodów. Tendencją korzystną jest wzrost wskaźnika. Informuje o efektywności wykorzystania majątku (zasobów) firmy. Tendencją korzystną jest wzrost wskaźnika. Informuje ile zł wyniku netto przyniosła 1 złotówka kapitału zaangażowanego w działalność firmy. Tendencją korzystną jest wzrost wskaźnika. 352 12 Rentowność kapitałów własnych ROE (w%) 13 Dźwignia finansowa (DFL) (zysk netto x 100%) / (kapitał własny) Rentowność kapitału własnego pomniejszona o skorygowaną rentowność majątku Stopa rentowności zainwestowanych kapitałów własnych w działalność. Tendencją korzystną jest wzrost wskaźnika Informuje jaką zmianę zysku netto wywoła zmiana zysku operacyjnego o określony procent. Jeżeli wartość DFL wynosi 1,5 to gdy zysk operacyjny wzrośnie o 10%, wówczas zysk netto wzrośnie o 15%. WSKAŹNIKI WYKORZYSTANIA MAJĄTKU (przychody netto ze sprzedaży)/ (stan należności krótkoterminowych) (stan należności krótkoterminowych x 365)/ (przychód ze sprzedaży) (koszty działalności operacyjnej)/ (stan zapasów) (przeciętny stan zapasów)x365/ (koszty działalności operacyjnej) (koszty działalności operacyjnej)/ (stan zobowiązań krótkoterminowych) (stan zobowiązań krótkoterminowych)x365/ (koszty działalności operacyjnej) 14 Obrót należnościami (w razach) 13 Cykl inkasa należności w dniach 14 Obrót zapasami(w razach) 15 Cykl obrotu zapasami w dniach 16 Spłata zobowiązań (w razach) 17 Spłata zobowiązań w dniach 18 Rotacja majątku (w razach) (przychody netto ze sprzedaży)/ (stan majątku (aktywów)) 19 Rotacja majątku trwałego (w razach) (przychody netto ze sprzedaży)/ (stan aktywów trwałych) Ilość cykli obrotu należnościami w ciągu okresu. Tendencją korzystną jest wzrost wskaźnika. Informuje o średniej długości cyklu realizacji należności. Tendencją korzystną jest spadek wskaźnika. Ilość cykli obrotu zapasami w ciągu okresu. Tendencją korzystną jest wzrost wskaźnika. Liczba dni potrzebna na jeden cykl obrotu zapasami. Tendencją korzystną jest spadek wskaźnika. Ilość cykli spłat zobowiązań w ciągu okresu. Tendencją korzystną jest wzrost wskaźnika. Informuje o średniej długości cyklu zapłat zobowiązań należności. Tendencją korzystną jest spadek wskaźnika. Informuje ile złotych przychodu ze sprzedaży przypada na 1 złotówkę. zaangażowaną w majątku firmy. Tendencją korzystną jest wzrost wskaźnika. Informuje ile złotych przychodu ze sprzedaży przypada na 1 złotówkę zaangażowaną w majątku trwałym firmy. Tendencją korzystną jest wzrost. WSKAŹNIKI WYKORZYSTANIA KAPITAŁÓW 353 (zobowiązania ogółem)/ (aktywa ogółem) (zysk (strata) brutto + płacone odsetki)/ (płacone odsetki) 20 Wskaźnik zadłużenia ogólnego 21 Pokrycie odsetek zyskiem 22 Wskaźnik sfinansowania majątku kapitałem własnym (kapitał własny)/ (aktywa ogółem) 23 Wskaźnik zaangażowania kapitałów własnych 24 Wskaźnik "złotej" reguły bilansowej 25 Trwałość struktury finansowania (kapitał własny)/ (aktywa trwałe) (kapitały stałe) / (aktywa trwałe) (kapitały stałe)/ (pasywa ogółem) 26 Wskaźnik unieruchomienia środków (majątek trwały)/ (aktywa ogółem) Informuje o stopniu zadłużenia (Im niższy wskaźnik, tym mniejszy udział kapitałów obcych w finansowaniu majątku) Zdolność do obsługi długoterminowych pożyczek. Wyższy wskaźnik oznacza mniej uciążliwe terminowe regulowanie zobowiązań (opt. 4 – 5) Stopień pokrycia majątku firmy kapitałami własnymi. Wskaźnik bliski 1 oznacza, że podstawy finansowe działalności są stabilniejsze (opt. 1). Stopień pokrycia majątku trwałego firmy kapitałami własnymi. (opt. > 1) Stopień pokrycia majątku trwałego firmy kapitałami stałymi (opt. > 1) Udział kapitałów stałych w pasywach ogółem (im wyższy wskaźnik, tym stabilniejsze finansowanie). Udział środków zaangażowanych w aktywach na dłuższy okres. Nadmierne zaangażowanie środków w majątek trwały jest niekorzystne. WSKAŹNIKI PŁYNNOŚCI STATYCZNEJ 27 Wskaźnik płynności bieżącej (aktywa obrotowe)/ (zobowiązania krótkoterminowe) 28 Wskaźnik szybkiej płynności (aktywa obrotowe – zapasy)/ (zobowiązania krótkoterminowe) 29 Wskaźnik płynności (inwestycje krótkoterminowe)/ (zobowiązania krótkoterminowe) Informuje o zdolności firmy do regulowania wymagalnych zobowiązań przy pomocy upłynnienia środkami obrotowych. (opt. od 1,5 do 2,0). Określa zdolność do szybkiego uregulowania wymagalnych zobowiązań pokrycie płynnymi środkami obrotowymi. (opt. nie mniejszy od 1). Określa zdolność do natychmiastowego uregulowania wymagalnych zobowiązań - pokrycie środkami pieniężnymi. (opt. nie mniejszy od 0,5). WSKAŹNIKI PŁYNNOŚCI DYNAMICZNEJ 354 30 31 Wskaźnik zdolności generowania środków pieniężnych netto z działalności operacyjnej Wskaźnik udziału zysku netto w przepływach z działalności operacyjnej 32 Wskaźnik pokrycia odsetek 33 Wskaźnik wydajności pieniężnej sprzedaży (przepływy pieniężne netto z działalności operacyjnej) + (wpływy z działalności inwestycyjnej i finansowej) (zysk netto) x 100%/ (przepływy pieniężne netto z działalności operacyjnej) (odsetki płacone)/(przepływy pieniężne netto z działalności operacyjnej) (przepływy pieniężne netto z działalności operacyjnej)/(przychód ze sprzedaży) Określa zdolność jednostki do generowania nadwyżek pieniężnych z działalności operacyjnej. Tendencją korzystną jest wzrost wskaźnika. Określa udział zysku netto w przepływach z działalności operacyjnej. Tendencją korzystną jest wzrost wskaźnika. Określa zdolność do regulowania odsetek z przepływów z działalności operacyjnej (opt. nie mniejszy od 1). Określa ile środków pieniężnych z działalności operacyjnej jest generowane przez jedną złotówkę sprzedaży. Tendencją korzystną jest wzrost wskaźnika. WSKAŹNIKI DLA RYNKU KAPITAŁOWEGO 34 35 36 37 (zysk netto)/(liczbę emitowanych akZysk na jedną akcję (EPS) cji) Relacja ceny jednej akcji do zysku na (cena rynkowa jednej akcji)/ jedną akcję (P/E) (zysk na jedną akcję) (dywidenda na jedną akcję) / Stopa dywidendy (cena rynkowa jednej akcji) (dywidenda na jedną akcję) / Stopa wypłat dywidendy (zysk na jedną akcję) Wartość zysku netto przypadająca na jedną akcję. Cena jaką trzeba zapłacić za jednostkę zysku przy kupnie akcji. Skala korzyści akcjonariuszy w stosunku do ceny rynkowej akcji. Skłonność jednostki do przeznaczenia zysku netto na wypłatę dywidendy. Uwaga! Powyższy układ wskaźników może zostać rozszerzony o dowolne, inne przekroje. Do bezpośredniego stosowania metody KPI należy wybrać najwyżej 10 najbardziej istotnych. 355 4.9.4 Aspekty struktury informacyjnej kontrolingu W rozdziale 3.2 poruszony został aspekt czasowy zarządzania. Wynika zeń analogiczny układ struktury kontrolingu. Żeby to lepiej zilustrować należy przeanalizować model przedstawiony na rys. 35. Rys. 4.35 Układ struktury kontrolingu w organiza cji W codziennej działalności mamy co czynienia z kontrolingiem operacyjnym. Na koniec każdego dnia działalności ustalane są raporty z wykonania sprzedaży, stanu zapasów, stany magazynowe oraz stan gotówki w kasie i na kontach. Wykonują to kierownicy działów. Równocześnie zakłada się plany, harmonogramy, budżety i zadania na kolejny dzień. Zagregowane dane dzienne, są konsolidowane następnie dla tworzenia raportów tygodniowych i miesięcznych. Na poziomie miesięcznym następuje zawsze zamknięcie księgowe miesiąca i można wówczas wykonać szczegółowe raporty i sprawozdania miesięczne, dotyczące procesów oraz działów/wydziałów. To pozwala na stworzenie informacji porównawczych z poprzednimi miesiącami i ustalenia planów na kolejne miesiące. Ten poziom kontrolingu można nazwać kontrolingiem taktycznym. W tym momencie obliczanie wskaźników KPI jest ograniczone do badania efektywności procesowej i finansowej. Pozwala na tworzenie obrazu formalnego efektywności organizacji w oparciu o dane pewne (zaksięgowane i zamknięte w danym miesiącu), stanowiąc bazę dla raportów ekonomicznych. Z chwilą, gdy mamy już dane kwartalne, istnieje sens wyliczania wskaźników kontrolingowych o charakterze integralnym. Wówczas tworzone są sprawozdania kontrolingowe392 o charakterze ekonomicznym, których zadaniem jest ukazanie potencjalnych kierunków zmian taktycznych w łańcuchu wartości organizacji. Tak postępują m. innymi sieci koncesyjne sprzedaży samochodów, tworząc bardzo rozbudowane sprawozdania kwartalne, np. Mercedes (raport GBMS), sieć PSA (raport REFECO), sieć Ford (raport BMI), etc. Raporty te można porównywać pomiędzy podmiotami sieci w różnych krajach, uzyskując dane ekonomiczne o zasadności prowadzenia biznesu. Ten etap kontrolingu ustala prawidłowość działania łańcucha wartości organizacji (rys. 2.4). Ewentualne zmiany taktyczne w działaniach jego elementów wynikają z danych kontrolnych raportów skonsolidowanych na poziomie ekonomicznym. Rys. 4.38 Strategiczna karta wyników – koncepcja. Na końcowym etapie kontrolingu mamy do czynienia z kontrolingiem strategicznym. Dotyczy on na ogół okresów rocznych i bazuje na kwartalnych raportach ekonomicznych uzupełnionych o sprawozdania finansowe roczne, rachunek zysków i strat oraz bilans. Na tej podstawie tworzone są prognozy i korygowane cele. Dzieje się to w cyklu realizacji strategii, z chwilą otrzymania danych porównawczych (rys. 3.11). Ten rodzaj kontrolingu nazywamy strategicz- 392 Gospodarek T., „Systemy ERP…”, str. 172-191 357 nym. Podstawowym narzędziem jest w tym przypadku strategiczna karta wyników Kaplana i Nortona (rys. 4.38)393. Zaprojektowanie takiej karty jest elementem monitoringu strategii. Stąd kontroling strategiczny w praktyce, bazuje na właśnie tak zdefiniowanej mierze. Strategiczna karta wyników może być automatycznie generowana przez dobrze wdrożony system ERP. Jednak jej struktura musi zostać wcześniej ustalona (jakie dane będą brane pod uwagę i skąd je pozyskać), a dane wynikowe muszą być uzyskane w pierwszym podejściu ręcznie i potwierdzone księgowo (uzgodnienie z zapisami źródłowymi w rachunkowości). Zawsze należy mieć na uwadze, że informacja syntetyczna na poziomie kontrolingowym nie jest anonimowa i musi istnieć możliwość uzyskania danych źródłowych, z których powstała oraz sposobu obliczania jej wartości (zasada od ogółu do szczegółu przetwarzania danych). 393 Kaplan R., Norton S., op. cit., 358 5 Pomiar i ocena w zarządzaniu. Oddzielny rozdział należy poświęcić pomiarowi w zarządzaniu. Ci, którzy wierzą, że menedżer nie musi posługiwać się pomiarem lub eksperymentem, tworzą jedynie literaturę piękną zarządzania. Oni po prostu wierzą i czują, tak jak to się sugeruje w koncepcji cynefin (rys. 3.1). Rzetelną wiedzę tworzą jednak ci, którzy coś mierzą, porównują, szacują, klasyfikują. Najlepiej ujął to R. Feynman „Nie ma żadnego znaczenia, jak piękna jest twoja teoria. Nie ma to znaczenia jak jesteś mądry. Jeśli hipotezy nie potwierdza eksperyment, jest ona nieprawdziwa”. A z tym w teorii zarządzania jest nie najlepiej. Wynika to z faktu, że eksperyment ekonomiczny nie jest możliwy do powtórzenia, ze względu na niemożliwość odwrócenia w czasie zmian, które w zachodzą w otoczeniu. Formułowanie uogólnień na miarę teorii Maxwella, czy też równowagi Pareto w teorii gier, w obrębie teorii zarządzania nie jest zasadne, a nawet nie jest możliwe394. Prawdziwe są za to wyniki pomiarów ilości produkcji i sprzedaży, oszacowania kosztów zużycia materiałów, energii oraz ilości godzin pracy włożonej w powstanie dzieła. A zatem miara jest tym, czym musi operować menedżer. Najlepiej świadczą o tym japońskie systemy produkcyjne, które doprowadziły niemal do doskonałości pomiar efektywności (rozdział 3.3.3). Zmierzyć można praktycznie wszystko, nawet wielkości niematematyczne. Problemem jest jednak interpretacja otrzymanego wyniku. W tym miejscu dotykamy pragmatyzmu interpretacyjnego, gdzie oprócz miary, musimy dysponować kryterium uznania wyniku za pozytywny lub negatywny (kryterium aksjologiczne - oceniające). Dodatkowo dla poprawności wnioskowania wymagane jest wyrażenie ilościowe siły ekspresji cech (aksjometria)395, np. jakości, nasycenia kolorem, piękna formy. To wymaga definiowania sposobu pomiaru, skali oraz miary. Nie jest to zagadnienie łatwe, albowiem wymaga najczęściej stosowania funkcji wielu zmiennych i często ważniejszym jest oszacowanie maksymalnego błędu pomiaru, niż podanie dokładnej wartości. W dodatku, stosując metody ilościowe, zawsze borykamy się z problemem skończonej liczby zmiennych, które stosujemy do opisania rzeczywistości. Traktujemy te pozostałe, jako nieistotne (mający znikomy wpływ na wynik), co może okazać się założeniem błędnym. Problem ten nazywamy ceteris paribus. Jest to kompromis, który przyjmujemy, albowiem dostępne nam metody matematyczne i numeryczne nie pozwalają na stosowanie modeli absolutnie pewnych w układach rzeczywistych. Nie oznacza to, że każdy pomiar w naukach społecznych jest błędny lub zły. Po prostu trzeba mieć świadomość ograniczeń. 394 395 Gospodarek T., „Aspekty złożoności…”, str. 199 Hartman, R. S., op. cit. 359 5.1 Miara Rozważania na temat miary należy zaproponować jej definicję. Najlepszą wydaje się być definicja oparta na opisie przekształcenia wzajemnie jednoznacznego mierzonej cechy na liczbę (lub zbiór liczb). Df: Miarą nazywamy uporządkowaną trójkę liczb [Emp, Num, M], gdzie: Emp jest rzeczywistym obiektem mierzalnym (bytem) posiadającym cechę mierzalną, np. wartość, ilość, jakość. Num stanowi wyrażenie przekształcające cechy Emp w jakimś języku symbolicznym, reprezentującym wyniki pomiarów, np. w zbiorze liczb rzeczywistych, zbiorze liczb naturalnych, zbiorze zmiennych logicznych (prawda, fałsz). M jest jakimś jednoznacznym odwzorowaniem Emp do Num (np. przyporządkowanie określonej liczby rzeczywistej dla długości pręta według kryterium wzorca długości). Takie ujęcie definicji miary jest uniwersalne i pozwala na zbudowanie akceptowalnej miary dla każdego problemu dającego się sprowadzić do swojej reprezentacji semantycznej. Dotyczy to również zagadnień niematematycznych (oceny eksperckie, oszacowania cech jakościowych np. smaku), niezależnie od subiektywizmu obserwatora oraz użytych metod pomiarowych. Co to oznacza w praktyce menedżera oraz teorii zarządzania? Dla każdej cechy mierzalnej danego bytu Emp (np. użyteczności maszyny produkcyjnej) można przyporządkować liczbę M lub pewien zbiór liczb M (jeżeli użyteczność jest określana za pomocą więcej niż jednej zmiennej), dający się w jakiś sposób formalny wyrazić za pomocą Num (np. oszacowanie liczbowe zbioru cech obiektu M składających się na użyteczność), za pomocą metody lub zbioru metod Num. 5.1.1 Skala Zdefiniowanie miary wymaga dodatkowo wyskalowania uzyskanego wyniku M w określonej w skali, np. liniowej 0 – 100 %. w celu sformułowania kryterium pragmatycznego oceny wyniku i jego interpretacji. Typ danych ma istotny wpływ na konstrukcje skal pomiarowych, nie tylko w naukach społecznych, ale również w naukach przyrodniczych. S. Stevens wyróżnił cztery skale dla danych pomiarowych: Skala nominalna – niektóre obiekty mają przyporządkowane wyłącznie etykiety lub nazwy (np. nazwiska, kody towarowe, kody kreskowe EAN, itp.). Nie mają one właściwości matematycznych. Jedyną relacją dla porównań wartości według skali nominalnej jest relacja równości. W ten sposób równoważność towarów na półce sklepowej skutkuje równością znakową ich kodów kreskowych (lub kodów towarowych, wyrażonych symbolicznie). Dwa towary nie będące 360 identycznymi, mają też różne kody (różne miary nominalne). Taka skala nie pozwala na żadne operacje matematyczne poza porównaniem liczby kontrolnej albo równoważności obrazu. Można na jej podstawie ustalić kryterium tak/nie oraz dokonywać wyboru jednostki z określonego zbioru. Nie można wyliczyć średniej, bo nie jest wiadomo co oznacza średnia z kilku kodów towarowych (trochę jednego, trochę drugiego). Jeżeli jednak dwie zmienne prezentowane na skali nominalnej są podzielone na kategorie, (np. czyta, nie czyta oraz kobieta, mężczyzna), można badać ich niezależność za pomocą testów nieparametrycznych, np. chi-kwadrat, stawiając pytanie czy: czy płeć ma wpływ na czytelnictwo gazety, czasopisma, itp. Skala porządkowa – wartości w tej skali określa dowolna relacja porządkująca. Nie ma zdefiniowanej odległości między elementami zbioru Emp. Można tej skali użyć do rangowania jakiej cechy jakościowej, (np.: wykształcenie podstawowe, średnie, wyższe licencjackie, wyższe, wyższe ze stopniem naukowym). W zarządzaniu może to być ranking preferencji. Umożliwia ona ustalenie siły ekspresji cech, np. zabarwienia. Jak łatwo zauważyć, obliczanie średniej również i w tym przypadku nie ma sensu, bo nie wiadomo co oznacza wynik pośredni np. wykształcenie więcej niż średnie i trochę mniej niż wyższe. Właściwe użycie skali porządkowej pozwala na oszacowania większe niż, mniejsze niż. Ma zatem większe znaczenie niż skala nominalna. Ustalenie rang dla dwóch zmiennych pozwala na wykorzystanie testu sumy rang dla ustalania zależności między tymi zmiennymi dla małych próbek pomiarów. Skala interwałowa (przedziałowa) – Charakteryzuje się zdefiniowaną różnicą pomiędzy wartościami (dla określonego przedziału zmiennej np. czasu). Iloraz dwóch wielkości w tej skali nie ma sensownej interpretacji. Przykładem mogą być skale opinii (np.: 1 = bardzo złe, 2 = złe, 3 = neutralne, 4 = dobre, 5 = bardzo dobre). Nie istnieje również w tej skali punkt zerowy w sensie bezwzględnym, bo wartość 0 ustalona jest dla całego przedziału zmiennej niezależnej i może to być dowolna liczba pośrodku skali. Dla tej skali dopuszcza się korelację oraz regresję jako metody statystyczne. Stąd wynika również możliwość interpolacji i ekstrapolacji wartości mierzonych w skali interwałowej jako średnia. Zasadne stają się wówczas statystyki dla średniej (np. F-Snedecora oraz wariancja). Skala ilorazowa – W tej skali zarówno różnice, jak i ilorazy wielkości mierzonych mają swoją, fizyczną interpretację. Przykładem może być ilość jednostek towarów, wartość dobra, koszt wytworzenia, itp. Wielkości wyrażone w skali ilorazowej są addytywne i multiplikatywne. Istnieje również punkt zerowy. Możliwe jest zatem dzielenie przez siebie dwóch wartości ze skali ilorazowej. Skala ta ma dla zarządzania największe znaczenie. Dozwolone są w niej wszelkie statystyki, średnie i przekształcenia jednostek. Mają również sens aproksymacje funkcyjne, interpolacja i ekstrapolacja. Skala ilorazowa może być łatwo uogólniona do wielowymiarowej. 361 Skala bezwzględna - gdzie dla danej zmiennej istnieje jeden i tylko jeden sensowny sposób kodowania wyników pomiaru (np. ilość osób zamieszkałych na danym obszarze, liczba maszyn w wykazie majątku, itp.). Ma ona zastosowanie przede wszystkim w ewidencji, gdzie występuje ilość albo wartość. 5.1.2 Miara integralna w zagadnieniu wielowymiarowym Załóżmy, że dany byt może zostać scharakteryzowany za pomocą wielu cech mierzalnych. Przykładem może być charakterystyka opon zgodnie z wytycznymi UE. Składają się na nią cztery cechy: cena, głośność toczenia, wpływ na zużycie paliwa, trzymanie na suchej nawierzchni, trzymanie na mokrej nawierzchni. Wszystkie wymienione cechy są od siebie niezależne, ale wyrażane w skali ilorazowej. Wówczas do zbudowania integralnej miary użyteczności dla konsumenta, uwzględniającej równocześnie wszystkie wymienione cechy, można użyć formalizmu przestrzeni wektorowej. Miarą jest wówczas długość wektora w przestrzeni metrycznej wymiaru 4, zbudowanej na miarach poszczególnych cech. Możliwe jest wówczas takie przekształcenie skali, że uzyskamy syntetyczny wskaźnik w przedziale [0, 1] co jest równoznaczne z wykorzystaniem skali procentowej. Załóżmy teraz, że mamy kilka charakterystyk podmiotu wyrażonych w skali interwałowej. Grupa ekspertów ocenia kolor, smak i zapach w skali punktowej 0 – 10 pkt. Również i w takim przypadku możemy użyć formalizmu przestrzeni wektorowej i miary opartej na długości wektora, normalizowanej do 100%. Jest to powszechnie wykorzystywane w opracowaniach statystycznych (np. globalny wskaźnik innowacyjności, globalny wskaźnik konkurencyjności). Pozwala to wykorzystać metodę wielokryterialną do budowania syntetycznych wskaźników aksjologicznych. Zagadnienie miary w problemie wielowymiarowym można wykorzystać w różnych sytuacjach praktycznych. ocena użyteczności, np. oprogramowania, syntetyczne kryterium kosztów i korzyści (metoda CBA), oszacowanie scoringowe konkurencyjności kraju, ustalenie poziomu innowacyjności organizacji, wpływ wielu czynników na zmienną globalną. Zagadnienia pomiarowe, związane z analizą wielokryterialną i budowaniem skali syntetycznej zostały bardziej szczegółowo omówione dalej. 5.1.3 Dystans do frontiery (ranking benchmarkingowy) Jeżeli dokonujemy pomiarem jakiej cechy produktu, grupy społecznej, czy gospodarki i chcemy wynik porównać w relacji do innych, to potrzebujemy nie tylko miary, ale również sposobu odniesienia do najlepszego lub najgorszego w grupie. Ma to szczególne znaczenie w stosowaniu miary integralnej, zwłaszcza 362 gdy kryteria są różnego typu (rozdział 6.1). Najlepiej jest to wykonać, wykorzystując miarę względną, znormalizowaną do 100%. Iloraz uzyskanego wyniku z pomiaru i wyniku maksymalnego jest przykładem skali umożliwiającej taką procedurę. Nie uwzględnia on jednak wpływu wyniku najgorszego w grupie porównywanej na wynik, co jest pewnym ograniczeniem interpretacyjnym. Dlatego dla celów benchmarkingwych wykorzystuje się skalę ilorazową odległości do frontiery DTF (krzywa pomiędzy mimimum, a maksimum taka, że żaden punkt leżący na frontierze nie jest zdominowany przez inny punkt jak to zilustrowano na rys.5.1). Rys. 5.1 Ilustracja kontrukcji frontiery dla przypadku dwóch zmiennych f1 i f2 Jak zatem mierzymy wynik procentowy w raporcie benchmarkingowym? Jest to dystans do frontiery (DTF) będącej linią prostą, który odległość pomiędzy minimum i maksimum danej wielkości mierzonej ustala jako 100%. Stąd wszystkim wynikom pośrednim (pomiędzy max i min) możemy przypisać proporcjonalną wartość w procentach rys. 5.2. Załóżmy, że wynik pomiaru danej zmiennej liniowej (w tym przypadku zależność jest wprost proporcjonalna), w najlepszym przypadku wynosi 60, a najgorszym przypadku 20. Frontiera jest tu linią prostą łączącą punkty minimum i maksimum. Przedział [20, 60] jest odwzorowany na przedział [0, 100%], co pozwala graficznie rzutować wynik pomiaru na skalę procentową, na osi prostopadłej. W ten sposób wynik 45 oznacza w rankingu DTF 62,5%. Jest to bardzo wygodny sposób prezentowania danych dla celów benchmarkingu. 363 Rys. 5.2 Ilustracja prezentacji rankingu jako odległości od frontiery. Metodę DTF można również użyć do analizy danych wielowymiarowych, budując odpowiedni wektor, którego długość jest rzutowana na przedział [0,1] (rozdział 6.1.5). Wszystkie, pozostałe filary podlegają podobnym zasadom metodologicznym, a ich omówienie można znaleźć na stronie poświęconej raportowi Doing Business (rozdział 5.4.7). 5.2 Wnioskowanie statystyczne i testowanie hipotez Jednym z najważniejszych problemów w zarządzaniu jest weryfikacja hipotez i interpretacja statystyczna danych dla zmiennych losowych (modele niedeterministyczne). Kluczowym zagadnieniem jest wybranie testu statystycznego, nadającego się do wykorzystania dla danego typu zmiennych. Mamy tu dwie grupy zagadnień: porównanie grup (czy próby badane pochodzą z tej samej populacji), stwierdzenie istnienia związku pomiędzy zmiennymi. Do dyspozycji mamy testy parametryczne, dotyczące ciągłych rozkładów zmiennej losowej (np. t-Studenta dla rozkładów zbliżonych do normalnego), wyrażanej w skali ilorazowej oraz testy nieparametryczne dla różnych, niekoniecznie ciągłych rozkładów, mogących różnić się od normalnego (np. rozkłady skośne Levy’ego). A zatem wybór metody zależy od typu zmiennej i skali, w jakiej jest ona wyrażana. 364 5.2.1 Porównanie grup mierzonych niezależnie Problem sprowadza się do wyselekcjonowania dwóch próbek pomiarowych, co do których możemy wypowiedzieć się, że są one reprezentatywne statystycznie. Należy ten fakt zbadać, a dopiero następnie postawić hipotezę o braku różnicy pomiędzy próbami, wobec hipotezy alternatywnej o istnieniu tej różnicy. Dopiero wówczas można dokonać obliczeń zgodnie z metodyką wybranego testu weryfikacji hipotez statystycznych i porównać wynik z wartościami krytycznymi, dostępnymi w tablicach. Wybór testu dla porównań zależy od rodzaju zmiennej mierzonej i skali, w której zmienna jest wyrażana. Zmienna pomiarowa jest wyrażana w skali nominalnej – Należy wówczas zastosować test niezależności chi-kwadrat Pearsona pomiędzy zmiennymi kategorialnymi. Jest to jeden z najpopularniejszych testów statystycznych używanych w obecnie realizowanych badaniach. Podlega małej liczbie założeń i jest bardzo prosty w przeprowadzeniu, a przy tym dokładny. Stosujemy go wyłącznie dla przypadku dwóch zmiennych, które mogą mieć kilka wariantów odpowiedzi (np. płeć z wariantami kobiety, mężczyźni, inni) oraz (czytelnictwo czasopisma z wariantami często, rzadko, wcale). Zmienna pomiarowa wyrażana jest w skali porządkowej – test sumy rang U- Wilcoxona-Manna-Whitney’a (alternatywa dla testu t-Studenta). Z testu U można również skorzystać, gdy zmienna jest wyrażona w skali dychotomicznej (czyli 0 - 1). Test nie wymaga ani równoliczności grup ani rozkładu normalnego ani homogenicznych wariancji. Liczebność grupy badanej nie musi być duża, co jest bardzo ważnym czynnikiem dla badacza, który dysponuje ograniczoną ilością wypowiedzi ankietowych. Dlatego test U jest bardzo uniwersalny i użyteczny. A jeżeli uwzględnić fakt, że jest on bardzo łatwy w przeprowadzeniu, to skłania do zwrócenia na niego szczególnej uwagi przy planowaniu badań. Zmienna pomiarowa wyrażana jest w skali interwałowej lub ilorazowej – Rozkłady zmiennych losowych porównywanych powinny być zbliżone do normalnego. Wówczas możemy zastosować test t-Studenta dla prób niezależnych. Stosujemy go wyłącznie dla porównania dwóch niezależnych grup ze sobą (np. zawodowi testerzy i grupa konsumencka), odpowiadając na kwestie czy różnice wskazań w tych grupach są istotne statystycznie. Nie wnikając w szczegóły, istnieje trzy typy testów t-Studenta (dla prób niezależnych, dla prób zależnych oraz dla jednej próby). Za pomocą testu t-Studenta nie można porównywać ze sobą kilku grup, wykonując kolejno test między różnymi grupami. Albowiem z faktu, że A≠B i A≠C nie wynika wprost, że B≠C. Jeżeli mamy więcej niż dwie grupy do porównania, to musimy skorzystać z innych testów statystycznych albo formułować hipotezy tak, żeby porównywać jedynie dwie grupy. 365 5.2.2 Porównanie więcej niż dwóch zmiennych Ponieważ nie da się przenieść wyników testów dla dwóch zmiennych na wynik problemu wielu zmiennych, należy stosować inne statystyki. Jednoczynnikowa analiza wariancji ANOVA dla klasyfikacji pojedynczych zmiennych, podzielonych na przedziały umożliwia sprawdzenie hipotezy o równości wariancji w każdym podprzedziale. Wymaga, aby w każdym z przedziałów występował normalny rozkład zmiennej losowej. Średnie kwadraty odchyleń pomiędzy grupami oraz średni kwadrat odchyleń wewnątrz każdej z grup porównujemy za pomocą statystyki Fishera F. Niestety ta statystyka nie mówi, który przedział przyczynił się do istotności różnic, o ile wystąpią. Dlatego konieczne jest uzupełnienie o test istotności różnić, np. tStudenta. (Jest to możliwe, ponieważ założenie normalności rozkładu pozwala na używanie testów parametrycznych). Wieloczynnikowa analiza wariancji MANOVA. Bada wpływ kilku czynników międzygrupowych na zmienną zależną. Metoda analizy wariancji jest bardzo rozbudowaną techniką badawczą, a jej analiza wykracza poza ramy niniejszego opracowania. Warto jednak mieć na uwadze, że nie jesteśmy całkowicie bezradni wobec hipotez wielowymiarowych. 5.2.3 Stwierdzenie istnienia związku pomiędzy zmiennymi Jest to przypadek bardzo często analizowany przez menedżerów i badaczy z obszaru nauk społecznych (w tym zarządzania). Występuje tu kilka sposobów postępowania w zależności od rodzaju zmiennej oraz użytej skali. Obie zmienne skalowane za pomocą skal przedziałowych i ilorazowych. Najprostszym sposobem ustalenia związku (ale jedynie liniowego lub sprowadzalnego do liniowego za pomocą przekształceń matematycznych) jest korelacja w sensie Pearsona. Ten związek należy rozumieć jako podobieństwo dwóch cech (np. ilość godzin treningu tygodniowo, a wynik pływania na 100 m). Statystyką testującą jest w tym przypadku współczynnik korelacji r Pearsona. Mówi on równocześnie o istnieniu zależności, jej sile i kierunku (korelacja prosta rmax = 1 albo odwrotna rmax = -1). Jeżeli r = 0, wówczas mówimy o braku związku396. Sposobem wyliczenia współczynnika korelacji jest metoda najmniejszych kwadratów (rys. 6.3). Wartość krytyczna współczynnika r odczytywana jest z tablic rozkładu Pearsona (lub wprost z danych programów IT, oferujących analizy statytyczne). Warunkiem jest mierzalność obu zmiennych (co najmniej skala przedziałowa). Dodatkowo należy zakładać rozkład zmiennej losowej zbliżony do normalnego (ale można ten warunek osłabić). Ale uwaga! Jeżeli zależność między zmiennymi ma postać funkcji symetrycznej (np. funkcja kwadratowa), wówczas współczynnik korelacji będzie zawsze zerem pomimo istnienia 100% korelacji. 396 366 Obie zmienne są wyrażone w skali porządkowej albo jedna z nich jest w skali porządkowej, a druga w przedziałowej lub ilorazowej. Wówczas należy zastosować współczynnik korelacji rho Spearmena albo tau Kendalla. Stanowią one odpowiednik nieparametryczny korelacji r Pearsona. W przypadku zastosowania korelacji rho, wyniki są w pierwszej kolejności poddawane rangowaniu i dopiero wówczas stosuje się metodę najmniejszych kwadratów. To pozwala na badanie korelacji na skali porządkowej i nie ma to znaczenia, czy wyniki podlegają rozkładowi normalnemu. Jest to bardzo użyteczna opcja. Dodatkowo współczynnik rho Spearmena jest znacznie bardziej odporny na odchylenia pomiarów w próbie na skutek rangowania. Przykładem zastosowania może być badanie zależności pomiędzy zasobnością mierzoną w przedziałach, a poziomem wykształcenia (skala porządkowa). Obie zmienne lub jedna z nich są wyrażone w skali nominalnej. W tym przypadku używa się testu chi-kwadrat. Można dodatkowo uzupełnić testowanie testem phi lub V Cramera. Metoda chi-kwadrat jest bardzo uniwersalnym sposobem wyszukiwania zależności pomiędzy zmiennymi niemierzalnymi. Nie wymaga rozkładu normalnego. Pozwala użyć stosunkowo małych liczebności. Stanowi test nieparametryczny. W pierwszym kroku oblicza się liczebności teoretyczne i sumy kwadratów odchyleń w stosunku do liczebności mierzonych dla danej kategorii. Następnie wylicza się współczynniki cząstkowe chi-kwadrat i sumuje. Wartość porównuje się z wartością krytyczną z rozkładu chi-kwadrat. Kończąc rozważania tego rozdziału należy podkreślić wagę hipotez możliwych do statystycznego potwierdzenia lub obalenia z punktu widzenia zarządzania. Zostały zasygnalizowane jedynie użyteczne metody bez wgłębiania się w szczegóły metodologiczne. Warto mieć świadomość, że większość obliczeń można przeprowadzić za pomocą arkusza kalkulacyjnego, a wartości krytyczne znanych statystyk (t-Studenta, F-Snedecora, chi-kwadrat czy też r Pearsona) są wbudowane w standardowe funkcje Excela czy też Open Office. 5.3 Metody ilościowe w zarządzaniu Jest to cały dział wiedzy, który wykorzystuje modele i metody matematyczne oraz ekonometryczne w analizach ilościowych funkcjonowania organizacji. Badania operacyjne dostarczają obiektywnego wsparcia decyzyjnego, ograniczają niepewność decyzyjną, pozwalają ograniczyć ryzyko oraz zbudować kryteria epistemiczne wyboru. Trudno wyobrazić sobie menedżera poważnej firmy, który niczego nie mierzy, nie waży i nie analizuje ilościowo (zwłaszcza stanu finansów i kosztów). Potrzebujemy modeli, potrzebujemy metod i potrze- 367 bujemy dobrej prognozy. Z drugiej strony, jeżeli zarządzanie ma na celu jakąkolwiek optymalizację, to musi dokonać pomiaru stanu sytuacyjnego lub położenia ekonomicznego w chwili początkowej i po pewnym czasie. Oto dziesięć podstawowych pytań, stawianych menedżerowi, które wymagają obliczeń, a często również zastosowania złożonych systemów IT, wspomagających przetwarzanie danych źródłowych, dokumentujących procesy biznesowe. 1. Ile kosztuje godzina pracy organizacji i jaka jest wartość zasobów zaangażowanych w procesy produkcyjne? 2. Czy jesteśmy w stanie wyprodukować 1000 detali w ciągu tygodnia, opisanych w zamówieniu? 3. Jaki jest stan gotówki w kasie i ile musimy mieć wolnych środków do dyspozycji w dniu jutrzejszym? 4. Czy lepiej jest kupić samochód ciężarowy w leasingu, czy na kredyt, czy może skorzystać z outsourcingu? 5. Jaka struktura zapasu w magazynie gwarantuje najlepszą rotacyjność? 6. Jak zmniejszyć należności podatkowe na przełomie roku? 7. Ile będzie kosztować firmę wprowadzenie minimalnej stawki wynagrodzenia? 8. Które pozycje z portfela sprzedaży przynoszą najlepsze dochody? 9. Czy uruchomić własną lakiernię, czy korzystać z usług podwykonawców? 10. Czy warto wziąć kredyt na działalność z tej, a nie z innej oferty? Takich pytań można postawić znacznie więcej, a menedżer musi dysponować wiedzą i narzędziami wspomagającymi udzielenie na nie odpowiedzi. Jak widać, bez obliczeń i pomiaru nic z tego nie będzie. A zatem nie ma możliwości ucieczki od liczb i oszacowań. Zarządzanie wymusza stosowania matematyki i modeli ilościowych w codziennej praktyce. Stąd wynika celowość krótkiego zaprezentowania wybranych metod ilościowych, szczególnie istotnych dla wspierania podejmowania decyzji i oszacowań rezultatów działalności. Nie jest celem niniejszej monografii prezentacja szczegółowa modeli matematycznych oraz teorii poszczególnych metod, ale przedstawienie ich zastosowań w praktyce. Zainteresowanych odsyłam do książek poświęconych badaniom operacyjnym, w szczególności do doskonałej monografii D.R. Andersona i wsp397. 5.3.1 Programowanie liniowe Metoda wykorzystująca rozwiązania układów równań liniowych, reprezentujących zmienne, które można sprowadzić do zależności liniowej. Metody tej można używać w zagadnieniach maksymalizacji produktywności, minimalizacji 397 Anderson D.R., op. cit. 368 kosztów, optymalizacji portfela zamówień, poziomu obciążenia pracą, strategii produkcji, analiz wrażliwości, w zagadnieniach efektywności marketingu, do modelu DEA etc.). Jak można zauważyć, jest to szczególnie użyteczna metoda, łatwa do stosowania, łatwa w interpretacji, a dodatkowo można dokonywać obliczeń z zakresu programowania liniowego z pomocą Excela lub podobnych narzędzi. Niektóre, proste zagadnienia, jak wyliczenie zdolności produkcyjnej, można rozwiązać graficznie. Znaczna ilość zagadnień związanych z praktyką zarządzania operacyjnego daje się sprowadzić do analizowania zależności liniowych, np. liczba godzin pracy dla danej czynności produkcyjnej w zależności od ilości produkcji. (Im więcej produkujemy, tym większy czas jest potrzebny). Może to być liczba odsłon stron internetowych w zależności od czasu prezentacji reklamy na stronie. Ale analizowany proces może być zależny od kilku zmiennych liniowych, co powoduje, że znalezienie optymalnych parametrów jego przebiegu wymaga rozwiązania układu równań liniowych. Mamy wówczas do czynienia z zagadnieniem z zakresu programowania liniowego. Przykład 5.1 Minimum kosztów produkcji dla zamówienia Jako przykład można rozważyć problem prostej minimalizacji kosztów produkcji. Pewien zakład produkuje tlenek ołowiu PbO i dwutlenek ołowiu PbO2. Oba tlenki są produktami handlowymi, a jednocześnie półproduktami dla wytwarzania minii ołowiowej Pb3O4, a PbO2 dodatkowo wykorzystuje się do produkcji akumulatorów. Zdolności produkcyjne zakładu są ograniczone wielkością wsadu do pieca. Optimum produkcji ma miejsce wówczas gdy na 3 części PbO przypada jedną część PbO2, przy tym cykl produkcyjny PbO wynosi 1 godzinę, a PbO2 2 godziny na 1 tonę produktu. Klient zamówił 8 ton PbO2 i musimy to zamówienie zrealizować.. Ile należy wyprodukować PbO, a ile PbO2 z wsadu 20 ton Pb, żeby koszty były jak najniższe przy istniejących ograniczeniach i priorytecie realizacji zamówienia dla klienta. Powyższe zagadnienie jest możliwe do rozwiązania za pomocą układu równań liniowych, z których jedno dotyczy prostej optymalnej produkcji, drugie ilustruje zużycie czasowe na tonę produkcji. Trzecie jest ograniczeniem wynikającym z żądania zamawiającego. Układ równań można rozwiązać nawet graficznie, wskazując na obszar wykonalności zagadnienia oraz punkt optymalny. Przykład 5.2 Obliczenie za pomocą Excela maksimum dochodu z produkcji Produkcja pary produktów składa się z czterech operacji numerowanych od 1 do 4. W tabeli podane są czasy jednostkowe na wykonanie jednej sztuki oraz maksymalne czasy dostępne w harmonogramie działania firmy, stanowiące ograniczenia. 369 Tabela 19 Dane do obliczeń metodą programowania liniowego dla przykładu 5.2. Nakłady czasowe [godz.] Operacje w procesie produkcji Produkt A Produkt B Czas dostępny Operacja 1 0,70 1,00 630 Operacja 2 0,50 0,83 600 Operacja 3 1,00 0,67 708 Operacja 4 0,10 0,25 135 120 100 Dochód na 1 sztukę [zł] Ilość optymalna 540 Maksymalny dochód [zł] Warunki ograniczające 252 90 000 Liczba godzin wykorzystana Różnica Na operację 1 630 0 Na operację 2 480 120 Na operację 3 708 0 Na operację 4 117 18 Przygotowanie danych w programie Excel Wpisać dane z górnej części tabeli 19 do pustego arkusza programu Excel, a następnie uzupełnić komórki funkcyjne tak, żeby uzyskać strukturę przedstawioną na rys. 5.3. Funkcją maksymalizującą dochód: L = Max{(ilość A * cenaA)+(ilość B * cenaB)} (w naszym przypadku, będzie to wynik komórki „B12” z rys. 5.3). Wpisujemy do „B12” =zaokr((B11*B9+C11*C9); 2) natomiast do „B15” = B5*$B$11+C5*$C$11 do „B16” = B6*$B$11+C6*$C$11 do „B17” = B7*$B$11+C7*$C$11 do „B18” = B8*$B$11+C8*$C$11 Różnice pomiędzy czasem dostępnym i wykorzystanym w maksimum do „C15”…=D5-B15 do „C16”…=D6-B16 do „C17”…=D7-B17 do „C18”…=D8-B18 Rozwiązanie problemu przy użyciu dodatku „Solver” dla MS Excel Włączyć w opcji [Narzędzia] menu głównego programu Excel, opcję [Solver] wpisując w wyświetlone okno dialogowe jak na rys. 5.3 następujące dane. Komórka celu $B$12; komórki zmieniane $B$11:$C$11 warunki ograniczające $B$15:$B$18<= $D$5:$D$8 Tak przygotowany zestaw danych rys. 5.3 jest gotowy do obliczeń. 370 Rys. 5.3 Okno dialogowe Solver dla przykładu rozwa żanego Należy jeszcze dodać warunki sterujące dla rozwiązania, wywołując okno [Opcje] i wprowadzić następujące informacje zaznaczając odpowiedni check box na formularzu: „Przyjmij model liniowy” oraz „Przyjmij nieujemne”. W tym momencie należy zaakceptować wybór naciskając „OK.”, powracając do ekranu przedstawionego na rys. 5.3, wybrać opcję „Rozwiąż” i nacisnąć klawisz. Rozwiązanie ogólne dla przypadku: maksymalny dochód 90 000 z produkcji zostanie osiągnięty przy ilości 540 szt. produktu A oraz 252 szt. produktu B. Wykorzystany zostanie całkowicie czas czynności 1 oraz 3. Pozostaną niewykorzystane godziny na czynności 2 w ilości 120 godzin oraz 4 w ilości 18 godzin. Ogólna postać zagadnienia dla dwóch zmiennych Załóżmy że mamy zagadnienie złożone z dwóch zmiennych, dotyczące optymalnej ilości produkcji ze względu na jakieś kryterium przy zadanych ograniczeniach. X1 = ilość produktu A X2 = ilość produktu B Musi istnieć funkcja celu L (model matematyczny procesu), która umożliwia wyznaczenie kryterium maksymalizacji (zysku, produktywności) lub minimalizacji (kosztów, czasu). Niech to będzie w przypadku maksymalizacji funkcja dwóch zmiennych L(X1,X2) (5.1) L = Max {kX1 + jX2 = const} Muszą istnieć jakieś kryteria ograniczające, które wpływają na rozwiązanie, dajmy na to” K1: aX1 + bX2 ≤ m (np. jakieś kryterium dotyczące ilości) K2: cX1 + dX2 ≤ n (np. jakieś kryterium dotyczące czasu) K3: X1 0 (fakt, że ilości produktu X1 nie mogą być ujemne) 371 K4: X2 0 (fakt, że ilości produktu X2 nie mogą być ujemne) Niech produkcja optymalna przebiega według zależności kX1+jX2 =q Rys. 5.4 Ilustracja dla programowania liniowego z maksimum funkcji c elu Dla przypadku zapisanego równaniem (5.1) można wykonać wykres ilustrujący zarówno obszar wykonalności, jak i punkt optymalny, jak na rys. 5.4. Obszar wykonalności mieści się pod prostymi ograniczającymi, a warunkiem istnienia optimum, jest by prosta reprezentująca funkcję celu miała przynajmniej jeden punkt styczny z tym obszarem. Jest to warunek prawdziwy dla dowolnej ilości zmiennych ograniczających, warunkujących istnienie rozwiązania. W przypadku wielu zmiennych, znalezienie minimum lub maksimum funkcji celu niekoniecznie oznacza konieczność rozwiązania układu równań liniowych. Najważniejsze jest ustalenie obszaru wykonalności. Należy dokładnie przeanalizować modele dla podobnego problemu i zdefiniować poprawnie 372 funkcję celu, wykorzystując przy tym dostępne programy dla optymalizacji, np. LINGO398. Większość zagadnień można jednak rozwiązać za pomocą arkusza kalkulacyjnego Open Office albo Microsoft Excel. Gotowe szablony problemów optymalizacyjnych, wykorzystujących Excel można znaleźć pod adresem „Try What’s Best”399. Analiza wrażliwości w programowaniu liniowym Jeżeli uda się wyznaczyć za pomocą programowania liniowego optymalną wartość jakiejś funkcji celu, to może powstać pytanie: jak zmieni się ta wartość optymalna wskutek małych zmian parametrów opisujących zagadnienie. Te zmiany mogą być wywołane dowolnym zaburzeniem procesowym, niezależnym od ustaleń. Tym samym zbadanie zachowania się optimum w pewnym obszarze zmienności parametrów jest prognozą ryzyka. Załóżmy, że funkcja celu L(X1,X2) została ustalona jako mX1 + nX2 i szukamy dla niej maksimum przy określonych ograniczeniach. Powstają wówczas następujące zapytania, zaczynające się od Jak zmieni się rozwiązanie optymalne problemu, gdy funkcja L zmieni się o 10% ze względu na:: 1. parametr X1, tzn. [0,9nX1 + mX2 ; 1,1nX1 + mX2]. 2. parametr X2, tzn. [nX1 + 0,9mX2 ; nX1 + 1,1mX2]. 3. jednocześnie parametr X1 oraz X2, tzn. [0,9(nX1 + mX2), 1,1(nX1 + mX2)]. Oczywiście, pytania ogólne dotyczą przedziałów zmienności parametrów np. o 10%. To powoduje, że można ustalić granice bezpieczeństwa wykonania zamówienia i wykorzystania mocy produkcyjnych, a tym samym ograniczyć ryzyko założenia, że w procesie produkcyjnym wszystko pójdzie według optymalnych parametrów. Warunkiem rozpoczęcia analizy wrażliwości jest jednak ustalenie rozwiązania optymalnego bez odchyleń. W wyniku przeprowadzenia obliczeń, może okazać się, że brzegowe odchylenia nie mieszczą się w obszarze wykonalności. Na ogół jednak zmiany w równaniu krzywej celu zmieniają jedynie jej nachylenie oraz przesunięcie wzdłuż osi pionowej. To pozwala na znalezienie nowej stycznej do obszaru wykonalności i wyznaczenie nowego punktu optymalnego. W analizie wrażliwości zastosowanie arkusza kalkulacyjnego jest naturalną koniecznością. Solver automatycznie generuje raport wrażliwości dla wyniku optymalnego. Dla danych z przykładu 5.2 raport ten ma postać: 398 399 Lindo Systems Inc. http://www.lindo.com/index.php/ls-downloads/try-lingo Lindo Systems Inc., http://www.lindo.com/index.php/ls-downloads/try-what-sbest 373 Tabela 20 Analiza wrażliwości dla przykładu 5.2 Metoda Data Envelopment Analysis (DEA) Efektywność organizacji, alokacji zasobów, inwestowanie, etc. jest ważnym zagadnieniem zarządzania. Rozumienie tego pojęcia jest rozmyte, bo może dotyczyć różnych aspektów ekonomii oraz kwestii optymalizacji organizacji. Z punktu widzenia metod ilościowych efektywność wiąże się z zagadnieniem, w którym można wyznaczyć minimum lub maksimum ze względu na jakąś funkcję celu, zadaną a priori. Tym samym DEA jest metodą nieparametryczną znajdowania frontiery zagadnienia produkcyjnego, użyteczności, funkcjonalności oraz ustalania benchmarkingu400. Wykorzystuje jako wynik finalny benchmarkingu odległość do frontiery funkcji celu ( przypadek liniowy DTF str. 409). Model tworzenia benchmarkingu opartego na DEA można zdefiniować następująco: mamy pewną liczbę k porównywanych obiektów Uj. Dla każdego z nich wybieramy funkcję scoringową L (np. wektor wielokryterialny), która maksymalizuje wynik oceny dla dowolnego Uk. Stąd dla każdej jednostki Uj, wynik funkcji Lj ≤ 1. Załóżmy, że dla jednostki k, wynik Lk = 1, to oznacza że żadna inna jednostka nie zdominuje w porównaniu k. W porównaniu DEA zakładamy, że dozwolone funkcje scoringowe są ilorazem sumy ważonych wyników i sumy ważonych wejść (podanych warunków lub ograniczeń). Normalizując wagi do 1, można stwierdzić, że ważona suma wejść ważonej sumie wyjść. Algebraicznie model DEA możemy zapisać jak poniżej (sformułowanie problemu z przykładu 5.2 str. 360). Niech: n = liczba jednostek porównywanych podejmujących decyzje, m = liczba kryteriów decyzyjnych (liczba wejść), s = liczba danych na wyjściu (parametry oceny), Dane zmieniane w Solverze: Cij = j-ty element kryterium dla jednostki ocenianej o numerze i, Rij = j-ty element wyjściowej oceny dla jednostki o numerze i, Domagała A., „Metoda data envelopment analysis jako narzędzie badania względnej efektywności technicznej” Badania operacyjne i decyzje, Nr 3-4, (2007), 21-34. 400 374 Zmienne: Wj = ograniczenia (wagi) stosowane dla j-tego kryterium, Vj = wartości obliczone dla j-tego rezultatu. Funkcja optymalizacji L (5.2) s Lk max v j rkj przy ograniczeniach j 1 m w c j kj 1 j 1 Dodatkowo z warunku DEA mamy kolejne ograniczenia dla każdego i (5.3) s m j 1 j 1 v j rkj w j ckj Mamy w ten sposób zagadnienie sprowadzone do metodyki programowania liniowego. Pozwala to wykonać dowolną analizę porównawczą z wynikiem względnym procentowym w relacji do frontiery (maksymalnego, osiągniętego rezultatu dla funkcji optymalizacji ze zbioru L). 5.3.2 Optymalizacja nieliniowa Pod pojęciem optymalizacji nieliniowej mieści się cały szereg zagadnień praktycznych zarządzania operacyjnego, jak: optymalizacja logistyczna, optymalizacja produkcji, model portfolio Markowitza, prognoza dla wdrożeń nowego produktu, modele zamówień, prognozowanie TCM, ile zamówić, kiedy zamówić etc.). Metoda programowania nieliniowego jest bardziej uniwersalna niż programowanie liniowe, ale znacznie trudniejsza w zastosowaniach. Dodatkowo wymaga wiedzy z zakresu stosowania algorytmów i metod przybliżonych. W wielu wypadkach problem nieliniowy można sprowadzić do postaci liniowej bądź to przez przekształcenie ciągłej funkcji celu do postaci liniowej (np. A∙exp(-kx) za pomocą funkcji ln ), bądź to przez rozwinięcie na szereg Taylora i pominięcie wyrazów o potędze wyższej, niż pierwsza. W przypadku funkcji nieciągłych konieczne będzie zastosowanie metody interpolacji liniowej metodą najmniejszych kwadratów (rozdział 6.2.1). W najgorszym przypadku problem może nie być rozwiązywalny na poziomie liniowym, ale dobrze przybliżony na poziomie funkcji kwadratowej lub jakiejś innej krzywej stożkowej. Ostatnim wariantem jest wariant stochastyczny o zadanym rozkładzie prawdopodobieństwa. Tu wszystko zależy od postaci funkcyjnej dystrybuanty zmiennej losowej. Jeżeli mamy do czynienia z zagadnieniem nieparametrycznym (np. rozkład dyskretny, zadany w postaci tablicy), nie da się w prosty sposób stworzyć modelu, ale nie jest to niemożliwe. Dlatego, jeżeli nie jest możliwe sprowadzenie problemu do postaci liniowej, trzeba poszukiwać modelu przybliżonego dla funkcji celu (funkcji optymalizującej). Można użyć metod interpolacji 375 funkcyjnej, w szczególności aproksymacji liniowej znanych z analizy numerycznej401. Przykładem linearyzacji problemu pomiarowego jest metoda najmniejszych kwadratów, przedstawiona w rozdziale 6.2.1. Model efektywnego portfolio Markowitza Ponieważ zagadnienia poszukiwania ekstremum funkcji wielu zmiennych wykracza poza zakres niniejszej monografii, zainteresowanych odsyłam do opracowań z zakresu badań operacyjnych oraz podręczników metod numerycznych. W tym miejscu zaznaczę jedynie możliwości praktyczne wykorzystania zagadnień optymalizacji nieliniowej w zagadnieniach biznesowych402,403. Wróćmy do przypadku liniowego (przykład 5.2). Jeżeli którekolwiek z ograniczeń będzie zadane jako krzywa, wówczas zmieni się kształt obszaru wykonalności i zamiast linii prostych przecinających się, pojawią się w ich miejsce krzywe. Natomiast, jeżeli funkcja celu nie będzie zadana w formie liniowej, ale np. jako funkcja kwadratowa, to jej styczność z obszarem wykonalności musi być wyznaczona przez rozwiązanie układu równań nieliniowych. Znanym przykładem optymalizacji nieliniowej jest model Markowitza dla efektywnego portfolio aktywów oparty na średniej wariancji oczekiwanego ryzyka404. Zgodnie z teoria portfelową, maksymalizacja stopy zwrotu nie jest jedynym celem przy konstruowaniu portfela, ponieważ wraz oczekiwanym zyskiem rośnie ryzyko. Z modelu Markowitza można wyliczyć najkorzystniejszą proporcję zysku i ryzyka. Istnieje wiele możliwych portfeli aktywów o zakładanej stopie zwrotu, ale tylko jeden z nich charakteryzuje się minimalnym ryzykiem. W drugą stronę, istnieje wiele portfeli o zakładanym ryzyku, ale wówczas tylko jeden z nich daje maksymalny zwrot z inwestycji. Optymalizacja Markowitza może być rozpatrywana na bazie teorii gier, gdzie mamy do czynienia z sytuacją konfliktową zysk/ryzyko i wówczas wybór minimaksowej strategii inwestowania jest rozwiązaniem najbardziej racjonalnym. Wykracza to jednak poza zakres niniejszej monografii, aczkolwiek zagadnienie jest bardzo interesujące. Model adaptacji rynkowej Bassa Innym przykładem może być analiza marketingowa adaptacji rynkowej substytutów produktu innowacyjnego lub technologii, oparta na modelu dyfuzji innowacji i krzywej Bassa405. Model ten stara się wykorzystać krzywą popytu dla istniejącego produktu do prognozowania popytu na jego zamiennik albo nowy Ralston A., „Wstęp do analizy numerycznej”, PWN Warszawa, 1971 Anderson D.R. i wsp., op. cit rozdział 8. 403 Schrage L., “Optimizantion Modeling with LINGO”, wyd. 6, Lindo Systems Inc., Chicago, 2015 404 Markowitz H.M., “Portfolio Selection”,. Journal of Finance. Vol. 7, (1952), 77–91 405 Bass F.M., "A New Product Growth Model for Consumer Durables", Management Science, 15, (1969), 215-227. 401 402 376 model. Bass zauważył, że niemal dla wszystkich produktów krzywa dyfuzji ma taki sam kształt. Teoria dyfuzji innowacji zakłada, że grupa naśladowców (potencjalnych nabywców) zainteresuje się nowym produktem po uprzednim wypróbowaniu go przez innowatorów (bieżących użytkowników). Krzywa adaptacji produktu innowacyjnego na rynku jest wypadkową czynników wewnętrznych oraz zewnętrznych, wynikających z interakcji wewnątrz systemu społecznego, a w mniejszym stopniu działaniem menedżerów (regulujących rynek cenowo lub ilościowa). Zewnętrzne czynniki są związane ze skutecznością reklamy i marketingu oraz przekazu innowator-naśladowca. Wzór Bassa sprawdza się w praktyce marketingowej i ma postać: (5.4) f (t ) p q F (t ) 1 F (t ) f(t) – jest zmianą liczby osób adaptujących dane dobro w czasie t (gęstość prawdopodobieństwa adaptacji), F(t) – jest liczbą skumulowaną liczbą nabywców do czasu t czasie (dystrybuantą prawdopodobieństwa zakupu w czasie t), p – jest współczynnikiem innowacyjności (zewnętrzny), q – jest współczynnikiem naśladownictwa (wewnętrzny), m – jest współczynnikiem potencjału rynkowego (nie większy od pewnej wartości ustalającej jego nasycenie). Sprzedaż S(t) jest szybkością zmiany alokacji danego dobra f(t) pomnożonej przez wskaźnik potencjału rynkowego m (ilość osób akceptujących nowy produkt). W ten sposób prognoza skumulowana sprzedaży ma postać: (5.5) S(t) = m∙f(t) W połączeniu z zależnością 5.4 można wyprowadzić równanie różniczkowe, z którego daje się wyznaczyć analitycznie prognozowaną wielkość sprzedaży406. Typowymi wartościami średnimi parametrów, wynikającymi z obserwacji rynków są odpowiednio p= 0,03 (jest często mniejsza niż 0,01) oraz q= 0,38 przy zmienności w przedziale [0,3; 0,5]. Wartość m może być oszacowana jako iloraz bieżącej ilości sprzedaży do maksymalnej wartości nasycenia rynkowego. Współczynnik innowacjo p reprezentuje wpływ mass mediów, agend rządowych, wysiłków promocji i reklamy na adaptację danego produktu na rynku. Współczynnik zastąpienia q reprezentuje wewnętrzny wpływ społecznych interakcji związanych z propagandą szeptaną lub atrakcyjnością oferty produktu (tym wyższy im bardziej tępe jest społeczeństwo). Kalkulacje online dla modelu Bassa są dostępne na stronie www407. Bartłomowicz T., „Prognozowanie sprzedaży z wykorzystaniem modelu dyfuzji oraz programu R”, Ekonometria, vol 4, No. 38, (2012), 210-220. 407 Bass’s Basement Research Institute, http://bassbasement.org/BassModel/Calculator.aspx 406 377 Przykład 5.3 Obliczenia adaptacji produktu na rynku według modelu Bassa Przyjmijmy następujące dane o ilości alokacji produktu A na rynku w poszczególnych miesiącach 0,1,…,12. Miesiąc Ilość 0 1 2 3 4 5 6 7 8 9 10 11 12 0 150 330 523 698 831 917 966 990 1002 1007 1009 1010 Mamy przewidzieć alokację na rynku produktu B, który zastępuje A i jest do niego podobny. W tym celu musimy wyliczyć parametry: p, q, oraz m wykorzystywane w modelu Bassa, a następnie wyznaczyć krzywą dyfuzji. Wykorzystamy model optymalizacji nieliniowej i dodatek Solver w programie Microsoft Excel (rys. 5.5) lub Open Office. Rys. 5.5 Rozwiązanie problemu z przykładu 5.3 za pomocą programu Excel W komórki A2-A14 arkusza należy wpisać numery okresów analitycznych (np. miesiące), natomiast w B2-14 wartości obserwowanej sprzedaży danego dobra. Na tej podstawie można wygenerować wykres (linia ciągła) W kolumnie C program wylicza przyrosty ilościowe w okresach (C2 pozostawiamy puste), natomiast w C3 wstawiamy wyrażenie „=B3-B2”. Kopiujemy komórki w kolumnie B (dane będą stanowić podstawę wykresu różnicowego – linia przerywana). W kolumnie D musimy wstawić funkcję współczynnika sprzedaży, jako ilorazu ilości sprzedanej w danym okresie do poziomu nasycenia rynku. W komórce D2 wpisujemy: „=B2/$19$B”. Kopiujemy w kolumnie D pozycje od D2 do D14. W kolumnie E komputer ma za zadanie obliczyć liczebności teoretyczne współczynnika sprzedaży. W tym celu w komórce E2 wpisujemy 0, a w E3 wyrażenie Bassa w postaci: „=E2+($B$17+($B$18*E2))*(1-E2)”. Kopiujemy komórki w kolumnie E do pozycji E14. W kolumnie F obliczamy kwadraty różnic pomiędzy obliczonymi współ- 378 czynnikami sprzedaży. Innymi słowy w F3 wpisujemy wyrażenie: „=(E3-D3)^2”. Komórki F2-F14 będą zmieniane. W komórce F15 sumujemy dane w kolumnie F, wstawiając wyrażenie „=SUMA(F2:F14)”. To jest nasza komórka obliczana. Uruchamiamy Solver i wpisujemy dane: komórka celu $F$15 i wybieramy opcję [Min]. Wpisujemy zakres komórek zmienianych: $B$17:$B$19 i naciskamy klawisz [Rozwiąż]. Program wylicza wówczas współczynniki p, q oraz m optymalne. Dla tak przygotowanego rozwiązania można sporządzić wykres, wykorzystują standardową opcję [Wykres] w Excelu lub Open Office. Wynik przedstawiono na rysunku powyżej. Formatowanie wykresu i jego właściwości jest opisane w pomocy online programów. Przedstawione przykłady zastosowań optymalizacji nieliniowej są na tyle uniwersalne, że można próbować je adaptować do innych zagadnień, pokrewnych strukturalnie. 5.3.3 Symulacja Czasami w praktyce zarządzania konieczne jest ustalenie jakiegoś stanu wymiernego zmiennej w przyszłości dysponując danymi z przeszłości oraz czasu bieżącego. Nie jest przy tym znany deterministyczny model rozwoju danej zmiennej. Wówczas konieczne staje się użycie metod symulacyjnych. Szczególnie użyteczna jest medoda Monte Carlo oraz scenariusze tworzone za pomocą szeregów czasowych. Problemami, które można w ten sposób rozwiązywać są: analiza ryzyka, struktura portfolio, symulacja zapasu magazynowego, analizy co-jeżeli, symulcje ATM, czas obsługi klienta, prognoza wartości waluty, kursy akcji etc. Symulacje stanowią bardzo ważne narzędzie, stosowane przede wszystkim do prognozowania skutków decyzji finansowych. Dla menedżera są one trudne do stosowania, ponieważ warunkiem wykonania symulacji jest skonstruowanie odpowiedniego modelu formalnego dla konkretnego przypadku, a interesujące zagadnienia z obszaru zarządzania zwykle nie należą do matematycznych. Najprostszym modelem symulacji deterministycznej jest aproksymacja liniowa (rozdział 6.2.1) lub nieliniowa, w szczególności wielomianowa408. Pozwala ona na przybliżanie danych dyskretnych za pomocą funkcji ciągłej i obliczania wartości zmiennej zależnej w punktach pomiędzy pomiarami (interpolacja) albo na prognozę wyniku poza zakresem pomiaru (ekstrapolacja). Zarówno ekstrapolacja, jak i interpolacja wymaga zdefiniowania modelu przybliżenia danych za pomocą jakiejś funkcji i pomiaru dyskretnego w kilku punktach. Zmienna może mieć jednak charakter losowy. Wówczas przybliżenie modelu za pomocą funkcji gładkiej (albo łamanej) nie jest możliwe. Jak wówczas postępować z próbami oszacowania wartości w jakimś punkcie? Bardzo oryginalna metoda symulacji została zastosowana po raz pierwszy przez polskiego 408 Ralston A., op. cit. 379 matematyka lwowskiej szkoły S. Ulama409, którą nazwano Monte Carlo. Procedura postępowania składa się w zasadnie z dziewięciu kroków. 1. Określenie wskaźnika ilościowego, stanowiącego podstawę miary danego problemu, w którym można wyróżnić zmienną losową, np.: (wartość opcji, poziom zadłużenia, zysk, efektywność). 2. Zbudowanie modelu formalnego (matematycznego) dla badanego problemu, w którym wystąpi przynajmniej jedna zmienna losowa (przyjmuje wiele przypadkowych wartości). 3. Ustalenie odpowiedniego rozkładu prawdopodobieństwa dla każdej zmiennej losowej w opisywanym zagadnieniu (np. Gaussa, dwumianowy). 4. Przetworzenie rozkładów prawdopodobieństwa ustalonych w punkcie 3 do postaci skumulowanej (dystrybuanty zmiennej losowej, czyli prawdopodobieństwa wystąpienia przypadkowej wartości x, mniejszej lub równej od wartości rzeczywistej x). 5. Przypisanie każdej wartości zmiennej losowej w sposób wzajemnie jednoznaczny odpowiedniej wartości losowej, którą generujemy za pomocą generatora liczb losowych (np. funkcji Los() w programie Microsoft Excel). 6. Wygenerowanie wartość zmiennej losowej, określonej w poprzednim kroku i wykorzystywanie jej do wyznaczenia wartości miary wskaźnika określonego w pkt. 1, zgodnie z modelem formalnym, określonym w pkt. 2. 7. Zapamiętanie wartości wyznaczonej w kroku 6. 8. Powtórzenie kroków procedury 4 – 7 wielokrotnie (10 000 i więcej razy – im więcej, tym dokładniejszy wynik symulacji) i zapamiętanie liczby powtórzeń. 9. Obliczenie średniej arytmetycznej z wyników zapamiętanych w pkt 7 (stanowi ona rezultat symulacji Monte Carlo dla zagadnienia postawionego w pkt.1 zgodnie z modelem formalnym, określonym w pkt. 2). Jak już wspomniałem wcześniej, eksperymentu ekonomicznego nie da się powtórzyć, ponieważ odwrócenie w czasie stanu otoczenia nie jest możliwe. Tym samym warunki przeprowadzenia powtórzenia doświadczenia nie będą identyczne. Nie dotyczy to jednak symulacji. To możemy powtarzać wielokrotnie i posługiwać się wynikiem uśrednionym. Na tym polega między innymi sens metody Monte Carlo. Im więcej symulacji uda się przeprowadzić i im lepsze narzędzia zostaną użyte, tym lepszą prognozę przyszłej sytuacji biznesowej można otrzymać. 409 Metropolis N., Ulam S., "The Monte Carlo Method", Journal of the American Statistical Association, vol. 44, No. 247, (1949), pp. 335–341. 380 Zarządzanie kontraktami terminowymi Wyobraźmy sobie, że podpisujemy kontrakt na dostawę wyrobów za trzy miesiące, za które otrzymamy zapłatę w USD po kursie obowiązującym miesiąc po terminie dostawy. Widać od razu, że pojawiło się ryzyko kursowe, bo relacja złotówki do dolara zależy od notowań na FOREX. Możemy zyskać, ale równie dobrze możemy stracić. Im większy kontrakt, tym większa nominalnie jest różnica w stosunku do dnia dzisiejszego. Czy można zatem zredukować potencjalne straty z tytułu różnic kursowych? Są na to dwa sposoby: 1. Wynegocjować przedpłatę i odpowiednią wartość kontaktu, gwarantującą pokrycie ewentualnych strat z tytułu różnic kursowych. 2. Wystawić w dniu podpisania kontraktu opcje put na sprzedaż USD po ustalonym kursie zapadające na dzień zapłaty za ten kontrakt, zyskując określoną kwotę zwaną premią opcyjną (rozdział 4.7.4). Powstaje problem, jak oszacować wartość opcji put410 w dniu podpisania kontraktu, żeby opłacało się zabezpieczać w ten sposób prognozowaną różnicę kursową, a nabywca był zainteresowany zakupem opcji i wpłaceniem premii opcyjnej411. Można wówczas posłużyć się symulacją Monte Carlo, wykorzystując wzór Blacka-Scholesa412. Zostało to przedstawione w rozdziale 6.8.2. 5.3.4 Analiza „What if” Analizy tego typu są powszechnie stosowane przy oszacowaniach ryzyka projektów inwestycyjnych. Przykładami są omawiane wcześniej oszacowania finansowe opłacalności inwestycji, wartości NPV oraz IRR (rozdział 4.7.1), a także praktyczny przykład analizy wrażliwości opisany na str. 374. Generalnie analiza „A co jeżeli?”, wiąże się z symulacjami przyszłych stanów oraz scenariuszami rozwoju sytuacji. W niektórych przypadkach są to analizy jakościowe lub quasiilościowe, w wyniku których otrzymujemy scenariusze np. PEST ( rozdział 6.3.2) albo wskaźniki syntetyczne, np. SWOT (rozdział 6.6.2). Jednak w większości zagadnień what if poszukujemy konkretnych oszacowań ilościowych odchyleń od wartości średnich lub oczekiwanych, zależnych od rozkładów statystycznych swoich zmiennych losowych. W tym miejscu przedstawiona zostanie przykładowa symulacja metodą Monte Carlo dla oszacowania dochodu ze sprzedaży nowego produktu. Załóżmy, że zamierzamy w wprowadzić na rynek nowy produkt, dla którego najistotniejszymi kosztami są koszty zmienne robocizny oraz koszty mate- Opcja put gwarantuje jej nabywcy sprzedaż powiązanego z nią waloru bazowego za określoną cenę w dniu wygaśnięcia opcji. Jeżeli cena rynkowa waloru będzie wyższa – nabywca opcji zyskuje (ale wystawca nie traci) wykonując ją. Jeżeli cena będzie niższa, nabywca opcji nie musi jej wykonać. 411 Hull J. C., „Kontrakty terminowe i opcje. Wprowadzenie”, WIG-Press, Warszawa, 1998. 412 Black F., Scholes M., “The Pricing of Options and Corporate Liabilities”, „Journal of Political Economy”, vol . 81( 3), (1973), 637–654. 410 381 riałowe, natomiast po stronie przychodowej prognozowany popyt. Mamy oszacować prognozowany przychód z wyprodukowania i sprzedaży określonej ilości produktu. Już na pierwszy rzut oka można zauważyć, że trzy zmienne decydujące o wyniku finansowym nie mogą być uznane za niezależne od czasu. W dodatku nie można przyjąć, że będą one zmieniać się w sposób deterministyczny. A zatem dla oszacowań ilościowych nadaje się w sposób szczególny symulacja scenariuszowa. Nasze zagadnienie należy rozważyć w trzech wariantach: scenariusza optymistycznego, scenariusza pesymistycznego i tego najbardziej prawdopodobnego. W przypadku pesymistycznym, wszystkie czynniki złożą się na najgorszy, możliwy wynik. W optymistycznym, będą to najlepsze możliwe. Ten najbardziej prawdopodobny będzie zatem leżeć gdzieś pomiędzy. I właśnie tego wyniku poszukuje się w analizie symulacyjnej. Przykład 5.4 Symulacja prognozowanego dochodu Niech k1 będzie kosztem pracy na jednostkę produktu A, a k2 kosztem materiałów. Koszty stałe szacowane są na kwotę ks. Niech x będzie popytem w pierwszym roku sprzedaży a c będzie ceną jednostkową. Wówczas dochód ze sprzedaży produktu A będzie dany wyrażeniem: (5.6) D = (c – k1 – k2)x - ks Oszacowania wstępne przedstawione są w tabeli 21. Tabela 21 Dane dla przykładu 5.4 Czynnik analityczny Scenariusze bazowy pesymistyczny optymistyczny Koszty stałe 100 000 110 000 90 000 Koszt pracy 50 60 45 Koszt materiałów Cena sprzedaży Sprzedaż Dochód 80 100 75 200 180 220 3 000 2 000 5 000 110 000 - 70 000 410 000 Jak widać, z danych w tabeli 21, można na tej produkcji dobrze zarobić, ale równie dobrze można stracić. Konieczne jest zatem przeprowadzenie jakiejś analizy ryzyka, uwzględniającej prawdopodobieństwo uzyskania takiego, a nie innego wyniku. W tym celu konieczne jest ustalenie rozkładów prawdopodobieństwa zaistnienia zmian każdego czynnika. Załóżmy, że koszty stałe nie będą zmieniać się w czasie z chwilą podjęcia decyzji o produkcji i pozostaną na poziomie 100 000 zł. Założenie takie jest na ogół uzasadnione. Koszty pracy zmieniają się w zakresie [45, 60] zł przy czym prawdopodobieństwo zaistnienia na poziomie 45-46 zł wynosi 0,1; 47-50 wynosi 0,3; 5154 zł wynosi 0,3; 55-57 zł wynosi 0,2 i 58-60 zł wynosi 0,1. Koszty materiałów [80, 100] zł mają równy rozkład prawdopodobieństwa w całym przedziale wynoszącym 0,05 dla każdej wartości. Cena sprzedaży zmienia się w zależności od popytu tak, że jeżeli popyt jest maksymalny, to cena jest również maksymalna, a wraz ze zmniejszaniem się popytu 382 maleje proporcjonalnie do ceny minimalnej. Popyt podlega rozkładowi normalnemu Gaussa o średniej 3500 i odchyleniu standardowym 750. Rys. 5.6 Analiza Monte Carlo dla przykładu 5.4 Budowanie modelu dla Excel (rys. 5.6) Wykorzystujemy funkcję generatora liczb losowych z programu Excel „Los()”, którą wprowadzamy do komórki B12 (i będziemy kopiować w całej kolumnie B w liczbie pożądanych powtórzeń). W komórce C12 wprowadzamy wyrażenie, umożliwiające symulację najbardziej prawdopodobnej wartości kosztu robocizny =JEŻELI(B12<0,1;45,5;JEŻELI(B12<0,4;49;JEŻELI(B12<0,7;53;JEŻELI(B12<0,9;56;JEŻELI(B12<1;59;0))))) Oznacza to, że jeżeli liczba losowa jest mniejsza od 0,1, to program wpisuje 45 zł, w przeciwnym wypadku, jeżeli jest ona mniejsza od 0,4 to wpisuje 49 zł, w przeciwnym wypadku… itd. W komórce D12 wpisujemy wyrażenie =ZAOKR(75+(100-75)*B12;2) co oznacza zaokrągl do dwóch miejsc po przecinku wartość najniższej płacy powiększonej o iloczyn wygenerowanej liczby losowej w komórce B12 i różnicy pomiędzy maksymalną i minimalną wartością robocizny (100 – 75). W kolumnie E będziemy posługiwać się odwróconym rozkładem normalnym, który jest funkcją standardową w programie Excel i został wybrany dla określenia rozkładu prawdopodobieństwa popytu. Przyjmujemy parametry rozkładu: średnia 3 500 szt. przy odchyleniu standardowym 750. Wpisujemy do komórki E12 co następuje =ZAOKR(ROZKŁAD.NORMALNY.ODW(B12;3500;750);0) co daje w wyniku liczbę w zakresie zbliżonym do przyjętych ograniczeń 2000 i 5000 dla dowolnie wygenerowanej liczby losowej (poza skrajnie małymi i skrajnie dużymi). Ponieważ ustalono cenę, jako wielkość proporcjonalną do zmienności popytu, zatem do komórki F12 wpisujemy =ZAOKR(E12/$D$8*($D$7-$C$7)+$C$7;2). W końcu do komórki G12 wpisujemy wyrażenie na dochód określone wzorem (5.6) w formie =(F12-C12-D12)*E12-$B$4 383 Następnie kopiujemy zakres B12:G12 w dół w liczbie wierszy pożądanych powtórzeń. Po dokonaniu przez program obliczeń, wykorzystujemy funkcję „Średnia” dla zakresu komórek G12:GXXX (XXX jest liczbą wierszy z obliczeniami). W komórkach F4:F9 zaznaczyłem liczbę wykonanych symulacji, a w komórkach G4:G9 odpowiadające jej wartości oczekiwane dochodu. Można zauważyć, ż mniej więcej od n = 500, wynik zaczyna się zmieniać o małą wartość, a dodatkowo niewiele odbiega od przyjętych założeń bazowych. To oznacza, że liczba powtórzeń symulacji na poziomie 500 jest dla analizowanego przypadku wystarczająca. Na ogół wykonuje się 10 000 powtórzeń jako bezpieczną, uniezależniając wynik od gorszego uwarunkowania modelu. 5.3.5 Elementy teorii gier Zastosowanie teorii gier w ekonomii i zarządzaniu doprowadziło do przyznania pięciu nagród Nobla aż 11 uczonym na przestrzeni 30 lat413. Ten fakt nakazuje zatem zwrócenie baczniejszej uwagi na wykorzystanie metod teorii gier matematycznej w praktyce menedżerskiej. Z grami związana jest pewna filozofia postępowania przy podejmowaniu decyzji. Opiera się ona na ustaleniu sytuacji konfliktowej, w której dwie strony konfliktu starają się go rozwiązać na swoją korzyść. W wielu wypadkach istnieje rozwiązanie kompromisowe, które zapewnia stan równowagi. Przykładem niech będzie sytuacja, w której dwoje dzieci ma podzielić sprawiedliwie między siebie ciastko. Jedno z dzieci otrzymuje nóż i będzie kroić ciastko na dwie połowy, ale żeby podział był sprawiedliwy, drugie z dzieci wówczas prawo pierwszeństwa wyboru odkrojonej części. Widzimy tu wyraźnie złośliwość sytuacyjną, tak charakterystyczną dla wszelkich sytuacji wziętych z rzeczywistości. Najbardziej interesujące są jednak przypadki gier dwuosobowych przeciwko otoczeniu. Zawsze mamy wówczas do czynienia z sytuacją konfliktową. Jeden z graczy A usiłuje pozyskać zasoby z otoczenia, wykonując jakieś czynności lub działania. Drugim graczem B jest otoczenie, które odpowiada na te działania w możliwie najbardziej złośliwy sposób. Wynik zależy zatem od przyjętej strategii postępowania przez gracza A, zakładając że otoczenie zawsze wybierze zawsze najlepszą (najgorszą dla A), możliwą odpowiedź. Tak można wyjaśniać działanie reguły przekory i ujemnego sprzężenia zwrotnego. To jest również zgodne z zasadami minimum działania w przyrodzie. W końcu teoria gier idzie w parze z racjonalnością postępowania. Nie jest zatem zaskoczeniem, że w praktyce biznesowej można znaleźć rozmaitość przykładów gier. Herbert Simon 1974 (ewolucyjna teoria gier i ograniczona racjonalność podejmowania decyzji), John Nash, Reinhard Selten i John Harsanyi 1994 (rozwój teorii gier i jej zastosowania w ekonomii), William Vickrey i James Mirrlees w roku 1996 (konflikty z niesymetryczną informacją dla uczestników), Thomas C. Schelling i Robert J. Aaumann 2005 (zastosowanie teorii gier w naukach społecznych), Leonid Hurwicz, Eric S. Maskin, Roger B. Myerson w 2007 (zastosowanie teorii gier z alokacjach zasobów). 413 384 Oczywiście oprócz gier dwuosobowych mogą istnieć gry wieloosobowe, gdzie dopuszczalne jest cały szereg relacji między graczami, w tym zawieranie aliansów i koalicji, ale również gier każdego z każdym. Można się również domyślać, że istnieją gry jednorazowe, sekwencyjne, sprzężone, równoległe oraz cały szereg układów gier opisujących zjawiska gospodarcze. Wspólną ich cechą jest zawsze istnienie sytuacji konfliktowej, zasady gry, strategie do wyboru i określona wypłata na koniec gry. Definicja gry Podejmując się definiowania gry należy przyjąć, że stanowi ją opis formalny procesu postępowania interesariuszy w rozwiązywaniu sytuacji konfliktowej, w której istnieje skończona liczba graczy. Mogą oni wybierać strategie postępowania z pewnego zbioru dostępnych działań {Sk} dla każdego z k graczy. Przy tym istnieją określone jednoznacznie reguły postępowania (zbiór reguł), które są bez ograniczeń znane wszystkim graczom oraz mierzalny wynik gry, nazywany wypłatą W, wyrażony w jakiejś skali miary użyteczności, możliwy do zdefiniowania dla każdego uczestnika Wk. Przykładem definiowania gry jest systemowe ujęcie działalności gospodarczej (rozdział 1.5.1). Teraz dopiero można wprowadzać interpretacje (modele semantyczne) dla pojęć użytych w definicji. Dla przykładu w dwuosobowej grze, gdzie mamy dwóch graczy G1 oraz G2, którzy dysponują strategiami {SG1} oraz {SG2} w grze, w której wypłatą jest wartość W, grę można zdefiniować jako trójkę liczb [SG1,SG2,W]. Gracze G1 oraz G2 wybrali strategie i po wykonaniu pewnych działań gracz G1 wypłacił graczowi G2 wypłatę W414. Jest to bardzo ważny aspekt w kontekście rozważań nad grami przeciwko otoczeniu, gdzie zawsze mamy do czynienia z grą dwuosobową lub grą sprowadzalną do skończonej liczby gier dwuosobowych (nawet gdy po jednej stronie gra koalicja). Ze względu na fakt, że w sytuacji konfliktowej możemy mieć do czynienia z większą ilością jej uczestników, niż dwóch, można oczekiwać, że istnieją inne rodzaje gry niż dwuosobowa. Również reguły gry mogą być powodem, że niektóre gry są sprawiedliwe (gry o sumie zero), a niektóre nie są (gra w kasynie o sumie niezerowej). W grze mamy zawsze do czynienia z sytuacją, w której przynajmniej jeden gracz działa wyłącznie w celu osiągnięcia maksimum korzyści poprzez antycypację kontrreakcji oponentów na swoje działania (gracz racjonalny). Zakłada on przy tym, że wszyscy pozostali uczestnicy podejmują najkorzystniejsze dla siebie działania (strategie optymalne). Wypłata W może być wartością ujemną dla gracza G1, a wówczas to gracz G2 wypłaca graczowi G1 dodatnią wartość. Ze względów porządkowych ustala się relacje w stosunku do gracza G1. 414 385 Przykład 5.5 Optymalizacja podatkowa jako gra prze ciwko otoczeniu Przykładem takiej racjonalizacji jest optymalizacja podatkowa. Jeżeli państwo nakłada zbyt wysoki haracz za swoje wątpliwej jakości usługi, to podatnicy działają wówczas tak, żeby zapłacić jak najmniej. Jest to działanie w pełni racjonalne, wykorzystujące regułę przekory LeChateliera jako strategię działania oraz zasadę minimaksu (minimalna strata w formie zapłaconego podatku przy maksymalizacji kontrybucji nałożonej przez państwo). Gra ma charakter wieloosobowy, który można sprowadzić do szeregu równoległych gier dwuosobowych o sumie niezerowej, ponieważ zawsze obywatel traci. Reguły gry są niejasne, a informacja dostępna jest dla obywateli w sposób ograniczony (zagmatwane prawo i możliwości swobodnej interpretacji reguł w czasie trwania gry przez pańtwo). Dodatkowo żaden z graczy nie ma możliwości wycofania się z gry, a zatem każdy musi opracować własne strategie optymalne ad hoc. Najważniejszym podziałem gier jest ich rozróżnienie ze względu na dostęp do informacji (pełna lub niepełna). Reprezentacją kognitywną tego podziału mogą być gry naprzemienne (gracze dokonują ruchów naprzemiennych, znając posunięcie poprzednie przeciwnika, np. szachy) oraz gry symultaniczne (gracze wykonują posunięcia równoczesne, np. gra w marynarzyka – „papier, kamień, nożyce” kiedy żaden z nich nie ma pełnej informacji o ruchu przeciwnika). W rzeczywistości biznesowej mamy często do czynienia z grami mieszanymi, gdzie występują zarówno elementy naprzemienne i równoczesne. Jeżeli dwie firmy zaczynają konkurować na rynku, wybierają swoje strategie cenowe i nie informują się o tym, ale z chwilą rozpoczęcia realizacji (element symultaniczny), pojawiają się korekty cenowe adaptatywne do poziomu konkurencji (element naprzemienny). Macierz wypłaty i punkt siodłowy Z punktu widzenia gier, za najważniejszy aspekt należy uznać szacowanie wypłaty. Stosuje się do tego celu macierze wypłat. Najprostszym przykładem jest dwuosobowa gra o sumie zero. Oznacza to, że wygrana jednego z graczy jest dokładnie taką samą przegraną drugiego. Ale może wówczas istnieć strategia remisowa, gdzie obaj ani nic nie wygrywają ani nie przegrywają (remis w szachach). Mówimy wówczas o istnieniu punktu siodłowego gry (rys. 5.7). Przykład 5.6 Gra marketingowa Mamy dwie konkurujące ze sobą na rynku firmy A oraz B, oferujące identyczne produkty. Każda z firm dysponuje identycznymi strategiami: S1. Zwiększyć nakłady na reklamę. S2. Wprowadzić upusty. S3. Rozszerzyć gwarancje. S4. Wprowadzić wartość dodaną do produktu bazowego. Macierz wypłat (rys. 5.7) należy odczytywać następująco: jeżeli firma A wybierze strategię S1, może spodziewać się wzrostu sprzedaży o 4% jeżeli firma B wybierze strategię 386 S1, 3% jeżeli firma B wybierze S2 itd. Automatycznie, jeżeli firma A osiąga wynik dodatni, traci na tym firma B tyle samo. Dlatego suma wypłat wynosi zawsze 0. W przykładzie widać wyraźnie, że wojna cenowa nie jest dobrym rozwiązaniem dla firmy B, a bitwa na rozszerzanie gwarancji nie jest dobra dla A. Rys. 5.7 Tabela wypłat w przykładzie 5.6 Można zauważyć, że w przykładzie 5.6, strategia S1 wybrana przez A, zawsze przynosi dodatni wynik (rys. 5.7). To oznacza, że jest ona dominującą nad innymi. Wybierając strategię S3 może wprawdzie zyskać 5%, jeżeli firma B Synderze S1, ale jest to nieracjonalne, bo firma B z pewnością wybierze strategię S2 i to ona zyska 3% kosztem A. Racjonalnym jest zatem, że firma A będzie dążyć do maksymalizacji zysku, podczas gdy firma B będzie robić wszystko, aby wygrana firmy A była minimalna, bo wówczas jej strata będzie też minimalna. W rezultacie firma A będzie szukać maksimum wśród minimalnych wypłat (maksimum z minimów w szeregach), a firma B będzie poszukiwać minimalnych strat (minimum z maksimów w kolumnach). Obie strony poszukują zatem minimaksu. Może się tak zdarzyć, że istnieje równocześnie maximinimum równe minimaksimum. W naszym przykładzie jest to liczba 2 przy wyborze strategii S1 przez firmę A przy równoczesnym wyborze strategii S4 przez firmę B (komórka F3 w tabeli z rys. 5.7). Mówimy wówczas, że gra posiada punkt równowagi, zwany punktem siodłowym. Jeżeli zachodzi równość: Maksimum (minimów w szeregu) = Minimum (maksimów w kolumnach) wówczas gra posiada rozwiązanie w strategiach czystych. Tym samym gra zaprezentowana w przykładzie posiada strategie czyste S1 dla A oraz S4 dla B, prowadzące do punktu siodłowego. Strategie mieszane Nie zawsze w grze można znaleźć punkt siodłowy, bo nie da się wyznaczyć czystych strategii. Wówczas konieczne jest uwzględnienie kombinacji liniowej istniejących strategii, gdzie współczynnikami udziału poszczególnych strategii jest prawdopodobieństwo ich użycia. Problem ten sprowadza się do wykorzystania programowania liniowego i wyznaczenia minimaksu. 387 Przykład 5.7 Gra o strategiach mieszanych. Mamy grę o zdefiniowanej macierzy wypłat w poniższej tabeli. Można zauważyć, że w tym przypadku gra nie ma punktu siodłowego (rys. 5.8). Dla jej rozwiązania należy użyć strategii mieszanych. Rys. 5.8 Macierz wypłat w przykładzie 5.7 Niech PA(S1), PA(S2), PA(S3), PA(S4) oznacza prawdopodobieństwo użycia przez gracza A odpowiednio strategii S1, S2, S3 i S4. Suma prawdopodobieństw PA(S1)+PA(S2)+PA(S3)+PA(S4) =1. (Załóżmy że prawdopodobieństwa są równe po 0,25). Niech EA-B(S1), EA-B(S2), EA-B(S3) i EA-B(S4) oznacza oczekiwaną wypłatę dla gracza A, jeżeli gracz B wybierze czystą strategię odpowiednio S1, S2, S3, S4. Wówczas: EA-B(S1) = 5PA(S1)-2PA(S2)+5PA(S3)+2PA(S4) = 2,5 EA-B(S2) = 2PA(S1)+3PA(S2)-3PA(S3)+1PA(S4) = 3,0 EA-B(S3) = 3PA(S1)+1PA(S2)-2PA(S3)-1PA(S4) = 1,0 EA-B(S4) = 2PA(S1)+0PA(S2)+4PA(S3)+1PA(S4) = 7,0 Na tej podstawie firma A może domniemywać, że B wybierze właśnie strategię S3 ponieważ minimalizuje ona wypłatę dla A przy strategiach mieszanych. Oznacza to, że wybór strategii z równym prawdopodobieństwem nie jest optymalnym dla A. Żeby obliczyć optymalne działanie dla A oraz B, konieczne jest zastosowanie programowania liniowego. Wykorzystamy w tym celu program Excel z dodatkiem Solver, z parametrami określonymi na rys. 5.9. Mamy tablicę z danymi wypłat w grze, komórki w zakresie [B3:F6]. 1. W komórce G3 wpisujemy funkcję =MIN(C3:F3) następnie kopiujemy do komórek G4:G6. W ten sposób program wyznacza minima wypłat dla A przy wyborze czystej strategii przez obu graczy. 2. W komórce H3 wpisujemy wyrażenie =MAX(G3:G6), co pozwala na znalezienie maksiminimum wypłat dla gracza A i ustalenie, która z czystych strategii daje najlepszy rezultat, niezależnie od wyboru strategii czystej przez gracza B. 3. W wierszu 7 dokonujemy podobnych obliczeń. W komórce C7 wpisujemy funkcję =MAX(C3:C6) i kopiujemy w komórkach z zakresu [D7:F7]. Uzyskujemy w ten sposób maksymalne straty dla gracza B, w wyniku przyjęcia określonej strategii czystej przez obu graczy. 4. W komórce D8 wpisujemy wyrażenie =MIN(C7:F7) w celu ustalenia minimaksimum straty gracza B, niezależnie od wyboru strategii czystej przez obu graczy. 388 5. W wierszu 9 wstawiamy wyrażenia wyników dla strategii mieszanych. W komórce C9 wstawiamy =SUMA.ILOCZYNÓW(C3:C6;$G$13:$G$16 i kopiujemy do komórek w zakresie [D9:F9]. W tym miejscu program wpisze wyliczone wypłaty dla gracza A, jeżeli gracz B zastosuje określoną strategię czystą. Rys. 5.9 Rozwiązanie dla strategii mieszanej Excel/Sollver 6. 7. W komórce G11 wpisujemy wyrażenie funkcji celu dla gracza A: =MIN(C9:E9) Jest to minimalny z maksymalnych wyników gry w zakresie komórek [C9:F9]. Komórki [G13:G16] pozostają puste. Solver po dokonaniu obliczeń wypełni wartościami optymalnymi częstotliwości użycia strategii czystych (prawdopodobieństwa użycia strategii czystych w strategii mieszanej) przez gracza A. 389 8. W komórkach [G18:G21] znajdują się warunki ograniczające możliwe rozwiązania. Wypłata dla gracza A musi być wyższa od minimalnej, gdy gracz B wybierze daną strategię czystą (S1, S2, S3 lub S4). W komórkach G18:G21 należy wpisać wyrażenia =SUMA.ILOCZYNÓW(C3:C6;$G$13:$G$16) =SUMA.ILOCZYNÓW(D3:D6;$G$13:$G$16) =SUMA.ILOCZYNÓW(E3:E6;$G$13:$G$16) =SUMA.ILOCZYNÓW(F3:F6;$G$13:$G$16) 9. W komórce G22 należy wpisać ostatni warunek, suma prawdopodobieństw użycia strategii czystych jest nie większa od 1. Wpisujemy zatem =SUMA($G$13:$G$16) 10. Teraz pozostaje uruchomić program Solver i wprowadzić parametry wejściowe (rys. 5.9). Zaznaczyć wariant rozwiązania Max. Komórka celu $G$11. Komórki zmieniane $G$13:$G$16. Następnie wprowadzamy ograniczenia: Rozwiązania w zakresie $G$13:$G$16 <= 1 (nie większe niż 1) Obliczone wypłaty w zakresie $G$18:$G$21 >= $G$11 (nie mniejsze niż minimalna, przy wykorzystaniu strategii czystych) Ostatni warunek $G$22 = 1 (suma prawdopodobieństw jest równa 1) W opcjach Solvera zaznaczamy „Model liniowy” oraz „Przyjmij dodatnie”. 11. Po wyjściu z opcji nacisnąć klawisz [Rozwiąż]. Program wypełni komórki obliczonymi wartościami. W powyższej sytuacji istnieje dla gracza A rozwiązanie optymalne, lepsze niż maksymalne z minimalnych wypłat przy stosowaniu strategii czystych (2,75 zamiast 2,0). Co więcej zastosowanie strategii czystych S1 w ilości 25% i S2 ilości 75% przyniesie optymalny rezultat niezależnie od strategii wybieranych przez gracza B. Jednocześnie z obliczeń wynika, że gracz A nie powinien stosować wcale strategii S2 oraz S3. Analogiczną analizę można przeprowadzić dla gracza B i wyznaczyć dla niego zoptymalizowane strategie mieszane. Okaże się wówczas, że w przykładzie powyższym, również maksymalną stratą optymalną dla gracza B jest wartość 2,75. Jest to punkt równowagowy tej gry przy strategach mieszanych. Przykład 5.7 pokazuje zalety optymalizacji postępowania przy użyciu teorii gier. Problemem jest zrozumienie zasad minimaksu oraz maksimini w sytuacjach konfliktowych i przełożenia tego na model opisujący daną rzeczywistość. Dodatkowo konieczna jest znajomość wypłat dla poszczególnych strategii. Nie zawsze jest to możliwe do łatwego ustalenia. Drzewa decyzyjne w grach naprzemiennych W przypadku gier z pełną informacją, w których kolejny gracz podejmuje decyzję po zakończeniu działania poprzedniego gracza, mamy do czynienia z sytuacją, w której możemy przewidywać kolejne posunięcia do przodu i analizować aktualne położenie przed wykonaniem działania. Przykładem klasycznym takiego modelu jest gra w szachy. Gracz racjonalny wybiera działanie (pierwsze, lub każde następne), rozważając reakcje i kontrreakcje będące skutkiem jego ruchu, decyzji lub działania. Następnie ocenia, zgodnie z modelem 390 podejmowania decyzji, zaprezentowanym na rys. 3.4, która z możliwych wypłat cząstkowych jest dla niego najbardziej korzystna (ma największą użyteczność lub wartość i przez to jest najbardziej preferowana), po czym wybiera działanie optymalne. Jest to algorytm indukcji wstecznej (lub odwrotnej), który polega na wyznaczeniu w pierwszej kolejności optymalnej strategii dla tego gracza, który podejmuje decyzję jako ostatni. Dopiero potem wyznacza się optymalna strategię dla gracza, który wykonuje ruch jako przedostatni. Znamy wówczas wyznaczoną we wcześniejszym kroku iteracji strategię ostatniego gracza. Proces ten kontynuuje się do początku gry, co pozwala na ustalenie sekwencyjne optymalnych strategii dla wszystkich graczy. Tak uzyskane strategie prowadzą do punktu równowagi, który określa się punktem doskonałej równowagi Nasha415. Z równowagi Nasha w grze można wywodzić równowagę w sensie Pareto, gdzie poprawienie swojej pozycji przez zastosowanie strategii równowagowej nie pogarsza pozycji innych graczy194. Warto w tym miejscu po raz kolejny przypomnieć zasadę Bellmana (rozdział 3.2.4) i procesy Markowa, gdzie ustalenie optymalności decyzyjnej w kroku n-tym ciągu decyzyjnego, pozwala ustalić optymalność całego procesu wstecz. Jest to dobry przykład działanie indukcji odwrotnej, która została wprowadzona przez teorię gier. Rys. 5.10 Przykładowe drzewo gry naprzemiennej Gry sekwencyjne przedstawia się w postaci drzewa (w odróżnieniu od macierzy wypłat w grach równoczesnych). Jest to przykład matematycznego obiektu zwanego grafem skierowanym. Drzewo gry składa się z wierzchołków 415 Strafin P.D., op. Cit. str. 130 391 (punktów decyzyjnych), oraz łączących je linii. Każdy wierzchołek w rozwinięciu grafu, może być traktowany jako podgra (pojedynczy ruch) danej gry sekwencyjnej. W każdym wierzchołku decyzyjnym można utworzyć macierz wypłat dla podgry. Zastosowanie drzew decyzyjnych ma szerokie zastosowanie w zarządzaniu, zwłaszcza w problemach optymalizacji portfela inwestycyjnego lub budowania scenariuszy osiągania celów. Dalszy wywód na temat zastosowań teorii gier w zarządzaniu wykracza poza zakładane ramy niniejszej monografii. Tym niemniej, warto zgłębiać tą metodę, albowiem bardzo wiele decyzji jest możliwych do zoptymalizowania, o ile zostaną dokonane obliczenia skutków i w ten sposób uda się zdefiniować wypłaty dla różnych strategii lub scenariuszy. 5.4 Globalne wskaźniki ekonomiczne w otoczeniu Wielokrotnie media bombardują nas różnymi wskaźnikami ekonomicznymi, a „gadające głowy” z ekranu TV dyskutują zapamiętale na temat ich wartości, nie zawsze rozumiejąc dogłębnie sens interpretacyjny takiego, czy innego wskaźnika. Przykładem może być najbardziej medialny i nadmiernie wykorzystywany dla podkreślenia zamożności danego kraju wskaźnik PKB. Niestety to jest wskaźnik propagandowy, a nie analityczny. Stąd też bez wielu dodatkowych informacji i ustalenia warunków pomiaru, takie dane mają małą wartość poznawczą. Ot można sobie ustawić ranking lub porównać coś rok do roku albo miesiąc do miesiąca, a następnie dywagować co będzie. Wskaźniki makroekonomiczne można podzielić ze względu na ich relację czasową do zdarzeń w gospodarce (ściślej – do zmian na rynkach inwestycyjnych) na trzy grupy: wyprzedzające, równoczesne i zapóźnione. Oczywiście dla menedżera najbardziej interesujące są wskaźniki wyprzedzające rynek przynajmniej o miesiąc, o ile są aktualizowane online (np. dane źródłowe Bloomerg, LME, Gartner Group). Dają one informacje o potencjalnych zmianach jeszcze przed ich powszechnym uwidocznieniem się. Z kolei obserwacja wskaźników równoczesnych pozwala na potwierdzenie bieżącego trendu, czy to w sektorze, czy całej gospodarce. Wskaźniki zapóźnione służą głównie weryfikacji modeli ekonomicznych i ustalaniu prawidłowości historycznych. Za pomocą wskaźników makroekonomicznych można określać również koniunkturę dla miast i regionów416. Do wskaźników wyprzedzających koniunkturę należy zaliczyć: CCI (Consumer Confidence Index) – wskaźnik zaufania konsumentów, PMI (Purchasing Mana- Herbst M., „Złożone ilościowe wskaźniki koniunktury dla obszaru metropolitalnego Warszawy”, Studia regionalne i lokalne, vol. 4(7), 2001, s.61-81. 416 392 gers Index) – Indeks zakupów surowcowych, ISM (Institute for Supply Management) – Indeks Instytutu zarządzania podażą dla sektora nieprodukcyjnego, IFO (Institut für Wirtschaftsforschung ) oraz ZEW (Zentrum für Europäische Wirtschaftsforschung). Wskaźnikami równoczesnymi są PKB (produkt krajowy brutto) oraz PNB (produkt narodowy brutto), dochody osobiste ludności (dochód rozporządzalny), produkcja przemysłowa, wskaźnik zadłużenia państwa. Wskaźnikami opóźnionymi są sprzedaż detaliczna, przyrost kredytów konsumpcyjnych, stopa procentowa, średni czas pozostawania bez pracy, itp. Z punktu widzenia zarządzania, rozumienie wybranych parametrów makroekonomicznych jest kluczowa, ponieważ pozwala na podejmowanie właściwych działań w skali mikro, wykorzystując zasadę sprzężeń zwrotnych, zwłaszcza regułę przekory. Kluczowym aspektem analizy wskaźników makro jest rozumienie holistyczne otoczenia i współzależności między parametrami makro i mikro. Dodatkowo konieczne jest rozumienie miary i skali oraz modelu stojącego za danym wskaźnikiem syntetycznym. Wyobraźmy sobie, że jedziemy samochodem z prędkością 50 km/h. Czy to jest szybko? Natychmiast odpowiemy, że to zależy od… Jeżeli będzie to ostry zakręt zimą, to może okazać się prędkością śmiertelną. Jeżeli jest to autostrada w optymalnych warunkach, to będzie raczej powoli. A zatem kontekst danego wskaźnika jest kluczowy w jego rozumieniu i interpretacji. To właśnie stanowi istotę pragmatycznego ujęcia pomiaru makroekonomicznego i miary w zarządzaniu. Istnieje kilka istotnych źródeł informacji w zakresie danych ekonomicznych. Do najważniejszych należy zaliczyć GUS, OECD, World Bank, World Economics Forum, Eurostat. Adresy internetowe będą cytowane w dalszej części monografii, przy okazji omawiania różnych wskaźników. Na szczególne wyróżnienie zasługuje serwis „Trading Economics”417. Jest to najlepiej zorganizowane źródło danych biznesowych dla Polski, obejmujące liczne wskaźniki branżowe, koniunkturalne oraz prognozy. W dalszej części rozdziału omówione zostaną pokrótce najważniejsze wskaźniki ilościowe, umożliwiające scharakteryzowanie otoczenia biznesu oraz kontekstu prowadzenia działalności gospodarczej. 5.4.1 Dochód narodowy brutto PKB Produkt krajowy brutto (PKB) (gross domestic product, GDP) stanowi pieniężną miarę wszystkich dóbr i usług wytworzonych w zadanym okresie pomiaru (roku, kwartału) przez analizowane państwo lub region. W ekonomii PKB stanowi jeden z podstawowych mierników efektów pracy społeczeństwa danego kraju lub regionu. OECD definiuje PKB jako „łączną miarę produkcji równą su- 417 Trading Economics, http://pl.tradingeconomics.com/indicators 393 mie wartości dodanej brutto, wszystkich jednostek instytucjonalnych zaangażowanych w produkcję na danym terytorium (w tym wszelkie podatki, minus jakiekolwiek dopłaty do produktów, które nie są uwzględnione w wartości ich produkcji "418. Należy zauważyć, że PKB jest przybliżoną (ale nie kompletną) miarą aktywności gospodarki i jej wielkości. Wzrosty lub spadki PKB określają wprawdzie zmiany wzrostu gospodarczego, ale spadek PKB nawet o 10% nie oznacza, że dany region przestał produkować, albo że nagle stał się niewydolny ekonomicznie. Natomiast wzrost PKB ma istotne znaczenie dla wydatków i rozrzutności państwa, niekoniecznie przekładając się na dobrobyt mieszkańców. Wskaźnik PKB oblicza się zgodnie z kryterium geograficznym. Niestety, nie ma znaczenia dla jego wartości pochodzenie kapitału, własność przedsiębiorstw, wielkość transakcji B2B, sprzedaż towarów używanych, wartość wytworzonych dóbr pośrednich, itp. Można zadłużyć się ponad miarę (casus Polski) i poprawić chwilowo wynik PKB, żyjąc na kredyt. Tym samym jest to wskaźnik mający za zadanie odzwierciedlać dobrobyt społeczeństwa pozostając w relacji do wielkości wytworzonej wartości dodanej. Nie jest to jednak ścisła informacja odnośnie charakterystyki danej gospodarki. Dlatego w niektórych krajach (USA, Wielka Brytania) podejmowane są próby określenia wskaźnika całkowitej mocy wyjściowej gospodarki (GO - gross output)419 i stosowania go zamiast PKB. PKB może być określany trzema metodami, które powinny prowadzić do tego samego wyniku: metodą produkcyjną, przychodową oraz wydatkową. W metodzie produkcyjnej (production approach) PKB stanowi sumę wartości dodanej ze wszystkich gałęzi gospodarki regionu (lub kraju). Globalną wartość dodaną GVA (Gross value addend) obliczamy na podstawie różnicy wartości produkcji globalnej i zużycia pośredniego dla jej wykonania (materiały, koszty pracy, usługi…), a następnie dodając podatki i odejmując dotacje. W metodzie przychodowej (income approach) PKB stanowi sumę dochodów wszystkich właścicieli czynników produkcji. PKB stanowi zatem sumę dochodów z pracy, dochodów z kapitału, dochodów państwa oraz wartości amortyzacji. Tym samym metoda przychodowa uwzględnia podział GVA na wartość dodaną wynikającą z przychodów z pracy pracowników najemnych, przychodów z kapitału właścicieli zasobów (w tym kapitałowych), przychodów z rolnictwa, przychodów z działalności pozarolniczej, przychodów wnoszonych od usług państwa, wartości odtworzeniowej zużytego majątku. Od tego należy odliczyć podatki pośrednie, zapłacone w procesie produkcji. W metodzie wydatkowej (Expenditure approach) PKB obliczany jest od strony popytowej jako suma wydatków wszystkich nabywców dóbr finalnych wytworzo- http://stats.oecd.org/Index.aspx?DatasetCode=SNA_TABLE1 (dostęp 26.01.2016) Jorgenson D. W.; Landefeld J. S.; [w] Nordhaus W. [red] “A New Architecture for the U. S. National Accounts”. Chicago University Press. Chicago (2006) str. 5. 418 419 394 nych w ciągu badanego okresu (roku, kwartału). Jest to suma wydatków na konsumpcję, inwestycje, wydatki budżetowe rządu (bez transferów), wartość bilansu (eksport – import) oraz wartość oszacowania zmiany stanu zapasów. Każda z wymienionych metod ma swoje wady i zalety. Żadna z nich nie prowadzi do pełni informacji o rzeczywistości gospodarczej danego kraju lub regionu. Tym niemniej jest to ważny wskaźnik z punktu widzenia zarządzania i każdy menedżer powinien rozumieć jego sens oraz sposób obliczania. Wskaźnik PKB (GDP) jest obliczany niezależnie przez cztery światowe organizacje: Międzynarodowy Fundusz Walutowy, Bank Światowy, ONZ oraz OECD420. Może być on wyrażany nominalnie w cenach bieżących w USD, w dolarze międzynarodowym $Int lub PPP (rozdział 1.4.1), w zależności od rodzaju porównań. Przykładowo, PKP Polski na rok 2015 w $US wynosi 593,3 mld, podczas gdy wyrażony jest w PPP wynosi on 954,4 mld421. Jesteśmy na 23 pozycji w rankingu światowym krajów o ustalonym PKB. Wskaźnik PNB Obok PKB w analizach makroekonomicznych funkcjonuje wskaźnik „produkt narodowy brutto” PNB. O ile PKB nie definiuje skąd wziął się kapitał na wytworzenie dochodu oraz ile z tego przypada na produktywność podmiotów zagranicznych, z których Polska nie ma dochodu, bo ten jest transferowany z Polski, to PNB określa tą część PKB, która rzeczywiście została wytworzona przez krajowy potencjał gospodarczy. Stąd bierze się luka pomiędzy PKB, a PNB, która stanowi wartość wpływów do (+) oraz wypływów z (-) polskiej gospodarki. Im ta luka jest większa, tym gorsze są uwarunkowania gospodarki narodowej, a PKB mniej wartościowym wskaźnikiem z punktu widzenia oceny stanu ekonomicznego. W 2014 roku. Była to kwota - 14 mld EUR. 5.4.2 Dochód narodowy na jednego mieszkańca Ponieważ PKB nie uwzględnia liczby mieszkańców wytwarzających dochód narodowy, dla porównań zamożności społeczeństwa wprowadzono wskaźnik PKB na mieszkańca. Jest to prosty iloraz dochodu narodowego brutto i liczby ludności. W ten sposób można również oceniać produktywność społeczeństwa. W roku 2015 Polskie PKB/mieszkańca wynosi w zależności od instytucji obliczającej: $12 662 (MFW), $14 422 (Bank Światowy); $14 111(ONZ)422. Plasuje to nas w okolicach 50 miejsca na świecie pod względem zamożności. W jednostkach siły nabywczej jest to około 25 000 jednostek PSN i daje 46 pozycję w rankingu światowym MFW. 420 Wikipedia, GDP https://en.wikipedia.org/wiki/List_of_countries_by_GDP_(nominal) Wikipedia “Gospodarka Polski”, https://pl.wikipedia.org/wiki/Gospodarka_Polski 422 Wikipedia, https://en.wikipedia.org/wiki/List_of_countries_by_GDP_(nominal)_per_capita 421 395 Menedżer planujący wejście na rynek powinien brać pod uwagę dochód narodowy na jednego mieszkańca pod uwagę analizując atrakcyjność rynku oraz możliwości konsumpcyjne danego społeczeństwa. Jest logicznym, że polski rynek będzie mieć inną pojemność dla dóbr luksusowych, produktów innowacyjnych i zaawansowanych usług, niż ten, gdzie wskaźnik PKB na mieszkańca jest dwukrotnie wyższy, a konkurencja może być znacząco wyższa. 5.4.3 Dochód do dyspozycji Jest to jeden z najważniejszych wskaźników mikro, określający poziom życia i możliwości konsumpcji przez społeczeństwo danego regionu lub kraju. Człowiek sprzedając swoją pracę lub zasoby otrzymuje przychód brutto. Może również otrzymać granty, zasiłki, itp. (transfery z budżetu państwa). To wszystko składa się na przychody indywidualne. Aby je uzyskać jednostka ponosi pewne koszty, co powoduje, że rzeczywisty dochód brutto jest mniejszy od przychodu. Ale z faktu, że owa jednostka żyje w nowoczesnym państwie, musi ponosić koszty jego funkcjonowania. W ten sposób jej dochód brutto zostaje pomniejszony przez zabór podatku od dochodu, składek ZUS, składek na ubezpieczenie zdrowotne oraz wielu innych danin, tych bardziej i tych mniej celowych, globalnych i lokalnych, w zależności od stopnia rozpasania administracji i biurokracji państwa. W rezultacie pozostaje kwota netto (po opodatkowaniu strony przychodowej), będąca dochodem do dyspozycji423. Kwota ta nie jest jednak do końca kwotą wolną od podatku, albowiem nabywając dobra, obywatel płaci kolejne podatki po stronie zakupowej (VAT, akcyza, PCC). W ten sposób państwo zabiera około 70% dochodu netto obywatela, ograniczając w ten sposób jego własność, swobody i prawa. Dochód do dyspozycji jest ważnym wskaźnikiem ekonomicznym. Istnieje granica jego wielkości, przy której mogą nastąpić katastroficzne zmiany w otoczeniu (strajki, rewolty, zmiany władzy). A równocześnie wyznacza on poziom zamożności społeczeństwa i swobody jednostki. Im większa jest różnica pomiędzy średnią płacą brutto, a dochodem do dyspozycji, tym gorszy jest system zarządzania państwem i tym bardziej nasilają się zjawiska patologiczne (wzrost „szarej strefy”, emigracja ekonomiczna, osłabienie przedsiębiorczości, wypieranie kapitału prywatnego przez państwowy w inwestowaniu, problemy demograficzne, opresyjność i represyjność władzy nie mogącej domknąć kolejnego budżetu, itp.). To wszystko obserwujemy aktualnie w Polsce, między innymi dlatego, że od 25 z górą lat kolejne władze wychodzą z założenia, że bogactwo narodu bierze się przede wszystkim z dotacji i zadłużania się. GUS, „Definicja dochodu do dyspozycji”, http://stat.gov.pl/metainformacje/slownik-pojec/pojecia-stosowane-w-statystyce-publicznej/62,pojecie.html 423 396 Ważnym wskaźnikiem makroekonomicznym opartym na koncepcji dochodu do dyspozycji (dochodu rozporządzalnego) jest średni dochód rozporządzalny424. Precyzyjne wyjaśnienie metodologiczne pomiędzy dochodem do dyspozycji, a dochodem rozporządzalnym jest wyjaśnione w materiałach GUS425. W roku 2014 w Polsce, przeciętny, miesięczny dochód do dyspozycji na 1 osobę w gospodarstwie domowym wynosił 1 293,32 zł! (wobec przeciętnej płacy brutto 3 777,10 zł). Liczba mówi sama za siebie. Biorąc pod uwagę PKB na jednego mieszkańca wynoszący w 2014 roku około 57 100 zł. To oznacza, że dochód do dyspozycji na jednego mieszkańca stanowi zaledwie 22,6%. Jest to wynik zatrważający, albowiem resztę, czyli 77,4% zabiera państwo, korporacje, banki i system władzy. I nie jest to ważne jak i na co, i ile zostanie zwrócone w postaci wątpliwej jakości usług. Ta relacja przekracza zakres definicji grabieży. 5.4.4 Globalny wskaźnik przedsiębiorczości GEM Jako jeden z pierwszych wskaźników globalnych, ważnych dla analizy klimatu dla przedsiębiorczości w danym kraju jest Globalny Wskaźnik Przedsiębiorczości (GEM)426, obliczany i katalogowany przez konsorcjum założone przez Babson College z Bostonu oraz London Business School od 1999 roku. Wskaźnik ten ma wysoką reputację, przez co wykorzystywany jest w analizach ekonomicznych, takich organizacji jak Bank Światowy, OECD, itp. Wikipedia, „Dochód rozporządzalny” https://pl.wikipedia.org/wiki/Doch%C3%B3d_rozporz%C4%85dzalny 425 GUS, „System monitorowania rozwoju”, http://strateg.stat.gov.pl/Home/Strateg 426 Global Entrepreneurschip Monitor, http://www.gemconsortium.org/ 424 397 Rys. 5.11 Model charakterystyki przedsiębiorczości w metodolog ii GEM 427. Inicjatywa GEM jest największym, projektem badania przedsiębiorczości w skali międzynarodowej. Służy rozpowszechnianiu wiedzy o przedsiębiorczości i wspieraniu tworzenia jej nowych form. Obecnie obejmuje ponad 100 krajów świata, stanowiących razem ponad 75% ludności świata i ponad 90% globalnego PKB, opierając się na ponad 200 000 wywiadów w ciągu roku i badaniach ponad 500 naukowców współpracujących z konsorcjum. GEM służy porównaniom różnych przejawów przedsiębiorczości pomiędzy krajami, pomiarom różnic w aktywności gospodarczej, identyfikowanie czynników determinujących poziom aktywności w obszarze przedsiębiorczości, a także wskazywanie rozwiązań dla systemów gospodarczych umożliwiających podnoszenie poziom aktywności przedsiębiorczej. GEM opiera się na ściśle ustalonej metodologii, stałej w czasie i jednolitej dla wszystkich krajów. Dotyczy ona pozyskiwania danych (zakłada między innymi prowadzenie badań ilościowych na minimalnej próbie 2000 dorosłych respondentów oraz przeprowadzenie minimum 36 indywidualnych wywiadów z ekspertami danego kraju w dziedzinie przedsiębiorczości). Proces zbierania danych znajduje się pod ścisłą kontrolą osób odpowiedzialnych za jakość danych w ramach konsorcjum GEM. Model rozwoju przedsiębiorczości opiera się na koncepcji M. Porter, J. Sachsa i J. MacArthura dla Globalnego Wskaźnika Konkurencyjności428. W metodologii GEM wykorzystywany jest również model wzrostu organizacji i przedsiębiorczości, uwzględniający cykl życia oraz uwarunkowania zewnętrzne (ekosystem biznesu), jak na rys. 2.2. W Polsce analizą danych i współpracą w ramach GEM zajmuje się Polska Agencja Rozwoju Przedsiębiorczości PARP429. Raport GEM za rok 2015 (i wcześniejsze lata) można znaleźć pod adresem internetowym PARP430 i GEM431. Filary i kluczowe wskaźniki GEM Raport GEM oparty jest na kluczowych wskaźników przedsiębiorczości powiązanych ze sobą dla każdej gospodarki pogrupowanych na cztery filary, z których każdy ma swoje szczegółowe wskaźniki kluczowe. Dla każdego ze wskaź- GEM, “2015/16 Global Report” 2016, str. 13, http://www.gemconsortium.org/report ] Porter M.E., Sachs J.D., MacArthur J.W., “Competitiveness and Stages of Economic Development”, http://www.earth.columbia.edu/sitefiles/file/Sachs%20Writing/2002/WorldEconomicForum_20012002_GlobalCompetitivenessReport2001-2002_ExecutiveSummary.pdf 429 PARP, „Badania i ewaluacje PARP”, Global Entrepreneurship Monitor. https://badania.parp.gov.pl/global-entrepreneurship-monitor-gem 430 PARP Badania i ewaluacje PARP, GEM 2015 Global Report http://badania.parp.gov.pl/gem-2015-global-report 431 GEM Raporty za poszczególne lata http://www.gemconsortium.org/report 427 428 398 ników ustala się wartości pomiarowe, a następnie dla każdego filara można ustalić ranking metodą DTF (odległość od frontiery). Struktura wskaźnika GEM ma postać: Społeczne postrzeganie wartości związanych z przedsiębiorczością I.1. Przedsiębiorczość jako dobry wybór kariery zawodowej. I.2. Wysoki status społeczny przedsiębiorcy, który odniósł sukces, I.3. Uwaga mediów poświęcona przedsiębiorczości. II. Indywidualne postrzeganie przedsiębiorczości II.1. Postrzeganie okazji wynikających z przedsiębiorczości, II.2. Postrzeganie możliwości w przedsiębiorczości, II.3. Intencje przedsiębiorcze, II.4. Obawa przez upadłością. III. Charakterystyki aktywności w obszarze przedsiębiorczości III.1. Całkowita przedsiębiorczość wczesnego stadium (TEA). III.2. Indeks motywacji. III.3. Procent podmiotów gospodarczych w populacji. III.4. Procent zakończenia działania podmiotów gospodarczych. III.5. Zatrudnienie dzięki przedsiębiorczości (EEA). IV. Postrzeganie jakości ekosystemu przedsiębiorczości IV.1. Finansowanie działań przedsiębiorczych. IV.2. Polityka władz (pomoc, biurokracja, podatki). IV.3. Edukacja w zakresie przedsiębiorczości w szkołach. IV.4. Transfery wiedzy B+R. IV.5. Infrastruktura komercyjna i prawna. IV.6. Dynamika rynku wewnętrznego (regulacje i ograniczenia wejścia). IV.7. Infrastruktura fizyczna. IV.8. Normy kulturowe i społeczne. Szczegółowe dane dotyczące kluczowych wskaźników GEM można znaleźć na stronie „Global Entrepreneurship Monitor - Adult Population Survey Measures, 2015” 432. I. Dane dla Polski za rok 2015 Rozwój przedsiębiorczości wynikający z analizy kilku lat wskaźnika GEM idzie w złym kierunku433. Dotyczy to przede wszystkim zmian związanych z polityką gospodarczą, obciążeniami biurokratycznymi oraz nadmiernymi podatkami. Programy rządowe od kilkunastu lat są przeciw rozwojowi przedsiębiorczości, a te obecne dodatkowo poważnie uszkodzą istniejącą już sferę MSP przez GEM Kluczowe wskaźniki http://www.gemconsortium.org/data/key-indicators Węcławska D., Tarnawa A., Nieć M., Zabierowski P., „Global Entrepreneurship Monitor. Polska”, PARP, Warszawa, 2015, http://www.parp.gov.pl/attachments/article/48704/newGEM_wyd.2015.pdf 432 433 399 nadmierną opresyjność i represyjność państwa, programy socjalne, preferowanie zagranicznego kapitału oraz nepotyzm i arogancję władzy. Wyniki te można zaobserwować w dołączonej poniżej tabeli 22. Tabela 22 Wartości globalnego wskaźnika przedsiębiorczości 2015 dla Polski 434 Kategoria Dane globalne Postrzeganie przedsiębiorczości Aktywność Indeks motywacji Równoważność płci Działania przedsiębiorcze Ocena społeczna przedsiębiorczości % Oceny eksperckie ekosystemu przedsiębiorczości [wynik punktowy z ocen ekspertów w skali [1 – 10 pkt]. Pozycja w rankingu na 62 państwa. Aspekt Populacja PKB 2014 PKB/na głowę Udział MSP w PKB WB Doing Business WB Starting a Business WEF Global Competitiveness Report Postrzeganie szans Postrzeganie możliwości Obawa przed upadłością Intencje przedsiębiorczości Aktywność w obszarze wczesnym TEA Udział ustabilizowanego biznesu Aktywność biznesu w zatrudnianiu Okazje/Konieczności K/M w fazie TEA K/M okazje Spodziewane zatrudnianie Innowacyjność Przemysł (% w usługach biznesowych) Wysoki status społeczny przedsiębiorcy Przedsiębiorca = dobry wybór kariery Finansowanie przedsiębiorczości Polityka rządu, wsparcie i ukierunkowanie na przedsiębiorczość Polityka rządu, biurokracja, podatki Programy rządowe Nauka przedsiębiorczości w szkole Nauka przedsiębiorczości po szkole Transfer wiedzy B+R Infrastruktura komercyjna i prawna Dynamika rynku wewnętrznego Przeszkody rynkowe wewnętrzne lub regulacje wejścia Infrastruktura fizyczna Wartość 38,0 mln $546,6 mld $14 379 50% 76,0 86,0 4,5/7 32,9 55,9 47,8 20,0 Ranking 25/189 85/189 41/140 46 20 56 27 9,2% 38 5,9% 4,0% 1,7 0,5 0,9 26,1% 2,1% 34 22 33 38 24 17 40 24,5% 17 55,7% 44 60,5% 4,73 31 16 4,60 18 3,44 5,00 2,48 3,87 3,51 4,51 6,36 40 19 46 55 43 45 6 4,56 15 6,82 20 434 Kelley D., Singer S., Herrington M., Global Entrenpreneurship Monitor, 2015/16 Global Report, str. 97, http://www.gemconsortium.org/report/49480 400 Normy społeczne i kulturowe 4,26 38 W globalnych wskaźnikach World Bank - Doing Business, osiągnęliśmy wyższą niż przed rokiem pozycję w rankingu 25, ale w Starting a Business spadliśmy na pozycję 85 na 100 państw. W dodatku z analizy wskaźnika GEM w ocenie społecznej przedsiębiorczości kategoria wysokiego statusu przedsiębiorcy plasuje nas na 44 pozycji na 60 państw, co przy polityce podatkowej i biurokratycznej rządu pozycjonowanej na 40 wród 60 państw nie rokuje zbytnio na poprawę. Dodając do tego nauczanie przedsiębiorczości w szkole i po jej zakończeniu pozycja 55 na 62 może sugerować załamanie się przedsiębiorczości w Polsce już w roku 2017. Za to w Wielkiej Brytanii Polacy rozwijają swoje skrzydła w biznesie. Polska znajduje się w fazie rozwoju efektywności gospodarczej, mając ambicję na awans do kategorii rozwoju opartego na innowacyjności. Niestety obserwując trendy w zakresie zmian wskaźników GEM w relacji do Doing Business oraz Global Innovation Index, możemy o tym zapomnieć na najbliższe 50 lat przy tak prowadzonej polityce gospodarczej państwa, jak to jest czynione obecnie. 5.4.5 GCI Globalny indeks konkurencyjności GCI jest obliczany jest na podstawie 110 czynników wielokryterialnych, wykorzystując najnowsze wyniki badań teoretycznych i empirycznych. Dwie trzecie danych pochodzi z sondażu prowadzonego wśród tysięcy menedżerów z prawie wszystkich badanych krajów. Pozostałe dane pochodzą z publicznie dostępnych źródeł, np. danych Banku Światowego, Eurostatu, etc435. Pomiar konkurencyjności oparty jest na 12 filarach wzajemnie się uzupełniających podzielonych na trzy kategorie (każdy element jest mierzony w wartościach bezwymiarowych w skali 1-7 (7 stanowi maksymalną wartość)): I. Kategoria wymagań podstawowych (subindex basic requirements): 1 Różnorodność instytucjonalna, 2 Odpowiednia infrastruktura, 3 Równowaga makroekonomiczna, 4 Zdrowie i edukacja na poziomie podstawowym, II. Kategoria czynników poprawiających efektywność gospodarczą (subindex efficency enhancers): 1 Wyższe wykształcenie i doskonalenie zawodowe, 2 Efektywne rynki dóbr, 3 Efektywny rynek pracy, 4 Poziom rozwoju rynków finansowych, 5 Zdolność do wykorzystania zaplecza technologicznego i technicznego, 435 http://www3.weforum.org/docs/GCR2014-15/GCR_Chapter1.1_2014-15.pdf 401 6 Rozmiar rynku wewnętrznego i zewnętrznego, III. Kategoria czynników innowacyjności i rozwoju ekstensywnego 1. Zaawansowanie techniczne i różnorodność produktów, 2. Innowacyjność. Do obliczenia indeksu konkurencyjności, poszczególnym filarom nadaje się wagę istotności, zależną od tego, na jakim etapie rozwoju znajduje się dane państwo. Rozróżnia się w tej kwestii trzy fazy, zależne od poziomu PKB na mieszkańca: poniżej $2000 jest to rozwój sterowany przez czynniki wytwórcze; dla przedziału $3000-$9000 jest to rozwój sterowany inwestycjami, podczas gdy dla PKB powyżej $17000 na mieszkańca jest to rozwój sterowany przez innowacje. Wartości międzyprzedziałowe sugerują rozwój sterowany przez czynniki mieszane (transformacja do kategorii wyższej). Dla przykładu, GDP na głowę w Polsce w cenach bieżących wynosi $13 394, co oznacza stan transformacji kraju pomiędzy rozwojem przez inwestycje a rozwojem przez innowacje. Sposób obliczania wskaźnika GCI oraz jego analiza za lata 2015-2016 w języku polskim opublikował NBP436. Zgodnie z danymi z raportu GCI z zasobów Word Economic Forum437 Polska w roku 2015 zajęła 41 pozycję wśród 140 państw z wynikiem CGI na poziomie 4,5 (na maksymalną możliwą 7)438. Tam można również znaleźć wartości cząstkowe wskaźnika CGI dla Polski za rok 2015-2016. Warto zauważyć, że od kilku lat pierwsze miejsce w rankingu konkurencyjności na świecie zajmuje Szwajcaria, drugie Singapur, a trzecie USA. 5.4.6 GII Globalny indeks innowacyjności Zasada konstrukcji GII jest podobna do wcześniej zaprezentowanego wskaźnika GCI. GII bada 143 gospodarki na całym świecie używając aktualnie 79 wskaźników pomiarowych (na rok 2015)439, dotyczących zarówno potencjału innowacyjnego, jak i wymiernych efektów ekonomicznych. Szkielet koncepcyjny wskaźnika GII opiera się na dwóch subindeksach: Innovation Input Sub-index (Wskaźnik działań proinnowacyjnych WDPI) oraz Innovation Output Sub-index (Wskaźnik rezultatów innowacyjności – w otoczeniu WRI). Na każdy z tych subindeksów składają się określone filary innowacyjności. Każdy filar dzieli się na podfilary, a nie składają się układy wskaźników szczegółowych. Globalny wskaźnik GII stanowi średnią arytmetyczną subindeksów WDPI oraz WRI. Natomiast wskaźnik efektywności innowacyjności definiowany jest jako iloraz subindeksów WRI/WDPI. Ten ostatni stanowi podstawę Boguszewski P., „Globalny raport konkurencyjności 2015-16 Światowego Forum Gospodarczego”, NBP, 30.09.2015 https://www.nbp.pl/aktualnosci/wiadomosci_2015/WEF-2015.pdf (dostęp 22.01.2016) 437 http://reports.weforum.org/global-competitiveness-report-2015-2016/economies/#economy=POL (dostęp 22.01.2016). 438 http://www3.weforum.org/docs/gcr/2015-2016/POL.pdf (dostęp 22.01.2016). 439 https://www.globalinnovationindex.org/content/page/framework/ (dostęp 22.01.2016 436 402 rankingu efektywności innowacyjności państw. Każdy z subindeksów zbudowany jest na grupie filarów innowacyjności, na które składa się po trzy podfilary. Te, z kolei są tworzone ze szczegółowych wskaźników. W ten sposób powstaje układ pomiarowy na zasadzie analizy wielokryterialnej, jak na rys. 5.12 Rys. 5.12 Struktura globalnego indeksu innowacyjności według stanu na 2015 Bardziej szczegółowe omówienie wszystkich wskaźników cząstkowych oraz struktury całego rankingu można znaleźć pod adresem organizacji zarządzającej rankingiem GII440 oraz w opracowaniu „Innowacyjność po polsku”441. Należy zauważyć, że struktura metodyczna obliczania GII może ulegać zmianom w czasie, co związane jest z postępem wiedzy w zakresie badania innowacyjności. Warto również zauważyć związek pomiędzy GII, a globalnym indeksem konkurencyjności GCI oraz PKB na głowę mieszkańca. Z faktu, że rozwój krajów o dochodzie na jednego mieszkańca powyżej $17 000 następuje głównie przez innowacje, wynika że to właśnie Szwajcaria, Wielka Brytania, Holandia i USA przewodzą rankingowi innowacyjności. Polska pozostając na 41 miejscu, znacząco odstaje od czołówki i warto zastanowić się, które subfilary z obszaru działań proinnowacyjnych stanowią wąskie gardła rozwoju innowacyjności. Metodologia dla analiz, wynikająca ze struktury wskaźnika GII jest dobrym narzędziem do pomiaru i porównań. 440 441 Globalny Indeks Innowacyjności, https://www.globalinnovationindex.org/content/page/data-analysis/ Gospodarek T., “Innowacyjność…”, op. cit. 403 Tabela 23 W yniki globalnego wskaźnika innowacyjności dla Polski za rok 2015 prognoza dane 2015 Kategoria raportu GII Wynik % pozycja w najlepszego rankingu optymistyczna pesymistyczna Globalny wskaźnik innowacyjności GII 40,2 46 40,4 35,9 Globalny wskaźnik efektywności innowacyjności GEI 70,2 93 60,0 60,0 I. Wskaźnik działań proinnowacyjnych (WDPI) 48,4 39 50,6 44,9 1. 75,3 34 69,0 57,6 1.1 Środowisko polityczne 74,1 35 73,3 55,5 1.2 Środowisko uregulowań 75,4 42 55,7 44,3 1.3 Środowisko biznesu 76,3 39 78,1 73,0 2. 37,2 45 46,5 41 2.1 Edukacja ogólna 53,6 36 60,3 59,1 2.2 Edukacja na poziomie wyższym 32,8 66 37,4 29,1 2.3 Badania i wdrożenia (R&D) 35,4 38 41,9 34,7 3. 45,5 47 48,8 44,4 3.1 Technologie informacyjne i telekom (ICT) 55,8 46 58,3 53,6 3.2 Infrastruktura ogólna 36,0 53 44,8 38,8 3.3 Równowaga ekologiczna 44,7 46 43,3 40,9 4. 49,0 60 49,7 47,8 4.1 Kredytowanie 31,0 69 33,5 35,5 4.2 Inwestycje 32,0 84 28,9 26,1 4.3 Rynek i konkurencja 83,9 33 86,8 81,8 5. 35,2 66 39,1 33,8 5.1 Pracownicy wiedzy 45,3 45 45,3 42,2 5.2 Łącza innowacyjności 24,8 102 30,3 24,4 5.3 Absorpcja wiedzy 35,6 60 41,8 34,9 II Wskaźnik rezultatów innowacyjności (WRI) 31,9 56,0 30,2 26,9 6. 28,3 56 29,4 25,0 6.1 Kreacja wiedzy 24,4 40 27,0 25,6 6.2 Wpływ wiedzy 35,7 81 32,5 29,6 6.3 Dyfuzja wiedzy 24,9 89 28,7 19,8 7. 35,4 89 31,0 28,7 7.1 Wartości niematerialne i prawne 36,9 108 38,4 34,3 7.2 Wykreowane usługi i produkty 31,0 36 29,8 27,7 7.3 Twórczość online 36,8 37 24,9 24,1 Instytucje Kapitał ludzki i badania Infrastruktura Stan zaawansowania rynku Stan zaawansowania biznesu Produkty wiedzy Wyniki działalności twórczej 404 5.4.7 Globalny wskaźnik „Doing Business” Jest to jeden z bardziej interesujących wskaźników globalnych, obejmujący szereg aspektów prowadzenia biznesu w 189 krajach świata442. Doing Business jest flagową publikacją Banku Światowego. Dokonuje pomiaru jakości regulacji państwa oraz jego działań dla rozwoju biznesu. Monitoruje przy tym te działania, które hamują rozwój firm. W ramach konstrukcji wskaźnika syntetycznego badane są ilościowo takie składowe, jak: przepisy podatkowe, jasność prawa, ochrona własności, łatwość zakładania firmy, stopień komplikacji procedur likwidacji, dostęp do elektryczności, łatwość uzyskania kredytu, łatwość płacenia podatków, itp. Dane do rocznych raportów443 pochodzą ze zbiorów Banku Światowego444. Raport Banku Światowego, „Doing Business w Polsce” opublikowano po raz pierwszy w roku 2015445. Warto zauważyć, że w roku 2016 Polska awansowała na 25 miejsce w rankingu, awansując aż o 7 pozycji w stosunku do roku poprzedniego, wyprzedzając między innymi: Szwajcarię, Francję i Hiszpanię. Jednak Estonia, Islandia i Litwa oferują lepsze warunki prowadzenia biznesu. Jest to najwyższa pozycja Polski w historii publikowania globalnego wskaźnika „Doing Business”. Należy jednak zauważyć, że ta wysoka pozycja wynika przede wszystkim z regulacji import/eksport wymuszonych prawodawstwem UE i wszystkie kraje Unii zajmują w tej kwestii pozycję nr 1 w rankingu. W dalszym ciągu rozliczenie podatkowe zajmuje 270 godzin rocznie, a zakładanie spółki z ograniczoną odpowiedzialnością stanowi udrękę. W Tabela 24 przedstawiono szczegółowe wskaźniki składające się na globalny wskaźnik „Doing Business”. Wskaźnik Doing Business nie mierzy wszystkich aspektów prowadzenia biznesu, jedynie ale wybrane, zdaniem ekspertów, najistotniejsze z nich. Badanych jest w sumie 11 najważniejszych obszarów działania każdej firmy. Subiektywizm wyboru wskaźników jest ograniczany do najbardziej spektakularnych problemów, jak biurokracja, niejasne prawo, itp. Pomimo że raport Doing Business jest mocnym narzędziem dla kierunkowania reform i regulacji optymalnych dla biznesu, to politycy i tak wiedzą swoje i biorą pod uwagę różne źródła przy podejmowaniu decyzji gospodarczych (zazwyczaj są po prostu ignorantami ekonomicznymi). Wskaźnik nie promuje nadmiernej deregulacji, jak to można wnioskować bez dogłębnej analizy metodologii jego tworzenia, ponieważ stanowi World Bank, Tabela wyników dla państw, http://www.doingbusiness.org/reports/global-reports/~/media/GIAWB/Doing%20Business/Documents/Annual-Reports/English/DB16-Chapters/DB16-Country-Tables.pdf 443 World Bank, Doing Business 2016 Report, http://www.doingbusiness.org/~/media/GIAWB/Doing%20Business/Documents/Annual-Reports/English/DB16-Chapters/DB16-Mini-Book.pdf 444 World Bank, “Doing Business” dane, metody i raporty globalne. http://www.doingbusiness.org/reports/global-reports/doing-business-2016 445 World Bank, Doing business w Polsce, raport za rok 2015, http://polish.doingbusiness.org/~/media/GIAWB/Doing%20Business/Documents/Subnational-Reports/DB15-Poland-polish.pdf 442 405 układ wielokryterialny, gdzie jedna ze składowych może rosnąć, podczas gdy druga maleć. Wynik finalny obliczany jest jako odległość od frontiery, a nie w stosunku do 100%. Tabela 24 Tablica wskaźnika Doing Business dla Polski za rok 2016 442 Kategoria Doing Business Indeks Wkaźnik wartość Globalny Kategoria ogółem Zakładanie biznesu Procedury (liczba) 4 Czas (dni) 30 Koszt (% PKB/głowę) 12,2 Minimalny kapitał (%PKB/głowę) 11,4 Kategoria ogółem Pozwolenia na budowę Procedury (liczba) 16 Czas (dni) 156 Koszt (% kosztu hurtowni) 0,3 QC budowy w skali 0-15 12 Kategoria ogółem Procedury (liczba) Uzyskanie elektryczności Czas (dni) Koszt(%PKB/głowę) Wsparcie i transparentność taryf (0-8) 6 33 Koszt(%wartości budowli) 0,3 Indeks jakości administracji (0 - 30) 18,5 Poziom informacji o kredytach (0-8) 8 Informacja o spłatach (% dorosłych) 91 Rejestry historii spłat zadłużenia 0 Wskaźnik rozszerzonego zarządu akcjonariuszy (0-10) Wskaźnik ochrony inwestorów mniejszościowych (0-10) Liczba płatności (w roku) 74,24 52 80,15 49 75,65 41 75 19 60 49 79,63 58 6 6 6 Kategoria ogółem Płacenie podatków 85 7 Kategoria ogółem Ochrona inwestorów mniejszościowych 85,94 7 Czas (dni) Wskaźnik konfliktu interesów (0-10) 25 19,5 Kategoria ogółem Uzyskanie kredytu 76,45 133 Procedury (liczba) Wskaźnik mocy prawnej (0-12) ranking 4 Kategoria ogółem Rejetracja nieruchomości DTF 7 Czas (dni potrzebny na rozliczenie) 271 Ociążenia podatkowe (% przychodu) 40,3 406 Kategoria ogółem Umowy egzekucyjne Czas (dni) 685 Koszt (% windykacji) 19,4 Wskaźnika jakości procesów sądowych (0-18) 10,5 Kategoria ogółem 63,44 55 100 1 70,43 32 Czas eksportu Dokumentacja eksportowa (godz.) 1 Dokumentacja graniczna (godz.) 1 Transport krajowy (godz. ) 14 Koszt ekportu Handel zagraniczny Dokumentacja uwzględniana 0 Dokumentacja graniczna 0 Transport krajowy (USD) 1000 Czas importu Dokumentacja importowa (godz.) 1 Dokumentacja graniczna 0 Transport krajowy 14 Koszt importu Dokumentacja uwzględniana 0 Dokumentacja graniczna 0 Transport krajowy (USD) 1000 Kategoria ogółem Rozwiązanie niewypłacalności Czas (lata) 3 Koszt (% należności) 15 Wskaźnik windylacji (cent/dolar) 58,3 Moc prawna windykacji (0-16) 12,5 Metodologia obliczania wskaźnika Doing Business Doing Business publikuje rocznie 9 620 różnych wskaźników, na które składa się około 57 000 punktów pomiarowych. Każdy z nich jest udostępniany na stronie www, jako szereg czasowy począwszy od pierwszego roku monitoringu. Ponieważ z każdym rokiem następują pewne korekty metodologiczne, jakakolwiek zmiana powoduje automatycznie przeliczenie danych wstecznie według nowej miary, tak żeby można było porównywać wyniki w różnych latach. Na stronie są również dostępne dane oryginalne z danego roku (przed korektą), co pozwala na wyliczenie współczynników przeliczeniowych. Jest to unikatowe podejście w stosunku do innych wskaźników globalnych, które nie publikują danych skorygowanych wstecz. Wydaje się, że Doing Business stanowi najbardziej czytelny układ wielokryterialny oceny warunków prowadzenia działalności gospodarczej i każdy menedżer powinien znać jego wyniki. 407 Filary wskaźnika globalnego Doing Business Filarami analitycznymi globalnego wskaźnika Doing Business są następujące aspekty, mierzone jako jego składowe subindeksy: 1. Rozpoczęcie działalności. 2. Radzenie sobie z pozwoleniami na budowę. 3. Uzyskiwanie energii elektrycznej. 4. Rejestrowanie własności. 5. Otrzymanie kredytu. 6. Ochrona inwestorów mniejszościowych. 7. Płacenie podatków. 8. Handel transgraniczny. 9. Egzekwowanie umów. 10. Rozwiązywanie problemu niewypłacalności. 11. Regulacja rynku pracy. Metodyka dla filara „Rozpoczęcie działalności”. Ten filar uwzględnia wszystkie procedury wymagane oficjalnie lub praktycznie realizowane przez przedsiębiorcę w celu rozpoczęcia działalności gospodarczej. Obejmuje on również czas oraz koszty realizacji tych procedur wraz z minimum kapitałowym wymaganym na starcie. Składają się na to czynniki, takie jak: uzyskanie wszystkich niezbędnych pozwoleń i zezwoleń na prowadzenia działalności gospodarczej, dokonanie wszelkich wymaganych zgłoszeń, weryfikacji zapisów dla firmy i pracowników w odpowiednich rejestrach organów władzy. Ranking w zakresie łatwości rozpoczynania działalności gospodarczej dla poszczególnych państw jest określany przez sortowanie odległości uzyskanego wyniku od frontiery. Wynik integralny jest średnią arytmetyczną odległości do punktów granicznych dla każdego ze wskaźników składowych, na które składają się: 1. Czas przedrejestracyjny (np. sprawdzenie nazwy, zawarcie umów notarialnych), czas okresu rejestracji oraz post-rejestracji (rejestracja w organizacjach, umowy na usługi) firmy do chwili rozpoczęcia działalności wyrażony w dniach. 2. Koszt założenia działalności w relacji do dochodu narodowego na mieszkańca wyrażony w procentach (opłaty skarbowe, opłaty sądowe, opłaty notarialne, podatki od czynności cywilnoprawnych, opłaty rejestrowe). 3. Minimalny kapitał zakładowy wymagany do rozpoczęcia działalności gospodarczej wyrażany jako procent dochodu narodowego na mieszkańca. 4. Liczba procedur ukończonych do momentu otrzymania dokumentu finalnego (wpisu sądowego lub pozwolenia na działalność). Wynik określany jest w procentach odległości od frontiery (DTF str 362). 408 Żeby powyższe dane były reprezentatywne, zakłada się następującą standaryzację: przez firmę rozumiemy spółkę z ograniczoną odpowiedzialnością (lub jej najbardziej powszechny odpowiednik prawny w dany kraju). Spółka ta działa w największym ośrodku biznesowym danego kraju (w Polsce Warszawa)446. Jest w 100% podmiotem krajowym, mającym co najmniej pięciu właścicieli, posiadającym kapitał zakładowy równoważny 10-krotnej wartości dochodu narodowego brutto na mieszkańca. Firma nie wykonuje działalności w handlu zagranicznym ani nie podlega szczególnemu nadzorowi podatkowemu (alkohol, tytoń, metale szlachetne) lub koncesyjnemu (np. produkcja broni, leków). Nie jest zbyt uciążliwa dla środowiska. Nie posiada nieruchomości na własność, a jedynie dzierżawi niezbędne zasoby. Nie kwalifikuje się do otrzymania dotacji lub pomocy publicznej. Po rozpoczęciu działalności zatrudnia minimum 10, a maksimum 50 pracowników – wyłącznie obywateli danego kraju. Osiąga obroty minimum 100-krotnej wartości dochodu narodowego na mieszkańca. Umowa spółki liczy 10 stron. 5.4.8 PMI (Purchasing Managers Index) Przy prognozowaniu rynku ważnym aspektem jest ustalenie koniunktury oraz zachowań kontrahentów. W tym celu organizacje Markit Group i Institute for Supply Management447 of financial activity opracowały syntetyczny wskaźnik scoringowy, charakteryzuący aktywność transakcyjną na rynkach – Purchasing Managers Index (PMI). Wskaźnik PMI bazuje na analizach miesięcznych informacji pozyskiwanych od menedżerów 30 krajów, reprezentujących ponad 22 000 organizacji w bazie danych ocen. Dla Polski, sierpniowy (2016) odczyt PMI wynosi 51,5%, co oznacza pozytywny wzrost448 od minimalnego wyniku 50,3% sprzed 22 miesięcy. Średni wynik dla strefy Euro wynosi 51,7%449, z czego Niemcy wykazują spadek PMI do poziomu 53,6%, a Holandia największy wzrost do poziomu 53,5%. Największy spadek indeksu PMI dotyczy Włoch, które osiągnęły najniższy jego poziom od 22 miesięcy – 49,8%. Dane od 1948 roku dla wskaźnika PMI oraz jego składowych można znaleźć w bazie Quandl Institute for Supply Management (ISM)450. Warto zwrócić uwagę na raport globalny PMI z 3 stycznia 2017451, wskazujący na lekki wzrost optymizmu w gospodarce światowej. Wskaźnik globalny PMI wzrósł do 54,7%, a w Dane są również zbierane dla drugiego co do wielkości miasta w danym kraju. https://www.instituteforsupplymanagement.org/ 448 Markit, PMI dla Polski z dnia 6.08.2016 https://www.markiteconomics.com/Survey/PressRelease.mvc/12f681ae38f94852be4210193623f2b4 449 Markit, PMI dla strefy UE, z dnia 6.08.2016 https://www.markiteconomics.com/Survey/PressRelease.mvc/76ed1db5bbb64a38b29fa1118c57f4aa 450 Dane z bazy Quandl, ISM, https://www.quandl.com/data/ISM-Institute-for-Supply-Management 451 Cahil K., “December 2016 Manufacturing ISM Report On Business”, ISM, 3.01.2017. https://www.instituteforsupplymanagement.org/ismreport/mfgrob.cfm?SSO=1 446 447 409 strefie Euro do 54,9%. Polskie wskazania również odzwierciedlają ten trend. Jest wzrost PMI do poziomu 54,3% w grudniu452 z poziomu 51,9% w listopadzie 2016453. Rys. 5.13 Zmiany wskaźnika PMI 1999-2016 dla Polski [wg. GUS i ISM Markit] PMI Metodyka Istnieją dwie części miesięcznych wydań PMI: główny wskaźnik PMI, mający na celu prezentację bieżącej kondycji gospodarki, a także wskaźniki cząstkowe lub dane na poziomie składników tych indeksów. Subindeksy zapewniają wgląd w kluczowe czynniki ekonomiczne, takie, jak: inflacja, eksportu, zatrudnienia i zapasy. Każdy kraj, dla którego określany jest wskaźnik PM dla sektora wytwórczego i usług opiera się na odpowiedziach ankietowych repondentów z paneli kierownictwa sprzedaży (lub podobnego) z ponad 400 firm. Panele badawcze są starannie rekrutowane, tak aby dokładnie reprezentować rzeczywistą strukturę danego sektora. Kwestionariusze są wypełniane w drugiej połowie każdego miesiąca, a wyniki badań są następnie przetwarzane przez ekonomistów z Markit. Respondenci proszeni są o podanie, czy warunki biznesowe dla wielu zmiennych, uję- IHS Markit, Komunikat prasowy, „Markit PMI® Polski Sektor Przemysłowy” https://www.markiteconomics.com/Survey/PressRelease.mvc/09fac3d773b947dab2ca6d305a468fad 453 Dane Trading Economics http://www.tradingeconomics.com/poland/manufacturing-pmi 452 410 tych w kwestionariuszu uległy poprawie, pogorszeniu lub pozostały niezmienione w porównaniu z poprzednim miesiącem, a także podania przyczyny ewentualnych zmian. Zmienne, brane pod uwagę przy określeniu wskaźnika PMI podzielone są na cztery kategorie: 1. Produkcja przemysłowa: nowe zamówienia, nowe zamówienia eksportowe, zaległości produkcyjne, ceny, ceny wyjściowe, ceny wejściowe, czas dostaw surowców i półproduktów, zapasy wyrobów gotowych, ilości zamówień, zapasy zamówień, zatrudnienie. 2. Usługi Działalność gospodarcza, nowe biznesy, zaległości wykonania, cen stosowane, ceny nakładów, zatrudnienia, oczekiwania dotyczące aktywności. 3. Sektor budownictwa Aktywność całkowita branży budowlanej, aktywność budownictwa mieszkaniowego, działalność handlową, inżynieria lądowa i wodna, nowe zamówienia, zatrudnienie, ilość zamówień, czas dostaw, ceny wejścia, korzystanie z podwykonawców, dostępność podwykonawców, stopy podwykonawca, jakość podwykonawstwa, przyszła działalność. 4. Rezultat dla całej gospodarki. Nowe zamówienia, nowe zamówienia eksportowe, zaległości produkcyjne, ceny wyjściowe, ogólne koszty produkcji, ceny zakupu, koszty personelu, czas dostaw, ilości zamówień, nadmiar zamówień, zatrudnienie. Przy okazji zbierania i analizy danych dla indeksu PMI, organizacja ISM przygotowuje ważny raport na temat światowego biznesu454. Pełna wersja raportu ISM® jest zamieszczana na stronie internetowej pod adresem www.ismrob.org ISM® w pierwszy dzień roboczy każdego miesiąca po godz. 10:00 rano. 5.4.9 Wskaźnik moralności płatniczej (IPM) Wskaźnik Payment Morality Index455 ma w literaturze identyczny skrót PMI, jak Purchasing Managers Index. Dotyczy on jednak zupełnie innego zagadnienia terminów regulowania płatności w gospodarce lub sektorze. Jest publikowany przez niemiecką firmę Bürgel głównie dla Niemiec i krajów UE456. W dalszej części będę go nazywać dla odróżnienia IPM. Średnie zadłużenie w branży jest to niezwykle ważna informacja dla menedżera, ponieważ niejeden doskonały biznes upadł z powodu braku płynności finansowej. Jednym z największych i najczęstszych kłamstw w biznesie jest stwierdzenie: „pieniądze za fakturę są już w drodze”. Wskaźnik moralności płatniczej wyprzedza koniunkturę na rynku. ISM August 2016 Manufacturing ISM® Report On Business® USA https://www.instituteforsupplymanagement.org/ISMReport/MfgROB.cfm 455 Bürgel, Payment Morality Index, https://www.buergel.de/de/glossar/payment-morality-index-pmi 456 Prezentacja wartości wskaźnika IPM dla Niemiec, https://www.buergel.de/de/insolvenzindex/firmen 454 411 Wskaźnik IPM bierze pod uwagę wysokość zadłużenia liczoną w dniach opóźnienia spłaty należności. Średni IPM stanowi średnią ocenę terminu płatności dla wszystkich kontrahentów danej branży. Można go interpretować jako ryzyko działalności w danej branży lub sektorze. Jeżeli wynik IPM wynosi 100%, tzn. wszystkie płatności są regulowane terminowo, to mamy do czynienia z idealną sytuacją w branży i niskim ryzykiem. Przy wartościach 80 – 99% oznacza to opóźnienia kilkudniowe i małe ryzyko. Między 40 – 79% opóźnienia sięgają kilku tygodni i mogą być niebezpieczne dla utrzymania płynności w niektórych branżach. Przy wartościach 0 – 39% opóźnienia sięgają miesięcy i stanowią poważne zagrożenie dla prowadzonej działalności. W Polsce analizami należności zajmuje się firma Euler-Hermes457. Niestety nie udostępnia ona danych nieodpłatnie. Wskaźnik moralności płatniczej w Polsce w sierpniu 2015 wynosił 54,3%, co świadczy o przyzwoitej kondycji naszej gospodarki. Wartość IPM poniżej 50 wskazuje na początek recesji w cyklu koniunkturalnym (kalendarz ekonomiczny rys. 1.11). Gdy jego wartość jest niższa niż 40, mamy do czynienia z kryzysem gospodarczym. 5.4.10 Wskaźnik IFO (ZEW) Wskaźnik ZEW458 znany jako Indeks IFO (ifo-Geschäftsklimaindex) jest publikowany przez Zentrum fur Europäische Wirtschaftsforschung z Mannheim459. Obrazuje on nastroje niemieckich analityków i inwestorów instytucjonalnych odnieszące się do sytuacji gospodarczej Niemiec. Dane publikowane są raz w miesiącu od roku 1991460. Metodologia ZEW polega na przeprowadzeniu badań ankietowych na próbie 350 niemieckich ekspertów z branży finansowej. Przedmiotem oceny punktowej (scoringowej) jest sytuacja gospodarcza w Niemczech, strefie Euro, USA, Japonii, Francji i Włoszech na najbliższe sześć miesięcy. Wartość ZEW wyraża różnicę pomiędzy oczekiwaniami pozytywnymi, a negatywnymi skali punktowej [-100,100]. Wskaźnik na poziomie zera oznacza stagnację gospodarczą. Wynik dodatni oznacza nastroje optymistyczne, a ujemny pesymistyczne i problemy gospodarcze. W pewnym sensie, wskaźnik ten opisuje cykle koniunkturalne (rys. 1.10) z wyprzedzeniem półrocznym. Nawiązuje on do wskaźnika PMI przedstawionego w rozdziale 5.4.8. 457 Euler Hermes http://www.eulerhermes.pl/inne-uslugi/Pages/analizy-naleznosci.aspx Wikipedia “Indeks IFO”, https://pl.wikipedia.org/wiki/Indeks_Ifo 459 http://www.zew.de/de/ 460 Trading Economics „Niemcy - Indeks Nastroju Ekonomicznego wg ZEW”, http://pl.tradingeconomics.com/germany/zew-economic-sentiment-index 458 412 Rys. 5.14 Indeks nastrojów ekonomicznych ZEW w okresie 2012-2016 461 Wskaźnik ZEW osiągnął najniższy od czterech lat poziom -6,8% 461. Wartości szczegółowe Indeksu IFO można znaleźć na stronach Statista462. Frączyk J., Money.pl, http://www.money.pl/gospodarka/unia-europejska/wiadomosci/artykul/wskaznikzew-w-niemczech-spadl-do--6-8-pkt-w,16,0,2125328.html 19.07.2016. 462 Statista, „Entwicklung des ifo-Geschäftsklimaindex von Juni 2015 bis Juni 2016”, http://de.statista.com/statistik/daten/studie/1307/umfrage/entwicklung-monatswerte-des-ifo-geschaeftsklimaindex/ 461 413 6 Dodatki W tym rozdziale zostaną opisane nieco bardziej szczegółowo niektóre metody, szczególnie użyteczne w praktyce zarządzania. Warto poznać bardziej szczegółowo dostępne narzędzia ilościowego wsparcia podejmowania decyzji na poziomie podstaw zarządzania, ponieważ na tym można budować rzetelne kryteria oceny, oszacowania itp. 6.1 Metoda wielokryterialna Jest to jedna z najważniejszych technik tworzenia integralnej miary dla różnych kryteriów aksjologicznych lub decyzyjnych. Opiera się na formalizmie przestrzeni wektorowej i długości wektora. Bazą przestrzeni są miary poszczególnych cech, charakteryzujących opisywany byt. 6.1.1 Kryterium oparte na skali nominalnej W skali tej można ustalić dychotomiczną wartość porównania jako: Tak (spełnia), Nie (nie spełnia). Może to być również 1 (spełnia), 0 (nie spełnia). Tabela 25 Przykładowa ocena wielokryterialna w skali nominalnej Lp. Cecha użyteczności TAK x 1 Obsługa wielu magazynów przez jeden program, 2 Podział interfejsów na część operacyjną i raportową 3 Możliwość wyłączenia części handlowej (typowy moduł GM) 4 Kartoteki wieloindeksowe (zamienniki, katalogi fabryczne), x 5 Blokada rekordu kartoteki (praca w sieci LAN) x 6 Rezerwacje towaru (status niezatwierdzony), 7 Podział ról uczestników procesu w zatwierdzaniu dokumentów 8 Dowolne rodzaje magazynów (np. skład podatkowy,…), 9 Wielość modeli sprzedaży opcjonalnie (np. WZ-FA) 10 Wybór metody wyceny zapasu (FIFO, LIFO, Średnia ważona) 11 Definiowanie kompletów i receptur 12 Automatyczna kompletacja (ZK-RW-PZ-FA) 13 Automatyczne rozliczenie dokumentów dostawy 14 Logistyka zamówień od klientów (ZA-ZD-PZ-WZ-FA) x 15 Elastyczność konfiguracji parametrów (słowniki, listy…), x x x x ……………… Suma uzyskanych wyników pozytywnych 15 Stąd naturalnym jest budowanie kryterium wyboru opartego na jak największej liczbie odpowiedzi pozytywnych w stosunku do wszystkich uwzględnianych 414 cech. Tego typu pomiar stosuje się np. przy wyborze oprogramowania, biorąc poszczególne jego funkcje jako cechy pożądane. Zakładamy równocenność każdej z cech, składających się na globalną użyteczność (wagi istotności są takie same). Zakładamy również, że wiadomo na czym polega podanie odpowiedzi pozytywnej (mogą to być subiektywne oceny ekspertów, albo pokazanie wprost danej funkcjonalności). Nie ma w tym miejscu wartości neutralnej (brak danych, albo spełnia częściowo), ponieważ wówczas musimy użyć innej skali (przedziałowej). Innymi słowy, problem jest albo czarny albo biały (nie ma odcieni szarości). Wynik integralny dla przypadku zaprezentowanego w tabeli 25 jest bardzo prosty. Jest to ułamek 8/15 (8 pozytywnych deklaracji na 15 możliwych). W skali procentowej jest to 53,33%463. Tym samym sprowadzono rezultat do przedziału [0, 1]. Jest to o tyle ważne, że ten wynik można dalej łączyć z innymi rezultatami w wielowymiarowy układ kryteriów określonych również w przedziałach [0, 1], obliczając długość wektora jako wynik finalny. 6.1.2 Kryterium oparte na skali porządkowej W tym przypadku oceny dla poszczególnych cech dokonuje się w skali bardziej zróżnicowanej niż dychotomiczna, przez więcej niż jednego oceniającego. Każdy oceniający podaje wynik dla ocenianej zmiennej (np. intensywność koloru zielonego) w ustalonej skali punktowej np. 1 – 10. Sposób kategoryzowania zmiennej jest w tym przypadku arbitralny (np. oparty na wrażeniach zmysłowych), co powoduje, że obiektywnej oceny musi dokonać grupa reprezentatywna statystycznie464. Wówczas wynik w danej kategorii przyjmuje się jako średnią arytmetyczną. Na takim modelu opiera się analiza scoringowa, gdzie miarą jest dystans procentowy danej zmiennej, uzyskany przez podmiot poddany analizie, do najlepszego wyniku uzyskanego przez inny podmiot według tej samej miary. Takie ujęcie prowadzi również do wskaźnika integralnego, określonego w przedziale [0, 1]. Skala porządkowa może też dotyczyć wypowiedzi w różnorodnych ankietach (pięciostopniowa skala Likerta465 – zdecydowanie nie zgadzam się, raczej się nie zgadzam, nie mam zdania, raczej się zgadzam, zdecydowanie się zgadzam). Wynik dla każdej kategorii w ankiecie jest wówczas średnią arytme- Wynika to z podzielenia 8 przez 15 i pomnożenia przez 100 (wyrażenie ułamka w procentach). Jest to niezwykle ważny element badań sensorycznych oraz eksperckich. Reprezentatywność stanowi o wiarygodności pomiaru. Osiąga się ją na drodze doboru grupy respondentów (np. grupy ekspertów, których oceny nie odchylają się ponad ustalony zakres). Jak liczna musi być to grupa zależy od problemu oraz sposobu obróbki statystycznej wyników. Dyskusja tego problemu wykracza poza ramy niniejszej monografii. 465 Likert R., "A Technique for the Measurement of Attitudes" Archives of Psychology vol. 140, (1932), str. 55 http://www.voteview.com/pdf/Likert_1932.pdf 463 464 415 tyczną z odpowiedzi respondentów. To w zarządzaniu i badaniach socjologicznych ma bardzo istotne znaczenie. Oczywiście skala nie musi być pięciopunktowa, może być trójstopniowa lub dziesięciopunktowa. Wynik integralny musi zostać sprowadzony (znormalizowany) do przedziału [0, 1], a wówczas można go dalej przetwarzać. Dla zmiennej wyrażanej w skali porządkowej możemy obliczać dominantę, czyli przypadek najczęściej występujący. Istnieje również możliwość wyznaczenia mediany. Wynika to z dopuszczalności uszeregowania przypadków od najgorszego do największego. Zwykłej średniej arytmetycznej nie ma sensu obliczać, dlatego że nie da się interpretować danych ułamkowych (np. wykształcenie 2,83 czyli trochę takie, a trochę inne). Można jednak dla niektórych zagadnień wykorzystać średnie ważone, których nie da się wprawdzie interpretować, ale można na tej podstawie dokonywać porządkowania i analizy scoringowej. Przykład 6.1 Kryterium wykorzystujące skalę porządkową Zbadano grupę 368 menedżerów zadając pytanie: Jak ocenia pan/pani w skali pięciopunktowej istotność posiadania danego zasobu dla podjęcia decyzji o strukturze portfela produktów? Wyniki ilościowe zaprezentowane są w tabeli 26. Tabela 26 Tabela liczebności odpowiedzi 1 2 3 4 5 suma Wiedza Kategoria oceniana 38 115 145 57 13 368 Postawy pracownicze 40 158 119 32 19 368 Relacje sformalizowane 23 133 129 64 19 368 Relacje niesformalizowane 51 165 95 45 12 368 Technologie branżowe 67 75 123 80 23 368 Technologie informacyjne 58 152 99 44 15 368 Zasoby naturalne 97 167 79 17 8 368 Lokalizacja 13 64 81 112 98 368 Image firmy 25 55 84 78 126 368 Źródła finansowania 33 190 91 29 25 368 Rutyny 73 180 73 30 12 368 Mając wyniki ilościowe, można konstruować przekroje danych lub analizować średnie i odchylenia standardowe. Można również poszukiwać zgodności pomiędzy populacjami udzielającymi odpowiedzi. Przykładową prezentację danych dla analizowania średniej ważonej przedstawiono w tabeli 27. 416 Tabela 27 Tabela wartości dla średniej ważonej 466 Kategoria oceniana średnia 1 2 3 4 5 Wiedza 0,103 0,625 1,182 0,620 0,177 2,707 Postawy pracownicze 0,109 0,859 0,970 0,348 0,258 2,544 Relacje sformalizowane 0,063 0,723 1,052 0,696 0,258 2,791 Relacje niesformalizowane 0,139 0,897 0,775 0,489 0,163 2,462 Technologie branżowe 0,182 0,408 1,003 0,870 0,313 2,775 Technologie informacyjne 0,158 0,826 0,807 0,478 0,204 2,473 Zasoby naturalne 0,264 0,908 0,644 0,185 0,109 2,109 Lokalizacja 0,035 0,348 0,660 1,217 1,332 3,592 Image firmy 0,068 0,299 0,685 0,848 1,712 3,611 Żródła finansowania 0,090 1,033 0,742 0,315 0,340 2,519 Rutyny 0,198 0,978 0,595 0,326 0,163 2,261 Ponieważ wynik maksymalny dla każdej kategorii wynosi 5, stąd wyliczone wartości średnie można podzielić przez 5, otrzymując wynik scoringowy możliwy do wyrażenia w procentach (znormalizowany do przedziału [0, 1]). Można również analizować wynik stanowiący różnicę do 100% wyniku maksymalnego. 6.1.3 Kryterium oparte na skali interwałowej Skala przedziałowa ma zastosowanie przede wszystkim w pomiarach wielkości zależnych od czasu, gdzie koniecznym jest podzielenie całego przedziału czasowego analizy na skończoną liczbę podprzedziałów o równej długości. Wówczas w danym podprzedziale (np. w okresie miesiąca) mierzona wielkość jest reprezentowana przez jedną wartość pomimo, że czas jest zmienną ciągłą. Przykładem może być miesięczny wynik finansowy firmy analizowany w okresie rocznym. W każdym miesiącu wynik ten jest ustalany jako jedna wartość, zgodnie z ustawą o rachunkowości. W rezultacie możemy wykonać wykres słupkowy. Dodatkowo możemy porównywać wyniki w przedziałach czasowych, badać istotność zależności pomiędzy okresami, itp. W skali przedziałowej nie ma ustalonej wartości początkowej (nie jest znane zero skali). Np. temperatura w skali Celsjusza (istnieją wartości ujemne i dodatnie, ale nie ma początku). Wyniki w skali interwałowej możemy również znormalizować do przedziału [0, 1], ustalając wynik maksymalny jako 100% skali. Każdy wynik z określonego przedziału będzie stanowić wówczas ułamek i może zostać wyrażony w procentach wartości maksymalnej (pomiar względny). To pozwala na włączenie Wyniki są obliczane następująco: wartość deklarowaną mnoży się przez liczebność odpowiedzi i dzieli przez całkowitą liczebność próby. Dla przykładu wynik 3 dla kategorii wiedza zadeklarowało 145 osób. Oznacza to, że do średniej ważonej wniesie on wkład równy 3*145/368 = 1,182. Średnia ważona stanowi w tym przypadku sumę wkładów dla poszczególnych ocen. 466 417 wyniku względnego do kryteriów integralnych, wyrażanych wielowymiarowymi wskaźnikami z przedziału [0, 1]. Przykład 6.2 Analiza wskaźnika ROA w skali interwałowej Analizowano wskaźnik ROA firm transportowych w latach 2006-2011, uzyskując następujące rezultaty zaprezentowane w tabeli 28467: Tabela 28 Dane źródłowe do przykładu 6.2 Rok 2006 2007 2008 2009 2010 2011 Batim 0,84 0,76 0,83 0,80 0,78 0,82 Butter X 0,55 0,82 0,93 0,84 0,96 Delta trans 0,61 0,68 0,70 0,64 0,61 0,68 VOS LOGISTICS 0,88 0,94 0,88 0,78 0,54 0,55 Średnia ROA 0,77 0,73 0,81 0,79 0,69 0,75 Wynik scoringowy [%] 95,1 90,1 100,0 97,5 85,2 92,6 Średni wynik ROA dla poszczególnych lat (podprzedziały sześcioletniego okresu analizy) jest reprezentowany jako jedna liczba. Można to przedstawić, jak na poniższym wykresie. Zadłużenie względne Wskaźnik zadłużenia dla dużych firm 0,81 0,79 0,77 0,75 0,73 0,69 0,69 2006 2007 2008 2009 2010 2011 rok Rys. 6.1 Przykładowa prezentacja wyniku w skali przedziałowej 467 Pizoń S., Praca doktorska (w przygotowaniu). 418 Biorąc pod uwagę maksymalną wielkość 0,81 jako 100%, wszystkie pozostałe można sprowadzić do skali scoringowej metodą DTF opisaną w rozdziale 5.1.3. Zero rozmyte Skala interwałowa ma na celu umożliwienie budowania kryteriów rozmytych, albowiem nie wszystko jest czarne i białe, umożliwiając używanie ostrego kryterium. Jednym z podstawowych aspektów skali interwałowej jest ustalenie „zera rozmytego”. Można to definiować różnie. W analizach wypowiedzi w skali trój lub pięciopunktowej, gdzie wartości deklarowane mieszczą się po obu stronach zera (np. -2, -1, 0, 1, 2 rozumianych jako: bardzo negatywny, negatywny, neutralny, pozytywny, bardzo pozytywny). Powstaje wówczas kwestia, czy wynik średni 0,1 należy już do przedziału kategorii 1, czy też powinien być uznany za zerowy. Jeżeli analizowana prób pochodzi z rozkładu normalnego, wówczas założenie, że 33% wyników najbardziej skupionych wokół zera, może być uznanych za neutralne, nie wskazujące na kierunek zależności jest racjonalne. Wówczas pozostałe 66% wyników zostaje przyjęte za wskazanie istotne i możliwe do przypisania albo jako +1 (dodatnia zależność), albo jako -1 (zależność ujemna). Racjonalność tą można uzasadnić definicją odchylenia standardowego Sx, które mówi, że w przedziale <X> Sx mieści się 66% wyników pomiaru wielkości X. Jeżeli jest to -1, to istotna liczba wyników będzie w przedziale [(-1-Sx), (-1+Sx)]. Jeżeli jest to +1, to istotna liczba wyników będzie w przedziale [(1-Sx), (1+Sx)] A zatem skala ma w rzeczywistości długość pięciu odchyleń standardowych: dwa na opcję ujemną, dwa na opcję dodatnią, oraz jeden na przedział zerowy. Skala została podzielona jak na rys. 6.2 Rys. 6.2 Przykład definiowania “zera rozmytego”. 6.1.4 Kryterium oparte na skali ilorazowej Ten rodzaj kryteriów ma najczęściej charakter epistemiczny, czyli nie podlegający subiektywnym oszacowaniom. Wynikają one z danych pomiarowych i można nadawać im sens pragmatyczny (rozumienia w kontekście). Zmienne są w tym przypadku powiązane funkcyjnie (jedna wartość zmiennej niezależnej jest powiązana wyłącznie z jedną wartością zmiennej zależnej). Stąd wynika możliwość aproksymacji wielomianowej, funkcyjnej oraz kwestie interpolacji i 419 ekstrapolacji. Podobnie, jak w przypadku skali przedziałowej, możliwe jest ustalenie wartości maksymalnej i obliczanie wartości względnych, wyrażanych w skali [0, 1]. W skali ilorazowej istnieje zawsze zero. Jeżeli dana zmienna może być wyrażona w skali ilorazowej, wówczas mają uzasadnienie wszelkie analizy statystyczne hipotez, oparte na testach parametrycznych, takich jak, test t-Studenta, test F-Snedecora, współczynnik korelacji rPearsona. Można interpretować wszystkie średnie i rozkłady statystyczne dla zmiennych losowych. Najważniejszą zaletą zmiennej ilorazowej jest możliwość aproksymacji funkcyjnej, w szczególności linią prostą (metoda najmniejszych kwadratów)468. Pozwala to na proste prognozowanie ilościowe. 11 10 9,9 9,2 9 8 7,9 y = 2,0786x - 0,3179 2 R = 0,9884 7,3 7 y 6 5,6 5,1 5 4 3,7 3 1,5 2 2,5 3 3,5 4 4,5 5 5,5 x Rys. 6.3 Aproksymacja metodą najmniejszych kwadratów z przykładu 6.3 (tabela 29) 6.1.5 Kryterium integralne Ostatnią kwestią analiz wielokryterialnych jest budowanie wskaźników integralnych z analiz cząstkowych, wykonanych dla każdego aspektu kryterium. Mamczur J.A., Komputerowy program „Metoda najmniejszych kwadratów”, http://www.prz.rzeszow.pl/~janand/mnk.htm 468 420 Każde kryterium integralne jest możliwe do ustalenia pod warunkiem wyrażenia jego wszystkich zmiennych na tej samej skali. Mamy wówczas do czynienia najczęściej z dwoma przypadkami, opisanymi poniżej. Zmienne cząstkowe są wynikami scoringowymi, stanowiącymi ocenę procentową w relacji do najlepszego rezultatu, albo są wynikiem procentowym w stosunku do jakiejś innej relacji. Można wówczas posłużyć się średnią arytmetyczną wyników cząstkowych dla ustalenia wyniku integralnego. Taka metodologia jest stosowana w przypadku ustalania globalnego wskaźnika innowacyjności, globalnego wskaźnika konkurencyjności, wskaźnika doing business, itp. (rozdział 5.4). W drugim przypadku mamy do czynienia z kryterium złożonym, gdzie jedna zmienna stanowi np. wynik scoringowy, druga jest oceną siły związku, a kolejna wartością materiału zużytego na wykonanie detalu w stosunku do wzorca. Wszystkie, te zmienne dają się sprowadzić do zakresu [0, 1] (znormalizować). Wówczas należy użyć wyrażenia na długość wektora w przestrzeni wielowymiarowej (pierwiastek z sumy kwadratów wartości zmiennych cząstkowych z przedziału [0, 1]). Jest to uzasadnione zastosowaniem metod algebry liniowej w odniesieniu do pomiarów. Obie opisane metody prowadzą w rezultacie do syntetycznego wyniku, wyrażonego w formie liczby rzeczywistej z przedziału [0, 1], co może stanowić racjonalne kryterium wspomagające podejmowanie decyzji. Jeżeli nie uda się znormalizować którejkolwiek ze zmiennych ze względów interpretacyjnych albo praktycznych (brak wzorca albo wartości odniesienia), taką zmienną należy wykluczyć z konstrukcji kryterium integralnego. 6.2 Badania zależności zmiennych Omówione kwestie istnienia zależności między zmiennymi w rozdziale 5.2.3 wymagają krótkiego zaprezentowania w działaniu trzech, najbardziej istotnych z nich. Pierwszą będzie metoda najmniejszych kwadratów, drugą metoda chi-kwadrat, a trzecią test sumy rang Wilcoxona-Manna-Whitney’a. 6.2.1 Metoda najmniejszych kwadratów Zasada metody polega na tym, że mamy pewną liczbę k punktów pomiarowych (y1, y2, …, yk) określonych dla zmiennej niezależnej ( x1, x2. …, xk), takich, że można ułożyć punkty (xj, yj) kolejno w szereg rosnący (skala co najmniej przedziałowa). Zadanie polega na znalezieniu prostej o równaniu y = ax +b, dla której suma kwadratów odległości punktów pomiarowych od tej prostej jest jak najmniejsza. (ilustracja na rys. 6.3). Możemy to zapisać w formie równania 6.1 w postaci: 421 k [( y (6.1) i (axi b)]2 min{a, b} i 1 Z zależności 6.1 i twierdzeń dotyczących znajdowania minimum funkcji wielu zmiennych wynika układ równań, którego rozwiązanie prowadzi do następujących wyrażeń na szukane współczynniki a i b prostej: k (6.2) a k k k xi yi xi yi i 1 i 1 k 2 k k k i 1 i 1 i 1 yi xi2 xi xi yi b i 1 k xi2 xi i 1 i 1 k k i 1 k xi2 xi i 1 i 1 k k 2 Dodatkowo możliwy jest do wyliczenia współczynnik korelacji, wskazujący na siłę związku pomiędzy zmiennymi x i y, który można wówczas obliczyć z zależności: k r (6.3) k k k xi yi xi yi i 1 i 1 k x xi i 1 i 1 k k 2 i 1 k k y yi i 1 i 1 k 2 i 2 2 i Przykład 6.3 Wykorzystanie metody najmniejszych kwadratów Dla zmiennej niezależnej x={2; 2,5; 3; 3,5; 4; 4,5; 5} zmierzono następujące wartości zmiennej zależnej y={3,7; 5,1; 5,6; 7,3; 7,9; 9,2; 9,9}. Ustalić, czy pomiędzy zmiennymi x i y występuje istotna korelacja, a jeżeli tak to wyliczyć równanie prostej aproksymacji. Dla obliczeń można stworzyć następującą tabelę: Tabela 29 Tablica pomocnicza dla metody najmniejszych kwadratów Numer xi yi 1 2,0 3,7 4 13,69 7,40 2 2,5 5,1 6,25 26,01 12,75 3 3,0 5,6 9 31,36 16,80 4 3,5 7,3 12,25 53,29 25,55 5 4,0 7,9 16 62,41 31,60 6 4,5 9,2 20,25 84,64 41,40 7 ∑ (∑)2 5,0 9,9 24,5 48,7 600,25 x i2 yi2 25 92,75 x i yi 98,01 49,50 369,41 185,00 2371,69 Współczynnik korelacji dla tego przypadku wynosi: 0,9942 jest bliski ideału (1,0). Oznacza to, że funkcja liniowa jest rosnąca (korelacja dodatnia). Równanie prostej (zaokrąglone do trzech miejsc) ma postać y = 2,079x – 0,318 . Wynik ten można bardzo łatwo uzyskać przy użyciu arkusza kalkulacyjnego. 422 Ponieważ współczynnik korelacji jest statystyką, należy go traktować jako zmienną losową. Jeżeli wybrano próbkę n-elementową z populacji o rozkładzie gaussowskim (normalnym, dwuwymiarowym), dla której brak jest korelacji, to dla niej teoretyczny współczynnik korelacji ρ wynosi 0. Z teorii statystyki wynika, że zmienna t dana zależnością 6.4: t (6.4) r n2 1 r2 podlega rozkładowi t-Studenta o (n – 2) stopniach swobody (liczba punktów pomiarowych pomniejszona o 2 – w analizowanym przykładzie jest to 5). Wyliczona w naszym przypadku wartość empiryczna tej zmiennej temp = 20,67. Z rozkładu t-Studenta (tablice, funkcja Excela „ROZKŁAD.T.ODW”) wynika, że wartość krytyczna tkryt dla 5 stopni swobody na poziomie ufności wnioskowania 99% wynosi 4,032. Ponieważ, temp > tkryt należy odrzucić hipotezę o braku korelacji między zmiennymi, a przyjąć alternatywną, jej istnienie z bardzo wysokim prawdopodobieńtwem. Nie wnikam w dalsze szczegóły testowania istotności zależności oraz szczegółów związanych z oszacowaniem błędów zaprezentowanej aproksymacji liniowej oraz analizy wartości reszt. Polecam w tej kwestii zainteresowanym opracowanie StatSoft dostępne online469. 6.2.2 Test chi-kwadrat Kolejnym aspektem, wartym poświęcenia nieco uwagi jest poszukiwanie zależności pomiędzy zmiennym wyrażonymi w skali nominalnej za pomocą metody chi-kwadrat (χ2). Wzór umożliwiający obliczenie χ2 empirycznego m (6.5) ( x ( E ) ij x ( T ) ij ) 2 x ( T ) ij j 1 n 2 i 1 Gdzie x(E)ij stanowi element (i,j) macierzy danych empirycznych, a x(T)ij jest jego odpowiednikiem teoretycznym, obliczanym z zależności (iloczyn sumy itego wiersza i j-tej kolumny podzielony przez całkowitą liczebność N). (6.6) x ( T ) ij m n i 1 j 1 xi x j N Wymiar macierzy zależności jest (m x n). Tym samym liczba stopni swobody dla danych wynosi (m-1)*(n-1). Wątroba J., „Wprowadzenie do analizy korelacji i regresji”, http://www.statsoft.pl/Portals/0/Downloads/Wprowadzenie_do_analizy_korelacji_i_regresji.pdf 469 423 Przykład 6.4 Badanie związku metodą -kwadrat Analizowano grupę 368 menedżerów funkcjonujących w czterech kategoriach wielkości firm (mikro, mała, średnia, duża), którzy określili typ otoczenia społecznego w trzech kategoriach SP (stabilne i przewidywalne), NP (niestabilne ale przewidywalne) oraz NN (niestabilne i nieprzewidywalne). W ankiecie zadano zapytanie: czy typ otoczenia społecznego ma znaczenie na wielkość prowadzonej firmy? Dla prezentacji zmiennych wykorzystano skale nominalne, dla których średnia nie może być określona. Postawiono hipotezę H0: Nie istnieje zależność pomiędzy typem otoczenia, a wielkości prowadzonej firmy. Dla jej weryfikacji wykorzystano metodę χ2. Składa się na nią 4 kroki. 1. Budowanie empirycznej tablicy zależności mikro mała średnia duża suma SP 33 18 34 57 142 NP 14 39 52 34 139 NN 19 39 18 11 87 suma 66 96 104 102 368 Liczebności z ankiety naniesiono na macierz o wymiarze 3x4. Liczba stopni swobody wynosi wówczas (liczba wierszy – 1)*(liczba kolumn – 1)= 6. Warunkiem użycia statystyki chi-kwadrat jest odpowiednia ilość danych w każdej komórce macierzy (nie mniej niż 7). W przeciwnym przypadku należy połączyć kategorie (np. mikro+mała), żeby uzyskać właściwy poziom reprezentatywności próby. 2 Obliczanie liczebności teoretycznych wynikających ze wzoru na χ2. mikro mała średnia duża suma SP 25,47 37,04 40,13 39,36 142 NP 24,93 36,26 39,28 38,53 139 NN 15,60 22,70 24,59 24,11 87 suma 66 96 104 102 368 Mnożymy sumę w kolumnie przez sumę w wierszu i dzielimy przez całkowitą liczebność. Np. wartość 36,26 (element 2,2 macierzy) = 96*139/368. 3 Obliczamy różnice pomiędzy liczebnością teoretyczną, a empiryczną mikro mała średnia duża SP 7,53 -19,04 -6,13 17,64 NP -10,93 2,74 12,72 -4,53 NN 3,40 16,30 -6,59 -13,11 Odejmujemy wartości w tych samych komórkach macierzy liczebności empirycznych i teoretycznych, otrzymując tablicę różnic. 424 4 Obliczamy wartości cząstkowe χ2 dla każdej komórki i sumujemy. SP mikro 2,23 mała 9,79 średnia 0,94 duża 7,91 suma 20,86 NP 4,79 0,21 4,12 0,53 9,65 NN 0,74 11,71 1,76 7,13 21,35 suma 7,76 21,71 6,82 15,57 51,86 W tym celu podnosimy do kwadratu wartość danej różnicy i dzielimy przez odpowiadającą jej liczebność teoretyczną. W ten sposób wartość komórki (2,2) wynosi 0,21 = 2,74*2,74/36,26. Następnie sumujemy w wierszach, kolumnach i obliczamy sumę sum (51,86). Jest to wartość χ2 empiryczna, którą porównujemy z wartością krytyczną, wynikającą z rozkładu chi-kwadrat. Wartość χ2kryt dla 6 stopni swobody i poziomu ufności 99% wynosi 16,812. Oznacza to, że można z wysokim prawdopodobieństwem odrzucić hipotezę o braku związku wielkości firmy i niestabilności otoczenia. 6.2.3 Test Wilcoxona-Manna-Whitney’a Tam gdzie zastosowanie testu χ2 nie ma uzasadnienia, ze względu na zbyt rozbudowaną liczbę kategorii danej cechy, badanie zależności dwóch zmiennych można przeprowadzić za pomocą testu sumy rang Wilcoxona, zwanego również testem Manna-Whitney’a. Zakładamy, że obie mierzone próbki można ułożyć na skali porządkowej (tzn. uszeregować wyniki od najmniejszego do największego). Weźmy dwa zbiory danych zmiennej x (np. średniej arytmetycznej odpowiedzi na zadaną kwestię) mierzonych dla dwóch różnych grup pomiarów (np. kobiety i mężczyźni). Niech {x11, x12, x13, …, x1n} stanowi próbę mierzonej wartości przez n respondentów z grupy 1, a { x21, x22, x23, …, x2m} stanowi próbę mierzonej wartości przez m respondentów z grupy 2. Obie grupy są rozłączne (w sensie skali nominalnej), a pomiary zmiennej x są niezależne, przy czym liczebności w grupach spełniają zależność m n. Testujemy hipotezę H0 na zadanym poziomie ufności (lub poziomie istotności), że próby 1 i 2 nie pochodzą z tej samej populacji. Statystyką jest U Manna-Whitneya k (6.7) U R(min) j j 1 k (k 1) 2 gdzie ∑R(min) jest sumą rang mniejszą w grupie 1 oraz 2, a k liczbą danych w grupie o mniejszej sumie rang (albo k = m albo k = n). Wzór ten jest wykorzystywany w przypadku mniejszej liczby danych niż 20. Jeżeli liczba obserwacji przekracza 20, wówczas stosuje się funkcję testującą Z wraz z testem parametrycznym t-Studenta. 425 Przykład 6.5 Porównanie dwóch prób metodą W ilcoxona Sprawdzić czy na poziomie ufności 95% (poziomie istotności 0,05) czy pomiędzy średnimi x1 oraz x2 występuje istotna różnica, wiedząc że dokonano następujących pomiarów: X1 = {74; 87; 42; 73; 91; 81; 54; 66; 72; 68}; X2 = {60; 41; 41; 55; 90; 65; 54; 73; 75; 24}, Obliczone średnie: <x1> = 70,8 (wariancja 214,8) oraz <x2> = 57,8 (wariancja 372,2). Pobieżna obserwacja wskazuje, że zastosowanie testu parametrycznego nie nadaje się w tym przypadku, ze względu na zbyt duże różnice wariancji. Ale test Wilcoxona nie żąda przybliżonej równości wariancji i można go zastosować. Procedura składa się z dwóch elementów: rangowania oraz testowania hipotezy. 1. Rangowanie Łączymy oba ciągi pomiarów w jeden wspólny i porządkujemy go rosnąco (kolumna „pomiar” w tabeli 30), ustalając przy tym, który wynik należy do której średniej. Nadajemy rangi poszczególnym wynikom, które są na ogół zgodne z pozycją w kolejności. Jeżeli mamy dwa pomiary identyczne, każdy z nich otrzymuje rangę połówkową ( kolumna „ranga”). Jeżeli będą to trzy identyczne, ranga wyniesie pozycja pierwszego wyniku + 1. Ogólnie, ranga wynosi [k+(n-1)/2] dla wszystkich równych wyników, gdzie k jest pierwszą pozycją rangowaną, od której wystąpi n identycznych wyników. Tabela 30 Tabela rang dla testu Wilcoxona (przykład 6.5) kolejność pomiar grupa x ranga 1 24 2 1 2 41 2 2,5 3 41 2 2,5 4 42 1 4 5 54 1 5,5 6 54 2 5,5 7 55 2 7 8 60 2 8 9 65 2 9 10 66 1 10 11 68 1 11 12 72 1 12 13 73 1 13,5 14 73 2 13,5 15 74 1 15 16 75 2 16 17 81 1 17 18 87 1 18 19 90 2 19 20 91 1 suma rang 1 20 126 suma rang 2 84 426 Suma rang R(emp) dla serii 2 jest mniejsza niż dla pierwszej i wynosi 84. Wybieramy ją do dalszej procedury weryfikacji hipotez. 2. Testowanie Stawiamy hipotezę zerową. H0: oba pomiary różnią się nieistotnie wobec alternatywy przeciwnej. Funkcją testującą jest: (6.8) U() = 2En,m – Rn,m() Hipotezę o równoważności można odrzucić, jeżeli zachodzą nierówności: Rn,m() < R(emp) < U() Enm jest równe połowie sumy wszystkich rang. W naszym przypadku jest to połowa sumy ciągu (1,2,…,20), czyli 105. Rnm() jest odczytywane z tablic rozkładu Wilcoxona dla liczby (n,m) pomiarów i poziomu istotności . W naszym przykładzie należy odczytać R10,10(0,01) = 74. Stąd wartość U(0,01) =136. Ponieważ zachodzi { R10,10(0,01) < R(emp) < U(0,01)} (albowiem 74 < 84 < 136), to uzyskana suma rang mieści się w przedziale ufności. A zatem nie ma przesłanek do odrzucenia hipotezy o tym, że obie serie pomiarów pochodzą z jednej populacji. Stąd, średnie <x1> oraz <x2> z podanego przykładu różnią się w sposób nieistotny z prawdopodobieństwem 99% (na poziomie istotności 0,01). 6.3 Analiza PEST(LE) Aby strategia organizacji lub oszacowanie poziomu sprzyjającego uwarunkowania projektu inwestycyjnego były jak najlepiej dopasowane do zmienności otoczenia, należy rozważyć różnorodność kontekstową wpływu środowiska biznesowego na przedmiot analizy. Analiza PEST(LE)470 jest jednym z kluczowych elementów procesu planowania strategicznego oraz taktycznego. Można to traktować jak proces „skanowania” środowiska, dostarczający informacji o tym, co dzieje się wokół organizacji lub projektu obecnie i na podstawie posiadanych informacji przeszłych i bieżących przewidzieć, co może się przydarzyć w przyszłości. W PEST chodzi o identyfikację zachodzących zmian i zjawisk społeczno-ekonomicznych w skali makro, albowiem wpływ otoczenia biznesu na projekt lub organizację jest zwykle długofalowy. Kontekst biznesowy rozpatruje się w kilku obszarach, stanowiących zmienne (wielokryterialne) metody PEST: Political, Economic, Social, Technological (stąd nazwa), a PEST(LE) dodatkowo uwzględni aspekty: (Legal - prawny i Environmental - środowisko naturalne). Arkusz PEST dotyczy wymienionych wyżej obszarów analizy makrootoczenia. W każdym z nich należy zidentyfikować kilka głównych czynników charakteryzujących otoczenie biznesu (5-6 czynników w każdym obszarze, żeby nie przekroczyć progów rozróżniania wpływu wag istotności, tak jak to wynika z podejścia wielokryterialnego), które rozpatruje się w następującym trójscenariuszu: wzrost znaczenia danej cechy, jej stabilizacja i spadek znaczenia. Trendy w CIPD, „ PESTLE Analysis. An exploration of the PESTLE model, process, advantages and disadvantages”, 15.10. 2015 http://www.cipd.co.uk/hr-resources/factsheets/pestle-analysis.aspx 470 427 scenariuszu można mierzyć w skali 3- lub 5-stopniowej, co umożliwia sporządzenia mapy dla scenariuszy negatywnych, pozytywnych i najbardziej prawdopodobnych. W planowaniu strategicznym chodzi o jak najbardziej trafne przewidzenie przyszłości oraz zbudowanie mechanizmów antycypacji zmian w celu przygotowania się organizacji na rozmaite scenariusze wydarzeń. Stąd tak ważne jest znaczenie analizy PEST i doboru właściwych czynników, mających najbardziej prawdopodobny wpływ na kontekst biznesowy, w jakim działa dana organizacja,471. Dobrze wykonana analiza PEST(LE) redukuje niepewność decyzyjną w odniesieniu do relacji mikro-makro (wdrożenie projektu inwestycyjnego) i pozwala na ustalenie niektórych czynników ryzyka zewnętrznego. Z punktu widzenia techniki wykonania oraz interpretacji PEST stanowi wariant analizy wielokryterialnej, co dodatkowo podkreśla istotność modelu. 6.3.1 Tablica czynników PEST Analiza PEST jest bardzo dobrze poznanym narzędziem zarządzania. Opracowano dobre praktyki wykonania analizy oraz układy optymalnych czynników do budowania scenariuszy. Przykład 6.6 Analiza PEST(LE) dla systemu edukacji w powiecie wałbrzyskim 472. Ustalono na podstawie danych makroekonomicznych, że najbardziej istotnymi czynnikami dla analizy PESTLE systemu edukacji są: Otoczenie polityczne (Political factors) 1. Stabilność polityczna. (kadencyjność władzy), 2. Polityka ekonomiczna państwa, 3. Polityka społeczna (poziom krajowy), 4. Polityka Unii Europejskiej (polityki równoległe), 5. Polityka innowacyjności i informatyzacji, 6. Polityka kulturalna i oświatowa. Otoczenie ekonomiczne (Economic factors) 1. PKB i jego konsekwencje, 2. Poziom bezrobocia, 3. Średnia płaca krajowa i dochód do dyspozycji, 4. Udział nakładów na edukację w PKB, 5. Programy pomocowe pozabudżetowe ukierunkowane na edukację, 6. Struktura biznesowa w otoczeniu bliskim. 471 472 Wikipedia, „PEST”, http://pl.wikipedia.org/wiki/PEST dane pochodzą z pracy doktorskiej J. Sempryka, 428 Tabela 31 Analiza PEST – otoczenie polityczne Czynnik PEST Stabilność polityczna. (Kadencyjność władzy) Polityka ekonomiczna państwa Polityka społeczna Polityka Unii Europejskiej (polityki równoległe), Polityka innowacyjności i informatyzacji Polityka kulturalna i oświatowa. trend wpływ Prawdo-podobieństwo Wpływ ważony Stabilizacja (+) +5 0,30 1,50 Małe zmiany (0) +2 0,30 0,60 Duże zmiany (-) -3 0,40 -1,20 Wzrost wydatków (+) +5 0,20 1,00 Status quo budżetu (0) +1 0,10 0,10 Oszczędności (-) -5 0,70 -3,50 Zmiany pozytywne(+) +3 0,50 1,50 Neutralność (0) 0 0,30 0,00 Brak działania (-) -5 0,20 -1,00 Wzrost nakładów (+) +5 0,30 1,50 Stabilizacja (0) -1 0,30 -0,30 Cięcia programów (-) -3 0,40 -1,20 Wzrost (+) +5 0,70 3,50 Stagnacja (0) +2 0,20 0,40 Zaniechanie (-) -5 0,10 -0,50 Zielone światło (+) +5 0,50 2,50 Stagnacja (0) +1 0,30 +0,30 Zaniechania (-) -2 0,20 -0,40 Otoczenie socjokulturowe (Social factors) 1. Odniesienie do globalizacji i integracji europejskich. 2. Aspekty kulturowe społeczeństwa (więzi rodzinne, religia). 3. Zjawiska negatywne (wykluczenie, NEET etc.), 4. Poziom życia społeczeństwa, 5. Ogólne uczestnictwo w kulturze, 6. Wzorce i postawy społeczne. Otoczenie technologiczne (Technological factors) 1. Zasoby kadrowe procesów edukacji, 2. Zasoby techniczne procesów edukacji, 3. Zasoby technologiczne procesów nauczania, 4. Otoczenie biznesowe edukacji, 5. Nowe technologie w otoczeniu, 6. Rewolucja informacyjna. Otoczenie prawne (Legal factors) 1. Uregulowania prawne KWE, 2. Uregulowania prawne ustawowe, 3. Rozporządzenia i zarządzenia centralne, 4. Zarządzenia wojewódzkie, 429 5. Koncesje i pozwolenia, 6. Dokumenty planistyczne i strategiczne. Otoczenie środowiskowe (Environmental factors) 1. Znaczenie koncepcji TBL, 2. Zasady zrównoważonego rozwoju, 3. Uświadomienie ochrony środowiska, Dla powyższego układu zmiennych PEST(LE) wykonano następnie tablice istotności czynników. Konieczne prawdopodobieństwa zaistnienia sytuacji przyjęto arbitralnie (można ten czynnik próbować standaryzować metodą ekspercką, wybierając średnią ocen dla grupy eksperckiej, tak jak to się czyni w gremiach typu Rada Polityki Pieniężnej). Dla wszystkich kategorii przyjęto jednakowe wagi istotności (6 kategorii oznacza istotność każdej z nich równą 1/6; w ostatnim przypadku 3 kategorii, istotność wyniesie 1/3). W wyniku otrzymano scenariusz przedstawiony w tabeli 33.473: W tabeli 31 pogrubiono najbardziej istotne czynniki polityczne, wpływające dodatnio na rozwój systemu edukacji powiatowej, kursywą zaś te, najbardziej negatywnie oddziaływujące. Tabela 32 Analiza PEST – otoczenie ekonomiczne Czynnik PEST PKB i jego konsekwencje Poziom bezrobocia Średnia płaca krajowa i dochód do dyspozycji Udział nakładów na edukację w PKB Programy pomocowe po-zabudżetowe ukierunko-wane na edukację Struktura biznesowa w otoczeniu bliskim. trend wpływ Prawdo-podobieństwo Wpływ ważony Wzrost (+) +2 0,25 0,50 Stabilizacja (0) 0 0,50 0,00 Spadek (-) -5 0,25 -1,25 Wzrost (+) -3 0,60 -1,80 Stabilizacja (0) 0 0,30 0,00 Spadek (-) +3 0,10 +0,30 Wzrost (+) +5 0,50 +2,50 Stabilizacja (0) +1 0,25 +0,25 Spadek (-) -5 0,25 -1,25 Wzrost nakładów (+) +5 0,30 +1,50 Stabilizacja (0) 0 0,20 -0,00 Cięcia budżetowe (-) -5 0,50 -2,50 Wzrost (+) +2 0,60 +1,20 Stagnacja (0) 0 0,30 0,00 Zaniechanie (-) -2 0,10 -0,20 Mocna (+) +5 0,20 +1,00 Przeciętna (0) +2 0,60 +1,20 Słaba (-) -3 0,20 -0,60 Zostały zaprezentowane dwie tabele, jedna dotycząca sytuacji politycznej, a druga ekonomicznej. Pozostałe są dostępne w cytowanej pracy doktorskiej 473 430 Postępując w powyższy sposób, powstają tablice analityczne dla wszystkich zmiennych PEST(LE). Dla czynników ekonomicznych wyniki są w tabeli 32. 6.3.2 Scenariusze PEST W wyniku utworzenia tablic analitycznych dla poszczególnych zmiennych analizy PEST (tabela 31 i 32), w kolejnym kroku łączymy je wszystkie i porządkujemy rosnąco tak, żeby otrzymać scenariusze wariantowe. Tabela 33 Analiza PEST – scenariusz najbardziej prawdopodobny Czynnik PEST trend wpływ Prawd. Ważony Polityka ekonomiczna państwa Oszczędności (-) -5 0,7 -3,50 Rozporządzenia i zarządzenia centralne Osłabiające system (-) -5 0,6 -3,00 Udział nakładów na edukację w PKB Cięcia budżetowe (-) -5 0,5 -2,50 Poziom życia społeczeństwa Spadek poziomu (-) -5 0,5 -2,50 Zjawiska negatywne (wykluczenia etc.) Wzrost (-) -5 0,5 -2,50 Poziom bezrobocia Wzrost (+) -3 0,6 -1,80 Ogólne uczestnictwo w kulturze Spadek (-) -3 0,6 -1,80 Rewolucja informacyjna Neutralność (0) -3 0,6 -1,80 Zasoby kadrowe procesów edukacji Spadek poziomu (-) -3 0,5 -1,50 Zarządzenia wojewódzkie Status quo (0) 0 0,6 0,00 PKB i jego konsekwencje Stabilizacja (0) 0 0,5 0,00 Odniesienie do globalizacji i integracji europejskiej Aspekty kulturowe społeczeństwa Status quo (0) 0 0,5 0,00 Stabilizacja (0) 0 0,5 0,00 Dokumenty planistyczne i strategiczne Status quo (0) 0 0,5 0,00 Koncesje i pozwolenia Status quo (0) 1 0,5 0,50 Otoczenie biznesowe edukacji Wzrost znaczenia (+) 2 0,5 1,00 Programy pomocowe pozabudżetowe Wzrost (+) ukierunkowane na edukację Struktura biznesowa w otoczeniu bliskim Przeciętna (0) 2 0,6 1,20 2 0,6 1,20 Wzorce i postawy społeczne Neutralne (0) 2 0,6 1,20 Uregulowania prawne ustawowe Status quo (0) 3 0,5 1,50 Polityka społeczna Pozytywne (+) 3 0,5 1,50 Zasoby technologiczne w nauczaniu Wzrost (+) 3 0,5 1,50 Koncepcja TBL (3P) Wzmacniający (+) 3 0,5 1,50 Nowe technologie w otoczeniu Wzrost (+) 3 0,6 1,80 Uregulowania prawne KWE Status quo (0) 3 0,6 1,80 Polityka kulturalna i oświatowa. Zielone światło (+) 5 0,5 2,50 Średnia płaca krajowa i dochód na głowę Wzrost (+) 5 0,5 2,50 Uświadomienie ochrony środowiska Wzmacniające (+) 5 0,5 2,50 Polityka innowacyjności i informatyzacji Wzrost (+) 5 0,7 3,50 431 Analizę prowadzimy w trzech wariantach: najbardziej optymistyczny, najbardziej pesymistyczny, najbardziej prawdopodobny. Bardzo pomocnym narzędziem w tym kroku jest arkusz kalkulacyjny, np. Microsoft Excel albo Open Office Calc. Pozwala to na zautomatyzowanie procesu porządkowania danych według ustalonego kryterium. W tabeli 33 czynnikiem selekcjonującym jest prawdopodobieństwo zaistnienia wyniku (wyniki zaprezentowano dla wartości większej lub równej 0,5), a czynnikiem porządkującym jest wartość ważona wpływu. W ten sposób scenariusz najbardziej prawdopodobny sugeruje odpowiednie działania wyprzedzające dla systemu edukacji. Z punktu widzenia menedżera warto zauważyć jak przejrzysty i przy tym łatwy do wykonania jest przestawiony w przykładzie 6.6 model i ile cennych informacji można z niego pozyskać. Z doświadczenia wynika również fakt, że analiza PEST ani nie jest powszechnie znana ani stosowana wśród menedżerów przy podejmowaniu decyzji inwestycyjnych. Warto się nią zainteresować. Dodatkowo należy zauważyć, że stanowi ona punkt wyjścia dla formułowania czynników analizy SWOT oraz oceny wpływu otoczenia na silne i słabe strony podmiotu analizy. 6.4 Analiza GE-McKinsey Często w zarządzaniu portfelem oferowanych dóbr konieczne jest racjonalne ustalenie struktury produktów oferowanych przez daną organizację. Może to być również problem ustalenia, czy dany produkt należy rozwijać, czy zakończyć z jego ofertą, ponieważ nie rokuje już generowania wartości dodanej na odpowiednim poziomie. Do tego celu służą analizy portfelowe. Wśród nich metoda macierzy McKinsey (zwana również macierzą General Electric). Metoda wykorzystuje dwie zmienne: atrakcyjność sektora oraz pozycję rynkową danego dobra, oferowanego przez firmę. Zakłada przy tym w sposób pragmatyczny, że należy tworzyć wartość i oferować produkty w sektorach bardziej atrakcyjnych rynkowo, likwidować natomiast produkty przynależne do sektorów o mniejszej atrakcyjności. Stąd pierwszą zmienną jest pozycja rynkowa firmy (lub produktu oferowanego, poddanego analizie). Drugą zmienną metody GE-McKinsey jest pozycja konkurencyjna organizacji, którą należy powiększać inwestując w te produkty, gdzie ma ona mocną pozycję konkurencyjną, a wycofywać się z tych, gdzie pozycja konkurencyjna firmy jest słabsza. 432 Tym samym metoda McKinsey jest przykładem analizy scoringowej dla dwóch zmiennych: atrakcyjności rynkowej sektora (mierzonej w dłuższym okresie) oraz pozycji konkurencyjnej firmy. Jako wynik otrzymujemy układ tablicy dziewięciopolowej, jak na rys. 6.4, w dwuosiowym układzie współrzędnych o umownych skalach474. Umożliwia to podjęcie dezycji strategicznej. Rys. 6.4 Macierz wynikowa analizy GE-McKinsey. Sugestia decyzyjna odnośnie postępowania z produktem, fragmentem organizacji lub całą firmą jest bardzo czytelna. Jeżeli sektor jest atrakcyjny, a pozycja rynkowa produktu, firmy wysoka – rozwijać. W odwrotnym przypadku – odzyskać, ile się da i wycofać z rynku. Istnieje obszar trzech pól przekreślonych linią ukośną, oddzielającą kalkulacje czy iść w kierunku rozwoju, czy wycofania się z gry. 6.4.1 Atrakcyjność rynkowa sektora Pierwszym problemem praktycznym, który się pojawia przed analitykiem jest kwestia: jak zmierzyć „atrakcyjność rynkową sektora” oraz „pozycję rynkową organizacji (lub produktu)”. Innymi słowy, jak wybrać zbiór cech kryterium „atrakcyjności” i ustalić miarę, a następnie otrzymać jakieś wskaźniki syntetyczne. Dla oceny atrakcyjności rynkowej sektora punktem wyjścia może być Przyjęta skala umowna (porządkująca) w przedziale [0, 3] oznacza, że zarówno miara atrakcyjności i pozycji rynkowej musi być zawarta w tym przedziale. Można przyjąć dowolną skalę np. 0-100%, co nie zmienia ani ogólności metody ani jej interpretacji. Równie dobrze może to być macierz 25 polowa. Jednak oryginalna koncepcja McKinsey ograniczona do 9 pól ma wystarczającą użyteczność dla menedżera. Jest to istotna cecha metody wielokryterialnej, umożliwiającej uzyskanie wskaźnika syntetycznego znormalizowanego, niezależnie od przyjętej skali. 474 433 koncepcja opisana na str. 39 (zawierająca w sobie koncepcję konkurencyjności wg. M.Portera), a przedstawiona syntetycznie w tabeli 34. Oczywiście można, a nawet należy rozważyć dodatkowe cechy wpływające na atrakcyjność rynku, a wynikające z np. analizy PEST. Tabela 34 Analiza GE-McKinsey atrakcyjności sektora (tabela A). Kryterium oceny rynku Skala przedziałowa (opis podziału) 0 – 0,9 1 – 1,9 2-3 niszowy stabilny chłonny >60% 30 – 60% < 30% < 2% r/r 2-8% r/r >8% r/r Średnia rentowność w sektorze <10% 10-20% >20% Ryzyko substytucji produktów Duże Istnieje Brak Wojna cen Stabilne Swobodne Marża zysku Niska Średnia Wysoka Intensywność konkurencji Duża Średnia Niska Podatność na recesję Brak Średnia Duża Bariera wejścia Brak Średnia Wysoka Bariera wyjścia Duża Istnieje Brak Utrudniona Zmienna Pełna Sezonowość/cykliczność sprzedaży Duża Średnia Niska Uciążliwość dla środowiska Duże Małe Brak Wolumen rynku Udział liderów Prognoza wzrostu rynku Poziom cen Dostępność zasobów Ocena Suma punktów Średnia W tym celu konieczne jest stworzenie dwóch tablic: tablicę A zawierającą kryteria cząstkowe atrakcyjności sektora – tabela 34) oraz tablicę B, uwzględniającą cząstkowe kryteria charakterystyk pozycji rynkowej (tabela 35). Warto zauważyć, że przyjmowane kryteria cząstkowe do analiz nie są sztywno zdefiniowane. Analityk może uwzględnić własny zbiór parametrów charakterystycznych, co oznacza pewną dozę subiektywizmu w ich doborze. Istnieją opracowania na temat sposobów formułowania takich ocen, prowadzone przez wiodące organizacje statystyczne (Bank Światowy, Eurostat czy w Polsce GUS) oraz organizacje audytorskie. Nie ma jednak uniwersalnego pomiaru dla dowolnych produktów i rynków. Stąd użyteczność metody wymaga dodatkowych analiz jakościowych. Struktura danych w tabeli jest przykładowa i może zostać zmieniona w zależności od podmiotu i przedmiotu analizy. Każda zmienna wielokryterialna ma swoje uzasadnienie statystyczne lub literaturowe i zanim przydzielimy wartość 434 1,5 albo 2 w odpowiednim wierszu tabeli, konieczne jest zaznajomienie się z danymi źródłowymi na temat sytuacji rynkowej. Należy mieć również na względzie fakt, że metoda GE-McKinsey nadaje się do analiz zarówno rynku krajowego, jak i lokalnego. W przypadku lokalnym można w pozycji „Inne” wpisać upodobania miejscowej ludności. Można również dodać informację o sieciowej strukturze biznesu (o ile jest się ogniwem sieci lub łańcucha dostaw). Istotnym parametrem wynikowym jest średni wynik atrakcyjności sektora. Odpowiada on pozycji wiersza na diagramie GE-McKinsey (rys. 6.4). 6.4.2 Ustalanie pozycji rynkowej Drugą część analizy poświęcamy pozycji rynkowej naszej organizacji (lub produktu). W tym celu konieczne jest przygotowanie tabeli wielokryterialnej, zawierającej zmienne związane z pozycjonowaniem podmiotu analizowanego na rynku (Tabela 35). Dane pozycjonowania rynkowego należy definiować, mając na uwadze rodzaj analizy (czy dotyczy jednostki biznesowej, czy produktu etc.). Poszczególne kategorie analityczne (charakterystyki cząstkowe pozycji rynkowej) mogą być definiowane inaczej niż na przedstawionym w tabeli (Tabela 35) przykładzie. Wymaga to jednak pewnej wiedzy i argumentacji dlaczego ma być tak, a nie inaczej. Dodatkowo używając wag statystycznych menedżer może nadać większe znaczenie określonemu parametrowi niż innym. (Suma wszystkich wag musi być równa 1). W wyniku prawidłowego wypełnienia tabeli B otrzymujemy wskaźnik pozycji rynkowej, który jest liczbą dodatnią z przedziału [0, 3] i odnosi się do odpowiedniej kolumny macierzy GE-McKinsey z 5.1. Tabela 35 Analiza GE-McKinsey pozycjonowania rynkowego (tabela B) Kryteria pozycjonowania Opis kluczowej cechy Udział w rynku Procent lub wartość Cena zbytu Pareto optymalna Technologia produktu Nowoczesność Jakość produktu Na tle średniej rynkowej Rentowność W procentach Postrzeganie przez rynek Wzrost portfela zamówień Udział wiedzy w produkcie Trudność imitacji Unikatowość zasobów Trudność w skopiowaniu Inne (zdefiniować) Ocena w skali 0-3 Waga*) Ocena ważona**) ??? Suma 1 Waga jest arbitralnie przyjętym poziomem istotności danej zmiennej w całości. Oznacza to, że suma wag jest równa 1. **) Ocena ważona jest iloczynem oceny punktowej oraz wagi (istotności). *) 435 Ostatnim krokiem wykonania analizy jest interpretacja otrzymanych wyników w postaci liczbowej. Załóżmy, że z tabeli A otrzymano wynik atrakcyjności sektora 2,2, a z tabeli B otrzymano wskaźnik pozycji rynkowej naszego przedsięwzięcia na poziomie 1,8. Ustalamy na tej podstawie, któremu polu macierzy GEMcKinsey odpowiada punkt o takich współrzędnych (1,8; 2,2). Jest to pole w kategorii „rozwijaj”. I taką wskazówkę strategiczną należy z powyższej analizy odczytać. W podobny sposób można dokonać analizy dotyczącej relacji rynkowej pozycji organizacji do fazy cyklu życia produktu. Metoda nosi nazwę macierzy ADL475,476 i daje wskazania strategiczne do modelowania struktury produktów w czasie. 6.5 Analiza portfelowa BCG Macierz BCG (analiza Boston Consulting Group) opisuje portfolio produktów w układzie współrzędnych wzrostu rynku oraz pozycji rynkowej w formie wykresu quasi ilościowego. Została zsaproponowana przez B. Hendersona z Boston Consulting Group w 1970 roku aby pomóc korporacjom w analizach ich jednostek organizacyjnych w kwestiach optymalizacji ich linii produktów. Analiza BCG pomaga firmie optymalizować zaangażowanie zasobów i jest powszechnie stosowana jako narzędzie analityczne w marketingu marki, zarządzaniu produktami, zarządzaniu strategicznym oraz analizy portfelowej (optymalizacji). Ze względu na łatwość stosowania i przejrzystość interpretacji wyników jest ona bardzo chętnie omawiana w literaturze i często wykorzystywana w praktyce477,478. Jednak ze względu na znaczny udział subiektywizmu w ocenach wzrostu rynku, jak również doświadczenia organizacji stosujących ją, należy zachować dużą ostrożność w wypowiadaniu sądów opartych na kryteriach BCG479. Analiza BCG zakłada, że aby odnieść sukces rynkowy, firma powinna operować portfelem produktów o różnym tempie wzrostu i różnych udziałach w rynku. Skład takiego, zoptymalizowanego portfela zależy od równowagi między przepływami pieniężnymi wynikającymi z wartości generowanej przez poszczególne jego składniki. Produkty z fazy wysokiego wzrostu wymagają wzrostu nakładów pieniężnych. Produkty w fazie niskiego wzrostu (za maksimum 475 Romanowska M., Gierszewska G., Analiza strategiczna przedsiębiorstwa, Wyd. 4, PWE Warszawa, 2009. Krupski R [red.]., Zarządzanie strategiczne- koncepcje, metody, Wyd. VI, Wydawnictwo Akademii Ekonomicznej, Wrocław, 2007. 477 Henderson B., “The product portfolio”, BCG.perspectives, 1970, https://www.bcgperspectives.com/content/classics/strategy_the_product_portfolio/ 478 Krupski R., ibidem str. 166-169 479 Armstrong J.S., Green K.C., “Competitor-oriented Objectives: The Myth of Market Share”, International Journal of Business, 12(1), 2007, 116-133 476 436 na krzywej życia produktu) powinny generować nadwyżki środków pieniężnych. Zakłada się jednak, że obie te kategorie produktów są jednocześnie potrzebne w portfelu ofert. Dla przejrzystości jakościowej interpretacji wyników quasiilościowych macierzy BCG, Henderson podzielił produkty na cztery kategorie: 1. Gwiazdy czyli produkty przebojowe. Mają potencjalnie duży udział w szybko rosnącym rynku, zwłaszcza w jego wiodących sektorach. Na ogół przynoszą organizacji wysokie dochody z chwilą wejścia produktu w końcówkę fazy wzrostu. Wymagają jednak zainwestowania w reklamę, jakość, innowacyjność w początkach fazy wzrostu, w warunkach dynamicznej zmienności otoczenia. Po pewnym czasie gwiazdy mogą się same finansować. Produkty z kategorii gwiazd mają potencjał rozwojowy i są z definicji konkurencyjne. Po osiągnięciu fazy dojrzałości powinny przekształcić się kategorię produktów określanych jako „dojne krowy”. Rys. 6.5 Mapa portfela produktów BCG 2. Dojne krowy – ta kategoria produktów stanowi fundament życia danej jednostki organizacyjnej. Dojne krowy posiadają wysoki udział w ustabilizowanym 437 albo powoli rozwijającym się rynku. Przynoszą dla organizacji nadwyżkę dochodu i dodatnie przepływy finansowe. Pozwalają na finansowanie inwestycji w pozostałe produkty (zwłaszcza w rozwój gwiazd), albo w wyjście z rynku z produktami fazy schyłkowej (kategoria psy). 3. Znaki zapytania (problemowe dzieci). Jest to kategoria produktów deficytowych o niskim udziale w w szybko rozwijającym się rynku. Są to produkty, dla których perspektywa wzrostu udziału w rynku są trudna do określenia. Zwykle każdy stert up zalicza się do znaków zapytania. Przynoszą one organizacji niskie dochody i zbilansowany Cash flow. W dłuższej perspektywie czasowej mogą stać się zarówno gwiazdami, jak i psami. Stąd znaki zapytania muszą być starannie analizowane w celu ustalenia, czy są one warte inwestycji wymaganych dla wzrostu udziału w rynku. 4. Psy (kule u nogi). Stanowią kategorię produktów ani nie przynoszących dodatnich przepływów pieniężnych, nie mających perspektyw rozwoju. Są one rezultatem albo przegranej walki konkurencyjnej na rynku, albo zmiennością otoczenia, powodującą że rynek został w pełni nasycony danym rodzajem dóbr. Organizacja musi rozważyć możliwość bezpiecznego wycofania się z danego sektora rynku, co zwykle wiąże się z poniesieniem określonych kosztów wyjścia. Na tym jednak analiza BCG się nie kończy. Pozostaje bowiem do określenia co to oznacza „duży wzrost rynku” oraz co oznacza „relatywny udział w rynku”. Są to kryteria do ustalenia przez menedżera i wyrażone w celach do realizacji w odniesieniu do danego produktu/usługi. Pomyłka na tym etapie analizy może skutkować błędnymi decyzjami. Nie wiadomo, bowiem, czy udział produktu na poziomie 1% na danym rynku oznacza dla firmy sukces czy porażkę, bo zależy to od wielu innych czynników. W wyniku przeprowadzonej analizy powstaje „mapa portfela”, co można przedstawić, jak na rys. 6.5. Wielkość koła symbolizującego dany produkt (produkty oznaczone są literami alfabetu A…K), oznacza wielkość sprzedaży w jednostkach umownych. Można również oznaczać w ten sposób wielkość cash-flow dla danego produktu znacząc dodatkowo kolorem dodatnie i ujemne przepływy. 6.6 Analiza SWOT wersja quasi-ilościowa Przeprowadzenie analizy SWOT wyłącznie na zasadzie jakościowej jest bardzo pożyteczne dla ocen kierunków postępowania strategicznego. Ale mało kto zastanawia się, czy można jakoś te wyniki skwantyfikować i jeszcze lepiej oszacować kwestie podjęcia decyzji? Służy temu qasi-ilościowa analiza SWOT. Tak, jak to pierwotnie przedstawił P. Selznik480 Macież SWOT w swoim podstawowym kształcie składa się z czterech pól: 480 Selznick P. "Foundations…”, op. cit. 438 Mocne strony: S1. Kluczowe przewagi S2. Doświadczenie, wiedza, certyfikacje, akredytacje S3. Unikatowy charakter organizacji S4. Zasoby, przywództwo, zarządzanie S5. Przewagi geograficzne i geopolityczne S6. Kompetencje i umiejętności S7. Reputacja i jakość S8. Innowacyjność i technologie ICT Słabe strony W1. Zapóźnienia W2. Luka w doświadczeniu, wiedzy i IT W3. Aspekty finansowe W4. Brak wiarygodności i zaufania W5. Słaby zarząd i niska moralność biznesowa W6. Czynniki geograficzne i geopolityczne W7. Wydajność systemów IT i bezpieczeństwo W8. Złe mapy lub organizacja procesów biznesowych Okazje w otoczeniu O1. Alianse strategiczne i partnerstwo biznesowe O2. Rozwój produktów oraz działalnośći B+R O3. Import i eksport O4. Innowacyjność i rozwój technologiczny O5. Oczekiwania rynkowe (zmiany w otoczeniu) O6. Marketing i wytworzenie nowych potrzeb O7. Wejście na nowe rynki (dopasowanie czasowe) O8. Wirtualizacja biznesu Zagrożenia płynące z otoczenia\ Z1. Utrata afiliacji i partnerów Z2. Utrata kluczowych kontraktów, klientów, itp. Z3. Inflacja lub deflacja cenowa Z4. Konkurencja cenowa zbyt silna Z5. Wejścia na rynek nowych produktów innowacyjnych i substytutów Z6. Pogarszające się warunki ekonomiczne Z7. Złe uwarunkowania prawne i polityczne Z8. Zagrożenia środowiska naturalnego Powyższe aspekty są ogólnymi zagadnieniami, które w niniejszej książce można odnaleźć w poprzednich rozdziałach. Analiza SWOT może być stosowana w sposób dość uniwersalny do wielu zagadnień, a wówczas czynniki SWOT muszą zostać dostosowane do uwarunkowań analizowanego problemu. 439 6.6.1 Analiza czynników Analizę czynników SWOT prowadzimy dla każdego z osobna, wykorzystując wyniki analizy PEST oraz sposób prezentacji. Zasadą jest ocena subiektywna istotności wpływu danego czynnika oceniana w pięciopunktowej skali przedziałowej (1 najmniej istotny, 5 najbardziej istotny). Nie ma kryterium ustalającego co oznacza średnio istotny, a co bardzo istotny. Stąd poziom subiektywizmu można zmniejszyć jedynie w grupie kilku ekspertów, którzy niezależnie dokonają ocen. Przykładową analizę SWOT można przeprowadzić dla niszowej firmy będącej mikroprzedsiębiorstwem posiadającym jakieś kluczowe kompetencje. Tabela 36 Przykładowa analiza czynników SWOT kod S1 S2 S3 S4 S5 Czynnik analityczny Jesteśmy na rynku polskim niszową firmą, oferującą unikatowe dobra Posiadamy unikatowe kompetencje, zasoby i wiedzę, ważne dla klienta Nasza firma działa w niszy biznesowej i jest mało prawdopodobne, aby konkurent mógł wejść nagle na rynek Działamy na rynku polskim, ale w każdej chwili możemy rozszerzyć rynek Nasze wyroby są najwyższej jakości i cieszą się wysoką reputacją. Suma silne strony ocena prawdopodobieństwo zmiany in in status plus minus quo Ocena po zmianie in in plus minus Ocena prognozowana 5 0 0,1 0,9 5 4 4,5 5 0 0 1 5 5 5,0 4 0,1 0,3 0,6 5 3 2,4 3 0,2 0,1 0,7 4 2 2,1 5 0 0,2 0,8 5 4 4,0 24 18 18,0 22 W1 Jesteśmy mikroprzedsiębiortwem słabym finansowo 5 0,1 0 0,9 5 4 4,5 W2 Działamy w niszy rynkowej o bardzo płytkiej pojemności 5 0,1 0,2 0,7 5 3 3,5 W3 Nasze procesy biznesowe są słabe, a zasoby są możliwe do zastąpienia substytutami 4 0,2 0,2 0,6 5 3 2,4 W4 Nie dysponujemy sprawnym łańcuchem dostaw 3 0,2 0,1 0,7 4 2 2,1 W5 Nie inwestujemy w reklamę i marketing 4 0,2 0 0,8 4 2 4,5 23 14 17,0 Suma słabe strony 21 440 Rozszerzenie rynku firmy na zagranicę Zaistnienie w mediach i serO2 wisach Internetowych Pojawienie się mody na asorO3 tyment oferowany Poprawa ekonomiczna waO4 runków działania biznesu Wygenerowanie nowej O5 grupy użytkowników i potrzeb Suma okazje w otoczeniu Utrata kluczowych zasobów T1 (zespół ludzki i rozproszony łańcuch dostaw) Gwałtowne osłabienie waT2 luty i nieopłacalność importu podzespołów do produkcji Utrata stałych klientów ze względu na rosnące ceny i T3 nasycenie płytkiego rynku substytutami Destrukcyjna działalność władz (niekorzystne regulaT4 cje podatkowe i bariery biurokratyczne) Problemy techniczne lub ekoT5 nomiczne u dostawców i utrata części asortymentu Suma zagrożenia w otoczeniu O1 … … … … W analizie czynników SWOT możemy utworzyć tabelę, trójscenariuszową, w której dla każdego czynnika ustalamy arbitralnie prawdopodobieństwo zajścia zmiany: zmniejszenie istotności czynnika (in minus), zwiększenie istotności czynnika (in plus), oraz pozostania na tym samym poziomie (status quo). Suma prawdopodobieństw musi być równa 1. Następnie ustalamy spodziewane wartości oceny w skali pięciopunktowej w wariancie in plus oraz wariancie in minus i wpisujemy do tabeli. Wyszukujemy, dla którego wariantu zmiany wpisano najwyższą wartość prawdopodobieństwa i mnożymy tą wartość przez odpowiadającą danemu wariantowi zmiany ustaloną ocenę. Wynik wpisujemy w ostatniej kolumnie tabeli. (Dla S1 jest to status quo, czyli iloczyn 5*0,9, a dla S4 jest to in plus czyli 4*0,6). Wyniki sumujemy w kolumnach. W ten sposób powstał scenariusz najbardziej prawdopodobnej zmiany czynników na najbliższy okres analizy. Można zauważyć, że w przedstawionym przypadku mamy do czynienia z równowagą silnych stron i słabych (różnica 22 441 – 22 = 0, a jako najbardziej prawdopodobna prognoza jest to słaby wzrost 18 – 17 = 1). Ale również prognozujemy znaczący spadek poziomu istotności stron silnych (22 – 18 = 4), co nie jest zmianą korzystną. Jednocześnie spadek poziomu istotności słabych stron (22 – 17 = 5) będzie większy niż silnych, co stanowi zmianę korzystną. Na tej podstawie możemy wnioskować o tym, jaki kierunek działań i zmian należy przyjąć, aby osiągnąć poprawę. Tabela 37 Układ czynników SW OT w formie macierzy. S (Silne strony) 1. Czynniki wewnętrzne 2. 3. 4. 5. Jesteśmy na rynku polskim niszową firmą, oferującą unikatowe dobra Posiadamy unikatowe kompetencje, zasoby i wiedzę, ważne dla klienta Nasza firma działa w niszy biznesowej i jest mało prawdopodobne, aby konkurent mógł wejść nagle na rynek Działamy na rynku polskim, ale w każdej chwili możemy rozszerzyć rynek Nasze wyroby są najwyższej jakości i cieszą się wysoką reputacją. W (Słabe strony) 1. 2. 3. 4. 5. O (Okazje) T (Zagrożenia) 1. Czynniki zewnętrzne 1. 2. 3. 4. 5. Rozszerzenie rynku firmy na zagranicę Zaistnienie w mediach i serwisach Internetowych Pojawienie się mody na asortyment oferowany Poprawa ekonomiczna warunków działania biznesu Wygenerowanie nowej grupy użytkowników i potrzeb Jesteśmy mikroprzedsiębiortwem słabym finansowo Działamy w niszy rynkowej o bardzo płytkiej pojemności Nasze procesy biznesowe są słabe, a zasoby są możliwe do zastąpienia substytutami Nie dysponujemy sprawnym łańcuchem dostaw Nie inwestujemy w reklamę i marketing 2. 3. 4. 5. Utrata kluczowych zasobów (zespół ludzki i rozproszony łańcuch dostaw) Gwałtowne osłabienie waluty i nieopłacalność importu podzespołów do produkcji Utrata stałych klientów ze względu na rosnące ceny i nasycenie płytkiego rynku substytutami Destrukcyjna działalność władz (niekorzystne regulacje podatkowe i bariery biurokratyczne) Problemy techniczne lub ekonomiczne u dostawców i utrata części asortymentu Taką samą analizę można wykonać dla pary czynników okazje/zagrożenia, co dopełni obrazu istotności czynników wewnętrznych SWOT oraz pozwoli ponownie przeanalizować zmiany dla pary czynników strony silne/słabe. Przyjęta koncepcja analizy scenariuszowej stanowi pełniejszy obraz sytuacji wyrażony syntetycznymi wskaźnikami. Niestety, podobnie jak przypadku analizy PEST nie da się wyeliminować subiektywizmu oceny poziomu istotności danego czynnika oraz prawdopodobieństwa jego zmiany. Dlatego ten fragment analizy należy potraktować jako quasi-ilościowy. Ale lepsza jest taka synteza, niż żadna, zwłaszcza gdy podejmują się jej wykonania eksperci. Generalnym wskazaniem 442 jest, aby różnica pomiędzy sumą czynników mocne strony i słabe strony zmniejszała się, a różnica zmian dla silnych stron nie malała, a dla sła bych nie rosła. Ostatecznie prezentację wyników dla czynników SWOT prezentuje się w formie macierzy czteropolowej, tak jak to przedstawiono w tabeli 36 Większość analiz SWOT spotykanych w dokumentach prognostycznych kończy się na tym etapie, co jest ewidentnym niezrozumieniem metody oraz jej rzeczywistych wskazań. Z analizy czynników i scenariusza ich zmienności wynikają bardzo ważne informacje dla perspektywy sukcesu przedsięwzięcia biznesowego. Natomiast wykonanie dalszej części analizy SWOT polegającej na zbudowaniu macierzy interakcji i wyliczeniu prawdopodobieństwa sukcesu jest kluczowe dla ustalenia sposobu realizacji czy to projektu, czy też strategii. Stąd należy mieć świadomość, że analiza SWOT nie kończy się na wymienieniu czynników i ułożeniu ich w macierz. 6.6.2 Macierz interakcji SWOT Na analizie czynników nie kończą się możliwości wsparcia decyzyjnego analizy SWOT. Dochodzi jeszcze analiza interakcji czynników. Nie jest czymś zaskakującym, że można oczekiwać wpływu silnych lub słabych stron na wykorzystanie okazji albo na neutralizację w otoczeniu. Można również oczekiwać relacji odwrotnych (TOWS). Innymi słowy zakładamy, że siła wpływu czynnika jednego na drugi może być wyrażona w pięciostopniowej skali porządkowej: -2 istotny wpływ negatywny, -1 słaby wpływ negatywny, 0 brak wpływu 1 słaby wpływ pozytywny, 2 istotny wpływ pozytywny. Jest to oczywiście umowna skala, której wybór jest intuicyjny i łatwy do interpretacji. Tabela interakcji Wykorzystujemy kody i opis czynników SWOT, zdefiniowane w tabeli 36 w celu połączenia ich w logiczne relacje i opisujemy każdy element, nadając mu wartość wpływu tak, jak to przedstawiono w. Łącznikami relacji interakcji są następujące funktory: „umożliwia to wykorzystanie okazji” „ma to wpływ na zredukowanie zagrożenia” Zdefiniowano tylko dwa łączniki relacji, albowiem SWOT jest prezentowana w formie macierzy czteropolowej w układzie SW-OT. Tabela 38 Tabela interakcji dla czynników SW OT KOD S1-O1 Silne strony Okazje Interakcja Jesteśmy jedyną na Rozszerzenie rynku Jesteśmy jedyną na rynku polskim rynku polskim firmą, firmy na zagranicę firmą, oferującą unikatowy, oferującą unikatowy ocena 2 443 trudno dostępny towar. S1-O2 … trudno dostępny towar. Umożliwia to wykorzystanie okazji rozszerzenia rynku na zagranicę Jesteśmy jedyną na rynku polskim firmą, Zaistnienie w meoferującą unikatowy diach i serwisach trudno dostępny to- Internetowych war. … … Jesteśmy jedyną na rynku polskim firmą, oferującą unikatowy, trudno dostępny towar. Umożliwia to wykorzystanie okazji zaistnienia w mediach i serwisach Internetowych. … 1 … S5-O4 Nasze wyroby są najPoprawa ekonowyższej jakości i cieszą miczna warunków się wysoką reputacją. działania biznesu Nasze wyroby są najwyższej jakości i cieszą się wysoką reputacją. Umożliwia to wykorzystanie okazji poprawy ekonomicznej warunków działania biznesu 1 S5-O5 Wygenerowanie Nasze wyroby są najnowej grupy użytwyższej jakości i cieszą kowników i posię wysoką reputacją. trzeb Nasze wyroby są najwyższej jakości i cieszą się wysoką reputacją. Umożliwia to wykorzystanie okazji Wygenerowanie nowej grupy użytkowników i potrzeb 1 Interakcja ocena KOD Słabe strony Okazje Jesteśmy mikroprzedsiębiortwem Jesteśmy mikroprzedRozszerzenie rynku słabym finansowo. Ma to wpływ W1-O1 siębiortwem słabym fifirmy na zagranicę na wykorzystanie okazji rozszenansowo rzenie rynku firmy na zagranicę Jesteśmy mikroprzedsiębiortwem Jesteśmy mikroprzed- Zaistnienie w mesłabym finansowo Ma to wpływ W1-O2 siębiortwem słabym fi- diach i serwisach na wykorzystanie okazji zaistnienansowo Internetowych nia w mediach i serwisach internetowych … … -2 … … Poprawa ekonoZbyt mało inwestumiczna warunków jemy w marketing i PR działania biznesu Zbyt mało inwestujemy w marketing i PR. Ma to wpływ na wykorzystanie okazji poprawy ekonomicznych warunków działania biznesu 0 Wygenerowanie Zbyt mało inwestunowej grupy użytW5-O5 jemy w marketing i PR kowników i potrzeb Zbyt mało inwestujemy w marketing i PR. Ma to wpływ na wykorzystanie okazji wygenerowania nowej grupy użytkowników i potrzeb. -1 W5-O4 … -2 Wypełnienie powyższej tabeli dla interakcji mocnych stron z zagrożeniami i słabych stron z zagrożeniami tworzy się w analogiczny sposób. Należy zauważyć, że w naszym przypadku wszystkie grupy czynników SWOT mają po 5 ele- 444 mentów. Stąd mamy 100 interakcji (4 grupy po 25 interakcji każda). W przypadku różnych ilości czynników w każdej z grup, tych interakcji będzie więcej. Nie ma to wpływu na procedurę obliczeniową. Względy praktyczne wskazują, że nie należy wpisywać do grupy czynników większej liczby niż 10, bo wówczas obraz bardzo mocno się zaciemnia. Istnieje możliwość redukcji czynników SWOT do najbardziej istotnych w kolejnym kroku, eliminującym te, najmniej istotne z tabeli. Mocne strony – Okazje w otoczeniu (S – O) z łącznikiem relacji „Mają wpływ na wykorzystanie okazji”. Wynik ujemny nie ma zastosowania w tym przypadku, albowiem silne strony nie powinny wpływać negatywnie na przejmowanie okazji. Słabe strony – Okazje w otoczeniu (W – O) z łącznikiem relacji „Mają wpływ na wykorzystanie okazji”. Wynik dodatni oznacza, że dana słaba strona może mieć dodatni wpływ na wykorzystanie okazji, co może mieć miejsce w zależności od układu czynników SWOT. Ujemny zaś, jest naturalną relacją osłabiania szans na wykorzystanie okazji wskutek własnych słabości. Mocne strony – Zagrożenia w otoczeniu (S – T) z łącznikiem relacji „Mają wpływ na redukcję zagrożenia”. Wynik dodatni oznacza, że dana mocna strona może mieć wpływ na redukcję zagrożenia. Ujemny wynik jest ewenementem, ale rzadko zdarza się, że mocna strona wzmacnia wpływ zagrożenia. Nie można jednak wykluczyć takiego przypadku. Słabe strony – Zagrożenia w otoczeniu (W – T) z łącznikiem relacji „Mają wpływ na redukcję zagrożenia”. Dodatni wynik jest w tym przypadku ewenementem. Jest jednak możliwe, że słaba strona może wpłynąć na ograniczenie zagrożenia płynącego z zewnątrz. Należy spodziewać się przede wszystkim ujemnych wartości. Macierz interakcji Na podstawie wyników zaprezentowanych w tabeli 38 prezentujemy wartości poszczególnych interakcji w układzie macierzy SWOT, zaprezentowanym w tabeli 39: Układ interakcji jest zrównoważony, jeżeli suma sum w tabeli wynosi 0 (w naszym przykładzie jest to +25). Im wynik jest bardziej dodatni, tym bardziej korzystna jest sytuacja opisana przez SWOT, a strategia może być bardziej agresywna. Im wynik jest bardziej ujemny, tym sytuacja opisana przez SWOT jest gorsza, a strategia musi być bardziej defensywna. Przyjmując wartości graniczne dla tablicy interakcji jako: wartość maksymalna: Max{Suma(S - O)} + Max{Suma(S – T)} = 100 (Mocne strony w maksymalnym stopniu wpływają na wykorzystanie okazji oraz ograniczenie zagrożeń), przy równoczesnym założeniu, że {Suma(W – O)} + 445 {Suma(W – T)} = 0 (Słabe strony nie wpływają na zdefiniowane okazje i zagrożenia); wartość minimalna: Min{Sumy(S - O)} + Min{Sumy(S – T)} = 0 (Mocne strony nie mają wpływu na pozyskaniu okazji ani na zagrożenia) przy równoczesnym założeniu, że Min{Sumy(W – O)} + Min{Sumy(W – T)} = - 100 (Słabe strony w maksymalnym stopniu uniemożliwiają pozyskanie okazji i mają maksymalny wpływ na wzmocnienie oddziaływania zagrożeń); uzyskujemy teoretyczny przedział zmienności dla naszej, przykładowej macierzy interakcji SWOT [-100,100]. Graniczne wartości nie są praktycznie do osiągnięcia. Tabela 39 Tabela interakcji SW OT dla danych z tabeli 17 słabe strony silne strony SWOT Interakcje okazje w otoczeniu zagrożenia w otoczeniu ∑ ∑∑ 0 2 6 0 2 4 9 2 0 0 5 10 0 1 0 0 2 10 2 0 2 0 0 4 9 27 7 1 7 0 2 17 44 -2 -7 -2 0 0 0 0 -2 -9 0 1 3 1 0 2 1 0 4 7 -2 -1 -1 -6 -1 0 0 0 0 -1 -7 0 -1 -1 0 -3 -2 0 0 0 0 -2 -5 -1 -2 0 0 -1 -4 -1 0 0 0 0 -1 -5 ∑WO -5 -5 -2 -2 -3 -17 -5 0 2 1 0 -2 -19 ∑∑ 4 2 1 1 2 10 2 1 9 1 2 15 25 O1 O2 O3 O4 O5 S1 2 1 0 0 1 S2 2 2 0 0 S3 2 1 1 S4 2 2 S5 1 ∑SO ∑ T1 T2 T3 T4 T5 4 1 0 1 0 1 5 1 0 1 0 1 5 2 1 1 2 1 8 1 1 1 1 1 5 9 7 3 3 5 W1 -2 -2 -1 0 W2 0 0 2 W3 -1 -1 W4 -1 W5 Mamy tu do czynienia z przewagą wpływu stron silnych nad słabymi (44 > 19) oraz przewagą możliwości wystąpienia działania niepożądanych zagrożeń nad możliwym sukcesem wynikającym z przejęcia okazji (15 > 10). Ogólny wynik +25 jest nadwyżką interakcji silnych stron nad ograniczeniami wynikającymi ze słabości, co sugeruje zasadność podejmowania działań, ale nie nadto agresywnych. Jeżeli dokonamy sumowania wszystkich interakcji w tabeli 33 co do wartości bezwzględnej, otrzymamy wynik 86, co oznacza, że dobrze wybrano układ czynników SWOT. Przy tym liczba wszystkich interakcji pozytywnych wynosi w tej tabeli wynosi 51, albowiem nie wszystkie słabe strony wpływają w ujemny 446 sposób na redukcję zagrożeń, na co warto zwrócić uwagę przy interpretacji wyników. Interpretacja wyników interakcji SWOT Na podstawie danych z macierzy interakcji możemy zdecydować o sposobie postępowania w konkretnym przypadku analizy SWOT. Mamy do czynienia z czterema możliwościami strategii działania: agresywna (Maxi-Maxi) – przewaga silnych stron i możliwości przejęcia okazji w otoczeniu nad słabymi stronami i wpływem zagrożeń z otoczenia. Koncentracja wysiłków na przejęcie okazji nadarzających się w otoczeniu niezależnie od zagrożeń; konserwatywna (Maxi-Mini) – przewaga silnych stron i możliwości przejęcia okazji w otoczeniu, ale równocześnie przewaga wpływu zagrożeń nad sukcesem wynikającym z przejęcia okazji. Skierowanie potencjału przede wszystkim na redukcję zagrożeń istniejących w otoczeniu, nawet kosztem przejmowania okazji; konkurencyjna (Maxi-Mini) – przewaga słabych stron nad mocnymi ograniczająca przejęcie okazji, przy równocześnie małym wpływie zagrożeń z otoczenia (szanse i okazje przewyższają potencjalne zagrożenia). Działania polegające na zwalczaniu swoich słabości i przejmowaniu okazji, kosztem redukcji zagrożeń w otoczeniu. defensywna (Mini-Mini) – słabe strony przeważają nad silnymi, a zagrożenia w otoczeniu przeważają nad możliwymi okazjami. Działania na przetrwanie i strategie zmiany. W interpretacji wyników macierzy interakcji SWOT wynik końcowy stanowi prawdopodobieństwo sukcesu działania, wynikającego ze wskazań dominującego typu oddziaływań. Wymaga to zsumowania wszystkich dodatnich interakcji w tabeli 33 i podzielenia przez sumę wartości bezwzględnych wszystkich interakcji. W naszym przypadku jest to 51/86 = 59,3% przy założeniu strategii konserwatywnej (maxi-mini), czyli skierowania silnych stron na ograniczenie wpływu zagrożeń istniejących w otoczeniu i przy okazji przejęcia nadarzających się okazji. 6.7 Metoda macierzy logicznej LFA Metodę macierzy logicznej Logical Frame Approach (LFA) opracowano jako narzędzie zarządzania projektami w latach sześćdziesiątych. Dzisiaj wykorzystuje się ją powszechnie przy realizacji projektów takich organizacji, jak: ONZ, 447 UE, SIDA481,482, a dodatkowo przy tworzeniu dokumentacji projektowych, strategii oraz inwestycji współfinansowanych z funduszy UE483. Metoda LFA nie skupia się na działaniach, które chcemy wykonać oraz środkach koniecznych do ich realizacji. Stanowi procedurę dla znalezienia odpowiedzi na pytanie: co chcemy osiągnąć przez wdrożenie projektu. Jest zorientowana obiektowo, skupiając się na problemach, które należy rozwiązać działaniami operacyjnymi (projektami). Tym samym doskonale nadaje się do zastosowań w fazie projektowej przedsięwzięć inwestycyjnych i planistycznych. Stanowi fundament zarządzania projektami. Procedura LFA składa się z dziewięciu kroków: 1. analiza kontekstu projektu uzasadniająca konieczność jego realizacji, 2. analiza uczestników procesu realizacji projektu (interesariuszy), 3. analiza problemów do rozwiązania za pomocą planowanego projektu, 4. analiza celów związanych z planowanym projektem (metoda SMART), 5. działania prowadzące do wdrożenia projektu, 6. zasoby niezbędne i te do dyspozycji, 7. wskaźniki i kwantyfikatory rezultatu, 8. analiza ryzyka i zarządzania ryzykiem 9. uwarunkowania wykonalności. Planowanie projektu lub strategii musi odnosić się do opisania szczegółowego każdego z nich. Podczas całego cyklu trwania projektu (od fazy projektowania do fazy monitoringu) każdy z dziewięciu kroków może podlegać aktualizacji metodą kolejnych przybliżeń do celu. Dlatego mówimy, że metoda LFA nie jest procesem liniowym i może być stosowana nawet, gdy projekt jest już w fazie wdrożenia, pomimo że wówczas niektóre kroki mogą stracić na znaczeniu. Przyglądając się strukturze macierzy logicznej projektu, łatwo zauważyć, że stanowi ona ilustrację sprzężenia zwrotnego, umożliwiając szybki monitoring i kontrolę parametrów przez porównanie stanu bieżącego ze stanem początkowym. Zachowana jest bowiem jednolita struktura dla porównania oraz mierniki (kwantyfikatory). Davidson F., Geoff P., “Urban Projects. Manual”, Liverpool: Liverpool University Press and Fairstead Press, Liverpool, 1983. 482 Solomon B., Jobs J., “Land and Urban Development: The Economic Success of Small Manufacturers in East Delhi, India”. Lincoln Institute of Land Policy, Cambridge, 1991. 483 Gospodarek T., "Metoda LFA przy tworzeniu strategii powiatu", Samorząd terytorialny, nr 12, (2007), 20-31. http://gospodarek.eu/publikacje/LFA%20Wolters%20Kluwer.pdf 481 448 6.7.1 Projekt inwestycyjny w ramach EFRR Przykładem zastosowania metody macierzy logicznej jest układ działania finansowania wniosków o współfinansowanie projektu inwestycyjnego przez Regionalny Program Operacyjny484. Wniosek zawiera relacje pomiędzy danymi wynikającymi z harmonogramów, montaży finansowych, określenia luki finansowej oraz ustaleń dotyczących wskaźników produktu i rezultatu, które następnie można połączyć w formie macierzy logicznej, jak na rys. 6.6. W ten sposób oceniający ma możliwość szybkiej weryfikacji logiki interwencji oraz wielkość koniecznego dofinansowania, aby osiągnąć założone rezultaty. Regionalny Program Operacyjny dla Województwa Dolnośląskiego na lata 2007-2013 współfinansowany ze środków Unii Europejskiej EFRR, Załącznik nr 1 do uchwały nr 1954/III/08 Zarządu Województwa z dnia 24 wrzesnia 2008 roku. 484 449 Rys. 6.6 Matryca logiczna projektu współfinansowanego z funduszu RPO 6.7.2 Matryca logiczna dla strategii Drugim przykładem zastosowania metody macierzy logicznej LFA jest strategia gminy lub powiatu. W tym przypadku relacje pomiędzy elementami budowania strategii, a LFA są bardziej rozległe ze względu na liczność projektów inwestycyjnych, składających się na strategię i koniecznych do realizacji w jej ramach. Wynikiem działania procedury jest macierz logiczna projektu (strategii), którą można przedstawić jak na rys. 6.7. Rys. 6.7 Macierz logiczna dla strategii Taka forma macierzy stanowi dobry punkt wyjścia do bardziej szczegółowych analiz luki strategicznej i działań przedstawionych schematem jak na rys. 3.11. 6.8 Obliczenia wartości dla opcji W tym dodatku postanowiłem przedstawić rozwiązanie wspomagające projektowanie zabezpieczeń kontraktów za pomocą opcji, jak również umożliwiające obliczanie zmian wartości w czasie dla opcji call oraz put przy zadanych parametrach. Wykorzystany zostanie w tym celu model Blacka-Scholesa i wariant programu Excel wykorzystujący VBA. W rozdziale 4.7.4 przedstawione zostały opcje jako przedmiot zarządzania zabezpieczeniami kontraktów terminowych oraz cen aktywów nie dających się przewidywać w sposób deterministyczny w czasie. Nie omówiono jednak parametrów obliczeniowych prognozowania dla cen przyszłych opcji. Ponieważ zagadnienie stricte rachunkowe nie mieści się w cyklu głównym monografii, przeniosłem je do dodatków dla bardziej zainteresowanych czytelników. 6.8.1 Wartość podstawowa opcji Każda opcja posiada dwa składniki wartości: wewnętrzny (gdyby można było ją natychmiast wykonać) oraz czasowy, stanowiący miarę zmiany wartości opcji do chwili jej wygaśnięcia. Wartość czasowa maleje do ustalonego minimum (ceny wykonania) w miarę zbliżania się do terminu wygaśnięcia. Istnieją trzy typy opcji (dotyczy to zarówno call, jak i put) ze względu na cenę wykonania (rys. 4.23): In the money ITM (opcja w cenie) – jej wykonanie jest opłacalne, At the money ATM (neutralna) – jej cena jest prawie równa cenie kontraktowej instrumentu bazowego Out of money OTM (opcja poza ceną) – jej wykonanie nie jest opłacalne i wygasa. Na wartość opcji wpływa wiele czynników, z których za wspólne dla wszystkich rodzajów opcji można wymienić następujące: Cena kasowa K (bieżąca) instrumentu bazowego (kontraktowa). Im ta cena jest wyższa, tym wyższa jest wartość opcji kupna call i tym niższa jest wartość opcji sprzedaży put. Czas do wygaśnięcia opcji t – im ten czas jest dłuższy, tym większa jest wartość czasowa opcji niezależnie od jej rodzaju. Stopa procentowa wolna od ryzyka p – jest to stopa referencyjna kosztu pieniądza w czasie. Im wyższa jest stopa procentowa, tym niższa staje się bieżąca cena wykonania opcji. Stąd opcja kupna call będzie drożeć, a sprzedaży put maleć. Zmienność historyczna cen instrumentu bazowego – zakres zmian obserwowanych w przeszłości dla danego aktywa. Im wyższa zmienność, tym wyższa jest cena opcji ze względu na większe prawdopodobieństwo utalenia trendu cenowego dla instrumentu bazowego. Dla wyznaczenia wartości opcji najczęściej stosowany jest wzór Blacka-ScholesaMertona485, drzewo dwumianowe Cox-Ross-Rubinstein486 lub symulacja metodą Monte Carlo487. 485 Black F. i inni., op. cit. Jackson M., i inni, op. cit, rozdział 10 dodatek na płycie CD „Drzewa dwumianowe” 487 Ibid. rozdział 12 dodatek na płycie CD „Symulacja MC dla opcji BS” 486 452 Model Blacka-Scholesa Cena opcji call dana jest wyrażeniem: (6.9) Ccall S S 2 2 ln r t ln r t K K 2 2 rt SN Ke N t t Gdzie: Ccall jest ceną opcji kupna (call) przy aktualnej cenie instrumentu bazowego S z ceną rozliczenia opcji K i terminie rozliczenia t (liczonego w latach), przy stopie procentowej r. N{} jest dystrybuantą rozkładu normalnego o współczynniku zmienności . Analogicznie dla opcji sprzedaży put wzór Blacka-Scholesa ma postać (6.10) C put 2 2 S S ln r t ln r t K 2 K 2 rt Ke N SN t t W momencie, w którym można wykonać opcję, objęty nią instrument bazowy będzie miał określoną ceną rynkową. Jeśli cena z opcji jest korzystniejsza od rynkowej, opcja zostanie wykonana. Zysk z operacji będzie równy różnicy między ceną wykonania a ceną rynkową. Jeśli cena wykonania jest mniej korzystna, opcja nie zostanie wykonana (strata w wysokości premii opcyjnej). Reprezentacja w arkuszu kalkulacyjnym Wzór Blacka-Scholesa wydaje się być wyjątkowo skomplikowanym. Tak jednak nie jest i z pomocą standardowych funkcji programu Excel/Open Office można go bardzo łatwo wprowadzić i wykonać. Korzystne jest jednak zaprogramowanie w języku VBA funkcji BlackScholes, która będzie obliczać automatycznie wartości konieczne dla zastosowania wzoru 6.1 lub 6.2 (wartość dystrybuanty rozkładu normalnego) lub składowych w nawiasach obu wyrażeń. W tym celu należy: otworzyć arkusz nowy arkusz i nacisnąć Alt i F11 (otworzy się edytor Visual Basic). skopiować poniżej zamieszczony program i zamknąć edytor; program automatycznie powróci do otwartego arkusza, w zestawie funkcji Excel (w otwartym arkuszu, ale nie na stałe) pojawi się nowa funkcja BlackScholes zdefiniować arkusz w formacie przedstawionym na rys. 6.9 prawidłowe użycie funkcji BlackScholes przedstawione jest na rys. 6.8. 453 'Skopiować od tego miejsca Option Compare Text Option Explicit Option Base 0 Global Const Pi = 3.14159265358979 'Little N - funkcja pomocnicza, licząca wyrażenia exp Public Function Littlen(X As Double) As Double Littlen = 1 / Sqr(2 * Pi) * Exp(-X ^ 2 / 2) End Function 'Struktura funkcji BlackScholes Function BlackScholes(Cena_Aktywa_Bazowego As Double, Cena_Wykonania As Double, Stopa_Procentowa As Double, _ Czas_Wykonania As Double, Dywidenda As Double, Zmiennosc_Ceny As Double, Call_albo_Put As String, _ Opcja_Std_czy_Opcja_Futures As Integer, Jaki_Rezultat As Integer) As Double 'Argumenty funkcji i rodzaj zmiennej oraz definicja rezultatu 'Cena wyjściowa = 0, Delta = 1, Gamma = 2 Dim Zmiennosc_CenyrooCzas_Wykonania As Double Dim d1 As Double Dim d2 As Double Dim DiscF As Double Dim DivF As Double Dim Optprice As Double Dim topline1 As Double Dim topline2 As Double Dim topline As Double Dim Price As Double Dim Delta As Double Dim Gamma As Double DiscF = Exp(-Stopa_Procentowa * Czas_Wykonania) DivF = Exp(-Dywidenda * Czas_Wykonania) Zmiennosc_CenyrooCzas_Wykonania = (Czas_Wykonania ^ 0.5) * Zmiennosc_Ceny 'Opcja_Std_czy_Opcja_Futures function distinguishes between regular options (0) and options on futures (1) If Opcja_Std_czy_Opcja_Futures = 0 Then topline1 = Log(Cena_Aktywa_Bazowego / Cena_Wykonania) topline2 = ((Stopa_Procentowa - Dywidenda) + ((Zmiennosc_Ceny ^ 2) / 2)) * Czas_Wykonania topline = topline1 + topline2 d1 = topline / Zmiennosc_CenyrooCzas_Wykonania d2 = d1 - Zmiennosc_CenyrooCzas_Wykonania If Call_albo_Put = "C" Then Price = (Cena_Aktywa_Bazowego * DivF * Application.NormSDist(d1)) - _ (Cena_Wykonania * DiscF * Application.NormSDist(d2)) Delta = DivF * Application.NormSDist(d1) Gamma = (Littlen(d1) * DivF) / (Cena_Aktywa_Bazowego * Zmiennosc_CenyrooCzas_Wykonania) Else Price = Cena_Wykonania * DiscF * WorksheetFunction.NormSDist(-d2) - _ Cena_Aktywa_Bazowego * DivF * WorksheetFunction.NormSDist(-d1) Delta = DivF * (Application.NormSDist(d1) - 1) 454 Gamma = (Littlen(d1) * DivF) / (Cena_Aktywa_Bazowego * Zmiennosc_CenyrooCzas_Wykonania) End If Else topline1 = Log(Cena_Aktywa_Bazowego / Cena_Wykonania) topline2 = ((Zmiennosc_Ceny ^ 2) / 2) * Czas_Wykonania topline = topline1 + topline2 d1 = topline / Zmiennosc_CenyrooCzas_Wykonania d2 = d1 - Zmiennosc_CenyrooCzas_Wykonania If Call_albo_Put = "C" Then Price = DiscF * ((Cena_Aktywa_Bazowego * Application.NormSDist(d1)) - _ (Cena_Wykonania * Application.NormSDist(d2))) Delta = DiscF * Application.NormSDist(d1) Gamma = (Littlen(d1) * DiscF) / (Cena_Aktywa_Bazowego * Zmiennosc_CenyrooCzas_Wykonania) Else Price = DiscF * ((Cena_Wykonania * Application.NormSDist(-d2)) - _ (Cena_Aktywa_Bazowego * Application.NormSDist(-d1))) Delta = DiscF * (Application.NormSDist(d1) - 1) Gamma = (Littlen(d1) * DiscF) / (Cena_Aktywa_Bazowego * Zmiennosc_CenyrooCzas_Wykonania) End If End If Select Case Jaki_Rezultat Case 0 ' Price BlackScholes = Price Case 1 'Delta BlackScholes = Delta Case 2 ' Gamma BlackScholes = Gamma End Select End Function 'Koniec wklejania Wybierając funkcję BlackScholes z polecenia „wstaw funkcję”, należy wprowadzić jej argumenty w układzie przedstawionym na rys. 6.8. Są to: Cena_Aktywa_Bazowego: należy wstawić cenę z kontraktu (lub cenę aktywa); Cena_Wykonania: wprowadzić cenę wykonania opcji; Stopa_procentowa: wprowadzić stopę procentową wolną od ryzyka w %; Czas_Wykonania: wprowadzić w latach czas do wygaśnięcia zobowiązania. W przypadku kwartału jest to 0,25. Pół roku to 0,5, itd. Dane te można wyliczyć na podstawie liczby dni do wygaśnięcia kontraktu i podzielenia przez 365. Dywidenda: Zwykle kalkuluje się jakiś dodatkowy bonus na poziomie 1 – 2%, ale nie jest to wymagane i można wpisać 0 lub zostawić komórkę pustą. Zmienność_Ceny (volatility): Należy w wprowadzić zmienność ceny aktywa, na które wystawiono opcję (może to być liczba 20 – 25%). Call_albo_Put – jest to zmienna sterująca. Jeżeli wpiszemy „C” funkcja BlackScholes zwróci wartość opcji call, jeżeli wpiszemy „P” otrzymamy wartość dla opcji „Put”. 455 Opcja_Std_czy_Opcja_Futures – jest zmienną sterującą. Wpisując 0 otrzymamy wyniki dla typowej Opcji na kontrakt, Akcje, WIG lub podobne aktywo bazowe; jeżeli wpiszemy 1, wówczas otrzymamy rezultat dla opcji na futures. Jaki_Rezultat – wpisujemy 0 jeżeli funkcja ma zwrócić wartość opcji; wpisujemy 1, jeżeli ma to być współczynnik „delta”; wpiujemy 2, jeżeli ma to być współczynnik „gamma”. Rys. 6.8 Argumenty funkcji BlackScholes Teraz można w zaprojektownym arkuszu lub całym skoroszycie związanym z zależnością premii opcyjnej, ceny, zysku z opcji, łączenia opcji (suma wartości), wykresów, etc. używać funkcji BlackScholes wielokrotnie. Dane wprowadzane ręcznie Rys. 6.9 Obliczenia kontrolne dla opcji Niniejszy arkusz można zrealizować wpisując do komórek Excela co następuje, 456 do komórki: E11 wpisać =BlackScholes($E$4;$E$5;$E$6;$E$7;$E$8;$E$9;"C";0;0) E12 wpisać =BlackScholes($E$4;$E$5;$E$6;$E$7;$E$8;$E$9;"P";0;0) E14 wpisać =BlackScholes($E$4;$E$5;$E$6;$E$7;$E$8;$E$9;"C";1;0) E15 wpisać =BlackScholes($E$4;$E$5;$E$6;$E$7;$E$8;$E$9;"P";1;0) F11 wpisać =BlackScholes($E$4;$E$5;$E$6;$E$7;$E$8;$E$9;"C";0;1) F12 wpisać =BlackScholes($E$4;$E$5;$E$6;$E$7;$E$8;$E$9;"P";0;1) F14 wpisać =BlackScholes($E$4;$E$5;$E$6;$E$7;$E$8;$E$9;"C";1;1) F15 wpisać =BlackScholes($E$4;$E$5;$E$6;$E$7;$E$8;$E$9;"P";1;1) G11 wpisać =BlackScholes($E$4;$E$5;$E$6;$E$7;$E$8;$E$9;"C";0;2) G12 wpisać =BlackScholes($E$4;$E$5;$E$6;$E$7;$E$8;$E$9;"P";0;2) G14 wpisać =BlackScholes($E$4;$E$5;$E$6;$E$7;$E$8;$E$9;"C";1;2) G15 wpisać =BlackScholes($E$4;$E$5;$E$6;$E$7;$E$8;$E$9;"P";1;2) Wykorzystanie powyższego schematu pozwala na konstrukcję różnych strategii zabezpieczeń opcyjnych i wykonywanie scenariuszy zarówno cenowych, jak również czasowych. Polecam w tym celu gotowy program znajdujący się pod internetowym adresem na dzień wydania niniejszej monografii). https://www.optiontradingtips.com/pricing/free-spreadsheet.html 6.8.2 Symulacja wartości opcji metodą Monte Carlo Wykorzystanie metody Monte Carlo w połączeniu z zależnością BlackaScholesa pozwala na prognozowanie uzyskiwanych wyników finansowych z zawartych strategii zabezpieczających w czasie. Metodę Monte Carlo opisano w rozdziale 5.3.3. Model symulacji oparty został na obliczaniu wartości kontraktu terminowego po określonym czasie - wzór (4.14). Jak widać, obie metody pozostają w dobrej zgodności. 457 Rys. 6.10 Symulacja wartości opcji call metodą Monte Carlo 458 Literatura przedmiotu 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. A Guide to the Project Management Body of Knowledge, Fifth Edition, PMI, USA, 2012. Aaker D.A., “Strategic Market Management”, 10th Ed; Wiley, New York, 2013 Abell D. F., “Defining the Business: The Starting Point of Strategic Planning.”, Englewood Cliffs, NJ, Prentice Hall, 1980. Adamczyk C., Wprost, Wydarzenia, „Ranking "Wprost": 10. najcenniejszych polskich marek”, 16.06.2015, https://www.wprost.pl/510524/Ranking-Wprost-10-najcenniejszych-polskich-marek Adams J.S., Freeman S., “Equity Theory Revisited: Comments and Annotated Bibligraphy” [w] L. Berkowitza & E. Walster, Eds., “Equity theory : toward a general theory of social interaction”, Academic Press, New York, 1976. Adams J.S., Freeman S., Equity Theory Revisited: Comments and Annotated Bibligraphy, [w] L. Berkowitz, E. Walster (red.), Equity theory: toward a general theory of social interaction, Academic Press, New York 1976. Agile https://pl.wikipedia.org/wiki/Programowanie_zwinne AIRMIC, ALARM, IRM, “A Risk Management Standard”, 2002 http://www.theirm.org/publications/documents/Risk_Menedźment_Standard_030820.pdf Alderfer C.P., “Existence, Relatedness, and Growth; Human Needs in Organizational Settings”. Free Press, New York 1972. Alderfer C.P:, “Existence, Relatedness, and Growth; Human Needs in Organizational Settings”. Free Press, New York 1972. Amstrong M., „Zarządzanie zasobami ludzkimi”, Oficyna Ekonomiczna Dom Wydawniczy ABC, Kraków, 2000 Anderson D.J., “Kanban: Successful Evolutionary Change for Your Technology Business”, Blue Hole Press, Sequim, 2010 Anderson D.R., Sweeney D.J., Williams T.A., Martin K., “An Introduction to Management Science. Quantitative Approaches to Decision Making”, 13th Ed., West Publishing Company, St. Paul 2013. Ando A., Modigliani F., “Tests of the Life Cycle Hypothesis of Saving: Comments and Suggestions”, Oxford Institute of Statistics Bulletin, maj 1957, 99-124. Andonov S., “Levels of Product Differentiation in the Global Mobile Phones Market”, http://www.economicswebinstitute.org/essays/levelsdifferentiation.pdf Andrzejczak M., [red]., „Analiza systemowa RCM”, http://www.utrzymanieruchu.pl/menugorne/artykul/article/analiza-systemowa-rcm/ Atkinson R., Ezel S., “Principles for National Innovation Success”, [w] The Global Innovation Index 2015. Effective Innovation Policies for Development, Dutta S.,Lanvin B., and Wunsch-Vincent., Eds, https://www.globalinnovationindex.org/userfiles/file/reportpdf/giifull-report-2015-v6.pdf ARD “Falciani und der Bankenskandal”, film http://www.ardmediathek.de/tv/DoX-DerDokumentarfilm-im-BR/Falciani-und-der-Bankenskandal/BayerischesFernsehen/Video?bcastId=24831852&documentId=35696800 Armstrong J.S., Green K.C., “Competitor-oriented Objectives: The Myth of Market Share”, International Journal of Business, 12(1), 2007, 116-133 Arrow K.J, Debreu G., “Existence of an Equilibrium for a Competitive Economy”, Econometrica 22, Avery G.C., „Przywództwo w organizacji. Paradygmaty i studia przypadków”, PWE, Warszawa, 2009. Balassa, B. (1964), "The Purchasing Power Parity Doctrine: A Reappraisal", Journal of Political Economy 72 (6): 584–596. Barney J. B., Clark D. N., “Resource Based Theory. Creating and Sustaining Competitive Advantage”, Oxford University Press, Oxford, 2007. 459 24. Barney, J.B., “Firm resources and sustained competitive advantage.” Journal of Management, 19, (1991), 99-120. 25. Barney, J.B., “Firm resources and sustained competitive advantage.” Journal of Management, 19, (1991), s. 99-120 26. Bartkowiak G., Psychologia zarządzania, Wydawnictwo AE w Poznaniu, Poznań 1997. 27. Bartkowiak G., Psychologia zarządzania, Wydawnictwo AE w Poznaniu, Poznań, 1997. 28. Bartłomowicz T., „Prognozowanie sprzedaży z wykorzystaniem modelu dyfuzji oraz programu R”, Ekonometria, vol 4, No. 38, (2012), 210-220. 29. Bass F.M., "A New Product Growth Model for Consumer Durables", Management Science, 15, (1969), 215-227. 30. Bass’s Basement Research Institute, http://bassbasement.org/BassModel/Calculator.aspx 31. Bastiat F., “Dzieła zebrane”, Prohibita, Warszawa, 2009. 32. Bellman R.E., „Adaptative Control Processes: a guide tour”, Princeton, Princeton University Press, 1961.; („Adaptacyjne procesy sterowania. Przewodnik problemowy”, Warszawa: PWN, 1965). 33. Bellman R.E., DreyfusS.E., „Programowanie dynamiczne. Zastosowanie”, PWE Warszawa, 1967 34. Bentham J., “Introduction to the Principles of Moral Legislation”, 1781 Batoche Books, Kitchener, http://socserv2.socsci.mcmaster.ca/econ/ugcm/3ll3/bentham/morals.pdf 35. Bertalanffy L. von, “General System Theory. Foundations, Development, Applications”. New York: Braziller, 1968.; („Ogólna teoria systemów. Podstawy, rozwój, zastosowania”. Warszawa: PWN 1984). 36. Black F., Scholes M., “The Pricing of Options and Corporate Liabilities”, „Journal of Political Economy”, vol . 81( 3), (1973), 637–654. 37. Boguszewski P., „Globalny raport konkurencyjności 2015-16 Światowego Forum Gospodarczego”, NBP, 30.09.2015 https://www.nbp.pl/aktualnosci/wiadomosci_2015/WEF2015.pdf (dostęp 22.01.2016) 38. Borkowska S., „Strategie wynagrodzeń”, Dom Wydawniczy ABC, Kraków, 2001. 39. Bossa.pl, „Leksykon strategii opcyjnych”, http://bossa.pl/edukacja/opcje/strategie/ 40. Boulding K.E., „General Systems Theory. The Skeleton of Science”, Management Science, 2(3), (1956), 197-208. 41. Bürgel, Payment Morality Index, https://www.buergel.de/de/glossar/payment-morality-index-pmi 42. Burns, T., Stalker, G. M., “The Management of Innovation”, London: Tavistock, 1961, http://uk.sagepub.com/sites/default/files/upm-binaries/27412_8.pdf 43. Butters K., Get response blog, “10 Social Media Marketing Lies and Myths Debunked”, https://blog.getresponse.com/10-social-media-marketing-lies-myths-debunked.html 44. Camerer, C.F., Löwenstein, G., “Behavioral Economics: Past, Present, Future.”, [w] Camerer, Löwenstein and Rabin, “Advances in Behavioral Economics”, New York: Princeton University Press, (2004), pp. 1-51. 45. Cameron E., Green M., “Making Sense of Change Management. A complete guide to the models, tools & techniques of organizational change”, 2 nd Ed. Kogan Page, London and Philadlphia, 2009. http://www.bms.lk/download/GDM_Tutorials/e-books/Making_Sense_of_Change_Management.pdf 46. Cassel G., “Abnormal Deviations in International Exchanges”, The Economic Journal, 28(112), (1918), 413. 47. Chaffee E.E., “Three Models of Strategy”, Academy of Management Rev., 10, No. 1, (1985), 89-98. 48. Chandler A. D. Jr., “The Visible Hand. The Managerial Revolution in American business”, Belknap Press of Harvard University Press, Cambridge, 1977. 49. Chandler, A. D. Jr., ” Chandler, A.D. Jr., “Strategy and Structure: Chapters in the History of the American Industrial Enterprise”, MIT Press, Cambridge, 1962. 460 50. Chandler, A. D., Jr., “The Visible Hand: The Managerial Revolution in American Business”, Harvard University Press, Cambridge MA, London, 1977. 51. Change Management Framework, Charles Sturt University, http://www.csu.edu.au/special/wpp/resources/change-management-framework 52. Change Manangement Plan, Workbook, and Template, Queensland Gov. CIO, http://www.nrm.wa.gov.au/media/10528/change_management_plan_workbook_and_template.pdf 53. Cialdini R., "Wywieranie wpływu na ludzi. Teoria i praktyka", Gdańskie Wydawnictwo Psychologiczne, Gdańsk, 2000 54. CIPD, „ PESTLE Analysis. An exploration of the PESTLE model, process, advantages and disadvantages”, 15.10. 2015 http://www.cipd.co.uk/hr-resources/factsheets/pestle-analysis.aspx 55. Cooper L.G., Nakanishi M., “Market-Share Analysis. Evaluating Competitive Marketing Effectiveness”, Kluwer Academic Publishers, Dordrecht 1988. 56. Cracked, “23 Outrageous Marketing Lies You See Every Day”, http://www.cracked.com/photoplasty_817_23-outrageous-marketing-lies-you-see-everyday/ 57. Credit Suisse, “Global Wealth Report 2015”, https://publications.creditsuisse.com/tasks/render/file/?fileID=F2425415-DCA7-80B8-EAD989AF9341D47E 58. Cyert R.M., March J.G., „A Behavioral Theory of the Firm”, Prentice-Hall, Englewood Cliffs, NJ 1963. 59. Cykl koniunkturalny jest podstawą, Forbes, 5, (2011), http://www.forbes.pl/forbes-millennium-prestige/artykuly/millenium-prestige/cykl-koniunkturalny-jest-podstawa,14457,1 60. D. Parmenter, „How to implement winning kpis in 16 weeks”, 2009, http://davidparmenter.com/files/how-to-implement-winning-kpis-in-16-weeks-article.pdf 61. Davenport T., Prusak L., “Working Knowledge”, Harvard Business School Press, Boston (1998). 62. Davidson F., Geoff P., “Urban Projects. Manual”, Liverpool: Liverpool University Press and Fairstead Press, Liverpool, 1983. 63. Davies. J., Lluberas R., Shorrock A; Credit Suisse, “Global Wealth Databook 2015”, http://publications.credit-suisse.com/tasks/render/file/index.cfm?fileid=C26E3824-E86856E0-CCA04D4BB9B9ADD5 64. Dąbrowski M., „Matryce opisujące metodykę AgilePM” http://4pm.pl/artykuly/matryceopisujace-metodyke-agilepm-wersja-pl-oraz-en 65. Dąbrowski M., Szczepkowski J., Portal 4PM http://4pm.pl/ 66. Debreu G., „Theory of the Value”, Cowles, 1954 67. Debreu G., „Theory of Value. An Axiomatic Analysis of Economic Equilibrium”, Yale University Press, New Haven and London, 1959. 68. Deming, W. E., “Out of the Crisis”, MIT Center for Advanced Engineering Study, Cambridge, 1986. 69. Dobija D., „Pomiar i sprawozdawczość kapitału intelektualnego przedsiębiorstwa”, Warszawa: Wydawnictwo Wyższej Szkoły Przedsiębiorczości i Zarządzania im. Leona Koźmińskiego, 2004. 70. Doing Business 2016, World Bank, http://www.doingbusiness.org/~/media/GIAWB/Doing%20Business/Documents/Annual-Reports/English/DB16-Full-Report.pdf 71. Domagała A., „Metoda data envelopment analysis jako narzędzie badania względnej efektywności technicznej” Badania operacyjne i decyzje, Nr 3-4, (2007), 21-34. 72. Dominance, Influence, Steadiness, Complaint (Conscientiousness) – metodologiczny system harmonizacji pracy grupowej oraz produktywności systemów generujących wartość; http://www.discprofile.com/whati sdisc.htm 73. Düppe T., & Weintraub E.R., “Finding Equilibrium: Arrow, Debreu, McKenzie and the Problem of Scientific Credit”, Princeton Univ. Press, Princeton, 2014. 461 74. Durkin M., “Britain's Trillion Pound Horror Story”, https://www.youtube.com/watch?v=DVPq8DjZ9s4 (film napisy PL) 75. Durkin. M., “Bilionowy brytyjski horror – film https://www.youtube.com/watch?v=DVPq8DjZ9s4” 76. E. Engel, “Die Productions- und Consumptionsverhaeltnisse des Koenigsreichs Sachsen”, Zeitschrift des Statistischen Bureaus des Königlich Sächsischen Ministeriums des Innern”, Dresden, 1857. 77. Earning Before Interests Taxes Depreciation and Amortization. 78. EC, Flash Eurobarometer Reports, “Entrepreneurship in the EU and beyond”, 2012 http://ec.europa.eu/public_opinion/flash/fl_354_sum_en.pdf 79. Egan M., TechWorld, “14 best free project management software programs 2016: Great project management software tools that don't cost a penny”, http://www.techworld.com/picture-gallery/startups/10-best-free-project-management-software-programs-3625922/ 80. Elkington J., “Cannibals with Forks: the Triple Bottom Line of 21st Century Business”, Capstone Publishing Ltd., Oxford, 1997. http://appli6.hec.fr/amo/Public/Files/Docs/148_en.pdf 81. Entrepreneur, “Biznes Plan: A Step-by Step Guide”, https://www.entrepreneur.com/article/247574 82. Euler Hermes http://www.eulerhermes.pl/inne-uslugi/Pages/analizy-naleznosci.aspx 83. Eurostat, Legal notice | Contact “RAMON - Reference And Management Of Nomenclatures”, Metadata, Statystycznej Klasyfikacji Działalności Gospodarczej w EC, Rev. 2 http://ec.europa.eu/eurostat/ramon/nomenclatures/index.cfm?TargetUrl=LST_NOM_DTL&StrNom=NACE_REV2&StrLanguageCode=PL&IntPcKey=&StrLayoutCode=HIERARCHIC 84. Fayol H., “Administration industrielle et générale; prévoyance, organisation, commandement, coordination, controle”, H. Dunod et E. Pinat, Paris, 1918 85. Feigenbaum A.V., „Total quality control”, McGraw-Hill, New York ,1983. 86. Financial Accounting Foundation, “About GAAP”, http://www.accountingfoundation.org/jsp/Foundation/Page/FAFBridgePage&cid=1176164538898 87. Fisher, I., “The Theory of Interest”, The Macmillan Company, New York (1930), http://files.libertyfund.org/files/1416/0219_Bk.pdf 88. Frączyk J., Money.pl, http://www.money.pl/gospodarka/unia-europejska/wiadomosci/artykul/wskaznik-zew-w-niemczech-spadl-do--6-8-pkt-w,16,0,2125328.html 19.07.2016. 89. Friedman M., (1957). "The Permanent Income Hypothesis. A Theory of the Consumption Function”. Princeton University Press. http://papers.nber.org/books/frie57-1 ; http://www.nber.org/chapters/c4405.pdf 90. GEM Kluczowe wskaźniki http://www.gemconsortium.org/data/key-indicators 91. GEM Raporty za poszczególne lata http://www.gemconsortium.org/report 92. Gitt W., "Am Anfang war die Information" Hanssler, Neuhausen-Stuttgart, Germany 1994 93. Global Entrepreneurship Monitor, http://www.gemconsortium.org/; 94. Globalny Indeks Innowacyjności, https://www.globalinnovationindex.org/content/page/data-analysis/ 95. Gofin.pl, „Serwis głównego księgowego. Przykład nr 1 - Rachunek przepływów pieniężnych w jednostce innej niż bank i zakład ubezpieczeń”, http://www.sgk.gofin.pl/11,2384,127306,przyklad-nr-1-rachunek-przeplywow-pienieznych-w-jednostce.html 96. Gofin.pl, „Wzorcowy wykaz kont”, http://www.vademecumksiegowego.pl/artykul_narzedziowa,596,0,7771,wzorcowy-wykaz-kont.html 97. Goldratt E.M., Cox J., „Cel i doskonałość w produkcji”, Wyd. Mintbooks, Warszawa 2007. 98. Gołębiowski G., Tłaczała A., „Analiza finansowa w teorii i w praktyce”, Difin, Warszawa, 2009 99. Gospodarek T., "Metoda LFA przy tworzeniu strategii powiatu", Samorząd terytorialny, nr 12, (2007), 20-31. http://gospodarek.eu/publikacje/LFA%20Wolters%20Kluwer.pdf 462 100. Gospodarek T., “Aspekty złożoności i filozofii nauki w zarządzaniu”, Wydawnictwo WWSZiP, Wałbrzych, 2012. 101. Gospodarek T., “Logical Layers of Entrepreneurship”, Proceedings of the The 9th International Entrepreneurship Forum (9th IEF), 16-18 September 2009, Istanbul, https://www.essex.ac.uk/conferences/ief/9th/documents/040-Tadeusz%20Gospodarek-28.08.09.pdf 102. Gospodarek T., „Aspekty złożoności i filozofii nauki w zarządzaniu”, Wydawnictwo WWSZiP, Wałbrzych, 2012; http://www.gospodarek.eu/publikacje/Filozofia%20nauki%20zarzadzanie.pdf 103. Gospodarek T., „Does the optimum management for the given economic process exist?” Management, 11, No. 2, (2007), 39-42, http://www.gospodarek.eu/publikacje/Existing%20optimum%20management.pdf 104. Gospodarek T., „Elastyczność zasobu informacyjnego”, [w], R. Krupski [red.], „Elastyczność organizacji”, Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu: Wrocław, 2008, str. 127-148 105. Gospodarek T., „Innowacyjność po polsku. Raport oparty na analizie globalnego wskaźnika innowacyjności GII za rok 2015”, Google Books, GGKEY:0LENHUK9TEK, 2016 http://gospodarek.eu/publikacje/Innowacyjnosc%20po%20polsku.pdf 106. Gospodarek T., „Marketing systemowy, perspektywa etyczna”, [w] Styś A., Łobos K., „Współczesne problemy zarządzania i marketingu”, Difin, Warszawa 2016, str. 40-52 107. Gospodarek T., „Physicalistic Reasoning in Management Science”, Acta Physica Polonica A, 117(4), 2010 108. Gospodarek T., „Systemy ERP. Modelowanie, projektowanie, wdrażanie”, Helion, Gliwice, 2015. 109. Gospodarek T., „Zarządzanie dla racjonalnego menedżera”, DIFIN Warszawa, 2014. 110. Gossen H. H., “Die Entwicklung der Gesetze des menschlichen Verkehrs und der daraus fließenden Regeln für menschliches Handeln” (1854). Wersja angielska “The Laws of Human Relations and the Rules of Human Action Derived Therefrom” (1983) MIT Press; Cambridge MA. 111. Gostev A., Unuchek R., Garnaeva M., Makrushin D., Ivanom A., „It Threat Evolution 112. Gov.UK, “Write a business plan”, https://www.gov.uk/write-business-plan 113. Greiner, L.E., “Evolution and revolution as organizations grow”, Harvard Business Review, (1972), p37-46. http://in8dna.com/Portals/0/documents/partners/HBR_EvolutionRevolution.pdf 114. GUS, „Definicja dochodu do dyspozycji”, http://stat.gov.pl/metainformacje/slownik-pojec/pojecia-stosowane-w-statystyce-publicznej/62,pojecie.html 115. Hammer M., Champy J., „Reengineering w przedsiębiorstwie”, Warszawa 1996, s. 16. 116. Hammond J. H.; Kelly M. G., “Quick response in the apparel industry”, Harvard Business School Note N9-690-038, (1990). 117. Hansen M.T., Birkinshaw J., “The Innovation Value Chain”, Harvard Business Rev., 05, (2007). 118. Harrod, R., “Towards a Dynamic Economics”, The Macmillan Company, London, (1948). 119. Hartman, R. S., "Axiometric Structure of Intrinsic Value", Journal of Value Inquiry (Summer, 1974; v.8, no. 2, pp. 88-101 120. Hatta T., "Le Châtelier principle," The New Palgrave: A Dictionary of Economics, 3, (1987), s. 155–57 121. Henderson B., “The Logic of Business Strategy”, Ballinger Publishing Company, Cambridge, MA1984 122. Henderson B., “The product portfolio”, BCG.perspectives, 1970, https://www.bcgperspectives.com/content/classics/strategy_the_product_portfolio/ 123. Henderson B., „The Rule of Three and Four”, (1976), https://www.bcgperspectives.com/content/Classics/strategy_the_rule_of_three_and_four/ 124. Herbst M., „Złożone ilościowe wskaźniki koniunktury dla obszaru metropolitalnego Warszawy”, Studia regionalne i lokalne, vol. 4(7), 2001, s.61-81. 463 125. Herzberg F., "The Motivation-Hygiene Concept and Problems of Manpower", Personnel Administrator, vol 27, I-II,(1964), pp. 3–7. 126. Herzberg F., Mausner B., Snyderman B., Bloch B., The Motivation to Work, John Wiley and Sons, 2nd Ed., New York 1959. 127. Herzberg F., The Motivation-Hygiene Concept and Problems of Manpower, „Personnel Administrator” Vol 27, I–II, 1964, s. 3–7. 128. Holweg M., "The genealogy of lean production". Journal of Operations Management 25, No.2, (2007) 420–437 129. Hull J. C., „Kontrakty terminowe i opcje. Wprowadzenie”, WIG-Press, Warszawa, 1998. 130. Hull J.C., Options, Futures, and Other Derivatives, 7th Ed., Prentice Hall, Upper Saddle River NJ, 2008 131. Imai M., “Gemba Kaizen. Zdroworozsądkowe podejście do strategii ciągłego rozwoju”, MT Biznes, Warszawa, 2012 132. Imai M., „Gemba Kaizen. Zdroworozsądkowe, niskokosztowe podejście do zarządzania”, MT Biznes, Warszawa 2006. 133. Imai M., „Kaizen, Klucz do konkurencyjnego sukcesu Japonii”, MT Biznes, Warszawa, 2007 134. Infor.pl, „W jakiej formie można prowadzić dokumentację kadrową”, http://kadry.infor.pl/poprzednie_tematy_dnia/604713,W-jakiej-formie-mozna-prowadzic-dokumentacjekadrowa.html 135. Interbrand, „Breakthrough Brands”, http://interbrand.com/best-brands/interbrand-breakthrough-brands/2016/ 136. International Standard Industrial Classification of All Economic Activities; http://unstats.un.org/unsd/statcom/doc02/isic.pdf 137. Ishikawa K., „What is total quality control? The Japanese way”, Prentice-Hall, Englewood Cliffs1985. 138. ISM August 2016 Manufacturing ISM® Report On Business® USA https://www.instituteforsupplymanagement.org/ISMReport/MfgROB.cfm 139. ISO Guide 73:2009. Risk Menedźment. http://www.iso.org/iso/catalogue_detail?csnumber=44651 140. Jackson M., Staunton M., „Zaawansowane modele finansowe z wykorzystaniem Excela i VBA”, Wydawnictwo Helion, Gliwice 2004, str. 234-244. 141. Jagodziński J., „Rozszerzone kryterium Hurwicza podejmowania decyzji w procesach logistycznych”, Zeszyty Naukowe Wyższej Szkoły Bankowej we Wrocławiu, vol. 41 nr 3, (2014), s. 197-214. 142. Jajuga K., „Instrumenty pochodne”, Komisja Nadzoru Finanowego, Warzawa, 2009, http://www.knf.gov.pl/Images/Instrumenty%20pochodne_tcm75-17587.pdf 143. Japan Management Association, D.J. Lu (ed.), “Kanban Just-in Time at Toyota: Management Begins at the Workplace”, Productivity Press; Rev Sub edition (1989) 144. JFRA, Money.pl, „Pracownik przestał być najważniejszy. Globalne korporacje zmieniają priorytety”, http://www.money.pl/gospodarka/inflacjabezrobocie/wiadomosci/artykul/raport-korn-ferry-technologie-sila-robocza,245,0,2204149.html 145. Jones J. A., „An Introduction to Factor Analysis of Information Risk (FAIR). A framework for understanding, analyzing, and measuring information risk”, 2011, http://www.riskMenedźmentinsight.com/media/docs/FAIR_introduction.pdf 146. Jorgenson D. W.; Landefeld J. S.; [w] Nordhaus W. [red] “A New Architecture for the U. S. National Accounts”. Chicago University Press. Chicago (2006) str. 5. 147. Józefowska J., “Modele i narzędzia optymalizacji w systemach informatycznych zarządzania”, http://www.cs.put.poznan.pl/jjozefowska/wyklady/opt/DYNA.pdf 148. Juran J. M., “A History of Managing for Quality: The Evolution, Trends, and Future Directions of Managing for Quality”, ASQC Quality Press, Milwaukee, 1995. 149. Kahneman D., Tversky A., “Prospect theory: An analysis of decisions under risk”, Econometrica, 47, (1979), 313-327. 464 150. Kamugisha S., The Effects of Change Management in an Organisation: A Case Study of National University of Rwanda (Nur), Wyno Journal of Management & Business Studies, Vol. 1(1), 2013, 1-18, http://www.wynoacademicjournals.org/management_biz.html 151. Kanter R. M., “The change masters: innovation and entrepreneurship in the American corporation”, Simon and Schuster, New York, (1984) 152. Kapitał należy w tym miejscu rozumieć szerzej, niż u K. Marksa. Może to być dowolna forma określonego potencjału oddziaływania systemu na otoczenie, rozróżniana w teorii zarządzania jako, np. kapitał ludzki, kapitał społeczny, kapitał organizacyjny, kapitał intelektualny, kapitał relacyjny, etc. Szerzej na ten temat pisałem w pracy „Aspekty złożoności i filozofii nauki w zarządzaniu”, str. 174-181. 153. Kaplan R.S., Norton D.P., “The Balanced Scorecard: Measures That Drive Performance”, Harvard Business Review, Jan.–Feb. 1992. 154. Kaplan R.S., Norton D.P., „Wdrażanie strategii dla osiągnięcia przewagi konkurencyjnej”, Wyd. Profesjonalne PWN, Warszawa 2010. 155. Karaś R., Teorie motywacji w zarządzaniu, Wydawnictwo Akademii Ekonomicznej w Poznaniu, Poznań 2003. 156. Kaspersky Lab., “Kaspersky Security Bulletin 2015/2016”, Kaspersky Lab Global Research and Analysis Team, http://newsroom.kaspersky.eu/fileadmin/user_upload/de/Downloads/PDFs/Kaspersky_Security_Bulletin_2015_2016.pdf 157. Kaspersky Lab., „KSN Report: Ransomware in 2014-2016”, https://securelist.com/files/2016/06/KSN_Report_Ransomware_2014-2016_final_ENG.pdf 158. Keynes, J. M., The General Theory of Employment, Interest and Money. London: Macmillan, London 1936. 159. Kieżun W., „Patologia transformacji”, Wyd. Poltext Warszawa, 2013. 160. Kiziukiewicz T., „Rachunkowość nie tylko dla księgowych”, PWE, Warszawa 2007, s. 13 161. Kompendium wiedzy o zarządzaniu projektami, MT&DC, Warszawa, 2006. 162. Korotayev, Andrey V.; Tsirel, Sergey V. (2010). "A Spectral Analysis of World GDP Dynamics: Kondratiev Waves, Kuznets Swings, Juglar and Kitchin Cycles in Global Economic Development, and the 2008–2009 Economic Crisis". Structure and Dynamics 4 (1): 3–57. http://escholarship.org/uc/item/9jv108xp#page-1 163. Kotarbiński T., “Dzieła wszystkie. Prakseologia cz. I”, tom 6, Wyd. Ossolineum, Wrocław, 1999. 164. Kotarbiński T., “Dzieła wszystkie. Prakseologia cz. II”, tom 7, Wyd. Ossolineum, Wrocław, 2003. 165. Kotarbiński T., „Dzieła wszystkie. Traktat o dobrej robocie”, Wyd. Ossolineum, Wrocław , 2000. 166. Kotarbiński T., Praxiology. an introduction to the sciences of efficient action”, Pergamon Press, 1965 167. Kotler P. T., Armstrong G., “Principles of Marketing”, 16th Ed., Pearson Edu Ltd, Essex, 2016. 168. Kotter, J. P., “Leading Change”, Harvard Business Press Review, Boston, (1996). 169. Koźmiński A.K., „Organizacja”, [w]: Koźmiński A.K., Piotrowski W., „Zarządzanie. Teoria i praktyka”, Wyd. 5. Wydawnictwo Naukowe PWN, Warszawa, 2000, s. 38-42. 170. Krupski R [red.]., Zarządzanie strategiczne- koncepcje, metody, Wyd. VI, Wydawnictwo Akademii Ekonomicznej, Wrocław, 2007. 171. Kuhn T., “Struktura rewolucji naukowych”, Aletheia, Warszawa 2001. 172. Lawrence, P. R., Lorsch, J. W., “Organization and Environment: Managing Differentiation and Integration”, Boston, MA: Harvard University, 1967. 173. Lean Center, „Czym się różni Lean i Six Sigma?”, http://www.leancenter.pl/bazawiedzy/lean-i-six-sigma-roznice 174. Lester, D., Parnell, J. and Carraher, S. “Organizational life cycle: A five-stage empirical scale”, International Journal of Organizational Analysis, 11(4), (2003), 339-354. 465 175. Lewin K., . "Frontiers in Group Dynamics: Concept, Method and Reality in Social Science; Social Equilibria and Social Change", Human Relations. Vol. 1, (1947), 5–41. 176. Likert R., "A Technique for the Measurement of Attitudes" Archives of Psychology vol. 140, (1932), str. 55 http://www.voteview.com/pdf/Likert_1932.pdf 177. Lindo Systems Inc. http://www.lindo.com/index.php/ls-downloads/try-lingo 178. Locke, E. A.; Shaw K. N.; Saari L. M., Latham, G. P., "Goal Setting and Task Performance: 1969–1980", Psychological Bulletin (American Psychological Association) 90(1), (1981), 125–152. 179. Mamczur J.A., Komputerowy program „Metoda najmniejszych kwadratów”, http://www.prz.rzeszow.pl/~janand/mnk.htm 180. Mantegna R.N., Stanley H.E., “An Introduction to Econophysics: Correlations and Complexity in Finance”, Cambridge University Press, Cambridge, 1999. (polskie wydanie PWN, Warszawa 2001). 181. Marczak K., “"Greeks" czyli opcyjna greka”, Bossa.pl http://bossa.pl/edukacja/opcje/kurs/greeks/ 182. Markit, PMI dla Polski z dnia 6.08.2016 https://www.markiteconomics.com/Survey/PressRelease.mvc/12f681ae38f94852be4210193623f2b4 183. Markit, PMI dla strefy UE, z dnia 6.08.2016 https://www.markiteconomics.com/Survey/PressRelease.mvc/76ed1db5bbb64a38b29fa1118c57f4aa 184. Markowitz H.M., “Portfolio Selection”,. Journal of Finance. Vol. 7, (1952), 77–91 185. Maslow, A. H., „Motivation and Personality”, Harper, New York 1954. 186. Maxwell J.C., „Przywództwo. Złote zasady”, MT Biznes, Warszawa, 2010. 187. Mazur M., Jakościowa teoria informacji, WNT, Warszawa 1970. 188. McClelland D.C., „Human Motivation”, Cambridge: Cambridge University Press, 1988. 189. McDaniel C. Jr., Gates R., “Marketing Research”, 10th Ed., Wiley, Hoboken, N.J., 2014. 190. McGovern J., Lindemann M., Vergara M., Murphy S., Barker L., Warrenfeltz R., “Maximizing the Impact of Executive Coaching: Behavioral Change, Organizational Outcomes, and Return on Investment”, The Manchester Rev., Vol. 6, No. 1, (2006), str. 1–9. 191. McGregor D., http://www.accel-team.com/human_relations/hrels_03_mcgregor.html 192. McKenzie L.W., “The Classical Theorem on Existence of Competitive Equilibrium”, Econometrica, Vol. 49, No. 4 (1981), pp. 819-841. http://www.dklevine.com/archive/refs41388.pdf 193. McPhee P., “Option Pricing Spreadsheet” https://www.optiontradingtips.com/pricing/freespreadsheet.html 194. Mesjasz C., “Systems Metaphors, Systems Analogies, and Present Changes”, [w] International Relations, Cybernetics and Systems. An International Journal (Vienna), vol. 25, , no. 6, 1994: 763-780, 195. Metropolis N., Ulam S., "The Monte Carlo Method", Journal of the American Statistical Association, vol. 44, No. 247, (1949), pp. 335–341. 196. Mill J. S., “Utilitarianism”, G.Sher Ed., 2nd Ed., Hackett Publishing Co. Inc., Indianapolis, 2001. 197. Mill J.S., „Utylitaryzm”. 1863; http://www.earlymoderntexts.com/assets/pdfs/mill1863.pdf 198. Milward Brown, „BrandZ. Raport Top 100, 2016 http://wppbaz.com/admin/uploads/files/BZ_Global_2016_Report.pdf 199. Mimkes J., “Econophysics and Sociophysics: Trends and Perspectives”. [w] B.K. Chakrabarti, A. Chakraborti, A. Chatterjee (eds.), Wiley-VCH Verlag, Weinheim 2006. 200. Ministerstwo Rozwoju, “Plan na rzecz Odpowiedzialnego Rozwoju”, op. cit. str. 34. 201. Mintzberg H.,”The Rise and Fall of Strategic Planning”, Free Press, New York, (1994). 202. Mirowski P., “More Heat than Light - Economics as Social Physics, Physics as Nature's Economics”, Cambridge University Press, Cambridge, 1989, 203. Mises L von, “The Ultimate Foundation of Economic Science. An Essay on Method”, D.van Nostrand, Princeton, 1962. 204. Morgan G., „Obrazy organizacji”, Wydawnictwo naukowe PWN, Warszawa 1997. 466 205. Morgan J., Brenig-Jones M., “Lean Six Sigma For Dummies”, 3rd Ed., John Wiley & Sons, Hoboken, 2015. 206. Mumford E., “Sociotechnical Systems Design: Evolving Theory and Practice”, Manchester Business School, 1985. 207. Nakajima S., “Introduction to TPM: Total Productive Maintenance”, (Preventative Maintenance Series), 11 Ed., Productivity Press, Univ. Minnesota, 1998. 208. Napiórkowski A., „Charakterystyka, wycena i zastosowanie wybranych opcji egzotycznych”, NBP Materiały i studia, Warszawa, 2001, http://www.nbp.pl/publikacje/materialy_i_studia/136.pdf 209. Neace M.B., Gospodarek T., Neace X.G., „Global supply chains as holistic systems: an expanded perspective”, International Journal of Economics and Business Research, Vol 5, No 2, (2013), 165-182 http://gospodarek.eu/publikacje/Global%20Supply%20Chain%20as%20Holistic.pdf 210. Newsweek, „KNF wiedziała co się święci”, 17.03.2009, http://www.newsweek.pl/newsweek-exclusive/knf-wiedziala-co-sie-swieci,37482,1,1.htm l 211. Nonaka I., "The Knowledge-Creating Company", Harvard Business Review 69 (6 NovDec), (1991), 96–104 212. Nonaka I., Takeuchi H., “The Knowledge-Creating Company: How Japanese Companies Create the Dynamics of Innovation”, Oxford University Press, New York, 1995. 213. Nykänen P., Salminen M., “Kto pogrążył Nokię?”, Project Syndicate, 14.07.2015, http://project-syndicate.pl/artykul/kto-pogr%C4%85%C5%BCy%C5%82noki%C4%99,1172.html?snippet=Salminen 214. Obłój K., „Strategia organizacji”, wyd. III, PWE, Warszawa, 2014. 215. OECD, Entrepreneuship and business statistics, “Entrepreneurship at glance”, 2015 http://www.oecd.org/std/business-stats/entrepreneurship-at-a-glance-22266941.htm 216. Ohno T., „System produkcyjny Toyoty. Więcej niż produkcja na wielką skalę”, ProdPress, Taylor & Francis, Wrocław 2008, http://wydawnictwo.prodpublishing.com/wp-content/uploads/2011/07/System-Produkcyjny-Toyot-fragmenty.pdf oraz Art of Lean http://www.artoflean.com/files/Basic_TPS_Handbook_v1.pdf 217. Okuniewski Ł., „Poziomy spread byka - Horizontal Bull Spread”, Bossa.pl http://bossa.pl/edukacja/opcje/strategie/ograniczonego_ryzyka/bull/ 218. Parmenter D., “Key performance indicators: Developing, implementing, and using winning KPIs”, (2nd ed.). Hoboken: John Wiley & Sons, 2010. 219. PARP, “Biznes plan dla POIG”, https://poig.parp.gov.pl/files/74/108/212/2210.doc 220. PARP, „Badania i ewaluacje PARP”, Global Entrepreneurship Monitor. https://badania.parp.gov.pl/global-entrepreneurship-monitor-gem 221. Pasinetti, L., “Structural Change and Economic Growth: a Theoretical essay on the dynamics of the wealth of nations”. Cambridge University Press, Cambridge, (1981). 222. The Best Project Management Software of 2016, PC Magazine, http://www.pcmag.com/article2/0,2817,2380448,00.asp 223. Pearn W.L., Chou J.B., “Improved solutions for the Chinese postman problem on mixed networks.” Computers & Operations Research. 26 (8), 1999, s. 819-827 224. Pocztowski A., „Zarządzanie zasobami ludzkimi. Strategie – procesy – metody”, PWE, Warszawa 2008 225. Podgórska M., Śliwka P., Topolewski M., Wszołek M., „Łańcuchy Markowa w teorii i zastosowaniach”, wyd. 2, Szkoła Główna Handlowa, Oficyna Wydawnicza, Warszawa, 2002. 226. Pogorzelski W., „O filozofii badań systemowych”, Wyd. Nauk. Scholar, Warszawa 2002, s. 47 227. Pokonać Rynek, „Encyklopedia rynków”, http://pokonac-rynek.pl/edukacja/encyklopediarynkow/ 228. Polanyi M., “The Tacit Dimension”, University of Chicago Press: Chicago, 1966. 229. Polska Klasyfikacja Działalności http://stat.gov.pl/Klasyfikacje/doc/pkd_07/pkd_07.htm 230. Porter M.E., “Competitive advantage”, Free Press, New York, 1985. 467 231. Porter M.E., “Przewaga konkurencyjna”, Helion Gliwice, 2006 232. Porter M.E., Sachs J.D., MacArthur J.W., “Competitiveness and Stages of Economic Development”, http://www.earth.columbia.edu/sitefiles/file/Sachs%20Writing/2002/WorldEconomicForum_2001-2002_GlobalCompetitivenessReport2001-2002_ExecutiveSummary.pdf 233. Prahalad C.K., Hamel G., “Kluczowe kompetencje” Harvard Business Rev., vol. May-June, (1990), str. 79-90. http://www.profrandes.com.br/wp-content/uploads/2013/03/Core-Competence-of-the-Corporation.pdf 234. Prahalad C. K., Hamel G., “The core competence of the corporation.” Harvard Business Review, 68, No.3, (1990), 79-91. 235. PRINCE2 - Skuteczne zarządzanie projektami, The Stationery Office Ltd (TSO), 2009 ISBN 9780113312245 (polskie wydanie 2010). 236. Prnce’s Trust, „Business Plans”, https://www.princes-trust.org.uk/help-for-young-people/tools-resources/business-tools/business-plans 237. Ralston A., „Wstęp do analizy numerycznej”, PWN Warszawa, 1971 238. Rath M., “Die Geschichte des Pharma Geshäfts teil. 1-4”. https://www.youtube.com/watch?v=VFDP0gkuJA&list=PL68gVFkfht18iJtDX_vY_USOi66O6nBw3 239. Romanowska M., Gierszewska G., Analiza strategiczna przedsiębiorstwa, Wyd. 4, PWE Warszawa, 2009. 240. Ropohl G., “Philosophy of socio-technical systems, in: Society for Philosophy and Technology”, Spring 1999, Vol. 4, (3), 1999. 241. Roser M., “Income Inequality”. (2015), http://ourworldindata.org/data/growth-and-distribution-of-prosperity/income-inequality/ 242. Rozporządzenie Komisji (WE) Nr 1126/2008, z dnia 3 listopada 2008 r, przyjmujące określone międzynarodowe standardy rachunkowości zgodnie z rozporządzeniem (WE), nr 1606/2002 Parlamentu Europejskiego i Rady. http://polanskiaudyt.pl/msr-mssf/ 243. Samuelson A.A., Nordhaus W.D., „Ekonomia” tom 2, PWN, Warszawa, 2007. 244. Samuelson, P. A. (1994), "Facets of Balassa-Samuelson Thirty Years Later", Review of International Economics 2 (3): 201–226. 245. Scarf H.E., Hansen T, “The Computation of Economic Equilibria”, Cowles Foundation for Research in economics at Yale University, Monograph No. 24, UK: Yale University Press, New Haven, London, 1973. 246. Schlefer J., “Niewidzialna ręka rynku nie istnieje”, HBR Polska, 2016 http://www.hbrp.pl/news.php?id=763 247. Schrage L., “Optimizantion Modeling with LINGO”, wyd. 6, Lindo Systems Inc., Chicago, 2015 248. Schwaber K., Sutherland J., “The Scrum Guide. The Definitive Guide to Scrum: The Rules of the Game”, http://4pm.pl/wp-content/uploads/2016/07/2016-Scrum-Guide-US.pdf 249. Scrum guides, http://www.scrumguides.org/ 250. Selznick P. "Foundations of the Theory of Organization". American Sociological Review vol. 13, No. 1, (1948), pp. 25–35 251. Shannon C.E., A Mathematical Theory of Communication, The Bell System Technical Journal, Vol. 27, July, Oct., (1948), pp. 379–423, 623–656 252. Sheldon O., „The Philosophy of Management”, Pitman&Sons, London, 1923 253. Shingo, S., “A Study of the Toyota Production System from an Industrial Engineering Viewpoint”, Japan Management Association, Tokyo, 1984. 254. Simon H.A., “Administrative Behavior”, Free Press, New York 1957. 255. Simon H.A., “Podejmowanie decyzji i zarządzanie ludźmi w biznesie i administracji”, wyd. 4, One Press - Helion, Gliwice, 2007 256. Skinner B.F., The Behavior of Organisms:An Experimental Analysis, Appleton-CenturyCrofts, New York 1938. 257. Smith. A., “Badania nad naturą i przyczynami bogactwa narodów”, Wydawnictwo Naukowe PWN, Warszawa, 2013. 468 258. Snowden D.J., Boone M.E.; “A Leader’s Framework for Decision Making”, HBR, 11,2007 259. Solomon B., Jobs J., “Land and Urban Development: The Economic Success of Small Manufacturers in East Delhi, India”. Lincoln Institute of Land Policy, Cambridge, 1991. 260. Sołek A., “Ekonomia behawioralna a ekonomia neoklasyczna”, Zeszyty Naukowe PTE, No. 8, (2010), 21-34; http://www.pte.pl/pliki/1/1066/01_Solek.doc.pdf 261. Stabryła A., „Zarządzanie strategiczne w teorii i praktyce firmy”, PWN, Warszawa-Kraków 2002, s. 359 262. Stalk Jr. G., "Time – The Next Source of Competitive Advantage". Harvard Business Review 66, July/August, (1988), 41–51. 263. Stampler L., Business Insider, „The 15 Biggest Lies Ever Told By Major Advertisers”, http://www.businessinsider.com/the-biggest-lies-ever-told-by-major-advertisers-201211?IR=T 264. Starr J., „Podręcznik coachingu. Sprawdzone techniki treningu personalnego”, Wyd. Oficyna, Warszawa 2015 265. Statista, „Entwicklung des ifo-Geschäftsklimaindex von Juni 2015 bis Juni 2016”, http://de.statista.com/statistik/daten/studie/1307/umfrage/entwicklung-monatswerte-des-ifogeschaeftsklimaindex/ 266. Strafin P.D., „Teoria gier”, Wydawnictwo Scholar, Warszawa, 2006 267. Sułkowski Ł., „Epistemologia w naukach o zarządzaniu”, PWE Warszawa, 2005 268. Suri R., “It's About Time. The Competitive Advantage of Quick Response Manufacturing”, Productivity Press, (2010). 269. Symantec, “ISTR report”, https://www.symantec.com/content/dam/symantec/docs/reports/istr-21-2016-en.pdf 270. Szulc W., “Coaching – misja życia”, Wyd. Złote Myśli, Gliwice 2008, str. 13 271. The Fortune 500, http://beta.fortune.com/global500/ 272. The World Bank, „Doing Business”, data, http://data.worldbank.org/data-catalog/doingbusiness-database 273. Trading Economics „Niemcy - Indeks Nastroju Ekonomicznego wg ZEW”, http://pl.tradingeconomics.com/germany/zew-economic-sentiment-index 274. Trist E., Bamforth K., “Some social and psychological consequences of the longwall method of coal getting”, Human Relations, 4, (1951), pp.3-38. 275. Tversky, A., Kahneman, D., “Judgment under Uncertainty: Heuristics and Biases”. Science, New Series, Vol. 185, No. 4157, (1974), pp. 1124-1131. 276. Ustawa o Rachunkowości z dnia 9 listopada 2000 r (Dz. U. 00.113.1186 z dnia 18 grudnia 2000) 277. Ustawa z dnia 27 kwietnia 2001 r. „Prawo ochrony środowiska”. Dz.U. 2001 nr 62 poz. 627 Art. 3 pkt. 50. 278. Ustawa z dnia 29 września 1994 r. o rachunkowości Dz. U. z 2016 r. poz. 1047, tekst jednolity z dnia 19.07.2016, http://www.mf.gov.pl/c/document_library/get_file?uuid=78ce716b3ace-484e-be4c-29a413469e75&groupId=764034 279. Von Glahn, R., “Fountain of Fortune: Money and Monetary Policy in China, 1000–1700”, Berkeley University Press, Berkley, 1996. 280. Vroom V.H., “Work and Motivation”, J. Wiley & Sons, 1964, [paperback] Jossey-Bass Publishers, San Francisco, 1995. 281. W.M. Marston, Emotions of Normal People, Taylor & Francis Ltd., New York 1928. 282. Wawak. S., Encyklopedia zarządzania „Wykresy sieciowe”, https://mfiles.pl/pl/index.php/Wykresy_sieciowe 283. Wątroba J., „Wprowadzenie do analizy korelacji i regresji”, http://www.statsoft.pl/Portals/0/Downloads/Wprowadzenie_do_analizy_korelacji_i_regresji.pdf 284. Weber M., “Wirtschaftsgeschichte. Abriß der universalen Sozial- und Wirtschaftsgeschichte”, Duncker und Humblot, Leipzig, 1923, 285. Wernerfelt, B., “A resource-based view of the firm.” Strategic Management Journal, 5, (1984), 171-180. 469 286. Wernerfelt, B., “A resource-based view of the firm.” Strategic Management Journal, 5, (1984), pp. 171-180 287. Westley F., Mintzberg H., “Visionary Leadership and Strategic Menedźment”, Strategic Management Journal, vol. 10, (1989), str. 17-32. 288. Węcławska D., Tarnawa A., Nieć M., Zabierowski P., „Global Entrepreneurship Monitor. Polska”, PARP, Warszawa, 2015, http://www.parp.gov.pl/attachments/article/48704/newGEM_wyd.2015.pdf 289. Wilson C., “Coaching biznesowy”, Wyd. MT Biznes, Gdańsk 2010 290. Witzel M., “Fifty key figures in management”,. Routledge, London, 2003 291. World Bank, “Doing Business” dane, metody i raporty globalne. http://www.doingbusiness.org/reports/global-reports/doing-business-2016 292. World Economic Forum, “The Global Competitiveness Report”, 2016, http://reports.weforum.org/global-competitiveness-report-2015-2016/downloads/ 293. World Economic Forum, Globalny Indeks Konkurencyjności, Ranking 2014-2015, http://reports.weforum.org/global-competitiveness-report-2014-2015/rankings/ dostęp 21.04.2016 294. Wujec B., „Geneza i definicje coachingu”, Coaching Review 1, (2012), str. 4-28 295. Wyżnikiewicz B., Obserwator Finansowy, „Klasa średnia rośnie w Polsce w siłę”, 15.05.2015, https://www.obserwatorfinansowy.pl/tematyka/makroekonomia/klasa-sredniarosnie-w-polsce-w-sile/ 296. Zandhuis A., Stellingwerf R., “ISO 21500. Guidance on Project Management. A Pocket Guide”, van Haren Publishing, Amersfoort, 2013. 297. Zemke J., „Scenariusze procesów decyzyjnych w warunkach zarządzania ryzykiem obsługi zobowiązań długoterminowych”, http://zif.wzr.pl/pim/2013_3_2_19.pdf 298. Zieleniewski J., „Organizacja i zarządzanie”, PWN, Warszawa 1969 s. 111 470 Spis ilustracji RYS. 1.1 MODELOWANIE ZARZĄDZANIA ORGANIZACJĄ W UJĘCIU TEORII KONTYNGENCJI. .................................10 RYS. 1.2 FUNKCJONOWANIE UKŁADU WARTOŚCI. ....................................................................................11 RYS. 1.3 PODSTAWOWE PRAWA CZŁOWIEKA ..........................................................................................20 RYS. 1.4 KOSTKA PRAKSEOLOGICZNA ....................................................................................................21 RYS. 1.5 HIERARCHIA POTRZEB WG MASLOWA .......................................................................................23 RYS. 1.6 ILUSTRACJA SUBIEKTYWIZMU OCENY WARTOŚCI DOBRA ................................................................27 RYS. 1.7 KRZYWA CYKLU ŻYCIA PRODUKTU (DOBRA). ...............................................................................28 RYS. 1.8 ILUSTRACJA RÓWNOWAGI RYNKOWEJ, Z CENĄ JAKO PARAMETREM REGULACJI...................................36 RYS. 1.9 KONCEPCJA OCENY KONKURENCYJNOŚCI RYNKU METODĄ 5 SIŁ M.PORTERA .....................................39 RYS. 1.10 IDEALNY CYKL KONIUNKTURALNY ..