Biala księga zarządzania - Prof. Tadeusz Gospodarek

advertisement
Biała księga zarządzania
Tadeusz Gospodarek
Wyższa Szkoła Bankowa we Wrocławiu
[email protected]
Wersja beta
Copyright 
Tadeusz Gospodarek
Kamieniec Wrocławski 2017
Spis treści
SPIS TREŚCI ...............................................................................................................................2
WSTĘP .........................................................................................................................................6
1
KONTEKST ZARZĄDZANIA .........................................................................................9
1.1 SYSTEM SPOŁECZNY Z FUNKCJONUJĄCĄ WARTOŚCIĄ .....................................................11
1.1.1
Człowiek w systemie generującym wartość .......................................................... 14
1.1.2
Zasady etyczne i normy moralne ..........................................................................17
1.1.3
Zasady optimum działania ...................................................................................19
1.2 POTRZEBY I DOBRA ........................................................................................................23
1.2.1
Potrzeby ...............................................................................................................24
1.2.2
Dobra ...................................................................................................................25
1.2.3
Konsumpcja ..........................................................................................................31
1.3 RYNEK............................................................................................................................ 35
1.3.1
Konkurencja .........................................................................................................38
1.3.2
Koniunktura i cykl Kondratiewa ..........................................................................41
1.3.3
Informacja i wiedza .............................................................................................. 44
1.3.4
Równowaga makroekonomiczna ..........................................................................50
1.4 KAPITAŁ JAKO REPREZENTACJA WARTOŚCI ....................................................................55
1.4.1
O jednostce kapitału ............................................................................................. 56
1.4.2
Jak mierzyć kapitał ............................................................................................... 58
1.4.3
Kapitał uogólniony ............................................................................................... 59
1.5 DZIAŁALNOŚĆ GOSPODARCZA ........................................................................................ 60
1.5.1
Model systemowy działalności gospodarczej .......................................................62
1.5.2
Otoczenie działalności gospodarczej ...................................................................65
1.5.3
Przedsiębiorczość .................................................................................................66
1.5.4
innowacyjność ......................................................................................................70
2
PODMIOT I PRZEDMIOT ZARZĄDZANIA .............................................................. 75
2.1 ORGANIZACJA JAKO SYSTEM GENERUJĄCY WARTOŚĆ ....................................................75
2.1.1
Definicja systemowa organizacji..........................................................................77
2.1.2
Rodzaje organizacji .............................................................................................. 80
2.1.3
Cykl życia organizacji .......................................................................................... 83
2.2 ŁAŃCUCH WARTOŚCI ORGANIZACJI, ...............................................................................86
2.2.1
Łańcuch dostaw w łańcuchu wartości, .................................................................90
2.2.2
Zasoby i kluczowe kompetencje ............................................................................93
2.2.3
Procesy w organizacji i ich znaczenie dla zarządzania .......................................97
2.2.4
Organizacja jako układ warstw logicznych ........................................................ 103
2.3 CZŁOWIEK W ORGANIZACJI .......................................................................................... 106
2.3.1
Relacje człowieka i organizacji ..........................................................................106
2.3.2
Model systemowy budowania relacji w organizacji ...........................................108
2.3.3
Pracownik w organizacji ....................................................................................111
2.3.4
Menedżer i przywódca ........................................................................................ 113
2.3.5
Aspekty etyczne...................................................................................................115
3
ZARZĄDZANIE. ZAKRES, CELE, METODY .......................................................... 119
3.1 ZARZĄDZANIE JAKO ZAGADNIENIE ZŁOŻONE, .............................................................. 120
3.1.1
Ujęcie cynefin .....................................................................................................121
3.1.2
Stan organizacji, ................................................................................................ 123
3.1.3
Cele stawiane przed zarządzaniem.....................................................................126
3.1.4
Niejednoznaczność rezultatu zarządzania .......................................................... 129
2
3.1.5
Zarządzanie mikro i makro ................................................................................131
3.2 ASPEKT CZASOWY ZARZĄDZANIA.................................................................................138
3.2.1
Struktura decyzji.................................................................................................138
3.2.2
Ograniczona racjonalność i heurystyki uproszczone .........................................140
3.2.3
Aspekt czasowy decyzji ....................................................................................... 142
3.2.4
Własność Markowa i zasada Bellmana .............................................................. 143
3.2.5
Scenariusze i pakiety decyzyjne ..........................................................................144
3.3 METODOLOGIA ZARZĄDZANIA .....................................................................................146
3.3.1
Dzieło Adama Smitha ......................................................................................... 146
3.3.2
Kierunek produktywność ....................................................................................148
3.3.3
Kierunek niezawodność, efektywność, jakość ....................................................151
3.3.4
Kierunek optymalizacja funkcjonalna organizacji .............................................161
3.3.5
Ujęcia systemowe ............................................................................................... 169
3.3.6
Kierunek strategiczny ......................................................................................... 173
4
WYBRANE ZAGADNIENIA PRAKTYCZNE ........................................................... 187
4.1 ZARZĄDZANIE PROJEKTEM ........................................................................................... 187
4.1.1
Studium wykonalności ........................................................................................ 189
4.1.2
Zarządzanie zwinne projektami (agile) .............................................................. 193
4.1.3
Metoda PERT/CPM i harmonogramowanie ...................................................... 195
4.2 ZMIANA W BIZNESIE .....................................................................................................204
4.2.1
Aspekty epistemologii zmiany .............................................................................204
4.2.2
Metodologia zmiany ........................................................................................... 208
4.2.3
Biznes plan jako projekt zmiany .........................................................................213
4.3 ZARZĄDZANIE RYZYKIEM ............................................................................................. 217
4.3.1
Taksonomia ryzyka ............................................................................................. 219
4.3.2
Style zarządzania ryzykiem .................................................................................222
4.3.3
Model zarządzania ryzykiem w organizacji ....................................................... 223
4.4 ZARZĄDZANIE INFORMACJĄ I WIEDZĄ (UJĘCIE ZASOBOWE)..........................................224
4.4.1
Wiedza jako cenny zasób organizacji .................................................................225
4.4.2
Koszty zasobów IT i ich użyteczność ..................................................................231
4.4.3
Bezpieczeństwo informacyjne .............................................................................232
4.5 ZARZĄDZANIE ZASOBAMI LUDZKIMI ............................................................................234
4.5.1
Relacje i interakcje w organizacji ......................................................................236
4.5.2
Motywacja ..........................................................................................................241
4.5.3
Coaching i ścieżka kariery .................................................................................245
4.5.4
Płace...................................................................................................................249
4.5.5
Wsparcie komputerowe zarządzania kadrami i płacami ....................................253
4.6 MARKETING I DYSTRYBUCJA ........................................................................................ 264
4.6.1
Budowanie strategii marketingowej ...................................................................266
4.6.2
Strategie marketingowe ...................................................................................... 269
4.6.3
Strategie cenowe ................................................................................................ 270
4.6.4
Kanały dystrybucji ............................................................................................. 275
4.6.5
Marketing bezpośredni ....................................................................................... 278
4.6.6
Model etyczny marketingu ..................................................................................279
4.6.7
Zarządzanie marką ............................................................................................. 281
4.7 ASPEKTY ZARZĄDZANIA FINANSAMI ............................................................................292
4.7.1
Analiza finansowa projektu biznesowego ........................................................... 293
4.7.2
Oszacowania zmian wartości pieniądza w czasie ..............................................296
4.7.3
Wybrane aspekty rachunkowości .......................................................................300
4.7.4
Hedging ..............................................................................................................312
4.8 WYBRANE KWESTIE ZARZĄDZANIA LOGISTYKĄ ........................................................... 324
4.8.1
Optymalizacja logistyczna..................................................................................325
3
4.8.2
Zagadnienie magazynowe ..................................................................................328
4.8.3
Magazyn jako obiekt logiczny ............................................................................331
4.8.4
Kolejkowanie ......................................................................................................335
4.8.5
Problem transportowy ........................................................................................ 339
4.8.6
Zagadnienie komiwojażera (Zadanie chińskiego listonosza) ............................. 341
4.8.7
Strategie logistyczne ........................................................................................... 342
4.9 KONTROLING ................................................................................................................346
4.9.1
Metoda KPI (Key Performance Indicators) ....................................................... 347
4.9.2
Aspekty finansowe kontrolingu ...........................................................................349
4.9.3
Aspekty procesowe ............................................................................................. 351
4.9.4
Aspekty struktury informacyjnej kontrolingu .....................................................356
5
POMIAR I OCENA W ZARZĄDZANIU. ...................................................................359
5.1 MIARA .......................................................................................................................... 360
5.1.1
Skala ...................................................................................................................360
5.1.2
Miara integralna w zagadnieniu wielowymiarowym .........................................362
5.1.3
Dystans do frontiery (ranking benchmarkingowy) .............................................362
5.2 WNIOSKOWANIE STATYSTYCZNE I TESTOWANIE HIPOTEZ ............................................364
5.2.1
Porównanie grup mierzonych niezależnie .......................................................... 365
5.2.2
Porównanie więcej niż dwóch zmiennych .......................................................... 366
5.2.3
Stwierdzenie istnienia związku pomiędzy zmiennymi .........................................366
5.3 METODY ILOŚCIOWE W ZARZĄDZANIU .........................................................................367
5.3.1
Programowanie liniowe .....................................................................................368
5.3.2
Optymalizacja nieliniowa ...................................................................................375
5.3.3
Symulacja ...........................................................................................................379
5.3.4
Analiza „What if” .............................................................................................. 381
5.3.5
Elementy teorii gier ............................................................................................ 384
5.4 GLOBALNE WSKAŹNIKI EKONOMICZNE W OTOCZENIU ..................................................392
5.4.1
Dochód narodowy brutto PKB ...........................................................................393
5.4.2
Dochód narodowy na jednego mieszkańca ........................................................ 395
5.4.3
Dochód do dyspozycji......................................................................................... 396
5.4.4
Globalny wskaźnik przedsiębiorczości GEM .....................................................397
5.4.5
GCI Globalny indeks konkurencyjności ............................................................. 401
5.4.6
GII Globalny indeks innowacyjności .................................................................402
5.4.7
Globalny wskaźnik „Doing Business” ............................................................... 405
5.4.8
PMI (Purchasing Managers Index) ....................................................................409
5.4.9
Wskaźnik moralności płatniczej (IPM) ............................................................... 411
5.4.10
Wskaźnik IFO (ZEW) .....................................................................................412
6
DODATKI ....................................................................................................................... 414
6.1 METODA WIELOKRYTERIALNA .....................................................................................414
6.1.1
Kryterium oparte na skali nominalnej ................................................................ 414
6.1.2
Kryterium oparte na skali porządkowej ............................................................. 415
6.1.3
Kryterium oparte na skali interwałowej ............................................................. 417
6.1.4
Kryterium oparte na skali ilorazowej .................................................................419
6.1.5
Kryterium integralne .......................................................................................... 420
6.2 BADANIA ZALEŻNOŚCI ZMIENNYCH ..............................................................................421
6.2.1
Metoda najmniejszych kwadratów .....................................................................421
6.2.2
Test chi-kwadrat .................................................................................................423
6.2.3
Test Wilcoxona-Manna-Whitney’a .....................................................................425
6.3 ANALIZA PEST(LE) .....................................................................................................427
6.3.1
Tablica czynników PEST ....................................................................................428
6.3.2
Scenariusze PEST............................................................................................... 431
4
6.4 ANALIZA GE-MCKINSEY ............................................................................................. 432
6.4.1
Atrakcyjność rynkowa sektora............................................................................433
6.4.2
Ustalanie pozycji rynkowej ................................................................................435
6.5 ANALIZA PORTFELOWA BCG ....................................................................................... 436
6.6 ANALIZA SWOT WERSJA QUASI-ILOŚCIOWA................................................................ 438
6.6.1
Analiza czynników .............................................................................................. 440
6.6.2
Macierz interakcji SWOT ...................................................................................443
6.7 METODA MACIERZY LOGICZNEJ LFA ...........................................................................447
6.7.1
Projekt inwestycyjny w ramach EFRR ............................................................... 449
6.7.2
Matryca logiczna dla strategii ...........................................................................451
6.8 OBLICZENIA WARTOŚCI DLA OPCJI................................................................................451
6.8.1
Wartość podstawowa opcji.................................................................................452
6.8.2
Symulacja wartości opcji metodą Monte Carlo .................................................457
LITERATURA PRZEDMIOTU............................................................................................. 459
SPIS ILUSTRACJI .....................................................................................................................471
SPIS TABEL ............................................................................................................................. 473
5
Wstęp
Zapyta ktoś skąd wziął się tytuł biała księga zarządzania i co to oznacza?
Otóż jest to najlepsze określenie tego, co chciałbym przekazać czytelnikowi w tej
książce. Jest to coś, co stanowi podsumowanie rozważań modelowania konceptualnego i semantycznego w odniesieniu do całości struktury zarządzania, które
ma być wspomagane w jakikolwiek sposób komputerowo. Biała księga określa,
jak sformułować zarządzanie jako model koncepcyjny, prowadzący do tworzenia bazy znaczeniowej dla procedur (modeli semantycznych), dobrych praktyk
oraz sposobów rozwiązywania trudnych kwestii w codziennej działalności, tak
menedżera praktyka, jak i naukowca. Biała księga pomaga również w tworzeniu
reprezentacji formalnych zagadnień niematematycznych, które następnie da się
przetworzyć na język informatyki. To jest jakby model syntetyczny całego zbioru
modeli, analogii i metafor, które w naukach o zarządzaniu funkcjonują od zarania na różnych poziomach jego interoperacyjności w działalności gospodarczej.
Książka „Biała księga zarządzania” stanowi rekapitulację moich doświadczeń prowadzenia firmy IT oraz pracy ze studentami w kontekście problemów
z pisaniem sensownych prac magisterskich i licencjackich. Uważam, że największym problemem we współpracy promotor-magistrant jest różnica oczekiwań
tego pierwszego i możliwości twórczych tego drugiego. Faktem jest, że większość studentów traktuje prace dyplomowe jedynie jako niemiły obowiązek, którego celem jest uzyskanie kwitu, a nie ujawnienie rzetelnej wiedzy, użytecznej
dla innych. Stąd miernota i sztampa tematyczna królują w produkcji kolejnych
magistrów półgłówków, ale zgodnie z bolońską ideologią i biurokratycznymi
ramami kompetencji, dzielnie pielęgnowanymi przez uczone gremia komisji
akredytacyjnych. W tym, ogólnym nieporozumieniu zwanym edukacją wyższą
zagubiła się gdzieś akademickość kształcenia, na rzecz hipertekstu, manuali,
przypadkowości tematycznej i braku logiki w programach nauczania oferowanych przez kolejne wyższe szkoły gotowania na parze i ognisku.
Rozmycie rzetelnej wiedzy naukowej w zakresie zarządzania na rzecz beletrystycznych opracowań o kulturze organizacji, bajań o kapitale intelektualnym
oraz roli gender w zarządzaniu zorzami polarnymi, oddala coraz bardziej problematykę od twardej wiedzy wpieranej pomiarem, kwantyfikacją i oparcia wyniku na sprawdzalnych teoriach. To właśnie skłania mnie do napisania pracy
fundamentalnej, porządkującej wszystko to, co moim zdaniem jest wartościowe
w zarządzaniu i co stanowi fundament rzetelnej wiedzy w tym zakresie. Jeżeli
chcemy coś zmieniać lub naprawiać, musimy zacząć od definicji i formalizacji
pojęć. Tylko język formalny pozwala na mierzalność i daje nadzieje na stworzenie teorii objaśniającej, natomiast miejsce beletrystyki jest w dziale literatury
pięknej. Bez tego na wyjściu rozważań otrzymamy opowiadania i teorie deskryptywne dla ornitologa obserwatora, a nie objaśniające.
6
Wspomaganie problematyki dostępu do wiedzy syntetycznej na temat zarządzania i jego otoczenia polegać powinno na udostępnianiu odnośników do
najnowszej literatury przedmiotu oraz pokazywaniu multidyscyplinarności zarządzania, jako wiedzy zbliżonej do prawdziwości sądów o faktach, ale również
sztuki praktycznego działania weryfikowalnych teorii. Menedżer powinien
orientować się bardzo dokładnie, gdzie może znaleźć dane wskaźnikowe i prognostyczne. Powinien poznać sposoby jak skorzystać z danych statystycznych,
żeby mógł ograniczyć poziom niepewności decyzyjnej oraz ryzyka działalności
gospodarczej, którą zarządza lub którą chce podjąć. Stąd wiedza ogólna, dotycząca praw ekonomicznych, zagadnień społecznych, elementów psychologii, filozofii nauki oraz metod wypracowanych przez teorię zarządzania jest niezbędna, żeby w oparciu o opracowania dotyczące szczegółowej tematyki, menedżer mógł zbudować własne reguły postępowania i dobre praktyki. Ukazać to
wszystko w formie syntetycznej jest fundamentalnym celem niniejszej monografii.
Książka składa się z czterech części. W pierwszej starałem się opisać kontekst zarządzania i jego otoczenie, czyli to, co uzasadnia działania zarządu i
wskazuje ogólne reguły postępowania wobec ciągłych zmian dziejących się ekosystemie każdego biznesu. Część druga dotyczy podmiotu i przedmiotu zarządzania, ukazując rolę organizacji w teorii i praktyce oraz opisy formalne umożliwiające pomiar stanu i jego kontrolę w czasie. Część trzecia dotyczy metod wypracowanych przez ponad 100 lat istnienia teorii zarządzania i sposobów użycia
wiedzy nagromadzonej w tym okresie, a odkrywanej za każdym razem na nowo,
gdy kolejne władze zmieniają zagmatwane prawo gospodarcze wraz z menedżerami swoich kluczowych organizacji. Tam również znajdują się praktyczne opisy
wybranych działań przez lata praktyki ugruntowanych. W części czwartej
przedstawiam zarządzanie wymierne wraz z przykładami zastosowania metod
pomiarowych, a więc to, co leży po naukowej stronie rozważań teoretycznych,
określonych przez demarkację selekcjonującą dla problematyki nauk o zarządzaniu jako naukowe.
Jak to trafnie ujął W. Deming „In God we trust. The rest must bring data”. Tak
właśnie ma być w prawidłowo zarządzanej organizacji – menedżer ma przedstawić wynik mierzalny, choćby po to, żeby naliczyć podatki lub ustalić swoją pozycję ekonomiczną w danej chwili czasu. Dlatego przedstawienie metod pomiarowych, dostępnych w konkretnych problemach decyzyjnych lub procesach biznesowych, wydaje się szczególnie ważne. Wiąże się to również z budowaniem
kryteriów ocen aksjologicznych w kategoriach „dobre” – „złe” oraz „racjonalne”
– „nieracjonalne”. Jest to wiedza zbyt słabo prezentowana w polskiej literaturze
przedmiotu i programach nauczania, gdzie dominują opowieści w temacie miałkich zagadnień społecznych oraz metaforyczne, głównie werbalne odniesienia
7
do „twardych” modeli zaczerpniętych z poważniejszych nauk. Dlatego w niniejszej książce zawarłem, jako dodatek, opisy ukazujące metody użycia niektórych
ilościowych lub quasi-ilościowych technik analitycznych, szczególnie użytecznych w pracy menedżera.
Książka przeznaczona jest przede wszystkim dla piszących prace dyplomowe, magisterskie oraz rozprawy doktorskie, chcących zrozumieć szerzej procesy relacji organizacja-otoczenie oraz zasady ujęcia systemowego w budowaniu
wiedzy. Z pewnością będzie przydatna dla autorów, ułatwiając dobranie metod
badawczych, analitycznych oraz dotarcie do wartościowej literatury przedmiotu
w łatwy sposób. Również studenci kursu magisterskiego mogą znaleźć niniejszą
monografię jako użyteczny podręcznik syntetyczny porządkujący wiedzę z obszaru kilku przedmiotów z siatki godzin kierunków zarządzania. Dotyczy to
przede wszystkim wykładów: „podstawy zarządzania”, „nauka o organizacji”,
„pomiar i analiza w zarządzaniu”, „podejmowanie decyzji” oraz „zarządzanie
zmianami”. Liczne rysunki, schematy oraz bogactwo danych literaturowych powinny pomóc każdemu wykładowcy w opracowaniu przeźroczy do zajęć, a
kompletność wiedzy ogólnej zawarta w monografii, powinna wystarczyć na
szybkie wybranie informacji dotyczących większości tematów związanych z zarządzaniem.
Specjalną uwagę w książce poświęcam menedżerom i kandydatom na
przedsiębiorców. Dla nich przedstawiam to, co decyduje o bezpiecznym podejściu do biznesu. Zwracam uwagę na konieczność uczenia się przez całe życie, a
także na ciągłą niepewność towarzyszącą działalności gospodarczej i wynikający
stąd obowiązek stałego monitorowania pewnych danych, jeżeli myśli się o sukcesie. Imperatywem kategorycznym każdego menedżera jest pomiar, a zatem
wykorzystanie metod zawartych w tej monografii. Ich znajomość ułatwia nawiązanie dialogu z naukowcem lub konsultantem w zakresie optymalizacji i zabezpieczenia własnego interesu przez turbulencjami płynącymi z otoczenia.
Liczę, że książka zostanie uznana za przydatną pozycję w literaturze przedmiotu, czego każdy autor sobie życzy, a co może zostać zweryfikowane wyłącznie przez opinie czytelników. Traktuję tą monografię jako egzamin samego siebie z zakresu zarządzania. Większość zagadnień opisanych miałem okazję
sprawdzić w praktyce. Znalazły się tu również moje oprcowania z obszaru zastosowań teorii pomiaru, metod filozofii nauki oraz ujęć systemowych. Będę zatem wdzięczny za wszelkie uwagi, które mogą poprawić tą książkę.
Tadeusz Gospodarek
8
1 Kontekst zarządzania
Rozważania nad podstawami zarządzania należy rozpocząć od zapoznania
się z kontekstem działalności gospodarczej. Fundamentem wszelkich przejawów działalności gospodarczej jest człowiek, jego potrzeby i natura (pożądanie,
chciwość, lenistwo…). Stąd pojawia się kwestia wartości jako kluczowy element
wyrażania sensu działań gospodarczych. Z faktu generowania i konsumpcji
dóbr wynika stratyfikacja ekonomiczna i kulturowa społeczeństw. Tworzą się
systemy społeczne, wyróżniające się poziomem kultury, zdolności produkcyjnych oraz skutecznością gospodarowania, w których funkcjonuje wartość. To
wszystko generuje aktywność wytwórczą grup ludzkich, tworzących podmioty
gospodarcze, łączących się w organizacje, grupy i inne struktury poprawiające
efektywność funkcjonowania wartości na danym obszarze. Takimi systemami
gospodarczymi można sterować, ale tylko w ograniczonym zakresie. Są to bowiem struktury samoreflekyjne i inteligentne. Ich ewolucja podlega procesom
dynamicznej adaptacji do coraz szybciej i głębiej zmieniającego się otoczenia. To
właśnie stanowi tło zarządzania. Zrozumieć środowisko i jego zmienność. Wówczas reguła przekory Le Châteliera1 pozwoli na dobre określenie parametrów
sprzężeń zwrotnych, umożliwiających optymalne działanie systemów gospodarczych oraz utrzymanie stanu równowagi dynamicznej mikro-makro oraz
makro. Ten sam kontekst pozwala na interpretację wyników zarządzania organizacją na tle analogicznych pomiarów w sektorach gospodarczych, kraju, kontynentu czy świata. Pozwala na stworzenie kryteriów oceny aksjologicznej i definiuje kierunki działań optymalizacyjnych. Dlatego kontekst jest tak ważny we
wszelkich analizach zarządzania i ekonomii. Nie da się analizować stanów mikro bez makro. Dzięki temu nie można przyjąć, że takie same działania w skali
mikro przyniosą wszędzie identyczne rezultaty. Po prostu zależy to od otoczenia.
Otoczenie wymusza na każdym systemie generującym wartość określone
zachowania, które ten w elastyczny sposób dostosowuje do sytuacji ad-hoc. W
ten sposób systemy adaptatywne zorientowane są na wykorzystywanie okazji
pojawiających się w otoczeniu, jak również na procesy ciągłej reorientacji własnych celów oraz strategii, oparte na sprzężeniach zwrotnych zarówno dodatnich, jak i ujemnych. Może stąd wynikać niemożliwość istnienia w pewnych sytuacjach najlepszej metody zarządzania lub osiągnięcia zakładanego wyniku
ekonomicznego, albowiem to zmienność otoczenia wprowadza wysoki poziom
Hatta T., "Le Châtelier principle," The New Palgrave: A Dictionary of Economics, 3, (1987), s. 155–57
1
9
niepewności wyniku oraz ryzyka, a w dodatku mogą zmieniać się metody pomiaru w czasie. T. Burns i G. Stalker2, oraz P. Lawrence i J. Lorsch3 stwierdzili,
że nie ma najlepszej formy organizacji, albowiem zależy ona od czynników środowiskowych, które decydują o dostępności określonych zasobów dla systemu generującego wartość. Koncepcja ciągłej autoadaptacji do warunków otoczenia nazywa się teorią kontyngencji (teorią wpływów) i opiera się na następujących założeniach4:
 Organizacje generujące wartość stanowią systemy otwarte, które wymagają ostrożnego zarządzania w celu utrzymania równowagi wewnętrznej i dostosowania się do
warunków otoczenia.
 Nie istnieje jeden, najlepszy sposób budowy organizacji. Odpowiednia jej forma zależy od jej celów i zadań oraz możliwych oddziaływań z otoczeniem.
 Zarząd musi być zainteresowanych przede wszystkim osiągnięciami dobrego dopasowania do zmienności środowiska.
 Różne rodzaje lub formy organizacji są potrzebne w zależności od środowiska bizne-
sowego.
Rys. 1.1 Modelowanie zarządzania organizacją w ujęciu teorii kontyngencji.
Dla jasności wywodu, konieczne jest zatem poznanie fundamentalnych
aspektów kontekstu gospodarki rozumianego jako ekosystem biznesu.
Burns, T., Stalker, G. M., “The Management of Innovation”, London: Tavistock, 1961,
http://uk.sagepub.com/sites/default/files/upm-binaries/27412_8.pdf
3
Lawrence, P. R., Lorsch, J. W., “Organization and Environment: Managing Differentiation and Integration”,
Boston, MA: Harvard University, 1967.
4
Morgan G., “Obrazy organizacji”, Wydawnictwo Naukowe PWN, Warszawa, 1997.
2
10
1.1 System społeczny z funkcjonującą wartością
Dowolna wartość przejawia się w układzie interesariuszy człowiek lub grupa ludzi
– byt stanowiący wartość – otoczenie (rys. 1.2). Taki układ, w którym zdefiniowano
wartość, jako pewien pozytyw przynoszący określoną korzyść dowolnemu interesariuszowi nazwiemy układem wartości. W tym układzie wyróżniamy system z funkcjonującą wartością jako kluczowego interesariusza. Celem działania
tego systemu jest ciągłe ustalanie czym jest wartość, jak ją mierzyć, jak oceniać i
jak ma ona bytować w układzie wartości5. To fundamentalne założenie ustanawia rolę wartości jako nośnika określonych korzyści dla dowolnego z interesariuszy, należącego do układu wartości, w którym ona funkcjonuje. Tym samym
wartość ma charakter bytu, który bądź to sam z siebie jest wewnętrznie dobry,
bądź stanowi cechę innego, pozostającego z nią w relacji bytu, uznawanego
przez system jako pewien pozytyw.
Rys. 1.2 Funkcjonowanie układu wartości.
Przez bytowanie należy rozumieć wszelkie przejawy funkcjonowania wartości, w tym jej kreowania, wymiany, anihilacji, zmiany, etc.
5
11
Z faktu, że wartość bytuje w określony sposób gdzieś w układzie wartości,
pojawia się również kwestia istnienia w tym układzie podsystemów: posiadających, generujących, ustalających, przejmujących i wpływających na wartość.
Mogą to być przedsiębiorstwa komercyjne, organizacje non profit, rzemieślnicy,
twórcy, konsumenci, sprzedawcy, media, etc. Są oni uczestnikami łańcuchów
wartości w sensie Portera6 (rozdział 2.2), globalnych łańcuchów dostaw7 oraz
nadbudowy etycznej, moralnej i filozoficznej związanej z normami społecznymi,
prawnymi, dobrym obyczajem. Aby ustalić racjonalność własnej produkcji dóbr,
wartość konsumpcji, czy też wartość rynkową, te podsystemy muszą definiować
i mierzyć wartość, która następnie może zostać weryfikowana przez otoczenie,
będące de facto jej adresatem.
Dla określenia wartości konieczne jest wprowadzenie pewnego konstruktu
logicznego, na który składa się:
 system z funkcjonującą wartością (zbiór interesariuszy, organizacja),
 zbiór korzyści rozumianych jako stany psychofizyczne lub emocjonalne interesariuszy, wynikające z pozyskania danego pozytywu (który albo sam
stanowi wartość albo posiada cechę wartości),
 reprezentacji wymiernej korzyści wnoszonych przez dany pozytyw,
 zbiór zasobów (w tym zasoby wiedzy i doświadczenie) umożliwiający realne tworzenie pozytywów,
 zbiór użyteczności tego pozytywu, przekładających się na zbiór korzyści.
Wyobraźmy sobie teraz jak funkcjonuje system definiujący wartość. Otóż
ma on określone potrzeby i zasoby (w tym pieniądze) umożliwiające uruchomienie procesów ich zaspakajania. Z drugiej strony, system może generować wartość dysponując wiedzą, kreatywnością, przedsiębiorczością oraz możliwością
wykonania pracy, które to cechy można wymierzyć metodami oceny pozostającymi do dyspozycji, a następnie ustalić za pomocą posiadanych kryteriów wartość podjętych działań oraz poziom zaspokojenia potrzeb. Nie odbywa się to jednak ani w próżni, ani w izolacji od otoczenia. Dla całości działania systemu ekosystem biznesowy (otoczenie) wnosi: procesy wytwórcze, łańcuchy dostaw, towary i usługi oraz warunki funkcjonowania systemów generujących lub przejmujących wartość, możliwe do ustalenia metodą PESTLE8 (rozdział 6.3). Ale
żeby możliwe było funkcjonowanie wartości w takim układzie, konieczne są co
najmniej cztery elementy, którymi musi dysponować system:
Porter M. E., “Competitive Advantage”, Free Press, New York, 1985
Neace M.B., Gospodarek T., Neace X.G., „Global supply chains as holistic systems: an expanded perspective”, International Journal of Economics and Business Research, Vol 5, No 2, (2013), 165-182 http://gospodarek.eu/publikacje/Global%20Supply%20Chain%20as%20Holistic.pdf
8
Gospodarek T., „Zarządzanie dla racjonalnego menedżera”, DIFIN Warszawa, 2014.
6
7
12
 zdefiniowany zbiór korzyści możliwych do wyrażenia za pomocą akceptowalnej
miary i skali (np. w jednostkach kapitałowych lub bezwymiarowej punktowej
oceny porównawczej albo w kategoriach dobra i zła),
 zbiór zasobów i kluczowych kompetencji umożliwiających powstawanie lub
przejmowanie wartości w układzie z funkcjonującą wartością,
 zdefiniowany zbiór użyteczności odpowiadających potrzebom, które mogą zostać zaspokojone za pomocą określonych pozytywów (towarów, usług lub
stanów psychofizycznych interesariuszy),
 zbiór informacji powiązanych z wartością, możliwych do uwiadomienia przez
system i nadających się do przetwarzania w układzie wartości.
Zachodzą przy tym następujące fakty, przedstawione za pomocą układu relacji
zwrotnych i przechodnich, przedstawionych na rys. 1.2
1. Bez zasobów nie powstanie kapitał9. Bez kapitału nie powstaną wartościowe zasoby.
Zasoby stanowią to, co pozwala generować wartość lub ją przejmować. Jest
to ogólne pojęcie, które zawiera w sobie zarówno środki trwałe, jak i wiedzę,
zasoby ludzkie oraz kapitał. W teorii zarządzania ujęcie zasobowe stanowi
ważną teorię (RBT)10. Wartościowe zasoby i kluczowe kompetencje są tym,
co pozwala generować wartość i zajmować odpowiednią pozycję na rynku.
Kapitał zaś, w relacji do zasobów, stanowi reprezentację ilościową tychże
wartości, umożliwiając wyrażenie wartości w umownych jednostkach pieniężnych. Kapitał, będąc jednocześnie zasobem i równoważnikiem wartości,
stanowi siłę sprawczą dla tworzenia zasobów wartościowych i umożliwia
ich utrzymanie w stanie gotowości do kreowania określonych użyteczności
oraz korzyści.
2. Wartość nie istnieje, jeżeli obiekt wartościowy nie jest użyteczny w jakimkolwiek
sensie. Nie istnieje bowiem użyteczność bezwartościowa. Korzyścią dla systemu
wartościującego jest z pewnością zaspokojenie jego potrzeb. To może być
zrealizowane przez pozyskanie określonych dóbr lub usług (w szerszym
sensie, np. prawa, norm etycznych, etc.). Dobra te są z definicji użyteczne, a
zatem mają wartość, podobnie jak zasoby wartościowe. Co więcej mogą one
zasilić zbiór wartościowych zasobów systemu.
3. Wartość pozostaje w równowadze dynamicznej z kapitałem z nią powiązanym – kapitał sam z siebie stanowi wartość (intrinsic value). Kapitał jest reprezentacją wymierną wartości. Ten ciąg sądów stanowi kluczowe stwierdzenie na temat
miary wartości, definiując zarówno jej jednostkę i skalę. To samo dotyczy
Kapitał należy w tym miejscu rozumieć szerzej, niż u K. Marksa. Może to być dowolna forma określonego
potencjału oddziaływania systemu na otoczenie, rozróżniana w teorii zarządzania jako, np. kapitał ludzki,
kapitał społeczny, kapitał organizacyjny, kapitał intelektualny, kapitał relacyjny, etc. Szerzej na ten temat
pisałem w pracy „Aspekty złożoności i filozofii nauki w zarządzaniu”, str. 174-181.
10
Barney J. B., Clark D. N., “Resource Based Theory. Creating and Sustaining Competitive Advantage”,
Oxford University Press, Oxford, 2007.
9
13
oszacowania zasobów. Mogą one zostać ocenione jako wartościowe na podstawie miary użyteczności, ale również mogą być reprezentowane wartościowo poprzez ilość pieniądza, który można za nie otrzymać.
4. Użyteczność nie powstanie bez wartościowych zasobów. Wartościowe zasoby są z
definicji użyteczne i przynoszą korzyść ich posiadaczowi. To twierdzenie umożliwia przede wszystkim ustalenie, że zasoby są konieczne do generowania
wartości oraz to, że zasób może być wartością lub być wartościowym. Jeżeli
zgadzamy się z tym sądem, to z punktu widzenia teorii ekonomii i zarządzania, wszelkie teorie dotyczące zasobów odnoszą się bezpośrednio do teorii
wartości i budowania reprezentacji ilościowych. To jest bardzo istotny element w obronie pozycji teorii zasobowej zarządzania, jako wymiernego modelu reprezentatywnego stanu organizacji. Szerzej o roli teorii zasobowej i
koncepcji systemowej organizacji można znaleźć w rozdziale 2.1.
5. Korzyść stanowi warunek przemiany użyteczności na kapitał z udziałem zasobów.
Nie można ustalić wartości bez ustalenia wymiernej korzyści dla użyteczności. To
oznacza, że definiowanie wartości opiera się na korzyściach, które niesie ze
sobą dany pozytyw. Może on być użyteczny w jakimkolwiek sensie, również
metafizycznym (np. wzbudza pozytywne doznania z patrzenia na niego).
Żeby jednak daną użyteczność pozyskać, konieczne jest zaangażowanie odpowiednich zasobów, co może być równoważne zaangażowaniu odpowiedniego kapitału. Tym samym dla działań w zamkniętym układzie korzyśćzasoby-kapitał-użyteczność istnieje równoważność wartości, korzyści i użyteczności wyrażanej za pomocą kapitału albo wkładu kreatywności zasobów
w wygenerowanie danego pozytywu.
Powyższe kwestie pozwalają również zrozumieć problem odróżnienia wartości w sensie ekonomicznym (tej wymiernej w pieniądzu lub innej formie wymiennej) od wartości rozumianej jako dobro o niemierzalnych bezpośrednio korzyściach (np. pokój na danym terytorium, czyste środowisko, swoboda przemieszczania się…). Pewne dobra, takie jak woda, powietrze czy ciepło są pozytywami wewnętrznie dobrymi, a jednocześni stanowią wartościowe zasoby. Bez
nich nie byłoby możliwe życie i istnienie systemu z funkcjonującą wartością.
1.1.1 Człowiek w systemie generującym wartość
W rozważaniach nad wartością warto zająć się rolą człowieka w systemie
generującym wartość i posługującym się nią. Jest to związane z działalnością gospodarczą człowieka, jako unikatowym zjawisku. Należy mu przypisać domeny
aktywności, nie dające się zastąpić przez żadne systemy fizykalne, nie dające się
zmierzyć wprost, a przy tym stanowiące istotne aspekty zarządzania oraz ekonomii.
 Przedsiębiorczość i innowacyjność – zdolność do działań prowadzących do pozyskania wartościowych dóbr, wprowadzania ich do otoczenia, nadzór nad
14





ich funkcjonowaniem, wymiana dóbr na równoważniki wartości, stanowiącą
cechę jednostki ludzkiej albo zorganizowanej grupy ludzi.
Tworzenie dzieł sztuki i bytów metafizycznych – zdolność do tworzenia dóbr służących zaspokojeniu potrzeb estetycznych, transcendentalnych i poznania.
Przykładem może być matematyka i filozofia, jako baza dla opisów rzeczywistości oraz muzyka jako ciąg dźwięków sprawiających przyjemność tym, którzy potrafią słuchać.
Podejmowanie i wykonanie decyzji – zdolność do rozwiązywania problemów w
sposób wariantowy, połączona z analizą ilościową i jakościową oraz racjonalizacją wyboru najlepszego wariantu. Elementem decyzji jest przekazanie informacji przez podejmującego decyzję i jej użycie przez wykonawcę pozostającego w relacji niezależnie od intencji, czy też konsekwencji wdrożenia działania.
Prowadzenie badań naukowych – specyficzna zdolność do odkrywania prawdy
na temat otaczającej nas rzeczywistości, związana z wykorzystaniem heurystyki, eksperymentu i wiedzy a priori. W wyniku badań naukowych powstaje
wartość, a czasem wartość ukryta zostaje w ich wyniku ujawniona.
Komunikowanie się i kreowanie zasobów wiedzy – zdolność do przekazania informacji do odbiorcy i jej zrozumienie przez adresata, a następnie dokonania jej
filtracji i przetworzenia na wiedzę oraz wartościowe zasoby, umożliwiające
generowanie wartości opartej na wiedzy, albo dodanie wartości do istniejących dóbr, zmieniające ich funkcjonalność lub użyteczność.
Tworzenie wartościowych zasobów i kluczowych kompetencji – zdolność do akumulacji dóbr materialnych i niematerialnych klasy VRIN11 oraz nabywanie
kluczowych umiejętności i kompetencji12, umożliwiających kreację wartości
przez systemy generujące wartość. Kreowanie unikatowych zasobów oraz
VRIN – Określone, kluczowe zasoby organizacji niezbędne do wdrożenia strategii kreowania wartości
przez organizacje. Są one scharakteryzowane przez cztery cechy:
1. VALUABLE – Zasoby muszą umożliwić wdrożenie strategii kreującej wartość, albo poprzez prze-wagę
konkurencyjną albo redukcję słabości. Istotnym jest że inwestycja w zasoby musi być niższa niż NPV
po określonym czasie, a IRR musi być większa niż zakładane dyskonto.
2. RARE – Unikatowość zasobu wartościowana jego cechą rynkową, jako generującego stosowny NPV
oraz pozycję rynkową organizacji. Taka unikatowość jest szczególnie widoczna przez ze-wnętrznego
obserwatora (wycena akcji).
3. IN-IMITABLE - Jeżeli jakiś zasób kontrolowany przez organizację stanowi źródło jej przewagi konkurencyjnej, wówczas ta przewaga będzie trwała do momentu do którego konkurenci nie będą w stanie
wytworzyć imitacji zasobu. (Czasami trudno jest ustalić skąd pochodzi przewaga, zwłasz-cza gdy wymiana kapitałowa organizacji oparta jest na wiedzy).
4. NON-SUBSTITUTABLE – Nawet jeżeli zasób unikatowy nie jest imitowalny, istnieje zawsze ryzy-ko
znalezienia rozwiązań alternatywnych i możliwość zastąpienia go. Stąd utrudnienia naśladow-nictwa
przez konkurencję stanowią istotny aspekt funkcjonowania organizacji.
12
Prahalad C.K., Hamel G., “Kluczowe kompetencje” Harvard Business Rev, vol. May-June, (1990), 7990. http://www.profrandes.com.br/wp-content/uploads/2013/03/Core-Competence-of-the-Corporation.pdf
11
15





budowanie kluczowych kompetencji stanowi jeden z celów działalności gospodarczej opisywany w teorii zasobowej zarządzania13.
Budowanie układów relacji oraz struktur organizacyjnych. System generujący wartość może być rozpatrywany jako układ interesariuszy, którzy powinni zostać
skompensowani w sposób zoptymalizowany w sensie Pareto. To oznacza, że
organizacje związane z generowaniem i bytowaniem wartości w otoczeniu są
strukturami ludzi powiązanych ze sobą relacjami wewnętrznymi oraz relacjami z sieciami zewnętrznymi (formalnymi i nieformalnymi) w celach prowadzenia działalności kreatywnej.
Tworzenie struktur społecznych, ekonomicznych oraz władzy. Ludzie łączą się w
grupy według określonych preferencji (religia, zasady moralne, cele, potrzeby, interesy) w wyniku czego wyłaniają się przywódcy oraz struktury hierarchiczne lub wyspecjalizowane podgrupy, narzucające swoje reguły współistnienia pozostałym. W ten sposób powstają państwa, organizacje, korporacje, sieci prowadzące do tworzenia nowych wartości społecznych, często
sprzecznych z interesami jednostki.
Podejmowanie ryzyka i prognozowanie. Ryzyko wynika z niepewności oszacowania skutków podjęcia określonej decyzji i jej wdrożenia (podjęcie działań).
Wiąże się to z prawdopodobieństwem poniesienia określonej straty (wartość
ujemna). Ale ewentualne korzyści w przypadku pozytywnych rezultatów
mogą przeważać potencjalne straty, co jest racjonalnym impulsem do podjęcia działań. Aby obniżyć ryzyko, człowiek lub system dokonuje prognozy
skutków podjęcia działań. Jest to ważny aspekt generowania wartości.
Definiowanie wartości i jej reprezentacji. Próby definiowania wartości są tak
stare, jak dzieje ludzkości, a jej wyrażanie w formie pieniężnej znane było ludziom starożytnym. Jednak uogólnienie wartości jako wynik aksjologicznej
analizy wielokryterialnej jest sam z siebie zagadnieniem złożonym, niosącym
znaczny ładunek subiektywizmu, a czasami demokratycznego wyboru. To
jest znamienne ludzkiemu działaniu i powoduje, że do dnia dzisiejszego nie
ma w pełni akceptowalnej teorii wartości ani sądów pewnych co do jej bytowania w otoczeniu.
Podejmowanie inteligentnych działań odkrywczych. Ciekawość świata była i jest
domeną natury ludzkiej. Wielkie odkrycia geograficzne, podróże w kosmos,
czy też zejście na dno Rowu Mariańskiego stanowią przykłady działań odkrywczych. To prowadzi zwykle do odkrywania nowych wartości albo konwersji wartości ukrytej do jawnej i wymaga złożonych działań inteligentnych,
których nie da się zautomatyzować, ani przedstawić formalnie. Wykorzystanie sprzężeń zwrotnych, reguły przekory, czy zasad minimum (np. minimum
Gospodarek T., „Aspekty złożoności i filozofii nauki w zarządzaniu”, Wydawnictwo WWSZiP, Wałbrzych, 2012; http://www.gospodarek.eu/publikacje/Filozofia%20nauki%20zarzadzanie.pdf
13
16
działania) jest fundamentem inteligentnych optymalizacji i pozwala na generowanie wartości dodanej.
 Uczenie się, samorefleksja i sterowanie z wykorzystaniem sprzężeń zwrotnych. Systemy inteligentne będące zbiorowościami ludzkimi, do których można zaliczyć systemy dysponujące wartością lub generujące wartość, charakteryzują
się zdolnością do uczenia się, przekazywania wiedzy oraz wnioskowania o
faktach na podstawie danych dostarczanych z otoczenia w procesach sprzężenia zwrotnego. Takie zachowania można nazwać samorefleksją nad stanem
systemu, co umożliwia projektowanie i prognozowanie rozwoju w czasie w
sposób pożądany (wartościowy). W ten sposób zasoby wiedzy służą generowaniu wartości dodanej przez system.
Powyższe cechy stanowią o złożoności działań w obszarze generowania dóbr,
ich konsumpcji i posługiwania się wartością, przenosząc cechy złożoności na zagadnienia ekonomii, teorię zarządzania i nauki społeczne. Jednocześnie wskazują one na brak możliwości utworzenia ścisłej definicji i kwantyfikacji stanu
systemu generującego wartość, w tym zupełności opisu formalnego procesów
biznesowych.
1.1.2 Zasady etyczne i normy moralne
W każdej tradycji moralnej złota zasada postępowania, którą najlepiej wyraża sentencja „Nie czyń drugiemu, co tobie niemiłe” wydaje się być powszechnie
akceptowalnym fundamentem ludzkiego zmysłu etycznego. Na tej zasadzie
chciało by się budować relacje społeczne, biznesowe i systemowe. Ale istnieją
również dwie inne zasady: zasada klina „Daj palec – weźmie rękę” oraz „Kropla
drąży skałę” mające powszechne zastosowanie w relacjach gospodarczych, politycznych i społecznych. Ponadto znana jest również z obserwacji otoczenia alegoria równi pochyłej w odniesieniu do zasad etyki i moralności, kiedy to po pewnym czasie od rozpoczęcia działań, które nadwątliły fundamentalne reguły postępowania i współżycia społecznego, zadajemy sobie pytanie – jak do tego doszło?
Te przykłady wskazują, jak erozja norm moralnych albo pozornie błahe działania nieetyczne powoli, ale systematycznie prowadzą do nieodwracalnych zmian,
których nikt się nie spodziewał, podejmując intencję poluzowania ustalonych zasad. Tak oto wyłania się fundamentalny problem działalności biznesowej i zarządzania, wynikający z podstaw konsekwencjalizmu, który można wyrazić kolejną przypowieścią: „Cokolwiek czynisz, czyń rozważnie i patrz końca”.
Istnieją różnego rodzaju obiektywnie prawdziwe fakty, niezależne od nas
(np. opis naukowy eksperymentu, zjawisko przyrodnicze). Istnieją również
fakty etyczne, odnoszące się do rzeczy w świecie, które mogą być dobre lub złe.
G.E. Moore wprowadził pojęcie „błędu naturalistycznego”, polegającego na
utożsamianiu pojęć etycznych z pojęciami naturalnymi. „Dobro oznacza mniej więcej zawsze to samo co przyjemność ale pozostaje kwestią otwartą, czy przyjemność jest
17
zawsze dobrem”14. Problemem fundamentalnym etyki, który równie mocno rysuje
się w ekonomii i zarządzaniu jest: W jaki sposób można przejść od twierdzenia opisowego, które zdaje relację z tego jak jest do twierdzenia normatywnego – jak być powinno.
Mamy bowiem wokół nas określoną sytuację społeczno polityczną i geopolityczną. Mamy szereg relacji w otoczeniu, ale czy z tego wynika jak powinny one
wyglądać, żeby uznać je za moralne i etyczne. Czy sytuacja zadłużania Polski
dla doraźnych celów politycznych jest etyczna?
Jesteśmy przekonani, że żyjemy w świecie fizycznym, który może być zrozumiany dzięki prawom odkrywanym przez naukę (świat faktów obiektywnych, z którego wartości są wyłączone). Ale wypowiadając sądy etyczne (np. że
ludobójstwo jest czymś złym), wypowiadamy pewną prawdę o świecie – coś,
czego możemy się dowiedzieć i jest prawdziwe niezależnie od naszego stosunku
do tej kwestii. Niestety sądy te są zwykle obarczone znaczącym subiektywizmem, co szczególnie ciekawie przedstawił A.N. Whitehead: „Moralnym jest to,
co większość w danym miejscu i czasie lubi. Niemoralnym jest natomiast to, czego większość nie lubi”. Co oznacza określenie „dobre etycznie” w relacji do zarządzania?
Czy osiągnięcie celu ekonomicznego przez organizację stosując, np. oszustwa
podatkowe można uznać za „dobre zarządzanie”? Czy wykorzystywanie do
pracy dzieci przez niektórych producentów elektroniki można uznać za element
„dobrego zarządzania”? Są to pytania o ograniczenia moralne, nakładane nie
tylko na zarządzanie ale na całość działań biznesu. Nad tym każdy menedżer
musi się zastanowić. Tego się nie ureguluje prawem stanowionym.
Problemem stosowalności złotej zasady postępowania zawsze wymaga dokładniejszych rozważań ze względu na konieczność określenia kontekstu oraz
warunków jej skuteczności i sensowności (określenie kryteriów etycznych) dla
danej kwestii. Zbytnie uszczegółowienie może prowadzić do utraty ogólności i
powstania poważnych wątpliwości przy budowaniu analogii do znanych przypadków. Dlatego odwołanie do kryteriów pragmatycznych (uwzględniających
kontekst) wydaje się być nieuniknione, a te kryteria są zmienne i nie zawsze
oczywiste. Np. jeżeli egoista powoła się na fakt, że „wszyscy postępują jak egoiści”, wówczas złota zasada stanie się niespójna i wewnętrznie sprzeczna. Żądanie spójności sformułowania sądu etycznego jest zatem kluczowym kryterium
stosowalności złotej zasady. Dotyczy to zwłaszcza tych, którzy kierując się moralną krótkowzrocznością, preferują partykularyzm interesu własnego lub reprezentowanej organizacji. Obserwujemy te zjawiska w Polsce co cztery lata
wraz z kolejnymi wyborami władz. Nie ma moralności, zwłaszcza tej prawdziwie demokratycznej – jest partykularny interes do zrobienia.
Problem ten w filozofii znany jest jako “gilotyna Hume’a”.
14
18
Fundamentalnym problemem moralnym każdego menedżera powinno być
postępowanie zgodnie z zasadami etycznymi. Dylemat przebiega na linii podziału etyki opartej na obowiązku (deontologizm), od tej opartej na konsekwencjach (konsekwencjalizm). Konsekwencjalizm wiąże się z problemami wyboru w
zarządzaniu najmniejszego zła oraz zasadą „Cel uświęca środki”. Deontologizm,
zakłada obowiązek za wszelką cenę (nie patrząc na konsekwencje). Wyraża się
to sformułowaniem imperatywu kategorycznego „Postępuj zawsze według maksymy, abyś mógł zarazem chcieć, by stała się ona podstawą powszechnego prawodawstwa
[I. Kant]”. Przy dokonywaniu osądu moralnego podjętego działania, kluczową
rolę odgrywają intencje podmiotu. Zgodnie z zasadą podwójnego efektu: działanie, które miało zarówno dobre, jak i złe efekty, może zostać usprawiedliwione, jeżeli intencje z którymi było podejmowane były dobre, a efekty negatywne były jedynie przewidywane a nie zamierzone. Zasada powyższa rozróżnia przewidywanie skutków
działania od intencji.
Konsekwencjonalista stwierdza, że na pytanie o to, czy działanie jest dobre
bądź złe, powinno się odpowiadać wyłącznie na podstawie konsekwencji stanowiących jego wynik. Działanie staje się jedynie środkiem prowadzącym do uzyskania pożądanego celu, a jego etyczna wartość określona jest przez efektywność
z jaką dany środek do celu prowadzi. Celem konsekwenconalisty jest stan rzeczy
(zadowolenia, równowagi), będący konsekwencją różnorodnych działań. Wybór
działań wynika z oceny konsekwencji z nich płynących.
Działania podejmowane w systemach deontologicznych mogą być w samym sobie złymi lub dobrymi z punktu widzenia konsekwencjonalisty (nie są
postrzegane wyłącznie jako środki prowadzące do celu). Działania takie posiadają samoistną wartość etyczną, a nie wyłącznie instrumentalną – osiągania celu.
Czyn jedynie wtedy jest moralnie dopuszczalny, jeżeli można zastosować do
jego oceny imperatyw kategoryczny stale i powszechnie wobec siebie oraz innych (wariant złotej zasady postępowania).
1.1.3 Zasady optimum działania
Ten rozdział warto zacząć od przedstawienia założeń utylitaryzmu, jako
kierunku etycznego myślenia, wynikającego bezpośrednio z konsekwencjonalizmu. Ma on ogromne znaczenie w postępowaniu ludzi oraz systemów generujących wartość. Z jednej strony oferuje stosowanie zasad optymalności podejmowanych działań w ramach normalnej aktywności życiowej, z drugiej zaś, próbuje
ustalić kryteria ocen moralnych oparte na użyteczności i „rachunku szczęścia”.
Dla utylitarysty intencja czynu nie ma większego znaczenia etycznego – ważne
jest tylko, czy daje on więcej efektów korzystnych czy szkodliwych. Działania są
19
dobre w takim stopniu, w jakim prowadzą do szczęścia, złe zaś, jeśli prowadzą
do przeciwnych uzyskania szczęścia15.
Działania powinny być osądzane jako dobre bądź złe w zależności od tego
czy zwiększają, czy zmniejszają ludzkie dobre samopoczucie (czyli czy są użyteczne). Poszczególne przyjemności różnią się jedynie cechami ilościowymi (czas
trwania oraz intensywność), abstrahując od charakterystyk jakościowych. J.S.
Mill uzupełnił to, wprowadzając „przyjemności wyższe i niższe”16. Z kolei J.
Bentham zaproponował wprowadzenie „rachunku szczęścia”, umożliwiającego
pomiar ilości przyjemności i bólu wywołanych przez określone działania17. Jego
teoria słusznych działań sprowadza się do hasła „największe szczęście dla największej liczby ludzi”. Stąd większość działań ludzkich w społeczeństwach hołdujących konsumpcjonizmowi wyznaje właśnie takie zasady za optymalne działanie
i tak zarządza dostępnymi zasobami, żeby rachunek szczęścia był najwyższy.
Warto zauważyć, jak dobrze ta zasada koresponduje z II prawem H. Gossena18 o
maksymalizacji przyjemności z konsumpcji przy ograniczonych środkach.
Rys. 1.3 Podstawowe prawa człowieka
Istnieje jednak jakiś ogólny i optymalny porządek moralny „prawo naturalne”, który wyznacza granice etyczne zachowań społecznych. Prawo naturalne
reprezentuje wartości samoistne, autonomiczne, uniwersalne i ponadczasowe,
które są przeciwstawiane prawu pozytywnemu, stanowionemu w danym czasie
Mill J.S., „Utylitaryzm”. 1863; http://www.earlymoderntexts.com/assets/pdfs/mill1863.pdf
Mill J. S., “Utilitarianism”, G.Sher Ed., 2nd Ed., Hackett Publishing Co. Inc., Indianapolis, 2001.
17
Bentham J., “Introduction to the Principles of Moral Legislation”, 1781 Batoche Books, Kitchener,
http://socserv2.socsci.mcmaster.ca/econ/ugcm/3ll3/bentham/morals.pdf
18
Gossen H.H., “Die Entwicklung der Gesetze des menschlichen Verkehrs und der daraus fließenden Regeln
für menschliches Handeln” (1854). Wersja angielska “The Laws of Human Relations and the Rules of Human
Action Derived Therefrom” (1983) MIT Press; Cambridge MA.
15
16
20
i miejscu przez określonych ludzi, zmienne na przestrzeni dziejów. Prawo naturalne ma uzasadniać (bronić) nienaruszalne prawa człowieka i jako takie jest
uważane za nadrzędne wobec prawa stanowionego, wobec czego zwolennik
prawa natury jest zwolniony z przestrzegania prawa stanowionego, gdy jest ono
z nim w sprzeczności. Koncepcje prawa natury poszukują odpowiedzi na pytania: jakie powinno być prawo stanowione, co to znaczy sprawiedliwość oraz czy
i kiedy można odmówić posłuszeństwa prawu stanowionemu. Jest to niewątpliwie jeden z najbardziej istotnych aspektów otoczenia ekonomii. Z prawa naturalnego wynikają bowiem prawa człowieka (rys. 1.3). Te prawa przekładają się
na zbiór potrzeb (rys. 1.4) dla godnego życia człowieka. I dlatego działania optymalne, zgodne z etyką utylitaryzmu można uznać za archetyp racjonalnego
zarządzania.
Rys. 1.4 Kostka prakseologiczna
Problematyką działań optymalnych zajmuje się prakseologia stanowiąca
konsekwencje zastosowania myśli konsekwencjonalizmu, rozwijana przez A.
Espinasa, T. Kotarbińskiego19,20,21, oraz L.von Misesa22,23. Zadaniem prakseologii
jest poszukiwanie najszerszych uogólnień odnoszących się do wszelkich form
świadomego i celowego działania, rozpatrywanego ze względu na sprawność;
konstruowanie i uzasadnianie dyrektyw praktycznych. Jest to poszukiwanie optymalności działania na wszelkich możliwych polach aktywności ludzkiej, w
Kotarbiński T., „Dzieła wszystkie. Traktat o dobrej robocie”, Wyd. Ossolineum, Wrocław , 2000.
Kotarbiński T., “Dzieła wszystkie. Prakseologia cz. I”, tom 6, Wyd. Ossolineum, Wrocław, 1999.
21
Kotarbiński T., “Dzieła wszystkie. Prakseologia cz. II”, tom 7, Wyd. Ossolineum, Wrocław, 2003.
22
Kotarbiński T., Praxiology. an introduction to the sciences of efficient action”, Pergamon Press, 1965
23
Mises L von, “The Ultimate Foundation of Economic Science. An Essay on Method”, D.van Nostrand,
Princeton, 1962.
19
20
21
tym działalności gospodarczej. Sens działania prakseologicznego najlepiej
przedstawia rys. 1.4
Każde działanie powinno być charakteryzowane przez zbiór cech umieszczonych na kostce, przy czym każda ściana zawiera cztery charakterystyki (atrybuty) cechy głównej, np. „gospodarność” jest określana przez: korzystność, oszczędność, wydajność i efektywność procesów. Jest to wskazanie kierunków optymalizacji działań dla racjonalnego zarządzania. To właśnie z zasad prakseologicznych wywodzą się japońskie metody produkcji i zarządzania: Kaizen, Kanban24 oraz wszelkie koncepcje z obszaru tzw. „lean management”25 (str. 151).
Jako podsumowanie niniejszego wywodu warto przytoczyć zasadę działań
optymalnych, w sformułowaniu W. Pogorzelskiego26, stanowiącą aksjomat centralny ujęcia systemowego: „Najogólniejszą, najbardziej powszechną, głęboką i wyrazistą przyczyną wszystkiego jest optymalność. W niej zawiera się cały ogrom wiedzy o
świecie”. Ta zasada wynika z obserwacji natury i jej funkcjonowania. Można ją
przenosić na racjonalne działania człowieka. Należy jednak zachować ostrożność w tej kwestii, albowiem racjonalność postępowania ludzkiego jest ograniczona przez wpływ otoczenia i braki informacji, co wykazał w swoich pracach
H. Simon27,28. Zgodnie z teorią ograniczonej racjonalności decyzje nie są podejmowane w sposób zgodny z zasadami minimum lub maksimum, ale w momencie osiągnięcia pewnego progu satysfakcji menedżera, niezależnie od poziomu
niepewności. Jest to jednak również jakaś forma optymalności, tyle że rozumiana
w sposób subiektywny. Tłumaczy to fakt, że model człowieka homo economicus J.
S. Milla w kwestiach podejmowania decyzji nie jest realizowany w praktyce w
100%. Relacje pomiędzy ekonomią a psychologią i socjologią umożliwiły powstanie koncepcji człowieka społeczno-ekonomicznego, racjonalności selektywnej i ograniczonej. Odnoszą się one do wpływu otoczenia i niemierzalnych kwestii na jednostkę przy podejmowaniu decyzji i jej wybory, a także do luki informacyjnej uniemożliwiającej w pełni racjonalne zachowania na rynku. Stały się
Imai M., „Gemba Kaizen. Zdroworozsądkowe, niskokosztowe podejście do zarządzania”, MT Biznes,
Warszawa 2012.
25
Ohno T., „System produkcyjny Toyoty. Więcej niż produkcja na wielką skalę”, ProdPress, Taylor &
Francis, Wrocław 2008, http://wydawnictwo.prodpublishing.com/wp-content/uploads/2011/07/System-Produkcyjny-Toyot-fragmenty.pdf oraz Art of Lean http://www.artoflean.com/files/Basic_TPS_Handbook_v1.pdf
26
Pogorzelski W., „O filozofii badań systemowych”, Wyd. Nauk. Scholar, Warszawa 2002, s. 47
27
Simon H.A., “Administrative Behavior”, Free Press, New York 1957.
28
Simon H.A., “Podejmowanie decyzji i zarządzanie ludźmi w biznesie i administracji”, wyd. 4, One Press
- Helion, Gliwice, 2007
24
22
one podstawą ekonomii behawioralnej i ważnego kierunku badań w obszarze
nauk o zarządzaniu29,30,31
1.2 Potrzeby i dobra
W zasadzie całość zagadnień psychologizmu w zarządzaniu i ekonomii zaczyna się od teorii potrzeb A. Maslowa32. Jej podstawy można wywodzić z benthamowskiej koncepcji „rachunku szczęścia” i postaw konsekwencjalnych czło-
wieka konsumenta. Teoria potrzeb nie ma wprawdzie ścisłego potwierdzenia,
ale praktyka pokazuje, że można posługiwać się nią w objaśnianiu wielu aspektów działalności gospodarczej oraz zarządzania z dobrym skutkiem. Podstawą
rozważań jest hierarchiczna piramida potrzeb przedstawiona na rys. 1.5.
Rys. 1.5 Hierarchia potrzeb wg Maslowa
Kahneman D., Tversky A., “Prospect theory: An analysis of decisions under risk”, Econometrica, 47,
(1979), 313-327.
30
Camerer, C.F., Löwenstein, G., “Behavioral Economics: Past, Present, Future.”, [w] Camerer, Löwenstein
and Rabin, “Advances in Behavioral Economics”, New York: Princeton University Press, (2004), pp. 1-51.
31
Sołek A., “Ekonomia behawioralna a ekonomia neoklasyczna”, Zeszyty Naukowe PTE, No. 8, (2010), 2134; http://www.pte.pl/pliki/1/1066/01_Solek.doc.pdf
32
Maslow, A. H., „Motivation and Personality”, Harper, New York 1954.
29
23
1.2.1 Potrzeby
A. Maslow stwierdził, że potrzeby funkcjonują na pewnych poziomach, niezależnie od siebie i hierarchicznie (tzn. potrzeby wyższego rzędu pojawiają się
dopiero po zaspokojeniu tych, niższego rzędu). Istnieją trzy zasadnicze grupy
potrzeb związanych z egzystencją (fizjologiczne, bezpieczeństwa i przynależności), z bytem metafizycznym (szacunku, poznania, estetyczne) oraz z refleksją
transcendentalną (samorealizacji, transcendencji), jak na rys. 1.5.
Człowiek rozwija się przez spełnianie coraz wyższych kategorii potrzeb.
Przy tym dopóki nie zostanie zaspokojona potrzeba kategorii niższej, jednostka
nie stara się zaspokajać potrzeb kategorii wyższej. Obserwuje się, że zaspokojone
w znacznej mierze potrzeby danego poziomu, najczęściej przestają motywować
i jednostka pozostaje na pewnym, określonym poziomie potrzeb. Może ona rozpocząć realizację potrzeby wyższego rzędu o ile dozna motywacji33.
W obrębie hierarchii potrzeb można wysunąć cztery hipotezy, które stanowią fundament zarządzania kadrami (Human Resources). Są to:
1. hipoteza frustracji: nie spełniona potrzeba staje się dominującą;
2. hipoteza regresji potrzeb: jeżeli nie może być spełniona potrzeba wyższego
rzędu, potrzeba niższa w hierarchii staje się dominującą;
3. hipoteza progresywności rozwoju: zaspokojenie potrzeby niższej hierarchii aktywuje hierarchicznie wyższe potrzeby;
4. hipoteza rozwoju przez frustrację: nawet stały poziom niezaspokojonych potrzeb może przyczynić się z czasem do rozwoju osobistego, uaktywniając potrzeby wyższego rzędu lub prowadząc do wyższego poziomu aspiracji.
Trzeba zaznaczyć, że zarówno jednostka (pracownik), jak i organizacja (pracodawca) mają swoje potrzeby, które zwykle znacząco się różnią. Menedżer musi
zdawać sobie sprawę z faktu, że pracownik przychodzący do pracy ma swoje
potrzeby kluczowe oraz pewien poziom egzystencji. Część z tych potrzeb może
zostać zaspokojonych wyłącznie przez organizację oraz przynależność do społeczności lub grupy. To jest właśnie punkt wyjścia dla wszelkich rozważań na
temat relacji pracownik – organizacja i budowania zespołu, którego cele są pokrewne celom organizacji (rozdział 2.3 oraz 4.5). Ten fakt można dobrze spożytkować, ale równie łatwo go zmarnować, budując korporacyjną strukturę frustratów wzajemnie się zwalczających w niezdrowej konkurencji. Wprawdzie ktoś
może stwierdzić, że korporacja posiada wysoką kulturę organizacyjną i wymiana w niej pracownika na innego nie wpływa na zdolność do kreowania wartości, ale odejście pracownika wiedzy powoduje czasami niemałe perturbacje,
których koszty mogą przekroczyć znacząco ewentualną poprawę warunków
pracy dla całej grupy.
Amstrong M., „Zarządzanie zasobami ludzkimi”, Oficyna Ekonomiczna Dom Wydawniczy ABC, Kraków,
2000
33
24
Motywacje, pragnienia, odczucia stanowią przedmiot nieustających badań
psychologii oraz ekonomii i nauk o zarządzaniu. Czy można z tych badań wywieść jakieś zdania o charakterze teoriotwórczym? Dotyczy to zwłaszcza zagadnienia, dlaczego człowiek podejmuje wysiłek i pracuje? Dlaczego zjawisko „wyścigu
szczurów” pojawiło się w dzisiejszym świecie? Warto wspomnieć w tym miejscu
o koncepcji ERG (Existence, Relatedness, Growth) C. Alderfera34, stanowiącej
modyfikację, a bardziej adaptację dla celów zarządzania, wspomnianej wcześniej
teorii potrzeb A. Maslowa32. Zakłada ona, że do działań w obrębie systemu społecznego, a zwłaszcza do pracy, motywuje jednocześnie kombinacja trzech kategorii potrzeb: egzystencjalnej (E), więzi społecznej (R) oraz stałego rozwoju osobistego (G) i przewiduje pewne relacje dominacji potrzeb wynikające z obserwacji.
Do koncepcji natężenia potrzeb ERG i ich relacji nawiązuje teoria osiągnięć
D. McClellanda35. Wyodrębnił on trzy podstawowe potrzeby człowieka w zakresie rozwoju osobistego „G” z koncepcji Alderfera: potrzebę osiągnięć (A), potrzebę przynależności (R) oraz potrzebę władzy (P). Za pomocą testu psychologicznego dokonał próby ilościowego oszacowania presji tych potrzeb i okazało
się, że w tym obszarze istnieje znaczące pole dla zajmujących się tematyką human
resources i budowaniem efektywnych zespołów w organizacjach. Przede wszystkim okazało się, że wartością nie są wyłącznie dobra materialne, ale równie
ważne są te niematerialne aspekty egzystencji. A zatem z punktu widzenia zarządzania jest to grupa bardzo interesujących zagadnień, które stanowią podstawę zarządzania kadrami, przywództwa oraz relacji człowiek-technologia.
1.2.2 Dobra
Potrzeby mogą zostać zaspokojone za pomocą dóbr, które należy rozumieć
jako pozytywy (materialne lub niematerialne), przynoszące jakąś korzyść interesariuszowi, wywołując u niego chęć ich pozyskania. Dobra powstają w wyniku działań
produkcyjnych, działań twórczych albo świadczenia usług. Jeżeli kreowanie
dóbr staje się stałym źródłem korzyści wytwórcy, takie działanie nazywa się
działalnością gospodarczą (rozdział 1.5).
Z dobrami powiązana jest ściśle wartość w sensie ekonomicznym oraz teoria
równowagi ogólnej, która zakłada, że istnieje pewien zbiór cen na dobra prowadzący do zrównoważenia podaży i popytu tych dóbr w całym systemie ekonomicznym. Dostawca (producent), oferuje dobra wartościowe, które można wycenić rynkowo przez parametr ceny. Konsument dysponuje ograniczonymi zasobami (kapitałem) i zwykle nie może zaspokoić wszystkich potrzeb, podobnie
jak producent nie może wyprodukować nieskończonej ilości dóbr. Stąd wynika
Alderfer C.P:, “Existence, Relatedness, and Growth; Human Needs in Organizational Settings”. Free Press,
New York 1972.
35
McClelland D.C., „Human Motivation”, Cambridge: Cambridge University Press, 1988.
34
25
istnienie pojęcia „preferencja” dla każdego konsumenta. Oznacza to, że spośród
wielu możliwych dóbr, wybiera on określone tak, żeby zaspokoić jak najlepiej
swoje potrzeby przy ograniczonym poziomie zasobów. Stanowią o tym prawa
Gossena, malejącej użyteczności krańcowej oraz wyrównywania krańcowej użyteczności36, a także teoria wartości w sensie ekonomicznym G. Debreu37. Ustala
ona ekonomiczne podstawy mikroekonomii. Fundamentalnym założeniem istnienia równowagi ogólnej jest stwierdzenie: można skonsumować tylko tyle ile uda
się wyprodukować.
Praktyka gospodarcza pokazuje, że nie można traktować wszystkich konsumentów w jednakowy sposób, jako anonimowego agenta, a dóbr jako identycznych co do uposażenia ontycznego obiektów, możliwych do zaklasyfikowania
do jednej kategorii (np. przestrzeni liniowej dóbr). To powoduje, że ekonomiczne
modele równowagi rynkowej, np. ADM38,39 pozwalają jedynie pozostawać w sferze rozważań teoretycznych. Udział emocji i psychologii w budowaniu preferencji oraz decyzji o zakupie powoduje, że cena równowagowa w wielu przypadkach nie jest możliwa do obliczenia metodami analizy kosztów, a jedynie poprzez autoadaptację do aktualnych warunków popytu (ustalanie cen przez aukcje lub giełdę). Tym samym podejmując się wartościowania dóbr należy w
wielu przypadkach odrzucić ściśle ilościowe kryteria ustalania cen, albowiem
istotniejsze są przesłanki behawioralne oraz siła ekspresji cech40,41. Subiektywizm
tych ocen wynika nie tylko z psychologizmu, ale również z pozycji oceniającego.
Można to zilustrować jak na rys. 1.6 (relatywizm oszacowania).
To, co może być zaliczone do kategorii dóbr nie musi mieć formy materialnej. Ten fakt stanowi o istnieniu całej grupy wartości niematerialnych i prawnych
oraz wartości intelektualnej, stanowiącej o tworzeniu kapitału intelektualnego.
Stanowią one dobra zaspokajające potrzeby związane z prawami człowieka (rys.
1.3) oraz potrzeby wyższej kategorii niż podstawowe w piramidzie Masłowa
(rys. 1.5). W zarządzaniu dobra niematerialne są niezwykle istotnym elementem,
choćby motywowania pracowników, czy też wartości dodanej do dóbr materialnych. Dotyczy to zwłaszcza informacji w formie programów sterujących oraz
Gossen H. H., “Die Entwicklung …“ op. Cit.
Debreu G., „Theory of Value. An Axiomatic Analysis of Economic Equilibrium”, Yale University Press,
New Haven and London, 1959. http:// http://cowles.econ.yale.edu/P/cm/m17 .
38
McKenzie L.W., “The Classical Theorem on Existence of Competitive Equilibrium”, Econometrica, Vol.
49, No. 4 (1981), pp. 819-841. http://www.dklevine.com/archive/refs41388.pdf
39
Düppe T., & Weintraub E.R., “Finding Equilibrium: Arrow, Debreu, McKenzie and the Problem of Scientific Credit”, Princeton Univ. Press, Princeton, 2014.
40
Porównajmy dwa samochody jaguar xj i fiat panda. Oba jadą do przodu, do tyłu. Oba mają fotele, szyby,
klamki, silnik, itd. Innymi słowy – mają podną użyteczność. Nie da się jednak zaprzeczyć, że samochody te
różnią się zasadniczo wszystkim cechami użytkowymi w sposób ewidentny. Mówimy wówczas, że ekspresja
cech limuzyny jaguara jest istotnie wyższa, niż fiata pandy. Jest to przedmiot dociekań aksjometrii, która
próbuje zmierzyć subiektywizm odbioru mentalnego danego dobra.
41
Hartman, R. S., "Axiometric Structure of Intrinsic Value", Journal of Value Inquiry (Summer, 1974; v.8,
no. 2, pp. 88-101
36
37
26
wiedzy ukrytej (np. dostarczonej wiedzy o optymalnym obiegu dokumentów w
systemie ewidencji w ramach oferowanego programu FK).
Rys. 1.6 Ilustracja subiektywizmu oceny wartości dobra
W odniesieniu do produktu wartość dodana stanowi istotne poszerzenie pojęcia produktu stanowiącego dobro42:
 Produkt rdzenny (oferta bazowa). Zapewnia nabywcy korzyści bazowe.
 Produkt generyczny (zdefiniowano ustaloną użyteczność lub funkcjonalność).
Jest tym, co nabywca rzeczywiście kupuje w myśl zasady „koń jaki jest każdy
widzi”.
 Produkt oczekiwany (o zdefiniowanym uposażeniu ontycznym). Posiada cechy
fizyczne, możliwe do makroskopowej oceny takie, jak: kształt, kolor, marka,
model, cena, opakowanie, jakość;
 Produkt poszerzony posiada dodane korzyści niematerialne, takie jak: forma
dostawy, gwarancja, rękojmia, serwis posprzedażny, usługi komplementarne, empatia załogi, sposób załatwiania reklamacji, instrukcje, instalacje on
site, finansowanie (kredyty, sprzedaż ratalna, odroczone terminy płatności).
“Theodore Levitt’s Product Level Hierarchy”, http://www.spookybin.com/study-zone/marketing-for-beginners/product-strategies/theodore-levitts-product-level-hierarchy/
42
27
 Produkt potencjalny jest produktem poszerzonym charakteryzującym się zdefiniowanym oddziaływaniem z otoczeniem. Oprócz korzyści dodanych, obejmuje wszystkie działania oraz informacje, które mogą uczynić go jeszcze bardziej atrakcyjnym i przyciągnąć nabywcę (np. kastomizacja, marketing, forma
dostawy).
Zarządzanie ma na tym polu istotne zadanie: dopasowania możliwości konsumpcji społeczeństwa do potencjału sił wytwórczych, czego objawem są działania marketingowe i próby wykreowania nowych potrzeb oraz produktów w
celu zwiększania sprzedaży i poszerzenia rynku. Procesy te są ciągłe w czasie i
nieograniczone ani ilościowo ani jakościowo, podobnie, jak potrzeby.
Cykl życia produktu.
Nic nie jest wieczne. Upodobanie klientów są zmienne. Potrzeby są nieograniczone i dodatkowo zmienia się ich układ w czasie u każdego konsumenta. To
powoduje, że każda firma oferująca dobra musi brać pod uwagę zmienność popytu i bardzo dokładnie monitorować rynek.
Rys. 1.7 Krzywa cyklu życia produktu (dobra).
Cykl życia każdego produktu składa się z czterech faz: wprowadzenia, wzrostu, dojrzałości i schyłkowej, co zaprezentowane zostało na rys. 1.7.
W fazie wprowadzenia podejmuje się przede wszystkim działania w zakresie
pozycjonowania danego dobra na rynku. Polegają one na informowania klientów o nowym produkcie, który pojawił się lub niebawem pojawi i udrażnianiu
kanałów komunikacyjnych. Faza ta wymaga znaczących nakładów na działania
promocyjne i informowanie potencjalnych nabywców o istnieniu produktu oraz
wywołanie potrzeb rynkowych. Jego cena jest zwykle w tym czasie wyższa, co
28
ma na celu kompensację wysokich nakładów poniesionych na jego zaprojektowanie, wytworzenie i wdrożenie. Cena ta musi być konkurencyjna i dostosowana do możliwości nabywczych konsumentów, tak żeby zachęcić ich do zainteresowania się produktem i zakupienia go. Ideałem jest takie skalkulowanie
ceny nowego produktu tak, żeby zapewnić jedynie zwrot kosztów prototypowej
serii. Nie jest wówczas problemem ujemny zysk, o ile w kolejnym etapie cyklu
życia produktu spodziewamy się znaczącego wzrostu sprzedaży (rys. 1.7).
Faza wzrostu charakteryzuje się najszybszym przyrostem sprzedaży. Powoduje
to obniżenie kosztu jednostkowego produkcji, promocji i logistyki. Skutkiem jest
spodziewany wzrost ilości sprzedaży na rynku. Na tym etapie produkt wdrożony z sukcesem zaczyna mieć konkurentów. Zaczynają pojawiać się substytuty
i imitacje. Jedną ze strategii ochrony interesów jest stałe powiększanie udziału w
rynku, co może wiązać się z obniżaniem ceny i marży. Można również przyjąć
strategię ochrony wartości intelektualnej związanej z produktem (wzory użytkowe, patenty) oraz budować kluczowe kompetencje własnego zasobu wytwórczego, utrudniając powstawanie substytutów. To zwykle wymusza ciągłą innowacyjność na działaniach producenta i modyfikacje produktu43. Na tym etapie
cyklu życia powinien pojawić się istotny zysk, który pozwala powetować ewentualne straty powstałe w fazie wprowadzenia danego dobra na rynek. Produkt
jest już znany i nakłady na jego promocję i reklamę mogą zostać zoptymalizowane. Standardowa produkcja nie wymaga wówczas na innowacje. Pozwala to
skoncentrować się na optymalizacjach logistycznych i doskonaleniu procesów
produkcji oraz zapewnienia jakości.
W Fazie dojrzałości sprzedaż osiąga swoje maksimum, podobnie jak zysk. Na
początku obserwujemy subfazę wzrostu, kiedy przyrost sprzedaży maleje. Następuje nasycenie rynku i plateau krzywej sprzedaży (subfaza stabilności) aż do
osiągnięcia ekstremum. Po przekroczeniu ekstremum następuje subfaza dojrzałości wygasającej, kiedy sprzedaż zaczyna spadać, ale stosunkowo wolno. W podobny sposób zachowuje się krzywa zysku. W fazie dojrzałości można mówić o
grupie i rynku stałych klientów, powracających do firmy (marki) albo powtarzających zakup, jeżeli rozważamy pojedyncze dobro. W fazie dojrzałości kontrahenci w mniejszym stopniu są podatni na reklamę. Decydujące znaczenie dla
decyzji o zakupie zaczyna mieć cena. Jest to racjonalne zachowanie, odzwierciedlające idee I prawa Gossena. Pojawiają się wtedy obniżki, promocje, upusty,
Najlepiej ilustruje to ewolucja smartfonów i wojna na rynku pomiędzy Apple a Samsungiem, Motorolą i
Google. Od roku 2008 firma Apple i Samsung dostarczyły VI wersje swoich flagowych smartfonów, a Google zaoferował 6 odsłonę Androida o nazwie Mershmallow. Niezależnie od wojny gigantów na rynku pojawiły się doskonałe substytuty firmy Huawei, LG, Sony i kilku pomniejszych graczy. Strategia Apple umożliwiająca produkowanie dużo i drogo towarów luksusowych powoli przechodzi w fazę zmiany na bardziej
standardowych zachowań.
43
29
akcje marketingowe, mające zachęcić klienta do zakupu. Na rynku działa wówczas wielu konkurentów i można spotkać różne zamienniki oryginalnych produktów.
Strategie rozwoju dla producenta na tym etapie polegają na zdobywaniu nowych rynków, nowych segmentów rynku (grup konsumentów) poprzez ewolucje produktu i wartość dodaną z nim związaną. Są to typowe działania innowacyjne na poziomie produktowym, dystrybucji i sprzedaży. To pozwala wydłużyć fazę dojrzałości produktu w czasie. Mamy wówczas do czynienia zoptymalizacją procesów logistycznych i intensyfikacją dystrybucji. Wprawdzie zyski
jednostkowe maleją, ale produkt ciągle zdobywa nabywców w dużej ilości i zapewnia odpowiednią zyskowność na poziomie integralnym. Warto odnotować
fakt wynikający z obserwacji, że faza dojrzałości jest tym dłuższa, im stabilniejszy jest sektor i rynek danego produktu. Niemały wpływ na długość tej fazy ma
również poziom innowacyjności oferowanego dobra, pozycja rynkowa producenta i systemy sprzedaży.
Faza schyłkowa charakteryzuje się spadkiem produkcji i sprzedaży. Przestają
działać typowe instrumenty marketingowe i promocje. Najskuteczniejsze jest
wówczas obniżanie cen, znalezienie nowych, tańszych i efektywniejszych kanałów dystrybucji, zmiana zastosowań produktu, nowe grupy klientów lub modyfikacje. Spadają wówczas zyski i konieczne staje się ciągłe monitorowanie szybkości spadku sprzedaży w czasie. Menedżer musi prowadzić analizy trzech obszarów: poziomu cen rynkowych konkurencji, kosztów oraz pozycji rynkowej
na tle atrakcyjności sektora. Służą temu analizy portfelowe, w szczególności: metoda BCG (rozdział 6.5) oraz GE-McKinsey (rozdział 6.4). Natomiast syntezę decyzyjną na poziomie strategicznym, łączącą ze sobą relację fazy produktu oraz
pozycji rynkowej firmy dobrze oddaje macierz ADL, którą przedstawiono w Tabela 1.
Ważnym działaniem organizacji w fazie schyłkowej jest identyfikacja słabych punktów produktu oraz zagrożeń rynkowych, a przede wszystkim ustalenia relacji zyskowności ze sprzedaży do kosztów. Na tej podstawie można podjąć decyzję strategiczną o pozostaniu na rynku i ewentualnych innowacjach produktowych, zmianach portfelowych w strukturze oferty, albo wycofaniu się z
konkurowania częściowo lub całkowicie. Procesy tych zmian, a tym samym wydłużenie fazy schyłkowej, kończącej procesy eksploatacji portfela oferty nie muszą być gwałtowne. Zależy to od zachowań rynku, do których organizacja musi
się adaptować. Można również, w niektórych przypadkach, oferować usługi
komplementarne, np. dostarczając części zamienne oraz serwis posprzedażny
przez jakiś okres czasu. Firma Morgan Motor Co. daje gwarancje 50 lat na części
zamienne do swoich pojazdów, co stanowi niejaki rekord na rynku, ale przynosi
firmie korzyści strategiczne.
30
Podsumowując rozważania na temat cyklu życia produktów i konsekwencji
dla zarządzania, należy zdać sobie sprawę, że analizy portfelowe posiadają znaczące ograniczenia wynikające z subiektywizmu przyjmowanych kryteriów decyzyjnych. Poza tym, niektóre produkty, tak jak coca-cola nie doświadczyły fazy
schyłkowej, a rynek towarów luksusowych wcale nie musi być innowacyjny.
Krzywa cyklu życia ma różne kształty w zależności od produktu. Stąd też interpretacje analiz muszą być poddane ocenom racjonalności przy braku ogólnych
kryteriów czym ta racjonalność jest. To wynika z doświadczenia menedżera oraz
porównań rynkowych.
Tabela 1 Macierz wskazań decyzyjnych z metody ADL
Pozycja w konkurencji
wprowadzenie
Faza cyklu życia produktu
wzrost
nasycenie
Utrzymanie poUtrzymanie dozycji rynkowej.
minującej pozyWzrost ze wzrocji rynkowej.
stem branży.
Dominująca
Zdobycie
i
utrzymanie pozycji rynkowej.
Mocna
Inwestowanie w
poprawienie pozycji rynkowej.
Intensyfikacja
udziału w konkurowaniu.
Inwestowanie w
poprawienie pozycji rynkowej.
Zdobycie
nowych rynków.
Korzystna
Selektywne zdobywanie pozycji
rynkowej.
Poprawa konkurencyjności.
Selektywne zdobywanie pozycji
rynkowej i
Próby jej poprawienia.j.
Przeciętna
Selektywna poprawa konkurencyjności i pozycji rynkowej.
Poszukiwanie
niszy rynkowej.
Utrzymanie nisz
o ile istnieją.
Słaba
Silna poprawa
pozycji rynkowej albo niepodejmowanie
działalności.
Silna poprawa
pozycji rynkowej albo wycofywanie się z
rynku.
Utrzymanie pozycji rynkowej.
Wzrost ze wzrostem branży.
Minimalne inwestycje dla poprawienia pozycji rynkowej.
Poszukiwanie
nisz rynkowych.
Stopniowe redukowanie aktywności.
Poszukiwanie
nowych.
Stopniowe redukowanie aktywności.
schyłek
Utrzymanie pozycji rynkowej.
Utrzymanie pozycji rynkowej.
Wykorzystanie
przewagi i nadwyżki zasobów.
Efektywne wykorzystanie nadwyżki zasobowej.
Redukowanie
aktywności.
Stopniowe redukowanie aktywności.
Wycofywanie
się z rynku.
1.2.3 Konsumpcja
Z makroekonomicznego punktu widzenia konsumpcja oznacza sumę wydatków na rynku przeznaczoną na pozyskanie pożądanych wartości. W związku
z powyższym można wyróżnić konsumpcję podstawową (autonomiczną), niezbędną dla egzystencji podmiotu konsumującego oraz konsumpcję dodatkową,
31
umożliwiającą zaspokojenie potrzeb wyższego rzędu. Konsumpcja autonomiczna nie zależy od dochodów i warunkuje przetrwanie podmiotu konsumującego. Natomiast konsumpcja dodatkowa jest uwarunkowana dostępnością kapitału swobodnego (najczęściej dochodu do dyspozycji). Opcją alternatywną dla
konsumpcji dodatkowej jest oszczędzanie, czyli przeznaczanie zasobów kapitałowych na przyszłą konsumpcję. Słusznym wydaje się być założenie, które poczynił G.Debreu w swojej pracy dotyczącej teorii wartości44, że można skonsumować jedynie tyle, ile wartości zostanie wyprodukowane. A dodatkowo z twierdzenia
granicznego H. Scarfa45 wynika, że ograniczoność zasobów konsumentów ogranicza
możliwe plany konsumpcji. To powoduje, że na rynku pojawia się działalność spekulacyjna oraz instrumenty finansowe, zastępujące pieniądz (kontrakty terminowe, opcje realne, weksle, kredyty, etc.) w celu zwiększenia bieżącej konsumpcji lub sterowanie nią.
Z konsumpcją wiąże się postawa socjo-kulturowa nazwana konsumpcjoniznem. Polega ona na nieusprawiedliwionym rzeczywistymi potrzebami, pomijając koszty społeczne lub straty ekologiczne, pozyskiwaniem dostępnej wartości
z otoczenia. Towarzyszy temu głoszenie poglądów uznających taką ostentacyjną
konsumpcję za wyznacznik jakości życia lub wręcz najważniejszą jego wartość i
sens, co jest szczególnie mocno promowane przez media oraz wszelkie odmiany
marketingu46. Z punktu widzenia otoczenia zarządzania, kreowanie takich postaw przez marketing jest celem samym w sobie. Napędza to produkcję zbędnych dóbr i ciągłe zwiększenie oferty rynkowej, a tym samym rozwój gospodarczy przez wzrost konsumpcji. Można przyjąć, że wyróżnikiem społeczeństw nowożytnych stało się rozpowszechnienie kredytu konsumpcyjnego, co obrazuje
wzrost stopy preferencji czasowej (tu i teraz), przyznając wyższy priorytet konsumpcji teraźniejszej, niż przyszłej. Wpędza to całe grupy społeczne i narody w
spiralę zadłużenia zmieniając znacząco obraz gospodarczy i wspierając działania
spekulacyjne banków oraz instytucji finansowych w przejmowaniu kapitału i
powodowania asymetrii jego rozkładu. Tym samym nadkonsumpcja staje się
wrogiem stabilnego rozwoju społeczeństw, co zauważył już A. Smith47.
Warto w tym miejscu zaznaczyć destrukcyjną rolę banków dla gospodarki
obok wielu innych, ważnych funkcji usługowych, korzystnych dla biznesu, która
polega na możliwości wprowadzania na rynek pustego pieniądza (bez pokrycia)
w formie kredytów przy pokryciu depozytowym na poziomie 10-15%. To powoduje kreowanie surogatów pieniądza na rynku i napędzanie inflacji (niezależnie
Debreu G., „Theory of the Value”, Cowles, 1954
Scarf H.E., Hansen T, “The Computation of Economic Equilibria”, Cowles Foundation for Research in
economics at Yale University, Monograph No. 24, UK: Yale University Press, New Haven, London, 1973.
46
Gospodarek T., „Marketing systemowy. Nowa broń masowego rażenia”, [w] A.Styś „Współczesne problemy marketingu”, Difin Warszawa, 2015. http://gospodarek.eu/publikacje/Marketing%20systemowy.pdf
47
Smith. A., “Badania nad naturą i przyczynami bogactwa narodów”, Wydawnictwo Naukowe PWN, Warszawa, 2013.
44
45
32
od tej, generowanej przez banki centralne według bieżących zamówień politycznych), tym bardziej, że jako kredytobiorcy zwrócić bankowi musimy rzeczywisty kapitał, a nie ten bez pokrycia. To jest tak, jakby z powietrza tworzyć kapitał.
Stąd hasło „bank nas okrada” jest wyjątkowo celne i na czasie. W ten sposób każda
konsumpcja na kredyt obciąża całe społeczeństwo kosztami inflacji. Widać to gołym okiem w porównaniach wartości koszyka minimum socjalnego w czasie i
ilość godzin pracy, która jest wymagana dla jego zapełnienia. Ale z drugiej
strony, dzięki zwiększonej konsumpcji wewnętrznej, może rosnąć PKB i poprawiają się parametry makroekonomiczne państwa. Pozostaje zatem nierozwiązany problem centralny ekonomii: czy wzrost PKB kosztem nadmiernego zadłużenia
i ukrytej inflacji rzeczywiście służy narodom (nie mylić w tej kwestii narodu z państwem)?
Hipoteza cyklu życia.
Z konsumpcją wiąże się „Hipoteza cyklu życia” zaproponowana przez I
Fishera48 i R. Harroda49, którzy zauważyli, że jednostki oszczędzają najwięcej w
środkowym etapie cyklu życia, odkładając na emeryturę. Ta koncepcja została
rozwinięta przez A. Ando i F. Modiglianiego50, którzy stwierdzili, że jednostki
przeznaczają na konsumpcję stały ułamek wartości bieżącej swojego dochodu
uzyskanego na przestrzeni całego życia. Koncepcja ta stanowi alternatywę dla
„dochodu absolutnego” M. Keynesa51, który stwierdził, że wydatki konsumpcyjne jednostki zależą od jej bieżącego dochodu rozporządzalnego, a oszczędzają
tylko jednostki o wysokich dochodach. Przyjął równocześnie, że konsumpcja gospodarstw domowych rośnie wraz z dochodami, ale jej przyrost jest mniejszy niż
przyrost dochodu do dyspozycji. Hipoteza cyklu życia jest również alternatywną do hipotezy „dochodu permanentnego” M Friedmana52. Friedman stwierdził, że wydatki konsumpcyjne nie zależą od dochodu bieżącego, a bardziej od
dochodu permanentnego, który należy rozumieć jako przeciętny dochód spodziewany w okresie całego życia jednostki. Wynika stąd, że chwilowe zmiany
dochodu nie wpływają znacząco na zachowania konsumpcyjne (skłonność do
kredytowania konsumpcji i wykorzystywania oszczędności dla zachowania jej
poziomu). Z prac Modiglianiego wynika, że konsument dąży do zrównoważonego standardu życia materialnego. Ten standard wyznaczany jest przez dochód
Fisher, I., “The Theory of Interest”, The Macmillan Company, New York (1930), http://files.libertyfund.org/files/1416/0219_Bk.pdf
49
Harrod, R., “Towards a Dynamic Economics”, The Macmillan Company, London, (1948).
50
Ando A., Modigliani F., “Tests of the Life Cycle Hypothesis of Saving: Comments and Suggestions”,
Oxford Institute of Statistics Bulletin, maj 1957, 99-124.
51
Keynes, J. M., The General Theory of Employment, Interest and Money. London: Macmillan, London
1936.
52
Friedman M., (1957). "The Permanent Income Hypothesis. A Theory of the Consumption Function”.
Princeton University Press. http://papers.nber.org/books/frie57-1 ; http://www.nber.org/chapters/c4405.pdf
48
33
permanentny. Stąd oszczędności służą stabilizacji konsumpcji i jako takie są pochodną preferencji konsumpcyjnych, a nie odwrotnie. Tym samym oszczędności
stanowią różnicę między poziomem stałej stopy życiowej a wysokością osiąganych za życia dochodów. Poziom dochodów konsumenta zmienia się w czasie. W młodości
ludzie nie uzyskują na ogół wystarczających dochodów i nie są w stanie osiągać
wysokiego standardu życia. Chcąc sprostać kreowanym potrzebom zmuszeni są
do zaciągania kredytów i stałych oszczędności. Z czasem dochody rosną i umożliwiają powolne obniżanie poziomu zadłużenia, co generuje powstanie oszczędności na takim poziomie, który pozwoli im w wieku emerytalnym utrzymać
swoją stopę życiową z okresu prosperity. Tak powinien działać racjonalny konsument, ale często obserwuje się zmiany katastroficzne wynikające z nadmiernego zadłużenia.
Z punktu widzenia zarządzania, hipoteza cyklu życia ma istotne znaczenia
nie tylko w skali makro, ale przede wszystkim mikro. Planowanie dotarcia do
określonej grupy klientów wymaga rozumienia jaka jest struktura zagregowanych oszczędności oraz stratyfikacja dochodu do dyspozycji. Jednocześnie z hipotezy tej wynika, że ocena poziomu przyszłego bezpieczeństwa ekonomicznego jednostki determinuje bieżącą konsumpcję.
Dochodowa elastyczność popytu.
W ekonomii, elastyczność dochodowa popytu mierzy wielkość zmiany popytu na towary lub usługi przy zmianie dochodu osób pożądających danego dobra53. Jest ona obliczana jako stosunek procentowej zmiany wielkości popytu na
dobra do procentowej zmiany dochodu. Na przykład, jeśli w odpowiedzi na 10%
wzrost dochodów, wielkości popytu na dobra wzrosła o 20%, to elastyczność
dochodowa popytu będzie wynosiła wówczas 2.
Negatywna elastyczność dochodowa popytu jest związana z dobrami podrzędnymi. Wówczas wzrost dochodów powoduje spadek popytu na nie. Zwykle prowadzi to do zmian w kierunku dodatniego popytu na bardziej luksusowe
substytuty. Jeżeli elastyczność dochodowa popytu dla danego dobra jest mniejsza niż 1, to jest ono dobrem niezbędnym. Dodatnia elastyczność dochodowa
popytu jest związana z normalnymi towarami, gdzie wzrost dochodów prowadzi do wzrostu popytu na nie. Jeżeli elastyczność popytu jest większa niż 1,
mamy do czynienia z dobrami luksusowymi lub dobrami wyższego rzędu. W
końcu zerowa elastyczność dochodowa popytu zdarza się wówczas, gdy wzrost
dochodów nie ma związku ze zmianą popytu na dane dobro. Dotyczy ona
przede wszystkim dóbr podstawowych (sztywny popyt). Przykładowe wartości
dochodowej elastyczności popytu na różne dobra wynoszą54: samochody 2,98;
Samuelson A.A., Nordhaus W.D., „Ekonomia” tom 2, PWN, Warszawa, 2007.
Wikipedia En, “Income elasticity of demand”, https://en.wikipedia.org/wiki/Income_elasticity_of_demand
53
54
34
książki 1,44; wyjście do restauracji 1,40; tytoń i papierosy 0,64; transport publiczny -0,36.
Dla menedżera znajomość dochodowej elastyczności popytu jest wskaźnikiem niezbędnym do prognozowania zmian w strukturze popytu konsumpcyjnego, związanego ze wzrostem gospodarczym, zmianami dochodu do dyspozycji, stratyfikacją społeczną w regionie, itp. Natomiast badanie zmian struktury
popytu przy zmianach dochodów jest przydatne do obliczeń wskaźnika kosztów utrzymania w różnych grupach społecznych i zawodowych ludności oraz
planowania polityki marketingowej (str. 264). Badania związane z reakcjami popytu na zmiany dochodów oraz budżetów domowych pozwoliły określić kolejność oraz rozmiary wydatków przeznaczanych przez konsumentów na zakup
określonych dóbr i usług. Te dane skonfrontowano z hierarchią potrzeb A. Masłowa (rys. 1.5) otrzymując zgodność w ciągu: najpierw są zaspokajane potrzeby
podstawowe (żywnościowe i bytowe), które pochłaniają większą cześć dochodu
do dyspozycji u konsumentów posiadających niskie dochody, a dopiero potem
pozostała część dochodu może być przeznaczona na zaspokajanie potrzeb wyższego rzędu.
Prawo Engela
Jest przykładem empirycznej zależności ekonomicznej, powiązanej z dochodową elastycznością popytu, z której wynika, że w miarę wzrostu dochodów
gospodarstwa domowego, jego wydatki na żywność rosną w sposób bezwzględny, ale ich względny udział w wydatkach ogółem zmniejsza się55. Relacje
między prawem Engela, postępem technologicznym oraz procesami zmian
strukturalnych w spożyciu społeczeństw ma zasadnicze znaczenie dla wyjaśnienia długoterminowego wzrostu gospodarczego56.
1.3 Rynek
Rynek stanowi układ mechanizmów umożliwiających kontakt gestorów
wartości i jej konsumentów. Jest to również zbiór transakcji wymiany wartości
(w tym kupna-sprzedaży) oraz układ warunków w jakich one przebiegają. Rynek kreuje określony układ interesariuszy (dysponentów, nabywców, obserwatorów, itp.), zainteresowanych dokonywaniem operacji wymiany wartości z innymi interesariuszami. Każdy rynek ma określoną strukturę i charakterystykę
przez strukturę interesariuszy oraz systemy wymiany wartości i jej oszacowań.
Na każdym rynku ustala się równowaga dynamiczna ilościowo-wartościowa
E. Engel, “Die Productions- und Consumptionsverhaeltnisse des Koenigsreichs Sachsen”, Zeitschrift des
Statistischen Bureaus des Königlich Sächsischen Ministeriums des Innern”, Dresden, 1857.
56
Pasinetti, L., “Structural Change and Economic Growth: a Theoretical essay on the dynamics of the wealth
of nations”. Cambridge University Press, Cambridge, (1981).
55
35
dóbr, czego wynikiem jest parametr równowagi – cena transakcji, stanowiąca reprezentację wartości dobra. Wynika ona z gry dwuosobowej pomiędzy oferentem wartości, a zainteresowanym jej przejęciem (np. nabywcą) w zadanych warunkach. To powoduje sytuację konfliktową, w której oferent przyjmuje strategię
osiągnięcia najwyższej ceny, a przejmujący stara się uzyskać jak najniższą cenę.
W rezultacie negocjacji gra się kończy wymianą wartości, a wypłatą jest równowagowa cena transakcji. Tym samym zbiór gier toczących się równocześnie na
rynku definiuje pewien stan płytkiej i chwilowej równowagi dynamicznej mikromakro, gdzie ceny stają się parametrem charakterystycznym.
Rys. 1.8 Ilustracja równowagi rynkowej, z ceną ja ko parametrem regulacji.
Teoretycznie rynek powinien prowadzić do utworzenia trwałej równowagi
ekonomicznej w sposób adaptatywny, działając na zasadzie „niewidzialnej ręki”
[metafora należąca do A.Smitha]. Niestety już A. Smith zauważył, że żaden rynek sam się nie wyreguluje podając ku temu szereg przykładów „Pozwólmy bankom pożyczać pieniądze na o wiele więcej niż 5%, a zaczną pożyczać ludziom rozrzutnym
i nieroztropnym, co doprowadzi do powstawania baniek spekulacyjnych i załamań finansowych. Pozwólmy, by „ludzie z jednej branży” zaczęli się konsultować, a „wymyślą, jak
podnieść ceny”. Pozwólmy, by siły rynku nadal sterowały podziałem pracy, a ukształtują
pracowników, którzy będą „tak głupi i niewyedukowani, jak tylko może być człowiek57”.
Schlefer J., “Niewidzialna ręka rynku nie istnieje”, HBR Polska, 2016,
http://www.hbrp.pl/news.php?id=763
57
36
Pomimo zdefiniowaniu ekonomicznego modelu równowagi ogólnej ADM
G.Debreu i McKenzie, gdzie cena stanowi wystarczający parametr regulujący,
nikt nigdy nie udowodnił, że do równowagi rynkowej prowadzi jakakolwiek siła
wyższa. Ta równowaga dynamiczna jest zwykle przypadkiem chwilowym,
kiedy dochodzi do zrównoważenia podaży i popytu. Ale zwykle bardzo szybko
działania marketingowe, protekcjonizm państwowy oraz asymetria w dostępie
do informacji powodują wychwiania z położenia chwilowej równowagi i przejście rynku do stanów metastabilnych, o ile nie całkowicie nieprzewidywalnych.
Jeżeli takie celowe wychwiania są znaczące, tak jak to miało miejsce w roku 2008,
dochodzi do sytuacji katastroficznych i załamań rynku. Te procesy stają się cykliczne, coraz bardziej globalne i coraz mniej przewidywalne. W dodatku nawet
mały impuls psychologiczny może wywołać poważne komplikacje na skalę międzynarodową.
Rynki można charakteryzować za pomocą pewnej liczby parametrów i badać ich atrakcyjność, co stanowi fundament dla działań przedsiębiorczych, tak
jak to zaprezentowano w tabeli 2. Są to: ilość firm działających na danym rynku,
swoboda wejścia na dany rynek, charakterystyka produktów, wpływ producenta dóbr na ich cenę, dostęp do informacji.
Tabela 2 Charakterystyka rynków
Skutkiem toczącej się gry rynkowej jest równowaga podaży i popytu, która
może być mniej lub bardziej dynamiczna w zależności od charakterystyki rynku.
Oczywistym jest, że żaden rynek nie jest nieskończenie pojemny. Z faktu, że istnieje na nim x firm nie oznacza, że zmieści się na nim bez większych perturbacji
kolejna. Stąd dla potencjalnego przedsiębiorcy, najbardziej istotną charakterystyką jest atrakcyjność danego rynku lub sektora oraz perspektywa jego wzrostu.
37
Najbardziej istotną metodą takich ocen jest układ metod: analiza GE-McKinsey58
(rozdział 6.4) połączona z rzetelną analizą pięciu sił M. Portera59(rozdział 1.3.1)
popartą wiarygodnym scenariuszem PESTLE (rozdział 6.3). Stanowi to istotny
element zarządzania.
1.3.1 Konkurencja
Konkurencja stanowi ogół procesów wymiany wartości w otoczeniu (na
rynku), w których gestorzy wartości współzawodniczą ze sobą w zawieraniu
transakcji jej wymiany. Czynią to poprzez przedstawianie korzystniejszej oferty
w szerokim tego słowa znaczeniu. Nie tylko cena decyduje o decyzji przejęcia
określonej wartości przez konsumenta, ale również wartość dodana do produktu
bazowego, zmieniająca jego podstawowy charakter na pożądany60. Ponadto należy uwzględnić znaczący udział psychologizmu w podejmowaniu decyzji o zakupie oraz wpływ informacji zewnętrznej na konsumenta, bombardowanego
wszechobecną reklamą i naciskami na bezmyślną konsumpcję. Konkurencja na
rynku umożliwia ustalenia cen równowagi wymiany wartości (niekoniecznie
godziwych) oraz ilości dóbr na rynku dzięki pojawiającym się ciągle konfliktom
interesów podaży i popytu.
Konkurencja stała się istotnym mechanizmem napędowym dla unikalnych
aktywności ludzkich: innowacyjności i przedsiębiorczości. Modyfikacja i redefiniowanie produktów przez poszerzenie ich użyteczności lub funkcjonalności
stanowi istotny element konkurowania, a jednocześnie jest przykładem innowacji produktowej. Z kolei wykorzystanie pomysłu przez wdrożenie go do praktyki gospodarczej jest przykładem działań przedsiębiorczych, wywołanych koniecznością konkurowania. Widać stąd wzajemne sprzężenie trzech zjawisk obserwowanych na rynku: przedsiębiorczości, konkurencyjności i innowacyjności.
Jeżeli polityka i interesy grup nacisku nie przeszkadzałyby w swobodnym rozwoju tych zjawisk, wówczas moglibyśmy obserwować gigantyczny wzrost zamożności społeczeństw i bardziej równomierny podział wartości między narodami.
Niestety swobodna konkurencja jest drastycznie ograniczana przez ponadnarodowe korporacje oraz kartele, a przedsiębiorczość jest zwalczana przez lobbystów politycznych tychże korporacji wymuszając na stanowiących prawo lokalne różne, korzystne regulacje (specjalne strefy ekonomiczne, zwolnienia z podatków, wyłączność operowania na danym rynku). Przykładem są korporacje
farmaceutyczne i ich blokady patentowe na leki, ochrona rynków, nachalny, ko-
Gospodarek T., „Zarządzanie…”, str. 244-247
Porter M.E., “Przewaga konkurencyjna”, Helion Gliwice, 2006
60
Andonov S., “Levels of Product Differentiation in the Global Mobile Phones Market”, http://www.economicswebinstitute.org/essays/levelsdifferentiation.pdf
58
59
38
rupcjogenny marketing, oraz skrajnie nieetyczne działania lobbystyczne i ekonomiczne prowadzone na całym świecie61. Poszczególne państwa próbują się
przeciwstawiać praktykom monopolistycznym oraz korporacjonizmowi, ale nie
są to działania nazbyt skuteczne, a bardziej pozorowane. Uwiadamiane publiczne „zwycięstwa” są albo są pyrrusowymi, albo pozornymi i nawet ogromne
kary rzędu mld US $ nie stanowią istotnego uszczerbku dla globalnych korporacji, prędzej czy później przeniesionego na konsumenta. Korporacje wykształciły
skuteczne mechanizmy autoadaptacji do zmienności otoczenia i jak widać po
asymetrii rozkładu wartości rynkowej, to właśnie ponadnarodowe korporacje są
więcej warte niż dochód niejednego państwa62.
Rys. 1.9 Koncepcja oceny konkurencyjności rynku metodą 5 s ił M.Portera
Konkurencję na rynku charakteryzuje się za pomocą modelu 5 sił M. Portera . Metoda ta uwzględnia pięć istotnych czynników wpływających na funkcjonowanie danego rynku (rys. 1.9):
63
Rath M., “Die Geschichte des Pharma Geshäfts teil. 1-4”.
https://www.youtube.com/watch?v=VFDP0gku-JA&list=PL68gVFkfht18iJtDX_vY_USOi66O6nBw3
62
The 100 largest companies in the world by market value in 2015, http://www.statista.com/statistics/263264/top-companies-in-the-world-by-market-value/
63
Porter M.E., “Przewaga…”, op. cit.
61
39





siła przetargowa dostawców,
siła przetargowa nabywców,
zagrożenie ze strony nowych wejść na rynek,
zagrożenie ze strony dóbr substytucyjnych,
konkurencja bieżąca (ilości firm aktualnie konkurujących i pojemności
rynku).
Każdy z powyższych aspektów charakterystyki rynku może być zmierzony
za pomocą odpowiednich narzędzi analitycznych64. Model analizy konkurencji
rynkowej M. Portera jest wprawdzie uniwersalnym narzędziem dla zarządzania
strategicznego, ale główną przesłanką jego funkcjonalności jest konkurencja doskonała. Konkurencja doskonała stanowi pewien model ekonomiczny, który pozwala dla homogenicznych dóbr wyznaczyć stan równowagi, opisany za pomocą ceny jako jedynego parametru. Dotyczy to rynków na których: wpływ na
ceny nie zależy od oferenta, swoboda wejścia na rynek jest nieograniczona, dostęp do informacji zbliżony jest do pełnego, a ilość firm konkurujących jest duża.
W pełnej analizie rynku należy wyróżnić następujące czynniki:
 Wielkość rynku teraz i w przyszłości (Dane rządowe, Dane finansowe głównych
graczy, dane statystyczne na temat sprzedaży).
 Trendy rynkowe (Analiza upodobań klientów, analiza konkurencji, analiza ryzyka, analiza produktów np. BCG, poziom innowacyjności sektora, poziom
kastomizacji i uczestnictwa konsumenta w konstruowaniu oferty).
 Szybkość wzrostu rynku (Modelowanie popytu, analiza GE-McKinsey, analiza
ryzyka, analiza zmienności sprzedaży w czasie, itp.).
 Zyskowność przeciętna na danym rynku. (Analizy przychodów ze sprzedaży w
sektorze, analizy kosztów oferty rynkowej w cenach produkcji).
 Struktura kosztów w danej branży rynku (Analizy kosztów wytwarzania dóbr,
kosztów logistyki zewnętrznej, kosztów sprzedaży, kosztów pośrednich
sprzedaży i marketingu).
 Dostępne kanały dystrybucji (Analiza kanałów tradycyjnych, nowoczesnych, elogistyka, e-sprzedaż, technologie channel connect i social media).
 Globalne czynniki sukcesu (Metoda Key Performance Indicators dla sprzedaży,
Metoda 5 sił Portera, Globalny łańcuch dostaw, poziom wirtualizacji sprzedaży).
Powyższe analizy powinny stanowić podstawę akceptacji ryzyka podejmowania
działalności gospodarczej lub decyzji o wejściu z produktami lub usługami na
dany rynek. Niestety niewielu menedżerów stosuje te narzędzia, albowiem reguły H. Simona związane z ograniczoną racjonalnością dominują nad racjonalnością oraz rzetelnym pomiarem.
64
Aaker D.A., “Strategic Market Management”, 10th Ed; Wiley, New York, 2013
40
Raport konkurencyjności
Czym innym jest konkurencyjność w skali mikro, a czym innym w skali makro. Badanie konkurencyjności przedsiębiorstw jest wykonywane lokalnie dla
każdego rynku. W skali makro porównuje się konkurencyjność całych gospodarek. Najważniejszym analitykiem jest Światowe Forum Ekonomiczne (WEF),
które prowadzi ciągłe badania porównawcze warunków rozwoju gospodarczego w różnych krajach (skala makro). Wynikiem jest Globalny raport konkurencyjności, dotyczący zdolności do zapewnienia długookresowego wzrostu gospodarczego przez różne państwa (Global Competitiveness Report)65. Raport ten jest
złożoną oceną wielokryterialną, prowadzącą do uzyskania kilku syntetycznych
wskaźników odniesienia, możliwych do porównywania zarówno pomiędzy
państwami w danym roku, jak i zmienności konkurencyjności w szeregu czasowym. Od roku 2004 w raporcie pojawił się również ranking państw najbardziej
konkurencyjnych (Global Competitiveness Index)66 (rozdziale 5.4).
1.3.2 Koniunktura i cykl Kondratiewa
Koniunktura wiąże się z gospodarką, a bardziej ogólnie z rynkiem, jego
chłonnością i pojemnością. Jest to splot różnorodnych czynników powodujących, że w danej gospodarce (lub na rynku) w danej chwili czasu dominuje popyt
i pozytywne nastroje dla inwestowania, giełdy oraz pracy. Odwrotnym pojęciem
jest dekoniunktura.
Koniunktura wiąże się z istnieniem cyklów koniunkturalnych (zwanych falami Kondatiewa)67. Idealny cykl koniunkturalny obrazuje sinusoida. Długość
tego cyklu zmienia się wraz ze zmiennością otoczenia. Cykl koniunkturalny
obejmuje na ogół cztery fazy: ożywienie, boom, spowolnienie, recesja i trwa obecnie
około 8-10 lat68. Jest to metaforyczne ujęcie w stosunku do czterech pór roku.
Istnienie długoterminowych cykli koniunkturalnych nie jest potwierdzone w
sposób ściśle naukowy - mierzalny, ale istnieje w historii ekonomii szereg przypadków cyklicznego rozwoju i zapaści gospodarczej na skalę światową. Ewidentnie można wskazać pięć takich okresów. Są to lata: 1770-1849 (z punktem
zwrotnym 1815) rewolucji przemysłowej i kolei; 1850-1896 (z punktem zwrotnym 1873) okres stali i inżynierii; 1880-1920 (z punktem zwrotnym 1908) okres
ropy elektryczności i masowej produkcji samochodów; 1940-1985 (punkt
World Economic Forum, Globalny Indeks Konkurencyjności, Raport 2014-2015, http://reports.weforum.org/global-competitiveness-report-2014-2015/ dostęp 21.04.2016
66
World Economic Forum, Globalny Indeks Konkurencyjności, Ranking 2014-2015, http://reports.weforum.org/global-competitiveness-report-2014-2015/rankings/ dostęp 21.04.2016
67
Korotayev, Andrey V.; Tsirel, Sergey V. (2010). "A Spectral Analysis of World GDP Dynamics: Kondratiev Waves, Kuznets Swings, Juglar and Kitchin Cycles in Global Economic Development, and the
2008–2009 Economic Crisis". Structure and Dynamics 4 (1): 3–57. http://escholarship.org/uc/item/9jv108xp#page-1
68
„Cykl koniunkturalny jest podstawą”, Forbes, 5, (2011), http://www.forbes.pl/forbes-millennium-prestige/artykuly/millenium-prestige/cykl-koniunkturalny-jest-podstawa,14457,1
65
41
zwrotny około 1971) okres rewolucji naukowo-technicznej; 1985-2015 okres rewolucji ICT (punkt zwrotny 2008). Model idealnego cyklu koniunkturalnego
przedstawiono na Rys. 1.10.
Rys. 1.10 Idealny cykl koniunkturalny
Występowanie cykli koniunkturalnych można wytłumaczyć za pomocą
czterech zmiennych:
1. Technologie i innowacje – stanowią koło zamachowe rozwoju i wystąpienie
fazy wzrostu gospodarczego (wzrost oparty na innowacyjności). Wszystkie
rewolucje techniczne, przemysłowe, informacyjne spowodowały gigantyczny boom gospodarczy.
2. Demografia i potrzeby – rozwój społeczny i cykl życia określa preferencje zakupowe społeczeństwa (zakupy edukacyjne w początkowej fazie życia, zakupy związane z założeniem rodziny, zakupy inwestycyjne, okres maksymalnych zarobków i konsumpcji,…) powodują zmiany w cyklach koniunkturalnych wraz ze starzeniem się lub odmładzaniem społeczeństwa.
3. Spekulacja zasobami – powoduje boom gospodarczy i powstawanie baniek
spekulacyjnych (wzrost zainteresowania kredytami, wzrost inflacji, wzrost
wartości gruntów i nieruchomości). To zmienia strukturę spożycia i koniunkturę na rynkach. Pęknięcie bańki spekulacyjnej może być początkiem kryzysu, tak jak miało to miejsce w roku 2008 po niemal 10 letniej koniunkturze
na rynku nieruchomości i kredytów subprime.
4. Dług deflacyjny – wynika z poziomu zadłużenia państwa i koniecznego ograniczenia konsumpcji. Może to prowadzić do stanu stagflacji, będącej wynikiem zarówno wzrostu cen, jak ograniczenia produkcji. Może się pojawić po
42
pęknięciu baniek giełdowych albo wskutek błędów polityki finansowej i fiskalnej państwa, skutkującej zmniejszeniem się wartości pieniądza.
Z faktu istnienia cykli koniunkturalnych wynika dla menedżera stara zasada inwestowania: „Kupuj gdy tanio, sprzedawaj, gdy drogo”, ale przede wszystkim obserwuj zmiany w otoczeniu i naucz się rozpoznawać, w której fazie cyklu znajduje się gospodarka. Wówczas można ocenić jakie kluczowe filary rozwoju
mogą się objawić i jak należy zmienić strategie działania organizacji. A dodatkowo przypomina się fakt, że dobrobyt nie bierze się z dotacji. W różnych fazach
cyklu, różne inwestycje oraz struktury portfelowe dóbr są mniej lub bardziej zasadne. Z obserwacji zachowań rynkowych można zaproponować „kalendarz
ekonomiczny” Rys. 1.11.
Rys. 1.11 Kalendarz ekonomiczny [źródło: Bank Millenium za Forbes 69]
Na kalendarzu ekonomicznym możemy poczynić szereg ciekawych obserwacji, szczególnie istotnych dla przedsiębiorcy, menedżera oraz inwestora. Okazuje się, że złoto nie jest panaceum na zmiany koniunktury, ale może być dobre
69
http://www.forbes.pl/cykl-koniunkturalny-jest-podstawa,artykuly,14457,1,1,2.html
43
na przetrwanie w okresie recesji. Inwestowanie w nieruchomości pod koniec recesji może być ciekawym pomysłem na biznes, bo zbliża się ożywienie (ale jeżeli
recesja potrwa dłużej, to potencjalne zyski trzeba odłożyć na czas przyszły). Gdy
stopy procentowe spadają, to lepiej rozpocząć zabezpieczanie interesu i ograniczać inwestycje (zwłaszcza w aktywa trwałe). A gdy rząd otwiera „zielone światło dla biznesu” albo ogłasza kolejną reformę za cudze pieniądze, to lepiej potraktować to jako początek głębszej recesji, niż ożywienie. Mamy wieloletnie doświadczenia w tej kwestii.
1.3.3 Informacja i wiedza
Wiedza i informacje stanowią dzisiaj o skuteczności zarządzania i wyniku
finalnym prowadzonej działalności gospodarczej. Jest nie tylko fundamentalnym składnikiem wiedzy, ale również redefiniuje produkt. Wiedza może być
narzędziem walki ekonomicznej i bronią na konkurencyjnym rynku. Może być
również narzędziem walki politycznej w rękach systemów władzy poprzez generowanie informacji użytecznych jednostronnie. W tym celu władza podporządkowuje sobie media, a posłuszni redaktorzy przejmują rolę kapłanów ze starożytnego Egiptu w tumanieniu społeczeństw. Taka asymetria w dystrybucji informacji społeczno-politycznej i świadoma manipulacja danymi statystycznymi
pozwala osiągać cele utrzymania władzy i wygrywania wyborów. Ma również
głęboki sens w przejmowaniu dochodu narodowego przez grupy nacisku i
utrwalania błędnej wiedzy w społeczeństwie.
Dla biznesu jest to bardzo zła okoliczność, ponieważ generuje brak zaufania
do systemu władzy i ustawia automatycznie państwo jako wroga społecznego,
co ma np. miejsce w Polsce od niepamiętnych czasów. Ale w końcu państwo
tworzące system władzy stanowi aparat ucisku70 i nie musi być kochane przez
nikogo, szczególnie jeżeli jest wykrzywioną demokracją o lewackiej proweniencji. Tym niemniej, ten kto podejmuje ryzyko działalności gospodarczej oczekuje
przynajmniej normalności ze strony otoczenia i rzetelnej wiedzy o gospodarce i
warunkach prowadzenia działalności biznesowej. Stąd informacja i wiedza stanowi oddzielną grupę zagadnień w zarządzaniu i poddziedzinę jego teorii. Wiedza traktowana jest przez menedżera jako narzędzie specyficzne. Można postawić osiem hipotez, stanowiących uogólnienie obserwacji wynikających z praktyki menedżerskiej.
 Menedżer oczekuje wsparcia podejmowanych decyzji przez dostępną wiedzę
pewną i informacje pewne lub wysoce uprawdopodobnione.
Karol Marks: „Państwo to narzędzie klasy panującej”; Włodzimierz Lenin: „Państwo jest machiną do
utrzymywania panowania jednej klasy nad drugą”. Benito Mussolini – Nic bez państwa. Wszystko dla pańtwa i nic przeciwko państwu.
70
44
 Istnieją w obszarze zarządzaniu zagadnienia wymagające analiz ilościowych
lub pomiaru (wiedzy pewnej) oraz kompetencji i wiedzy w zakresie interpretacji danych.
 Zarówno w ekonomii, jak i teorii zarządzania istnieją metody ilościowe, gwarantujące uzyskanie wiedzy wysoce prawdopodobnej o faktach.
 Istnieją metody jakościowe, umożliwiające rozumienie modeli kognitywnych
oraz interpretację danych ilościowych z obszaru zarządzania.
 Jednym z podstawowym zagadnień ekonomii i zarządzania jest optymalizacja, co wymaga zaangażowania wiedzy, doświadczenia oraz pomiarów.
 Wiedza stanowi zasób kluczowy i reprezentuje zbiór kompetencji kluczowych organizacji biznesowej.
 Wiedza może stanowić dobro w sensie ekonomicznym (może być towarem
stanowiącym wartość).
 Zarządzanie wykorzystuje dane i informacje o przeszłości i teraźniejszości w
celu uzyskania prognoz dotyczących przyszłości.
Powyższa lista z pewnością nie jest kompletna, ale z punktu widzenia zarządzania wymienione hipotezy pozycjonują wiedzę wśród zagadnień centralnych teorii zarządzania. Nie jest zatem zaskoczeniem, że wykorzystując wiedzę, opracowano zintegrowane systemy zarządzania organizacjami, prowadzące do wyjątkowych optymalizacji wyników. Są to przede wszystkim japońskie metody
„chudego zarządzania”, w tym zasady Kaizen71,72, KanBan73, JIT zwieńczone modelem produkcyjnym Toyoty74 (rozdział 3.3.3).
Wiedza ukryta
Koncepcja wiedzy ukrytej (tacit knowledge) pochodzi od M. Polanyiego75 i
przyjęła się w praktyce zarządzania jako dobre wyjaśnienie pewnych działań odkrywania prawd lub nabywania umiejętności, które były niedostępne do pewnego momentu. Wiedza ukryta pozostaje jedynie stanem uświadomienia faktu
jej istnienia gdziekolwiek. Nie można udowodnić, ani jej bytu, ani niebytu, bo
jest niedostępna. Wiemy natomiast, że nas otacza, ponieważ co pewien czas dokonywane są odkrycia i zgłaszane są wynalazki. Znamy również posiadaczy
wiedzy, która jest dla przeciętnego obserwatora niedostępna, niezrozumiała lub
niemożliwa do przekazania. Ale specjalista wie, umie i potrafi przekazań. Jeżeli
Imai M., „Kaizen. Klucz do konkurencyjnego sukcesu Japonii”, MT Biznes, Warszawa, 2007
Imai M., “Gemba Kaizen. Zdroworozsądkowe podejście do strategii ciągłego rozwoju”, MT Biznes, Warszawa, 2012
73
Anderson D.J., “Kanban: Successful Evolutionary Change for Your Technology Business”, Blue Hole
Press, Sequim, 2010
74
Japan Management Association, D.J. Lu (ed.), “Kanban Just-in Time at Toyota: Management Begins at
the Workplace”, Productivity Press; Rev Sub edition (1989)
75
Polanyi M., “The Tacit Dimension”, University of Chicago Press: Chicago, 1966.
71
72
45
przedstawimy teorię Hawkinga nawet bardzo wykształconej osobie, ale niezwiązanej w żaden sposób z fizyką, mamy gwarancję, że nie zrozumie ona zbyt
wiele. Dla niej taka wiedza pozostaje w pewnym stopniu ukrytą, ale możliwą do
odkrycia. Spróbujmy pojechać na rowerze czytając jedynie instrukcję obsługi –
bez praktycznego treningu (rodzaj wiedzy ukrytej).
Wiedza ukryta bywa przedstawiana jako "know-how", w przeciwieństwie do
"know-what" (fakty), "know-why" (nauka), lub "know-who" (networking)76.
Należy mieć świadomość istnienia ogromnych obszarów wiedzy niedostępnej
tu i teraz. Ale też należy mieć świadomość możliwości konwersji określonej wiedzy ze stanu ukrycia do stanu ujawnionego. Jest to jeden z fundamentalnych celów zarządzania, wnoszący często katastroficzne korekty wszelkich prognoz,
funkcji celu oraz strategii organizacji.
Jeżeli dokonamy wynalazku i wdrożymy go, nasza pozycja rynkowa może
ulec znaczącej zmianie. Stąd właśnie wynika unikatowa rola wiedzy ukrytej
w zarządzaniu – pozyskać wiedzę dotychczas niedostępną i zrobić z niej użytek.
To prowadzi w rezultacie do koncepcji organizacji opartej na wiedzy. Wart odnotowania jest model konwersji wiedzy ukrytej do jawnej SECI należący do I.
Nonaki i H. Takeuschiego, który stanowi podstawę budowania organizacji opartych na wiedzy i metody przekazywania wiedzy w grupie77,78.
W modelu SECI zdefiniowano z cztery wymiary przekazu wiedzy:
Ukryta – ukryta (socjalizacja wiedzy niejawnej). Dotyczy wiedzy przekazywanej
bezpośrednio (twarzą w twarz) albo nabywanej przez doświadczenie. Ten rodzaj
przekazu dotyczy relacji mistrz-uczeń i pogłębienia pozyskanej wiedzy przez
dalszą praktykę. Wiedza pozyskana pozostaje nadal niejawną publicznie i stanowi o przewadze konkurencyjnej danej organizacji. Stanowi równocześnie jej
kluczowe kompetencje.
Ukryta – jawna (uzewnętrznienie lub ujawnienie wiedzy). Ujawnienie publiczne patentu przez publikację albo ujawnienie tajemnicy firmowej wskutek
działań zamierzonych. Ten rodzaj interakcji pozwala na krystalizację wiedzy i
prowadzi do dalszego rozwoju oryginalnych koncepcji oraz powstawania nowej
wiedzy w otoczeniu (np. systemy oprogramowania open source). Tak się dzieje
w przypadku ujawnienia nowych produktów (np. smartfon będący pomysłem
S. Jobsa i firmy Apple stał się dostępny po jego ujawnieniu i aktualnie mamy
szereg firm produkujących podobne urządzenia, a przy tym rozwijających wiedzę i technologie ICT).
Wikipedia, “Tacit knowledge”, http://en.wikipedia.org/wiki/Tacit_knowledge
Nonaka I., "The Knowledge-Creating Company", Harvard Business Review 69 (6 Nov-Dec), (1991),
96–104
78
Nonaka I., Takeuchi H., “The Knowledge-Creating Company: How Japanese Companies Create the Dynamics of Innovation”, Oxford University Press, New York, 1995.
76
77
46
Jawna – jawna (kombinacja elementów). Ten rodzaj interakcji pozwala na asemblację i integrację posiadanej wiedzy oraz jej publiczne przetwarzanie i wymianę.
Przykładem są sieci ICT wiedzy, działania business intelligence oraz hurtownie
danych. Dzięki różnym syntezom i taksonomiom dostępnej wiedzy możliwe jest
wnioskowanie indukcyjne, dedukcyjne i abdukcyjne79, co powiększa rozumienie
i rozbudowę zasobów wiedzy. Wiedza jawna podlega procesom dyfuzji i migracji w otoczeniu biznesowym. Może stanowić źródło działalności biznesowej.
Wiedza jawna jest wartością i elementem zasobów w łańcuchach dostaw.
Rys. 1.12 Model SECI wymiarów wiedzy w organizacji
Jawna – ukryta (internalizacja – przejęcie wiedzy jawnej na własny użytek). Jest
to typowe działanie w budowaniu kluczowych zasobów, kiedy to powszechnie
dostępna wiedza zostaje wykorzystana w sposób unikatowy, a sposób ten zostaje utajniony (czasem chroniony patentem). Może to dotyczyć pojedynczej
osoby, która nabyła unikatowych uprawnień (np. zdobyła certyfikację zawodową) i staje się dla organizacji pracownikiem wiedzy i jej zasobem. Internalizacja jest również procesem ciągłej adaptacji i samorefleksji organizacji nad jej łańcuchem wartości w kontekście informacji płynących z otoczenia. Jest to jeden z
najważniejszych elementów w zarządzaniu wiedzą.
79
Gospodarek T., „Aspekty…”, str. 217-224
47
Przedstawiony model SECI jest fundamentem zrozumienia wykorzystania
wiedzy w procesach biznesowych i koncepcji zarządzania wiedzą. Dla każdego
menedżera budowanie unikatowych zasobów wiedzy i kluczowych kompetencji
jest imperatywem kategorycznym, o ile zarządzana organizacja ma generować
wartość w dłuższej perspektywie czasowej.
48
Od danych do mądrości
„Zbiór danych nie jest informacją, zbiór informacji nie jest wiedzą, zbiór wiedzy nie
stanowi mądrości, a zbiór mądrości nie zawsze stanowi prawdę”. Ten cytat pochodzi
od G. Bellingera i najlepiej charakteryzuje problem ontologiczny, czy informacja
i wiedza to jedno. Nie wchodząc w rozważania filozoficzne na temat platońskiej
koncepcji wiedzy, problemu Gettiera, itp.80, warto rozważyć model budowania
wiedzy przedstawiony na Rys. 1.1381. H. Poincare celnie spuentował tą kwestię
„Wiedzę buduje się z faktów, jak dom z kamienia; ale zbiór faktów nie jest wiedzą, podobnie jak stos kamieni nie jest domem”. Wiedza zawsze wynika z przetworzenia informacji, ale nie odwrotnie. Informacja może być wartościowym komunikatem dla
odbiorcy. W konsekwencji może on ją wykorzystać, przetworzyć, zachować,
uzupełnić, poddać heurystyce, itp. Ale dopiero gdy informacja zostanie zaabsorbowana i zapamiętana, może lecz nie musi zasilić zasób wiedzy. Wiedza stanowi
wartościowy zasób organizacji i reprezentuje jej kluczowe kompetencje82.
Rys. 1.13 Od informacji do mądrości (koncepcja funkcjonowania wiedzy).
W modelu przedstawionym na Rys. 1.13 rozumienie i kontekst stanowią
dwie cechy wyznaczające sposób praktycznego wykorzystania wiedzy oraz jej
relacje. Im wyższy poziom wiedzy, tym większe jest doświadczenie i możliwość
wykonania bardziej złożonych produktów oraz czynności z tym związanych.
Wiedza generuje innowacyjność i możliwości modyfikowania portfela produktów oraz optymalizację łańcuchów wartości.
Gospodarek T., “Aspekty…”, op. cit. str. 94.
Davenport T., Prusak L., “Working Knowledge”, Harvard Business School Press, Boston (1998).
82
Gospodarek T., „Elastyczność zasobu informacyjnego”, [w], R. Krupski [red.], „Elastyczność organizacji”, Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu: Wrocław, 2008, str. 127-148.
80
81
49
Relacja pomiędzy posiadaniem i rozumieniem wiedzy, a stopniem komplikacji wykonywanych zadań została przedstawiona na Rys. 1.13. To jest przesłanka dla menedżera, którego zadaniem jest tworzenie kultury organizacji tak,
żeby przejmowane technologie mogły być dostosowane do poziomu ich zrozumienia (były transparentne). Wdrożenie systemu ERP w organizacji, gdzie nie
dokonano wcześniej opisu procesów i nie zdefiniowano obiegów informacji, z
pewnością zakończy się porażką. Podobnie, jak zainstalowanie robotów bez zrozumienia sposobu ich wykorzystania z pewnością nie przyniesie pożytku inwestorowi. Natomiast dopasowanie kultury wewnątrzorganizacyjnej do wykonywanych zadań jest procesem budowania wiedzy i nabywania doświadczenia.
Ale dopiero po pewnym czasie można mówić o mądrości. Proces rozumienia
wiąże się z odkrywaniem znacznej ilości wiedzy ukrytej ( model SECI), w czym
pomaga doświadczenie i zasób istniejącej wiedzy.
1.3.4 Równowaga makroekonomiczna
Socjalistom, po jakimś czasie, zawsze kończą się cudze pieniądze. To zdanie przypisywane M. Tatcher, najlepiej ilustruje, jak równowaga ekonomiczna może zostać całkowicie zniszczona przez nieodpowiedzialną politykę finansową w skali
makro83. Jeżeli dodamy do tego destrukcyjne działania ponadnarodowych korporacji, banksterów z funduszy hedgingowych oraz różnych macherów od inżynierii finansowej, a dodatkowo uwzględnimy działania nieformalnych grup
nacisku globalnego typu Bilderberg84 i wszelakich, korporacyjnych lobby, jawi
się nam obraz zdemoralizowanego świata finansjery, mającej na celu wykorzystanie całych narodów i wysysanie z nich kapitału, czego najlepszym przykładem jest sytuacja Grecji, jak również błędy polskiej transformacji ustrojowej opisane przez W. Kieżuna85. Dodać do tego należy presję na menedżerów wynagradzanych za wyniki finansowe zarządzanych organizacji, ciągłe próby zawłaszczania rynku i bezwzględną eliminację konkurencji. To wszystko powoduje, że
światowy poziom asymetrii rozkładu dóbr i kapitału przekroczył już dawno granice bezpieczeństwa. W rezultacie zaczynają się odśrodkowe ruchy próbujące
burzyć istniejący porządek świata, gdzie niecałe 20% populacji przejęło 80%
światowych dóbr, a najbiedniejsze 20% posiada jedynie 1% światowych zasobów86. Skutki tej asymetrii obserwujemy również w Europie, pomimo głoszenia
haseł o zrównoważonym rozwoju, gdzie migranci ekonomiczni rozpoczęli nieodwracalną w skutkach kolonizację zamożniejszych członków lewackiej Unii
Europejskiej.
Durkin M., “Britain's Trillion Pound Horror Story”, https://www.youtube.com/watch?v=DVPq8DjZ9s4
(film napisy PL)
84
http://www.prisonplanet.pl/polityka/bilderberg_2015_oficjalna,p2045412493
85
Kieżun W., „Patologia transformacji”, Wyd. Poltext Warszawa, 2013.
86
Roser M., “Income Inequality”. (2015), http://ourworldindata.org/data/growth-and-distribution-of-prosperity/income-inequality/
83
50
Rys. 1.14 Równowaga makroekonomiczna
W tych szybkozmiennych warunkach społeczno ekonomicznych musi funkcjonować biznes mniejszego formatu, utrzymując chwilowe stany równowagi
mikro-makro na rynkach lokalnych. Wydaje się, że wszelkie globalne koncepcje
zrównoważonego rozwoju i stabilności wzrostu można powoli zacząć uznawać
za fikcję. Szybkozmienność otoczenia i coraz trudniejsza jego przewidywalność
preferuje zachowania adaptatywne o bardzo krótkim okresie planowania i szybkich reakcjach na nadarzające się okazje. Obserwuje się w związku z tym awersję
do ryzyka na rynkach kapitałowych i ucieczkę w „bezpieczne”, ale głównie fiducjarne aktywa (rys. 1.11), o ile takie w ogóle można definiować jako bezpieczne. Skutkiem tego powstają bańki spekulacyjne, a prawdopodobieństwo
wywołania ogólnego kryzysu jest coraz większe przy równoczesnym skróceniu
czasu pomiędzy kolejnymi zdarzeniami katastroficznymi na rynkach oraz wiel-
51
kością impulsu, który może wywołać reakcję lawinową. Taka metastabilna sytuacja panuje aktualnie na rynku ropy i niektórych surowców (w tym miedzi).
Cena na poziomie $50 za baryłkę powoduje perturbacje u producentów i zaburza
światowy system finansowy. To są poważne zagadnienia równowagi globalnej,
które każdy menedżer musi mieć na względzie planując rozwój biznesu. Dlatego
stałe śledzenie czynników analizy PEST oraz globalnych wskaźników gospodarowania i prowadzenia biznesu dla swojego działania powinno być jednym z
imperatywów dobrego zarządzania.
Model równowagi makroekonomicznej przedstawiono na rys. 1.11. Pozostaje on w ścisłym związku z modelem globalnego łańcucha dostaw przedstawionego na rys. 2.5. W modelu powyższym nie uwzględniono wpływu korporacji ponadnarodowych oraz procesów globalizacji, które zaburzają równowagę
makroekonomiczną i wprowadzają zmiany reguł gry mikro-makro. Skutkiem
tego są ogromne dysproporcje w dystrybucji światowego bogactwa i stopnia oligarchizacji państw, co hamuje rozwój narodowej przedsiębiorczości oraz wielkość kapitału do dyspozycji w lokalnych systemach makroekonomicznych na
poziomie państw. Fakty te ilustruje globalny raport Research Institute of Credit
Suisse „Global Wealth Report 2015”87 oraz dane źródłowe88.
Na rys. 1.15 przedstawiono zmiany zamożności gospodarstw domowych w
latach 2014-2015. Widać wyraźnie, że zamożność w Polsce pogorszyła się znacząco o -17,4%. To są skutki rabunkowej działalności kolejnych rządów po 1989
roku i rozbuchana sfera spożycia (marnotrawstwa) zbiorowego. Spodziewane
rezultaty z wdrożenia programu 500+ nie powinny poprawić znacząco tej sytuacji, bo po drugiej stronie pojawia się konieczności zwiększenia obciążeń fiskalnych obywateli w sposób pośredni i bezpośredni oraz dalsze zadłużanie się państwa dla ratowania budżetu i systemu. W roku 2016 obserwujemy dalsze zubożenie gospodarstw domowych w Polsce o 4,2% (zgodnie z metodyką obliczania
stosowaną przez Credit Suisse”89. Doprowadzi to w kontekście zawirowań w
otoczeniu do nieprzewidywalnej w skutkach nierównowagi makroekonomicznej w ciągu kilku kolejnych lat. Już bowiem w styczniu 2017 dług publiczny przekroczył 1 bln złotych i jesteśmy bliżej wizji T. Konwickiego z „Małej apokalipsy”
tyle, że nie dotyczy już ona Rosji.
Credit Suisse, “Global Wealth Report 2015”, https://publications.credit-suisse.com/tasks/render/file/?fileID=F2425415-DCA7-80B8-EAD989AF9341D47E
88
Davies. J., Lluberas R., Shorrock A; Credit Suisse, “Global Wealth Databook 2016”, http://publications.credit-suisse.com/index.cfm/publikationen-shop/research-institute/?relavtivepid=A93C00ED-03E23BF6-BAA5D0B03B203545
89
Davies. J., Lluberas R., Shorrock A; Research Institute, Credit Suisse, “Global Wealth Databook 2016”,
Nov. 2016 str. 101.
87
52
Rys. 1.15 Zmiany zamożności gospodarstw domowych w latach 2015-2016 88 .
Zmiany wynikające z globalizacji i zaburzeń w skali makro prowadzą do
powstania piramidy zamożności, zaprezentowanej poniżej rys.1.16. Widać wyraźnie, które rządy zubożają nasze bytowanie i warto zastanawiać się nad przyczynami, biorąc pod uwagę podatki, skrzywienia modelowe państwa oraz źle
stanowione, zbiurokratyzowane prawo. Globalne wskaźniki o tym mówią.
Ważnym wskaźnikiem dla prawidłowego rozkładu zamożności społeczeństw jest klasa średnia, której zdefiniowanie nie jest proste, albowiem brane
są pod uwagę: dochody, styl życia, rodzaj wykonywanej pracy, a ponadto pojawiają się trudności współmierności wyników ze względu na różnice ekono-
53
miczne porównywanych regionów90. Klasa średnia odpowiada za tworzenie nowych miejsc pracy, kreowanie wzorców zachowań, generowanie oszczędności,
uczestnictwo w różnych przejawach życia społecznego, kształtowanie opinii i
postaw etycznych, działalność artystyczną, legislację, itp. Rozsądne zarządzanie
w skali makro powinno zatem prowadzić do tworzenia się klasy średniej w jak
najwyższym procencie w interesie społecznym. Niestety w modelu rozwoju państwa polskiego daje się zauważyć anihilacja obecnej klasy średniej, którą można
docisnąć podatkami i restrykcjami na wytworzenie w zamian tej, socjalnej, zależnej od łaskawości władzy i jej dotacji.
Rys. 1.16 Piramida rozkładu światowego dobrobytu 88
Oszacowanie ilościowe, dokonane w roku 2015 przez Credit Suisse dla Polski wynosi około 19,3% populacji, przy średniej dla Europy 33%. Największą populacją klasy średniej cieszy się Australia, aż 66%. Warto odnotować fakt, że w
Polsce zmiana zamożności dla tej klasy w okresie 2000 – 2015 to 243 mld USD
przy wzroście z 2,3 do 6,2 mln osób w tym samym okresie. Oznacza to, że nasza
klasa średnia wprawdzie wzrosła liczebnie, to jednak jej zamożność nie poprawiła się równie wysoko i oscyluje w okolicach 25 000 USD. Dla porównania, w
USA przynależność do klasy średniej zaczyna się od poziomu 50 000 USD (Low
Middle Class).
Wyżnikiewicz B., Obserwator Finansowy, „Klasa średnia rośnie w Polsce w siłę”, 15.05.2015,
https://www.obserwatorfinansowy.pl/tematyka/makroekonomia/klasa-srednia-rosnie-w-polsce-w-sile/
90
54
1.4 Kapitał jako reprezentacja wartości
Pisał K. Marks: [Kruszcowa forma naturalna złota pozostaje powszechną formą
ekwiwalentną wszystkich towarów, bezpośrednim społecznym ucieleśnieniem wszelkiej
pracy ludzkiej. Pęd do tworzenia skarbów z natury nie zna granic. Ze względu na swą
jakość, czyli formę, pieniądz nie zna granic, tzn. jest ogólnym przedstawicielem materialnego bogactwa, ponieważ jest bezpośrednio wymienialny na każdy towar. Ale jednocześnie każda rzeczywista suma pieniędzy jest ilościowo ograniczona, ma więc tylko ograniczoną siłę nabywczą. Ta sprzeczność między granicą ilościową a brakiem jakościowych
granic pieniądza popycha wciąż zbieracza skarbu do syzyfowej pracy gromadzenia.
Dzieje się z nim tak jak ze zdobywcą świata, który za każdym nowym podbojem zdobywa
tylko nową granicę.]
Kapitał stanowi siłę sprawczą procesów ekonomicznych. Jest on zasobem
pierwotnym dla tworzenia złożonych układów społeczno-ekonomicznych oraz
budowania relacji (rys. 1.2). Wymiana kapitału i jego przepływy stanowią wynik
oddziaływań ekonomicznych systemu generującego wartość z otoczeniem. Prowadzą do fluktuacji oraz możliwości koncentracji kapitału w określonych punktach. Jednocześnie obserwuje się znaczne luki kapitałowe w innych punktach. Te
dysproporcje generują powstawanie barier, uniemożliwiających przebieg podstawowych procesów ekonomicznych oraz zjawiska asymetrii rozwoju. Największym problemem centralnym ekonomii i zarządzania w skali makro jest zagadnienie: czy rację miał J. Hayek (i austriacka koncepcja makroekonomiczna), czy M.
Keynes (i jego interwencjonizm państwowy).
Z pewnością niekorzystnym zjawiskiem obserwowanym powszechnie w
Europie jest rugowanie kapitału prywatnego przez kapitał państwowy oraz koncepcje rozdawnictwa różnych socjalnych datków (zasiłki, dotacje, etc.) i tym samym okradania przez państwa całej sfery produkcyjnej narodów poprzez
zbędne daniny. Państwo nie ma swoich pieniędzy. Musi je zabrać jednym w sferze produkcyjnej, osłabiając ją, żeby rozdać innym w sferze nieprodukcyjnej lub
zmarnować na własne potrzeby nieefektywnego administrowania wiecznym deficytem. To prowadzi do poważnych zaburzeń i asymetrii rozkładu kapitału w
gospodarce, powodując nadmiernego zadłużanie się budżetów państwowych i
przerosty zasobowe (w tym biurokratyczne) w sferze nieprodukcyjnej91. Traci się
na przejrzystości funkcjonalnej gospodarki oraz użyteczności redystrybucji kapitału. Zyskują na tym banksterskie organizacje i ponadnarodowe korporacje,
umożliwiając procesy zadłużania się społeczeństw i w rezultacie przejmowania
zasobów państw zadłużonych za przysłowiową czapkę śliwek. Przykładem
91
Durkin. M., “Bilionowy brytyjski horror – film https://www.youtube.com/watch?v=DVPq8DjZ9s4”
55
mogą być wszelkie, polskie „prywatyzacje” polegające głównie na transferze kapitału za granicę oraz upadek wielu gałęzi polskiego przemysłu, który stanowił
konkurencję dla zagranicznych korporacji.
Wyjątkowym instrumentem na rynku kapitałowym jest pieniądz fiducjarny,
taki który ma pokrycie w wierze w jego wartość, a nie w dobrach wymiernych
lub kruszcu szlachetnym. Wymyślili to już Chińczycy z dynastii Yuan92. Wypuszczając papiery uznawane za wartościowe można odnieść znaczące korzyści
gospodarcze (zwłaszcza z punktu widzenia emitenta). Dzisiejsza ekonomia globalna opiera się na pieniądzu fiducjarnym, dzięki któremu możliwe jest sterowanie inflacją przez rządzących oraz kreowanie popytu (na kredyt). Prowadzi
to w rezultacie do coraz poważniejszych kryzysów, powstawania baniek spekulacyjnych oraz wojen ekonomicznych dotyczących walut referencyjnych.
Zarządzanie makro systemami monetarnymi nigdy nie jest korzystne dla
obywateli danego państwa, a jedynie dla państwa i jego wydatków. Natomiast
możliwość kreowania pustego pieniądza przez banki prywatne dodatkowo uderza w dobrobyt narodów (dług publiczny, zadłużenie społeczeństwa, przejmowanie rzeczywistego majątku przez korporacje finansowe). Warto w tym miejscu zobrazować problem siły nabywczej dolara amerykańskiego w okresie od
1913 (kiedy miał 100% pokrycia w złocie) oraz dzisiejszego, który jest 50 razy
mniej wart (ponieważ ma jedynie pokrycie w nadziei, że będzie jeszcze coś wart
za lat kilka). Tą degrengoladę spowodowały właśnie banki i polityka zbiorowej
konsumpcji na kredyt. W niektórych, spektakularnych przypadkach pieniądz fiducjarny całkowicie utracił swoją wartość (np. dolar Zimbabwe, czy też marka
Republiki Weimarskiej z 1923 roku).
1.4.1 O jednostce kapitału
Wydawać by się mogło, że problem jednostki kapitału nie powinien budzić
większych zastrzeżeń, bo powinien to być wymiar pieniądza w danym kraju
albo wymiar jakiejś międzynarodowej waluty umownej. Można takie założenie
przyjąć w odniesieniu do zapisów księgowych, co jest uregulowane de iure w
większości krajów. Ale porównywanie dwóch kapitałów w dwóch różnych kontekstach biznesowych i krajach jest już kłopotliwe. Ba, nawet odniesienie czasowe, obliczone jako różnica wartości wyłącznie w cenach bieżących, nie jest
prawdą. Po pierwsze pojawia się kwestia: czy kapitał $1000 w kraju o dochodzie
PKB na mieszkańca na poziomie $500 oznacza to samo co w kraju gdzie ten poziom to $10000? Oczywistą odpowiedzią jest, że to nie jest to samo. A skoro tak,
to konieczne jest zastosowanie innej miary, a nie wybranej waluty.
Von Glahn, R., “Fountain of Fortune: Money and Monetary Policy in China, 1000–1700”, Berkeley University Press, Berkley, 1996.
92
56
Unia Europejska stosuje w swoich analizach porównawczych umowną jednostkę PPS (Purchasing Power Standard)93 definiowaną jako parytet siły nabywczej i odniesioną do dochodu narodowego. W wersji bezwzględnej definicji PPS,
siła nabywcza różnych walut krajowych jest odnoszona do ustalonego umownie
koszyka dóbr, identycznego we wszystkich krajach porównywanych. Jest to
szerszy odpowiednik koncepcji PPP (Purchased Power Parity) G. Casela94 zakładającej, że istnieje jednakowa cena danego produktu na całym świecie w przypadku braku ograniczeń handlowych i kosztów transportu (np. cena hamburgera w McDonalds, tzw. indeks BigMac). Niestety w warunkach ograniczonej
konkurencji, prawo jednej ceny nie funkcjonuje ze względu na:
 cła i inne ograniczenia lokalne stosowane w handlu,
 działania banków centralnych i spekulację hedgingową, itp.,
 podatki cenotwórcze typu VAT, akcyza, różne w różnych kracjach,
 dopłaty i subsydia towarów i produkcji (np. rolnictwo w UE),
 restrykcje lub zakazy produkcji niektórych produktów lub świadczenia pewnych usług,
 koszty transportu, które dla określonych produktów są relatywnie wysokie
w stosunku do ich wartości.
Jeśli cena jednostki jakiegoś dobra w jednym kraju jest inna niż za granicą,
opłaca się kupować to dobro w kraju "tańszym" i sprzedawać w kraju „droższym”. Takie działanie, nazywane arbitrażem powinno powodować wyrównanie się cen tych samych dóbr we wszystkich krajach po określonym czasie. Innymi słowy, realny kurs walutowy w relacji do waluty referencyjnej zawsze będzie zbliżony do 1 (adaptatywne samouzgodnienie kursu waluty w czasie).
Przeczy temu obserwowany efekt Samuelsona-Balassy95,96, który wskazuje, że:
wyrażony w jednej walucie poziom cen wielu dóbr w krajach o dużej produktywności
pracy jest wyższy, niż poziom cen takich samych dóbr w krajach o małej produktywności
pracy. W wyniku tego, realny kurs waluty w krajach bogatszych jest zwykle wyższy niż 1, w odniesieniu do waluty referencyjnej i wraz z upływem czasu, waluty
krajów bogatych stają się trwałe przewartościowane. Efekt Samuelona-Balsassy
jest szczególnie mocno widoczny w przypadku dóbr niehandlowych.
Idea odniesienia ceny porównawczej do dochodu narodowego na głowę
mieszkańca powinna wyrównywać wady porównań wynikające z torii jednej
ceny oraz efektu Samuelsona-Balassy. Ale i tutaj pojawiają się kłopoty natury
subiektywnej, dotyczącej wyboru koszyka dóbr oraz obiektywnej, związanej z
93
Purchasing Power Standard ( http://europa.eu.int/estatref/info/sdds/en/strind/ecobac_gdp_sm.htm ).
Cassel G., “Abnormal Deviations in International Exchanges”, The Economic Journal, 28(112), (1918),
413.
95
Balassa, B. (1964), "The Purchasing Power Parity Doctrine: A Reappraisal", Journal of Political Economy
72 (6): 584–596.
96
Samuelson, P. A. (1994), "Facets of Balassa-Samuelson Thirty Years Later", Review of International Economics 2 (3): 201–226.
94
57
nieporównywalną jakością dóbr posiadających określoną funkcjonalność lub
użyteczność. Próbą takiego odniesienia obok wspomnianego PPS, jest stosowany
przez Bank Światowy dolar międzynarodowy Int$, tzw. Geary-Khamis dolar97.
Jest to hipotetyczna jednostka walutowa, która ma taką samą siłę nabywczą, jak
dolar amerykański w USA w danym czasie. Jest on powszechnie stosowany w
ekonomii, a lata 1990 i 2000 są często wykorzystywane jako punkt czasowy odniesienia.
1.4.2 Jak mierzyć kapitał
Kolejnym punktem dyskusji nad rolą kapitału w zarządzaniu jest jego pomiar. Najtrudniejszym elementem pomiarowym jest kapitał intelektualny oraz
informacyjny (rys. 1.17Rys. 1.17). Najczęściej kapitał mierzony jest jako wartość
rynkowa dobra, ustalaną przez cenę równowagi w jednostkach walutowych. Pomiarem wartości całych organizacji zajmuje się księgowość. Niestety, w sprawozdaniach finansowych nie uwzględnia się kapitału intelektualnego, a jedynie
wartości niematerialne i prawne, posiadające swoją wycenę. Stąd można wnosić98, że różnica pomiędzy wartością rynkową i księgową może stanowić bardzo
zgrubne oszacowanie kapitału intelektualnego. Przede wszystkim nie może to
być prawdą wobec stochastycznych wahań kursów spółek i znaczącego udziału
aspektów psychologicznych w oszacowaniach giełdowych99. Zdarzają się również katastroficzne zmiany wartości rynkowej, przy stałym kapitale intelektualnym. Przykładem może być dekapitalizacja rynkowa firmy Nokia, gdzie w ciągu
6 miesięcy 2011 roku cena akcji spadła o 50%. Kapitał intelektualny oraz potencjał wytwórczy Nokii pozostały, ale konkurenci zrobili dwa kroki do przodu i w
tym momencie rynek zareagował obniżką wyceny.
Innym zagadnieniem związanym z wyceną kapitału jest zdolność do kreowania wartości. Ta jest mierzona najczęściej wskaźnikiem EBITDA100. Różni się
on od przepływów pieniężnych z działalności operacyjnej głównie wyłączeniem
płatności za podatki oraz dywidendy, jak również zmian w kapitale obrotowym.
EBITDA różni się od wolnego przepływu środków pieniężnych, ponieważ wyklucza potrzeby gotówkowe na odtworzenie środków trwałych, pozostając
wskaźnikiem niezależnym od podatków i wyrażony w PPS lub PPP może stanowić źródło porównań wartości generowanego kapitału.
Można zauważyć, że wycena giełdowa spółki stanowi pewną krotność generowanego przez nią EBITDA, co umożliwia dokonania uśrednień dla branży
lub pewnej zbiorowości organizacji podobnego typu, a następnie określenie
97
http://data.worldbank.org/data-catalog#Tables .
Dobija D., „Pomiar i sprawozdawczość kapitału intelektualnego przedsiębiorstwa”, Warszawa: Wydawnictwo Wyższej Szkoły Przedsiębiorczości i Zarządzania im. Leona Koźmińskiego, 2004.
99
Mantegna R.N., Stanley H.E., “An Introduction to Econophysics: Correlations and Complexity in Finance”, Cambridge University Press, Cambridge, 1999. (polskie wydanie PWN, Warszawa 2001).
100
Earning Before Interests Taxes Depreciation and Amortization.
98
58
wskaźnika wartości w relacji do EBITDA. Ten wskaźnik można używać do ustalenia wartości firm nie notowanych na giełdach, jako uśrednione oszacowanie
wartości kapitału na podstawie obliczonego wyniku EBITDA. Tak może postępować obserwator zewnętrzny, nie mający wiedzy na temat struktury wewnętrznej organizacji. Ale co w przypadku obserwatora wewnętrznego? Ten
dysponuje wiedzą księgową oraz dodatkowymi informacjami odnośnie struktury kapitału i może ustalić nie tylko EBITDA ale również NPV dla potencjalnego nabywcy. Stąd oszacowania wewnętrzne mogą się różnić znacząco od
oszacowań zewnętrznych. Tym samym istnieje pole do badań na temat bardzo
użyteczny dla praktyki managerskiej: jak doprowadzić do wyrównywania oszacowań
zewnętrznych i wewnętrznych oraz co stanowi o różnicy tych wycen? Odpowiednia
konstrukcja sprawozdań finansowych oraz prezentacja przekrojów danych stanowi domenę rachunkowości MSR oraz standardów międzynarodowych sprawozdań finansowych MSSF. Niestety struktura kapitałów wirtualnych nie jest
przez nie uwzględniana.
1.4.3 Kapitał uogólniony
Dzisiejsza ekonomia musiała potraktować kapitał znacznie szerzej niż tylko
jako reprezentację wartości. Na rys. 1.17 przedstawiono układ taksonomiczny
kapitałów cząstkowych, składających się na system generujący wartość i praktycznie realizowany w różnych organizacjach. W tej koncepcji kapitał jest silnie
ustrukturyzowany.
Najważniejsze dwa składniki główne to: kapitał intelektualny, związany z zasobem ludzkim i jego relacjami oraz kapitał wiedzy, wartościujący szeroko pojęte
zasoby informacyjne. Kapitał intelektualny oraz wiedzy generują pewien kapitał
organizacji, umożliwiający zaistnienie innowacyjności (kapitał innowacji) oraz
tworzenie procesów biznesowych (kapitał procesów), w tym opartych na wiedzy. Rdzeniem kapitału intelektualnego są cztery elementy: kapitał ludzki, kapitał struktury, kapitał kliencki oraz kapitał relacyjny. Te cztery ontologie konceptualne są ze sobą wzajemnie sprzężone i nie wydaje się być możliwym ich
oddzielne rozpatrywanie. Można to określić jako „system kapitału intelektualnego”, którego zadaniem jest wniesienie wiedzy do generowanej przez organizację wartości i optymalizacja ekstensywna użyteczności zasobów pozostających
w jej gestii.
Taka koncepcja funkcjonowania kapitału w systemie generującym wartość
wskazuje na duży stopień złożoności wyceny wartości. Problem ten dotyczy najbardziej kapitału ludzkiego oraz kapitału wiedzy. Zarówno użyteczność, jak i
wynikająca zeń wartość chwilowa nie podlegają deterministycznym modelom
oszacowań. Te wielkości są w najwyższym stopniu związane z oddziaływaniami
otoczenia, określającego możliwości alokacji wytworzonej wartości oraz jej
struktury w formie pożądanych produktów. Równocześnie otoczenie generuje
59
impulsy informacyjne o działaniach konkurencji, aktualnych preferencjach
rynku oraz sytuacji makroekonomicznej, co zmienia w sposób adaptatywny procesy biznesowe systemu oraz strukturę jego kapitałów organizacyjnych i pośrednio wiedzy oraz intelektualnego.
Rys. 1.17 Struktura kapitałów systemu generującego wartość 101.
Stąd wysoki stopień zmienności w czasie wymaga szybkich reakcji managerskich oraz skrócenia do maksimum czasu zapóźnień informacyjnych, pochodzących od sprzężeń zwrotnych systemu z otoczeniem. To z kolei oznacza, że kapitał informacyjny stanowi jeden z krytycznych zasobów.
1.5 Działalność gospodarcza
Jednym z aspektów wyłącznej działalności człowieka jest działalność gospodarcza. Służy ona tworzeniu wartościowych dóbr odpowiadających potrzebom
rynku, które można wymienić na inne dobra lub ich równoważniki. Zasadniczym celem działalności gospodarczej jest wykreowanie wartości (korzyści finansowej, zaspokojenie potrzeby zbiorowej, uzyskanie dochodu, itp.). Stąd też
101
Gospodarek T., „Aspekty złożoności…”, str. 177
60
stanowi ona fundament każdej ekonomii. Przez działalność gospodarczą należy
rozumieć wszelkie zamierzone i kontrolowane działania, w których praca ludzka, dostępne zasoby i wiedza zostają użyte przez przedsiębiorcę lub organizację (system generujący wartość) w celu wytworzenia określonej wartości dodanej. Stąd też przez lata
pojawiły się różne formy i rodzaje działalności gospodarczej oraz produkty wytwórczości.
Istnieje kilka ważnych klasyfikacji działalności gospodarczej. Jedną z nich
jest Europejska Klasyfikacja Działalności NACE102 stosowana w Unii Europejskiej w celach statystycznych oraz ustalania regulacji prawnych. Inną, używaną
w międzynarodowych rankingach jest klasyfikacja ONZ – ISIC103 (Międzynarodowa, standardowa klasyfikacja rodzajów działalności). W Polsce stosowana jest
klasyfikacja PKD104 W katalogu znajduje się 1650 pozycji, które są rozróżniane i
analizowane w sprawozdaniach statystycznych GUS. Jak widać, inwencja biurokracji w kwestii kreowania nowych działalności biznesowych może być nieograniczona i z czasem będzie w katalogu przybywać pozycji ku utrapieniu przedsiębiorcy i wbrew zasadzie brzytwy Ockhama. A wszystko po to, żeby wypełnić
idee przedstawione przez R. Reagana: Jeżeli coś działa - uregulować. Jeżeli to nadal
działa - opodatkować. A jeżeli przestaje działać - dotować.
Działalność gospodarcza może być prowadzona w różnych formach od niezarejestrowanego uczestnika wymiany rynkowej (szarej strefy) poprzez przedsiębiorcę prowadzącego jednoosobową działalność, różnego rodzaju spółki aż
do skomplikowanych organizacji globalnej o rozbudowanej strukturze korporacyjnej. W legalnej strefie, wszelka działalność jest ewidencjonowana, bądź rejestrowana, co wiąże się z przyjmowaniem rozlicznych obowiązków prawnych
przez wykonującego działalność. Między innymi podlega on różnego rodzaju
podatkom, musi wykonywać określone usługi, na ogół bezsensowne, na rzecz
biurokracji państwowej oraz sprawozdawczości. To powoduje, że na drodze niekontrolowanego rozwoju wszelkich przejawów działalności gospodarczej pojawiają się różnorakie bariery.
Oceną warunków dla prowadzenia działalności gospodarczej zajmuje się
World Economic Forum, które rokrocznie wykonuje raport „Doing Business”.
Polska w roku 2016 uplasowała się na bardzo wysokim, 25 miejscu na 189 krajów
(ale uwaga szczegóły nie wypadają tak rewelacyjnie – patrz rozdział 5.4.7). Naj-
Eurostat, Legal notice | Contact “RAMON - Reference And Management Of Nomenclatures”, Metadata, Statystycznej Klasyfikacji Działalności Gospodarczej we Wspólnocie Europejskiej, Rev. 2
http://ec.europa.eu/eurostat/ramon/nomenclatures/index.cfm?TargetUrl=LST_NOM_DTL&StrNom=NACE_REV2&StrLanguageCode=PL&IntPcKey=&StrLayoutCode=HIERARCHIC
103
International Standard Industrial Classification of All Economic Activities; http://unstats.un.org/unsd/statcom/doc02/isic.pdf
104
Polska Klasyfikacja Działalności http://stat.gov.pl/Klasyfikacje/doc/pkd_07/pkd_07.htm
102
61
lepiej wypadamy w handlu zagranicznym, gdzie plasujemy się ex-equo z krajami UE na 1 miejscu. Najgorzej w zakładaniu spółki prawa handlowego 85 miejsce i płaceniu podatków 58 miejsce. Są to problemy, których żaden rząd od 25 lat
nie potrafił rozwiązać, a obecny jedynie je pogłębi. W każdym razie, robienie interesu w Polsce nie jest pozbawione racjonalności.
1.5.1 Model systemowy działalności gospodarczej
Jak powstaje wartość w systemie generującym ją? Na rys. 1.18 przedstawiony został model sprzężenia zwrotnego generowania wartości przez system.
Pozostaje on w relacji kontekstowej do modelu funkcjonowania wartości przedstawionego na rys. 1.2. Kreatorzy lub dysponenci wartości (w chwili t1) mają intencje wykreowania określonego pozytywu dla interesariuszy (w chwili t2). Mają
w tym celu odpowiednie zasoby i kompetencje oraz wolę podjęcia działania. Są
w stanie prognozować pewne konsekwencje takiego działania (np. wytworzone
zostaną dobra materialne albo podniesie się poziom życia, albo zaspokojone zostaną określone potrzeby). Rezultat działania objawi się w otoczeniu, bo tylko
wówczas można mówić o wykreowaniu wartości.
Otoczenie jest społeczeństwem uposażonym w kulturę, cywilizację, wizję
rozwoju, itd., jak również w zasoby, takie jak: środowisko naturalne, kompetencje społeczne, kapitał, itp. Te zasoby mogą być potrzebne, aby intencja wygenerowania wartości stała się faktem. Oznacza to, że musi zaistnieć gra dwu lub
wieloosobowa105 pomiędzy kreatorami wartości a otoczeniem, polegająca na powstaniu określonego pozytywu i jego akceptacji bądź odrzucenia przez dane
otoczenie. Nie precyzujemy w tym miejscu czym jest dany pozytyw ani jak zostanie on wykreowany. Gra tego nie wymaga. Konieczne jest jedynie ustalenie
reguł uznawania czegoś za wartość (kryteria wartości) oraz sposobu weryfikacji
zaistnienia wartości w otoczeniu.
Wypłatą w grze będzie zaistnienie pozytywu w otoczeniu (np. nowego samochodu albo wiersza). Ale zanim ten pozytyw stanie się ostatecznie wartością,
musi zostać poddany ocenie aksjologicznej. Konsekwencją pozytywnej weryfikacji zaistnienia wartości może być jej uznanie powszechne (w całym układzie
wartości) albo uznanie szczegółowe, dotyczące wyłącznie gestora tej wartości
(np. fotografii rodzinnej). Na tym polega działalność gospodarcza. System generujący wartość prowadzi grę z otoczeniem o uznanie oferowanego pozytywu za
wartościowy.
Pojawiająca się luka konsekwencjalno intencjonalna (pomiędzy tym, co zakładano, a tym co uzyskano) wyraża się przez rezultat gry oraz przyjęte kryteria
aksjologiczne. To jest przykład działania sprzężenia zwrotnego, tak charakterystycznego dla sterowania wszelkimi systemami. W ten sposób została pokazana
105
Strafin P.D., „Teoria gier”, Wydawnictwo Scholar, Warszawa, 2006
62
celowość ujęcia systemowego w odniesieniu do określenia działalności gospodarczej.
63
Rys. 1.18 Funkcjonowanie wartości w systemie wartościującym.
Model przedstawiony na rys. 1.18 zawiera w sobie rozwiązanie kwestii złożoności w podejściu do działalności gospodarczej. Nie precyzuje jak w sposób
ilościowy mierzyć kwestie luki intencjonalno-konsekwencjalnej ale pozwala na
tworzenie takiej miary i ustala czego powinna dotyczyć.
1.5.2 Otoczenie działalności gospodarczej
Jeżeli przyjmiemy, że system generujący wartość (nie ważne czy jest to organizacja, firma, przedsiębiorca, itp.) prowadzi działalność gospodarczą, to nie
jest on izolowany od otoczenia. Co więcej, otoczenie ustala reguły gry rynkowej,
ustala zasady funkcjonalne, a w końcu ustala co jest wartością. Dlatego nie da się
rozważać żadnych kwestii zarządzania bez uwzględnienia wpływu otoczenia
oraz interakcji z systemem. Stanowi to podstawę ważnej metody analitycznej
PESTLE, traktującej o wpływie poszczególnych aspektów otoczenia na działanie
organizacji biznesowej. Tymi aspektami są otoczenie: polityczne, ekonomiczne,
społeczne, technologiczne, prawne, środowiskowe. W wyniku analizy PESTLE
menedżer otrzymuje scenariusz zmian otoczenia, który może być wykonany w
wariantach: optymistycznym, pesymistycznym oraz najbardziej prawdopodobnym. Szczegółowo analiza PESTLE została przedstawiona w rozdziale 6.3.
Jeżeli przyjrzymy się strukturze globalnego łańcucha dostaw (rys. 2.4Rys.
2.4) okaże się, że jednym z najważniejszych aspektów analizy otoczenia działalności gospodarczej jest analiza interesariuszy106. Jest to badanie układu relacji
formalnych i nieformalnych, umożliwiająca zawieranie aliansów, użycie wpływów oraz inne działania pozwalające na optymalizację realizacji celu. Analiza
interesariuszy ma za zadanie nie tylko ustalenie relacji sprzyjających i niesprzyjających, ale również ocenę siły wpływu i zaproponowanie scenariusza zmiany
układu interesariuszy na najbardziej korzystny. Jest to również jedno z narzędzi
zarządzania zmianami (rozdział 4.2).
Kolejna, ważna przesłanka dla podjęcia działalności gospodarczej albo aktu
przedsiębiorczego pochodzi z analiz rynku, w szczególności badania atrakcyjności sektora, którego taka działalność dotyczy. Służą do tego: analiza McKinsey’a (rozdział 6.4.1) oraz analiza pięciu sił wg. M. Portera (str. 39). Menedżer
powinien zdawać sobie sprawę z realiów i specyfiki rynkowej, ponieważ to otoczenie decyduje o wartości oferowanych dóbr. Dlatego takie dane, jak zamożność społeczeństwa (dochód do dyspozycji), pojemność rynku oraz zachowania
konsumenckie (kultura i poziom rozwoju społecznego) stanowią istotne uzupełnienie uwarunkowań działalności gospodarczej.
Żeby działalność gospodarcza, a zwłaszcza przedsiębiorczość na danym terytorium istniała, muszą po temu zaistnieć określone warunki w jej otoczeniu.
106
Gospodarek T., “Zarządzanie dla …”, str. 229-238
Te, jak już wyżej wspomniano, najlepiej określa globalny raport Światowego Forum Ekonomicznego, „Doing Business” 107(str. 405) oraz raport „Globalny indeks
konkurencyjności, GCI108 (str. 401).
W otoczeniu działalności gospodarczej pojawiają się kwestie nie związane z
ekonomią, ale z funkcjonowaniem człowieka w systemie społecznym. Część z
nich została omówiona w rozdziale 1.1.1 oraz 1.2.1. Ale równie ważnymi kwestiami stają się przedsiębiorczość, innowacyjność oraz działalność gospodarcza.
Z tym wiążą się kolejne aspekty zachowań ludzkich, kultury, etyki itd. W tej części monografii zostaną opisane przedsiębiorczość i innowacyjność.
1.5.3 Przedsiębiorczość
Jest to kolejna domena działalności ludzkiej, której nie da się przełożyć na
modele fizykalistyczne i mierzalne. Przedsiębiorczość jest cechą człowieka, jego
zdolnością, która pozwala wybranym prowadzić skutecznie działalność gospodarczą lub zarządzać organizacją. Jak zatem należy to pojęcie rozumieć?109
 Przedsiębiorczość pojedynczych osób jest to zdolność do podejmowania ryzyka i
zmiany statusu społecznego z pracownika na pracodawcę (lub samozatrudnionego, freelancera) oraz statusu ekonomicznego na wyższy.
 Przedsiębiorczość organizacji (lub wprost pracodawcy) może być traktowana
jako zdolność do podejmowania ryzyka i zmiany jej funkcji celu w kierunku
wyższej użyteczności (większej kreacji wartości dodanej), a tym samym uczynienia jej bardziej efektywną ekonomicznie i stabilniejszą w czasie.
 Przedsiębiorczość korporacji (sieci) może być interpretowane jako zdolność do
tworzenia globalnej (korporacyjnej) funkcji celu w kierunku zmiany użyteczności całej struktury sieciowej korporacji i jej zasobów ku wyższej użyteczności.
 Przedsiębiorczość całego narodu lub kraju może być rozumiana jako zdolność do
zaangażowania się w jak największym stopniu jego obywateli w procesy
zmian społeczno – ekonomicznych, prowadzących do poprawy efektywności
funkcjonowania państwa i dobrobytu jego obywateli.
We wszystkich powyżej wymienionych przypadkach najważniejszym elementem definicji jest funkcja celu oraz proces zmiany, prowadzące do wyższej efektywności ekonomicznej, co można mierzyć ilością wytworzonej wartości dodanej. Ale dla rozwoju przedsiębiorczości muszą zostać stworzone warunki ekonomiczne i społeczne. To nie jest tak, że temporalna decyzja władzy w postaci
The World Bank, „Doing Business”, data, http://data.worldbank.org/data-catalog/doing-business-database
108
World Economic Forum, “The Global Competitiveness Report”, 2016, http://reports.weforum.org/global-competitiveness-report-2015-2016/downloads/
109
Gospodarek T., “Logical Layers of Entrepreneurship”, Proceedings of the The 9th International Entrepreneurship Forum (9th IEF), 16-18 September 2009, Istanbul, https://www.essex.ac.uk/conferences/ief/9th/documents/040-Tadeusz%20Gospodarek-28.08.09.pdf
107
66
interwencji ekonomicznej w skali mikro (dotacja na kilka projektów) automatycznie uruchomi procesy w skali makro. Przedsiębiorczość wymaga znacznie
większego zaangażowania na poziomie krajowym i lokalnym110, albowiem
opiera się ona na co najmniej trzech filarach (rys. 1.19).
Rys. 1.19 Warunki dla wzrostu przedsiębiorczości
Podobne warunki stawiane są dla zaistnienia innowacyjności i konkurencyjności gospodarki narodowej. Zawsze pojawia się kwestia dobrego prawa, małego poziomu biurokracji, łatwość rozliczeń podatkowych, infrastruktura, poziom rynku, wiedza. Na tym należy budować przedsiębiorczość. Jest to zagadnienie złożone i tylko podejście systemowe może przynieść sukces. Nie da się
wyrwać z kontekstu jednego parametru i coś uczynić na wejściu w kierunku jego
poprawy, oczekując głębokich zmian na wyjściu. To tak nie działa. A przede
wszystkim nie działa prosta transformacja od eksperymentu na skalę mikro do
uogólnienia na skalę makro. Eksperyment ekonomiczny daje się przeprowadzić
tylko raz. Każda próba powtórzenia będzie innym eksperymentem, albowiem w
międzyczasie otoczenie się zmienia i wraz z nim zmieniają się warunki pomiaru.
Z punktu widzenia zarządzania należy zastanowić się nad kwestią: jak inwestor powinien oceniać, czy poziom przedsiębiorczości w danym kraju gwarantuje, że
jego biznes nie będzie napotykać na poważne bariery w otoczeniu jego inwestycji. Tą
110
Gospodarek T., “Zarządzanie dla …”, op. cit., str. 108-113
67
problematyką zajmują się instytucje międzynarodowe prowadzące badania statystyczne i rankingi gospodarcze różnego rodzaju. Za najważniejsze należy
uznać Global Entrepreneurship Monitor (GEM)111,112, Doing Business113 publikowany roczny raport przez Bank Światowy, Entrepreneurship at a Glance114 publikowany przez OECD oraz Eurobarometer Survey on Entrepreneurship115, publikowany przez UE. Z powyższych raportów można uzyskać bardzo dobre informacje na temat różnych krajów oraz światowych tendencji rozwoju przedsiębiorczości. Wskaźniki te zostały przedstawione bardziej dokładnie w rozdziale
5.4.
Decyzja o podjęciu działalności gospodarczej
Każdemu, potencjalnemu kandydatowi na przedsiębiorcę można zadać
dwa zasadnicze pytania (powinny one znaleźć się w biznes planie, patrz rozdział
4.2.3):
 Dlaczego zamierza on podjąć działania przedsiębiorcze?
 Jakie czynniki popychają go do stania się animatorem przedsiębiorczości?
 Czego oczekuje od otoczenia?
Ze względu na złożoność kwestii problem należy podzielić na logiczne warstwy,
które można rozważać rozłącznie, a których złożenie pozwala wnioskować o całości zagadnienia. Odpowiedzią może być model zaprezentowany poniżej na
rys. 1.20 związany z warstwami przedsiębiorczości116. Model ten zakłada istnienie kilku warstw logicznych podejmowania decyzji przedsiębiorczej:
 warstwa otoczenia dalszego (środowisko naturalne, ekosystem biznesu, oraz
komunikacja w szerokim tego słowa znaczeniu),
 warstwa otoczenia bliskiego (okazje, które można przejąć, presja ekonomiczna związana z potrzebami, życzenia i namowy osób bliskich do podjęcia
działalności gospodarczej),
 warstwa zasobów (wiedza i kluczowe kompetencje, zasoby do dyspozycji,
potrzeby społeczne przedsiębiorcy przynależności do klasy osób o wysokim
statusie społecznym, itp.).
Przedsiębiorca podlega działaniu otoczenia, co często przekłada się na życzenia
poprawienia swojej pozycji społeczno-ekonomicznej, czasami uniezależnienia
się od trudnych relacji korporacyjnych, pozyskania nadarzającej się okazji (np.
111
Global Entrepreneurship Monitor, http://www.gemconsortium.org/;
PARP „Global Entrepreneurship Monitor”, za rok 2015,
http://www.parp.gov.pl/gem-2015-global-report
113
http://data.worldbank.org/data-catalog/doing-business-database op. cit.
114
OECD, Entrepreneuship and business statistics, “Entrepreneurship at glance”, 2015
http://www.oecd.org/std/business-stats/entrepreneurship-at-a-glance-22266941.htm
115
EC, Flash Eurobarometer Reports, “Entrepreneurship in the EU and beyond”, 2012 http://ec.europa.eu/public_opinion/flash/fl_354_sum_en.pdf
116
Gospodarek T., “Logical layers…”, op. cit.
112
68
zarobienia określonych pieniędzy) albo wywieranej na niego presji ekonomicznej (konieczności utrzymania rodziny, zasobów). Istnieje przekonanie społeczne,
że przedsiębiorcy dzieje się lepiej.
Rys. 1.20 Warstwy zagadnień związanych z podjęciem decyzji przedsiębiorczej
Każdy dysponuje określoną wiedzą, którą może uzupełnić (warstwa wiedzy), niezależnie od sytuacji. Każdy posiada jakieś zasoby (kapitał, relacje, zdolności). W końcu każdy uczestniczy w społeczeństwie, gdzie zajmuje swoją pozycję, jest przez nie oceniany i chce z tego społeczeństwa pozyskać pożądane
zasoby. To wszystko powoduje, że jednostka może zdecydować się na zmianę
statusu z zatrudnionego lub niezatrudnionego na przedsiębiorcę. Muszą być jednakże spełnione dodatkowe warunki w otoczeniu, opisywane przez kolejne warstwy: bezpieczeństwa środowiska (nie tylko naturalnego ale przede wszystkim
ekosystemu biznesu), muszą byś ustalone czytelne i jasne zasady oddziaływań i
relacji z otoczeniem, a dodatkowo musi być zapewniona komunikacja pomiędzy
otoczeniem a przedsiębiorcą oraz transfery wiedzy. Jeżeli te trzy filary zewnętrzne (stanowiące rozłączne warstwy logiczne problemu przedsiębiorczości)
zostaną ocenione jako zadowalające, przedsiębiorca może uruchomić posiadane
zasoby, kompetencje i relacje społeczne dla osiągnięcia celów (zniwelowania
69
presji ekonomicznej, pozyskania okazji lub spełnienia własnych życzeń poprawienia statusu). Skutkiem będzie oczywiście podjęcie decyzji przedsiębiorczej
(najczęściej powstanie nowej firmy).
1.5.4 innowacyjność
Jest to zjawisko gospodarcze, pojawiające się na styku procesów wytwórczych i wdrażania nowych idei lub pomysłów. Dzięki temu można produkować
dobra o wyższej wartości dodanej i lepiej konkurować na rynkach. Innowacyjność stanowi jeden z najważniejszych filarów rozwoju, zwłaszcza w krajach o
wysokim poziomie dochodu narodowego na mieszkańca (rozdział 5.4.5). Działanie innowacyjne polega na wykorzystaniu wiedzy ukrytej i przekonwertowaniu jej na wiedzę jawną, możliwą do użycia w procesach, produktach, zarządzaniu etc. Nie ma dzisiaj praktycznie możliwości zaistnienia innowacyjności bez
warunków umożliwiających działania gospodarczego w obszarach wiedzy, informacji oraz technologii teleinformatycznych. Dla menedżera rozumienie zagadnień związanych z innowacyjności stanowi podstawę wiedzy i fundament
budowania konkurencyjnej organizacji.
Istnieje kilka rodzajów innowacji w biznesie, spośród których za najważniejsze należy uznać: innowacyjność produktową, procesową, organizacyjną i dostępu.
Innowacyjność produktowa dotyczy wyrobów i usług. Polega na dokonaniu
zmian lub udoskonaleniu wyrobu już wytwarzanego, rozumianych jako znacząca zmiana jego funkcjonalności, użyteczności czy też akceptacji rynkowej.
Tym samym innowacją nie można nazywać zwykłego ulepszenia czegoś. Innowacją z pewnością będzie produkt, w którym znacząco poprawiono parametry
techniczne, użyto nowych komponentów i materiałów. Innowacja produktowa
może również polegać na rozszerzeniu oferowanego asortymentu o nowy produkt, którego cechy technologiczne lub przeznaczenie różnią się znacząco od
uprzednio wytwarzanych. Innowacje mogą również dotyczyć zmienności
udziału wiedzy oraz informacji w udoskonalanych produktach (systemy informacyjne i oprogramowanie) co wyraża się zwiększeniem jego wartości dodanej
i wyższym poziomem kastomizacji.
Innowacyjność procesowa, którą należy rozumieć jako zmiany stosowanych
przez przedsiębiorstwo procesów wytwórczych dóbr lub świadczenia usług
oraz sposobów docierania z produktem do konsumenta. Unowocześnianie lub
zmiany funkcjonalne w obszarze procesów wytwarzania związane są najczęściej
z dokonywaniem zmian w urządzeniach i technologii lub organizacji produkcji.
Mogą stanowić kombinację wielu rodzajów zmian i wiązać się z wykorzystaniem wiedzy (w tym ukrytej). Celem zmodyfikowanych procesów jest zwykle
dostarczenie nowych lub udoskonalonych produktów, które nie mogłyby być
uzyskane lub dostarczone na rynek za pomocą dotychczas stosowanych metod.
70
Innowacyjnością procesową można również nazwać zwiększenie efektywności
produkcji lub dostarczenia istniejących produktów w sposób ekstensywny (bez
powiększania zasobów) przy użyciu wiedzy. Można podjąć dyskusję, czy innowacją procesową jest tworzenie zasobów unikatowych oraz kluczowych kompetencji zwiększających konkurencyjność rynkową organizacji. Ponieważ można
zdefiniować procesy, w których takie zasoby i kompetencje powstają (procesy
uczenia się, procesy zarządzania), należy te działania zaliczyć właśnie do tej kategorii, a nie do innowacji organizacyjnych.
Innowacyjność organizacyjna polega na wprowadzaniu nowych metod zarządzania w organizacjach biznesowych, relacjach wewnętrznych oraz zewnętrznych. Jest to ingerencja w strukturę łańcucha wartości powodująca istotne
zmiany efektywności gospodarczej organizacji. Często jest to układ zmian w
strukturze interesariuszy, usieciowieniu organizacji lub zmiany w obszarze łańcucha dostaw Przykładem mogą być zmiany strategii zarządzania, połączenia
konsolidacyjne, przejęcia innych przedsiębiorstw. Są to również innowacje wewnątrz organizacji związane z wdrażaniem systemów zarządzania jakością typu
TQM czy six sigma. Mogą to być także optymalizacje w obszarze logistyki i strumienia wartości. Rezultaty działań innowacyjnych w zakresie organizacji i zarządzania wywierają pozytywny, dający się zmierzyć wpływ na wynik ekonomiczny, szczególnie na wzrost produktywności, zwiększenie sprzedaży, zmniejszenie kosztów. Pomiar poziomu innowacyjności organizacyjnej może być mierzony za pomocą kluczowych wskaźników efektywności organizacji117. Zastosowania metody KPI opisane jest w rozdziale 4.9.1.
Innowacyjność marketingowa (a poprawniej - innowacyjność dostępu) jest zastosowaniem nowych metod w obszarze komunikacji z konsumentem oraz udostępnieniu danego dobra. Mogą to być znaczące zmiany w wyglądzie produktu,
jego opakowaniu, nowych formach promocji, polityce sprzedaży i finansowania
lub zastosowaniu nowego modelu biznesowego w zakresie polityki lub strategii
sprzedaży. Przykładami są tutaj przypadki działania związane z brandingiem,
metodami komunikacji channel connect118 lub model sprzedaży uwzględniający
inżynierię finansową (leasing, buy back, kredyt 50/50…).
Pomiaru innowacyjności organizacji można dokonać za pomocą metody
Hansena i Birkinshaw’a zdolności organizacji do kreacji nowych idei oraz innowacji, bazującej na koncepcji łańcucha wartości innowacyjności119. W metodzie
Parmenter, D., “Key performance indicators: Developing, implementing, and using winning KPIs”, (2nd
ed.). Hoboken: John Wiley & Sons, 2010.
118
Channel Connect nie jest reklamą, ale sposobem, w jaki konsumenci odnoszą się do wszystkich kanałów
komunikacji, przez które można przesyłać przekazy dotyczące marki. W CC nie chodzi wyłącznie o nawyki
medialne konsumentów (kiedy, co i gdzie), ale o to, jak i dlaczego konsumenci stykają się z kanałami komunikacji i jak z nich korzystają. CC nie dotyczy postaw konsumentów wobec danej marki,, ale raczej o miejsc
i sposobów komunikacji marki z nimi. CC nie ocenia kreatywnej strony reklamy,, ale ma za zadanie rozpoznać odpowiedni kontekst, w którym można nadać przekaz i odpowiednio go wzmocnić.
119
Hansen M.T., Birkinshaw J., “The Innovation Value Chain”, Harvard Business Rev., 05, (2007).
117
71
tej należy wypełnić prostą ankietę, gdzie odpowiedzi są generowane przez pracowników firmy, a oceniane kategorie skalowane w umownej skali (oryginalnie
3 stopniowej). Wynik pozwala na orientacyjne ustalenie potencjału kreatywności
i innowacyjności organizacji i skupienie się na najlepiej ocenianym aspekcie w
celu jego rozwinięcia oraz znalezieniu słabych punktów, które można próbować
poprawić. Całość metody oceny wynika ze struktury łańcucha wartości innowacyjności, który można przedstawić jako strukturę trzech faz: kreowania pomysłu, konwersji pomysłu na projekt oraz wdrożenia projektu (jego dyfuzji do otoczenia). Bardziej szczegółowo metoda została zaprezentowana w monografii
„Zarządzanie dla racjonalnego menedżera”120.
Innowacyjność w skali makro (gospodarki)
Czym innym jest innowacyjność w skali mikro, a czym inny w skali makro.
Innowacyjność gospodarki bierze się wprawdzie z innowacyjności jej przedsiębiorstw, ale dotyczy przede wszystkim warunków istnienia innowacyjności w
skali mikro, co określamy potencjałem innowacyjności danego kraju. Firmowany
przez WIPO (World Intelectual Property Organization) Cornell University and INSEAD (Światowa szkoła biznesu) raport, definiuje rokrocznie globalny wskaźnik
innowacyjności oraz ranking krajów według potencjału innowacyjności121. Polska w roku 2015 znalazła się na pozycji 46 (wskaźnik procentowy DTF 0,68). Natomiast ze względu na wskaźnik efektywności innowacji kraj nasz zajmuje w
rankingu światowym pozycję 93 na 134 państwa ze wskaźnikiem procentowym
0,34. Te dane wskazują na wyjątkowo błędne założenia polityki gospodarczej
Polski przez ostatnie 25 lat.
Niestety, w rezultacie antynarodowych interesów staliśmy się dostawcą taniej siły roboczej dla silnej i innowacyjnej gospodarki niemieckiej i ponadnarodowych korporacji. Nasze zasady prywatyzacji polegały głównie na wrogich
przejęciach i sprzedaży za przysłowiową czapkę śliwek pereł w koronie polskiego przemysłu, dla bieżącego ratowania rozbuchanej sfery budżetowej i realizacji programów konsumpcji socjalnej oraz kurczowego trzymania się u władzy kolejnych partii rządzących. Przy tych wszystkich założeniach następowało
i nadal postępuje stopniowe niszczenie rodzimej przedsiębiorczości przez nadmierne opodatkowanie i politykę otwarcia na obcy kapitał. W kolejnych budżetach zapisywano żenująco niskie nakłady na naukę oraz sektor B+R. Wykreowano stos barier biurokratycznych, prawnych i podatkowych przez kolejne zastępy biurokratów władających krajem.
Budowanie PKB na ciągłym zadłużaniu państwa ponad możliwości spłaty,
kurczenie się sfery produkcyjnej na rzecz sfery biurokratyczno-urzędniczej i wypieranie kapitału prywatnego przez państwowy stanowią wystarczające bariery
120
121
Gospodarek T., op. cit. „Zarządzanie dla…” str. 64-65.
https://www.globalinnovationindex.org/content/page/past-reports/
72
w rozwoju innowacyjności w Polsce. R. Atkinson i S. Ezell w globalnym raporcie
innowacyjności 2015 przedstawili sześć zasad zbudowania innowacyjnej gospodarki122.
1. Polityka proinnowacyjna powinna koncentrować się na maksymalizacji innowacji we wszystkich gałęziach przemysłu, a nie tylko w obszarze technologii high-tech.
2. Należy wspierać wszystkie rodzaje i fazy innowacji. Jednym z największych
błędów popełnianych przez kraje próbujące rozwijać innowacyjność, jest zakres strategii innowacyjności, zawężany do obszaru rozwoju i produkcji produktów high-tech. Przy tym należy skupiać się na strategiach wzrostu globalnej wydajności gospodarki przez zmiany portfela produkcji ku sektorom
generującym wyższą wartość dodaną.
3. Konieczny jest reinżyniering produkcji i twórcza destrukcja. Aby odnieść
sukces w dziedzinie innowacji, narody muszą zrobić więcej niż tylko uruchomienie niektórych działań wnoszących wartość dodaną, związanych ze
wspieraniem lub uzupełnieniem innych, wiodących gospodarek (bycia podwykonawcą lub donorem taniej siły roboczej). Należy dopuścić destrukcyjną
innowacyjność, burzącą istniejące układy gospodarcze, która zwykle jest generowana przez nowych uczestników rynku i nowe relacje.
4. Utrzymanie niskich cen dóbr kapitałowych z importu, zwłaszcza związanych z technologiami informacji i telekomunikacji (ICT). Bez nowych inwestycji kapitałowych orzeźwiających narodowe rynki, innowacyjność traci
swoją moc i wydajność. Następuje wzrost stagnacji, a konkurencyjność lokalnego biznesu zanika. Najprostszym i najważniejszym sposobem, w jaki kraje
mogą utrzymać koszty dóbr inwestycyjnych na niskim poziomie jest ograniczenie ceł i innych barier handlowych.
 Technologie ICT ogólnego przeznaczenia są fundamentalnym czynnikiem nowoczesnego wzrostu gospodarczego, stanowiąc jedną czwartą
wzrostu wartości PKB w wielu krajach rozwijających się dzisiaj.
 Pomimo że wiele krajów nakłada wysokie podatki i cła na produkty ICT
próbując zwiększyć dochody budżetowe lub stworzyć konkurencyjny
krajowy przemysł ICT, to takie narody, jak Chiny, Gruzji, Malezja i Wietnam ograniczyły kontrybucje nakładane przez rząd na produkty IT. Dzisiaj widać wyraźnie, że to te właśnie kraje notują wzrosty innowacyjności.
5. Wspieranie kluczowych czynników wejścia innowacji. Firmy nie tylko muszą mieć dostęp do najlepszych w swojej klasie, przystępnych cenowo technologii ICT, ale także potrzebują dostępu do innych kluczowych czynników
Atkinson R., Ezel S., “Principles for National Innovation Success”, [w] The Global Innovation Index
2015. Effective Innovation Policies for Development, Dutta S.,Lanvin B., and Wunsch-Vincent., Eds,
https://www.globalinnovationindex.org/userfiles/file/reportpdf/gii-full-report-2015-v6.pdf
122
73
innowacji, w tym: infrastruktury cyfrowej, wykwalifikowanych pracowników, wiedzy - zarówno jej kreowania, jak i transferu do produkcji.
 Kraje coraz bardziej uznają talent jako istotne źródło przewagi konkurencyjnej, a tym samym doskonałe kształcenie i szkolenia stanowią główny
trzon ich strategii innowacji.
 Ponieważ przedsiębiorczość jest ryzykowna i najczęściej dotyczy przedsiębiorców zakładających firmy po raz pierwszy, inicjatywy dotyczące pomocy przedsiębiorcom wydają się być krytyczne.
6. Opracowanie krajowej strategii innowacji i poprawy efektywności gospodarki oraz stworzenie organizacji wspierających realizację założeń strategicznych dało dobre rezultaty w wielu krajach (np. Kenia, Wietnam, Tajlandia). Niestety zdarza się, że przerost formy organizacyjnej opiekuńczego
państwa nad efektami ma również miejsce w tej kwestii, czego przykładem
jest Polska.
Przedstawione zasady pokazują, że innowacyjność nie jest zjawiskiem przypadkowym. Jest zjawiskiem złożonym, zjawiskiem społeczno – ekonomicznym
wymagającym czasu, kapitału i odpowiedniego ekosystemu biznesowego. Nie
da się jej wygenerować przez rzucenie określonej kwoty pieniędzy w mniej lub
bardziej sensowne projekty w skali mikro, sterowane przez urzędniczą sforę
agencji, komitetów, biur i urzędów. Innowacyjność w skali państwa to jest głęboka reorganizacja społeczna polegająca między innymi na likwidacji zastałości
i niesprawności administrowania państwem, a przede wszystkim wykluczenia
całej sfory urzędniczej z mieszania się do działalności gospodarczej. Innowator
musi być zainteresowany materialnie swoim wynalazkiem, a wdrażający przedsiębiorca musi otrzymać wsparcie ograniczające jego ryzyko. W swojej pracy123
pokazałem, wykorzystując diagram Ishikawy, główne przyczyny słabego wyniku innowacyjności polskiej gospodarki.
Gospodarek T., „Innowacyjność po polsku. Raport oparty na analizie globalnego wskaźnika innowacyjności GII za rok 2015”, Google Books, GGKEY:0LENHUK9TEK, 2016 http://gospodarek.eu/publikacje/Innowacyjnosc%20po%20polsku.pdf
123
74
2 Podmiot i przedmiot zarządzania
Wkraczamy w zagadnienia epistemologii zarządzania, próbując ustalić definicje, zakres wiedzy związany z tematem, jak również zbudować model koncepcyjny – czym i jak można zarządzać. Zastanawiałem się kiedyś, czy można
zarządzać psem, rozumianym jako zasób i aktywo generujące wartość? W myśl
istniejących w literaturze definicji, metodologii, praktyk oraz form działalności
pytanie to ma sens ze wskazaniem na odpowiedź twierdzącą. A zatem istnieją
przesłanki do dyskusji na temat czym zarządzamy. Ł. Sułkowski przedstawił ten
problem nader szeroko, a mimo to nie uwzględnił obszaru ujęć holistycznych i
wymiernych ani tych, związanych ze złożonością nauk o zarządzaniu124. To wymaga rzetelnego uzupełnienia, czego w tej monografii taram się w mniej lub bardziej sensowny sposób dokonać. Niestety złożoność i adaptatywność zarządzania powoduje, że w dalszym ciągu definicje z tego obszaru wiedzy nie mają
mocy aksjomatów, a teorie są bardziej opisowe niż wyjaśniające.
2.1 Organizacja jako system generujący wartość
Proponuję przyjąć opisową definicję złożoności, uwzględniającą większość
obserwowanych zachowań systemów generujących wartość. System stanowiący
przedmiot zarządzania może być uznany za złożony jeżeli:
 można w nim określić mnogość relacji i oddziaływań między komponentami
(np. elementami zasobów, wydzielonymi podstrukturami, etc.), głównie o
charakterze nieliniowym,
 jego stan chwilowy nie może być opisany dokładnie za pomocą skończonej
liczby zmiennych (parametrów stanu układu) w danym kontekście i przestrzeni fazowej,
 jego rozwój w czasie może być opisany formalnie za pomocą układu równań
różniczkowo-całkowych (nieliniowość), uwzględniających dane bieżące i
przeszłe,
 jest wrażliwy na warunki początkowe i zmiany parametrów sterujących, co
może objawiać się łatwą utratą stabilności stanu, w tym zachowaniami chaotycznymi lub katastroficznymi,
 można obserwować lub zdefiniować wielość ścieżek jego rozwoju w czasie,
 ewoluuje w sposób ciągły i wykorzystuje zasady autoadaptacji i uczenia się.
Zauważmy, jak dobrze powyższe stwierdzenia pasują do zachowań organizacji. Można przyjąć, że każda organizacja, w tym jednoosobowe podmioty gospodarcze, stanowią systemy generujące wartość. A to oznacza, że wszelkie, pra-
124
Sułkowski Ł., „Epistemologia w naukach o zarządzaniu”, PWE Warszawa, 2005
75
widłowo użyte ujęcia systemowe w stosunku do zarządzania powinny prowadzić do poprawnych wniosków odnośnie ocen aksjologicznych funkcjonowania
organizacji oraz formułowania dobrych praktyk i metod.
Tabela 3 Metafory kognitywne organizacji
Metafora
Rozumienie organizacji
maszyna
Organizacja stanowi zespół dobrze spasowanych ze sobą części
o ściśle określonych rolach i zadaniach.
organizm
Organizacja jako ontologia podatna na upływ czasu (narodziny, rozwój, dojrzałość, starzenie się, śmierć), działająca w otoczeniu i od niego zależna
mózg
kultura
system
polityczny
Organizacja jest tworem świadomie działającym, samorefleksyjnym, uczącym się.
Organizacja jako system z symbolicznym sposobem porozumiewania się i działaniem, odmiennym od działania innych.
Organizacja jako system społeczny działający razem w celu
osiągnięcia indywidualnych celów
Organizacja jako narzędzie uciwięzienie psysku i zniewolenia, ograniczająca
chiczne
indywidualność jednostki.
Organizacja jako zmienny układ
Przepływ i trans- relacji z otoczeniem, wpływający
formacja
w sposób ciągły na jego zmiany i
odwrotnie.
Organizacja jako sposób wyzyinstrument do- sku, stale kontrolująca postępominacji
wanie i postawy jednostek nią
związanych
Charakterystyka
Nadrzędnym celem jest sprawność, wydajność oraz optymalność. Człowiek jest elementem
mechanizmu (trybikiem maszyny) a jego działania określają
zadania.
Nacisk na autoadaptację do warunków zewnętrznych i otoczenia. Organizacja jako system,
elastycznie dostosowuje się do
otoczenia i zaspokaja własne potrzeby.
Nacisk na zdolność uczenia się.
Ludzie stanowią najważniejszy
zasób organizacji
Nacisk na indywidualizację charakteru organizacji rozpoznawalnej w otoczeniu oraz unikatowość kreowanej wartości.
Władza ustala cele, reaguje na
konflikty
oraz
zapobiega
sprzecznym działaniom.
Korporacyjne ograniczanie wolności jednostki poprzez narzucanie pożądanych postaw i zachowań grupowych.
Zmienność strategiczna. Wykorzystanie okazji i scenariuszy do
świadomego ustalania własnej
pozycji w otoczeniu.
Kontrolę i dominacja organizacji
nad ludźmi, wykorzystywanie
wszelkich możliwości do osiągania najlepszych wyników
76
Organizację można rozpatrywać z punktu widzenia różnych ujęć epistemologicznych, nie uzyskując spójnego rezultatu rozważań nad sposobami optymalnego zarządzania nią. Są to ujęcia:
 Zasobowe (organizacja jako zbiór wartościowych zasobów i kluczowych kompetencji).
 Procesowe (organizacja jako zbiór procesów biznesowych, prowadzących do
osiągnięcia celu).
 Społeczne (organizacja jako zbiór interesariuszy, których oczekiwania mają
być zaspokojone).
 Polityczne (organizacja jako układ władzy, umożliwiający wymuszenie określonych działań, prowadzących do celu).
 Strukturalne (organizacja jako struktura zasobów, procesów oraz relacji stanowiąca system generujący wartość).
Każde z powyższych ujęć wnosi istotny wkład w procesy wyjaśniania dopasowania danej organizacji do jej ekosystemu biznesowego i poprawy jej funkcjonalności, pomimo różnych punktów wyjścia do analiz. Ale do koncepcji organizacji można podejść również w sposób metaforyczny, tak jak to uczynił w swojej
książce G. Morgana125 (tabela 3).
Jeżeli zastanowić się głębiej nad metaforami Morgana, można dojść do
wniosku, że dla każdej z nich uda się bez problemu podać co najmniej jeden
przykład organizacji z życia wziętej, dobrze dopasowany do charakterystyki danej metafory. Bardziej dogłębne zrozumienie tych koncepcji pozwalają na tworzenie dobrych modeli funkcjonalnych o bardziej sformalizowanym charakterze
oraz definiowaniu kierunków ewentualnych zmian.
2.1.1 Definicja systemowa organizacji
W swoich rozważaniach na temat definicji organizacji doszedłem do następującego sformułowania formalnego, bazującego na teorii zasobowej:
[Df ] Niech będzie dana jakakolwiek struktura S = [U,O,R,P] określona na zbiorze obiektów ekonomicznych (zasobów) U zawierająca:
1. niepusty zbiór U obiektów, nazywany zasobem struktury S,
2. uporządkowany zbiór O dozwolonych oddziaływań w S,
3. niepusty zbiór R relacji określonych w S,
4. niepusty zbiór P procesów zmiany stanu zasobów U, oddziaływań O lub relacji R,
5. układ sterowania rozwojem struktury S w czasie,
6. zdefiniowane cele istnienia struktury S,
7. określoną miarę stanu struktury S i jej składników [U,O,R,P] w danej chwili.
wówczas:
125
Morgan G., „Obrazy…”, op. cit.
77
 Zbiór S stanowi system ekonomiczny zdolny generować wartość, o zdefiniowanym w
danej chwili stanie i celach egzystencji.
 Zarządzanie strukturą S polega na kontrolowanej zmianie jej stanu w czasie, w tym
dostępnych zasobów U, dozwolonych działań O oraz relacji R przez realizację procesów ze zbioru P.
 Oddziaływanie S z otoczeniem polega na wymianie kapitału, zasobów lub wartości na
zasadach gry dwuosobowej o sumie zero.
Powyższa definicja wyczerpuje zakres epistemologiczny zagadnień dotyczących
organizacji w ujęciu systemowym. Zrozumienie jej pozwala odnieść się do wielu
zagadnień opisowych, dla których trudno jest zbudować jednoznaczne określenia (np. etyka, czy optymalizacja funkcjonalna). Wydaje się być koniecznym opisanie komponentów używnych w definicji organizacji.
Czym jest zbiór zasobów U? Zbiór ten należy rozumieć jako wszelkie dostępne
dla organizacji elementy jej łańcucha dostaw, w tym również te, które organizacja może pozyskać z otoczenia na zasadzie wypożyczenia, outsourcingu, itp. Zasobami są nie tylko materiały do produkcji i majątek trwały, ale również pracownicy (zasób ludzki), wiedza (zasoby wiedzy), wartości niematerialne i prawne
oraz kapitał uogólniony (zasoby kapitałowe). Jeżeli tak będziemy pojmować zasoby, wówczas reprezentacja formalna organizacji może być wyrażana poprzez
zdefiniowanie stanu chwilowego jej zasobów (ilości, wartości, produktywności,
itd.) co przekłada się na możliwość zdefiniowania stanu za pomocą zbioru parametrów charakteryzujących zasoby126.
Czym jest uporządkowany zbiór oddziaływań O w strukturze S? Skoro celem
organizacji jest generowanie wartości w otoczeniu, to oczywistym jest, że musi
ona w jakiś sposób oddziaływać ze swoim otoczeniem, albowiem tylko tam wartość może zostać ujawniona. Stąd konieczne jest ustalenie jakie to oddziaływania
mogą być dostępne. Wykorzystam w tym celu teorię gier i oddziaływania organizacji z otoczeniem będą traktowane jako gra dwuosobowa przeciwko otoczeniu127. Grą może być zatem oddziaływanie polegające na kupnie – sprzedaży dobra, albo oddziaływanie oferta – preferencja, albo pożyczka – zwrot z procentem,
itp. Uczciwą grą (dozwolonym oddziaływaniem) o sumie zero, z pewnością nie
jest kradzież, wymuszenie, rozbój, nadmierne opodatkowanie. Są to oddziaływania niedozwolone, aczkolwiek możliwe. Określenie, co może być dozwoloną
grą zapewniają regulatorzy rynku oraz wszelkie władze funkcjonujące w otoczeniu, zdolne do tworzenia reguł i prawa (o ile same stosuje się do zasad uczciwej
gry, a nie do zasad działania przestępczości zorganizowanej w sektorze państwowym).
126
127
Gospodarek T., “Aspekty…”, op. cit. rozdział 5
Straffin P.D., “Teoria...”, op. Cit.
78
Czym jest niepusty zbiór relacji R w strukturze S? Skoro struktura S zawiera
zasób ludzki, a dodatkowo jest uporządkowana, oznacza to, że musiał zostać
określony porządek pomiędzy elementami zbioru zasobów, tak żeby mogły zostać utworzone sprzężenia pomiędzy elementami zasobu, a także pomiędzy elementami zasobu ludzkiego a otoczeniem. Stąd wyróżnia się relacje formalne i
nieformalne, relacje porządkujące (np. hierarchiczność władzy lub zarządu), relacje sprzężeń (grupy produkcyjne), itp. Relacje konstytuują strukturę S i nadają
jej optymalność funkcjonalną oraz użyteczność zbiorowi zasobów. Równocześnie relacje definiują zbiór interesariuszy oraz sens istnienia i logikę funkcjonowania struktury S w ekosystemie biznesowym.
Czym jest zbiór procesów P? To jest istota działania struktury S jako systemu.
Procesy są ciągiem logicznym działań struktury S w czasie, związanych z użyciem jej zasobów, wykorzystaniem pracy ludzkiej, informacji, wiedzy i doświadczenia w celu osiągnięcia zakładanego celu. Tym samym zbiór procesów tworzy
mapę działań, która stanowi reprezentację formalną i obraz organizacji, podobnie jak zbiór zasobów z określonym stanem. Wyniki przeprowadzenia procesów
są bowiem tożsame ze zmianą stanu zasobów w organizacji w czasie. Ale istnieją
również procesy, które mogą zmieniać elementy zbioru oddziaływań O oraz relacji R w strukturze S, nie zmieniając zbioru zasobów. Tym samym mogą zmieniać funkcjonalność struktury S, a nawet użyteczność zbioru zasobów U. Stąd
należy mieć na względzie, że ujęcie procesowe jest najszerszym z możliwych,
opisujących organizacje.
Czym jest układ sterowania strukturą S? Jak każdy system, tak też struktura S
generująca wartość musi zawierać element sterujący. Jest to zarząd wyłoniony z
zasobu U struktury S. Zarząd ustala cele i podejmuje działania, uruchamiając
procesy ze zbioru P dla ich realizacji. W szczególności przystępuje do gier przeciwko otoczeniu w imieniu struktury S przyjmując wybrane strategie oraz dokonuje pomiaru jej stanu w czasie oraz poziomu realizacji zakładanych celów, wykorzystując sprzężenia zwrotne oraz ustaloną miarę położenia społeczno ekonomicznego organizacji. Zarząd dba o optymalność funkcjonalną struktury S oraz
efektywność strategii prowadzonych gier z otoczeniem.
Jakie są cele stawiane przed strukturą S? Podstawowym celem egzystencji systemu generującego wartość będącego strukturą S jest kreowanie wartości w otoczeniu. Ale równie ważnym celem jest trwanie systemu w czasie oraz wypracowanie mechanizmów obronnych umożliwiających utrzymywanie stanu równowagi struktura – otoczenie przy wystąpieniu skutków podjętego ryzyka działań.
Są to trudne do realizacji problemy, wymagające inteligentnego sterowania,
które może zapewnić tylko człowiek. On to bowiem, podejmuje ryzyko wejścia
do gry i przyjmuje strategie działania, na które otoczenie odpowiada w najbardziej złośliwy sposób. Również tylko on posiada zdolność przedsiębiorczości,
79
innowacyjności w działaniu oraz prognozowania przyszłości. Człowiek sterujący systemem potrafi ustalić i zrealizować jeden z fundamentalnych celów biznesu: zaspokoić w maksymalnym stopniu potrzeby wszystkich interesariuszy
związanych z istnieniem i funkcjonowaniem struktury S.
Czym jest miara stanu struktury S w danej chwili czasu? Jest to najtrudniejsze
z zagadnień definicji, ponieważ wymaga określenia czym jest wartość w danym
otoczeniu, jak również czym są szczegółowe cele organizacji oraz interesy jej interesariuszy. Dopiero wówczas można ustalić zbiór kwantyfikatorów niezmienny w czasie, który pozwala na uzyskanie liczby będącej miarą wielokryterialną stanu. To jest właśnie ten zasadniczy problem zarządzania – menedżer musi
umieć wyrazić stan organizacji w języku formalnym, albo zaproponować model semantyczny pozwalający na pomiar i porównania wyniku w czasie. Na tym opierają się zasady kontrolingu, np. metoda DuPonta (rozdział 4.9 albo metoda KPI (Key Performance Indictors) rozdział 4.9.1. Jeżeli zostanie określony zbiór wskaźników dla
miary integralnej, wówczas można ustalać stan struktury S i badać jego zmiany
wskutek podjęcia różnych działań. Dzięki pomiarowi rezultaty sprzężenia
zwrotnego od otoczenia mogą być użyteczne.
Praktyka pokazała, że działalność gospodarcza jest na tyle różna, że nie da
się zastosować jednego, uniwersalnego typu organizacji do wszystkich przypadków. Widać to choćby z konieczności ujęcia w ramy prawne działalności banku
z jednej strony i szewca świadczącego usługi z drugiej, albo stowarzyszenia filatelistów. To powoduje, że biznes wykreował wiele użytecznych struktur organizacji, a ich wykorzystanie pozwala na różne optymalizacje oddziaływań z otoczeniem.
2.1.2 Rodzaje organizacji
Jak wspomniano w poprzednim rozdziale istnieje wiele różnych struktur
prawnych oraz funkcjonalnych organizacji. Wynika to z następującego twierdzenia128:
Nie istnieje jedyny uniwersalny:
 model struktury i działania organizacji,
 sposób zarządzania dowolną organizacją,
 cel działania dowolnej organizacji i sposób jego osiągnięcia,
 łańcuch wartości dowolnej organizacji.
Przy tym kluczowym elementem powyższych zdań jest słowo „jedyny”.
Na rys. 2.1 przedstawiono dwa podziały organizacji wynikające z rodzaju prowadzonej działalności oraz z typu struktury formalnej, odpowiadającej wielkości oraz układom właścicielskim i relacyjnym. Należy zauważyć, że ze względu
128
Gospodarek T., “Aspekty…”, op. cit. str. 64
80
na typ struktury organizacje podlegają różnym przepisom prawnym, podatkowym oraz sprawozdawczym, co umożliwia szereg działań optymalizacyjnych i
adaptatywnych do zmienności otoczenia oraz stawianych celów.
Rodzaj działalności








Komercyjne
Społeczne
Rządowe
Pozarządowe
Wyznaniowe
Edukacyjne
Wojskowe
Organizacje kultury
Typ struktury
 Systemowe
o Rządowe i władzy
o Franczyzowe
o Licencyjne
 Jednopodmiotowe
o Spółki handlowe
o Przedsiębiorcy
o Stowarzyszenia
o Związki
o Fundacje
 Wielopodmiotowe
o Korporacje
o Związki
o Stowarzyszenia
 Sieciowe
o Łańcuch dostaw
o Sieć korporacyjna
Rys. 2.1 Dwa rodzaje taksonomii organizacji
Wyobraźmy sobie, że przedsiębiorca ma dobry pomysł na biznes i potrzebuje uruchomić firmę. Jeżeli chciałby to rozpocząć od struktury spółki akcyjnej,
to z pewnością nie było by to działanie optymalne. Koszty założenia są duże, a
procedury sądowe długie. Kapitał zakładowy musi wynosić 100 tys zł. Liczba
godzin na biurokrację, którą musiałby przeznaczyć rocznie to 271129. Do tego jeżeli coś zarobi zapłaci podatek CIT. A gdy zechce wypłacić pieniądze akcjonariuszom, to jeszcze dopłaci podatek PIT. Natychmiast musi zostać czynnym podatnikiem VAT. Na dodatek musi prowadzić pełną księgowość (co najmniej 1500
zł miesięcznie) ze skomplikowaną sprawozdawczością finansową i na rzecz
GUS, a przede wszystkim natychmiast płacić haracze: na ZUS od pensji rady
nadzorczej i prezesa oraz podatek od wynagrodzeń osób zatrudnionych. Do tego
dochodzą możliwości kontroli z 40 źródeł, a jeszcze niczego firma nie sprzedała.
Spółka akcyjna musi mieć radę nadzorczą (3 osoby) oraz zarząd. Musi spisać regulaminy i wiele innych, zbędnych kwitów wskutek obowiązywania chorych
129
Doing Business 2016, World Bank, http://www.doingbusiness.org/~/media/GIAWB/Doing%20Business/Documents/Annual-Reports/English/DB16-Full-Report.pdf
81
przepisów. Dalszy komentarz wydaje się być zbędny. A nasz minister napisał w
programie odpowiedzialnego rozwoju130 „Prosta Spółka Akcyjna – optymalna forma
prawna dla start-upów”??? Komentarz zbyteczny. Niestety, to urzędnicy decydują
za biznes co jest dla niego dobre, a to zawsze jest tak jakby koniowi nakazać
pchać swój wóz.
Zanim menedżer wybierze odpowiednią formę prawną i układ właścicielski
dla firmy należy dokonać szeregu analiz, zwłaszcza związanych z prawem podatkowym, uciążliwością rachunkowości oraz biurokracji, kosztami formalnymi
(założenia i utrzymania struktury). Oczywistym jest, że im dłużej można pracować na karcie podatkowej albo na ryczałcie, to tak należy robić. Warto mieć na
uwadze krzywą Greinera (rys. 2.2) Na spółki kapitałowe przyjdzie może kiedyś
czas, ale niekoniecznie należy je zakładać w Polsce. Istnieją korzystniejsze dla ich
funkcjonowania lokalizacje nie tylko w Europie, czego dowodem jest ranking
Doing Business.
Podział organizacji ze względu na wielkość
Ponieważ organizacje mogą różnić się wielkością konieczne stało się ustalenie ich taksonomii de iure, co ma istotne znaczenie ze względu na tworzone
prawo gospodarcze, statystykę oraz relacje biznesowe. O podziale na kategorie
decydują dwa kryteria: liczba zatrudnionych oraz wielkość obrotów lub suma
bilansowa majątku, zgodnie z danymi przedstawionymi w Tabela 4.
Tabela 4 Podział organizacji biznesowych ze względu na wielkość
1–2
<15
<200
<500
>500
1-6
<250
<500
<1000
>1000
<10
<50
<250
<1000
>1000
2
10
50
X
X
albo
EU*
mln €
2
10
43
X
X
Kryterium bilansu
Mikro
Małe
Średnie
Duże
Globalne
i EU*
mln €
Kryterium obrotu
Kategoria
Kryterium liczby zatrudnionych
Aus
USA
EU*
W Unii Europejskiej obowiązuje kryterium łączne liczby zatrudnionych i obrotu albo wartości bilansowej
majątku. O przypisaniu decyduje niższa wartość kryterium.
*)
Powyższy podział jest stosowany we wszystkich oficjalnych dokumentach rządowych, prawnych oraz raportach statystycznych globalnych i lokalnych.
130
Ministerstwo Rozwoju, “Plan na rzecz Odpowiedzialnego Rozwoju”, op. cit. str. 34.
82
2.1.3 Cykl życia organizacji
Podobieństwo funkcjonowania w czasie organizacji do cyklu życia w przyrodzie zostało dostrzeżone przez badaczy wiele lat temu131. Również zagadnienia wzrostu organizacji zostały empirycznie opisane i zdefiniowano pięć faz
wzrostu132. W polskiej literaturze zagadnienia te można znaleźć w książce A.
Koźmińskiego133. Cykl życia typowej organizacji składa się z pięciu etapów (model krzywej Greinera):
Narodziny (zaistnienie nowego bytu – zwykle przedsiębiorcy)
 nowe przedsięwzięcie (pomysł, idea),
 mobilizacja kapitału,
 inicjacja lokalnego łańcucha dostaw,
 pozyskanie klientów.
Młodość (etap przetrwania na rynku)
 wzrost i ekspansja wszystkich zasobów organizacji,
 utworzenie łańcucha wartości organizacji,
 optymalizacja łańcucha dostaw,
 ustalenie celów i wizji rozwoju.
Dojrzałość (etap formalizacji i hierarchizacji struktury)
 budowa równowagi mikro-makro,
 ustalenie struktury interesariuszy i stabilizacja formy prawnej,
 zaistnienie zasobów klasy VRIN i kluczowych kompetencji,
 definiowanie reprezentacji formalnych organizacji,
 optymalizacje łańcucha wartości,
 planowanie, kontroling i autoadaptacja do warunków otoczenia.
Późna dojrzałość i rewitalizacja (etap stabilizacji kultury organizacyjnej i zmian
strukturalnych)
 okres rutyny kultury wewnątrzorganizacyjnej,
 wykorzystanie kapitału intelektualnego,
 walka z nadmierną biurokracją,
 scenariusze redefinicji łańcucha wartości i rewitalizacji organizacji,
 zmiana ze struktury hierarchicznej zarządzania ku macierzowej,
 strategia zmiany.
Schyłek (etap agonii i zejścia organizacji po nieudanej rewitalizacji)
 nieudane wdrożenie strategii zmiany,
 rozproszenie zasobów i kluczowych kompetencji,
Lester, D., Parnell, J. and Carraher, S. “Organizational life cycle: A five-stage empirical scale”, International Journal of Organizational Analysis, 11(4), (2003), 339-354.
132
Greiner, L.E., “Evolution and revolution as organizations grow”, Harvard Business Review, (1972), p3746. http://in8dna.com/Portals/0/documents/partners/HBR_EvolutionRevolution.pdf
133
Koźmiński A.K., „Organizacja”, [w]: Koźmiński A.K., Piotrowski W., „Zarządzanie. Teoria i praktyka”,
Wyd. 5. Wydawnictwo Naukowe PWN, Warszawa, 2000, s. 38-42.
131
83
 błędna wizja rozwoju,
 zanik zdolności adaptatywnych,
 upadłość.
Powyższy cykl można przedstawić, jak na rys. 2.2 poniżej134:
Rys. 2.2 Schemat cyklu życia organizacji (krzywa Greinera)
Menedżerowie najwyższego poziomu muszą sobie zdawać sprawę z aktualnego etapu rozwoju organizacji, którą kierują, żeby w porę można było opracować taktyki i strategie optymalizacji oraz koniecznych zmian. Poszczególne
etapy rozwoju organizacji zostały w literaturze dobrze opisane, a metody działania charakterystyczne dla tych etapów sprawdzone praktycznie na wielu przykładach. Niektóre organizacje, takie jak 3M, Apple, czy są przykładem ciągłego
sukcesu na etapie dojrzałości i przekształcania, wykorzystując strategie ciągłej
zmiany.
Każdy etap charakteryzuje się napięciem kryzysowym i momentem zmian
rewolucyjnych przejścia organizacji do kolejnego punktu rozwoju. I tak, pod koniec etapu przedsiębiorcy organizacja zaczyna odczuwać potrzeby przywództwa, albowiem zaczynają być wymagane bardziej złożone struktury zarządzania. W kolejnym etapie konieczne staje się delegowanie większych uprawnień
menedżerom niższego szczebla i pojawia się konieczność syntezy oraz kontroli,
co skutkuje rewolucyjną zmianą formalizacji struktury (pojawiają się obiegi dokumentów, mapy procesów, mapy zadań, kontroling operacyjny i taktyczny,
systemy zintegrowane IT). Ponieważ powiększa się biurokracja i budowana jest
134
Greiner, L.E., “Evolution …”, op. cit.
84
kultura organizacyjna powstaje kryzys kontroli. Pojawia się potrzeba rewolucyjna zmian koordynacji rozbudowanej struktury i walki z biurokracją, którą sobie wcześniej narzucono. W końcu pojawia się kryzys rutyny i zastałości kulturowej organizacji. Konieczna staje się rewitalizacja i realizacja strategii zmiany.
Jeżeli się uda, wówczas organizacja albo nabiera nowego rozpędu albo kontynuuje sukces fazy dojrzałości. Jeżeli nie, następuje upadek.
Wzrost organizacji w czasie zmienia jej cechy charakterystyczne w poszczególnych fazach modelu Greinera można to opisać tak, jak w tabeli 5. Różnice
dotyczą następujących cech: struktury, elastyczności, portfela dóbr, systemu nagradzania i kontroli, innowacyjności, celów strategicznych, stylu zarządzania na
poziomie prezesa.
Tabela 5 Charakterystyka faz cykli rozwojowych organizacji w modelu Greinera
Cechy
Start-up
Faza cyklu rozwoju
Konsolidacja
Formalizacja
Przedbiurokratyczna (wystę- Biurokratyczna
pują elementy (w pełni repreformalne,
np. zentatywna)
procedury)
Charakterystyka
formalna
Nie zbiurokratyzowana
Elastyczność
Wysoka
Portfel dóbr
Pojedyncze produkty lub usługi
Wynagradzanie
i kontrola
Personalna, paternalistyczna
Innowacyjność
Właścicielska
Cele
giczne
Przetrwanie
Wzrost
Zasoby
Zewnętrzne
oparte na lokalnym łańcuchu
dostaw, definiowanie kluczowych kompetencji.
Optymalizacja
VRIO własnych
zasobów do kategorii
VRIN.
Budowanie kluczowych kompetencji.
Redundancje zasobowe. Istnieją
zasoby
klasy
VRIN i zdefiniowane kluczowe
kompetencje.
Styl zarządzania
na poziomie top
Indywidualny
przedsiębiorca
Charyzmatyczny
przywódca
Delegacja i kontrola
strate-
Średnia
Słaba
Istnieje główny
produkt
lub
usługa
Personalna według wkładu w
sukces
Przez pracowników i menedżerów
Istnieje linia produktów
i/lub
usług
Bezosobowe
systemy
formalne
Przez wydzielone
zespoły
B+R
Wewnętrzna
stabilizacja
i
wzrost pozycji
rynkowej
Rewitalizacja
Red Tape (przerosty biurokracji
i formalizacji)
Brak elastyczności
Wiele linii produktowych i/lub
usługowych
Sformalizowane
w relacji do produktów i usług
Przez zinstytucjonalizowane
struktury B+R
Reputacja i kluczowa pozycja
rynkowa
Ochrona zasobów i kluczowych kompetencji. Wykorzystanie globalnego
łańcucha
dostaw. Optymalność
logistyczna.
Podejście zespołowe, biurokratyczne
85
Dodatkowo można analizować strukturę zatrudnienia pracowników w poszczególnych fazach oraz w zależności od wielkości firmy. O ile liczba pracowników biurowych w mikroprzedsiębiorstwie jest zerowa, to w korporacji fazy
biurokratycznej sięga 20% ogółu zatrudnionych. Odwrotnie wygląda to w odniesieniu do pracowników liniowych. Tu w początkowej fazie rozwoju liczba ich
sięga 80% i maleje w korporacjach do poziomu 60%. Są to jednak dane zmienne
w zależności od typu organizacji oraz jej struktury. O ile bank jest stosunkowo
łatwo definiowalny, o tyle wysoce innowacyjne korporacje, takie jak 3M nie podlegają prostym regułom w kwestii optymalnej struktury zatrudnienia. Jest to bowiem związane z budowaniem optymalnych zasobów ludzkich klasy VRIN i kapitału intelektualnego (w tym kluczowych kompetencji).
Jeżeli przyjrzymy się wielkim korporacjom, które w sposób spektakularny
upadły, np. Nokia, to właśnie w końcowych etapach dojrzałości popełniono kardynalne błędy strategiczne. Pomimo wysokiego poziomu kultury organizacyjnej
na poziomie globalnej korporacji, nie dokonano rewolucyjnej zmiany portfelowej w roku 2010, lekceważąc sygnały płynące z rynku. Decyzje S. Elopa, który
wówczas pełnił funkcję dyrektora zarządzającego spowodowały, że od października 2010 wartość akcji Nokii spadały o 23 mln $ dziennie! W ten sposób
rozpoczął się początek końca wielkiej korporacji, która w kwietniu 2014 ostatecznie upadła (została kupiona za niewielkie pieniądze przez Microsoft)135.
2.2 Łańcuch wartości organizacji,
Jeżeli ktoś prowadzi biznes, to podstawowym pytaniem powinno być: dlaczego to robi?, a kolejnym: co jest wartością, którą generuje?. Dopiero wówczas
można poruszać kwestie jakie są cele działalności gospodarczej jego organizacji
i jak je zrealizować. Jest to pewien układ logiczny definiujący misję organizacji
oraz to, czym jest wartość generowana w otoczeniu.
Kwestię definicji misji najlepiej określił D. Abell136. Wychodząc z trójwymiarowej koncepcji biznesu, gdzie każdą działalność gospodarczą można przedstawić jako kombinację trzech zmiennych:
 grupy klientów, do których adresowana jest wartość generowana przez firmę,
 funkcje dla klienta, czyli zbiór użyteczności produktów i usług oferowanych,
 alternatywy technologiczne, czyli jak optymalnie wytworzyć produkt.
Nykänen P., Salminen M., “Kto pogrążył Nokię?”, Project Syndicate, 14.07.2015, http://project-syndicate.pl/artykul/kto-pogr%C4%85%C5%BCy%C5%82-noki%C4%99,1172.html?snippet=Salminen
136
Abell D. F., “Defining the Business: The Starting Point of Strategic Planning.”, Englewood Cliffs, NJ,
Prentice Hall, 1980.
135
86
Abell doszedł do wniosku, że każda organizacja może zdefiniować swoją misję
w podobnym układzie trzech zmiennych: rynek, produkty i możliwości technologiczne (rys. 2.3). Zbudowanie na tej podstawie koncepcji biznesowej prowadzi
do zdefiniowania łańcucha wartości zgodnie z koncepcją M. Portera137. Stanowi
on ilustrację powiązań wewnętrznych i zewnętrznych organizacji, wpływających na tworzoną w otoczeniu wartość (mierzoną najczęściej dochodem lub
marżą i wyrażaną pieniądzem), co przedstawia rys. 2.4.
Rys. 2.3 Definicja misji organizacji komercyjnej wg. D.Abella.
W strukturze łańcucha wartości wydzielono czynności pierwotne (zarządzane w układzie planowanie – koordynacja - kontrola) oraz pomocnicze, związane ze wspomaganiem procesów za pomocą zasobów, wiedzy oraz zasobów
ludzkich.
137
Porter M. E., “Przewaga …”, op.cit
87
Rys. 2.4 Koncepcja struktury łańcucha wartości organizacji 137
Wśród czynności pierwotnych wyróżniono:
Logistykę wewnętrzną, której zadaniem jest koordynacja zaopatrzenia produkcji
oraz zapewnienia na czas i w odpowiedniej ilości koniecznych zasobów, ilości
pracy i kapitału do realizacji procesów wytwórczych. Jest to bardzo ważny
aspekt kreowania wartości, który zwykle można optymalizować na różne sposoby. Logistyka generuje wartość dodaną przez:
 optymalizację kosztów działalności biznesowej,
 optymalizację wykorzystania zasobów,
 optymalizację oddziaływań z otoczeniem,
 optymalizację relacji biznesowych,
 optymalizację wykorzystania wiedzy i informacji,
 stabilizację układu logistycznego w formie łańcucha dostaw,
 stabilizację równowagi mikro-makro.
Logistykę zewnętrzną, której zadaniem jest minimalizacja odległości czasoprzestrzennej produktu od producenta do konsumenta. Dla procesów pierwotnych
logistyka zewnętrzna wiąże się z odpowiednią strukturą łańcucha dostaw oraz
synchronizacją dostępności zasobów w outsourcingu. Głównymi zagadnieniami
w tej części łańcucha wartości są:
 usługi transportowe (kurierzy, poczta, transport masowy, specjalityczny),
 usługi logistyczne (centra logistyczne, magazyny, transshipment),
 wynajem maszyn i urządzeń (sprzęt specjalistyczny, pomiarowy, transport),
 usługi niematerialne (prawne, brokerskie, ubezpieczeniowe, finansowe, IT),
 usługi materialne (kooperacja, podwykonawstwo, budownictwo).
W obszarze logistyki zewnętrznej można poszukiwać znaczących optymalizacji
łańcucha wartości w spoób ciągły, albowiem siły wytwórcze oraz technologie
dostępne w otoczeniu zmieniają się w sposób dynamiczny.
88
Procesy są kolejnym aspektem kreowania wartości (rys. 2.7). To jest element dynamiczny firmy, zmieniający stan zasobów i kapitału w czasie. Proces zwykle
składa się z kilku czynności, ma swojego adresata i właściciela monitorującego
przebieg. Dla każdego procesu określić stan wejścia i wyjścia. To oznacza, że
tworząc mapę procesów organizacji, musimy uwzględnić wszystkie powyższe
aspekty. Można wyróżnić następujące typy procesów biznesowych:
 procesy zarządzania (w tym taktycznego, strategicznego i korporacyjnego),
 procesy operacyjne (kreują pierwotny strumień przychodu, stanowiąc część
rdzenia biznesowego) np. sprzedaż, produkcja, magazynowanie, zakupy,
 Procesy wspomagające (księgowość, rekrutacja, wspomaganie IT),
 Procesy przetwarzania informacji i wirtualizacji biznesu.
Sprzedaż i marketing zasługuje na szczególne potraktowanie w strukturze łańcucha wartości (rozdział 4.6). Można zadać zapytanie, który towar jest najlepszy?
I sensowną odpowiedzią będzie stwierdzenie – ten sprzedany. Wartość powstaje
w otoczeniu, a zatem tylko sprzedane dobra można uznać za wynik funkcjonowania łańcucha wartości. To jest dokładna realizacja marksistowskiej koncepcji
wartości (cytat ze str. 55). Dlatego działania związane ze sprzedażą, alokacją na
rynku oraz uwiadomieniem kreowanej wartości w otoczeniu stanowią kluczowe
procesy każdej organizacji. Szczególnie istotnymi są:
 budowanie modelu relacji z konsumentami (kanały dystrybucji, polityka
sprzedaży, struktura obsługi sprzedaży, polityka cen …),
 kastomizacja produktów (sprzężenia zwrotne z rynkiem, zmiany sposobów
produkcji, elastyczność oferty…),
 kreacja marki i zarządzanie nią (w odniesieniu do firmy lub do produktu),
 wirtualizacja procesów sprzedaży i marketingu (social media, internet),
 budowanie bazy wiedzy o otoczeniu (o konkurencji, o rynku, o klientach),
 budowanie kanałów komunikacji z konsumentem (channel connect),
 usługi dodane (sprzedaże buy back lub z montażem, płatności odroczone).
Serwis i usługi posprzedażne. Są to działania rozumiane jako wartość dodana do
produktu, albo jako usługi posprzedażne, wspierające działania marketingu,
wzmacniające reputację marki oraz firmy. Jest to przedłużenie relacji z konsumentem i trwalsze wiązanie go z organizacją lub produktem.
Uwzględnione w strukturze łańcucha wartości czynności pomocnicze są konieczne, żeby te pierwotne mogły być realizowane. Należą do nich działania typowe dla warstwy middle office i back office organizacji (rozdział 2.2.4) związane z
zarządzaniem.
 Optymalizacja infrastruktury polegająca na ciągłej adaptacji funkcjonalności i
produktywności zasobów oraz kapitału do zmieniających się warunków
prowadzenia działalności gospodarczej. Ma to znaczenie zwłaszcza w
związku z modelem rozwoju organizacji (rys. 2.2) oraz teorią kontyngencji
(rys. 1.1) i funkcjonowaniem wartości w otoczeniu (rys. 1.2).
89

Zarządzanie zasobem ludzkim wiąże się z całością realizacji celów organizacji i
uwspólnianiu ich z celami indywidualnymi. Ma za zadanie zaspokajanie
potrzeb różnych interesariuszy, tworzenia kultury organizacji, w tym kluczowych kompetencji oraz kapitału intelektualnego. Bez tego trudno jest
kreować innowacyjność i przedsiębiorczość. Kwestie zarządzania zasobem
ludzkim omawiane są szeroko w różnych miejscach niniejszej monografii.
Kwestii tych dotyczy cały rozdział 4.5.
 Rozwój technologiczny zapewnia innowacyjność oraz dopasowanie oferty do
zmieniających się potrzeb rynku. Służy konwersji wiedzy ukrytej na jawną,
zgodnie z modelem SECI (rys. 1.12). Wraz z rozwojem technologicznym organizacja tworzy własne zasoby klasy VRIN (rozdział 2.2.2), co pozwala na
wyróżnienie się na rynku oraz unikalność produkcji, a wraz z tym umożliwia wykreowanie marki i wartości dodanej.
Łańcuch dostaw jest strukturą zewnętrzną, pozwalającą na realizację procesów
logistycznych i pozyskanie zasobów, których z jakichkolwiek względów nie są
dostępne w organizacji. Dobrze ułożony łańcuch dostaw pozwala na optymalizację kosztów i poprawę efektywności nie tylko produkcji, ale i dystrybucji wraz
z marketingiem. Ważną kwestią jest fakt, że to łańcuch wartości zawiera w sobie
łańcuch dostaw, a nie odwrotnie.
2.2.1 Łańcuch dostaw w łańcuchu wartości,
Wyobraźmy sobie sytuację, w której przedsiębiorca rozpoczyna działalność
sklepu internetowego. Zanim cokolwiek sprzeda musi podpisać umowy: z
pocztą, z kurierem, z firmą e-płatności, z ZUS, z bankiem, z dostawcami, … Nagle powstała cała sieć powiązań, której animatorem stał się nasz podmiot gospodarczy. Na tym polega kreacja lokalnych łańcuchów dostaw. Został on przedstawiony na rys. 2.5. Ilość i rodzaj zasobów oraz usług w globalnym łańcuchu dostaw jest nieograniczona. Łańcuch dostaw staje się elementem łańcucha wartości
i pozwala zrozumieć, jak otoczenie wpływa na kreatorów wartości, którzy budują własne, lokalne łańcuchy wartości. Ten łańcuch lokalny może się rozszerzać
aż do formy globalnej w miarę rozwoju organizacji i jej zapotrzebowania na coraz bardziej unikatowe zasoby oraz podział pracy.
90
Rys. 2.5 Trójwarstwowy układ łańcucha dostaw 138
Ewolucję logistyczną organizacji pozostającej pod wpływem otoczenia
zmiennego i słabo przewidywalnego można przedstawić następującym ciągiem
czasowym. W pierwszym etapie organizacja nie posiada stałych umów dostaw
ani stałych odbiorców generowanej wartości. To powoduje, że początkujący biznes plan nastawiony jest na temporalne okazje lokalne, a organizacja zachowuje
się na rynku w sposób całkowicie behawioralny. W miarę rozwoju w czasie, o ile
działalność przynosi sukcesy, zaczyna ona podpisywać różne umowy z dostawcami i pozyskiwać pierwszych, stałych klientów. Jej model biznesowy oraz zarządzania ewoluuje do typu mieszanego, sieciowo-lokalnego, a jej bliskie otoczenie stabilizuje się częściowo, wskutek usztywnienia struktur oddziaływań poprzez sieć. W ostatecznej fazie, firma staje się animatorem lokalnego łańcucha
dostaw, na który składa się szereg usługodawców oraz interesariuszy bliskiego
i dalszego otoczenia.
Kreatorzy pierwotnej wartości generowanej przez uczestników łańcucha są to
producenci, dystrybutorzy, sprzedawcy i dostawcy usług materialnych. Oni potrzebują całego szeregu usług niematerialnych (warstwa druga) dla funkcjono-
138
Gospodarek T., „Aspekty…”, op. cit. str. 90
91
wania własnych procesów biznesowych, w szczególności, usług wiedzy (prawniczych, informatycznych, doradczych), usług finansowych (bankowość, ubezpieczenia, leasing, inżynieria finansowa) oraz usług wspomagających procesy
wytwórcze (magazynowanie, logistyka, transport). Stąd każdy element warstwy
pierwotnych kreatorów wartości animuje szereg relacji sieciowych, stając się automatycznie węzłem. Kluczowym łącznikiem między warstwami jest architektura SOA (zorientowana na usługi) wymiany informacji oraz wsparcie internetowe. Natomiast regulacje de iure oraz de facto pochodzą z warstwy relacji formalnych. Są to najczęściej ograniczenia usztywniające strukturę GSC (Globalny
łańcuch dostaw).
Kreatorzy wtórnej wartości generowanej przez uczestników łańcucha, którą stanowi warstwa usług niematerialnych. Warstwa ta miałaby ograniczone racje
bytu, gdyby nie istnienie warstwy pierwotnych kreatorów wartości. Tym niemniej, w istniejącym środowisku, w którym można zdefiniować pierwotną warstwę generowanej wartości, każdy element warstwy wtórnej tworzy własny LSC
(lokalny łańcuch dostaw), wynikający z potrzeb formalnych, generowanych
przez warstwę relacji formalnych i nadzoru. W ten sposób usługi finansowe, dotyczące dyfuzji wiedzy albo biurokratyczne, stanowią źródło wartości i stają się
węzłami sieci GSC. Warto zauważyć, że takie organizacje, jak poczta, czy firmy
kurierskie, tworzą rozległe sieci w GSC, pomimo że animatorami ich działań są
producenci pierwotni, wymagający fizycznego przenoszenia towarów materialnych.
Regulatorzy i nadzorcy wprowadzający ograniczenia jakościowe, ilościowe oraz
relacyjne możliwych oddziaływań z otoczeniem. Jest to działanie powodujące
obniżenie efektywności gospodarczej GSC oraz LSC, wymagające rozpraszania
znacznego kapitału na funkcjonowanie tej warstwy. Za najbardziej szkodliwych
interesariuszy systemów GSC należ uznać, wszelkich koncesjonariuszy, większość urzędów kontrolnych państwa, większość agencji rządowych, przymusowe ubezpieczenia oraz sprawozdawczość. Ta warstwa w relacjach do kreatywności GSC powoduje wyłącznie straty ekonomiczne. Stąd wynika konieczność elastycznego reagowania optymalizującego przez wszelkie ogniwa GSC na
sygnały pochodzące z warstwy regulatorów i nadzorców. Globalizacja stanowi
między innymi wynik takich działań, ponieważ zarządzanie GSC i jego węzłami
może być przenoszone ponadnarodowo.
Lokalny łańcuch dostaw jest strukturą zarządzalną. To znaczy, że istnieje
możliwość wpływania na jego optymalizację zależnie od potrzeb organizacji
oraz od złożoności procesów biznesowych, które muszą zostać zrealizowane
przez łańcuch wartości. Łańcuchy dostaw tworzą sieci prowadzące do globalizacji dostępności zasobów oraz przepływu kapitałów, dóbr i usług. Stają się
strukturami globalnymi, gdzie zarządzanie jest możliwe jedynie na poziomie
węzłów sieci jako model rozproszony w pełni adaptatywny.
92
2.2.2 Zasoby i kluczowe kompetencje
O roli zasobów w generowaniu wartości wspomniano już w rozdziale 1 (rys.
1.2). Bez udziału zasobów nie ma możliwości wykreowania jakiejkolwiek wartości. Pisał P. Drucker „Pierwszą powinnością i nieustającym obowiązkiem managera
przedsiębiorstwa jest dążenie do najlepszych, możliwych do osiągnięcia wyników ekonomicznych przy wykorzystaniu aktualnie zaangażowanych i dostępnych zasobów”. Ta
kwestia pozostaje aktualna do dziś. Jakby na potwierdzenie tej tezy można przytoczyć słowa B. Gates’a „Dajcie swoim pracownikom bardziej wyszukane zadania i
lepsze narzędzia, a odkryjecie, że potrafią oni udźwignąć większą odpowiedzialność i wykonywać swoją pracę w mądrzejszy sposób”. Krótko mówiąc, udostępnij zasoby, a
zbudujesz kluczowe kompetencje i kapitał ludzki.
Jeżeli popatrzymy na organizację jako strukturę zasobowę (rozdział 0), to
okaże się, że poprzez pomiar stanu jej zasobów za pomocą prostych parametrów,
możemy określić położenie ekonomiczne całej organizacji. O znaczeniu zasobów
w teorii zarządzania pisałem w monografii „Aspekty złożoności i filozofii nauki
w zarządzaniu”139, poświęcając teorii RBT (Resource Based Theory) cały rozdział.
Wynika to z faktu, że użyteczność zasobów organizacji stanowi jeden z ciekawych obiektów badawczych teorii zarządzania. Dotyczy to zwłaszcza użyteczności ukrytej, która zawsze zwiększa stan niepewności podejmowanych decyzji
biznesowych i wprowadza istotny margines błędu dla wszelkich prognoz. Dobry zespół ludzi może ad hoc spowodować skokowy wzrost użyteczności dostępnego zasobu, wykorzystując wiedzę ukrytą lub efekt synergii grupowej działania ku optymalizacji użyteczności lub wykazania się innowacyjnością. Na podstawie obserwacji praktyki biznesowej można spekulować, że jeżeli 20% najcenniejszych zasobów przynosi 80% przychodów organizacji, to równocześnie 80 %
pozostałych zasobów wymaga zastanowienia się nad ich użytecznością. To daje
szerokie pole do działania menedżerom w budowaniu optymalnej struktury zasobów i szukania dla nich nowych zastosowań. Stąd między innymi wynika
szczególna rola zasobów w zarządzaniu.
Zasoby można podzielić na 10 zasadniczych grup:
 Grunty, budynki, budowle,
 Majątek trwały (maszyny, urządzenia, pojazdy, inwentarz żywy, inne środki
trwałe),
 Majątek ruchomy (wyposażenie, narzędzia, materiały do produkcji, inne materiały),
 Wartości niematerialne i prawne (informacje, licencje, patenty, opracowania,
programy IT, dzieła, projekty, multimedia),
 Kapitały (akcje, obligacje, udziały, instrumenty pochodne, kapitały niefinansowe, kredyty pozyskane, kontrakty),
139
Gospodarek T., „Aspekty…”, op. cit., str. 284-299
93
 Środki pieniężna (waluty, aktywa wysokopłynne, równoważniki pieniądza),
 Materiały i surowce (materiały, surowce, towary, półprodukty),
 Zasoby ludzkie (pracownicy wiedzy, pracownicy pozostali, twórcy),
 Zasoby środowiska naturalnego (biosfera, atmosfera, ekosystem),
 Zasoby wiedzy (kapitał intelektualny, kapitał wiedzy –rys. 1.17).
Każda firma wykorzystuje dostępne zasoby w odpowiedniej konfiguracji dla
swojego łańcucha wartości. Część posiada na własność, część musi pozyskać z
globalnego łańcucha dostaw. Nadrzędną cechą zasobów jest ich produktywność
i użyteczność. Czasami organizacja decyduje się na pewne redundancje zasobowe, co zwiększa bezpieczeństwo działalności (np. banki muszą posiadać zdublowane zasoby IT wymagane niezawodnością działania). Jest to związane z
krytycznością procesów biznesowych. Trudno wyobrazić sobie funkcjonowanie
szpitala bez zabezpieczenia zasilania awaryjnego prądowego.
Z drugiej zaś strony japońskie metody produkcji oparte na koncepcji optymalizacji Kanban i Just-in-time eliminują wszelkie marnotrawstwo i redundancje.
Sukces Toyoty potwierdził słuszność tych działań. Ale z drugiej strony, katastrofa w Fukushimie brutalnie zweryfikowała brak zabezpieczeń zasobów, powodując katastrofalne zmiany pozycji Toyoty na rynku amerykańskim. Nie ma
zatem uniwersalnej recepty dla każdej organizacji, jaka powinna być optymalna
struktura jej zasobów, a przed menedżerem zawsze stoi problem jak tą strukturę
zbudować i optymalizować.
Do zbudowania struktury wartościowych zasobów, określanych mianem
VRIN (przypis 11) służy metoda VRIO140,141. Jest to procedura ustalenia kluczowego zasobu organizacji klasy VRIN, umożliwiającego efektywne generowanie
wartości w dłuższej perspektywie czasowej i utrzymanie przewagi rynkowej.
Składa się na nią analiza czterech kwestii:
1. Pytanie o wartościowość zbioru zasobów (V = value): Czy firma jest w stanie
wykorzystać możliwości lub zneutralizować zagrożenie zewnętrzne z pomocą dostępnego zbioru zasobów?
2. Pytanie dotyczące unikatowości (R = replacement): Czy dostęp do zasobów
VRIN lub umiejętności posłużenia się nimi pozostaje w rękach stosunkowo
nielicznych?
3. Pytanie dotyczące imitowalności (I = imitation): Czy posiadany zbiór zasobów jest trudny do naśladowania bez znaczących nakładów kapitału i włożonego trudu, aby go skopiować lub zastąpić podobnym?
Barney, J.B., “Firm resources and sustained competitive advantage.” Journal of Management, 19, (1991),
s. 99-120
141
Wernerfelt, B., “A resource-based view of the firm.” Strategic Management Journal, 5, (1984), pp. 171180
140
94
4. Pytanie na temat organizacji (O = organization): Czy zorganizowana organizacja jest gotowa i zdolna do wykorzystania dostępnych zasobów i oferowanych przezeń możliwości wytwarzania wartości?
Struktura zasobu VRIN nie jest trwała w czasie i musi podlegać ciągłym procesom optymalizacji w odpowiedzi na dynamiczną zmienność otoczenia. Podobnie zmienna jest użyteczność zasobów, zwłaszcza że dzisiejsze środki produkcji
mają charakter inteligentnych narzędzi, których funkcjonalność może się zmieniać na żądanie przez użycie wiedzy i informacji (oprogramowanie sterujące).
Te same roboty są w stanie wyprodukować nadwozie samochodu osobowego i
traktora. Należy je jedynie przeprogramować i ustawić na odpowiednio skonfigurowanej linii produkcyjnej. W ten sposób dochodzimy do pojęcia elastyczności i inteligencji zbioru zasobów, co pozwala na działania adaptatywne organizacji, zgodnie z zasadą kontyngencji rys. 1.1.
Kluczowe kompetencje
Organizacja nie tylko wymaga zdefiniowania optymalnego zasobu klasy
VRIN, ale również posiadania określonego poziomu wiedzy i doświadczenia,
aby zasób ten wykorzystać w jak najlepszy sposób. To połączenie wiedzy i doświadczenia generuje pewien zasób wiedzy ukrytej, ale znanej organizacji tej lub
jej zasobowi ludzkiemu. Ten konstrukt tworzony w fazie utajnienia wiedzy,
zgodnie z modelem SECI (rys. 1.12) nazywamy kluczowymi kompetencjami.
Koncepcja kluczowych kompetencji została przedstawiona przez C.K. Prahalada
i J. Hamela142 i stanowi uzupełnienie teorii zasobowej. Jest to również odpowiedź
na postulaty 2 i 3 metody VRIO.
Wyobraźmy sobie, że mamy system zintegrowany IT i klient zakupił pakiet
bez serwisu wdrożeniowego. Teoretycznie jest możliwe, że samodzielnie zainstaluje oprogramowanie, a nawet je skonfiguruje do pracy na podstawie instrukcji obsługi. Ale przeniesienie danych i ich integracja bez specjalistycznej wiedzy
(będącej domeną twórców systemu) oraz doświadczenia w tego typu operacjach
(doświadczenia wdrożeniowców) sukcesu nie da się osiągnąć. To właśnie jest
przykład kluczowych kompetencji. To jest tak, jak z jazdą na rowerze na podstawie instrukcji obsługi. Brakuje tego czegoś co nazywamy praktyką, aby udało się
jechać.
Zarządzanie kluczowymi kompetencjami oraz transfer wiedzy na zewnątrz
stanowią ważny element zarządzania wiedzą w organizacji i stanowi o jej sukcesie. Jeżeli uda się zbudować znaczący potencjał intelektualny jako zasób unikatowy, organizacja ewoluuje ku koncepcji tworzenia wartości w oparciu o wiedzę. Wówczas kluczowe kompetencje i kapitał intelektualny stanowią o sile ryn-
Prahalad C. K., Hamel G., “The core competence of the corporation.” Harvard Business Review, 68 No.
3, (1990), pp. 79-91”
142
95
kowej i konkurencyjności. Takie organizacje są często przejmowane przez większe korporacje w celu uzupełnienia luki kompetencyjnej (np. Microsoft przejął
serwis youtube żeby pozyskać kompetencje, a Google przejęło Motorolę, żeby
pozyskać jej patenty).
Mapa zasobów (model RDF)
Gdy rozważamy ujęcie zasobowe organizacji, to należy również zwrócić
uwagę na rolę zasobów w jej strukturze. Służy temu model RDF143, który ma za
zadanie zaprezentowania przypisań poszczególnych zasobów do procesów oraz
zadań stawianych stanowiskom. Model RDF pozwala na optymalizację produktywności struktury zasobowej oraz znalezienie wąskich gardeł w odniesieniu do
obciążeń kluczowych zasobów przy tworzeniu harmonogramów działania organizacji. Równie użytecznym jest stosowanie modelu RDF przy projektowaniu
systemów IT, ponieważ można ograniczyć się wyłącznie do grupy zasobów
związanych z funkcjonalnością przetwarzania informacji. Przykładem mapy zasobów na najbardziej ogólnym poziomie może być struktura systemu IT w typowej stacji obsługi samochodów przedstawiona poniżej na rys. 2.6 (obraz dotyczy
jedynie zasobów IT, podobne można stworzyć dla innych grup zasobów).
W zaprezentowaanym na rys. 2.6 modelu każdy element zasobu powinien
mieć odnośnik do kodu procesu, który wymaga jego użycia oraz kodu stanowiska pracy, do którego jest przypisany. Umożliwia to stworzenie map relacyjnych
szczególnie użytecznych przy projektowaniu systemów IT, wspomagających zarządzanie.
143
Resource Description Framework (nazwa i znaczenie przejęta z informatyki).
96
Rys. 2.6 Rozmieszczenie zasobów IT w strukturze stacji obsługi samochodów
2.2.3 Procesy w organizacji i ich znaczenie dla zarządzania
Procesy w organizacji stanowią kluczowy element jej funkcjonalności. To
właśnie w trakcie ich realizacji powstaje wartość. Zbiór procesów realizowanych
przez organizację stanowi jedną z jej reprezentacji formalnych i pozwala na ilościowe opisanie wyniku działania, albowiem każdy proces ma zdefiniowany
stan w chwili rozpoczęcia i po jego zakończeniu. To ma znaczenie fundamentalne, podobnie jak w ujęciu zasobowym. Dlatego procesowe podejście do opisu
organizacji obok zasobowego jest najbardziej wartościowe z punktu widzenia
zarządzania. Można przyjąć następującą metaforę kognitywną144: ujęcie zasobowe organizacji w języku informatyki stanowi opis jej hardware, podczas gdy
ujęcie procesowe odpowiada opisowi jej software. Warto zauważyć, że zbiór
procesów stanowi istotny element rdzenia łańcucha wartości organizacji (rys.
2.4).
Definicja procesu wg słownika PWN: „Jest to przebieg następujących po sobie i
powiązanych przyczynowo określonych zmian”, jest literacko poprawna, ale oddaje
w sposób niepełny sens epistemologiczny tego pojęcia z punktu widzenia zarządzania, albowiem słowa „przyczynowo” i „określonych” muszą zostać sprecy-
144
Gospodarek T., „Modelowanie…”, op. cit. str. 17
97
zowane. Dlatego podejmując się zdefiniowania procesu z obszaru łańcucha wartości organizacji należy wykorzystać wcześniej zaprezentowaną definicję organizacji (str. 77) i przyjąć następujące rozwinięcie:
Df: Procesem biznesowym nazywamy zamierzone działanie organizacji w czasie,
prowadzące do mierzalnej zmiany stanu jej zasobów, użyteczności lub funkcjonalności.
Takie określenie procesu obejmuje wszystkie możliwe kombinacje dla „określoności” działań. Zmiana stanu zasobów może oznaczać wygenerowanie wartości
przez organizację, wymiany części zasobów lub pozyskania nowych. Może dotyczyć zmian kapitału, w tym intelektualnego oraz materiałów do produkcji.
Zmiana użyteczności może być związana z innowacyjnością lub modyfikacją
portfelową oferowanych produktów i usług. Z kolei zmiana funkcjonalności
oznacza optymalizacje w obrębie struktury organizacji, zarządzania nią, itp.
Tym samym, naturalnym skutkiem przyjętej definicji jest wyróżnienie czterech
typów procesów biznesowych, przebiegających w organizacjach:
1. Procesy operacyjne (kreują pierwotny strumień przychodu, stanowiąc rdzeń
biznesowy) np. sprzedaż, produkcja, zakupy.
2. Procesy wspomagające procesy główne (księgowość, rekrutacja, wspomaganie
IT, kontrola jakości).
3. Procesy dotyczące zarządzania i wykonywania władzy (w tym zarządzania taktycznego, strategicznego, korporacyjnego, kontrolingu, HR).
4. Procesy przetwarzania informacji i wirtualizacji biznesu (funkcjonowanie warstw
middle office i virtual office, budowanie wiedzy, budowanie kapitału intelektualnego).
Każdy proces można scharakteryzować za pomocą siedmiu cech.
1. Definiowalność - Należy jasno określić stany wejścia do procesu i wyjścia zeń,
warunki brzegowe dla przebiegu działań i ograniczenia tak, żeby można
było ustalić różnicę stanu zasobów w czasie.
2. Porządek – Musi zostać określony harmonogram czasowo-zadaniowy czynności zarówno w układzie czasoprzestrzennym, kompetencyjnym oraz rzeczowym. Wynika to z zastosowania modelu koncepcyjnego (workflow).
3. Klient (odbiorca rezultatów) – Każdy proces musi mieć określonego odbiorcę
stanu wyjściowego, który jest klientem procesu.
4. Wartość dodana – Transformacja mająca miejsce w procesie musi dodawać
wartość dla odbiorcy wprost (rezultat wymierny) lub pośrednio (za pomocą
zmiany stanu zasobów, użyteczności, funkcjonalności, etc.). Innymi słowy
każdy proces biznesowy ma zdefiniowaną funkcję celu w formie wymiernej,
określającej wynik procesu.
5. Relacja inkluzji – Proces nie może istnieć sam dla siebie, musi być zawarty
relacyjnie w strukturze organizacji pozostając w synergii z pozostałymi.
Oznacza to, że można stworzyć mapę procesów, stanowiącą model koncepcyjny funkcjonowania organizacji i jedną z jej reprezentacji formalnych.
98
6. Relacja przynależności - Proces powinien mieć zdefiniowanego właściciela
procesu, odpowiadającego za jego przebieg, rozwój i monitoring. Stanowi to
warunek sine equa non zarządzania.
7. Uniwersalność – Proces zasadniczo, ale niekoniecznie, powinien obejmować
kilka czynności, które można opisać formalnie np. za pomocą dokumentów,
wyników pomiarów lub przetworzonej informacji.
Powyższy zbiór cech generuje model ilustracji przebiegu i dokumentowania
procesów dla celów stworzenia mapy procesów organizacji i tym samych stworzenia fundamentów białej księgi organizacji rys. 2.7. Jest to przypadek, gdzie
powstaniu wartości dodanej w procesie AB towarzyszy rozpraszanie pewnej ilości kapitału (koszty produkcji, zużycie materiałów, amortyzacja maszyn, koszty
pracy pracowników, inne koszty).
Rys. 2.7 Opis przebiegu procesu biznesowego
Proces rozpoczyna się w chwili tA, a stan przypisanych mu zasobów na wejściu oznaczony jest jako A (przed realizacją celu) i jest mierzony za pomocą
zbioru zmiennych Ф(A,tA). Koniec procesu oznaczany jest jako B i ma zostać osiągnięty w chwili tB (po zrealizowaniu celu). Stan B różni się od A, ale jest opisany
za pomocą zbioru tych samych zmiennych co w stan A, tyle że o innych wartościach Ф(B,tB). Dla tego procesu istnieje funkcja celu L(A,B), co do której można
wnosić, że opisuje jakieś optimum działania (minimum kosztów, maksimum
99
efektywności, minimum czasu, minimum strat, etc.). W naszym przypadku z
rys. 2.7 jest to minimum kapitału utraconego (rozproszonego), co oznaczono jako
L  kapitalmin
 B tB    A t A 
_ rozproszon y
Proces AB jest uruchamiany przez menedżera, który dysponuje informacją
wstępną, umożliwiającą podjęcie racjonalnej decyzji o jego uruchomieniu lub
wstrzymaniu. Z chwilą uruchomienia dokumentuje on stan A za pomocą ustalonych dokumentów i zbioru parametrów Ф(A,tA). Po zakończeniu procesu i
osiągnięciu stanu B, menedżer procesu dokumentuje informację za pomocą takich samych dokumentów oraz zbioru parametrów Ф(B,tB). W ten sposób tworzy
informację zwrotną (feedback), a jednocześnie wynik procesu przekazywany jest
do odbiorcy rezultatu (klienta). Ten dokonuje oceny, czy osiągnięto wynik zadowalający stosując kryteria oceny aksjologicznej, które odpowiadają określeniu:
dobry, pozytywny, zadowalający etc i dokumentuje fakt otrzymania wartości
dodanej za pomocą ustalonego formatu dokumentu (np. przyjęcie z produkcji,
dowód wewnętrzny, …), który został przyjęty w ramach funkcjonowania struktury organizacji. Równocześnie za pomocą odpowiednich dokumentów opisywane są stany A oraz B procesu, co umożliwia pomiar.
Mapa procesów organizacji
Jeżeli uda się opisać pewien zbiór procesów w sposób opisany powyżej, definiując przy okazji miarę rezultatu oraz kryteria oceny aksjologicznej, możliwe
jest stworzenie mapy procesów, stanowiącej reprezentację formalną modelu
funkcjonalnego organizacji. Jest to zagadnienie szczególnie istotne przy wdrożeniach systemów IT wspomagających zarządzanie, zwłaszcza klasy ERP. Komputer wymaga modelu semantycznego zadania w języku sformalizowanym, tak
żeby można było stworzyć zbiór algorytmów w języku formalnym (programowania) odwzorowujący w sposób wzajemnie jednoznaczny rzeczywistość i jej
obraz abstrakcyjny145. W ten sposób można skatalogować całość działalności organizacji. Dla ułatwienia opisu procesów, można zastosować następujący model
semantyczny:
 Proces – nazwa,
 Kategoria – proces główny, pomocniczy, IT
 Typ – określa grupę procesów o podobnym workflow (np. sprzedaż),
 Cel – funkcja celu procesu (definicja miary wyniku),
 Wartość dodana w procesie i jej miara (różnica wartości stanów po i przed),
 Czynności – ciąg logiczny harmonogramu workflow procesu,
 Właściciel (menedżer, który inicjuje start procesu i jego kontrolę),
 Odbiorca (klient otrzymujący dokument końcowy),
 Uczestnicy (przetwarzający informacje źródłowe i dokumenty),
145
Gospodarek T., „Systemy ERP. Modelowanie, projektowanie, wdrażanie”, Helion, Gliwice, 2015.
100
 Dokumenty opisujące proces - ich cechy (szablony) oraz adresy docelowe,
 Zasoby powiązane z procesem (stany magazynowe, kapitał,…),
 Relacje procesu (powiązania z innymi procesami).
Ilustracją może być schemat (mapa procesów) dla dokumentu faktura, przedstawiony na rys. 2.8. Na schemacie tym połączono ze sobą procesy w grupy i przyporządkowano im odpowiednie zasoby według modelu RDF. Pozostaje jeszcze
wpisać proces w mapę zadań (workflow) oraz dołączyć dokumenty opisujące do
obiegu dokumentów w organizacji. W ten sposób powstaje kompletna reprezentacja formalna organizacji, zwana niebieską księgą.
Podsumowanie
Jak łatwo zauważyć, każdą organizację można rozpatrywać jako unikatową
mapę procesów, co sugeruje zasadność powołania koncepcji ujęcia procesowego,
jako ważnego konstruktu teoretycznego zarządzania. Ujęcie procesowe jest ważnym modelem epistemologicznym i punktem wyjścia dla rozważań wspomagania zarządzania za pomocą technologii IT. Stanowi najbardziej sformalizowaną
reprezentację organizacji, umożliwiającą definiowanie stanu, wyników działania
oraz monitoring łańcucha wartości. Każdy zarządzający organizacją powinien
dążyć do stworzenia mapy procesów w układzie relacyjnym z opisem stanowisk
i kompetencji oraz obiegiem informacji. W ten sposób powstanie niebieska
księga zarządzania, umożliwiająca jednoznczne modelowanie semantyczne na
poziomie języków formalnych. W konsekwencji można zbudować system
ERP146.
146
Gospodarek T., „Sytemy ERP, …”, op. cit.
101
Rys. 2.8 Przykładowa mapa przetwarzania faktury zakupu w języku UML 147
147
Ibid. str. 71
2.2.4 Organizacja jako układ warstw logicznych
W opisie łańcucha wartości organizacji, a zwłaszcza jej struktury, korzystnie
jest używać modelu warstw logicznych mapy zadań, który pozwala na uproszczenie map procesów, workflow oraz przydziału zasobów przy praktycznej realizacji tworzenia białej lub niebieskiej księgi organizacji. Wyróżniamy trzy zasadnicze warstwy logiczne funkcjonalności, są to: front office, middle office i back
office. Do tego można dodać warstwę virtual office, reprezentującą funkcjonalność
części wirtualnej biznesu danej organizacji.
Warstwa front office
1. Zadania realizowane przez warstwę front office to jest kontakt bezpośredni z
klientem, wszelka sprzedaż, obsługa zamówień, zarządzanie bazą danych
klientów, ustalanie i monitorowanie planu sprzedaży, prognozowanie
rynku, zarządzanie portfelem towarów i usług.
2. Procesy główne realizowane w tej warstwie to jest: sprzedaż towarów, sprzedaż usług, sprzedaż wyrobów, zamawianie towarów, zbieranie i przetwarzanie zamówień od klientów, marketing, rozliczenia sprzedaży, rozliczenia
z klientami, kontroling operacyjny przychodów ze sprzedaży.
3. Procesy pomocnicze stanowią wystawianie dokumentów źródłowych (faktury, oferty, zamówienia, dokumenty kasowe, dokumenty relacyjne do dokumentów sprzedaży, dokumenty zakupu), usługi świadczone wewnętrznie
(sprzedaż wewnętrzna, baza klientów, obsługa CRM, wirtualizacja sprzedaży), prognozowanie popytu,
4. Procesy zarządcze to jest zarządzanie relacjami z klientami, kontroling operacyjny (raporty o sprzedaży dotyczące: kontrahentów, dokumentów, obrotu towarowego, usług wewnętrznych),
5. Zasoby warstwy front office stanowią systemy sprzedaży, CRM, systemy ICT,
sieć LAN/WAN i Internet, itp.
6. Relacje z warstwą middle office polegają na ustalaniu formatów dostępie do
formularzy, szablonów, algorytmów, kontroli i analizy danych, transferach
danych, stosowaniu obiegów dokumentów, procedur, norm i instrukcji).
7. Relacje z back office polegają na wymianie online danych księgowych, danych
o płatnościach, danych magazynowych, dokumentów sprzedaży, dokumentów magazynowych, danych kadrowo-płacowe (naliczenia prowizji, przerobów, realizacji planów)).
Powyższy układ projektu warstwy front office zapewnia czytelne relacje z zasobami oraz procesami obsługi klienta, co prowadzi do czytelności map procesów
oraz map zadań, ograniczonych do sprzedaży i relacji z klientami.
Warstwa back office
1. Zadania realizowane przez warstwę dotyczą ograniczonego kontaktu z
klientem. Ma to miejsce po nawiązaniu relacji przez warstwę front office (np.
uzgodnienia księgowe, kontrola płatności, uzgodnienia formatów wymiany
danych). Do back office należy obsługa wewnętrzna procesów zarządczych,
których klienta nie dotyczą, w tym: zarządzanie danymi księgowymi, kadrowymi, zarządzanie organizacją, kontroling.
2. Procesy główne realizowane w warstwie back office to są wszelkie rozliczenia
finansowe, fizyczna realizacja kontraktów, zarządzanie zasobami, działania
HR, kontrola funkcjonalności, efektywności, wyniku, itp.
3. Procesy pomocnicze polegają na wystawianiu dokumentów źródłowych (zamówienia dostawy, dokumenty relacyjne do dokumentów sprzedaży, dokumenty zakupu, finansowe, kadrowo-płacowe), a także dokumentowania
usług świadczonych wewnętrznie (kontrola dokumentów, księgowanie,
kontrola płatności między działami). Są to również ustalenia położenia ekonomicznego, raportowanie taktyczne, rozliczenia i rozrachunki.
4. Procesy zarządcze dotyczą zarządzania relacjami w organizacji, kontrolingu
taktycznego (eaporty zintegrowane, budżetowanie, kontrola strategii, ustalanie parametrów) oraz analizowanie kluczowych wskaźników efektywności KPI (rozdział 4.9.1),
5. Zasoby warstwy back office stanowią różne elementy, takie jak: system FK i
jego moduły satelickie, sieć LAN/WAN, moduł EIS (definiowanie raportów
i ich układu), zasoby produkcyjne, zasoby ludzkie związane z produkcją i
wykonawstwem, surowce i materiały.
6. Relacje z middle office polegają na dostarczeniu wiedzy: formaty wymiany informacji, formularze, szablony, algorytmy, kontrola oraz analiza danych, zabezpieczenie danych, transfery danych, obiegi dokumentów, szablony procedur, instrukcje.
7. Relacje z front office polegają na kontroli działania oraz dostarczaniu danych
rzeczywistych o stanach magazynowych, dostępnych zasobach, rozrachunkach (dane dokumentowe, dane o sprzedaży, dane o płatnościach, dane magazynowe, dane o kontrahentach)
Powyższy układ logiki działania warstwy back-office pozwala na szczegółowe
określenie zadań w projekcie funkcjonalnym organizacji (white print) i ograniczyć złożoność map procesów oraz map zadań (wyłączenie elementów pozostałych warstw).
Warstwa middle office
1. Zadania middle office wiążą się z brakiem kontaktu z klientem, obsługa wewnętrzna procesów od strony zapewnienia zasobów IT oraz dokumentowa-
104
2.
3.
4.
5.
6.
7.
nia, zarządzanie wiedzą oraz systemem IT, przygotowanie algorytmów, szablonów raportowych, kwerend konsolidacji, procedur, map wiedzy, obiegów dokumentów, etc.
Procesy główne realizowane w warstwie middle office dotyczą wsparcie informacyjnego procesów sprzedaży, logistyki wewnętrznej i zewnętrznej, dostarczania wiedzy dla warstwy back office, itp.
Procesy pomocnicze polegają na realizacji obiegu dokumentów i informacji,
zabezpieczeniu danych oraz dostępu do informacji w całej organizacji, mapowanie wiedzy, nadzór nad systemem IT, tworzenie szablonów raportów,
algorytmów i procedur, tworzenie procedur, instrukcji, projektów.
Procesy zarządcze dotyczą zarządzania wiedzą, systemem IT, siecią, obiegiem informacji, bezpieczeństwem IT.
Zasoby warstwy stanowią: system IT na poziomie administratora systemu,
sieć LAN/WAN, oprogramowanie serwerowe i komunikacyjne, systemy
bezpieczeństwa danych, pracownicy wiedzy organizacji.
Relacje z front-office i back office polegają na ustalaniu formatów, formularzy,
szablonów, algorytmów, kontroli, zabezpieczeniu i transferach danych, obiegów dokumentów, szablony procedur, instrukcje, zasilania systemu CMS organizacji.
Relacje wyłącznie z back office dotyczą kontrolingu od strony projektowania i
ustalania metod pomiarowych położenia finansowego oraz wyników łańcucha wartości, w tym: wskaźników położenia ekonomicznego, monitorowania kosztu własnego, efektywności zatrudnienia, opłacalności, oraz algorytmów i formularzy budżetowania działów sprzedaży, ocen okresowych.
Warstwa virtual office
1. Zadania – przenieść funkcje i usługi warstwy front office do sieci Internet.
2. Procesy główne realizowane w warstwie virtual office to jest sprzedaż internetowa i e-logistyka. Mogą to być również e-usługi (np. e-government),
funkcje klienta CRM, pozyskiwanie danych dla systemów BI.
3. Procesy pomocnicze dotyczą zarządzanie informacją, dokumentami generowanymi w formie elektronicznej, transferów danych do warstwy back office
oraz wymiana danych z front office, funkcje menedżerskie CRM, funkcje prezentacyjne CMS.
4. Procesy zarządcze związane są z zarządzaniem relacjami z klientami, zarządzanie portalem www, zarządzanie prezentacjami CMS.
5. Zasobami warstwy są pracownicy działu marketingu i sprzedaży online, systemy IT, CRM oraz CMS, usługi świadczone przez warstwę middle office.
6. Relacje z front office polegają na uwspólnieniach danych dotyczących klientów oraz sprzedaży.
105
7. Relacje z back office dotyczą transferów dokumentów, danych dotyczących
fizycznych stanów magazynowych, informacji o klientach (płatnościach).
8. Relacje z middle office stanowią usługi w ramach systemu CRM oraz CMS,
konfiguracje praw dostępu na serwerach LAN/WAN, prezentacje wirtualne
na stronie, konfiguracja platform portalu korporacyjnego lub strony www.
Można zauważyć, że warstwa midle office stanowi wydzieloną warstwę inteligencji organizacji. Jest dostawcą wiedzy dla pozostałych warstw. Jej istnienie
pozwala zbudować kluczowe kompetencje i wykorzystywać je. Dlatego mapy
zadań dla warstwy middle office wydają się być szczególnie istotne we wszelkich
rozważaniach na temat struktury organizacji, a relacje międzywarstwowe muszą
być bardzo precyzyjnie dokumentowane.
2.3 Człowiek w organizacji
W kolejnym punkcie rozważań warto odnieść się do roli człowieka w organizacji i jego unikalnych zachowań, opisanych w rozdziale 1.1.1. Jest to kolejne
złożone zagadnienie w teorii i praktyce zarządzania, co przekłada się na trudności w opisie stanu podmiotu oraz jego procesów biznesowych. Istnieją możliwości opisu stanu zasobów, co częściowo rekompensuje niedogodności wynikające
z możliwych zachowań ludzkich w organizacji. Efektem może być optymalizacja
zachowań organizacyjnych i społecznych. Ale nawet rozważając kwestie ryzyka
działalności, to zatrudnienie pracownika lub jego funkcjonowanie w organizacji
kategoryzowane jest do grupy ryzyka hazardowego, co znacząco wpływa na
możliwości ścisłego opisu stanu organizacji.
2.3.1 Relacje człowieka i organizacji
W rozdziale 1.1.1 wskazano, że człowiek podejmujący działalność gospodarczą lub podejmując pracę w ramach istniejącej organizacji nawiązuje szereg
relacji. Wiążą się one z możliwością zaspokojenia potrzeb i uczestnictwa w konsumpcji dóbr (rozdział 1.2). Z punktu widzenie zarządzania organizacją, najważniejszymi relacjami stają się wszelkie zależności formalne człowiek – organizacja
oraz nieformalne człowiek – grupa i człowiek – otoczenie. Wiąże się to z uwspólnieniem celów indywidualnych z celami organizacji. Im bardziej obie te kategorie celów będą zbieżne, tym większa efektywność pracy pracownika zostanie
osiągnięta, co zazwyczaj przekłada się na wyższą efektywność funkcjonowania
organizacji. Pamiętajmy jednak, że w relacjach jednostka – grupa reguła przekory ma szczególne zastosowanie.
Można wskazać pięć najważniejszych rodzajów interakcji, organizacja - pracownik:
106

Włączenie lub eliminacja jednostki polegające na ocenie przydatności, uświadomieniu podjęcia decyzji o włączeniu lub eliminacji, budowaniu zasad etycznych relacji i kryteriów umożliwiających bezstronne sądy w zakresie włączeń lub eliminacji. Eliminowanie zjawisk patologicznych (nepotyzm, kumoterstwo, protekcja).
 Utrzymanie wartościowej jednostki w strukturze, na co składają się działania
edukacyjne, aspekty identyfikacji z organizacją, procesy adaptacji w grupie
oraz generowanie wysokiej użyteczności jednostki dla osiągania celów organizacji i własnych. W tej kategorii mieszczą się działania motywacyjne, sprawowania władzy i przywództwa.
 Wywołanie stanu niezawodności pełnionej roli, poprzez odpowiednie umiejscowienie kompetencyjne, udostępnienie wiedzy i działania integrujące z organizacją i jej zasobem ludzkim. Wykorzystuje się w tym celu motywacje szkoleniowe, awanse poziome, powierzanie zadań wymagających włączenia procesów wiedzy, wymianę informacji oraz zachowania inteligentne.
 Zachowania stabilizujące, takie jak: działania lojalnościowe wobec organizacji,
ochrona tajemnicy służbowej, tworzenie silnych relacji wewnątrzorganizacyjnych w grupie lub zespole. Są one niezbędnym działaniem zarządzania
kadrami i organizacją jako całością. Obniżają ryzyko hazardowe wynikające
z nieprzewidzianych działań ludzkich.
 Generowanie wartości dodanej, wykraczające poza zakres pełnionej roli, zdefiniowanej w zakresie obowiązków, np. działania kooperacyjne, twórcze (wynalazki, sugestie ulepszające organizację), stwarzanie korzystnej dla organizacji atmosfery w otoczeniu. Dotyczy to wbrew pozorom wszystkich pracowników, a nie tylko pracowników wiedzy. To właśnie jest najlepszą cechą
japońskich systemów produkcji, zwłaszcza Kaizen i Kanban148.
Na relacje w organizacji mają szczególny wpływ oczekiwania dwustronne, a
więc pracownika od organizacji oraz organizacji od pracownika.
Czego zatem oczekuje pracownik od zatrudniającej go organizacji? Z teorii
potrzeb A.Maslowa (rys. 1.5), osiągnięć McClellanda149, motywacji C.Alderfera150, oczekiwań V.Vrooma151 i celów E. Locke’a152, wynikają cztery fundamentalne grupy oczekiwań:
148
Imai M., op. cit
McClelland D.C., „Human…”, op. cit.
150
Alderfer C.P., “Existence, Relatedness, and Growth; Human Needs in Organizational Settings”. Free
Press, New York 1972.
151
Vroom V.H., “Work and Motivation”, J. Wiley & Sons, 1964, [paperback] Jossey-Bass Publishers, San
Francisco, 1995.
152
Locke, E. A.; Shaw K. N.; Saari L. M., Latham, G. P., "Goal Setting and Task Performance: 1969–1980",
Psychological Bulletin (American Psychological Association) 90(1), (1981), 125–152.
149
107
1. spełnienia potrzeb w zakresie bezpieczeństwa ekonomicznego (godziwa zapłata, wraz z gwarancją stabilności jej uzyskiwania w dłuższym horyzoncie
czasowym),
2. spełnienia potrzeb przynależności (afiliacji i identyfikacji z organizacją stanowiącą system społeczny z wartością), etycznych i moralnych zachowań relacyjnych, (to czego zwykle korporacje nie zapewniają),
3. spełnienia potrzeb wyróżnienia się i budowania pożądanego własnego wizerunku wobec otoczenia, które dzięki prestiżowi organizacji oraz pozycji
zajmowanej w firmie mogą zostać spełnione,
4. spełnienia celów dalekiego horyzontu czasowego, związanych z uznaniem
społecznym, poszanowaniem oraz godnym życiem.
Jeżeli organizacja potrafi zaspokoić wspomniane potrzeby, pracownik może w
zamian zaoferować pożądane zachowania organizacyjne i wnieść wartość dodaną do jej funkcji celu. Warto zwrócić uwagę na szczególną rolę menedżera w
analizie możliwości spełniania potrzeb przez organizację względem pracownika
oraz odpowiedniego sterowania dostępnymi środkami dla ich rzeczywistej realizacji. Zdefiniowane potrzeby pracownicze mogą generować powstanie nowych organizacji, usług i dóbr komplementarnych, umożliwiających ich spełnienie oraz budowanie nowych relacji z otoczeniem (związki zawodowe, usługi medyczne i socjalne, stowarzyszenia tematyczne), rozszerzając istniejący, globalny
łańcuch dostaw o usługi niezwiązane bezpośrednio z generowaną wartością.
2.3.2 Model systemowy budowania relacji w organizacji
W analogii do koncepcji systemowego ujęcia działalności gospodarczej z
rys. 1.18, można zaproponować podobny przedstawiony model na rys. 2.9. W
zaprezentowanym modelu jednostka adaptująca się w grupie zadaniowej w czasie t1 posiada określone zasoby oraz ma ustalone cele. Grupa w tym samym czasie również posiada zasoby i cele, które zwykle są wartościowsze dla organizacji
niż te, oferowane przez jednostkę adaptującą się (ale nie mui to być być prawdą).
Skuteczne dopasowanie przyjmowanej jednostki do zespołu polega na uwspólnieniu zasobów oraz celów. Odbywa się to na drodze zadań zlecanych przez organizację, stanowiącą najbliższe otoczenie dla zespołu. W czasie wspólnej pracy
w wyniku realizacji procesów biznesowych powstaje wartość w otoczeniu. Przy
okazji jednostka i grupa nabywają korzyści pośrednich. Po upływie pewnego
czasu do chwili t2 pracownik nabywa doświadczenia, kluczowych kompetencji,
którymi dysponuje grupa, odkrywa pewną wiedzę ukrytą (model SECI rys. 1.12)
oraz buduje relacje formalne i nieformalne. Cały czas dokonywane są oceny aksjologiczne rezultatów w kategoriach dobry-zły zarówno przez jednostkę, jak i
przez grupę. Jeżeli przeważają oceny dodatnie, można przyjąć, że jednostka jest
zaadaptowana przez zespół, w przeciwnym przypadku konieczne są zmiany in-
108
dywidualne, stosownie do wymagań stawianych przez grupę. Z tej pozycji następuje kolejny cykl adaptacji. Czasami wskazane są działania coachingowe (rozdział 4.5.3).
109
Rys. 2.9 Model integracji jednostki z grupą w ujęciu systemowym 153
153
Gospodarek T., „Zarządzanie…”, op. cit. str. 184.
Takie dopasowanie osoby do grupy metodą kolejnych przybliżeń powoduje, że zbudowany zespół staje się drużyną. Osoby nie potrafiące przystosować
się odpadają i mogą być zastąpione przez innych. W zespołach adaptatywnych
przywództwo wyłania się samoistnie, a liderzy grupy mogą się zmieniać w zależności od zadań powierzonych przez organizację. Model ten wykorzystywany
jest do budowania zespołów scrum154 w metodzie agile management155. Zarządzanie agile jest szczególnie mocno rozwijane w organizacjach opartych na wiedzy
oraz twórczych, tam gdzie formalne struktury nie sprawdzają się lub tam gdzie
wynik końcowy projektu nie jest dokładnie znany.
2.3.3 Pracownik w organizacji
Jednym z fundamentalnych zagadnień zarządzania jest uzgodnienie celów
organizacji z celami jej pracowników. Im lepiej to zostanie zrealizowane, tym
bardziej efektywną staje się struktura generująca wartość. Pokrewnym zagadnieniem jest kwestia: dlaczego pracownik ma się dodatkowo wysilać i realizować założenia planów oraz dyscypliny organizacyjnej. Znana zasada „kija i marchewki” jest
tu wystarczającym wyjaśnieniem. Bardziej naukowo, jest to równoległe stosowanie dwóch, przeciwstawnych imperatywów hipotetycznych: jeżeli nie będziesz realizować planów, to zostaniesz zwolniony z pracy, który jest równoważony przez:
jeżeli będziesz się starać i realizować plany, otrzymasz nagrodę. Ta równowaga jest
zależna od stylu zarządzania organizacją i stała się fundamentem działu zarządzania zasobami ludzkimi (Human Resources HR).
Istnieją trzy koncepcje behawioralne funkcjonowania pracownika w organizacji, nazwane „X”,”Y” (D. McGregor) 156 oraz „Z” (A.Maslow, G.Ouchi) 157.
Można je przedstawić syntetycznie, tak jak w tabeli 6.
Koncepcja McGregora zakłada dwa przeciwstawne ujęcia zachowań pracowniczych i odpowiadających im relacji menedżerskich (X i Y). Jak można się
spodziewać, wychodząc z dwóch przeciwstawnych zbiorów założeń, można
otrzymać wiele kombinacji sytuacyjnych, prowadzących do głębokich niejednoznaczności interpretacyjnych dotyczących optymalnych kierunków zarządzania. Co więcej, nie pozwala to na stworzenie żadnej, sensownej prognozy.
Przeciwstawieniem tej sytuacji jest koncepcja „Z”, która zakłada partnerstwo pomiędzy pracownikiem a organizacją za punkt wyjścia dla wspólnego
kreowania wartości. Stanowi ona podstawę adaptatywnych systemów zarządzania i systemowego ujęcia human resources. Koncepcja „Z” ugruntowała socjologiczny nurt w zarządzaniu uwzględniający potrzeby pracownika w miejscu
154
Scrum guides, http://www.scrumguides.org/
Agile https://pl.wikipedia.org/wiki/Programowanie_zwinne
156
McGregor D., http://www.accel-team.com/human_relations/hrels_03_mcgregor.html
157
Wikipedia, „Theory Z”, http://en.wikipedia.org/wiki/Theory_Z
155
pracy. To jest najbardziej racjonalne na dzień dzisiejszy ujęcie kwestii budowy
kapitału społecznego.
Tabela 6 Koncepcje funkcjonowania pracownika w organizacji.
Koncepcja X
Koncepcja Y
Przeciętny pracownik jest
leniwy, nielubiący swojej
pracy i stara się wykonać jak
najmniej.
Pracownicy nie są z natury leniwi. Otrzymując szansę pracy
wykonają ile się da dla dobra
organizacji
Żeby być pewnym, że pracownicy pracują wystarczająco ciężko, należy prowadzić ścisłą kontrolę.
Menedżerowie
powinni
tworzyć ścisłe zasady pracy
i wdrażać określony systemu nagród i kar w celu
kontroli pracowników.
Aby umożliwić pracownikom pracy w interesie organizacji, menedżerowie muszą
tworzyć scenografię pracy,
która umożliwia pracownikom wykazania inicjatywy i
samoukierunkowania.
Menedżerowie powinni dążyć do decentralizacji władzy,
przenosząc ją na pracowników i upewnić się, że posiadają niezbędne zasoby do
osiągnięcia celów organizacyjnych.
Koncepcja Z
Zaleca się traktowanie pracownika jako człowieka zaangażowanego w wiele dziedzin życia,
a nie tylko jako ogniwo łańcucha
produkcji
W miejscu pracy należy tworzyć szanse wykorzystania i rozwinięcia zdolności oraz talentów
pracowników. Należy zapewnić
dobra i usługi, warunkujące
przyzwoity poziom egzystencji
pracownika i jego komfort pracy
Konieczne jest stworzenie możliwości współdziałania grupowego w celu eliminacji egocentryzmu indywidualnego. Należy
włączać wszystkich do procesu
zarządzania.
Motywacja
Ważnym zagadnieniem wynikającym z relacji pracownik organizacja jest
motywacja. Jest to problem każdego menedżera, jak zmotywować swojego pracownika do podejmowania zadań stanowiących cele organizacji, zarówno te
operacyjne, jak i strategiczne. Kwestii tej został poświęcony rozdział 4.5.2.
Kapitał ludzki
Człowiek w organizacji stanowi fundament najbardziej jej istotnego zasobu
związanego z wiedzą, kreatywnością, przedsiębiorczością, innowacyjnością
oraz samorefleksją. Te elementy składają się na kapitał intelektualny i kulturę
organizacji. Analizując strukturę kapitału uogólnionego (rys. 1.17) możemy zauważyć, że to jest domena zasobu ludzkiego tworzącego organizację. Teatr może
się spalić, ale ludzie stanowiący zespół teatru mogą dalej funkcjonować, bo to
oni tworzą sztukę i stanowią o jego kapitale intelektualnym. W każdej organizacji mamy do czynienia z pracownikami wiedzy, którzy stanowią jej aktywa, albowiem ich utrata wymaga poniesienia określonych kosztów dla odtworzenia
status quo. Zwykle powoduje to dodatkowo utratę potencjalnych korzyści, które
można by było uzyskać.
112
W odróżnieniu od pracowników wiedzy organizacje mogę dysponować zasobem ludzkim nie będącym pracownikami wiedzy. Ci stanowią wyłącznie
koszt dla organizacji, ale bez tego nie uda się wytworzyć wartości. Poprzez procesy absorpcji i dyfuzji wiedzy zasób ludzki może się uczyć, zdobywać doświadczenie i kompetencje, przekształcając się w kapitał ludzki. Dobrze zgrany zespół
pracowników wykonujących proste czynności staje się cennym zasobem, albowiem pozyskanie nowych kadr lub przyuczenie do wykonywania procesów
może nie być takie proste. Stąd można zakładać, że zarówno pracownicy wiedzy,
jak i ci pozostali, stanowią kapitał ludzki każdej organizacji. Na nim można dopiero budować kapitał intelektualny i kluczowe kompetencje, co należy do zadań menedżera.
2.3.4 Menedżer i przywódca
To co czasami pozwala na osiągnięcie nieprawdopodobnych wyników w
działalności firmy jest zwykle niemierzalne i nieuchwytne. Jest to charakterystyczne dla działania systemów inteligentnych i zasady synergii. Żeby taki stan
osiągnąć menedżer musi mieć „to coś”, co pociąga za nim grupę do podejmowania wspólnych działań. Charyzmatyczni menedżerowie osiągali i osiągają sukcesy, motywując swoim zaangażowaniem i geniuszem zespoły ludzi i wytyczając nowe kierunki biznesowe oraz nieprawdopodobne cele. Innowacyjne produkty nie powstałyby zapewne bez udziału przywódców klasy: Enzo Ferrari,
Coco Chanel, Steve Jobsa, Elona Muska czy Billa Gatesa. Na tym polega przywództwo i jego rola w biznesie. Przywództwo zaspokaja grupę potrzeb określonych przez piramidę Masłowa (rys. 1.5), związaną z przynależnością i wyróżnieniem się. Dlatego odpowiednie działania ze strony kierownika zespołu, a
zwłaszcza dyrektora naczelnego, umożliwiają integrację działań zespołowych i
lepsze dopasowanie celów indywidualnych z grupowymi. Nie powinno być zatem zaskoczeniem, że temat przywództwa znajduje się w centrum uwagi dzisiejszych nauk o zarządzaniu i w związku z tym pojawiła się w literaturze przedmiotu znaczna ilość opracowań158,159.
Każda organizacja wymaga odpowiedniego typ przywództwa. Wynika ono
z rozeznania realizowanych procesów biznesowych, funkcji celu, definicji wartości, zasobów do dyspozycji oraz kultury organizacyjnej. Tylko innowator i wizjoner jest w stanie znaleźć nową, niekonwencjonalną funkcjonalność zasobów.
Z kolei agitator jest w stanie wykreować nowe potrzeby w otoczeniu. Stąd właściwym kierunkiem poszukiwań odpowiedniej formy przywództwa w organizacji jest jej strategiczna orientacja rynkowa (rozdział 4.6).
158
159
Avery G.C., „Przywództwo w organizacji. Paradygmaty i studia przypadków”, PWE, Warszawa, 2009.
Maxwell J.C., „Przywództwo. Złote zasady”, MT Biznes, Warszawa, 2010.
113
Wśród różnego typu przywództwa, wyróżnianego w literaturze, szczególnie interesujące jest przywództwo wizjonerskie wg H. Mintzberga i F. Westleya160. Na podstawie licznych obserwacji wyróżnili oni kilka typów przywódców - wizjonerów:
 Kreator (Sakichi Toyoda – Toyota) to osoba, która jest zainspirowana oryginalną
ideą i ma osobistą wolę wcielenia jej w życie. To podejście cechuje liderów
nowych organizacji lub nowych aktywności w już istniejącej strukturze. Przykład Toyoty, gdzie cały klan rodziny Toyoda tworzył przez lata potęgę gospodarczą Toyoty jest najlepszym.
 Agitator (Helena Rubinstein – Helena Rubinstein Inc.) to przewidująca osoba z
wyobraźnią, która znajduje i wykorzystuje pomysły innych (patenty, koncepcje), po czym wciela je umiejętnie w życie. Potrafi oddziaływać na otoczenie.
Podejście to cechuje liderów nowych organizacji oraz twórców innowacyjnych dóbr. Takim agitatorem wizjonerem był Steve Jobs.
 Idealista (Janusz Korwin-Mikke – partia) to jest typowy perfekcjonista, którego
wizja musi do kogoś apelować (musi skrystalizować marzenia elektoratu).
Wymaga się od niego podejścia pragmatycznego i mądrości politycznej, aby
ożywić wizję i być liderem. Podejście to cechuje liderów misjonarskich organizacji.
 Majsterkowicz (Tim Cook –Apple) to osoba, która jest bardziej odkrywcza i organizatorska niż twórcza (obdarzona wyobraźnią). Jest ona dobrym strategiem, budowniczym i promotorem, który współpracuje z ludźmi i potrafi natchnąć swoją wizją organizację (głęboki wpływ osobisty i nastrojowy symbolizm).
 Wróżbita (William Hewlett – Hewlett-Packard) to osoba, która jest oryginalnym
myślicielem jako kreator i przenikliwa, jak majsterkowicz. Jej wizja nie jest
zogniskowana na produkcie, lecz na procesach. Podejście to cechuje budowniczych organizacji oraz nowej funkcjonalności dostępnych zasobów.
Dzisiejsza klasyfikacja przywództwa wyróżnia cztery typy: klasyczny, transakcyjny, wizjonerski i organiczny161. Można również określić zbiór najważniejszych
cech charakteryzujących przywództwo w organizacjach. Są to: zasób wiedzy
pracowników, źródło władzy przywódcy, poziom władzy pracowników, sposób
podejmowania decyzji, styl decyzyjny, forma zarządu, koncepcja zarządu, struktura organizacji, zdolność autoadaptacji oraz rodzaj otoczenia162.
Przywództwo i jego analiza nie są badaniami stricte naukowymi. Jest to
głównie opis i systematyczne dokumentowanie różnych przypadków bazujące
Westley F., Mintzberg H., “Visionary Leadership and Strategic Menedźment”, Strategic Management
Journal, vol. 10, (1989), str. 17-32.
161
Avery G.C., op. cit.
162
Gospodarek T., “Zarządzanie…”, str. 182.
160
114
na obserwacjach, nie poddających się uogólnieniom. Jest to typowe zjawisko systemowe, do którego należy podchodzić tak, jak do badania inteligentnych systemów. Każda organizacja stanowi system, co zostało już wcześniej omówione (str.
77) i każda z nich ma swoje unikalne przywództwo. Nie można pomijać faktów,
które w sposób ewidentny świadczą o istnieniu relacji przywódca-grupa w organizacjach oraz szczególnej roli psychologii społecznej w badaniu przywództwa.
2.3.5 Aspekty etyczne
Tam, gdzie pojawia się człowiek i jego relacje z otoczeniem, pojawiają się
kwestie moralności, budowania kryteriów etycznych oraz ocen aksjologicznych
postępowania. Nie da się tego aspektu oddzielić od biznesu i jego uwarunkowań
ekonomicznych. Normy i zasady etyczne mogą unicestwić najlepiej zapowiadający się koncept gospodarczy, ale również mogą nadać „ludzką twarz” projek-
tom biznesowym.
115
Rys. 2.10 Aspekty etyczne zarządzania 163
W dzisiejszych czasach te działania menedżerskie, które charakteryzują się
wysoką oceną etyczną, stanowią jeden z czynników higieny pracy. Działania
banksterskie są przykładem wysoce niemoralnych przedsięwzięć wykorzystujących głupotę, chciwość lub nieświadomość ludzką (np. polisolokaty lub gra na
foreksie) i prędzej, czy później, odbiją się negatywnie na macherach finansowych
i ich poplecznikach unurzanych w te procedery.
W rozdziale 1.1.2 omówione zostały podstawowe zasady postępowania w
relacjach międzyludzkich oraz relacjach organizacja – pracownik. Można w rozwinięciu tych idei zaproponować perspektywę etyczną dla biznesu, przedstawioną na rys. 2.10. W modelu tym odpowiedzialność biznesu analizowana jest
w układzie stabilizacja – asertywność wobec odpowiedzialność – rozwój. Menedżer staje przed wyborem po między czterema filarami postępowania moralnego. Są to aspekty:
 etyki cnoty,
 etyki budowania systemu,
 etyki deontologicznej,
 teleologiczne (prognozy konsekwencjalnej).
Aspekty etyki cnoty odnoszą się do relacji człowiek- organizacja oraz zarządzający – pracownik. Jako fundamenty działania odpowiedzialnego i stabilizującego
należy wymienić właściwe zarządzanie kadrami (HR), konstrukcja i stosowanie
prawa cywilnego oraz właściwa komunikacja społeczna. Kant swoją zasadę
etyczną postępowania względem ludzkości sformułował następująco: „Postępuj
tak, aby ludzkość nigdy tobie ani innym jednostkom nie służyła za środek lecz zawsze
była celem”. Stanowi ona wyraźne odniesienie do złotej zasady postępowania
(rozdział 1.1.2). Wyborowi temu odpowiada stabilizacja oraz odpowiedzialność
jako wartości nadrzędne. Nie oznacza to, że również inne nie będą brane pod
uwagę.
Aspekty budowania systemu związane są z optymalizacją. Tak pojęta postawa etyczna oznacza znaczący poziom asertywności menedżera przy zachowaniu odpowiedzialności za działanie kierowanego podmiotu w długim horyzoncie czasowym. W działaniach nadrzędna jest wizja strategiczna oraz intencjonalność podejmowania decyzji. Intencje dotyczą ograniczania ryzyka, optymalizacji działań, budowania właściwych relacji wewnętrznych organizacji oraz
jej relacji z otoczeniem. Budowanie systemu wiąże się również z obiektywizmem
oceny pracowników i tworzeniem struktur biurokratycznych, gdzie kontrola i
nagradzanie stają się bezosobowe, a dodatkowo podlegają formalizacji. Najlepszym cytatem odnoszącym się do postaw etycznych budowania systemu może
być wypowiedź P. Druckera „Jeżeli przeciętnemu biznesmenowi zada się pytanie, co
163
Gospodarek T., „Aspekty…”, str. 158
116
to jest biznes, odpowie prawdopodobnie – „to organizacja, która ma osiągnąć zyski”. Tej
samej odpowiedzi udzieli najprawdopodobniej każdy ekonomista. Tymczasem ta jest nie
tylko fałszywa; jest także dla tematu nieistotna (…) nie oznacza to, że zysk i rentowność
są nieważne. Oznacza natomiast, że rentowność nie jest celem przedsiębiorstwa ani działalności w biznesie, lecz ich czynnikiem ograniczającym. Zysk nie stanowi wyjaśnienia
przyczyny czy racji bytu działań i decyzji biznesu, lecz sprawdzian jego wartości… Problemem bowiem każdego biznesu nie jest maksymalizacja zysku, lecz osiągnięcie dostatecznego zysku, który pokrywałby ryzyko działalności ekonomicznej, w ten sposób pozwalając uniknąć strat”164.
Aspekty teleologiczne dotyczą postaw etycznych, ukierunkowanych na ciągły rozwój adaptatywny i zmianę, jako nadrzędny cel biznesu. Wiążą się z asertywnością postaw i wizjonerstwem w działaniu przy jednoczesnym legalizmie
działania (ochrona własności intelektualnej, uczciwość konkurencji, etc.). Przykładem realizowania takiej postawy był Steeve Jobs (Apple). Główną ideą postawy rozwojowej jest tworzenie takich relacji z otoczeniem, żeby to otoczenie
wskazywało na kierunki pożądanej optymalizacji i wszelkich zmian, w czym pomaga asertywność w zarządzaniu. W podejmowaniu decyzji dominują postawy
konsekwencjalne, racjonalność celów oraz ograniczenie niepewności poprzez
wykorzystanie nauki i wiedzy. Myśl reprezentującą takie postępowanie etyczne
wypowiedział C. Fourier „Nie tylko do przemysłu stosować należy pojęcie postępu,
należy nim objąć również obyczaje i mechanizm socjalny”, która nabiera dodatkowego sensu w kontekście wypowiedzi. G.B. Shaw’a „Człowiek rozsądny dostosowuje się do świata; człowiek nierozsądny z uporem próbuje dostosować świat do siebie.
Dlatego wszelki postęp zależy od ludzi nierozsądnych”165.
Aspekty etyki deontologicznej nieco rzadziej występują w praktycznym
działaniu menedżerów. Upadek moralności przejawia się szczególnie w działaniach marketingu. Deontologizm w działaniu wiąże się z realizacją równocześnie stabilizacji i rozwoju, czyli pozornie sprzecznych ze sobą kwestii. Można
jednak doszukiwać się skutecznie faktów opisywanych stwierdzeniami: „stabilizacja przez rozwój” oraz „rozwój dzięki stabilizacji”. Zdanie odzwierciedlające
idee takiej postawy etycznej jest trawestacją cytatu L. da Vinci166. Doradcy, którzy
zajmują się reorganizacjami powinni zrozumieć wpierw czym jest organizacja, czym jest
biznes i czym jest wartość, i w jaki sposób równowaga i harmonia tych elementów je
utrzymuje. To właśnie jest głównym przesłaniem postaw intencjonalnych w tworzeniu prawidłowych i sprawiedliwych relacji wewnętrznych w organizacji oraz
prowadzenia uczciwej gry rynkowej. W praktyce etyka deontologiczna wiąże się
z działaniem sieci, gdzie mamy do czynienia ze stabilizacją jej węzłów przez
strukturyzację i wykorzystanie zasobów w całej strukturze przez uwspólnienie.
164
Drucker P., Wikicytaty, https://pl.wikiquote.org/wiki/Przedsi%C4%99biorczo%C5%9B%C4%87
Wikicytaty https://pl.wikiquote.org/wiki/Post%C4%99p
166
https://pl.wikiquote.org/wiki/R%C3%B3wnowaga
165
117
Przykładem może być również działanie antyglobalistyczne, którego celem jest
zachowanie równowagi pomiędzy biznesem lokalnym i korporacyjnym.
118
3 Zarządzanie. Zakres, cele, metody
Z czym się kojarzy określenie „zarządzanie”? Można w tej kwestii wypowiedzieć cały szereg zdań, mających potwierdzenie w praktycznych obserwacjach. Wszystkie mogą zaczynać się następująco: zarządzanie jest to:
 proces społeczno ekonomiczny,
 zbiór sterowanych przemian stanu systemu społeczno ekonomicznego,
 oddziaływanie człowieka na system społeczno-ekonomiczny,
 zmiana w czasie relacji w obrębie systemu społeczno ekonomicznego,
 ustalanie celów przez organizację i wymuszanie ich osiągania,
 ustalanie sposobów pomiaru stanu podmiotu zarządzanego,
 monitorowanie w czasie stanu podmiotu zarządzanego,
 podejmowanie i wdrażanie decyzji,
 redukowanie niepewności i ryzyka działania,
 inspirowanie dla działań przedsiębiorczych i innowacyjnych,
 dokumentowanie i modelowanie zdarzeń biznesowych,
 prognozowanie i przewidywanie zmian położenia organizacji w czasie,
 planowanie działań organizacji lub jej części,
 projektowanie i koordynowanie działań w ramach mapy zadań,
 tworzenie modeli funkcjonalnych procesów biznesowych,
 ustalanie struktury i funkcjonalności łańcucha wartości organizacji,
 ustalanie relacji z interesariuszami organizacji,
 kierowanie zespołem ludzkim,
 optymalizowanie efektywności działania, funkcjonalności, elastyczności i
użyteczności struktury,
 działania adaptatywne stosownie do zmian w otoczeniu,
 ustalanie pozycji rynkowej i konkurowanie.
Czy wyczerpano wszystkie, możliwe aspekty zarządzania dla sformułowania jakiejś bardziej sformalizowanej definicji? Z pewnością nie. O samej technice zarządzania można stwierdzić, że jest to założony ciąg podejmowanych decyzji,
sztuka tworzenia relacji społecznych oraz więzi ekonomicznych i świadoma reorganizacja zbioru zasobów w celu zmiany ich użyteczności, itp. W dalszej kolejności pojawiają się zapytania: jak definiować system społeczno-ekonomiczny,
jak definiować oddziaływania ekonomiczne lub społeczne w obrębie systemu
zarządzanego oraz co to jest stan chwilowy systemu? W końcu kwestia zasadnicza - jak przewidzieć rozwój w czasie zarządzanej organizacji w sposób najbardziej akceptowalny?
Zarządzanie może dotyczyć stanu mikro (organizacja, sieć franczyzowa) lub
makro (jednostka samorządu terytorialnego, gospodarka narodowa, sektor gospodarczy, globalny łańcuch dostaw). To oznacza, że mogą pojawiać się różne
metody zarządzania, dobre praktyki oraz efekty i z pewnością to, co dobrze
119
działa w skali mikro, niekoniecznie będzie dobrze funkcjonować w skali makro.
W dodatku można oczekiwać podziałów kompetencyjnych menedżerów, różnic
w poziomach decyzyjnych oraz splotów decyzji tak, że nie da się określić skutków pojedynczej decyzji, bo te, wcześniej wydane, są jeszcze realizowane.
Można natomiast oczekiwać, że w szczególnie korzystnych okolicznościach będą
istnieć ciągi decyzyjne posiadające własność Markowa167 i podlegające zasadzie
optymalności Bellmana168. Wówczas uznanie skutków decyzji w przedziale czasowym Δtn za optymalne, oznacza, że decyzje podjęte we wcześniejszych przedziałach czasowych niż n-ty, były również optymalne.
Powstaje jeszcze do rozważenia kwestia: czym różni się zarządzanie od administrowania? Zarządzanie jest pojęciem szerszym, gdzie administrowanie stanowi jeden z elementów zarządzania. W administrowaniu nie występują elementy:
konkurowania, działań adaptatywnych, zachowań behawioralnych, innowacyjność, przedsiębiorczość. Występuje natomiast element biurokracji i relacyjności,
opisy formalne procesów, funkcjonalność zasobów oraz hierarchia decyzyjnej,
tak jak to definiował M. Weber169. Dlatego władze terytorialne zajmują się głównie administrowaniem z elementami zarządzania (np. kadrami lub zasobami).
3.1 Zarządzanie jako zagadnienie złożone,
Złożoność w nauce nie jest pojęciem odnoszącym się do trudności problemu. Jest ona związana z niemożliwością opisania go w sposób jednoznaczny
za pomocą istniejących teorii lub modeli. Najczęściej mamy do czynienia z sytuacją złożoności jeżeli opis zachowań obiektu, który opisujemy zależy od zmienności otoczenia, a dodatkowo wykorzystuje on procesy adaptatywne optymalizacji zachowań. Tym samym złożoność odnosi się do badań obiektów, które
składają się z wielu elementów składowych, oddziaływujących wzajemnie i równocześnie z otoczeniem. Takie obiekty nazywane są systemami.
Gdy próbujemy wyjaśnić jakieś nowe zjawisko posługujemy się modelami
kognitywnymi będącymi uproszczeniami rzeczywistości. Na ile dopuszczalne
są te uproszczenia zależy od problemu oraz dostępnych teorii. W zarządzaniu
mamy do czynienia z szeroko pojętą adaptatywnością, behawioryzmem oraz
ograniczoną racjonalnością, co dodatkowo komplikuje poznanie i opis. Gdy próbujemy opisać jakiś fakt z obszaru nauk społecznych za pomocą języka formalnego nauki, popadamy w konflikt równoważności znaczenia z wyrażeniem tego
sądu o fakcie w języku potocznym (złożoność semantyczna). Albowiem język,
którym posługuje się menedżer dalece różni się od języka teorii formalnych, co
Podgórska M., Śliwka P., Topolewski M., Wszołek M., „Łańcuchy Markowa w teorii i zastosowaniach”,
wyd. 2, Szkoła Główna Handlowa, Oficyna Wydawnicza, Warszawa, 2002.
168
Bellman R.E., DreyfusS.E., „Programowanie dynamiczne. Zastosowanie”, PWE Warszawa, 1967
169
Zieleniewski J., „Organizacja i zarządzanie”, PWN, Warszawa 1969 s. 111
167
120
można zauważyć w nieniejszej monografii. Kolejnym problemem jest fakt, że jakakolwiek próba opisu rzeczywistego stanu obiektu społeczno-ekonomicznego
(systemu) za pomocą skończonej liczby zmiennych, jest tylko przybliżeniem i to
zazwyczaj grubym. Jeżeli dysponujemy wiedzą o przeszłości i teraźniejszości,
nie możemy wypowiedzieć żadnego sądu pewnego na temat przyszłości. Drugim utrudnienieniem jest fakt, że jeżeli podmiot poznający nie może być rozdzielny z przedmiotem poznania, to popadamy w konflikt racjonalności tego
sądu. Dotyczy to sytuacji menedżera, który próbuje opisać stan organizacji, którą
kieruje i jest równocześnie jej częścią. Takich problemów poznawczych występuję znacznie więcej.
Problemy zarządzania związane ze złożonością omówiono już wcześniej.
Dotyczą one roli człowieka w organizacji (str. 14), teorii kontyngencji (str. 10)
oraz braku jednoznaczności dopasowania struktury oraz sposobów osiągania
wyników przez organizację (str. 77). To stanowi o złożoności zarządzania i konieczności poszukiwań budowania wiedzy za pomocą ujęć systemowych. System stanowiący podmiot badań może być uznany za złożony jeżeli:
 można w nim określić mnogość relacji i oddziaływań między komponentami
(elementami zasobów, podstrukturami) o charakterze nieliniowym,
 jego stan chwilowy nie może być opisany dokładnie za pomocą skończonej
liczby zmiennych (parametrów stanu układu) w danym kontekście,
 jego rozwój w czasie może być opisany formalnie za pomocą układu równań
różniczkowo-całkowych, uwzględniających dane bieżące i przeszłe,
 jest wrażliwy na warunki początkowe i zmiany parametrów sterujących, co
może objawiać się łatwą utratą stabilności, w tym zachowaniami chaotycznymi lub katastroficznymi,
 można obserwować lub zdefiniować wielość ścieżek jego rozwoju w czasie,
 ewoluuje w sposób ciągły, wykorzystując zasady autoadaptacji i uczenia się.
Wszystkie powyższe aspekty właściwości systemów dotyczą w bardzo istotny
sposób problematyki zarządzania praktycznego, czego szczególne dowody
przedstawione zostaną w rozdziale 4.
3.1.1 Ujęcie cynefin
Jak radzić sobie z problemem złożoności funkcjonowania systemów? Przede
wszystkim należy podzielić każdy problem na warstwy logiczne, albowiem redukcja złożoności (o ile się da) jest najlepszą metodą wstępną. Później można
próbować ujęć holistycznych. Tak sugeruje metoda cynefin170, której idea zotała
zaprezentowana na rys. 3.1. Dla dowolnego problemu ujmowanego s sposób
systemowy można wyróżnić pięć domen opisanych poniżej.
170
Snowden D.J., Boone M.E.; “A Leader’s Framework for Decision Making”, HBR, 11,2007
121
 Domena prostoty, gdzie relacje pomiędzy przyczyną a skutkiem są oczywiste
dla wszystkich. Wówczas można stosować najlepsze praktyki i podejście do
problemu na zasadzie: zrozum - kategoryzuj - odpowiedz.
 Domena komplikacji, gdzie ustalenie relacji przyczynowo-skutkowych wymaga analiz lub innych form badań oraz wiedzy eksperckiej. Podejście do
problemu wyczuj - analizuj – odpowiedz. Można przy tym zastosować dobre
praktyki, o ile istnieją.
 Domena złożoności właściwej, gdzie relacje pomiędzy przy-czyną a skutkiem mogą być postrzegane retrospektywnie, ale nie są do przewidze-nia w
przyszłości. Podejście metodyczne do problemu: próbuj - wyczuj – odpowiedz.
Można stosować praktyki rozwijane (w fazie B+R)
 Domena chaotyczności, gdzie nie ma relacji przyczynowo-skutkowej na poziomie systemu. Właściwe podejście to działaj - wyczuj – odpowiedz a wówczas
można odkryć nowatorskie praktyki.
 Domena nieuporządkowania- brak metodologii. Działanie metodą prób i
błędów, gdzie fundamentem sterującym są informacje pochodzące ze sprzężenia zwrotnego z otoczenia.
Rys. 3.1 Koncepcja metody cynefin
Metoda cynefin wskazuje na różnorodność możliwych zachowań w zależności od warunków stawianych przez otoczenie. Jednocześnie zwraca uwagę, że
122
nie zawsze podejście agile management (zarządzanie zwinne) przyniesie spodziewany rezultat w rozwiązywaniu problemów systemów złożonych.
3.1.2 Stan organizacji,
Ustalenie położenia ekonomicznego organizacji będącej systemem generującym wartość, lub jej komponentu, stanowi jeden z imperatywów każdego menedżera. Kwestia ta jest szczególnie ważna z punktu widzenia wspomagania
komputerowego oraz budowy modeli semantycznych dla problemów związanych z podejmowaniem decyzji w niepewności171, oszacowań skutków decyzji172,
ustalania wyceny różnych aktywów173,174, analiz zdolności do generowania wartości, pomiaru poziomu udziału rynkowego175, itp. Zasady budowy systemów
informatycznych wymagają istnienia jednoznacznych reprezentacji numerycznych problemów praktycznych (np. oceny efektywności zarządzania), co wymaga wprowadzenia modeli formalnych dla zagadnień niematematycznych, typowych dla nauk społecznych.
Podstawowymi źródłami inspiracji i analogii naukowych w zarządzaniu
wymiernym są nauki przyrodnicze, w szczególności fizyka i chemia, opisujące
oddziaływania materii z otoczeniem. Szereg udanych analogii pomiędzy zagadnieniami ekonomii i termodynamiki oferuje ekonofizyka176,177. Szczególnie interesujące są analogie definicji stanu oraz wykorzystania zasad termodynamiki dla
analiz zachowań makroekonomicznych178. Pozwala to na zastosowanie równania Clapeyrona opisującego stan gazów doskonałych oraz równania entropii,
jako metafor fizykalistycznych stanu systemu ekonomicznego. Należy jednak
zachować bardzo daleko idącą ostrożność we wnioskowaniu opartym na takich
analogiach, albowiem zachowanie obiektów fizycznych nie jest tożsame z zachowaniami inteligentnymi człowieka179,180. Tym niemniej koncepcje określenia
stanu systemu generującego wartość najlepiej przejąć z fizyki.
Gospodarek T., “Modelowanie…”, op. cit.
Anderson D.R., Sweeney D.J., Williams T.A., Martin K., “An Introduction to Management Science.
Quantitative Approaches to Decision Making”, 13th Ed., West Publishing Company, St. Paul 2013.
173
Hull J.C., Options, Futures, and Other Derivatives, 7th Ed., Prentice Hall, Upper Saddle River NJ, 2008
174
Jackson M., Staunton M., „Zaawansowane modele finansowe z wykorzystaniem Excela i VBA”, Wydawnictwo Helion, Gliwice 2004, str. 234-244.
175
Cooper L.G., Nakanishi M., “Market-Share Analysis. Evaluating Competitive Marketing Effectiveness”,
Kluwer Academic Publishers, Dordrecht 1988.
176
Mantegna R.N., i inni op. Cit.
177
Mimkes J., “Econophysics and Sociophysics: Trends and Perspectives”. [w] B.K. Chakrabarti, A.
Chakraborti, A. Chatterjee (eds.), Wiley-VCH Verlag, Weinheim 2006.
178
Gospodarek T., „Physicalistic Reasoning in Management Science”, Acta Physica Polonica A, 117(4),
2010
179
Mirowski P., “More Heat than Light - Economics as Social Physics, Physics as Nature's Economics”,
Cambridge University Press, Cambridge, 1989,
180
Mesjasz C., “Systems Metaphors, Systems Analogies, and Present Changes”, [w] International Relations,
Cybernetics and Systems. An International Journal (Vienna), vol. 25, , no. 6, 1994: 763-780,
171
172
123
Większość mierzalnych oddziaływań organizacji z otoczeniem ma charakter
ekonomiczny, wyrażany w jednostkach kapitałowyh i wiąże się z przepływami
wartości. Zarządzanie powinno prowadzić do optymalizacji oddziaływań z otoczeniem oraz stabilizacji położenia równowagi mikro-makro w długim okresie
czasu. Zwykle jednak zarządzanie prowadzi do świadomych wychwiań od położenia równowagi lokalnej, co związane jest z wykorzystywaniem okazji, reakcji na impulsy zaburzające pochodzące z otoczenia, itp. Stąd zarządzanie oddziaływaniami stanowi pewien kompromis w grze, polegający z jednej strony na
maksymalizacji funkcji celu zysku organizacji, z drugiej zaś strony na minimalizacji ryzyka destabilizacji równowagi mikro w czasie. Takie postawienie zadania
optymalizacji nieliniowej stanowi doskonałe źródło inspiracji dla zastosowań
metod fizycznych wnioskowania, które można adaptować dla celów zarządzania.
Df. Stanem  organizacji nazwiemy wartość funkcjonału  zależnego od zbioru parametrów mierzalnych (,,…) opisujących jej łańcuch wartości w danej chwili t.
 = (,,,…, t)
Z powyższego określenia wynika, że stan organizacji nie jest tożsamy z jej
chwilową wartością, ale również uwzględnia produktywność, efektywność i zasoby, czyli wszystko to, co składa się na definicję łańcucha wartości ( str. 90).
Wartość księgowa albo rynkowa organizacji może być jednym z parametrów
stanu o wysokiej wadze istotności. Jeżeli uznamy, że najlepszym miernikiem
oceny stanu jest wycena giełdowa danej firmy, to teoretycznie jej stan można
mierzyć w sposób racjonalny wartością chwilową akcji (jednym parametrem).
Nie jest to całkowicie pozbawione sensu, ale dla menedżera, który ma istotny
wpływ na wartość akcji, taka miara nie jest wystarczająca, albowiem nie pozwala
na ustalenie przyczyn wewnętrznych stanu. Dysponuje on wiedzą, której nie ma
otoczenie, ale oczekuje informacji, które pozwalają na kontrolę parametrów procesów biznesowych. Poza tym zawsze pojawia się kwestia, jak oceniać stan takiej
organizacji, jak: mały sklep internetowy, biuro rachunkowe, stacja obsługi samochodów czy gmina.
Lemat: Stan organizacji dokonany wyłącznie przez otoczenie nie uwzględnia informacji
dostępnych wyłącznie wewnątrz niej, natomiast stan definiowany przez łańcuch wartości nie uwzględnia wyceny przez otoczenie.
Z powyższego lematu wynika, że stan  może zostać ustalony przy wykorzystaniu koncepcji teorii gier, jako wynik gry dwuosobowej przeciwko otoczeniu,
gdzie miarą jest wartość funkcjonału  (miara). W praktyce oznacza to, że powinny istnieć całe systemy wielokryterialne ustalające stan. Dlaczego pojęcie
stanu jest tak ważne? Otóż definiuje on miarę położenia, taką że zmiana jest pro-
124
stą różnicą dwóch stanów w różnym czasie. Jeżeli o zmiennych możemy powiedzieć, że stanowią układ zupełny181, to wówczas przemiana od stanu 1 do stanu
2 nie zależy od drogi. To pozwala na monitoring ciągły oraz zarządzanie zmianami. Problemem jest jednak złożoność uniemożliwiająca opis rzeczywisty za
pomocą skończonej liczby zmiennych. Można jednak próbować stosowania modeli przybliżonych o skończonej liczbie zmiennych i ceteris paribus. Wówczas
wiele zagadnień mierzalnych staje się przewidywalnymi z dobrą dokładnością,
a przynajmniej możliwe staje się uchwycenie przyczyn zmiany.
Z koncepcją stanu powiązane są metody kontrolingu, np. drzewo DuPonta182 lub metoda Altmana 183 oraz metoda kluczowych wskaźników efektywności (KPI)184. We wszystkich z nich fundamentalną zasadą jest zbiór wskaźników stanowiących miarę.
Model KPI
Model kluczowych wskaźników efektywności (Key Performance Indicators)
stanowi zbiór finansowych oraz niefinansowych mierników stopnia realizacji celów organizacji. Jest ważnym narzędzie kontrolingu, ponieważ umożliwia zbudowanie spójnego kryterium oceny zmian położenia ekonomicznego. KPI koncentrują się na tych aspektach funkcjonowania organizacji, które są najbardziej
krytyczne dla obecnego i przyszłego jej sukcesu (np. wysokiej wyceny rynkowej). Wskaźniki wchodzące w skład modelu nie są czymś nowym w organizacji,
ponieważ najczęściej są lub były już obliczane, ale nie znalazły uznania u zarządzających albo były obliczane w rozproszeniu (np. w różnych działach i nie wykorzystywano ich w wyższych warstwach decyzyjnych). D. Parmenter podzielił
kluczowe wskaźniki na dwie zasadnicze grupy:
Rezultatu –Mierniki te są przydatne w ocenach wyników pracy struktury organizacyjnej (oddziału, wydziału, etc.), ale nie pomagają zarządzającym rozwiązać
problemu źródeł wewnętrznych rezultatu. Trudno jest bowiem ustalić, które elementy działające w tym samym czasie z całej struktury organizacji są odpowiedzialne za osiągnięcie lub nieosiągnięci zakładanego wyniku zbiorczego.
Efektywności - mogą być przypisane do zespołu lub klastra zespołów współpracujących dla wspólnego celu. Np. wyniki sprzedaży dziennej, wyniki napraw w
dziale usług. Tym samym dobry lub zły wynik może mieć ustalonego adresata.
Układ zupełny zmiennych oznacza, że opis danej wielkości za pomocą funkcji zależnej od tych zmiennych jest zgodny z rzeczywistością (eksperymentem, teorią, etc.). Zmiana wielkości opisanej za pomocą
układu zupełnego zmiennych dana jest różniczką zupełną funkcji opisującej i nie zależy od drogi (stanów
pośrednich).
182
Gołębiowski G., Tłaczała A., „Analiza finansowa w teorii i w praktyce”, Warszawa: Difin, 2009, s. 237.
183
Stabryła A., „Zarządzanie strategiczne w teorii i praktyce firmy”, PWN, Warszawa-Kraków 2002, s. 359
184
Parmenter D., “Key…” op. cit.
181
125
Dlatego mierniki efektywności zapewniają przejrzystość pomiarową i decyzyjną. Nie są z kolei zbytnio użyteczne w zarządzaniu taktycznym i strategicznym.
Zdefiniowano siedem grup analitycznych w skutecznie funkcjonujących zestawach KPI, analizowanych dla wielu tysięcy organizacji185. Są to wskaźniki:
 niefinansowe – te, które nie są mierzalne w jednostkach monetarnych, (np. wydajność, godziny fakturowane, przestoje),
 szybko zmienne w czasie – mierzone często np. codziennie (sprzedaż dzienna,
stan gotówki w kasie),
 istotne dla CEO - wskaźniki istotne dla zarządu oraz dyrektoriatu (stan zamówień, koszty działalności, wskaźnik rentowności),
 proste – zrozumiałe dla każdego pracownika, wskazujące wprost działania naprawcze (liczba braków, ilość godzin przestojów),
 grupowe – za które odpowiedzialność może być przypisana grupie lub strukturze (sprzedaż usług warsztatu, koszty działania działu),
 istotnego wpływu – takie, które dotyczą więcej niże jednego centrum zysku lub
kosztów oraz więcej niż jednej strategicznej karty wyników (koszty pracy, podatki lokalne).
 ograniczniki słabości - zachęcają do podjęcia odpowiednich działań (zostały
wcześniej przetestowane, jako zapewniające pozytywny wpływ na wyniki).
Do kontroli w czasie takiego zestawu wskaźników i ich prezentacji online służą
systemy informatyczne klasy ERP186, wspomagające zarządzanie i będące miernikami dla sprzężenia zwrotnego w adaptatywnych modelach funkcjonowania
organizacji biznesowych.
3.1.3 Cele stawiane przed zarządzaniem
Jak już pokazano w poprzednich rozdziałach, zarządzać można systemem
generującym wartość w swoim otoczeniu (ekosystemie biznesowym). Stąd
można wnosić, że fundamentalnymi celami stawianymi systemom zarządzania
i menedżerom są:
 osiągnięcie zakładanego wyniku ekonomicznego,
 zaspokojenie w jak najwyższym stopniu interesariuszy,
 uzyskanie i utrzymanie władzy w organizacji,
 zawłaszczenie wysokiej pozycji rynkowej,
 pozyskanie kluczowych zasobów i kompetencji,
 utrzymanie stanu optymalnej efektywności.
Historia myśli ekonomicznej i koncepcje zarządzania w ciągu ostatnich stu lat
doprowadziły do optymalności zachowań organizacyjnych w szybkozmiennym
185
186
Ibid.
Gospodarek T., “Systemy ERP...”, rozdział 3.9.2
126
otoczeniu i zwiększenia elastyczności na katastroficzne zmiany zachodzące w
ekosystemach biznesu. Jednak cele nie zmieniły się znacząco. Zmienił się obraz
biznesu i sposoby osiągania wyników. Jest znacząco więcej organizacji opartych
na wiedzy i innowacjach. Dominuje przede wszystkim optymalność i efektywność. Zasady prakseologii są bardzo szeroko wykorzystywane, zwłaszcza w japońskich modelach zarządzania produkcją (rozdział 3.3.3).
Warto również zauważyć, że jeżeli przyjmiemy za zasadny dla zarządzania
model gry organizacji przeciwko otoczeniu (str. 62), to można oczekiwać, że istnieje optymalny stan minimaksowy równowagi w sensie Nasha187, a nawet możliwe jest, że będzie to stan Pareto optymalny. To jest bardzo mocne stwierdzenie,
nakazujące poszukiwanie optymalnych rozwiązań dla menedżerów. Nie wiemy
wprawdzie jak to zrobić, ale wiemy, że można! A więc głównym celem zarządzania powinno być poszukiwanie takiej równowagi mikro-makro.
W tym kontekście szczególnie jaskrawo jawi się paradoks zarządzania188:
menedżerowie zawsze starają się maksymalizować zyski okazjonalne, niezależnie od
przyszłych korzyści, jakie można czerpać z utrzymywania stabilnej równowagi mikromakro. I odwrotnie, racjonalność utrzymania długoterminowej stabilności sugeruje odrzucenie wielu okazji i utrzymanie zewnętrznych granic (np. realizację zasady zrównoważonego rozwoju. Jednak tymczasowe korzyści i preferencje managerów prowadzą do
zwiększenia liczby niesymetryczne interakcji pomiędzy organizacjami i ich otoczeniem,
aż do wystąpienia punktu krytycznego, w którym mogą się pojawić katastrofalne procesy
gospodarcze. A zatem zarządzający chcą mieć ciastko i równocześnie zjeść je. To
właśnie powoduje, że cele organizacji muszą być bardzo dokładnie formułowane i monitorowane w czasie. Stąd właśnie wynika cała koncepcja zarządzania
zmianami (rozdział 4.2).
Jeżeli odniesiemy się do koncepcji łańcucha wartości, (rys. 2.4), to zarządzanie w tej kwestii ma na celu zajęcie się pięcioma aspektami zdefiniowanymi
przez H. Fayola już w roku 1918189: przewidywanie i planowanie, organizowanie, dowodzenie, koordynowanie, kontrolowanie. To się przez lata specjalnie nie zmieniło.
Nawet w koncepcji zarządzania przez cele, należącej do P. Druckera, planowanie, koordynowanie i kontroling stanowią fundamenty działania menedżera. A
zatem optymalizacja łańcucha wartości organizacji jest imperatywem zarządzania i
punktem wyjścia dla wszelkich innych działań zarządczych.
Ale wynik końcowy w postaci wykreowanej wartości i wysokiej wyceny organizacji przez otoczenie nie bierze się wyłącznie z optymalizacji struktury, czy
też jej portfela. Równie ważnymi aspektami, stanowiącymi cele zarządzania są
Gospodarek T., „Does the optimum management for the given economic process exist?” Management,
11, No. 2, (2007), 39-42, http://www.gospodarek.eu/publikacje/Existing%20optimum%20management.pdf
188
Gospodarek T., “Aspekty…”, str. 84.
189
Fayol H., “Administration industrielle et générale; prévoyance, organisation, commandement, coordination, controle”, H. Dunod et E. Pinat, Paris, 1918
187
127
aspekty jakości i produktywności. Na tym polu dominującymi byli Japończycy,
a wśród nich metody Just in Time, Kaizen i KanBan zastosowane do zarządzania
koncernem Toyoty. System zbudowany został przez klan Toyoda, T. Ohno, S.
Shingo oraz M. Imai i K. Ohmae (strategia Toyoty). To oni doprowadzili jakość i
oszczędność do perfekcji, jako fundament. Schemat ten można przedstawić jak
na rys. 3.2.
Rys. 3.2 System produkcji Toyoty 190
Celem zarządzania jest też zaspokojenie pracowników, stanowiących zasób
kadrowy organizacji w stopniu umożliwiającym normalny rozwój i efektywne
wykonywanie obowiązków służbowych. Zauważono to już w początkach XX
wieku, a prekursorami kwestii relacji pracownik-organizacja byli B. Rowntree,
E. Mayo. Dzisiaj jest to nazywane budowaniem kapitału społecznego, przywództwa oraz systemów socjo-technicznych STS191. Teoria STS wprowadza
aspekty społeczne oraz zachowań ludzkich do technicznych aspektów budowy
organizacji i procesów organizacyjnych. Skupia się na procedurach i wiedzy z
Gospodarek T., “Zarządzanie dla …”, op. cit. str. 69.
Trist E., Bamforth K., “Some social and psychological consequences of the longwall method of coal
getting”, Human Relations, 4, (1951), pp.3-38.
190
191
128
tym związanej. Dąży do optymalizacji równoległej w zakresie wydajności i jakości pracy, jak i w życiu ludzi192. Wynikiem są koncepcje zrównoważonego rozwoju biznesu TBL/PPP (str. 136).
Równie ważnym celem zarządzania jest formalizacja procesów, wprowadzenie odpowiedniego do zadań poziomu biurokracji oraz optymalizacja struktury poprzez mapowanie procesów i zadań, rozkład zasobów, wdrażanie obiegów dokumentów i informacji oraz układ procedur. To jest budowanie ładu korporacyjnego oraz kultury organizacyjnej. Procesy te występują szczególnie wyraźnie na etapie dojrzałości rozwoju organizacji (rys. 2.2). Idea doskonałej biurokracji w biznesie pochodzi z lat dwudziestych ubiegłego wieku od Maxa Webera
i nie za wiele można wnieść do jej koncepcji, poza tym, że dzisiejsi menedżerowie muszą się mierzyć z bardzo dokładnymi danymi oraz wymogami otoczenia
odnośnie informacji, które muszą być wymieniane (np. z urzędami podatkowymi, itp.). To komplikuje procedury biurokratyczne i osłabia efektywność działania w obszarze głównego łańcucha kreowania wartości.
Na samym końcu celem zarządzania staje się trafna prognoza rozwoju i koncepcja zmiany w organizacji. Ten cel wymaga wykorzystania metod zarządzania
strategicznego oraz dobrego wsparcia metodycznego i informacyjnego. Na podstawie prognozy zarządzający tworzą strategie oraz polityki jako dokumenty
formalizujące planowane transformacje. Ale fundamentem zawsze jest wizja i
udane przewidywanie zmian w otoczeniu. To są dzisiaj zagadnienia kluczowe
business intelligence oraz zarządzania wiedzą będące domeną warstwy middle office organizacji. Zarządzanie strategiczne ma na tym polu liczne sukcesy, ale też
znamienne porażki.
3.1.4 Niejednoznaczność rezultatu zarządzania
Jak już wspomniano wcześniej, nie ma ani optymalnej formy organizacji,
odpowiedniej dla wszystkich rodzajów działalności gospodarczej ani nie ma jednakowej drogi osiągnięcia zakładanego wyniku. W dodatku zarządzanie jest zagadnieniem złożonym, znamiennym tym, że jest realizowane przez wdrażanie
pakietów decyzyjnych. Niestety, o ile intencje podjęcia decyzji mogą być ustalone a priori, o tyle konsekwencje ich realizacji nie są możliwe ani do przewidzenia ani do ustalenia w sposób jednoznaczny post factum. W danej chwili czasu
trwają skutki wykonywania wielu decyzji równolegle. Niektóre decyzje są ze
sobą sprzężone, niektóre stanowią następstwo czasowe i zależą od wyniku procesów w poprzednim przedziale czasu. Jeszcze inne dotyczą więcej niż jednego
procesu. To powoduje, że rezultat zarządzania nie może być ustalony w sposób
jednoznaczny. A zwłaszcza może nie być możliwym ustalenie, która decyzja
miała kluczowy wpływ na rezultat.
Ropohl G., “Philosophy of socio-technical systems, in: Society for Philosophy and Technology”, Spring
1999, Vol. 4, (3), 1999.
192
129
Każdy menedżer musi postawić cele dla swojego zakresu działania. Cele te
można realizować w różnorodny sposób, zarówno przez zwiększenie efektywności, przez optymalizacje funkcjonalne, przez innowacyjność, itp. A zatem tak
ważnym aspektem jest określenie funkcji stanu organizacji, albowiem rezultat
nie zależy wówczas od drogi przemiany (sposobu), ale od wartości parametrów
określających stan w chwili początkowej i końcowej. To jest analogia do tego, jak
postępujemy w fizyce. Jeżeli możemy ustalić niezmienniczość miary stanu organizacji w czasie (np. zbiór KPI, zestaw kwantyfikatorów celu), to można wówczas uznać, że osiąganie celu mierzone za pomocą funkcji stanu nie zależy od
sposobu realizacji. Niestety, tak elegancka idea w przypadku zachowań adaptatywnych i inteligentnych jest tylko przybliżeniem i w zależności od sytuacji,
może być obarczone poważnym błędem. Wraz z wprowadzoną złożonością, parametry stanu przestają być niezależne od czasu, a zależą od stanów przeszłych
i sytuacji bieżącej. To również powoduje niejednoznaczność rezultatów zarządzania.
W zarządzaniu projektami często posługujemy się pojęciem produktu, rezultatu oraz oddziaływania. Np. instalacja 10 komputerów i oprogramowania
ich pakietem office jest produktem. Rezultatem będzie np. liczba zatrudnionych
osób wykorzystujących do pracy arkusz kalkulacyjny i edytor tekstu. Oddziaływaniem będzie liczba opracowań i dokumentów sprzedanych, wykonanych
przy użyciu tego systemu. A zatem zarządzanie uwzględnia przynajmniej trzy
kategorie celu takiego projektu. Warto zwrócić uwagę, że najbardziej rozmytą
kwestią pomiarową jest oddziaływanie, które ma skwantyfikować skutki wdrożenie projektu w otoczeniu, po określonym czasie. Tu niejednoznaczność zarządzania staje się bardzo wyraźna (sprzedaż można zrealizować na wiele sposobów).
W końcu wyobraźmy sobie sytuację z pogranicza etyki i biznesu. Menedżer
musi podjąć trudną decyzję. Zwolnić kilkanaście osób i utrzymać firmę przy życiu, czy próbować utrzymać stan zatrudnienia z poważnym ryzykiem upadłości.
W obu wariantach, które ma do wyboru ocena rezultatu nie będzie jednoznaczna. A przynajmniej będzie różnie interpretowana przez różnych interesariuszy. Takich sytuacji wyboru lepszego wariantu ze wzystkich złych mamy na
co dzień znacząco więcej.
Podsumowując kwestie niejednoznaczności rezultatów zarządzania należy
stwierdzić, że tam gdzie decyzja może być oparta na rzetelnym pomiarze i kryteriach wyboru wariantu pozbawionych subiektywizmu, tam zarządzanie pozwala osiągnąć rezultat zbliżony do jednoznacznego. A zatem tylko tam, gdzie
kryterium wyboru oparte jest na modelu semantycznym danego problemu (np.
jednoznaczna postać bilansu i rachunku wyników z mocy ustawy o rachunkowości), tam zarządzanie może ograniczyć poziom niejednoznaczności rezultatu.
130
Tam, gdzie mamy do czynienia z ujęciem systemowym, opisanym modelem cynefin (a to najczęściej ma miejsce w praktyce), tam wieloznaczność interpretacji
rezultatu nie może zostać usunięta.
3.1.5 Zarządzanie mikro i makro
Czy administrowanie prowincją można uznać za zarządzanie? Otóż problemem rozstrzygającym staje się zagadnienie konkurowania. Jeżeli władze gminy,
czy powiatu działają tak, żeby przyciągnąć do siebie inwestorów, a dodatkowo
czynią tak, żeby mieszkańcy chcieli mieszkać, a nie uciekać z danego regionu
albo lepiej żeby inni chcieli się tu osiedlać, wówczas można twierdzić, że mamy
do czynienia z zarządzaniem. Jeżeli obserwujemy jedynie wypełnianie zadań
wynikających z odpowiednich ustaw o samorządzie i innych przepisów prawa,
pozostaniemy na pozycjach defensywnego administrowania biedą, która na ogół
towarzyszy słabym jednostkom samorządu terytorialnego.
Ale kwestia zarządzania makro nie ogranicza się jedynie do sformalizowanych struktur administracji państwowej. W otaczającej nas rzeczywistości gospodarczej mamy do czynienia nie tylko z samodzielnymi organizacjami, ale
również ze złożonym strukturami biznesowymi, takimi jak: sieci, łańcuchy dostaw, konsorcja oraz korporacje o charakterze globalnym. To uzasadnia wyraźny
podział zarządzania na mikro (poziom samodzielnej jednostki biznesowej SBU)
oraz makro (poziom sieci albo korporacji). O ile na temat zarządzania mikro istnieje niezwykle rozbudowana literatura przedmiotu, o tyle na temat zarządzania
makro pojawiają się jedynie skromne opracowania, a realna wiedza dla kadr menedżerskich poziomu zarządu korporacji globalnej jest bardzo trudno osiągalna
(na ogół opiera się wyłącznie na studiach przypadku) i jest oferowana wyłącznie
przez nieliczne ośrodki naukowe o światowej renomie, które stać na zatrudnienie wykładowców-praktyków z obszaru top management.
Zarządzanie makro nie może być realizowane w trybie online, ponieważ
wymaga zwłoki czasowej dla dystrybucji decyzyjnej na poziom mikro. Innymi
słowy, podjęta decyzja na szczycie władzy korporacji musi zostać przetworzona
na układ decyzji wzajemnie sprzężonych, dotyczących elementów struktury (poszczególnych SBU). Taka zwłoka czasowa oraz konsekwencje wynikające dla decyzji na poziomie mikro, powodują możliwość powstania niespójności logicznej
rezultatu na poziomie makro po wykonaniu działań na poziomie mikro. A zatem
sprzężenie zwrotne na poziomie makro (korporacji) charakteryzować się będzie
większym odchyleniem niż analogiczne na poziomie mikro (SBU). Dlatego zarządzanie makro posługuje się modelami opartymi na elastyczności, równowadze oraz poszukiwaniu relacji pomiędzy otoczeniem, a łańcuchem wartości w
skali makro. Należą do nich modele:
 zrównoważonego rozwoju,
 TBL,
131
 równowagi mikro-makro.
Charakterystycznym dla zarządzania makro jest utrzymanie równowagi
dynamicznej mikro-makro, co można przedstawić jak na rys. 3.3.
Równowaga mikro-makro
W modelu równowagi mikro – makro przyjąłem jako fundamentalne założenie, że zarządzanie polega na sterowaniu grą dwuosobową systemu generującego wartość (gracz mikro) przeciwko otoczeniu (gracz makro), co umożliwia
wykorzystanie elementów teorii gier dla interpretacji oddziaływań mikro-makro. Każdy z graczy, zarówno w skali mikro, jak i makro, dąży do optymalizacji
wyników gry, stosując jakąś zasadę minimum lub ich skończony ich zbiór (np.
minimum kosztów, minimum zużycia energii, minimum szkód w środowisku
naturalnym, itd.), działając zgodnie z zasadą przedstawioną na rys. 1.18 w kontekście uwarunkowań przedstawionych na rys. 2.5. Można zauważyć, że w skali
mikro realizowane są działania optymalizacyjne tworzenia relacji z otoczeniem,
ustanawiania oddziaływań (sposobów wymiany wartości, budowania pozycji
rynkowej), budowania wartościowych zasobów (w tym kluczowych kompetencji) oraz zmian użyteczności struktury organizacyjnej. W skali makro optymalizacja wiąże się z poprawą stabilizacji istniejących struktur i zwiększenia odporności na zdarzenia katastroficzne, przy równoczesnym zapewnieniu równomierności rozwoju regionalnego i bardziej równomiernego podziału dóbr. Stąd
pojawiły się praktyki zrównoważonego rozwoju, globalnego łańcucha dostaw,
budowania sieci globalnych oraz zdroworozsądkowy interwencjonizm państwowy, stanowiące metody osiągania wysokiego poziomu stabilizacji mikromakro z punktu widzenia makro.
132
Rys. 3.3 Równowaga mikro – makro w zarządzaniu
Z założeń teorii równowagi ogólnej G. Debreu wynika, że można skonsumować jedynie tyle, ile da się wyprodukować, co wydaje się być prawdą ogólną.
Żeby równowaga mikro-makro mogła trwać w czasie, teoria zakłada powszechne istnienie ekonomii otwartej. To oznacza, że istnieje swobodny dostęp
do rynku oraz powszechny dostęp do informacji. W takich warunkach, konsument może swobodnie kształtować swoje preferencje, a producenci konkurują w
nieograniczony sposób. Wówczas model równowagi ogólnej Arrow-DebreuMcKenzie (ADM))193 opisuje poprawnie zachowania rynkowe.
Jak łatwo zauważyć, powyższe założenia są nierealne w dzisiejszej gospodarce, bo mamy ograniczenia celne, podatkowe. Wiedzę chronimy patentami.
Informacje zniekształcamy zabiegami marketingowymi. Dodatkowo pieniądz
zostaje często zastąpiony surogatem lub wymyślnym produktem inżynierii finansowej, a działanie banków centralnych pogłębia chaos w ustalaniu rzeczywistej wartości dóbr. Zmienia to w sposób istotny reguły gry rynkowej i oddziaływania mikro-makro. Tym niemniej, w otoczeniu ustala się szereg równowag dynamicznych (metastabilnych) w sensie modelu ADM o charakterze lokalnym.
Ponieważ zastosowano w rozważaniach na temat działalności biznesowej model
gry przeciwko otoczeniu, stąd wynika istnienie stanu równowagi w tej grze w
sensie Nasha. Tym samym możliwe staje się wyznaczenie pewnego optimum
Arrow K.J, Debreu G., “Existence of an Equilibrium for a Competitive Economy”, Econometrica 22, No.
2 (1954), 265-290.
193
133
oddziaływania mikro-makro jako punktu siodłowego gry. W dalszej konsekwencji, może zaistnieć w tej grze stan określany jako optimum Pareto194, gdzie
poprawienie pozycji jednego gracza nie powoduje pogorszenie pozycji drugiego, ale nie musi, co najlepiej widać w działaniach rządu wobec opodatkowania przedsiębiorców. Stan równowagi w sensie Pareto jest najbardziej pożądaną
formą rozwoju mikro i to jest cały sens analizy równowagi mikro-makro. Jest to
naukowa realizacja idei złotej zasady postępowania w zarządzaniu.
Zrównoważony rozwój
Jednym z przykładów zarządzania makro, realizowanym w praktyce jest
model zrównoważonego rozwoju. Ma on na celu zaspokojenie aspiracji rozwojowych obecnego pokolenia w sposób umożliwiający realizację tych samych dążeń następnym pokoleniom195. Model wyodrębnia trzy główne obszary, na których należy skoncentrować się przy tworzeniu skutecznej strategii osiągnięcia
zrównoważonego rozwoju196:
 Ochrona środowiska i racjonalna gospodarka zasobami naturalnymi (ograniczanie
zanieczyszczenia środowiska, ochrona zagrożonych wyginięciem gatunków
zwierząt i roślin, promocja odnawialnych źródeł energii).
 Wzrost gospodarczy i sprawiedliwy podział korzyści z niego wynikających (ułatwienie dostępu do rynków dla państw rozwijających się, finansowanie rozwoju,
zmiana nieracjonalnych wzorców konsumpcji i produkcji).
 Rozwój społeczny (walka z ubóstwem, dostęp do edukacji, ochrony zdrowia).
W Polsce oficjalna definicja zrównoważonego rozwoju wynika z ustawy
„Prawo ochrony środowiska197”. Przez rozwój zrównoważony rozumie się „taki
rozwój społeczno-gospodarczy, w którym następuje proces integrowania działań politycznych, gospodarczych i społecznych, z zachowaniem równowagi ekologicznej oraz
trwałości podstawowych procesów przyrodniczych, w celu zagwarantowania możliwości
zaspokajania podstawowych potrzeb poszczególnych społeczności lub obywateli zarówno
współczesnego pokolenia, jak i przyszłych pokoleń”.
W 2006 RE przyjęła Odnowioną Strategię Zrównoważonego Rozwoju UE.
Zalicza się do niej działania w zakresie: ochrony środowiska, sprawiedliwości i
spójności społecznej, dobrobytu gospodarczego oraz realizacji zobowiązań w
skali międzynarodowej. W dokumencie wyodrębniono siedem kluczowych wyzwań w obszarze polityki gospodarczej, ekologicznej i społecznej:
 zahamowanie zmian klimatycznych i promowanie czystej energii;
194
Wikipedia, Optimum Pareto https://pl.wikipedia.org/wiki/Optimum_Pareto
Gospodarek T., „Modelowanie…”, str. 165
196
Wikipedia, Agenda 21, https://pl.wikipedia.org/wiki/Agenda_21
197
Ustawa z dnia 27 kwietnia 2001 r. „Prawo ochrony środowiska”. Dz.U. 2001 nr 62 poz. 627 Art. 3 pkt.
50.
195
134
 zapewnienie, by systemy transportowe odpowiadały wymogom ochrony środowiska oraz spełniały gospodarcze i społeczne potrzeby społeczeństwa;
 promowanie zrównoważonych wzorców produkcji i konsumpcji;
 lepsze zarządzanie i unikanie nadmiernej eksploatacji zasobów naturalnych;
 promowanie wysokiej jakości zdrowia publicznego na niedyskryminujących
zasadach oraz lepsza ochrona przed zagrożeniami dla zdrowia;
 stworzenie społeczeństwa opartego na integracji społecznej, uwzględniającego solidarność między pokoleniami oraz w ramach pokoleń, a także zagwarantowanie jakości życia obywateli;
 aktywne promowanie zrównoważonego rozwoju na forum międzynarodowym oraz zapewnienie zgodności wewnętrznych i zewnętrznych polityk UE
z zasadami zrównoważonego rozwoju, jak również z podjętymi przez UE
międzynarodowymi zobowiązaniami.
Zgodnie z zaleceniami KE, wdrażanie strategii zrównoważonego rozwoju
powinno mieć charakter horyzontalny (równorzędny) w stosunku do realizacji
wszystkich innych polityk i strategii. Poziom globalny UE powinien być logicznie podzielony na poziomy: krajowe, wojewódzkie, powiatowe i gminne. Zakłada się addytywność działań w układzie pionowym. To jest praktycznie najtrudniejszym elementem zarządzania wdrażaniem strategii zrównoważonego
rozwoju, ponieważ zakres kompetencji jednostek szczebla wyższego na ogół nie
jest sumą zakresów kompetencji szczebla niższego (powiaty z mocy ustawy mają
różniące się kompetencje i zadania od samorządów gminnych). To nie przekłada
się na łączność dokumentacji planistycznych i utrudnia zarządzanie w skali makro.
Dotychczasowe doświadczenia planistyczne na poziomie różnych szczebli
samorządu terytorialnego pokazują trudności wdrażania zasad zrównoważonego rozwoju w praktyce planistycznej. Wynikają one często z niejednoznacznego rozumienia i definiowania pojęcia „rozwój zrównoważony” na poziomie
powiatu lub gminy. Warto przyjąć na podstawie dokumentu „Sustainable Urban
Development” następujące zasady definiowania:
1. wynikające z celów rozwoju zrównoważonego:
 poprawa warunków życia mieszkańców,
 uwzględnianie interesów obecnego i przyszłych pokoleń,
 sprawiedliwość między i wewnątrzgeneracyjna w dostępie do środowiska
i innych szans rozwoju,
2. dotyczące sposobów realizacji celów zrównoważonego rozwoju:
 odtwarzanie zasobów odnawialnych,
 substytucja zasobów nieodnawialnych,
 zachowanie różnorodności biologicznej,
 emitowanie takich ilości zanieczyszczeń, które środowisko jest w stanie
przyjąć i zneutralizować.
135
3. dotyczące opracowania i wdrażania koncepcji rozwoju:
 podejście kompleksowe, ale z koncentracją na kluczowych problemach,
 planowanie zintegrowane,
 wielowariantowość rozwiązań koncepcji planistycznych,
4. dotyczące planowania przekształceń zagospodarowania:
 dostosowywanie zagospodarowania do uwarunkowań przyrodniczych i
kulturowych,
 zachowanie właściwych proporcji między terenami biologicznie czynnymi
i zabudowanymi, minimalizacja uciążliwości zagospodarowania,
 koncentracja zagospodarowania.
Podstawowe znaczenie dla zarządzania makro zgodnie z zasadami zrównoważonego rozwoju ma odejście od ujęć sektorowych, na rzecz zharmonizowanych programów wielozadaniowych. To wiąże się ściśle z polityką oraz koncepcjami państwa. Szersze omawianie tych kwestii wykracza to poza ramy niniejszego dyskursu.
136
Koncepcja TBL
Triple Bottom Line198 (albo PPP – People, Planet, Profit) wykorzystuje koncepcję
zrównoważonego rozwoju dla celów oszacowań wartości organizacji oraz jej
efektywności. W księgowości Bottom Line oznacza zysk lub stratę w sensie finansowym. Triple Bottom Line jest rozszerzeniem oszacowań efektywności na sferę
socjalną (People), sferę zysków (Profit) oraz sferę środowiska naturalnego (Planet). W tym sensie wartości generowaną przez organizację należy rozumieć szerzej niż tylko widzianą przez pryzmat kapitału.
Zarządzanie zgodnie z koncepcją TBL powinno koncentrować się na wysokimi poziomie etycznym odniesionym do wymienionych wyżej obszarów:
Ludzie - odnosi się do sprawiedliwych i korzystnych praktyk biznesowych dotyczących zatrudnienia, warunków pracy, społeczności i regionu, w którym organizacja prowadzi swoją działalność. Działanie zgodne z zasadami TBL pojmuje wzajemność interesu struktury społecznej, dobra korporacji, zatrudnionych oraz pozostałych interesariuszy. Wiąże się to np. ze zwrotem części zysku
z powrotem do producenta lokalnego surowców, a nie transferowania za granicę. Firma TBL nie skorzysta z pewnością z pracy dzieci, a swoim pracownikom
zapłaci godziwe pensje.
Planeta - (kapitał naturalny) odnosi się do zrównoważonych praktyk w zakresie
wykorzystania środowiska naturalnego. Organizacja klasy TBL wykorzystuje
naturalne środowisko w sposób minimalizujący wpływ jej działalności na środowisko, przynajmniej mu nie szkodząc. Podejmuje wysiłki na rzecz zmniejszania swoich śladów ekologicznych, ograniczając konsumpcję energii, zmniejszając ilości odpadów produkcyjnych, unieszkodliwiając mniej toksyczne odpady
przed ich usunięciem. Metoda oceny uciążliwości dla środowiska wytwarzanych produktów przez organizacje stosujące zasady TBL bazuje na całym cyklu
życia produktu (od kołyski do grobu).
Zysk –jest rozumiany jako wartość oferowaną w otoczeniu, a nie jako księgowy
wynik operacyjny. Są to zatem realne korzyści gospodarcze, które generuje dana
organizacja. Jeżeli nawet zysk księgowy jest mały, ale zatrudnienie jest duże, to
taka organizacja jest użyteczna zgodnie z koncepcją TBL. Ale jeżeli zysk jest
transferowany na zasadzie „wypompowania kapitału” i wykorzystania dominującej pozycji ekonomicznej, to takie działanie nie jest akceptowalne.
W koncepcji TBL widać wyraźnie naleciałości socjalistycznej i lewicowej
koncepcji rozwoju organizacji, które mają się nijak do zasad wolnego rynku. Nie
można jednak odmówić racji ideom PPP stanowiącym podstawę działania organizacji pożytecznej dla otoczenia. Zasady te są jednak trudne do wdrożenia w
praktyce. Dodatkowo pomiar stanu oraz wskaźniki stopnia osiągnięcia celu TBL
są raczej nierealne do wprowadzenia i stosowania.
Elkington J., “Cannibals with Forks: the Triple Bottom Line of 21st Century Business”, Capstone Publishing Ltd., Oxford, 1997. http://appli6.hec.fr/amo/Public/Files/Docs/148_en.pdf
198
137
3.2 Aspekt czasowy zarządzania
Ponieważ zarządzanie zawsze dotyczy stanów przyszłych i związane jest z
podejmowaniem decyzji, warto zastanowić się nad problemem czasu w zarządzaniu. Zwłaszcza że podejmując decyzję, menedżer ma intencję osiągnięcia
określonego celu. Intencja ta może zostać wcielona w życie po określonym czasie
realizacji działań związanych z wdrożeniem decyzji i dopiero wówczas można
poznać konsekwencje powziętych działań. Pomiędzy intencją a konsekwencją
istnieje określony przedział czasu, stanowiący z punktu widzenia wiedzy, bardzo interesujący obszar badań niepewności położenia podmiotu podlegającego
działaniom związanym z podjętą decyzją. Jest to luka braku wiedzy odnośnie
przyszłości, która zawsze towarzyszy menedżerowi. Jego imperatywem jest
zmniejszanie tej luki do minimum, ale stanu niepewności nie da się wyeliminować w 100%. Kwestia ta powoduje wyróżnienie przynajmniej trzech kategorii
czasowych zarządzania:
 zarządzanie operacyjne, związane z bieżącą działalnością na poziomie operacyjnym, gdzie podejmowane decyzje nie mają charakteru ogólnoorganizacyjnego, a ich konsekwencje pojawiają się szybko,
 zarządzanie taktyczne, wiąże się z poziomem decyzyjnym horyzontu czasowego raportu kontrolingowego oraz poziomu wydziału albo jednostki organizacyjnej,
 zarządzanie strategiczne, dotyczy całej organizacji i wiąże się z podejmowaniem decyzji o skutkach odległych w czasie, rzędu pół roku lub więcej.
Im dłuższy jest horyzont czasowy decyzji, tym większa jest niepewność pomiędzy intencją, a konsekwencją podejmowanych działań. Co więcej, zbiór decyzji wzajemnie sprzężonych, następczych i równoległych, podejmowanych w
danym czasie utrudnia dokładne ustalenie rezultatów wynikających z działań
związanych z wdrożeniem dowolnie wybranej decyzji z tego zbioru.
3.2.1 Struktura decyzji
W tym miejscu pojawia się interesującego zagadnienie - co jest ważniejsze przy
podejmowaniu decyzji: intencje oparte na informacjach i analizach historycznych i dotyczące teraźniejszości, czy konsekwencjalne analizy przyszłych skutków wdrożenia decyzji oparte na symulacjach i prognozowaniu. Jak łatwo się domyślić, nie da się w tej
kwestii udzielić jednoznacznej odpowiedzi. Zależy to od czasu, którego decyzja
dotyczy oraz kontekstu podejmowania decyzji. Inny horyzont czasowy dotyczy
decyzji w sprawach bieżącej produkcji, a inny w sprawach programu strategicznego lub planowanej inwestycji. W pierwszym przypadku dominować będą
analizy wykonalności na poziomie parametrów mierzalnych (np. ilości godzin
warsztatowych do dyspozycji, ilości dostępnych surowców). W drugim zaś, racjonalnym będzie wykonanie określonego pakietu analiz, dotyczących sytuacji
138
bieżącej oraz predyktywnych, będących symulacją przyszłych stanów. Zawsze
jednak pozostanie niepewność wynikająca z niedoinformowania menedżera
oraz świadomego ograniczenia parametrów branych pod uwagę w modelach
analitycznych. Najlepszy menedżer, wspierany przez najlepsze systemy prognozowania i najdokładniejsze dane czasu bieżącego, nie może wypowiedzieć zdania prawdziwego na temat przyszłości. Podejmujący decyzje, nigdy nie dysponuje pełną informacją. Musi radzić sobie z niepewnością i zaakceptować ryzyko
poniesienia strat, związane z marginesem błędu. Dlatego jednym z imperatywów
kategorycznych każdego menedżera jest ograniczenie niepewności decyzyjnej do minimum. Na tym między innymi polega redukcja niepewności pomiędzy intencją
podjęcia a konsekwencją wdrożenia decyzji.
Można zaproponować dobrą praktykę (procedurę) postępowania przy podejmowaniu decyzji, jak na rys. 3.4.
Rys. 3.4 Proces podejmowania decyzji.
 zidentyfikować wszelkie, możliwe źródła niepewności i wybrać te najistotniejsze, które można wyeliminować,
 ustalić te elementy niepewności, których wyeliminować lub ograniczyć się nie
da i dokonać próby oszacowania poziomu niedokładności wyniku,
 zastosować metody ilościowe analiz dla danego problemu decyzyjnego (np.
modelu gazeciarza, symulacji Monte Carlo etc.),
 zastosować wybrane metody analiz jakościowych lub quasi-ilościowych,
związanych z danym problemem, np.: SWOT/TOWS, PEST, umożliwiające
oceny wartościujące w kategoriach aksjologicznych (dobre, lepsze, złe),
 zbudować kryterium oceny wariantów decyzyjnych, umożliwiające wybór
najlepszego z nich, przy równoczesnym ograniczeniu poziomu niepewności.
Struktura decyzji składa się z dwóch elementów proceduralnych:
1. strukturyzacji problemu (ustalenia z czym przyszło się nam zmierzyć, jakie
mogą być alternatywne scenariusze albo rozwiązania oraz jakim kryterium
należy się posłużyć dla wybrania wariantu w sposób racjonalny,
139
2. analizy problemu (dokonania oceny ilościowo – jakościowej dla zdefiniowanych wariantów problemu i zastosowanie ustalonego kryterium dla znalezienia najbardziej racjonalnego wariantu decyzyjnego, po czym dokonania
wyboru do realizacji.
Oznacza to, że podjęcie decyzji stanowi wybór optymalnego wariantu z możliwych (jakkolwiek rozumieć w tym miejscu optymalność). W skrajnym przypadku jest to
wybór pomiędzy podjęciem decyzji, a jej niepodejmowaniem. Możemy z obserwacji naszego otoczenia wnioskować o tym, że niepodjęcie decyzji może być niekiedy optymalną decyzją, a decyzja optymalna wcale nie musi oznaczać sukcesu,
ale najmniejszą stratę z możliwych.
3.2.2 Ograniczona racjonalność i heurystyki uproszczone
Okazało się w praktyce, że menedżer do podjęcia decyzji nie potrzebuje
kompletnych danych oraz analizowania kryteriów wymagających ścisłych obliczeń, tak jak to zaprezentowano na rys. 3.4. Wystarczy, że zostanie spełniony
jakiś ograniczony zbiór oczekiwań, a decyzja zostanie podjęta. Zauważył to jako
pierwszy H. Simon, a problem nazwano zasadą ograniczonej racjonalności podejmowania decyzji (nagroda Nobla 1978).
Satysfakcja zamiast optymalności daje wystarczające podstawy do podjęcia
decyzji przez managera. Stanowi ona krytyczny poziom maksymalizacji lub minimalizacji dla kryterium decyzyjnego. Człowiek podejmujący decyzję będący
homo administratus, dąży do realizacji swoich własnych celów, ale często nie wie,
jakie one są. Jest świadomy istnienia kilku alternatyw decyzyjnych, ale bardziej
dąży do podjęcia satysfakcjonującej decyzji na podstawie subiektywnie wybranych danych, niż kontynuowania poszukiwań prowadzących do decyzji optymalnej. Simon wyróżnił trzy fazy podejmowania decyzji (rys. 3.5).
Rys. 3.5 Podejmowanie decyzji zgodnie z zasadą ograniczonej racjonalności 199
199
Wikipedia, Herbert Simon, https://pl.wikipedia.org/wiki/Herbert_Simon
140
Sposób analizowania faktów przez człowieka na ogół odbiega od ścisłego wyliczania i porównań mierzalnych opcji. Najczęściej stosowane są uproszczone
schematy myślowe, niekoniecznie prowadzące do racjonalnych wniosków. Problemy wykorzystania uproszczonych schematów myślowych w podejmowaniu
decyzji konsumenckich i menedżerskich rozwinęli D. Kahneman i A. Twersky
(nagroda Nobla D. Kahneman 1982)200. Zauważyli oni, że wszystkie uproszczone
schematy analiz sytuacji związane z podjęciem decyzji można podzielić na trzy
kategorie opisane poniżej.
1. Heurystyka reprezentatywności. W tym przypadku decydent dokonuje klasyfikacji czegoś do grupy spełniającej kryteria decyzyjne na podstawie częściowego podobieństwa do znanego przypadku typowego lub charakterystycznego (nieuprawnione analogie). W ten sposób powstają nadinterpretacje, związane z iluzoryczną wagą wybiórczej wiedzy, pozorną korelacją lub
inną zależnością funkcyjną, niekompletnością próby losowej, etc. i zwykle
prowadzi do błędów decyzyjnych. Schemat ten jest najczęściej występującym w praktyce zarządzania.
2. Heurystyka dostępności (jeżeli o tym myślisz, to musi być ważne). Polega
na przypisywaniu większego znaczenia zdarzeniom, które łatwiej sobie
uświadomić lub tym, które są bardziej wyraziste emocjonalnie. Np. prawdopodobieństwo zaistnienia wypadku lotniczego jest znacznie przeszacowane
po każdym wypadku, opisanym w mediach. Na dodatek media szczególnie
nagłaśniają mało prawdopodobne zdarzenia o charakterze katastroficznym.
To skutecznie wywołuje subiektywne odczucia prowadzące do przeszacowań typu: podróżowanie samolotem jest szczególnie niebezpieczne (bo w
prasie napisano o dwóch wypadkach samolotów w krótkim okresie czasu).
3. Heurystyka zakotwiczenia (dostosowania), polega na tym, że używa się jakiejś początkowej wartości lub informacji, nie będącej najbardziej aktualną
lub rzetelną w celu udzieleniu odpowiedzi na zadane pytanie lub zbudowania kryterium decyzyjnego. To szczególnie dobrze działa w przypadku polityków, którzy chcą uzasadnić tendencyjne stwierdzenia i uzyskać poparcie
nieświadomych wyborców. Wykorzystywana wówczas informacja stanowi
punkt wyjścia do dalszych, wykrzywionych wnioskowań, będąc zakotwiczeniem dla głoszonych „prawd” lub oszacowań przy braku kompletności danych.
Takie zachowania ludzkie stanowią podstawę funkcjonowania marketingu.
Umożliwiają również wykorzystanie słabości wnioskowania przy budowaniu
relacji, motywowaniu lub perswazji. Bazuje na tym teoria wpływu201 i działanie
Tversky, A., Kahneman, D., “Judgment under Uncertainty: Heuristics and Biases”. Science, New Series,
Vol. 185, No. 4157, (1974), pp. 1124-1131.
201
Cialdini R., "Wywieranie wpływu na ludzi. Teoria i praktyka", Gdańskie Wydawnictwo Psychologiczne, Gdańsk, 2000.
200
141
lobbingu. Dotyczy to również podejmowania decyzji przez menedżera. Nie jest
zatem zaskoczeniem, że zasada ograniczonej racjonalności ma tak duże znaczenie w naukach społecznych, a zwłaszcza w zarządzaniu.
3.2.3 Aspekt czasowy decyzji
Aspekt czasowy decyzji w procesach zarządzania wiąże się z aspektem
przyczynowo-skutkowym ich podejmowania. Można zaproponować podział
decyzji ze względu na horyzont czasowy skutków na:
 Decyzje strategiczne. Wdrożenie ich jest odsunięte w czasie. Wykonanie
podlega określonym harmonogramom czasowo-zadaniowym, a sama decyzja strategiczna staje się w rezultacie pakietem decyzji następczych, związanych z programami operacyjnymi powiązanej strategii. Skutki podjętej decyzji strategicznej są odległe w czasie. Dotyczą problemów globalnych organizacji, a nie jej poszczególnych działów lub jednostek (SBU). Mogą również
dotyczyć sektora zagadnień ogólnoorganizacyjnych (np. informatyzacji
firmy, prowadzenia polityki rachunkowości, itp.).
Typowy problemem decyzyjny: Jak dokonać alokacji wszystkich, dostępnych
zasobów między szanse produktowo – rynkowe?
Główne charakterystyki: centralizacja decyzji, brak wymuszenia sytuacyjnego,
duży poziom niepewności, złożoność strukturalna, agregacja decyzji cząstkowych w pakiety następcze, wizjonerstwo.
 Decyzje taktyczne. Wdrożenie wymaga pewnego, niezbyt odległego czasu.
Skutki są na ogół widoczne niedługo po wdrożeniu. Dotyczą korekt lub
wspomagają decyzje strategiczne wynikające z pomiarów kluczowych
wskaźników efektywności, albo informacji zwrotnych z otoczenia. Decyzje
taktyczne związane są przede wszystkim z kontrolą wykonania scenariuszy
okresowych decyzji strategicznych.
Typowy problemem decyzyjny: Jak zorganizować w sposób optymalny procesy
biznesowe oraz akwizycje produktowe oraz wartościowe zasoby niezbędne
dla ich realizacji?
Główne charakterystyki: decentralizacja decyzji, wymuszenie sytuacyjne
przez otoczenie, niewielki poziom niepewności, oparcie na pomiarze, agregacja decyzji cząstkowych w pakiety sprzężone.
 Decyzje operacyjne. Ich wdrożenie jest natychmiastowe. Skutki widoczne
są szybko. Dotyczą najczęściej optymalizacji bieżącej lub uruchomienia procesu. Mogą być też związane ze kontrolą parametrów efektywności i sterowaniem procesami na poziomie operacyjnym.
Typowy problemem decyzyjny: Jaką postać ma mieć budżet na najbliższy miesiąc i jaki harmonogram produkcyjny będzie realizowany?
142
Główne charakterystyki: decentralizacja decyzji, wymuszenie sytuacyjne wewnętrzne, agregacja w pakiety równoległe, mały poziom niepewności decyzyjnej, optymalność lokalna.
Decyzje strategiczne mają przede wszystkim charakter intencjonalny, podczas
gdy operacyjne mają podłoże ewidentnie konsekwencjalne. Decyzje taktyczne
mają charakter mieszany.
3.2.4 Własność Markowa i zasada Bellmana
Większość zdarzeń w praktyce gospodarczej wymaga ciągłości działań w
czasie. To oznacza, że przedział czasowy określonego zadania biznesowego
można podzielić na mniejsze podprzedziały. W każdym z tych podprzedziałów
zapadają określone decyzje i realizowane są działania. Dodatkowo występuje
niepewność ustalenia położenia ekonomicznego podmiotu w każdym podprzedziale w sposób stochastyczny. Stąd wyniki w danym podprzedziale zależą od
wyników uzyskanych w poprzedzających go podprzedziałach. Taki ciąg zdarzeń, w którym prawdopodobieństwo dowolnego zdarzenia zależy jedynie od
wyniku poprzedniego nosi nazwę procesu Markowa. Natomiast procesy, w których przyszłe stany podmiotu są warunkowo niezależne od stanów przeszłych,
ale są zdeterminowane wyłącznie przez stan bieżący posiadają własność Markowa. Można to przedstawić następująco: „Funkcja celu w procesie wieloetapowym
jest sumą kartezjańską wartości tej funkcji uzyskanych w kolejnych etapach, przy czym
wartość uzyskana w n-tym etapie zależy od stanu w etapie poprzednim oraz podjętej
wówczas decyzji, a nie zależy od drogi, po której system dotarł do etapu n-1”.
W ten sposób możemy uzasadniać stosowanie scenariuszy rozwoju w czasie, w analizie PEST, SWOT czy też analizie interesariuszy. Bazuje na tym prognozowanie strategiczne oraz symulacja stanów w systemach biznesowych. Stąd
ważną kwestią w zarządzaniu jest uzasadnienie losowości zdarzeń determinujących scenariusze decyzyjne w przedziałach czasowych i odpowiednie zdefiniowanie zmiennych losowych, reprezentujących zmiany podmiotu w czasie.
Wówczas symulacja Monte Carlo ma uzasadnienie (str. 380). Większości zdarzeń
gospodarczych możemy przypisać własność Markowa.
Zasada Bellmana
Bardzo ważnym aspektem pochodnym własności Markowa jest obserwacja
skutków decyzji podjętych w danym przedziale czasowym, jako wynik ciągu
decyzji podjętych w poprzedzających go przedziałach. Traktuje o tym zasada
Bellmana202, którą można przedstawić w następującej formie: Skutki optymalnej
decyzji podjętej w końcowym etapie wieloetapowego procesu decyzyjnego, stanowiącego
Bellman R.E., „Adaptative Control Processes: a guide tour”, Princeton, Princeton University Press, 1961.;
(„Adaptacyjne procesy sterowania. Przewodnik problemowy”, Warszawa: PWN, 1965).
202
143
łańcuch Markowa, stanowią o optymalności podjętych decyzji w etapach pośrednich procesu, ze względu na początkowy stan układu. Oznacza to, że jeżeli ustalimy parametry stanu wejściowego do procesu w chwili t0, a w końcowym etapie tk uzyskaliśmy wynik uznany za optymalny, to wszelkie poprzedzające decyzje w ciągu, w
kolejnych przedziałach czasu tk-1, tk-2, … też musiały być optymalne Innymi
słowy system dochodził do stanu końcowego na zasadzie kolejnych przybliżeń
w wyniku informacji pochodzących ze sprzężeń zwrotnych.
Tak działa zarządzanie adaptatywne, a zasada Bellmana wskazuje, że wynik
optymalny nie zależy od drogi, a jedynie od stanu wyjściowego w kolejnym akcie adaptacji systemu do kontekstu. Warto o tym pamiętać w praktyce menedżerskiej. Taka niezależność od drogi wpisuje się w zasadę niejednoznaczności
metod zarządzania, podkreślanej przez teorię kontyngencji.
3.2.5 Scenariusze i pakiety decyzyjne
Skoro możliwe jest zaistnienie ciągów decyzyjnych w określonym przedziale czasowym, to możliwe jest prognozowanie określonych skutków podejmowania decyzji w kolejnych przedziałach czasu. W ten sposób powstają scenariusze decyzyjne. Metoda ta ma kilka wariantów. Charakteryzuje się zawsze istnieniem jakiejś zmiennej losowej, której wielkość można szacować lub symulować na podstawie posiadanych danych czasu bieżącego. Wśród scenariuszy decyzyjnych należy rozróżnić trzy rodzaje:
 drzewo decyzyjne stosowane dla oszacowań wartości jakiegoś waloru,
oparte na dwumianowym rozkładzie prawdopodobieństwa. Przykładem
mogą być drzewa dwumianowe Cox-Ross-Rubinstein dla oszacowania wartości opcji albo akcji i budowania portfela optymalnego inwestora203,
 scenariusze decyzyjne oparte na modelach ryzyka stosowane np. w bankowości dla oszacowań ryzyka spłaty zadłużenia204.
 scenariusz rozwoju, oparty na ustalanym arbitralnie prawdopodobieństwie
zaistnienia danego kierunku zmiany. Wykonywane są zwykle w trójscenariuszu: optymistycznym, pesymistycznym oraz największego prawdopodobieństwa. Takie scenariusze wykorzystywane są w analizie PEST, SWOT,
analizie interesariuszy.
Sposób wykonania scenariusza rozwoju został przedstawiony w rozdziale 4.2.2,
str. 208, oraz w poświęconym analizie PEST(LE) 6.3 str. 427.
Pakiety decyzyjne
W każdej organizacji w określonym czasie podejmowanych jest szereg decyzji przez wielu menedżerów oraz w wielu jej działach. Zbiór decyzji podjętych
Jackson M., i wsp. op. cit. rozdział 10, dodatek Excel „Opcje1”.
Zemke J., „Scenariusze procesów decyzyjnych w warunkach zarządzania ryzykiem obsługi zobowiązań
Długoterminowych”, http://zif.wzr.pl/pim/2013_3_2_19.pdf
203
204
144
w danej chwili czasu lub w danej sprawie nazwiemy pakietem decyzji. Charakteryzuje się on tym, że na ogół nie jest możliwym określenie konsekwencji wdrożenia określonej decyzji, wybranej z pakietu. W danym momencie realizują się
skutki wielu podjętych wcześniej decyzji, a równocześnie podejmowane są kolejne na różnych szczeblach zarządzania. Ciągłość czasu nie pozwala na dokonanie podziałów szczegółowych skutków pojedynczych zdarzeń w organizacji.
To między innymi wpływa na złożoność zarządzania. Wśród pakietów decyzyjnych można wyróżnić trzy szczególnie istotne kategorie wzajemnie powiązanych decyzji:
1. Decyzje sprzężone – podejmowane przez kilku niezależnych menedżerów
w celu osiągnięcia określonego rezultatu, wspólnego wszystkim (np. sprzedaż nowego samochodu wymaga kilku decyzji wzajemnie sprzężonych w
różnych działach auto stacji). Przy tym trudno jest ustalić, która z podjętych
decyzji ma charakter kluczowy. Dla realizacji procesu biznesowego konieczne jest podjęcie kompletu decyzji sprzężonych.
2. Decyzje następcze – są to decyzje zależne, wynikające z otrzymania informacji na temat rezultatów podjętej kontekstowo decyzji w poprzednim przedziale czasowym (w łańcuchu Markowa) Są one charakterystyczne dla zarządzania wykorzystującego sprzężenia zwrotne. Przykładem może być zachowanie optymalizacyjne w zakresie portfela zamówień. Obserwujemy rotację magazynu w danym przedziale czasu oraz zachowanie rynku i na tej
podstawie podejmujemy decyzję o zamówieniu na kolejny okres.
3. Decyzje równoległe – są to decyzje podejmowane równocześnie przez różnych menedżerów niekoniecznie w celu osiągnięcia jednego celu (np. decyzje podejmowane niezależnie w magazynie i w dziale marketingu). Decyzje
równoległe dotyczą również zarządzania na różnych poziomach. Równolegle mogą być podejmowane decyzje operacyjne, taktyczne i strategiczne, ale
skutków ich podejmowania nie da się ustalić w odniesieniu do wybranej z
nich w danym momencie.
Pakiety decyzyjne stanowią fundament zarządzania i im lepiej opisane są procesy biznesowe danej organizacji, tym mniejsza staje się niepewność rezultatu
dla decyzji sprzężonych i następczych.
145
3.3 Metodologia zarządzania
W zakresie metodologii zarządzania staramy się odpowiedzieć na kwestię
jak postawić, a następnie zrealizować cele stawiane przez menedżera zarządzanemu podmiotowi. Metodologia podejmuje się opisania zagadnień, jak pozyskać wiedzę
pewną na temat tego, co istnieje w zarządzaniu (systemu generującego wartość, bytującego w otoczeniu), ustala dobre praktyki, funkcje celu, kryteria i warunki
przeprowadzenia procesu biznesowego, etc. Finalnym wynikiem rozważań metodologicznych są modele operacyjne i semantyczne zarządzania, aż do poziomu „białej księgi” włącznie205. Przykładami mogą być: metoda macierzy logicznej LFA, metoda produkcji JIT, Gemba Kaizen, metoda zapewnienia jakości
„Sześć sigma”, metoda sprzedaży samochodu, działanie CRM i CMS, sposób
motywowania, itp. Widać stąd, że to właśnie metodologia stanowi dla teorii i
praktyki zarządzania fundament wiedzy użytecznej. Dlatego warto zastanowić
się nad niektórymi modelami wynikającymi z metodologii, a użytecznymi dla
menedżera.
Przegląd metodologiczny podzieliłem na szereg zagadnień zarządzania w
ujęciu historycznym. Można wydzielić dziesięć wyróżniających się trendów:
 kierunek produktywność,
 orientacja na jakość,
 administracja doskonała,
 behawioryzm i adaptatywność,
 optymalność i prakseologia,
 kapitał społeczny i zasoby ludzkie,
 koncepcje równowagowe (STS, PPP/TBL, zrównoważony rozwój),
 zmiana organizacji,
 pomiar, model, symulacja (badania operacyjne),
 ujęcia systemowe i sieciowe.
Wyłaniające się w obecnych czasach nowe trendy i kierunki działań można zaklasyfikować do wyżej wymienionych grup zagadnień.
3.3.1 Dzieło Adama Smitha
„Źródłem wszelkiego bogactwa jest praca ludzka”. Ten cytat w zasadzie wyjaśnia
cały sens podejmowania działalności gospodarczej i funkcjonowania wartości
oraz własności społeczeństwie. To praca, a nie dotacje i subwencje mają być źródłem naszego dobrobytu. Nie zadłużanie narodów i malwersacje hedgingowe,
ale realna praca i produkcja mogą poprawić byt.
205
Gospodarek T., “Systemy ERP…”, op. cit.
146
W zasadzie to od dzieła A. Smitha „Badania
nad naturą i przyczynami bogactwa narodów”
wydanego w 1776 roku zaczyna się rozwój nauk
o zarządzaniu. Smith jako filozof i myśliciel
przeprowadził sławny eksperyment z produkcją szpilek do kapeluszy, który pokazał, że podział czynności koniecznych dla wykonania
wyrobu finalnego na zorganizowany zespół ludzi prowadzi do zmniejszenia nakładu pracy.
W tym przypadku 10 osobowy, wytrenowany
zespół wykonał 48 000 szpilek w ciągu jednego
dnia, podczas gdy jedna osoba wykonująca
kompletny produkt, była w stanie uzyskać wydajność 200 szpilek dziennie.
Oto kilka ważnych cytatów z „Bogactwa narodów”, które stanowiło pierwsze ujęcie metodologiczne w ekonomii nadmiernie wprawdzie wykorzystując
metodę opisową zjawisk, ale wystarczająco wizjonerską na swoje czasy. Niektóre zawarte tam sentencje pozostają aktualne do dziś.
 „Egoizm jest siłą napędową społeczeństwa komercyjnego. To nie dobrej woli rzeźnika, piwowara czy piekarza zawdzięczamy nasz obiad, lecz ich dbałości o interes
własny”.
 „Rynek jest mechanizmem samoregulującym ceny, ilości dóbr i usług oraz dochody,
mechanizmem scalającym społeczeństwo, a zarazem własnym strażnikiem”.
 „Sprawne funkcjonowanie społeczeństwa zapewnia mechanizm rynkowy - rząd nie
powinien ingerować w procesy gospodarcze, ponieważ "niewidzialna ręka rynku”
dokonuje optymalnej alokacji zasobów do poszczególnych dziedzin wytwarzania”.
To są fundamentalne założenia dla wytłumaczenia działalności gospodarczej i
koncepcji zarządzania. Niestety już sam A. Smith zauważył, że żaden rynek nie
wyreguluje się sam, a „twardego” dowodu dostarczyli G. Debreu i K. Arrow,
wykazując, że przy pewnych założeniach istnieje na nim równowaga ogólna. Istnieje, bowiem, pewien zestaw cen, które równoważą podaż i popyt na wszystkie
towary206. Natomiast A. Chandler207 podkreślił związki między strategią i strukturą firmy wskazując, że aktywne działania zarządu firmy (widzialna ręka) są
bardziej skuteczne w realizowaniu jej celu, jakim jest dostarczanie produktu
klientom, niż ”niewidzialna ręka” rynku A. Smitha. Tym niemniej z obserwacji
A. Smitha wynika prawo podziału, które można przedstawić w formie twierdzenia:
Schlefer J., “Niewidzialna…”, op. cit.,
Chandler, A. D., Jr., “The Visible Hand: The Managerial Revolution in American Business”, Harvard
University Press, Cambridge MA, London, 1977.
206
207
147
Jeżeli powtarzalna praca jakiejś grupy zostanie podzielona tak, że każdą czynność składową procesu rozdzielimy i będziemy ją wykonywać seriami, na jak najwyższym poziomie specjalizacji, to ogólny nakład pracy i zaangażowania zasobów zmniejszy się.
Powyższe prawo podziału stanowi fundament teoretyczny zarządzania naukowego, które największe sukcesy odniosło w okresie rewolucji przemysłowej w
latach 1890-1915.
3.3.2 Kierunek produktywność
Pod koniec XIX wieku istniała konieczność wytworzenia ogromnej ilości
dóbr, żeby nasycić rynek i nadać rewolucji przemysłowej rozpędu. Problemem
była wówczas produktywność i wydajność pracy. Jednym z remediów na słabą
wydajność była specjalizacja, praca zespołowa i poszukiwanie możliwości zautomatyzowania procesów wytwórczych. W ten sposób, poprzez pomiar i eksperyment powstało zarządzanie naukowe. Stanowiło ono cykl studiów poświęconym relacjom pomiędzy człowiekiem i procesami produkcyjnymi. W wyniku
tego stało się możliwe redefiniowanie efektywności procesów produkcyjnych i
ich optymalizacja pod kątem wydajności. Całość koncepcji skupiała się na
usprawnieniach organizacji pracy pojedynczego człowieka na swoim stanowisku pracy oraz pracy małych, wyspecjalizowanych zespołów. Innymi słowy, zarządzanie naukowe analizuje i dokonuje syntezy przepływów pracy, a następnie
ich optymalizacji ukierunkowanej na efektywność czynności.208
Okres dominacji zarządzania naukowego zwany jest „Tayloryzmem” od nazwiska jego twórcy Winslowa Taylora. Rozwinęło się w latach 1880-1920 w przemyśle wytwórczym osiągając największe znaczenie około roku 1910. Pomimo że
teoria ta została poniechana około lat 30-tych, większość jego koncepcji pozostaje
aktualna do dnia dzisiejszego. W szczególności dotyczą one zastosowania racjonalnego myślenia, analiz optymalności, syntezy procesów produkcyjnych, logiki
podejmowania decyzji opartej na pomiarze, posługiwania się empiryzmem, pomiarze efektywności, eliminacji odpadów, standaryzacji najlepszych praktyk.
Jednocześnie zarządzanie naukowe traktowało człowieka jako trybik w maszynie, wprowadzając zniewolenie przypisania do procesu. Filozofią było budowanie etosu pracy i dobrej roboty. Postponowano tradycyjne zachowania społeczne w procesach produkcji lub w celu ochrony statusu poszczególnych pracowników, posiadających unikalne umiejętności. Największym sukcesem zarządzania naukowego była transformacja produkcji rzemieślniczej do produkcji
Workflow należy definiować w szerszym sensie jako opis obiegu informacji pomiędzy rozmaitymi obiektami biorącymi udział w danym procesie produkcyjnym. Według koalicji WorkFlow Management Coalition
(WFMC), jest to: „automatyzacja procesów biznesowych, w całości lub w części, podczas której dokumenty,
informacje lub zadania są przekazywane od jednego uczestnika do następnego, według odpowiednich procedur zarządczych”. https://www.businessprocessglossary.com/7002/workflow
208
148
masowej oraz transfer wiedzy między pracownikami i jej przeniesienie na wykorzystanie narzędzi. H. Ford ukoronował te osiągnięcia wprowadzeniem taśmy
produkcyjnej. Jednocześnie wprowadzono wówczas dokumentowanie procesów, harmonogramowanie, chronometrażowanie, katalogowanie czynności w
procesach oraz plany produkcyjne.
W. Taylor sformułował cztery zasady funkcjonowania przedsiębiorstwa.
1. Analizuj sposoby, w jaki pracownicy wykonują zadania, gromadząc wiedzę,
eksperymentuj nad optymalizacją wykonania.
2. Zapisz nowe zadania do wykonania w formie instrukcji i reguł standaryzowanych.
3. Starannie dobierz pracowników pod względem posiadanych kwalifikacji do
wykonywanych zadań i naucz ich procedur.
4. Ustal minimalny poziom kwalifikacji i płać według osiągniętego rezultatu.
Po kilkunastu latach funkcjonowania zarządzania naukowego w praktyce zidentyfikowano kilka istotnych problemów.
 Praca wyspecjalizowana na taśmie była nudna i frustrująca, a system organizacji zainteresowany był wyłącznie wydajnością, a nie potrzebami ludzi.
 Poprawa umiejętności i wydajności nie powodowała wzrostu wynagrodzenia, ani zmiany statusu pracownika.
 Znacząca poprawa wydajności procesów produkcyjnych zwiększała bezrobocie, bo mniejsza ilość pracowników była w stanie obsłużyć nowoczesne
maszyny, o coraz wyższej wydajności.
 Wraz z uproszczeniem czynności wzrastały żądania ilości pożądanej pracy
od pracownika, przy czym stopień jej komplikacji nie wzrastał.
 Zjawiskiem powszechnym stała się duża rotacyjność robotników pracujących na taśmie, co obniżało wynik ekonomiczny wskutek przestojów i koniecznego przyuczania nowych pracowników do pracy.
Zarządzanie naukowe powstało w okresie erupcji produkcji przemysłowej
oraz rewolucyjnych zmian technologicznych wytwarzania dóbr. Dlatego w początkowej fazie rozwoju było ukierunkowane na dostosowanie się kultury pracy
do możliwości technologii i poszukiwania efektywności, co w końcu udało się
osiągnąć. Jednak pełna kontrola i standaryzacja na szczegółowym poziomie
tłumi działania innowacyjne, które zawsze wprowadzają chaos organizacyjny
burząc istniejącą doskonałość. To wstrzymuje postęp technologiczny oraz procesy ciągłości doskonalenia. Ograniczenia te zostały dopiero rozwiązane przez
Japończyków w modelu lean management.
W późniejszym okresie pracownicy zaczęli przeciwstawiać się tayloryzmowi, widząc znaczące zagrożenia społeczne i ekonomiczne. Zarządzanie naukowe zaczęło podążać w kierunku zwiększenia humanizacji pracy, co finalnie
doprowadziło do zaistnienia systemów STS (str. 172).
149
Najwybitniejszymi przedstawicielami zarządzania naukowego byli:
Frederick Winslow Taylor – twórca koncepcji zarządzania naukowego. Wprowadził pracę w systemie akordowym, chronometrażowanie oraz pomiar ilości pracy.
 Frank Bunker Gilbreth wraz Lillian Evelyn (Moller) Gilbreth, którzy zasłynęli z
badań ruchów roboczych, wprowadzenia metody cyklograficznej oraz chronocyklograficznej. Jako pierwsi użyli metody filmowej i opracowali katalog
17 mikroruchów (therbligów).
 Karol Adamiecki. Wprowadził pomiar pracy metodą chronometrażu (harmonogramy) jako pierwszy na świecie w roku 1896, przed L. Ganttem. Opracował prawo podziału pracy (regułę specjalizacji), prawo koncentracji (łączenie komórek produkcyjnych w większe struktury) i prawo harmonii.
 Henry Ford, który przedstawił koncepcję linii produkcyjnej osiągając wydatny wzrost wydajności pracy przez podział operacji na najprostsze czynności (na taśmie) oraz możliwość zatrudnienia niskowykwalifikowanych
pracowników.
 Henry Laurence Gantt. Rozwinął system pracy akordowej i zastosował motywację jako czynnik wzrostu wydajności. Opracował w roku 1910 system harmonogramowania (podobnie do Adamieckiego), który do dziś jest wykorzystywany pod nazwą wykres Gantta.
 Harrington Columbus Emmerson, który w roku 1913 podsumował osiągnięcia
zarządzania naukowego przedstawiając 12 zasad wydajności, mających zastosowanie po dziś dzień. Są to:
1. Jasno określony cel zadania.
2. Zdrowy rozsądek w podejmowaniu działań.
3. Fachowa rada w trudnej sytuacji.
4. Dyscyplina.
5. Uczciwe postępowanie.
6. Niezawodne sprawozdania.
7. Czasowy plan przebiegu działania.
8. Ustalenie proceduralne działań.
9. Opracowanie wzorców i norm postępowania.
10. Przystosowanie warunków pracy do zadań.
11. Wzorcowe metody pracy.
12. Nagroda za wydajność.
Na tym można zakończyć informacje o zarządzaniu naukowym, jako kontrowersyjnej teorii, która przyniosła skok cywilizacyjny na początku XX wieku,
ale została poniechana ze względu na brak humanizmu pracy i niedopasowanie
do potrzeb człowieka, który podlegał jej działaniu.

150
3.3.3 Kierunek niezawodność, efektywność, jakość
Wraz z rozwojem koncepcji zarządzania naukowego i gigantycznego przyrostu wydajności pracy na początku XX wieku, pojawiły się ważne uzupełnienia
ukierunkowania zarządzania na produktywność. Jednym z nich był kierunek
optymalizacji jakości produktów oraz systemu pracy i zasobów, które umożliwiały poprawę parametrów oferowanych dóbr. Drugą grupą były aspekty zapewnienia niezawodności oraz ciągłości produkcji. Trzecią była efektywność
procesów oraz systemów wewnątrzorganizacyjnych. Wszystkie wywodzą się z
zarządzania naukowego, ale wyraźnie dostrzegają kluczową rolę człowieka i
bardziej pasują do definicji reinżynieringu procesów produkcyjnych, niż do czystej optymalizacji ilościowo-wartościowej.
Do zagadnień optymalizacji produkcji przez systemy zapewnienia jakości
należą między innymi koncepcje produkcyjne: batch production, job production
oraz flow production. Wyspecjalizowane metody zapewnienia jakości, niezawodności, wydajności oraz efektywności, jak: RCM, TPM, QRM, TOC, TQM, Lean,
Toyota Way, SixSigma.
RCM
RCM (Reliability Centered Maintenance) – Jest to metoda konserwacji systemów produkcyjnych ukierunkowana na ich niezawodność. Zwykle w planowaniu działań konserwacyjnych dokonuje się wyboru zadań przez ustalenia, jakie
czynności można lub należy wykonać w odniesieniu do zasobów trwałych (maszyn i urządzeń). Nie jest przy tym istotne uzasadnienie dlaczego właśnie takie
czynności należy przeprowadzić. Stosując zasady metody RCM takie podejście
jest niewłaściwe. Celem koncepcji RCM jest bowiem zabezpieczenie funkcjonalności, a nie zabezpieczenie działania konkretnych zasobów trwałych. Stąd w
praktyce stosowania RCM wymagana jest systematyczna analiza poszczególnych funkcji systemu produkcyjnego, które muszą zostać zabezpieczone, a następnie analizuje się i eliminuje możliwe zagrożenia. Tym samym analityk biznesowy określa i zabezpiecza usterki funkcjonalne procesów i czynności, a nie
awarie maszyn czy urządzeń z tym związanych.
Podejście RCM realizuje w sposób racjonalny proces optymalizacji nie tylko
działań konserwacyjnych, eliminując przy tym arbitralne decyzje typu „naprawiamy to, bo chyba już wypada”, ale również politykę outsourcingu zasobów i
zarządzania majątkiem trwałym. Więcej na temat procedur RCM można znaleźć
na stronie „Inżynieria i utrzymanie ruchu”.209
Andrzejczak M., [red]., „Analiza systemowa RCM”,
http://www.utrzymanieruchu.pl/menu-gorne/artykul/article/analiza-systemowa-rcm/
209
151
TPM
TPM (Total Productive Maintenance)210 jest przykładem optymalizacji efektywności związanej z całkowitym i produktywnym utrzymaniem ruchu zasobów trwałych (w szczególności maszyn). Jest elementem systemu oszczędnej
produkcji lean management i zapewnienia maksymalnej produktywności. Dzięki
odpowiedniemu zorganizowaniu współpracy pomiędzy grupą utrzymania ruchu a działem produkcji, metoda TPM pozwala na poprawę efektywności, a czasem i funkcjonalności nawet znacząco wyeksploatowanego parku maszynowego. Dodatkowo pozwala znacznie zmniejszyć takie zagrożenia, jak: awarie
maszyn, nieplanowane przestoje, desynchronizacja funkcjonalności na taśmie,
pracę maszyn na zwolnionych obrotach.
TPM jest japońską metodę zarządzania operacyjnego pewnym wycinkiem
produkcji, stanowiąc składnik szerszego systemu efektywnego zarządzania operacyjnego produkcją Kaizen211. Opiera się na ośmiu filarach212:
1. koncentracja na poprawianiu efektywności,
2. konserwacja autonomiczna (wewnętrznymi siłami),
3. planowana konserwacja (wykorzystująca RCM),
4. utrzymanie jakości (nawet przy zużytym parku maszynowym),
5. obniżenie kosztów produkcji,
6. działania wyprzedzające w zarządzaniu zasobami,
7. szkolenie i edukacje,
8. dbałość o środowisko.
Wynikiem stosowania zasad TPM jest integracja operatywności człowieka z
funkcjonalnością maszyn, co powoduje usprawnienie pracy. Kluczowe jest przy
tym zwiększanie efektywności wykorzystania maszyn nie przez kupowanie nowych, ale głównie przez poprawę organizacji pracy oraz zaprojektowanie i przestrzeganie standardów konserwacji. Dodatkowo przez zapewnienie skutecznego systemu szkolenia pracowników, prowadzący do zaistnienia procesów
usprawniania pracy jako sprzężenia zwrotnego do podjętych działań.
QRM
QRM (Quick Response Manufacturing)213 Metoda szybkiej reakcji produktowej
na zapotrzebowanie rynku, szczególnie istotna w branżach szybkozmiennych,
takich jak: przemysł modowy214, informatyka czy też produkty innowacyjne w
Nakajima S., “Introduction to TPM: Total Productive Maintenance”, (Preventative Maintenance Series),
11 Ed., Productivity Press, Univ. Minnesota, 1998.
211
Imai M, op. cit.
212
Wikipedia, „Total Productive Maintenance”, https://pl.wikipedia.org/wiki/Total_Productive_Maintenance
213
Suri R., “It's About Time. The Competitive Advantage of Quick Response Manufacturing”, Productivity
Press, (2010).
214
Hammond J. H.; Kelly M. G., “Quick response in the apparel industry”, Harvard Business School Note
N9-690-038, (1990).
210
152
fazie start-up. Filozofię systemu produkcji zgodnie z QRM można streścić do
sformułowania: krótsze czasy realizacji zamówienia poprawiają jakość, zmniejszają
koszty i eliminują odpady pomniejszające wartość dodaną producenta, przy jednoczesnym zwiększeniu konkurencyjności oraz udziału w rynku, służąc klientom lepiej i szybciej. Jest to przykład optymalizacji o najszerszym spektrum możliwych działań,
począwszy od planowania poprzez procesy lean management po logistykę.
Strategie realizujące QRM opierają się na harmonogramowaniu produkcji i
możliwościach kastomizacji online, bazując na sprzężeniach zwrotnych z otoczeniem oraz modelach zarządzania agile. Dzięki temu możliwa jest szybka produkcja krótkich serii za rozsądną cenę. QRM jest strategią zorientowaną rynkowo i
może być komplementarna z ogólnymi strategiami wytwarzania, takimi jak: lean
management, TQM, Kaizen, czy six sigma.
Metoda QRM wywodzi się z japońskiej koncepcji TBC (Time Based Competition) z lat osiemdziesiątych215 oraz koncepcji QR (Quick Respons) stosowanej z
sukcesem w szybkozmiennym przemyśle modowym (fast fashion)216. Jej celem
jest zbudowanie strategii konkurowania na rynku prowadzącej do utrzymania
trwałej przewagi konkurencyjnej, głównie dla firm niszowych i producentów
dóbr innowacyjnych o niskim wolumenie sprzedaży. Skrócenie czasu od zaprojektowania produktu do jego wytworzenia dotyczy reorientacji biznesowej całej
organizacji, a nie tylko jej działu. Stąd wdrożenie QRM jest szczególnie interesujące jako przykład zarządzania zmianami.
TOC – teoria barier
TOC (Theory of Constraints). Jest to metoda zarządzania, z lat dziewięćdziesiątych, która wykorzystuje pogląd, że jakikolwiek zarządzalny system produkcyjny jest ograniczony w działaniu przez skończoną liczbę barier (wąskich gardeł)217. Wykorzystuje się tu aksjomat ograniczonej funkcjonalności systemu,
który mówi, że skuteczność działania dowolnego systemu zależy od prawności
działania jego najsłabszego ogniwa218. A to oznacza, że jedna osoba, maszyna czy
też relacja w łańcuchu dostaw może niekorzystnie wpłynąć na cały wynik procesu. Stąd umiejętność zarządzania zagrożeniami i wąskimi gardłami jest ważnym elementem każdej strategii produkcji.
Podstawowym założeniem teorii ograniczeń jest fakt, że efektywność działania organizacji może być mierzona i kontrolowane za pomocą kombinacji
trzech zmiennych: przepustowości, kosztów operacyjnych oraz zapasów.
Stalk Jr. G., "Time – The Next Source of Competitive Advantage". Harvard Business Review 66, July/August, (1988), 41–51.
216
Przykładem strategii QR w biznesie są firmy Zara, H&M, Peacocks.
217
Goldratt E.M., Cox J., „Cel i doskonałość w produkcji”, Wyd. Mintbooks, Warszawa 2007.
218
Gospodarek T., „Modelowanie…”, op.cit., str. 108.
215
153
1. Zapasy są równoważne zainwestowanemu kapitałowi na zakup towarów,
które mają być następnie sprzedane (lub przetworzone na produkty).
2. Koszty operacyjne stanowią całość wydatków na sprzedaż zapasów.
3. Przepustowość jest natomiast czasem, w którym system wygeneruje pieniądze poprzez sprzedaż.
Teoria barier zakłada również, że każda organizacja ma swoje cele i istnieje co
najmniej jedna bariera ograniczająca osiągnięcie każdego celu (np. braki kapitałowe, zasobowe, itp.). Stąd działania biznesowe realizowane w ramach tej strategii są zorientowane na cele.
Model zarządzania zgodny z TOC definiuje trójelementowy układ programowania produkcji drum-buffer-rope.
 Drum – Rdzeń procesowy, gdzie zakłada się plan operacyjny i uruchamia
jego realizację zgodnie z harmonogramem oraz workflow, uwzględniając
„wąskie gardła” i obciążenia zasobów, wcześniej przypisanych do procesów
(model RDF, str. 96).
 Buffer – są to zapasy materiałowe oraz zasoby dla realizacji procesu ustalone
na wejściu (przed zdefiniowaniem „wąskich gardeł” workflow). Mogą to być
zasoby związane z wydajnością, ilością oraz czasem. Mogą one same z siebie
generować „wąskie gardła” (np. wydajność lakierni może blokować produkcję równoległą kilku modeli).
 Rope – dotyczy logistyki wewnętrznej materiałów lub elementów dla stanowiska pracy. Tu również możemy mieć do czynienia z „wąskim gardłem”
związanym ze strumieniem dostaw, problemami jakościowymi komponentów oraz czasem dostępu do podzespołów.
Metoda TOC zakłada ciągłość doskonalenia procesów wytwarzania. Wymaga to
wykorzystywania następujących zasad:
 identyfikacja ograniczeń występujących w procesach,
 realizacja procesów z uwzględnieniem występujących ograniczeń,
 redukcja lub likwidacja występujących ograniczeń,
 zmiana norm i procedur na stanowiskach generujących „wąskie gardła”.
Pomiędzy wyrobami i niezbędnymi do ich wytworzenia zasobami występują ścisłe relacje, dla których „wąskie gardła” mają charakter zdarzeń losowych. W procesach wytwarzania zgodnie z koncepcją TOC ustala się stan dynamicznej równowagi, gdzie ilość produktu wytwarzanego w jednostce czasu nie
zmienia się wraz z ilością pojawiających się stochastycznie wąskich gardeł.
TQM
TQM (Total Quality Management). W późnych latach 70 i 80 japońska dominacja w produkcji wysokiej jakości dóbr za konkurencyjną cenę mocno dotknęła
154
gospodarki krajów zachodnich. To zmusiło do postawienia pytania: Skoro Japonia może, to dlaczego my nie?219 (A.Feigenbaum). Odpowiedzi na nie częściowo
udzielił K. Ishikawa,220. Te dwie książki w zasadzie umożliwiły zdefiniowanie
nowej metody zarządzania produkcją TQM. Jeszcze w latach dwudziestych W.
Shewhart wprowadził metody statystyczne do analizy jakości produkcji. Ale
prawdziwymi prekursorami zarządzania produkcją całkowicie zorientowaną na
wysoką jakość byli E.Deming oraz J. Juran. W roku 1984 amerykańska marynarka wojenna poprosiła o opracowanie skutecznej metody kontroli i poprawienia jej działań. W wyniku prac powstał raport, w którym uwypuklono cztery
kluczowe aspekty221:
1. Jakość jest określana przez wymagania klientów.
2. Najwyższe kierownictwo jest bezpośrednio odpowiedzialne za jakość.
3. Podniesienie poziomu jakości wymaga systematycznych analiz i doskonalenia procesów pracy.
4. Poprawa jakości jest ciągłym wysiłkiem całej organizacji.
Sam proces TQM zdefiniowano następująco222: „System Total Quality Management (TQM) w Departamencie Obrony USA jest strategią ciągłej poprawy wydajności
na wszystkich poziomach i we wszystkich obszarach odpowiedzialności. Łączy on w sobie
podstawowe techniki zarządzania, dotychczasowe wysiłki optymalizacyjne, oraz specjalistyczne narzędzia techniczne w ramach zorganizowanej struktury. Koncentruje się na
ciągłym doskonaleniu wszystkich procesów. Zwiększona wydajność jest ukierunkowana
na osiągnięcie takich ogólnych celów jak: koszt, jakość, harmonogram oraz potrzeby wynikające z misji i przydatności oraz stabilizacji. Zwiększenie zadowolenia użytkowników
jest nadrzędnym celem. Wysiłek implementacji TQM opiera się na pionierskich prac dr
W. E. Deminga, dr J. M. Jurana i innych, i korzysta z doświadczeń zarówno z sektora
prywatnego, jak i publicznego w ciągłym doskonaleniu procesów.”.
E. Deming zasłynął z wprowadzenia do teorii zarządzania cyklu PDCA
(Plan, Do, Check, Act)223, umożliwiającego logiczną kontrolę nad produkcją i jakością produktów. Sformułował również czternaście zasad zapewnienia wysokiej jakości:
1. wytrwale doskonal,
2. przyjmij filozofię nowego,
3. twórz jakość wraz z produktem,
4. porzuć praktykę najniższej ceny,
5. stale doskonal system produkcji i usług,
6. wprowadź zasadę szkolenia pracowników,
Feigenbaum A.V., „Total quality control”, McGraw-Hill, New York ,1983.
Ishikawa K., „What is total quality control? The Japanese way”, Prentice-Hall, Englewood Cliffs1985.
221
Wikipedia, “Total Quality Management”, https://en.wikipedia.org/wiki/Total_quality_management
222
ibidem
223
Deming, W. E., “Out of the Crisis”, MIT Center for Advanced Engineering Study, Cambridge, 1986.
219
220
155
7.
8.
9.
10.
11.
12.
13.
14.
buduj przywództwo,
usuń strach,
usuń bariery pomiędzy wydziałami,
porzuć slogany,
eliminuj zarządzanie przez liczby,
usuń bariery odczuwania dumy z pracy,
stwórz program edukacji i samodoskonalenia,
transformacja to zajęcie dla wszystkich.
J. Juran doszedł do wniosku, że jakość trzeba zaplanować również w cyklu
działań: planowanie, kontrolowanie, doskonalenie. Ustalił dziesięć kroków, prowadzących do skutecznego wdrożenia systemu TQM w produkcji:
1. uświadomić potrzeby i szanse doskonalenia jakości,
2. ustalić cele ciągłego doskonalenia systemu produkcji,
3. stworzyć organizację, która pomoże w realizacji zaplanowanych celów,
4. przeszkolić wszystkich pracowników,
5. przydzielić pracownikom zadania problemowe,
6. informować o przebiegu procesu doskonalenia,
7. okazywać uznanie pracownikom,
8. ogłaszać wyniki doskonalenia,
9. odnotowywać sukcesy,
10. włączyć usprawnienia do procesów biznesowych
W ten sposób nadano sens jednej z najbardziej istotnych koncepcji w zarządzaniu. Nie ma jednak ogólnej definicji, jak w sposób jednoznaczny należy pojmować TQM. Wydaje się, że najlepszym odzwierciedleniem tej idei jest zdanie:
„TQM jest filozofią zarządzania organizacją w sposób, który umożliwia mu efektywnie i
skutecznie sprostać potrzebom i oczekiwaniom zainteresowanych stron, bez utraty wartości etycznych”224.
Lean
Lean (Lean manufacturing albo Lean production). Stanowi ukoronowanie wysiłków optymalizacji produkcji wychodząc od Tayloryzmu do japońskich standardów metody kaizen. Jest systematyczną metodą redukcji wszelkiego marnotrawstwa w procesach produkcyjnych225. Koncentruje się na tym wszystkim co
przynosi wartość dodaną, eliminując przy tym wszystko inne. Koncepcja zarządzania lean management wywodzi się z systemu produkcyjnego Toyoty TPS (Toyota Production System rys. 3.2)226.
Juran J. M., “A History of Managing for Quality: The Evolution, Trends, and Future Directions of Managing for Quality”, ASQC Quality Press, Milwaukee, 1995.
225
Wikipedia, “Lean manufacturing”, https://en.wikipedia.org/wiki/Lean_manufacturing
226
Holweg M., "The genealogy of lean production". Journal of Operations Management 25, No.2, (2007)
420–437
224
156
Lean można definiować jako zbiór narzędzi menedżerskich, które służą
identyfikacji i eliminacji wszelkich odpadów oraz marnotrawstwa, co powoduje
równoczesną poprawę jakości i redukcję czasu produkcji. W szczególności są to
takie działania, jak: SMED, mapowanie strumienia wartości, Kanban, poka-yoke,
TPM, modelowanie procesowe. Specjalną odmianą ujęcia lean jest wspomniany wyżej system produkcji „Toyota way”, który skupia się na płynnych przepływach
pracy, eliminując przy tym przestoje i wąskie gardła zasobowe.
Ideą przewodnią lean production jest eliminacja marnotrawstwa. S. Shingo
ustalił trzy główne filary marnotrawstwa: muda (bezwartościowy nakład pracy),
mura (niedoskonałości procesowe) oraz muri (przeciążenia i wąskie gardła)227. Do
grupy muda zalicza się 7 składowych marnotrawstwa podlegającego optymalizacji.
1. Transport - zbędne przenoszenie elementów i podzespołów, które nie jest w
rzeczywistości potrzebne, aby wykonać obróbkę.
2. Zapasy magazynowe - wszystkie materiały, półprodukty oraz gotowe produkty nie podlegające przetwarzaniu w danym momencie.
3. Przemieszczenia -zbędne przemieszczenia ludzi lub urządzeń w stopniu większym niż jest to wymagane do wykonywania przetwarzania.
4. Oczekiwanie - zbędne przerwy w produkcji, spowodowane oczekiwaniem na
dostawy na kolejnym etapie produkcji lub w trakcie zmian załogi w systemie
zmianowym.
5. Nadprodukcja - wszelka produkcja, która wyprzedza popyt.
6. Procesy - zbędne działania produkcyjne, wynikające ze złego oprzyrządowania lub wadliwego zaprojektowania produkcji i logistyki.
7. Usterki - wszelki wysiłek włożony w wyszukiwanie i usuwanie wad.
W skład zagadnień optymalizacyjnych z grupy mura wchodzą aspekty projektowania stanowisk pracy, układu procesów, przebiegu i harmonogramowania pracy, eliminacja wąskich gardeł, planowanie zaangażowania zasobów dla
realizacji zadań produkcyjnych. Muri i muda są monitorowane i stanowią punkt
wyjścia dla projektowania kolejnego procesu produkcyjnego. Stanowią równocześnie sprzężenie zwrotne dla muri (organizowanie optymalnych przepływów
pracy). W ten sposób powstaje procedura optymalizacyjna produkcji, stanowiąca dobrą praktykę zarządzania:
1. Skatalogować jak najwięcej dostrzeżonych problemów jakościowych, a także
przestoje i inne problemy nieciągłości oraz niestabilności produkcji, wykonując audyt wewnętrzny dla kierownictwa.
Shingo, S., “A Study of the Toyota Production System from an Industrial Engineering Viewpoint”, Japan
Management Association, Tokyo, 1984.
227
157
2. Uczynić przepływy części i materiałów w systemie produkcyjnym lub procesie na tyle ciągłymi, na ile jest to możliwe, używając komórek produkcyjnych (workcells) umieszczanych w lokalizacjach rynku, gdzie to jest konieczne i unikać zmian w cyklu pracy operatorów procesów.
3. Przedstawić standardy pracy i ustabilizować tempo pracy różnych komórek
w całym systemie (synchronizacja w czasie).
4. Rozpocząć sterowanie ciągłością pracy w systemie, mając na uwadze planowanie produkcji i jej dopasowanie do codziennych zleceń z kart kanban.
5. Nawet w wyniku redukcji wielkości partii produkcyjnej i chwilowej utraty
płynności, zmienić częstotliwość dostaw wewnętrznych i zewnętrznych; jeśli
jest to możliwe odpowiednio do poziomie popytu wewnętrznego.
6. Popraw ujawnione problemy jakościowe za pomocą dostępnych narzędzi.
7. Usuń niektórych pracowników (lub zwiększ ich ilość) i przejdź do realizacji
procedury, określonej w punktach 1 - 7 ponownie, monitorując zmiany rezultatu.
Przedstawiona procedura lean management jest przykładem procesu autoadaptatywnej optymalizacji ciągłej. Skutki jej stosowania przez Toyotę doprowadziły do spektakularnej poprawy wydajności i redukcji kosztów (rys. 3.2). Stanowi to podstawę dzisiejszych metod produkcji w większości liczących się korporacji globalnych. Lean management stał się jednym ze standardów światowych
teorii zarządzania.
SixSigma
SixSigma jest najbardziej zaawansowanym systemem zarządzania procesami, ukierunkowanym na osiąganie wysokiej jakości wyrobów i powtarzalności produkcji w czasie. Dążeniem zarządzających jest osiągnięcie na tyle doskonałego układu procesów, w którym liczba błędów produktów finalnych nie
przekracza kilku przypadków na milion. Metodę wprowadzono w Motoroli w
latach osiemdziesiątych. W 1995 J. Welch uczynił z 6σ fundamentalną strategię
biznesową w korporacji General Electric228. Wprawdzie lean management i six
sigma mogą się wzajemnie uzupełniać, to jednak obie metody różnią się znacząco
co do koncepcji229.
Six sigma wywodzi się ze statystycznego podejścia do kwestii pomiaru błędów i oznacza, że maksymalne odchylenie parametrów wyjściowego produktu
w procesie, nie może przekraczać wartości sześciu odchyleń standardowych. Jest
to doświadczalnie ustalone kryterium poprawności przebiegu dowolnego pro-
Morgan J., Brenig-Jones M., “Lean Six Sigma For Dummies”, 3rd Ed., John Wiley & Sons, Hoboken,
2015.
229
Lean Center, „Czym się różni Lean i Six Sigma?”, http://www.leancenter.pl/bazawiedzy/lean-i-sixsigma-roznice
228
158
cesu, w którym błędy są zjawiskiem stochastycznym i podlegają rozkładowi normalnemu. Poza przedziałem sześciu odchyleń standardowych może znaleźć się
maksymalnie 3,4 wystąpienia na milion przypadków. Redukcja defektów w procesie do tak minimalnego poziomu oznacza niemal absolutną powtarzalność i
pośrednio gwarantuje wysoką stabilność systemu produkcyjnego.
Doktryna Six Sigma stwierdza co następuje:
 ciągłe wysiłki na rzecz stabilnych i przewidywalnych wyników procesów
(tj. zmniejszenie zmienności procesów) mają kluczowe znaczenie dla sukcesu całej firmy;
 procesy produkcyjne i biznesowe mają cechy, które mogą być mierzone,
analizowane, kontrolowane i ulepszane.
 osiągnięcie trwałej poprawy jakości wymaga zaangażowania całej organizacji, a szczególnie kierownictwa najwyższego szczebla.
Funkcje zawarte Six Sigma oprócz inicjatywy poprawy jakości obejmują:
 czyste skupienie się na osiągnięciu wymiernych korzyści finansowych z
każdego projektu Six Sigma,
 zwiększony nacisk na silną rolę przywództwa w zarządzaniu i wsparcie
procesów,
 klarowne zobowiązanie do podejmowania decyzji na podstawie danych statystycznych i metod do sprawdzania, a nie założeń i domysłów.
Metodyka bazuje na koncepcji cyklu Deminga (TQM str. 140) i polega na realizacji projektów 6σ na dwa sposoby DMAIC albo DFSS230:
DMAIC231 stosowana jest w celu projektowania optymalizacji istniejących procesów i się z pięciu kroków „Z”.
1. Zdefiniować system produkcyjny, biorąc pod uwagę głos klienta, jego konkretne wymagania i cele projektu.
2. Zmierzyć kluczowe aspekty obecnego procesu, zebrać odpowiednie dane i
obliczyć produktywność procesu w bieżącym stanie.
3. Zanalizować dane w celu zbadania i zweryfikowania związków przyczynowo-skutkowych istniejącej sytuacji. Określić, jakie są relacje formalne w
procesie, upewniając się, że wszystkie istotne czynniki zostały wzięte pod
uwagę. Poszukać przyczyn zaistnienia defektów.
4. Zoptymalizować lub poprawić obecny proces w oparciu o analizę danych za
pomocą technik projektowania procesów, poka yoke, itp. Ustalić działania pilotażowe dla ustalenia wydajności zoptymalizowanego procesu.
5. Zapewnij ciągłą kontrolę stanu przyszłego procesu zapewniającą, że wszelkie odchylenia od celu będą skorygowane zanim spowodują one zaistnienie
230
231
Wikipedia „Six sigma”, https://en.wikipedia.org/wiki/Six_Sigma
DMAIC skrót od Define, Measure, Analyze, Improve, Control
159
wad. Wdrożyć metody ciągłej kontroli, takie jak: statystyczna kontrola wyników procesów, zespoły kontroli produkcji, wizualizację miejsc pracy oraz
stale monitorować ten proces. Procedury te powtarza się aż do uzyskania
pożądanego poziomu jakości.
DFSS – Design For Six Sigma, poświęcony tworzeniu nowych produktów lub projektowaniu nowych procesów.
1. Zdefiniuj cele projektu, które są zgodne z wymaganiami klienta i strategią
organizacji.
2. Zmierz i zidentyfikuj cechy, które mają krytyczne znaczenie dla zapewnienia
jakości.
3. Oszacuj możliwości produktów, wydajność procesu produkcji i ryzyko.
4. Zanalizuj i rozwijaj alternatywne projekty procesów i produktów.
5. Zaprojektuj lepszą alternatywę, najlepiej odpowiadającą zmierzonym cechom krytycznym, na podstawie analizy wykonanej w poprzednim kroku.
6. Zweryfikuj czy rozwijany projekt biegnie zgodnie z założeniami.
7. Stwórz pilotażowe realizacje praktyczne i przekaż projekt właścicielowi procesu.
Powyższe rozważania wskazują, że system SixSigma może prowadzić do
bardzo wydajnych procesów produkcyjnych wychodząc z innych założeń niż
model lean w wersji japońskiej. Niestety jego wdrożenie nie jest ani proste ani
pozbawione wad. Warto zauważyć, że wszelka standaryzacja procesów oraz zapewnienie wysokiej powtarzalności praktycznie uniemożliwia zaistnienie innowacyjności. Stanowi to jeden z fundamentalnych zarzutów dla tej metody optymalizacji w organizacji. Tym niemniej, wiele światowych korporacji stosuje z
sukcesem metodę 6σ odnosząc spektakularne sukcesy finansowe.
Standaryzacja procesowa
Metody zarządzania ukierunkowane na produktywność, jakość oraz standaryzację spinają systemy zapewnienia jakości i normalizacji. Do najbardziej
znanych należą: ISA-88, IEC 62264, B2MML, ISO 14001, ISO 900X, itp. oraz systemy kontroli procesów PLC i DCS. Wszystkie, wymienione metody są wykorzystywane w dzisiejszej praktyce zarządzania i ciągle rozwijane, pomimo że ich
początki datowane są na lata trzydzieste. Standaryzacja pozwala na globalizację
procesów produkcyjnych, kooperację i wykorzystanie globalnych łańcuchów
dostaw. Ponadto standaryzacja jest warunkiem kompatybilności systemów IT w
logistyce. Wszelkie kody towarowe produktów muszą być rozumiane w identyczny sposób w różnych krajach i przez różne systemy zarządzania magazynami oraz transportem, a języki wypowiedzi inżynierskiej muszą zostać sprowadzone z wieloznaczności mowy potocznej do jednoznacznych semiotycznie
określeń formalnych (np. schematy, ikony, diagramy, symbole, itp.). Wszelkie
160
systemy związane z zapewnieniem mierzalnych efektów muszą być standaryzowane i wymierne.
3.3.4 Kierunek optymalizacja funkcjonalna organizacji
Ten kierunek zarządzania rozwijał się od wczesnych lat dwudziestego stulecia obejmując ujęcia uniwersalistyczno-socjologiczne. Obejmuje on następujące
zagadnienia:
1. funkcjonalność zarządzania i struktury organizacji,
2. role menedżera i władzę w organizacji,
3. optymalizację struktur organizacji,
4. planowanie, kontrolę i pomiar stanu,
5. aspekty socjologiczne i przywództwo,
6. rolę pracy grupowej i budowania społeczności,
7. transformację do organizacji opartej na wiedzy,
8. wirtualizację i wykorzystanie technologii IT.
Jak widać z powyższego wyliczenia, kierunek optymalizacji organizacji jest
niezwykle ważny dla całej teorii zarządzania. Dotyczy on definiowania podstawowych funkcji, zakresu działań, przedmiotu zarządzania i pozwala wywodzić
modele zachowań organizacji, relacji pracownik-organizacja. Dotyczy to również tzw. „miękkich obszarów zarządzania”, zależnych od aspektów psychologicznych oraz wpływu niemierzalnych zjawisk społecznych na łańcuch wartości,
jak: przywództwo, samorefleksja, uczenie się, odkrywanie wiedzy. Finalnym
osiągnięciem kierunku optymalizacji organizacyjnej jest zarządzanie wiedzą
oraz kapitał intelektualny, jako cenne zasoby umożliwiające wirtualizację procesów biznesowych i ich globalizację.
Sprawność organizacyjna i humanizacja pracy
Problem ten został omówiony od strony teoretycznej w rozdziale 2.3. W tym
punkcie zostaną przedstawione działania mające miejsce na przestrzeni ponad
100 lat istnienia teorii zarządzania. Jak wiadomo w czasach, gdy zarządzanie naukowe święciło swoje tryumfy, potrzeby pracownika nie były brane pod uwagę
przez menedżerów. Liczyła się wyłącznie sprawność operacjonalna i wydajność
pracy.
Pierwszym, znanym przedsiębiorcą, który zwrócił uwagę na konieczność
uwzględnienie potrzeb człowieka w pracy był B. Rowntree, brytyjski przemysłowiec i socjolog, prowadzący firmę Rowntree & c.o. w okresie największych sukcesów tayloryzmu. Wprowadził on w praktyce następujące elementy relacji pracownik-organizacja w swojej fabryce: 8 godzinny dzień pracy (1896), plan emerytalny, 5 dniowy (44 godziny) tydzień pracy, rady pracownicze, poradnię psychologiczną, nagrody z zysku (1923). Zrealizował jako prekursor to, co dzisiaj
161
wydaje się być takie oczywiste, a jego sukcesy biznesowe w skutecznym konkurowaniu z Cadbury i Fry pokazały, że wybrana strategia rozwoju Rowntree&
c.o. była słuszna.
Kolejnym, ważnym krokiem w kwestiach socjalizacji pracy była wydana w
1923 r filozofia O. Sheldona232. Podstawowe przesłania tego dzieła to są trzy tezy,
odbiegająca znacząco od koncepcji zarządzania naukowego.
 Służba społeczeństwu to jest podstawowy cel i główna idea przemysłu.
 Przemysł to nie jest maszyna, którą można rozpatrywać w kontekście wydajności lecz złożona forma ludzkich relacji.
 Przewodzenie ludziom wymaga cierpliwości, odwagi i ponad wszystko
sympatii.
W kolejnych latach zaczęły się pojawiać rozwinięcia idei znalezienia odpowiednich relacji człowiek-praca, człowiek-stanowisko pracy, człowiek-organizacja. Wśród najważniejszych należy wymienić prace E. Mayo. Jego idee można
podsumować w trzech sentencjach.
 Celem zarządzania jest zharmonizowanie logiki wydajności z logiką uczuć.
 Bardzo istotnym czynnikiem dążenia do wydajności pracy jest przekształcenie zbiorowiska samotników w grupę społeczną.
 Wydajność pracy silnie uwarunkowana jest nieformalnymi powiązaniami
pracowników.
Było to wyraźne zwrócenie uwag na synergizm pracy grupowej oraz konieczność zajmowania się relacjami człowieka i organizacji, ponieważ ma to istotny
wpływ na efektywność i wydajność. Również w latach trzydziestych zwrócono
uwagę na rolę przywództwa, władzy i koordynacji w zarządzaniu i sterowanie
relacjami w grupie. M. Parker Follett potraktowała przedsiębiorstwo jako pewien system społeczny, na który składają się różnorodne relacje formalne i nieformalne oraz hierarchiczność ich struktury. Najważniejszą myślą tego nurtu
były stwierdzenia: „Ludzie winni być odpowiedzialni nie przed kimś, ale raczej za coś”,
oraz „Autorytet to władza formalna, wynikająca z wykonywania danej funkcji. Autorytet zatem przypisuje się nie osobie, a stanowisku”. Były to początki kształtowania się
koncepcji przywództwa w organizacji, pozostające w głębokiej relacji z nurtem
administracji, rozwijanym w tym czasie przez M. Webera i H. Fajola.
Ważnym rezultatem ponad 40 lat doświadczeń od czasów E. Mayo były
prace E. Mumford, która wprowadziła do koncepcji zarządzania systemy socjotechniczne233. Ideę tą można opisać zdaniem: „…jeśli rozpozna się interakcje między technologią a ludźmi i opracuje się systemy, które są zarówno technicznie
232
233
Sheldon O., „The Philosophy of Management”, Pitman&Sons, London, 1923
Mumford E., “Sociotechnical…”, op. cit.
162
efektywne, jak społecznie skuteczne, to pozwoli to na podniesienie poziomu zadowolenia z pracy”. E. Mumford sformułowała następujące tezy: zadowolenie z
pracy opiera się na następujących elementach:
 rozwoju wiedzy i umiejętności pracowników,
 dopasowaniu psychologicznym pracy,
 skuteczności pracy,
 wyzwaniach związanych z pracą,
 czynnikach etycznych.
W latach 80-tych trwał tryumfalny pochód japońskich metod zarządzania, a
bezwzględne metody produkcyjne eliminowały konkurencję z gry. Amerykanie
zastanawiali się, jak można przeciwstawić się ekspansji Japonii i ponownie przejąć palmę pierwszeństwa. Powstała wówczas koncepcja W. Ouchi - pracownika
„Z” i transformacji społecznej zmierzającej ku kategorii społeczeństwa „M” (tabela 6). Ouchi postawił dwie grupy tez.
I. W odniesieniu do miejsca pracy.
 W miejscu pracy powinno się stworzyć szansę do wykorzystania i rozwinięcia zdolności i talentów pracowników.
 Należy wspierać możliwości współdziałania i współpracy grupowej by wyeliminować indywidualny egocentryzm.
 Należy zapewnić dostęp do dóbr i usług zapewniających przyzwoity poziom egzystencji.
II W odniesieniu do pracownika:
 Pracownika traktować należy całościowo, jak człowieka zaangażowanego w
wiele dziedzin życia, nie zaś jako kolejne ogniwo łańcucha produkcji.
 Należy sprawiać, by praca była także przyjemnością, by dawała radość.
 Należy dawać pracownikowi poczucie znaczenia.
 Należy wzmacniać pozytywne zachowania pracowników.
 Powinno włączać się wszystkich ludzi do procesu zarządzania.
 Menedżer nie powinien tworzyć sztywnych struktur organizacji.
 Należy dbać o otwartą i szczerą komunikację.
W latach dziewięćdziesiątych zauważono, że poprawę efektywności funkcjonowania organizacji można osiągnąć wyłącznie na drodze zmian wynikających z
lepszego rozumienia procesów oraz powiązania z tym zasobów ludzkich. Tak
zrodziła się koncepcja reinżynieringu M.M. Hammer i J.A. Champy234.
Reinżyniering oznacza fundamentalne przemyślenie od nowa i radykalne
przeprojektowanie procesów w firmie, prowadzące do dramatycznej (przełomowej) poprawy osiąganych wyników. To przeprogramowanie procesów polegało
nie tylko na zmianie wydajności, ale przede wszystkim na relacjach człowiek-
234
Hammer M., Champy J., „Reengineering w przedsiębiorstwie”, Warszawa 1996, s. 16.
163
proces biznesowy. Ujęto to w formie manifestu reinżynieringu, który uwzględnia następujące elementy:
 zastąpienie komórek funkcjonalnych w firmie przez zespoły odpowiedzialne za konkretny proces biznesowy,
 zastępowanie prostych zadań przez pracę wielowymiarową,
 zmianę roli pracowników z wykonawców na kreatorów rozwiązań (partnerstwo w procesie tworzenia produktu),
 ograniczanie kontroli i zwiększanie autonomii stanowisk w firmie,
 wynagradzanie pracowników za wyniki, a nie za samą aktywność,
 zmianę roli przełożonych (z kontrolnej na koordynującą i inspirującą),
 zmianę struktur hierarchicznych (demokratyzacja procesów zarządzania),
 gromadzenie informacji w jednym, ogólnodostępnym banku danych.
Od tego momentu zaczęły rozwijać się organizacje wykorzystujące wiedzę,
zmianę i kapitał ludzki jako źródło sukcesu. Stały się one motorem napędowym
rozwoju nowoczesnych metod systemowych zarządzania oraz adaptatywnych
koncepcji dostosowania się organizacji do otoczenia. Znamienne stają się w tej
kwestii wypowiedzi B. Gates’a „Jeżeli nie wierzy się, że wszyscy pracownicy mogą
przyczyniać się do sukcesu firmy, cała technologia świata nie pomoże zwiększyć ich kompetencji” oraz „W erze cyfrowej, każdy pracownik musi być pracownikiem wiedzy”. To
są obserwacje, które zostały wykorzystane przez największych innowatorów
amerykańskich po roku 1990, do których należy zaliczyć: J. Welcha, S. Jobsa i S.
Wozniaka, W. Hewletta i D. Packarda, E. Muska, S. Zuckenberga, i wielu innych,
którzy pchnęli świat do przodu.
Sprawność administrowania organizacją
Wychodząc od koncepcji Taylora sprawności organizacji i zarządzania naukowego, już na początku XX wieku zauważono, że dla sprawnego funkcjonowania biznesu konieczne jest sprawne zarządzanie organizacją oraz administrowanie jego otoczeniem gospodarczym. Te przesłanki stanowiły fundament dla prac
M. Webera, który w latach dwudziestych przedstawił zasady doskonałej administracji w organizacji235. Idealna struktura powinna posiadać następujące cechy:
 spisany system reguł i standardów zachowań pracowników,
 czytelny system hierarchii i władzy,
 system selekcji i oceny pracowników,
 jasno sprecyzowany układ zadań i ról.
Weber zaproponował również reguły idealnej biurokracji w biznesie, które mają
następującą postać:
 władza ma prawo wymagać od ludzi odpowiedzialności za ich działania,
Weber M., “Wirtschaftsgeschichte. Abriß der universalen Sozial- und Wirtschaftsgeschichte”, Duncker
und Humblot, Leipzig, 1923,
235
164

pozycja w firmie powinna wynikać z kompetencji, a nie z kontaktów społecznych,
 obowiązki dla każdego stanowiska mają być wyraźnie określone tak, żeby
ludzie wiedzieli czego się od nich oczekuje,
 linie podziału władzy powinny być jasno określone tak, że pracownicy wiedzą kto komu podlega,
 zasady, standardy, procedury operacyjne i normy stanowią przewodnik
działalności firmy,
 konieczna jest rozdzielność własności środków produkcji od funkcji administrowania.
Jak łatwo zauważyć, powyższe reguły są aktualne do dnia dzisiejszego, a szczególnie ważnym aspektem jest rozdział własności środków produkcji od funkcji
administrowania. To definiuje pojęcie menedżera, jako najemnego pracownika,
który nie musi być właścicielem firmy aby pełnić funkcje zarządcze.
Koncepcje M. Webera rozwinął francuski inżynier górnictwa, H. Fayol. Jego
ogólna teoria administrowania biznesem jest często nazywana Fayolizmem236. H.
Fayol skupił uwagę na powinnościach menedżera i funkcjach zarządzania, proponując dla nich pięć kluczowych aspektów:
1. przewidywanie,
2. organizowanie,
3. dowodzenie,
4. koordynowanie,
5. kontrolowanie.
Wskazał kluczowe funkcje przedsiębiorstwa, które do dziś pozostają aktualne.
Są to funkcje:
 techniczne,
 handlowe,
 finansowe,
 ubezpieczeniowe,
 rachuby,
 administracyjne.
Wyodrębnił też funkcje kompetencyjne przeznaczając dla dyrektorów - funkcje
poznawcze, dla administracji - funkcje społeczne, a dla brygadzistów - funkcje
techniczne. Na podstawie powyższych ustaleń Fayol w logiczny sposób wydedukował znane powszechnie w teorii zarządzania 14 zasad.
1. Podział pracy - większa i lepsza produkcja dzięki specjalizacji czynności i rozgraniczeniu funkcji.
2. Autorytet - władza oparta na akceptacji przez tych, którzy tej władzy podlegają.
236
Witzel M., “Fifty key figures in management”,. Routledge, London, 2003
165
3. Dyscyplina - posłuszeństwo, pracowitość, lojalność (relacje pracownik
zwierzchnik organizacja),
4. Jedność rozkazodawstwa - każdy pracownik powinien mieć tylko jednego przełożonego,
5. Jednolitość kierownictwa – w każdym zespole powinien być jeden szef i jeden
plan realizowany,
6. Podporządkowanie interesu osobistego interesowi ogółu z zastrzeżeniem, że najlepiej godzić oba te interesy,
7. Wynagrodzenie – sprawiedliwe, nagradzające pracownika i motywujące go do
dalszej pracy,
8. Centralizacja dowodzenia organizacją lub procesem. Ta zasada dotyczy organizacji niebędących sieciowymi. W sieciach, których za czasów Fayola nie było,
zarządzanie rozproszone jest skuteczne.
9. Hierarchia – czytelna komunikacja przełożeni - podwładni.
10. Ład – właściwe miejsce dla każdej rzeczy i człowieka w organizacji.
11. Ludzkie traktowanie pracowników.
12. Stabilizacja personelu tak, aby pracownicy mogli osiągnąć biegłość w wykonywaniu zadań i utożsamiać się z firmą,
13. Inicjatywa – umożliwić podwładnym podejmowanie inicjatyw.
14. Harmonijne zgranie personelu - współpraca.
Zasady fayolizmu są na tyle uniwersalne, że dopiero w dzisiejszych czasach organizacji sieciowych, organizacji opartych na wiedzy oraz korporacjonizmu muszą być one zmodyfikowane. Ale w organizacjach standardowych, działających
na rynkach lokalnych, można posługiwać się nimi bez zastrzeżeń i nie za wiele
można do nich dodać.
Koncepcje behawioralne
Z założenia i przekonań, że to człowiek stanowi najbardziej istotny element
organizacji, wynikają aspekty psychologiczne w jej funkcjonowaniu, złożoność
relacji i zachowania inteligentne. To powoduje, że ścisłe ujęcia ilościowe dotyczące problemów decyzyjnych, nie prowadzą do znaczących sukcesów objaśniających zachowania pracowników i grup. Ma to swoje odzwierciedlenie w teorii
zarządzania. W praktyce, im niższy jest poziom zarządzania dotyczący problemu (np. proces kanoniczny systemu produkcji), tym bardziej prawidłowe i
racjonalne są wnioskowania oparte na pomiarze. Im dłuższy jest horyzont czasowy skutków podejmowanej decyzji i im jest ona bardziej globalna (np. strategiczna, dotycząca korporacji), tym bardziej rozmyty staje się kontekst i tym gorzej ścisłe ujęcie ilościowe przybliżają rzeczywistość. Wynika to z ograniczonej
ilości zmiennych, za pomocą których próbujemy opisać złożone zagadnienie.
Możemy być zmuszeni równolegle przetwarzać kilka równań, w których pojawia się konieczność uwzględnienia stanów przeszłych, wpływających na stan
166
teraźniejszy i przyszły. W końcu słabość modeli prognostycznych związana jest
z nieuwzględnieniem pewnych zmiennych oraz indeterminizmem zjawisk rzeczywistych. W organizacjach realizowane są różne cele różnych interesariuszy.
Często występują związane z tym konflikty i konieczność renegocjacji strategii
oraz celów. To wszystko wpływa n złożoność problematyki, o czym traktuje rozdział 3.1.
R.M. Cyert i J.G. March w roku 1963 przedstawili behawioralną teorię
firmy237, a ich książka stanowi jedną z ważniejszych pozycji w literaturze nauk o
zarządzaniu. W koncepcji neoklasycznej ekonomii zakładano, że organizacje
operują pełną i doskonałą informacją. Ponadto przyjmowano za aksjomat, że celem bazowym jest maksymalizacja zysku i produktywność. Mało uwagi przywiązywano do problemów alokacji zasobów w procesach oraz relacji wewnątrzorganizacyjnych. To powodowało niedopasowanie licznych obserwacji rynku
do istniejących wówczas teorii ekonomicznych.
W koncepcji behawioralnej zakłada się, że organizacja oferując dobra, oddziaływuje na rynek za pomocą cen. Po czym próbuje przewidywać, jak odpowie on na zaproponowane ceny, a następnie w zależności od uzyskanych danych, dopasowuje swoje zasoby oraz ich alokację. A zatem fundamentem działania są sprzężenia zwrotne. Teoria behawioralna dotyczy przede wszystkim dużych organizacji, gdzie istnieje rozdział własności oraz zarządu, a ponadto
można ustanowić zmienną i elastyczną strukturę oraz łańcuch dostaw. Każda
duża firma uczestniczy w sieci albo układzie koalicyjnym, w którym musi w ciągły sposób dostosowywać się do zmienności otoczenia. W tym układzie współdziałania, organizacja musi ustalać cele oraz podejmować decyzje. Stąd pojawiają się różnorodne konflikty, które wpływają na zmienność zachowań.
Cyert i March ustalili pięć zasadniczych celów, które organizacje realizują.
Są to: produkcja, zapasy, pozycja rynkowa, sprzedaż i zysk. W zasadzie nie różni
się to znacząco od koncepcji zarządzania ukierunkowanych na optymalność.
Różnica polega na ustalaniu celów. Zgodnie z koncepcją H. Simona ograniczonej
racjonalności, organizacja, wobec złożoności problemów i występującej niepewności ustala cele na poziomie satysfakcjonującym, a nie maksymalnym. Cele są
wynikiem negocjacji w grupie (łańcuchu dostaw), w której dana organizacja
uczestniczy. Ustala je kierownictwo. Realizacja celów następuje na dwóch poziomach zarządzania: zarządu i kierownictwa operacyjnego. Propozycje różnych
działów są analizowane i poddawane ocenie według dwóch kryteriów: dostępności koniecznych zasobów oraz czy dana realizacja poprawi „zdrowie” organizacji.
Schemat działania organizacji w modelu behawioralnym można przedstawić następująco:
237
Cyert R.M., March J.G., „A Behavioral Theory of the Firm”, Prentice-Hall, Englewood Cliffs, NJ 1963.
167
 znajdź motywujące problemy,
 znajdź uogólniające problemy,
 utwórz zespoły zadaniowe,
 twórz mechanizm nadzoru,
 utwórz mechanizm zmian planu,
 zwiększaj obszar aktywności,
 utwórz więzi osobiste,
 utwórz nowe formy nauczania,
 utwórz nowa strukturę organizacyjną,
 wykorzystaj nowoczesną technikę do nauczania.
Ważnym elementem teorii behawioralnej były prace R. M.Kanter238, tzw. model
PAL, dotyczący alokacji zasobów i realizacji zmiany w korporacji. Stanowią go
trzy elementy:
 Pool (łączenie zasobów w synergicznie działające systemy),
 Ally (nawiązywanie sojuszy z innymi organizacjami),
 Link (formowanie wewnętrznych relacji formalnych i nieformalnych).
Model PAL stanowi doskonałe podsumowanie idei teorii behawioralnej organizacji. Kanter zaproponowała również kluczowe elementy realizacji tego modelu.
Są to:
 inwestycje długoterminowe
 ważność kontaktów między uczestnikami aliansów
 niezależność uczestników aliansu
 integracja procesów komunikacji w aliansie
 informacja o kierunkach zmian członków aliansu
 instytucjonalizacja aliansu
Teoria behawioralna umożliwia wejście w strukturę organizacji i jej relacje.
Nie pozwala jednak na porównania z otoczeniem Jest zbyt skomplikowana, żeby
można było ją powszechnie stosować, ale wnosi znaczący wkład w poznanie
działania organizacji i przyczyny jej powstania. Ujęcie behawioralne wykorzystuje koncepcję X, Y McGregora (tabela 6), ustalającą relacje interesariuszy, jakimi są pracownicy organizacji, z organizacją. Posługuje się teoriami osiągnięć
McClellanda, motywacji C.Alderfera, oczekiwań V.Vrooma i celów E. Locke’a
(rozdział 0). To powoduje, że wielu badaczy odwołuje się do teorii behawioralnej. Jedną z liczących się firm, które działają według zasad behawioralnych jest
koncern VW-Audi AG.
Kanter R. M., “The change masters: innovation and entrepreneurship in the American corporation”, Simon and Schuster, New York, (1984)
238
168
3.3.5 Ujęcia systemowe
W rozdziałach 1.5.1; 2.3.2 oraz 3.1 przedstawiłem zastosowanie ujęć systemowych w różnych aspektach teorii zarządzania. Najważniejszym zagadnieniem metodologicznym jest prawidłowe wykorzystanie ogólnej teorii systemów239240. Z faktu uznania czegoś za system wynikają określone własności takich
obiektów, jak również sposoby ich bytowania w ekosystemie biznesu241. Ujęcia
systemowe pozwalają na uogólnienia objaśniające określone zachowania, a nie
tylko deskryptywne. Są jednak zbyt ogólne, żeby z ich pomocą budować modele
ilościowe lub ścisłe prognozy. W ciągu całej historii zarządzania ujęcia systemowe dostarczyły kilka szczególnie ważnych podteorii, z których na szczególną
uwagę zasługują: ujęcie behawioralne, koncepcje adaptatywne (np. teoria kontyngencji), systemy samoorganizujące się i samorefleksyjne, zarządzanie wiedzą
i informacją oraz ujęcie zasobowe242.
Pierwszym badaczem, który zauważył konieczność rozpatrywania organizacji jako system był Aleksander Bogdanow (jeszcze na długo przed L. von Bertalanffy i N. Wienerem). W swojej pracy z 1922 r zaproponował, że:
 organizacja winna być rozpatrywana jako system,
 wszystkie systemy rządzą się tymi samymi prawami,
 wszystkie systemy mogą być określone poprzez ich strukturę,
 system to układ relacji między jego elementami,
 cybernetyka to nauka o działaniu organizacji,
 celem działania systemu winna być jego sprawność.
Bogdanow stworzył pojęcie „tektologia” jako nauka o organizacji. Stanowiła ona
przyczynek do prakseologii. Głównymi jej założeniami były poniżej przestawione sformułowania.
 Podstawowym systemem organizacyjnym jest kompleks, będący układem
niezależnych i autonomicznych części, stanowiących sumę synergiczną.
 Zadaniem kompleksu jest pozostawanie w zgodzie z jego otoczeniem i ciągłe adaptowanie się do niego.
 Stabilny kompleks, to jest kompleks zdolny do przetrwania w swoim otoczeniu.
 Podstawową cechą kompleksu jest jego celowość.
 Pomiędzy celami i strukturami występuje relacja następstwa.
 Narzędziami kompleksu są: język, schematy organizacyjne oraz normy.
Gospodarek T., “Modelowanie…”, op. cit, str. 107.
Boulding K.E., „General Systems Theory. The Skeleton of Science”, Management Science, 2(3), (1956),
197-208.
241
Bertalanffy L. von, “General System Theory. Foundations, Development, Applications”. New York:
Braziller, 1968.; („Ogólna teoria systemów. Podstawy, rozwój, zastosowania”. Warszawa: PWN 1984).
242
Gospodarek T., „Aspekty…”, op. cit. str. 284-300.
239
240
169
W latach pięćdziesiątych i sześćdziesiątych ujęcie systemowe wiązane było
głównie z koncepcjami behawioralnymi. W roku 1965 H. Leavitt sformułował model organizacji, który zwany jest "diamentem Leavitta". Zgodnie z tym
modelem organizacja jest złożonym i uporządkowanym systemem zbudowanym z czterech składowych: zadań, techniki, struktury i ludzi. Leavitt zauważył,
że wszystkie elementy systemu są ze sobą powiązane relacjami i oddziaływują
między sobą (każdy z każdym). Zmiana jednego z elementów systemu prowadzi
do zmiany pozostałych trzech, co unaocznia działanie reguła przekory i sprzężenia zwrotnego. Konsekwencją takiego rozumienia organizacji jest konieczność
uwzględnienia wpływu oddziaływania planowanej zmiany na każdy z tych
czterech elementów niezależnie.
Ponieważ struktura organizacji może tworzyć układy grupowe o topologii
hierarchicznej lub bardziej spłaszczonej (gwieździste). Leavitt stwierdził, że
grupy hierarchiczne o strukturach gwiazdy są skuteczniejsze w działaniu, a równocześnie bardziej podatne na kontrolę. Natomiast najbardziej kreatywne są
grupy płaskie, o strukturze mesh (każdy z każdym). Praktyka zarządzania wskazuje, że nadmierne spłaszczenie organizacji może doprowadzić do utraty kontroli i utrudnienie funkcjonowania zintegrowanych systemów informacyj-nych.
Ujęcie zasobowe
Traktując organizację jako uporządkowany zbiór zasobów możemy wyprowadzić metodologię zarządzania, odnoszącą się nie tylko do teraźniejszości, ale
również do przyszłości. Stąd też w większości przypadków ujęcie zasobowe
przypisywane jest do metodologii zarządzania strategicznego, jako jedna ze
„szkół strategii”243. Jednak ujęcie zasobowe spełnia kryteria czegoś znacznie więcej niż przykład metodologiczny – można je uznać za samodzielną podteorię teorii zarządzania. Jak pisał P. Drucker „Niektórzy postmoderniści uważają, że sam kapitał ludzki i wiedza mogą przenosić góry. Ale to nie wiedza i idee, a maszyny budowlane
zmieniają fizycznie rzeczywistość, a ludzie poprzez pomysły jedynie wskazują, jakich zasobów użyć i gdzie”. Przekłada się to na logiczną konsekwencję dla metodologii
zarządzania, wyrażonej kolejną myślą „Pierwszą powinnością i nieustającym obowiązkiem menedżera przedsiębiorstwa jest dążenie do najlepszych, możliwych do osiągnięcia wyników ekonomicznych przy wykorzystaniu aktualnie zaangażowanych i dostępnych zasobów”. A zatem odnosząc się do zbioru zasobów w sposób holistyczny, odnosimy się do pewnego definiowalnego stanu (ilość, wartość, parametry użyteczności, parametry funkcjonalności w procesie), który pośrednio
określa stan systemu generującego wartość (rozdział 2.2.2, w kontekście 3.1.2).
Ujęcie to pozwala traktować organizację jako „szarą skrzynkę”, która co do
243
Obłój K., „Strategia organizacji”, wyd. III, PWE, Warszawa, 2014.
170
struktury nie musi być dokładnie znana (rządzi się swoimi wewnętrznymi relacjami), natomiast posiada dobrze zdefiniowany system zasobów, któremu postawiono za zadanie realizację procesów zdefiniowanych w ramach łańcucha
wartości. Ponieważ cele można skwantyfikować, stąd można określić wyjściowy
stan zasobów i skutki z tego wynikające.
Jest to bardzo wygodne ujęcie, abstrahujące od skomplikowanych relacji
człowiek - organizacja (częściowa reifikacja) w analizach funkcjonowania operacyjnego organizacji. Umożliwia ono definiowanie modeli ilościowych związanych z produktywnością, efektywnością i funkcjonalnością organizacji, określając w wyniku stany optymalne alokacji zasobów oraz pomiar. Może wykorzystywać sprzężenia zwrotne w procesach autoadaptacji struktury zasobowej. W
końcu pozwala zdefiniować stany przyszłe, do których zarząd powinien zmierzać. Jest to wykorzystywane w ujęciach zasobowych zarządzania strategicznego przy budowaniu przewagi konkurencyjnej. Celem samym w sobie modelu
zasobowego jest stworzenia systemu zasobów klasy VRIN używając metody
VRIO (rozdział 2.2).
Systemy socjotechniczne (STS)
Jednym z aktualnych osiągnięć systemowego ujęcia w teorii i praktyce zarządzania są systemy socjotechniczne. Koncepcja wprowadzona przez E. Trista,
K. Bamfortha i F. Emery na podstawie obserwacji pracy w kopalniach angielskich w latach pięćdziesiątych.
171
Rys. 3.6 Idea integracji w systemy socjotechniczne
Teoria STS wprowadza aspekty społeczne oraz zachowań ludzkich do technicznych aspektów budowy organizacji i procesów organizacyjnych. Skupia się na
procedurach i wiedzy z tym związanej. Dąży do optymalizacji równoległej w
zakresie wydajności i jakości pracy, jak i w życiu ludzi244. Głównymi zagadnieniami systemów socjotechnicznych są:
 analiza pracy,
 projektowanie pracy,
 doskonalenie pracy,
 wzbogacanie pracy,
 powiększanie pracy,
 rotacja pracy,
 motywacja.
W rezultacie wykorzystanie systemów STS prowadzi do humanizacji pracy przy
równoczesnej możliwości wykorzystania japońskich koncepcji zarządzania, opisanych w rozdziale 3.3.2.
Ujęcie prakseologiczne
Mumford E., “Sociotechnical Systems Design: Evolving Theory and Practice”, Manchester Business
School, 1985.
244
172
Jednym z nurtów optymalizacji systemowej jest minimalizacja nakładów
oraz wysiłku na uzyskanie określonego celu. Najbardziej odpowiadają tej koncepcji zasady prakseologii (rys. 1.4). Koncepcja rozwinięta przez L. von Misesa
oraz T. Kotarbińskiego została w sposób doskonały wykorzystana przez japońskie systemy produkcyjne (rozdział 3.3.3). Dotyczy ona wszelkich modyfikacji w
obrębie łańcucha wartości. Ujęcie to stanowi najbardziej racjonalne podejście do
kwestii zarządzania, kierując sią zdrowym rozsądkiem, oszczędnością oraz logiką działań. Bardzo dobrze idee prakseologii zostały przedstawione w książce
„Traktat o dobrej robocie” T. Kotarbińskiego245.
3.3.6 Kierunek strategiczny
Jednym z fundamentalnych zagadnień stawianych przed zarządzaniem jest
prognozowanie. Nie trzeba nikogo przekonywać, że większość kwestii zarządzania dotyczy przyszłości i odpowiedzi na pytanie, jak osiągnąć zamierzone
cele. To jest właśnie próba wypełnienia luki wiedzy pomiędzy tym jak jest, a jak
być powinno. Na tym oparte jest zarządzanie strategiczne. Z założenia koniecznym jest ustalenie stanu wyjściowego i wyobrażenie sobie jak ma się on zmienić
wskutek wdrożonych działań. Stąd też kierunek strategiczny zawsze powiązany
jest ze zmianą w organizacji (rozdział 4.2). Decyzje strategiczne są oparte na intuicyjnej ocenie oddziaływania organizacji ze środowiskiem biznesowym i stanowią odpowiedź na pytania dotyczące sposobu konkurowania na rynku, sensu
działania oraz trwania w czasie. Najważniejsze pytania kierowane ku zarządzaniu strategicznemu przedstawione są poniżej.
 Co jest wartością organizacji?
 Kto jest klientem docelowym dla oferowanych produktów i usług?
 Gdzie są klienci i w jaki sposób dokonują zakupów?
 Co jest uważane za "wartość" dla klienta?
 Które interesy, produkty lub usługi powinny być włączone lub wyłączone
z portfela organizacji?
 Kim są interesariuszy organizacji i jakie relacje powinny zostać zachowane,
a jakie należy zmienić?
 Co odróżnia organizację od jej konkurentów w oczach klientów i innych zainteresowanych stron?
 Jakie umiejętności i zasoby należy rozwijać w organizacji?
 Jakie są najważniejsze szanse i zagrożenia dla organizacji?
 Jak organizacja może wzrosnąć?
 Jak firma może generować większą wartość dla inwestorów?
 Jak osiągnąć optymalność łańcucha wartości?
245
Kotarbiński T., “Traktat …”, op. cit.
173
Jak widać są to bardzo poważne i złożone kwestie, wymagające znacznego zasobu wiedzy i doświadczenia w jej stosowaniu. A to oznacza, że zarządzanie
strategiczne musiało stworzyć metodologię i dobre praktyki, o których należy
wiedzieć.
Zarządzanie strategiczne w układzie liniowym
Pierwsze teorie opisowe zarządzania strategicznego pojawiły się w latach
pięćdziesiątych, kiedy to P. Selznick przedstawił koncepcję analizy SWOT246. Kolejne odsłony koncepcji związane są z T. Levittem (autorem terminu „globalizacja”), który stwierdził, że:
 zarządzanie strategiczne jest odpowiedzią na krótkowzroczność zarządzania marketingowego, opartego na cechach produktu;
 rynek stanowi obszar zaspokajania potrzeb klientów, a nie obszar wprowadzania produktu;
 celem organizacji jest stworzenie swojego klienta i utrzymanie go w walce
rynkowej.
Syntezą powyższych stwierdzeń jest sentencja: „Jeśli nie myślisz o kliencie, to znaczy, że wcale nie myślisz”.
Na początku lat sześćdziesiątych pojawiła się dyskusja nad funkcjonowaniem zasady „niewidzialnej ręki rynku”. A. duPont Chandler Jr., w swoich pracach podkreślił związki między strategią i strukturą firmy oraz doniosłość roli
strategii w działalności organizacji, definiując dźwignie strategiczne przedsiębiorstwa związane z efektem skali oraz zasięgiem działania247. Uważał, że aktywne działania zarządu firmy (widzialna ręka) są bardziej skuteczne w realizowaniu celu firmy, jakim jest dostarczanie produktu klientom, niż ”niewidzialna
ręka” rynku A. Smitha248. Według Chandlera „strategię stanowi zbiór długoterminowych celów i zamierzeń odnośnie kierunków dalszej działalności i zakresów alokacji
zasobów”.
W tym samym czasie Igor Ansoff zaproponował istotne narzędzie analityczne dla zarządzania strategicznego, nazwane macierzą Ansoffa rys. 3.7. Definiuje się cztery strategie podstawowe i przedstawia je w formie elementów macierzy 2x2 w układzie produkt – rynek, gdzie wiersze tworzą rodzaje produktów, a kolumny, typy rynków. Te elementy to:
 penetracja rynku związana ze wzrostem udziału organizacji w rynku;
 rozwój rynku, związany z rozszerzeniem konkurencyjności i oferty,
246
Selznick P. "Foundations of the Theory of Organization". American Sociological Review, vol. 13, No 1,
(1948), pp. 25–35
247
Chandler, A. D. Jr., ” Chandler, A.D. Jr., “Strategy and Structure: Chapters in the History of the American
Industrial Enterprise”, MIT Press, Cambridge, 1962.
248
Chandler A. D. Jr., “The Visible Hand. The Managerial Revolution in American business”, Belknap Press
of Harvard University Press, Cambridge, 1977.
174


rozwój produktu, związany z udoskonalaniem funkcji produktu, rozszerzeniami linii produktowej na tym samym rynku ,
dywersyfikacja związana z nowymi produktami na nowych rynkach,
Rys. 3.7 Macierz Ansoffa
Model wyboru zachowania strategicznego jest określony przez następujące wymiary:

zachowanie
budżetowe,
czyli takie, w którego ramach nie
następują zmiany strategiczne,

strategiczną adaptację, która
jest zgodna z poprzednimi zmianami strategicznymi w kierunku
„organizacji służącej otoczeniu”,

strategiczną nieciągłość odrzucającą dawniejsze doświadczenie.
W latach siedemdziesiątych czołowym przedstawicielem nurtu strategicznego o liniowej charakterystyce był B. Henderson. Dostrzegł znaczenie kultury
organizacyjnej dla sukcesu działania firm. Zwrócił uwagę na fakt, że alokacja
zasobów przedsiębiorstwa powinna być zgodna z charakterystyką struktury
jego portfela, udziałów w rynku i siły rynkowej w poszczególnych segmentach
rynku249. Założył firmę konsultingową Boston Consulting Group, która opracowała analizę strategiczną optymalnej struktury portfela BCG ( rozdział 6.5).
Innymi, ważnymi kwestiami, wprowadzonymi przez Hendersona do zarządzania, była krzywa cenowa oraz krzywa doświadczenia. Krzywa cenowa wiąże
się z następującym sformułowaniem: „lider rynku musi obniżać ceny proporcjonalnie do obniżania się kosztów jednostkowych, aby utrzymać swój poziom udziału w
rynku”. Z kolei krzywa doświadczenia wynika z eksperymentalnej formuły: Cn =
C1∙n-a, którą należy rozumieć w ten sposób, że cena na jednostkę maleje wykładniczo wraz z ilością produkcji. Oryginalny cytat z Hendersona brzmi: „Koszty w
sposób charakterystyczny obniżają się o około 20-30% za każdym razem, gdy podwaja się
skumulowane doświadczenie”. To oznacza również, że wraz z narastaniem inflacji,
koszty wytwarzania powinny maleć.
249
Henderson B., “The Logic of Business Strategy”, Ballinger Publishing Company, Cambridge, MA1984
175
Rys. 3.8 Krzywa doświadczenia B. Hendersona
Z obserwacji prowadzonych w ramach BCG powstała reguła 3&4 charakterystyki rynku, która brzmi następująco: „Stabilny rynek konkurencyjny nigdy nie
ma więcej niż trzech znaczących konkurentów, z których największy ma nie więcej niż
cztery razy większy udział w rynku niż ten najmniejszy”250. Reguła ta nie jest wprawdzie ścisła, ale w kilku przypadkach dokładnie się sprawdza.
Właściwe ukonstytuowanie się zarządzania strategicznego
W latach osiemdziesiątych nastąpił intensywny rozwój nurtu strategicznego
w zarządzaniu, głównie za sprawą takich badaczy, jak: H. Mintzberg (koncepcje
planowania strategicznego)251, D. Abell (definicja misji str. 87) , M. Porter (koncepcja łańcucha wartości i metoda pięciu sił, str. 86) , K. Ohmae (koncepcja struk-
Henderson B., „The Rule of Three and Four”, (1976), https://www.bcgperspectives.com/content/Classics/strategy_the_rule_of_three_and_four/
251
Mintzberg H.,”The Rise and Fall of Strategic Planning”, Free Press, New York, (1994).
250
176
tury strategii Toyoty) oraz E. Chaffee (podział i charakterystyka strategii na liniową, adaptacyjną i interpretacyjną)252, R. Kaplana i D. Nortona (zrównoważona karta wyników)253,254. Do powyższego grona należy dodać przedstawicieli
nurtu zasobowego: B. Wernerfelta255, J. Barneya256, G. Hamela i C. Prahalada257.
W tym czasie powstały najbardziej charakterystyczne metody budowania strategii i posługiwania się strategicznym sprzężeniem zwrotnym w praktyce zarządzania.
Niestety, jak się to wkrótce okazało prognozowanie strategiczne nie pozwoliło na przewidzenie sytuacji kryzysowych w gospodarce, a zwłaszcza tej z roku
2008, co oznacza, że aktualnie zarządzanie strategiczne musi odbu-dowywać
swoją reputację. Jednak na podstawie obserwacji można wykazać, że ci, którzy
nie budują strategii i nie stawiają perspektywicznych celów w końcu zaczynają
realizować cele innych, albo przechodzą ku fazie schyłkowej swojej organizacji.
Właściwa konstytucja zarządzania strategicznego powstała z konieczności przejścia od modelu liniowego do modelu adaptatywnego, co w dużej mierze wiązało
się koncepcją kontyngencji struktury organizacji.
H. Mintzberg zauważył, że organizacja w ramach swojej działalności biznesowej musi pogodzić dwie sprzeczne tendencje: podziału pracy i sprawnej koordynacji zadań. Należy to uczynić przez maksymalną synchronizację i normalizację procesowo-zasobową na drodze:
 wzajemnego dostosowania,
 bezpośredniego nadzoru,
 standaryzację procesów pracy,
 standaryzację celów,
 standaryzację umiejętności,
 standaryzację norm.
Chaffee E.E., “Three Models of Strategy”, Academy of Management Rev., 10, No. 1, (1985), 89-98.
Kaplan R.S., Norton D.P., “The Balanced Scorecard: Measures That Drive Performance”, Harvard Business Review, Jan.–Feb. 1992.
254
Kaplan R.S., Norton D.P., „Wdrażanie strategii dla osiągnięcia przewagi konkurencyjnej”, Wyd. Profesjonalne PWN, Warszawa 2010.
255
Wernerfelt, B., “A resource-based view of the firm.” Strategic Management Journal, 5, (1984), 171-180.
256
Barney, J.B., “Firm resources and sustained competitive advantage.” Journal of Management, 19, (1991),
99-120.
257
Prahalad C. K., i inni, „The core…”, op. cit.
252
253
177
Zarządzanie strategią należy realizować według modelu 5P:
1. Plan – strategia jako prognoza i plan,
2. Ploy – strategia jako taktyka i działanie,
3. Pattern – strategia jako szablon działania,
4. Position – strategia jako pozycja firmy,
5. Perspective – strategia jako perspektywa.
Rys. 3.9 Metafora struktury organizacji wg H. Mintzberga
Powyższe uogólnienia umożliwiły Mintzbergowi przedstawienie metafory
struktury zarządzania, jak na rys. 3.9. Odpowiada ona realizacji strategii adaptatywnej, która wyłania się w zależności od zmian w otoczeniu i w zasadzie toruje drogę dla sformułowań teorii kontyngencji.
Budując skuteczną strategię dla firmy Toyota, opartą na optymalizacji i ciągłej adaptacji do zmiennych warunków otoczenia, K. Ohmae wprowadził do literatury światowej koncepcję trójkąta strategicznego (rys. 3.10). Zdefiniował on
możliwe kierunki działań organizacji w celu osiągnięcia racjonalnych celów strategicznych (w tym pozycji rynkowej). Wynikiem był trójpodział kierunków strategicznych:
 ukierunkowane na potrzeby klienta,
 ukierunkowane na efektywność organizacji,
 ukierunkowanie na konkurowanie na rynku.
Koncepcja ta podsumowuje większość rozważań różnych autorów strategii. Została w dodatku praktycznie sprawdzona w globalnym koncernie o bardzo wysokiej kulturze korporacyjnej oraz o wyjątkowych zdolnościach adaptatywnych.
178
Szczególne zaś sukcesy odniosła w budowaniu efektywności organizacji i jej procesów ściśle sprzężonych z oczekiwaniami rynku (rozdział 3.3.3).
Rys. 3.10 Trójkąt strategiczny wg. K. Ohmae
Opisując nurt strategiczny nie można pominąć prac P. Druckera, który jest
wybitnym przedstawicielem nurtu zasobowego, a którego wypowiedzi były
prezentowane wcześniej. Wprowadził on do literatury pojęcie korporacji oraz koncepcję zarządzania przez cele. Drucker wyróżnił siedem cech, charakteryzujących dobre zarządzanie. Zarządzanie:
 dotyczy przede wszystkim ludzi,
 jest głęboko osadzone w kulturze,
 wymaga prostych i zrozumiałych wartości, celów działania i zadań, jednoczących uczestników organizacji,
 powinno doprowadzić do tego, by organizacja była zdolna do uczenia się,
 wymaga komunikowania się,
 wymaga rozbudowanego systemu wskaźników,
 musi być jednoznacznie zorientowane na podstawowy i najważniejszy rezultat, jakim jest zadowolony klient.
Powyższe zasady wydają się być dość oczywiste, a jednak patrząc na działalność
różnych organizacji, zwłaszcza tych, gdzie państwo ma cokolwiek do powiedzenia, nasuwa się pytanie o racjonalność oraz brak wiedzy.
Szkoły strategii
Lata dziewięćdziesiąte umożliwiły skonkretyzowanie metodologii i praktyk
(niekoniecznie dobrych) zarządzania strategicznego. Ustalono szereg ważnych
obserwacji i faktów. Należy przede wszystkim wymienić poniższe.
179


Nie istnieje jedyna, najlepsza strategia dla dowolnej organizacji.
Nie ma sensu tworzyć strategii dla niektórych podmiotów gospodarczych
(do strategii trzeba dojrzeć zarówno rozmiarem jak i poziomem kultury).
 Istnieje szereg dylematów strategicznych, które nie mają rozwiązania na poziomie dzisiejszej wiedzy.
 Zmienność rynku nakazuje wysoki poziom zachowań adaptatywnych.
 Globalizacja zmienia dostępność do zasobów, co wymaga prognoz rynkowych o wysokiej wiarygodności.
 Obserwuje się skracanie horyzontu czasowego strategii i stąd silny wpływ
scenariuszy na kształt projektów zmiany.
 Przepływ informacji wymusza nowe technologie komunikacji pomiędzy organizacją a rynkiem, zmieniając drastycznie istniejące strategie taktyczne
(sprzedaży, innowacyjności, bezpieczeństwa).
W książce „Strategia organizacji”258, K. Obłój wyróżnił sześć metodologii nazwanych „szkołami strategii”. Są to:
1. szkoła planistyczna,
2. szkoła ewolucyjna,
3. szkoła pozycyjna,
4. szkoła zasobów i kompetencji,
5. szkoła prostych reguł,
6. szkoła opcji realnych.
Każda z nich nadaje się do zastosowania w określonym przypadku i każda
z nich jest wspierana sukcesem konkretnych firm. Ta systematyka w połączeniu
z koncepcjami D. Abella, K. Ohmae oraz wynikami analiz PEST, SWOT pozwala
wybrać najbardziej odpowiedni model tworzenia strategii organizacji, a przynajmniej odrzucić te, znacząco odstające od założeń biznesowych i zakładanych
celów.
258
Obłój K., „Strategia …”, op. cit. str. 61-196
180
Tabela 7 Charakterystyka szkół strategii [na podst. 258 ]
Nazwa
Planistyczna
Ewolucyjna
Założenia
Organizacje dzięki budowaniu planów strategicznych mogą i powinny
swoją przyszłość kształtować w uporządkowany sposób.
W tworzeniu strategii najbardziej liczy się perspektywa prezesa lub zarządu organizacji.
Budowanie strategii jest upo-rządkowanym i sformalizowanym procesem.
Efektem planowania jest gotowa strategia, ustalająca co, kto i jak ma robić.
Proces budowania strategii jest uwarunkowany kulturą organizacji, polityką głównych koalicji interesariuszy, historią, oddziaływaniem otoczenia i dlatego nie może być w pełni
racjonalnym.
Strategia organizacji jest wypadkową
założeń, działań strategicznych i samorzutnie powstających sytuacji korygujących (strategie wyłaniające
się).
Strategie zamierzone i samorzutnie
wyłaniające się tworzą z czasem
Sukcesy
Powtarzalność pro-cesów, standaryzacja, czytelne raportowanie i
kwantyfikacja, przewidywalność rezultatu i
produktu, szybkość i
precyzja monitorowania.
Opisuje studia przypadków w sposób zadowalający. Uwzględnia proces autoadaptacji. Uzupełnia szkołę
planistyczną, dając odpowiedź jak wprowadzić zmiany.
Wady
Przypadki
Twórcy
Ograniczenia różnorodności, centralizacja planowania, ograniczenie innowacyjności. Sztuczne rozdzielenie planistów strategii od jej wykonawców.
Brak szybkiej adaptacji do
zmienności otoczenia.
General
Electric,
Nissan Polska, KGHM
H.I. Ansoff,
R.L. Ackoff
Ma charakter opisowy,
nie pozwalający na generalizacje.
Podstawową
metodą jest studium przypadku. Bazuje na analogiach nie zawsze uzasadnionych. Zakłada, że organizacje mają własność
uczenia się, co nie jest na
ogół prawdą.
Motocykle
Hondy,
Ambra S.A.,
Telewizory
Samsung,
E. Wrapp,
J.G. March,
H. Mintzberg
wzorce postępowania, stanowiące
faktycznie realizowaną strategię.
Pozycyjna
Zasobów i
kompetencji
Prostych
reguł
Istotą strategii jest osiąganie przewagi konkurencyjnej.
Strategie należy formułować pod kątem walki z konkurencją.
Bazowymi strategiami szkoły pozycyjnej są minimalizacja kosztów i
zróżnicowanie produkcji.
Warto albo być wielkim, albo stosunkowo małym, niszowym graczem na
rynku.
Organizacja jest strukturą zasobów
oraz umiejętności ich użycia.
Organizacja dąży do uzyskania
struktury zasobów klasy VRIN.
Przewagę konkurencyjną buduje się
przez skonfigurowanie zbioru zasobów i kluczowych kompetencji, które
należy chronić.
Pomiędzy zasobami a celami musi
istnieć dynamiczna równowaga dopasowania.
Istotą przewagi konkurencyjnej jest
zdolność do wykorzystywania okazji
wyłaniających się ad hoc.
Produkcja lean, JIT, systemy japońskie produkcji, silna pozycja managera przywódcy, wyraźne metody konkurowania. Wykorzystanie
analiz otoczenia i stosowanie zasad kontyngencji. Szczególna rola
marki oraz marketingu
w walce o pozycję rynkową.
Statyczność
orientacji,
niezbyt odległy okres planowania, silny racjonalizm i eliminacja „miękkich” aspektów zarządzania. Założenie doskonałości kompetencji managera
i wizjonerstwo przywództwa.
Stanowi najbardziej zaawansowany model objaśniający
przewagę
rynkową, stan organizacji jej funkcje celu i
użyteczność. Jest epistemologiczną
nadbudową nad szkołą planistyczną, ewolucyjną i
pozycyjną.
Zbytnia ogólność, trudność w jej opera-cjonalizacji, koncent-ratcja nad
sukcesem firmy jako podstawa analiz (brak odniesienia do kwestii, jakich
kompetencji zabrakło gdy
firma upadła).
Dobrze opisuje wpływ
innowacyjności na suk-
Brak solidnych podstaw
teoretycznych, ubóstwo
Wina Bordeaux, Apple Inc.,
Toyota,
Ambra S.A.
KGHM Int.,
Coca-Cola,
Huta
Oława.
SMG/KRC,
3M, Zara
K. Ohmae,
J. Trout,
K. Levi.
B.Wernerfelt,
J.B. Barney,
P. Drucker,
B. Levy,
G Hamel,
C. Prahalad.
C.
Christiansen
K.M.
182
Skuteczne konkurowanie na współczesnych rynkach wymagających innowacyjnych strategii.
Innowacyjne strategie wykorzystania
szans opierają się na kilku istotnych
procesach i prostych regułach regulacji.
Opcji
realnych
W warunkach skrajnej niepewności
można budować racjonalne strategie,
które mają postać szeregów czasowych opcji realnych.
Opcje realne mają różne wartości dla
różnych kontekstów, łańcuchów dostaw oraz uwarunkowań czasoprzestrzennych i można je oszacować ilościowo wraz z prawdopodobieństwem wykonania danej opcji .
Ciągi decyzyjne podlegają zasadom
Markowa i Bellmana, a do wyboru
ścieżki optymalnej stosuje się drzewa
decyzyjne lub symulacje.
ces rynkowy, uwzględniając procesy przedsiębiorczości. Pozwala na
szybkie ukierunkowanie operacyjne organizacji. Nie ogranicza stosowania
najlepszych
praktyk z innych metodologii strategii.
Strategie inwestycyjne,
scenariusze zoptymalizowane,
konstrukcje
portfolio, strategie hedgingowe, położenie finansowe…
warsztatu i krótki horyzont czasowy prognozy.
Słaba metodologia oceny.
Metoda nadaje się wyłącznie do problemów
mierzalnych. Jest ograniczona wyłącznie do oszacowań rynku, technologii
albo organizacji z małą
liczbą zmiennych stanu
(projekt
inwestycyjny,
etc.).
Eisenhardt,
Mostva S.A.
L. Trigeorgis,
A. Dixit,
R. Pindyck,
R.C. Merton
183
Czym jest strategia
Wypowiadając się na temat zarządzania strategicznego nie sposób pominąć
kwestii jego podstawowego narzędzia, jakim jest strategia. Już H. Mintzberg zauważył problematykę złożoności definiowania strategii poprzez model 5P (str. 178).
W pracach E. Chaffeee problem ten ujawnia się jeszcze bardziej wyraziście. Wydaje
się, że jedyną możliwością ustalenia czym jest strategia stanowi dogłębna analiza
ontologiczna i epistemologiczna259. Na tej podstawie proponuję definicję.
Df. Strategia stanowi uporządkowaną wiedzę czasu bieżącego o domniemanym stanie jej
podmiotu w ustalonym okresie w przyszłości. Wychodząc z informacji dostępnych z
okresów przeszłych i teraźniejszych (misja), prognozowany jest za pomocą dostępnych w teorii zarządzania metod i analiz stan przyszły (wizja). Prawdziwość takiej
prognozy można sprawdzić wyłącznie w przyszłości, której ona dotyczy. Tym samym strategia charakteryzuje się:
 punktem wyjścia, określającym misję i stan organizacji w chwili projektowania
strategii (bilans otwarcia);
 określoną wizją, stanowiącą definicję stanu przyszłego organizacji oraz luki
strategicznej, którą należy zniwelować poprzez wdrożenie strategii;
 zbiorem celów, prognoz oraz kwantyfikatorów, umożliwiających monitorowanie jej wdrażania w czasie;
 projektami umożliwiającymi realizację celów cząstkowych, budżetem, harmonogramami, niezbędnymi zasobami oraz sposobem monitorowania;
 układem interesariuszy, relacjami z kontekstem oraz imperatywem uruchomienia.
To wszystko można wyrazić w postaci formalnej, stanowiącej model działania
i jego odniesienie do „białej księgi organizacji”. Stąd wynikają dalsze konsekwencje
dla epistemologii strategii, co stanowi przedmiot dociekań teorii zarządzania strategicznego.
Jak działa zarządzanie strategią
W tym miejscu warto zauważyć, że zarządzanie strategią stanowi pewien cykl
w sprzężeniu zwrotnym (od projektu i ustalenia parametrów wejścia, poprzez działania i wdrożenia programów i projektów strategicznych, monitoring uzyskanych
efektów i pozyskanie informacji zwrotnej z otoczenia). W ten sposób dokonuje się
proces autoadaptacji procesów i działań organizacji do założeń strategii oraz strategii do kultury organizacji. Schemat ten można przedstawić, jak na rys. 3.11. Występują w nim dwa ciągi logiczne:
1. Ciąg realizacyjny, składający się z planu strategicznego, planu operacyjnego
oraz realizacji (uruchomienia procesów).
Gospodarek T., „Strategia jako struktura naukowa zarządzania”, w R. Krupski [red.] „Zarządzanie strategiczne. Strategie organizacji”, Prace Naukowe Wałbrzyskiej Wyższej Szkoły Zarządzania i Przedsiębiorczości,
Seria Zarządzanie, Wałbrzych 2010, str. 215-242 http://gospodarek.eu/publikacje/Strategia%20naukowa.pdf
259
184
2. Ciąg procesowy, umożliwiający wdrożenie ciągu realizacyjnego, na który składają się: opracowanie strategii, planowanie strategii, zestrajanie organizacji, planowanie operacyjne, monitorowanie, testowanie i adaptacja do wyników sprzężenia zwrotnego.
Rys. 3.11 Schemat zarządzania strategią
Procesy można podzielić na zbiory czynności i podprocesów, co zostało zobrazowane na rysunku rys. 3.11, tworząc pewną strukturę logiczną, z której można
zbudować macierz logiczną projektu strategii oraz jej mapę. To co chcemy osiągnąć
za pomocą strategii stanowi zmianę organizacji i najczęściej odpowiada adaptacji
do granicy fazy jej rozwoju (rys. 2.2) , co można przedstawić tak, jak na rys. 3.12
poniżej.
185
Rys. 3.12 Zmiana strategiczna jako cel działania
Schemat ten nie wymaga większego komentarza. Warto jedynie zauważyć, że
zarządzanie strategią stanowi fundament zarządzania zmianami (rozdział 4.2).
Stąd tak ważna jest rola zarządzania strategicznego dla organizacji, pomimo poważnych obaw co do wiarygodności prognozowania przy braku kompletnych informacji oraz turbulentnie zmieniającego się ekosystemu biznesowego w czasie.
Należy po prostu mieć na uwadze, że ci którzy realizowali jakąś racjonalną strategię, osiągali na ogół lepsze rezultaty, niż ci, którzy nie realizowali żadnej. Faktem
jest również, że na temat strategii powstało wiele cennych opracowań naukowych,
umożliwiających wypracowanie dobrych praktyk w zakresie jej projektowania,
wdrażania i monitorowania. Przy okazji udało się rozwinąć w sposób znaczący
dziedzinę wiedzy – zarządzanie strategiczne.
186
4 Wybrane zagadnienia praktyczne
W tej części monografii zamierzam przedstawić najważniejsze aspekty praktycznego wykorzystania teorii zarządzania oraz jego modeli funkcjonalnych. W zasadzie każdy z poniżej prezentowanych tematów powinien prowadzić wprost do
zdefiniowania modelu białej księgi zarządzania wybranym zagadnieniem zarządzania organizacją. Udokładnienie natomiast białej księgi i rozbudowanie do poziomu niebieskiej księgi powinno stanowić naturalny układ wiedzy dla danego
przedmiotu specjalistycznego. I tak biała księga zarządzania ryzykiem powinna
stanowić model wyjściowy dla opracowania strategii zarządzania ryzykiem, zbioru
procedur i mapy procesów związanych z obniżaniem poziomu ryzyka, które następnie w postaci sformalizowanej będą podstawą zbudowania niebieskiej księgi
zarządzania ryzykiem. Dlatego przyjąłem za racjonalne przedstawić na poziomie
podstaw zarządzania wybrane założenia modeli funkcjonalnych, pozostawiając
specjalistom rozwinięć opartych na uporządkowanym szkielecie bazowym wiedzy.
4.1 Zarządzanie projektem
Zarządzanie projektami stanowi jeden z fundamentalnych aspektów zarządzania operacyjnego. Praktycznie każde zamówienie produkcyjne, każda inwestycja,
każda inicjatywa gospodarcza może zostać sprowadzona do realizacji w formie
projektu (lub zbioru projektów). Ciągi logiczne projektów stanowią fundament dokumentów planistycznych, programów gospodarczych i działań władz. Doświadczenie pokazuje, że szereg projektów biznesowych kończyło się i kończy nadal niepowodzeniem z różnych powodów, od braku koordynacji działań przez źle określone kwantyfikatory rezultatu, po niedoszacowanie kosztów i braki zasobowe dla
realizacji procesów składających się na całość. Stąd wynika tak ważna rola zarządzania projektami w rzeczywistości gospodarczej.
Czym jest projekt w sensie zarządzania? Ten byt można określić jako logiczny
ciąg działań mający swój początek i koniec, prowadzący do realizacji założonego, wymiernego celu w określonym czasie, wykorzystując niezbędne zasoby, informacje i wiedzę.
Wszystkie projekty mają pięć, wspólnych cech: ustalony cel przedsięwzięcia,
skończony czas trwania, uporządkowane działania jakiejś struktury realizującej
projekt w czasie, zdefiniowane zasoby i kwantyfikowalny rezultat. Projekt jest pojedynczym, a nie cyklicznym aktem biznesowym. Może się składać z szeregu procesów lub podprojektów, prowadzących do jego realizacji, ale ma swój definitywny
koniec. Jest to zatem bardzo interesujący konstrukt teoretyczny dla praktyki zarządzania. Można sobie wyobrazić, że całość działalności gospodarczej organizacji da
się podzielić na zbiór projektów, a wówczas formalna reprezentacja zarządzania i
map procesów powinna się dać łatwo definiować. Nie jest to jednak takie proste ze
187
względu na konieczność ciągłej adaptacji organizacji do zmienności otoczenia, relacje pomiędzy jej interesariuszami i podejmowanie ryzyka biznesowego ad hoc,
czego nie można zrealizować przez sztywne ramy projektów. W dodatku w praktyce działalności gospodarczej zachodzi konieczność prowadzenia na raz wielu
projektów w układzie równoległym oraz sprzężonym, co wiąże się z kłopotami
ustaleń przyczynowo-skutkowych.
Każdy projekt można przedstawić w postaci sformalizowanego szablonu, na
który składają się: harmonogramy zadań w czasie, harmonogramy użycia zasobów,
harmonogramy ponoszonych kosztów, itp. Ponadto wymagane są kwantyfikatory
celu i rezultatu oraz mapy procesów powiązanych z projektem. Wszystkie te elementy można połączyć w macierz logiczną (rozdział 6.7). Tym samym projekt biznesowy jest zagadnieniem mierzalnym i zarządzalnym.
Zarządzanie projektami doczekało się form standaryzowanych260, co oznacza,
że istnieją najlepsze praktyki opisane normami oraz sposoby osiągania celu zoptymalizowane metodycznie. Takimi standardami są przede wszystkim PRINCE2261
opracowany przez amerykańską agencję CCTA (The Central Computer and Telecommunications Agency), PMI262, (PMBOK Guide został zatwierdzony przez American
National Standards Institute ANSI, jako narodowy standard w zakresie dobrych
praktyk zarządzania projektami) oraz norma ISO 21500 z 2012 roku263. Natomiast
jedną z najbardziej popularnych metod zarządzania regionalnymi projektami inwestycyjnymi jest metoda macierzy logicznej LFA (rozdział 6.7). Obecnie szczególnie
ciekawym podejściem do zarządzania projektami jest podejście agile (rozdział
4.1.2), które nie jest w sztywny sposób sformalizowane i unormowane, ale daje doskonałe rezultaty w przypadku projektów twórczych.264
Patrząc na konstrukcję projektu, warto przyjąć pewien model postępowania,
tak jak ma to miejsce z zarządzaniu strategią rys. 3.11, żeby na każdym etapie jego
realizacji można było ustalić stopień zaawansowania wykonania, koszty oraz położenie na harmonogramie czasowo zadaniowym Gantta. Jest to niezależne od przyjętej metody postępowania i standardu. Ważnym jest również panowanie w czasie
realizacji nad alokacją zasobów, tak żeby nie powstawały „wąskie gardła” oraz
stany bezproduktywne. Najlepiej zastosować wspomaganie zarządzania projektem
za pomocą odpowiedniego programu komputerowego.
Kompendium wiedzy o zarządzaniu projektami, MT&DC, Warszawa, 2006.
„PRINCE2 - Skuteczne zarządzanie projektami”, The Stationery Office Ltd (TSO), 2009 ISBN
9780113312245 (polskie wydanie 2010).
262
A Guide to the Project Management Body of Knowledge, Fifth Edition, PMI, USA, 2012.
263
Zandhuis A., Stellingwerf R., “ISO 21500. Guidance on Project Management. A Pocket Guide”, van Haren
Publishing, Amersfoort, 2013.
264
Dąbrowski M., „Matryce opisujące metodykę AgilePM” http://4pm.pl/artykuly/matryce-opisujace-metodyke-agilepm-wersja-pl-oraz-en http://miroslawdabrowski.com/downloads/AgilePM/Agi260
261
lePM PL - Macierz Fazy Projektowe vs Produkty Zarzadcze vs Role vs Odpowiedzialnosci %5Bv1.4%2C 10.2014. PL%5D.pdf
188
Wspomaganie IT zarządzania projektami jest bardzo dobrze rozwinięte. Istnieją na rynku programy (w tym serwerowe dla grupowych działań menedżerskich), z których za najważniejsze należy uznać: Microsoft Office Project265 stanowiący standard przemysłowy zarządzania projektami. Różne programy zarządzania projektami porównywane są przez różne gremia, wśród nich przez PC Magazine (ranking 2016)266. Warto również zwrócić uwagę na oprogramowanie open source, oferujące nie mniejszą funkcjonalność za darmo (ranking TechWorld 2016)267.
Wśród nich szczególnie ciekawym jest program Trello268, czyli „darmowy, estetyczny i praktyczny sposób na organizowanie jakichkolwiek spraw z kimkolwiek
chcesz”, którego założenia opracował T. Ohno, jeden z prezesów i twórców potęgi
Toyoty. Najcenniejszym polskim źródłem informacji w zakresie zarządzania projektami jest portal 4PM, gdzie można znaleźć mapy koncepcji, matryce procesów,
opisy metodyczne z zakresu zarządzania projektami269.
W dalszej części zostanie przedstawionych kilka elementów z procedury postępowania z projektem niezależnych od standardów, jako pewnego logicznego
ciągu działań od definiowania projektu do monitoringu rezultatów jego wdrożenia.
4.1.1 Studium wykonalności
O ile biznes plan odnosi się do jakiegoś przedsięwzięcia biznesowego (niekoniecznie związanego z dużą inwestycją) w sferze prywatnej bez analizowania wariantów wykonania określonych działań, o tyle studium wykonalności stanowi rozbudowaną jego wersję w odniesieniu do projektu inwestycyjnego, gdzie zaangażowanie środków jest na tyle duże (albo angażowane są środki publiczne), że konieczne jest szczegółowe uzasadnienie racjonalności wykonania projektu wraz z
analizą wariantów oraz efektywności inwestycji.
Studium wykonalności pozwala uniknąć bezpośredniego przechodzenia od
fazy koncepcyjnej inwestycji, która na ogół nie wymaga ponoszenia znaczących
kosztów przez inwestora, do fazy projektowej, wymagającej zaangażowania znaczących zasobów i nakładu pracy. Głównym celem studium wykonalności jest wykazanie zasadności realizacji projektu, w tym jego zgodności z: celami inwestycji,
obowiązującymi strategiami na poziomie krajowym, regionalnym, wspólnotowym
oraz uzasadnienie optymalnego kosztu i montażu finansowego. Dodatkowo dokument ma wykazać, że przedsięwzięcie jest możliwe do zrealizowania na poziomie
265
Microsoft Office Project https://products.office.com/pl-pl/project/project-professional-desktop-software
PC Magazine, “The Best Project Management Software of 2016”, http://www.pcmag.com/article2/0,2817,2380448,00.asp
267
Egan M., TechWorld, “14 best free project management software programs 2016: Great project management
software tools that don't cost a penny”, http://www.techworld.com/picture-gallery/startups/10-best-free-projectmanagement-software-programs-3625922/
268
Trello, https://trello.com/
269
Dąbrowski M., Szczepkowski J., Portal 4PM http://4pm.pl/
266
189
operacyjnym, technologicznym oraz finansowym i pozostawi trwałe efekty po zakończeniu projektu. Tym samym ustala zgodność realizowanych przedsięwzięć z
przepisami dotyczącymi podejmowania inwestycji, istniejącymi zagrożeniami wypowiadając się na tematy związane z ryzykiem inwestycyjnym. Wskazuje najlepsze
z możliwych do zastosowania rozwiązań technicznych, technologicznych, organizacyjnych, finansowo-ekonomicznych, biorąc także pod uwagę kwestie ekologiczne. Dokument uzasadnia wybór opcji (wspomaga podjęcie decyzji - rozdział
3.2.1), której realizacja prowadzi do rozwiązania zdiagnozowanych problemów w
sposób optymalny. Określa również korzyści i koszty realizacji projektu wykorzystując w tym celu całą paletę analiz ekonomicznych.
Strukturę studium wykonalności dobrze przedstawiono w materiałach programów operacyjnych w ramach funduszu EFRR. Przykładem może być szablon zaczerpnięty z Regionalnego Programu Operacyjnego dla Dolnego Śląska270. Nie rozróżnia on projektów małych i dużych oraz nie wyszczególniania specyficznych dla
różnych projektów analiz technicznych, specyficznych (kanalizacja, infrastruktura
drogowa, informatyka). Każda inwestycja charakteryzuje się specyficznymi pomiarami technicznymi, analizami efektywności oraz kwantyfikatorami rezultatu, co
powoduje, że występują różnice w szczegółach studium dla różnych przypadków,
zwłaszcza dotyczących analizy wariantów rozwiązań technicznych.
1. Przedmiot studium:
 geneza i istota projektu,
 potencjał i możliwości,
 nazwa i cel projektu,
 podmioty odpowiedzialne za realizację przedsięwzięcia.
2. Podsumowanie i wnioski:
 wprowadzenie do projektu,
 koszty przedsięwzięcia,
 podsumowanie wyników analiz i finansowanie,
 główne uwarunkowania inwestycji (prawne, administracyjne),
 zalecenia i rekomendacje.
3. Otoczenie makroekonomiczne i trendy:
 potencjał położenia geograficznego,
 potencjał społeczno-gospodarczy,
 zidentyfikowane problemy,
 uwarunkowania społeczno-ekonomiczne realizacji przedsięwzięcia.
4. Logika wdrożenia inwestycji:
 źródła identyfikacji projektu,
 cele projektu,
 spójność i komplementarność z różnymi programami strategicznymi,
270
http://dolnyslask.pl/upload/RPO/03_dokumenty_i_wytyczne/konsultacje/metodologia_sw.pdf
190




5.
6.
7.
8.
9.
analiza SWOT,
korzyści i oddziaływanie,
rezultaty,
produkty,
 matryca logiczna (LogFrame).
Analiza rynku:
 definicja rynku usług,
 wielkość rynku i jego podział,
 udział nowego przedsięwzięcia w rynku,
 odbiorcy usług,
 konkurencja,
 analiza popytu bieżącego i przyszłego.
Analiza instytucjonalno-prawna:
 status prawny beneficjenta,
 status prawny inwestora,
 status prawny operatora,
 powiązania prawno -własnościowe pomiędzy uczestnikami projektu,
 przygotowania formalno -administracyjne przedsięwzięcia,
 wydane decyzje i zezwolenia administracyjne,
 wymagane decyzje i zezwolenia do wydania i harmonogram ich wydania,
 trwałość projektu instytucjonalna.
Analiza techniczna:
 opis istniejącego systemu/przedsięwzięcia (stan istniejący),
 analiza wariantów,
 analiza opcji,
 lokalizacja,
 opisu projektowanego zakresu przedsięwzięcia,
 przygotowanie inwestycji.
Plan wdrożenia i funkcjonowania przedsięwzięcia
 struktura organizacyjna wdrażania i eksploatacji,
 strategia cenowa,
 procedury przetargowe,
 harmonogramy realizacji,
 umowy z odbiorcami i inne.
Analiza finansowa:
 założenia analizy finansowej (metodyka analiz finansowych i płynności),
 prognoza przychodów i kosztów przedsięwzięcia,
 koszty realizacji przedsięwzięcia,
 koszty przygotowawcze,
 koszty inwestycyjne,
 inwestycje odtworzeniowe,
191













10.
11.
12.
13.
pozostałe koszty związane z realizacją inwestycji,
odsetki i podatki,
oszacowanie kosztów operacyjnych,
materiały i energia,
usługi obce,
podatki i opłaty,
wynagrodzenia z narzutami,
amortyzacja,
pozostałe koszty,
koszty remontów i konserwacji,
określenie przychodów związanych z planowanym przedsięwzięciem,
kapitał obrotowy,
prognoza rachunku zysków i strat oraz bilansu inwestora w okresie realizacji
i eksploatacji inwestycji,
 rachunek przepływów (zmiana przepływów) pieniężnych inwestora w okresie realizacji i eksploatacji inwestycji,
 analizy „luki finansowej” i jej wyliczenie,
 obliczenie poziomu dofinansowania,
 kalkulacja rentowności finansowej projektu,
 analiza i ocena finansowej wykonalności projektu (trwałość finansowa).
Finansowanie:
 ocena zdolności finansowej beneficjenta/inwestora/operatora,
 przegląd dostępnych źródeł finansowania,
 wybór systemu finansowania wraz uzasadnieniem,
 struktura finansowania,
 harmonogram finansowo-rzeczowy.
Analiza kosztów i korzyści społeczno-ekonomicznych:
 analizy kosztów i korzyści społeczno-ekonomicznych metodą CBA,
 obliczenia ENPV i EIRR dla projektu,
 prezentacja efektów w kontekście realizacji celów RPO i polityk wspólnotowych,
 podsumowanie i wnioski z analizy CBA.
Analiza ryzyka i wrażliwości
 analiza ryzyk ekonomiczno-finansowych,
 analiza ryzyk formalno-instytucjonalnych,
 analiza ryzyk ekologiczno-technicznych,
 podsumowanie analiz ryzyka.
Załączniki:
 założenia projekcji finansowej - scenariusz z projektem i bez,
 wyniki analizy ekonomiczno-finansowej projektu inwestycyjnego,
 opis struktury instytucjonalnej projektu,
192
 matryca logiczna projektu,
 zastosowany schemat pomocy publicznej,
 analiza zdolności kredytowej beneficjenta i struktura finansowania projektu,
 harmonogram Gantta realizacji projektu,
 harmonogram rzeczowo-finansowy.
Powyższa struktura studium wykonalności obrazuje, jak należy podejść do definiowania przedmiotowej inwestycji. Nierzadko studium wykonalności musi być uzupełnione o operat oceny oddziaływania skutków wdrożenia projektu na środowisko, w szczególności na obszary chronione natura 2000 i dodatkowe załączniki dotyczące pomiarów oraz analiz specyficznych (np. ocena ruchu na danej drodze).
Czasami dla wykonania studium konieczne jest powołanie podmiotu gospodarczego, realizującego praktycznie pomiary geologiczne lub badania w skali pół mikro, bez których uzyskanie danych o wydajności, efektywności i kosztach nie było
by możliwe. Takim przykładem jest spółka celowa Ajax Ltd. w Vancouver, stanowiąca część KGHM International, zajmująca się przygotowaniem danych dla studium wykonalności dotyczącego budowy kopalni miedzi planowanej nieopodal.
4.1.2 Zarządzanie zwinne projektami (agile)
Bardzo interesującym sposobem zarządzania operacyjnego, opartego na zasadzie adaptatywnej i analogii do metody kolejnych przybliżeń, jest zarządzanie agile
(zwinne, zmyślne, sprytne)271. Polega ono na sformułowaniu zadania do wykonania
i stworzeniu małego, elastycznego zespołu, który to zadanie ma wykonać w określonym czasie. Zespół realizujący nietypowe zadanie, nazywany jest scrum (od
młyna w grze rugby) i liczy od kilku do kilkunastu osób, posiadających większość
kompetencji związanych z wykonaniem zadania. Jego skład nie może być zmieniany do końca zadania, a dobór w grupie musi gwarantować synergię działania
jego członków. Jest to przykład grupy samoorganizującej się w działaniu. Tym samym z zewnątrz stanowi obiekt przypominający czarną skrzynkę, gdzie na wejściu
jest zadanie do wykonania, a na wyjściu rezultat. Nie ma przy tym znaczenia jak
ów zespół sobie poradzi z problemem, ani jak się zorganizuje. Istotnym jest, że
członkiem zespołu realizującego projekt jest jego zleceniodawca, który na bieżąco
ustala poziom dopasowania wyniku do oczekiwań, a jednocześnie to on kończy zadanie.
Drugim elementem modelu agile jest metoda pracy, polegająca na ciągu działań
prowadzących do kolejnych prezentacji końcowego rezultatu, coraz bardziej dopasowanego do wymagań zleceniodawcy, co określony interwał czasowy (np. co tydzień). Opiera się to na zasadzie Bellmana (str. 143) optymalności działań w przedziałach czasowych. Zespół scrum nie jest nadzorowany z zewnątrz – organizuje się
sam. Przywództwo i władza temporalna wyłania się w nim automatycznie w miarę
Schwaber K., Sutherland J., “The Scrum Guide. The Definitive Guide to Scrum: The Rules of the Game”,
http://4pm.pl/wp-content/uploads/2016/07/2016-Scrum-Guide-US.pdf
271
193
potrzeb. Rozdział zadań jest logiczną konsekwencją kompetencji i zadań składających się na projekt. Jak łatwo się domyślić, szczególne zastosowanie zarządzania
agile dotyczy realizacji projektów intelektualnych, takich jak: tworzenie oprogramowania, przeprowadzenie eksperymentu badawczego, stworzenie spektaklu, itp272.
Model agile w działaniu
Wyobraźmy sobie zadanie polegające na stworzeniu scenografii dla przedstawienia teatralnego. Zleceniodawcą i zarządzającym projektem jest scenograf, który
staje się naturalnym liderem zespołu scrum. Odbiorcą gotowej scenografii jest reżyser spektaklu.
Na wejściu zadania reżyser w miarę jasno określa założenia spektaklu i wizję
scenografii. Scenograf buduje z tego koncepcję twórczą (plan) i powołuje zespół
scrum, na który składają się rzemieślnicy potrafiący wykonać odpowiednie prace
fachowe, inżynier odpowiedzialny za bezpieczeństwo i formalne zgodności z normami. Zespół opracowuje wspólnie plan działania, tworzy harmonogramy czasowo-zadaniowe i rzeczowe, przypisuje zasoby do zadań i ustala termin pierwszej
prezentacji wyniku na określony termin. Następnie poszczególni członkowie zespołu przystępują do wykonania zadań w zakresie swoich kompetencji w projekcie,
wykorzystując dostępne w organizacji zasoby materialne, intelektualne i ludzkie
(wsparcie zasobowe organizacji).
W dniu ustalonym odbywa się prezentacja gotowej scenografii. Jest ona na tym
etapie niedoskonała, ale pozwala na szybkie zmiany zarówno koncepcji, jak i elementów. Scenograf prezentuje wynik reżyserowi spektaklu, a ten ustala konieczne
poprawki. Cykl wejście – wyjście powtarza się. Po którymś cyklu reżyser stwierdza,
że uzyskał to, czego oczekiwał i projekt uważa się za zakończony.
Jak łatwo zauważyć, na początku nie znano dokładnego rezultatu zadania. Był
on modyfikowany online przez zespół scrum w czasie działania. Rezultat końcowy
wyłonił się w czasie ostatniego przybliżenia, gdy odbiorca stwierdził, że już osiągnięto cel. Dopiero w tym momencie można było zdefiniować finalnie projekt i jego
parametry szczegółowe. Do tego momentu:
 nie były znane relacje w zespole scrum na początku projektu, za wyjątkiem
składu osobowego oraz przypisanych zadań przez twórcę (scenograf). Zespół
organizował się w pracy sam i kontrolował się sam. Wynik kolejnego przybliżenia działań był akceptowany przez odbiorcę (reżyser);
 na wejściu do projektu były znane jedynie wstępne harmonogramy czasowe,
czasowo zadaniowe oraz potrzeby materialne (zasoby) dla wykonania projektu
w stanie podstawowym;
272
Gospodarek T., „Zarządzanie…”, op. cit. str. 187
194
 nie były znane ani koszty końcowe ani zasoby (materialne, ludzkie i usługi obce),
ponieważ ich ustalenie było możliwe dopiero po zakończeniu cyklu agile, a dodatkowo modyfikowano je w kolejnych podejściach.
Oczywistym jest, że w zarządzaniu agile nie przekracza się budżetu zaplanowanego w projekcie, albowiem kończy się on zwykle wcześniej, niż zakłada harmonogram. Najczęściej odbiorcza szybciej zostaje usatysfakcjonowany, niż w typowym ujęciu liniowym zarządzania projektami. W czasie wykonywania zadań,
każdy członek zespołu scrum wnosi własny wkład intelektualny do projektu i poprawia efektywność jego realizacji. Wynika to z konstrukcji samoorganizacji grupy
w relacji do zadań. Ogranicza się formalizmy, zbędne relacje oraz biurokrację w
dokumentowaniu procesu realizacji. Rezultat na ogół jest znacząco lepszy niż zakłada się na początku wejścia do cyklu agile, ponieważ jest on modyfikowany ad hoc
przez całą grupę we właściwym kierunku nadawanym przez odbiorcę.
Warto zauważyć, że działania typu agile można wprowadzić w sektorze małych i średnich organizacji, a nie tylko w dużych. To jest ogromna zaleta modelu.
Gwarantuje on przede wszystkim zaangażowanie intelektualne grupy scrum dlatego najlepiej nadaje się do tworzenia innowacyjnych projektów. Wynikiem jest
produkt w wysokim stopniu kastomizowany, co dla klienta jest istotne.
4.1.3 Metoda PERT/CPM i harmonogramowanie
W zarządzaniu projektami jednym z najważniejszych elementów panowania
nad czasem, budżetem oraz logistyką jest harmonogramowanie. Dotyczy to nie
tylko ustalenia relacji czasowo-zadaniowych oraz czasowo-zasobowych, ale również znalezienia wąskich gardeł i czasu nieproduktywnego. Trudno jest wyobrazić
sobie zarządzanie projektem bez wspomagania jakimś sensownym programem
komputerowym. We wstępie do rozdziału wymieniłem kilka z nich. W dalszej części tego rozdziału wykorzystam program Microsoft Office Project, posługując się
przykładowym projektem wdrożenia systemu IT w dużej organizacji oraz program
Excel, który pozwala na wykonywanie różnorodnych przeliczeń.
O ile wszystkie harmonogramy i przeliczenia można wykonać za pomocą arkusza kalkulacyjnego, o tyle wykonanie wykresów Gantta lub sieciowych, alokację
zasobów i planowanie kosztów lepiej wykonać przy pomocy programów specjalizowanych. Nie ma tutaj złotej reguły.
Logika projektu
Warunkiem koniecznym zastosowania jakiejkolwiek technologii IT do zarządzania projektem jest utworzenie jego reprezentacji formalnej. Bez tego nie będzie
można nawiązać dialogu z systemem IT. Innymi słowy, w pierwszej kolejności należy przedstawić projekt jako ciąg logiczny procesów (działań) do realizacji w czasie. Jeżeli projekt jest złożony (np. wybudować autostradę) konieczne jest podziele-
195
nie go na etapy (podprojekty) oraz działania, tak żeby możliwe było zebranie wyników działań cząstkowych w jednej, syntetycznej bazie danych. Najważniejszym
zagadnieniem logiki projektu jest jego ścieżka krytyczna, czyli najdłuższy ciąg zadań, w którym niezakończenie któregokolwiek z nich, uniemożliwia wykonanie
kolejnego273. O ścieżce krytycznej można wypowiedzieć następujące stwierdzenia:
 dla każdego projektu istnieje co najmniej jedna ścieżka krytyczna (może być też
wiele równoległych),
 między zadaniami istnieją różnorodne relacje czasowe (następstwa, równoczesności, powtarzalności),
 zakończenie ostatniego zadania ścieżki krytycznej jest równoznaczne z zakończeniem projektu,
 czas trwania ścieżki krytycznej określa czas trwania całego projektu,
 ścieżka krytyczna może być modyfikowana ad hoc.
Jeżeli czasy wykonania poszczególnych zadań różnią się od zakładanych, albo architektura zasobowa projektu zmieni się, albo struktura relacji międzyzadaniowych
zostanie zmieniona, wówczas ścieżka krytyczna będzie też ulegać zmianom. Jak zależy to od menedżera projektu i realizacji pakietu zadań w praktyce. Dlatego konieczne jest monitorowanie czasowe harmonogramów projektu.
Można wyróżnić dwa rodzaje logiki projektowej, wykorzystywane w specjalizowanych programach wspomagających zarządzanie projektami, obie wykorzystujące model ścieżki krytycznej.
Logika oparta na metodzie CPM (Critical Path Method) wykorzystuje ciąg zadań
tak, że opóźnienie wykonania któregokolwiek z nich, opóźni zakończenie całego
projektu. Jest ona szczególnym przypadkiem metody PERT ponieważ nie analizuje
się w niej odchyleń czasowych wykonania.
Logika oparta na metodzie PERT (Program Evaluation and Review Technique), gdzie
projekt jest reprezentowany w formie diagramu sieciowego (grafu skierowanego).
Wierzchołki grafu reprezentują zadania składające się na projekt, łuki natomiast,
ukierunkowane powiązania pomiędzy zadaniami. Do nich są przypisane czasy
trwania poszczególnych czynności, których zakończenie wymagane jest do przejścia do realizacji następnego zadania.
Przykładem niech będzie uproszczony projekt wdrożenie systemu IT w jakiejś
organizacji, wpisany do formularza programu Microsoft Office Project (tabela 8).
Jest to projekt posiadający jedną ścieżkę krytyczną oraz kilka równolegle realizowanych podprojektów. Projekt został zrealizowany praktycznie wykorzystując załączone dane.
Tabela 8 Prezentacja projektu jako ciągu zadaniowego
273
Wikipadia PL, „Ścieżka krytyczna”, https://pl.wikipedia.org/wiki/%C5%9Acie%C5%BCka_krytyczna
196
W kolumnie „Poprze” umieszczono oznaczenia cyfrowe, wskazujące na to,
które zadanie musi zostać wykonane wcześniej (budowanie ścieżki krytycznej). To
pozwala wykonać harmonogram bez nakładania się zadań następczych. Dopuszcza
natomiast wykonanie zadań równoległych.
Przypisania w projekcie i harmonogramowanie
W opisie projektu konieczne jest przypisanie zasobów oraz kosztów do poszczególnych zadań. Wówczas programy pozwalają na bieżące śledzenie kosztów,
zakupów oraz użycia zasobów. Dodatkowo, niektóre programy umożliwiają wykrywanie nadmiernych przypisań zasobowych oraz istnienie wąskich gardeł. W
197
praktyce zarządzania większymi projektami jest to bardzo pożądana funkcjonalność. Przykładowe przypisania zasobów w tabeli 9 pochodzą z programu Microsoft
Project.
Tabela 9 Przypisania kosztów i zasobów w projekcie
Kolejnym elementem formalnego ujęcia projektu jest jego harmonogram kosztowy oraz rzeczowy. Wygodnie jest prowadzić takie rozliczenie za pomocą arkusza
kalkulacyjnego, albowiem programy typu Project nie dają tak szerokich możliwości
łączenie informacji zarządzania projektem oraz finansowych. Możliwe jest natomiast eksportowanie danych z harmonogramu czasowo-zadaniowego do arkusza
kalkulacyjnego i w wygodny sposób ułożenie sobie prac rozliczeniowych. Przykładowy arkusz kalkulacyjny zadania określonego w harmonogramie projektu (tabela
9), stanowi oddzielny arkusz kalkulacyjny (rys. 4.1). Każde, następne zadanie zawiera w sobie zadanie poprzedzające i przenosi jego koszty, tak że na końcu koszt
projektu jest narastającym rezultatem wykonanych zadań (arkusz ostatniego zadania). To można przenieść następnie na skalę czasową w kolejnym arkuszu (zakładka „Koszt_projektu) i wówczas otrzymujemy harmonogram kosztowo-czasowy (rys. 4.2). Te dane służą następnie do prognozowania przepływów finansowych oraz analiz rentowności (NPV, ENPV, IRR) i efektywności.
198
Rys. 4.1 Przykładowy arkusz kalkulacyjny harmonogramu rzeczowego
Wykres sieciowy i wykres Gantta
Wykresy harmonogramowania stanowią grupę metod prezentacji projektów
wśród których najważniejszymi są:
 Wykres sieciowy PERT274
 Wykres Gantta
Prezentacje graficzne przykładowego projektu zostały przedstawione w formie wykresu sieciowego (rys. 4.3) oraz wykresu Gantta (rys. 4.4).
Zarówno wykres sieciowy, jak i Gannta stanowią mapę projektu i pozwalają
na ustalenie położenia czasowo-zadaniowego w dowolnym momencie realizacji
projektu. Programy wspomagające zarządzanie projektami dodatkowo mają wbudowane opcje kontroli położenia na wykresach i raportowania.
Wawak. S., Encyklopedia zarządzania „Wykresy sieciowe”, https://mfiles.pl/pl/index.php/Wykresy_sieciowe
274
199
Rys. 4.2 Harmonogram kosztowy dla projektu z przykładu
200
Ścieżka krytyczna
201
Rys. 4.3 W ykres sieciowy dla projektu
Ścieżka główna
Punkt kontrolny
Zadanie cząstkowe
Zadania równoległe
Podprojekt
Rys. 4.4 W ykres Gantta dla projektu (ścieżka krytyczna)
202
203
4.2 Zmiana w biznesie
„Kto stoi w miejscu, ten się cofa” – ten cytat sentencji J.W. Göthe jest najlepszym
wstępem do zagadnienia zmienności w biznesie. Jak należy rozumieć zmianę w
kontekście zarządzania? Wydaje się tutaj koniecznym zastosowanie rozważań ontologicznych i udzielenie odpowiedzi na kilka kluczowych pytań, które ta dziedzina filozofii stawia275. Na podstawie udzielonych odpowiedzi możemy zbudować
pewien zakres wiedzy odnośnie podmiotu i przedmiotu zmiany. Dopiero wówczas
możliwe staje się ustalenie spójnej definicji zmiany. Kolejnym, logicznym krokiem
może być podjęcie prób zbudowania metodologii postępowania i zarządzania
zmianą. Możemy wówczas oczekiwać spójności wywodu i uporządkowania pojęć,
które w literaturze przedmiotu są za bardzo rozmyte276,277.
Zmiana i projekt biznesowy są ze sobą powiązane, albowiem zmiana dokonuje
się przez realizację projektu tranzycji lub procesu transformacji. A zatem projekt lub
zbiór projektów jest narzędziem dokonania zmiany. To rozróżnienie ułatwi dalsze
rozważania. Należy sobie uzmysłowić, że zmiana dokonuje się na ogół w sferze
działań zasobu ludzkiego, kultury organizacji, jej struktury lub funkcjonalności, a
projekt biznesowy nie musi dotyczyć ani kwestii reinżynieringu ani relacji międzyludzkich ani poważniejszej reorganizacji procesów. Warto również zauważyć, że
wdrażanie strategii jest przykładem procesu transformacji od pewnego stanu wyjściowego (misji), poprzez stan przejściowy w okresie realizacji programów strategicznych, do stanu docelowego, stanowiącego urzeczywistnienie wizji strategicznej
i zmiany. Takim działaniom towarzyszy zawsze niechęć i obawa przez zmianami
w sferze zasobów ludzkich organizacji. Stąd zarządzanie zmianą polega między innymi na znalezieniu sposobów redukcji oporów wewnętrznych oraz tych, pochodzących z kontekstu otoczenia i wykreowaniu przywództwa dla procesów tranzycji. Potrzebne są również metody śledzenia przemian oraz kwantyfikatory rezultatu. W końcu każdy proces tranzycji ma swoje ROI (rozdział 4.7.1), które należy
wyliczyć.
4.2.1 Aspekty epistemologii zmiany
W większości publikacji na temat zarządzania zmianą, pojęcie zmiany jest
przedstawiane w sposób niekompletny i na ogół intuicyjny, powiązany z miękkimi
aspektami zagadnienia. Jak wspomniałe wyżej to można zdecydowanie poprawić,
wychodząc z fundamentalnych kwestii ontologicznych, dotyczących uniwersalium
Gospodarek T., „Aspekty …”, op cit. str. 24
Change Management Framework, Charles Sturt University, http://www.csu.edu.au/special/wpp/resources/change-management-framework
277
Prosci, Change Management Learning Center, http://www.change-management.com/articles.htm
275
276
204
„zmiana”. Możliwe jest wówczas lepsze określenie zakresu zagadnienia, jak również zmierzenia się z problemem definicji zmiany w biznesie.
Ontologia stawia sześć zasadniczych pytań w kwestii tego co istnieje, jak „to
coś” bytuje i w jaki sposób jest charakteryzowane (uposażenie ontyczne bytu).
1. Jak cechy danego bytu (np. organizacji) odnoszą się do niego samego? Pytanie jest
ważne, ponieważ zmiana sposobu, w jaki cechy odnoszą się do organizacji, czy
procesu biznesowego będzie decydować o jednym z kierunków zmian. Jest
istotne, czy organizacja jest mała, czy duża. Czy proces biznesowy jest wirtualizowany, czy też nie. Tranzycja mapy procesów do formy sformalizowanej i
wdrożenie jej w praktyce, oznacza zmianę w obszarze interpretacji opisu stanu
rzeczy przez cechy. A zatem zmiana jest w tym momencie usankcjonowana i
zdefiniowana przez siłę ekspresji cech w sensie akjometrycznym.
2. Które cechy bytu są najważniejsze, w odróżnieniu od mało istotnych atrybutów? Jest to
kolejna kwestia umożliwiająca rozróżnienie pomiędzy zmianą a korektą w odniesieniu do obiektu związanego z zarządzaniem. Zamiana kluczowych cech
określających podmiot lub przedmiot zarządzania na mniej znaczące atrybuty,
albo dodanie nowych określeń do katalogu cech charakteryzujących może sugerować zmianę. Warto w tym miejscu posłużyć się przykładem zmiany określeń w odniesieniu do stacji obsługi samochodów, która z niezależnego warsztatu nagle stała się koncesjonariuszem sieci fabrycznej. Ona nadal wykonuje
usługi, ale cechy przynależne marce, jakości i prestiżowi nagle stały się ważne
w opisie procesów i działań. Natomiast fakt że można kupić części danej marki
samochodów przeszedł do kategorii atrybutów (stał się oczywistością wynikającą z umowy koncesyjnej).
3. Jakie funkcje wyróżniają daną ontologię jako wyizolowany byt? Tu w sposób ewidentny możemy definiować zmiany poprzez różnice w sposobie bytowania
(funkcjonalność, nowe funkcje, nowe struktury, etc.). Wyobraźmy sobie, że posiedliśmy pakiet kluczowych kompetencji uruchomienia skomplikowanego
systemu IT dzięki zmianie dokonanej w układzie zasobów (przejęliśmy serwisantów, nabyliśmy certyfikacje, podpisaliśmy stosowne umowy). Organizacja
zaczyna być serwisantem lub VAR np. firmy SAP lub IBM. Zmieniają się funkcje
i zadania, które wprawdzie dotyczą w dalszym ciągu informatyki, ale zostały
one przedefiniowane na nowo.
4. Co stanowi o tożsamości danego bytu? Ta kwestia odpowiada za miarę zmiany.
Określenie tożsamości podmiotowej lub przedmiotowej w chwili początkowej
pozwala się odnieść do niej po określonym czasie. Zmiana pojawi się, o ile określenia tożsamości będą się różnić. W tym miejscu najlepszym przykładem jest
zmiana tożsamości marki (rys. 4.16). Firma 3M, z lokalnych zakładów górniczych w Two Harbors w Minnesocie stała się innowacyjną marką globalną, wykorzystującą najnowsze zdobycze nauki i oferująca dzisiaj 55000 produktów, a
jej tworzyw użyto na Księżycu.
205
5. Jak można uzasadnić, że dany byt istnieje? Jeżeli potrafimy dać świadectwa bytowania przedmiotu lub podmiotu rozważań dotyczących zmiany i określić desygnaty istnienia zarówno w chwili początkowej analizy, jak i po pewnym czasie, wówczas mamy podstawy do rozsądzania o zaszłej zmianie. Wróćmy do
przykładu firmy 3M. W roku 1902 świadectwem jej istnienia było kilku odbiorców minerałów, wykopanych przez górników. Siedziba firmy znajdowała się w
małym miasteczku. Tam też mieszkali jej właściciele i złożony były dokumenty
rejestracji. Dzisiaj świadectwem istnienia 3M są fabryki rozrzucone po całym
świecie, produkty dostępne w każdym markecie, reklama w mediach i spektakularne osiągnięcia innowacyjnych produktów. Z pewnością zmiany desygnatów istnienia 3M wykonały lot kosmiczny, podobnie jak buty N. Armstronga,
wykonane z materiałów 3M.
6. Kiedy analizowany byt przestaje istnieć, w odróżnieniu od jego zmiany? Umiejętność
określenia tożsamości istnienia bytu po dokonaniu jego tranzycji lub transformacji umożliwia wnioskowanie odnośnie zmiany. Tu posłużę się przykładem
firmy Siemens Nixdorf Informationssysteme A.G, produkującej komputery PC,
serwery, bankomaty i kasy fiskalne. Produkcja bankomatów i kas w 1999 roku
została przejęta przez Goldman Sachs i Kolberg Kracis Roberts i pod nazwą
Wincor-Nixdorf rozpoczęła tworzenie się nowego bytu, który w 2004 roku zadebiutował na giełdzie we Frankfurcie. W roku 2009 firma została przejęta przez
koncern Fujitsu i marka Siemens-Nixdorf na laptopach i komputerach PC wygasła. Przez pewien czas występowała jako Fujitsu-Siemens, by w końcu stać się
wyłącznie Fujitsu. W ten sposób zmiana sprowadzi czasami do unicestwienia
bytu.
Mamy zatem sześć aspektów umożliwiających rozpatrywanie zmiany organizacji lub innego podmiotu biznesu. Na tym należy również budować definicję
zmiany. Żeby zostać dobrze zrozumianym, jeżeli organizacja była w stanie ekonomicznym A i po dokonaniu pewnych działań przeszła do stanu B, to nie jest to
zmiana w sensie ontologicznym. Ale jeżeli organizacja wchłonęła inną i stała się
korporacją, to można wówczas mówić o zmianie. Stąd jawi się kolejna kwestia ontologiczna: których obiektów (ontologii) w biznesie zmiana może dotyczyć? To pytanie jest bardzo interesujące, bo nie ma na nie jednoznacznej odpowiedzi. Dotyczy
ona podmiotu i przedmiotu zmiany, co jest domeną dociekań epistemologicznych.
Kolejnym, bardzo ważnym aspektem zmiany w biznesie jest jej przebieg czasowy. Można w tej kwestii analizować dwa skrajne przypadki zmiany pozostającej
pod kontrolą: ewolucyjny i rewolucyjny. Może również zdarzyć się przypadek katastroficzny, który w małym stopniu zależy od planowanych działań i ma przebieg
nagły w nieprzewidywalnym momencie (wybuch elektrowni w Fukushimie spowodował zmiany katastroficzne w całym łańcuchu dostaw koncernu Toyota, a
wiele firm w wyniku tego przestało istnieć). Jest on najczęściej wynikiem jakiejś akcji ze strony otoczenia, wywołującej zaburzenie równowagi mikro-makro, której
206
system generujący wartość nie jest w stanie zbuforować. Zmiany mają wówczas
charakter wymuszony i adaptatywny. Są to zwykle działania ratunkowe ad hoc,
które mogą zostać zrealizowane jako sensowny projekt tranzycji.
Ostatnią kwestią epistemologiczną zmiany jest ustalenie podmiotu i przedmiotu procesu tranzycji. Biorąc pod uwagę strukturę organizacji można odnosić
rozważania podmiotowe do zmian: mapy procesów, jednostki organizacyjnej (SBU)
i całej korporacji. Rozważania przedmiotowe można wówczas definiować jako
wszelkie działania odnoszące się do funkcjonalności, użyteczności, redefinicji łańcucha wartości oraz lokalnego łańcucha dostaw. Tym samym zmiana może zostać
zdefiniowana podobnie, jak strategia. Ale można również działania na rzecz
zmiany odnosić do zasobów ludzkich, w szczególności do grup pracowniczych,
menedżerów operacyjnych, dyrektoriatu jako podmiotów oraz kluczowych kompetencji, wiedzy oraz zakresu obowiązków i zadań, jako przedmiotów zmiany.
Na podstawie powyższych rozważań ontologicznych można podjąć próbę zdefiniowania zmiany w organizacji. Punktem wyjścia jest systemowa definicja organizacji (rozdział 2.1.1).
[Df ] Zmianą w organizacji o ustalonym celu istnienia oraz stanie ekonomicznym, będącej
strukturą S = [U,O,R,P] określoną na niepustych zbiorach:
1. U obiektów u zwanych zasobami,
2. uporządkowanym zbiorze O dozwolonych oddziaływań w S,
3. zbiorze R relacji określonych w S,
4. zbiorze P procesów zmiany w czasie stanu zasobów U, oddziaływań O i relacji P,
nazywamy dowolne przekształcenie któregokolwiek ze zbiorów U,O,R,P stanowiących
strukturę S, takie, że po jego zajściu, konieczna staje się redefinicja celów istnienia struktury
S lub zmiana miary jej stanu.
Przez redefinicję celów istnienia struktury S oraz zmiany jej miary rozumieć
należy spełnienie zadość którejkolwiek z wymienionych wyżej sześciu kwestii ontologicznych. To ujęcie w zasadzie wyczerpuje wszystkie, dotychczas podejmowane w literaturze przedmiotu próby zdefiniowania zmiany w organizacji. Warto
również zauważyć, że zmiana wartości parametrów stanu nie stanowi zmiany w
rozumieniu niniejszej definicji. Tym samym spełnione są racjonalne przesłanki rozumienia wzrostu efektywności ekonomicznej, wynikające z istniejącego sposobu
prowadzenia działalności gospodarczej, jako zdarzenia nie będącego zmianą. Do
uznania wspomnianego wzrostu za wynik zmiany, konieczna jest w tym celu redefinicja miary. Z epistemicznego ujęcia definicji zmiany wynika równocześnie logiczna konsekwencja dla ustaleń kierunków metodologicznych.
207
Można w tym miejscu sprawdzić działanie definicji oraz ujęcia ontologicznego
zmiany, odnosząc się do jej zakresu, podmiotu i przedmiotu, używając układu zaproponowanego przez E. Cameron i M. Greena278: zmiana w zespole (podmiotowoprzedmiotwa), zmiana w organizacji (podmiotowo-przedmiotowa), zmiana przywództwa (przedmiotowa), restrukturyzacja (podmiotowa), fuzja i przejęcie (podmiotowa), zmiana kultury (przedmiotowa), zmiany procesów (przedmiotowa),
zmiana kompleksowa (podmiotowo-przedmiotowa).
4.2.2 Metodologia zmiany
Każdy strateg zajmujący się zmianami organizacji, czy też realizator projektu
wdrożenia zintegrowanego systemu IT zadaje sobie pytanie, czy wdrażać projekt
metodą „big bang” czy krok po kroku. I tu również nie ma jednoznacznej odpowiedzi, bo wynik zależy od zbyt wielu zmiennych, nie dających się zmierzyć i w sposób
pewny prognozować. Są jednak sposoby planowania zmiany, traktując zagadnienie
jako projekt tranzycji. Warto zwrócić uwagę na systematyczną metodę wdrażania
strategii opisaną na str. 184. Na rys. 3.11 przedstawiono cały cykl działań koniecznych do realizacji zmiany strategicznej według modelu zaprezentowanego na rys.
3.12. Strategia zawiera w sobie szereg zmian i projektów tranzycji. Stąd wszelkie
zalecenia dotyczące zarządzania strategią można stosować do zarządzania zmianami. W szczególności dotyczy to dopasowania kultury organizacji do wizji strategicznej oraz stawianych celów transformacji w wyniku realizacji jej projektów.
Z drugiej strony, przy projektowaniu zmiany możliwe jest prognozowanie scenariuszowe, pozwalające na mniej lub bardziej prawdopodobne przewidywanie
ewentualnych skutków wdrożenia projektu tranzycji. Oferują one wsparcie prognozy przez porównanie z jakimiś wcześniej zaistniałymi scenariuszami. To w
znacznej mierze ułatwia zarządzanie zmianą, ponieważ scenariusze wymagają zdefiniowania kwantyfikatorów analizowanych w czasie279.
Należy zaznaczyć, że nie istnieją w kwestiach metodologicznych jednoznaczne
opisy najlepszych praktyk albo metod realizacji zmiany. Wynika to w dużej mierze
z braku dobrze uwarunkowanych ustaleń epistemologicznych. Posługujemy się
studiami przypadku dla udanych tranzycji albo spektakularnych zdarzeń przemian. Tych przypadków jest opisanych dużo w literaturze przedmiotu, ale nie są to
kompletne dokumentacje od projektu do kwantyfikatorów. Najlepszym dokumen-
Cameron E., Green M., “Making Sense of Change Management. A complete guide to the models, tools &
techniques of organizational change”, 2 nd Ed. Kogan Page, London and Philadlphia, 2009.
http://www.bms.lk/download/GDM_Tutorials/e-books/Making_Sense_of_Change_Management.pdf
279
Kamugisha S., The Effects of Change Management in an Organisation: A Case Study of National University
of Rwanda (Nur), Wyno Journal of Management & Business Studies, Vol. 1(1), 2013, 1-18,
http://www.wynoacademicjournals.org/management_biz.html
278
208
tem wspomagającym zarządzanie zmianą, który w sposób kompleksowy przedstawia szablon dokumentacji zmiany we wszystkich fazach jej wdrażania, jest pozycja
Change Manangement Plan, Workbook, and Template 280.
Modela metodologiczny ADKAR
Kwestiami zmiany w praktyce, w najbardziej kompletny sposób zajmuje się
serwis Prosci281oferując liczne artykuły i wiadomości. Jednym z podejść Prosci jest
model ADKAR, definiujący metodologiczne aspekty zagadnienia wdrażania projektu tranzycji w przypadku zespołu lub jednostki. Można to zaprezentować jako:
Awareness (obawa przed zmianą),
Desire (potrzeba uczestnictwa i wspierania zmiany),
Knowledge (wiedza na tematy związane ze zmianą),
Ability (zdolność do wdrożenia pożądanych umiejętności i zachowań),
Reinforcement (umacnianie dokonanych zmian).
Nikt nie lubi zmian, zwłaszcza gdy coś działa i zawsze wśród grupy, której zmiana
ma dotyczyć pojawiają się obawy. Czy to nie obróci się przeciwko nam? Czy damy
radę się przestawić? Czy po zmianie będziemy mieli pracę? Takie kwestie muszą
zostać wyjaśnione i rozwiązane, czasami nawet w formalny sposób przez liderów
zmiany.
Model Lewina
W roku 1947 K. Lewin zaproponował model kognitywny rozumienia zmian w
organizacji, stanowiący fundament rozwoju koncepcji zarządzania zmianami282.
Używając metafory odmrażania i zamrażania kształtu bloku lodu dla zobrazowania
zmian kształtu organizacji, zaproponował trójstopniowy model takiej zmiany.
Rozmrażanie – stan, w którym rozmrożone zostają stare struktury i burzony jest
stary ład. Odczucia interesariuszy organizacji na tym etapie są ambiwalentne. Z jednej strony jest to strach przed zmianą, a z drugiej dostrzegane są potrzeby zmian,
mające uchronić organizację przed porażką w przyszłości. Na tym etapie następuje:
 przygotowanie organizacji do akceptacji konieczności zmiany,
 rozbicie istniejącego status quo i zbudowanie nowego sposobu działania,
 opracowanie przekonującej informacji dla wszystkich interesariuszy dlaczego
istniejący sposób działania nie może być kontynuowany,
 postawienie wyzwań organizacyjnych, w obszarach zmian przekonań, wartości,
postaw i zachowań,
 oczekiwanie stanu niepewności.
“Change Manangement Plan, Workbook, and Template”, Queensland Gov. Chief Information Office,
http://www.nrm.wa.gov.au/media/10528/change_management_plan_workbook_and_template.pdf
281
Prosci, “Change Management Learning Center”, http://www.change-management.com/tutorials.htm
282
Lewin K., . "Frontiers in Group Dynamics: Concept, Method and Reality in Social Science; Social Equilibria and Social Change", Human Relations. Vol. 1, (1947), 5–41. http://journals.sagepub.com/doi/pdf/10.1177/001872674700100103
280
209
Zmiana – implementacja zmiany, której skuteczność zależy od założonego projektu
tranzycji, przywództwa w procesie transformacji oraz stopnia zaangażowania pracowników. Na tym etapie:
 pracownicy rozwiązują problemy związane z niepewnością i szukają nowych
sposobów działania,
 ludzie zaczynają wierzyć i działać w sposób, który wspiera nowy kierunek reorganizacji,
 poświęcają czas dla przyjęcia nowego kierunku działania i uczestniczą aktywnie
w przemianie,
 koniecznie muszą zrozumieć korzyści płynące z realizowanej zmiany,
 zdawać sobie sprawę, że nie każdy będzie pasować do wspierania zachodzącej
zmiany i korzyści z niej płynących.
Zamrażanie- pracownicy integrują się z nowym status quo i akceptują go, jako stan
normalny. Organizacja przechodzi w stan zmieniony. Objawia się to następująco:
 zmiany zaczynają się wyraźnie kształtować, a pracownicy rozumieją nowe sposoby pracy,
 ustala się stabilny schemat organizacyjny, spójne opisy stanowisk pracy, nowa
mapa procesów, zmodyfikowane obiegi dokumentów, etc.,
 zmiany są zinternalizowane lub zinstytucjonalizowane poprzez włączenie do codziennej pracy i struktur organizacji,
 potwierdzenie wysiłków ludzi włożonych w dokonaną reorganizację, wzmacnia
ich wiarę w przyszłe zmiany,
 świętowanie sukcesu zmiany pomaga pracownikom uznać zakończenie procesu
transformacji.
Model Kottera
Kotter zaproponował model zmiany organizacji jako logiczny ciąg ośmiu kroków283, przedstawionych w tabeli 11. Model ten jest przykładem zdroworozsądkowego podejścia do wdrażania dowolnej strategii lub polityki wewnątrz organizacji,
stanowiąc fragment 3 (zestrajanie organizacji) i 4 (planowanie operacji) schematu
wdrażania strategii (Rys. 3.11).
Tabela 10 Model zmiany wg. Kottera
Krok
1
2
283
Nazwa
Nadanie priorytetu
pilności dla dokonania zmian
Utworzenie koalicji
przewodzącej zmianie
Objaśnienie
Należy pomóc innym w dostrzeżeniu konieczności zmian i
przekonać ich do ważności natychmiastowego rozpoczęcia
działań.
Zebrać odpowiednią grupę interesariuszy, mającą moc
sprawczą dokonania zmiany i stworzyć zespół wiodący.
Kotter, J. P., “Leading Change”, Harvard Business Press Review, Boston, (1996).
210
3
4
Opracowanie koncepcji zmiany
Rozpropagowanie
wizji w organizacji
5
Wzmocnienie działań harmonizacji organizacji i strategii
6
Ustanowienie krótkoterminowych celów i nagród za ich
realizację
7
Nigdy nie osłabiać
działań i nie poddawać się
8
Integracja zmian z
kulturą organizacji
Stworzyć wizję zmiany i opracować strategię dla jej realizacji. Utworzyć projekt w sensie macierzy logicznej LFA.
Doprowadzić do sytuacji, w której większość interesariuszy
rozumie i akceptuje projektowane zmiany i strategię.
Usunąć przeszkody blokujące wprowadzenie zmian. Przemodelować systemy lub struktury nie odpowiadające wizji
zmiany. Zachęcić do podejmowania niekonwencjonalnych
działań i podejmowania ryzyka.
Zaplanować krótkoterminowe osiągnięcia, które można łatwo uwidocznić (kamienie milowe zmiany). Identyfikować
i nagradzać pracowników, którzy byli zaangażowani w te
osiągnięcia.
Zwiększać wiarygodność zmiany systemów, struktur i polityk, które nie pasują do wizji strategicznej. Zatrudnić, promować i rozwijać tych pracowników, którzy mogą wdrożyć
strategię. Ożywiać proces za pomocą nowych projektów
tranzycji oraz tematów powiązanych z wizją zmian.
Artykułować powiązania pomiędzy nowymi zachowaniami oraz reorganizacją zasobów i struktury, a sukcesem
organizacji. Opracować sposoby ciągłości transformacji i
sukcesji.
Powyższy model można uznać za dobrą praktykę w odniesieniu do realizacji
zmian przez zespoły strategiczne organizacji.
Analiza scenariuszowa zmiany
Budowanie scenariuszy jest standardową metodą postępowania w podejmowaniu decyzji i działań prowadzących do zmiany. Przykładem są strategie, a
zwłaszcza cele odległe w czasie oraz te, dotyczące restrukturyzacji. Warto w tym
miejscu w sposób szczególny podkreślić, że zarządzanie zmianami jest podejściem
stricte konsekwencjalnym menedżera i wymaga zarówno pomiaru, jak i prognoz
skutków podejmowanych działań.
Każdy scenariusz budowany jest w układzie: pesymistyczny (najgorszy z możliwych), optymistyczny (najlepszy z możliwych) oraz najbardziej prawdopodobny
(np. scenariusz PEST, str. 431 oraz analiza SWOT str. 440). Zanim zostanie zbudowany scenariusz zmiany, konieczne jest zdefiniowanie kluczowych charakterystyk
obiektu przedmiotowego. Przykładem jest definiowanie zmiany strategicznej (rys.
3.12), dla której miernikiem może być strategiczna karta wyników Kaplana i Nortona (rys. 4.35). Zbiór takich kwantyfikatorów można ustawić w kolumnie i dla każdego ustalić poziom wartości minimum oraz maksimum w skali 0 – 10 (lub podobnej) metodą DTF (rozdział 5.1.3). W ten sposób można dokonać skalowania dla scenariusza pesymistycznego i optymistycznego (Rys. 4.5). Scenariusz najbardziej
211
prawdopodobny leży gdzieś pośrodku. Oczywistym jest, że ustalając prawdopodobieństwa uzyskania określonego wyniku dla danego wskaźnika można nanieść na
diagram również wynik najbardziej prawdopodobny. Biorąc pod uwagę trzy możliwości zachowania się danej zmiennej: uzyskanie wartości minimalnej z prawdopodobieństwem P1, uzyskanie wartości maksymalnej z prawdopodobieństwem P2
oraz wartości średniej z prawdopodobieństwem P3, gdzie P1+P2+P3 = 1, możemy
wykreślić wariant z maksymalnym prawdopodobieństwem.
Rys. 4.5 Układ scenariusza zmiany
Wariant najbardziej prawdopodobny będzie znajdować się gdzieś pomiędzy
pesymistycznym, a optymistycznym. Taka analiza pozwala na prognozę zachodzenia zmiany w zależności od czynników zewnętrznych, jak i wewnętrznych podmiotu, w którym ta zmiana się dokonuje. Scenariuszy nie należy mylić z harmonogramami Gantta i rzeczowymi, które stosuje się w zarządzaniu projektamirys. 4.4).
Scenariusz jest elementem prognozy skutków wdrożenia projektu tranzycji lub zajścia zmiany, podczas gdy harmonogramy stanowią plan operacyjny realizacji.
212
Kluczowe wskaźniki efektywności zmiany
Ustalić kierunek zmian to jedno, ale zdefiniować monitoring i miarę efektywności dokonanej zmiany, to jest zupełnie inne zagadnienie. W przypadku projektu
tranzycji w organizacji, konieczne jest ustalenie pewnej liczby możliwych do zdefiniowania kwantyfikatorów, ewidentnie powiązanych z dokonywaną zmianą. Należy mieć na uwadze, że organizacja nie przechodzi w stan spoczynku w momencie
tranzycji. Ona działa nadal. Stąd skutki wprowadzenia zmian muszą dawać się mierzyć na tle innych pomiarów, związanych z kontrolingiem oraz finansami. Przykładowy zestaw kluczowych wskaźników efektywności zmiany można przedstawić
następująco:
1. liczba zmian wprowadzonych do produktów lub usług zgodnie z wymaganiami klientów, np. ewidentna poprawa jakości,
2. zmniejszenie liczby zakłóceń działania łańcucha wartości wskutek niedokładności organizacyjnych, dokumentacji i procedur procesowych,
3. zmniejszenie liczby niepożądanych zmian lub zdarzeń stochastycznych, wymagających działań awaryjnych,
4. wskaźnik sukcesu zmiany (procentowy wskaźnik efektów uznanych za sukces
z katalogu projektu tranzycji),
5. zmiana liczby procesów charakteryzujących się słabszymi wskaźnikami oceny
(np. niezawodności, dopasowania do harmonogramów zadaniowych - wąskie
gardła),
6. procentowy wskaźnik dopasowania efektów zmiany do oczekiwań (założenia i
efekty opisane za pomocą kwantyfikatorów wymiernych),
7. średni czas wprowadzenia zmiany ad hoc,
8. wskaźnik efektywności ekonomicznej zmiany w procesie tranzycji (ROI dla procesu),
9. poziom akceptacji zmiany przez pracowników, zarząd i otocznie,
10. procent wskaźników kontrolingowych, który uległ poprawie.
Układ wskaźników efektywności zmiany musi zostać utworzony dla każdego procesu tranzycji, podobnie jak ma to miejsce w projektowaniu strategii.
4.2.3 Biznes plan jako projekt zmiany
Jak zaplanować przedsięwzięcie biznesowe w sposób świadomy, a następnie
przejść do jego wdrożenia w praktyce? To pytanie stanowi fundament zarządzania
zmianą, niezależnie od poziomu rozwoju organizacji. Najczęściej zmiana polega na
powstaniu nowego bytu gospodarczego, ale również dotyczy wszelkich rozszerzeń
działalności. Wiedza przekazana w niniejszej monografii umożliwia skonstruowanie bardzo dobrego i rozbudowanego biznes planu nie tylko dla projektu przedsiębiorczego, opartego na jednoosobowej działalności, ale również dla projektu realizowanego przez duży start up, będący spółką akcyjną. Wszystkie niezbędne analizy
213
i opisy konieczne dla stworzenia takiego dokumentu zostały opisane wcześniej, a
rolą niniejszego rozdziału jest syntetyczne ujęcie tego, co należy uwzględnić w sposób uporządkowany w biznes planie.
Każdy, kto zamierza rozpocząć działalność gospodarczą lub wdrożyć jakiś projekt biznesowy, powinien zadać sobie kilka pytań związanych z kwestią dlaczego
chcę uruchomić ten projekt biznesowy, a w szczególności odpowiedzieć na następujące kwestie, które ująłem w sześć pytań zaczynających się od „co”.
1. Co chcę osiągnąć wdrażając dany projekt biznesowy?
2. Co wiem o planowanym biznesie?
3. Co mam na start?
4. Co ryzykuję?
5. Co będzie, gdy projekt się nie uda i poniosę porażkę?
6. Co może mi pomóc w odniesieniu sukcesu?
Teraz dopiero następuje odpowiedni moment na zdanie sobie sprawy, czym jest
biznes plan. Jest on dokumentem opisującym przedsięwzięcie gospodarcze, jego
produkty lub usługi, sposób wejścia na rynek oraz sposób finansowania całej operacji lub procesów z tym związanych. Opisuje inwestycje, które należy wykonać
oraz te, które są w trakcie realizacji, a dotyczą planowanego biznesu. Odpowiada
na sześć podstawowych kwestii.
1. Kto robi ten biznes? (Animatorzy biznesu i ich zasoby).
2. Co jest przedmiotem biznesu? (Łańcuch wartości dla przedsięwzięcia).
3. Komu ten biznes jest dedykowany? (Analiza interesariuszy i rynku).
4. Jak to zostanie zrobione? (Strategia, mapa procesów i łańcuch dostaw).
5. Ile to będzie kosztować? (Analizy ekonomiczne i finansowe).
6. Jakie jest ryzyko przedsięwzięcia? (Bariery wejścia i wyjścia, zagrożenia).
Ponadto w biznes planie formułuje się cele na najbliższy czas (od roku do kilku lat)
i sposoby ich osiągnięcia w powiązaniu z aktualną sytuacją firmy, rynku oraz prognozami na przyszłość. Nie powinno zatem dziwić, że najważniejszym składnikiem
biznes planu jest prognoza finansowa danego projektu, czyli ocena, czy poniesione
nakłady się zwrócą oraz analiza zagrożeń. Biznes plan jest równocześnie wielopłaszczyznową oceną ekonomiczną animatora projektu biznesowego, jego potencjału, szans rynkowych i zagrożeń czyhających w otoczeniu. Opisuje działania marketingowe i sprzedaży oraz perspektywę dla interesariuszy projektu biznesowego,
kreśląc wizję rozwoju organizacji, która będzie go realizować. Stąd do utworzenia
dobrego biznes planu potrzebna jest znajomość: metod badania rynku, analiz finansowych i diagnoz ekonomicznych otoczenia Każdy przedsiębiorca powinien posiadać biznes plan dla swojej firmy lub przedsięwzięcia gospodarczego, który rozumie
i zamierza realizować, bo ułatwia to późniejsze zarządzania i ogranicza ryzyko popełnienia błędów decyzyjnych.
Biznes plan tworzymy dla określonych interesariuszy projektu biznesowego.
Musi on być zatem dostosowany do oczekiwań konkretnego adresata. Pożądana
214
jest pewna uniwersalność formy dokumentu, przynajmniej dla banku (udzielającego kredytu), inwestora (wykładającego kapitał) i właściciela (podejmującego ryzyko uruchomienia projektu). Bank na pewno zwróci szczególną uwagę na finansowe aspekty przedsięwzięcia, w tym: sposoby zabezpieczenia kredytu, rezerwy
finansowe, planowane przepływy gotówkowe oraz ryzyko. Inwestor będzie przyglądać się przede wszystkim merytorycznej stronie samego projektu, ryzyku inwestycji, analizom efektywności ekonomicznej, osobistym predyspozycjom kierownictwa firmy oraz unikatowości planowanego projektu biznesowego. Dla właściciela poprawnie i realnie opracowany biznes plan jest użytecznym narzędziem w
procesie zarządzania organizacją wdrażającą projekt oraz planowania działań ad
hoc. Może wręcz zastępować strategię.
Tworzenie biznes planu jest typowym projektem planistycznym, który można
realizować zgodnie z zasadami macierzy logicznej (LFA - rozdział 6.7). Jest to jedna
z dobrych praktyk, prowadząca zawsze do sukcesu. To, do czego ma to doprowadzić, jest wypełnienie pewnego szablonu dokumentu treścią.
Struktura biznes planu
Typowy biznes plan ma ustaloną strukturę, której należy się po prostu trzymać.
Ale wypełnienie treścią poszczególnych elementów stanowi umiejętność i pozwala
na uzyskanie dokumentu finalnego, który może się wyróżniać na tle innych. Tym
samym może być lepszym ambasadorem projektu biznesowego wobec interesariuszy zewnętrznych. Poniżej przedstawiam typową strukturę biznes planu, zrozumiałą dla większości ekonomistów oraz menedżerów.
1. Streszczenie menedżerskie projektu biznesowego (maksimum 2 strony).
2. Firma i branża.
 Historia i obecna sytuacja firmy.
 Wizja, misja i cele do osiągnięcia.
 Charakterystyka branży i otoczenia PEST(LE).
 Analiza SWOT.
 Zasoby i kluczowe kompetencje.
3. Przedsięwzięcie biznesowe.
 Prezentacja przedsięwzięcia.
 Interesariusze (analiza wpływu).
 Zakres koniecznych inwestycji.
 Uwarunkowania prawne i techniczne.
 Konieczne zasoby i środki.
4. Plan sprzedaży i marketingu.
 Oferowany produkt lub usługa.
 Analiza rynku.
 Strategia marketingowa.
 Cena.
215
 Promocja.
 Dystrybucja.
5. Plan działania.
 Działalność: produkcja lub usługi.
 Zarządzanie firmą.
 Harmonogramy działań.
6. Plan finansowy.
 Nakłady inwestycyjne.
 Źródła finansowania.
 Harmonogram finansowy.
 Aktualne dane finansowe.
 Prognozy finansowe.
 Rachunek zysków i strat.
 Przepływy pieniężne - cash flow (CF).
 Bilans firmy (o ile jest sporządzany).
 Punkt rentowności (BEP).
 Analiza wskaźnikowa (EBITDA, NPV, IRR).
 Ocena efektywności (CBA, Wskaźnik Efektywności).
7. Ocena ryzyka przedsięwzięcia.
 Analiza ryzyka zgodnie z normą (ISO oraz AIRMIC, ALARM, IRM).
 Analiza wrażliwości dla projektu.
 Symulacja wyniku dla najbardziej istotnych ryzyk finansowych i rynkowych.
8. Załączniki.
Co należy rozumieć w odniesieniu do punktów biznes planu wykracza poza ramy
niniejszej monografii. Opracowania tych kwestii są powszechnie dostępne w Internecie, np. Biznes plan dla wnioskodawców ubiegających się o dofinansowanie projektu w ramach Programu Operacyjnego Innowacyjna Gospodarka284, projekt biznes planu po angielsku, autorstwa rządu brytyjskiego wraz z licznymi przykładami285 oraz organizacji pozarządowych Entrepreneur286, Prince’s Trust287.
Istnieją również liczne programy komputerowe, umożliwiające wygenerowanie gotowego dokumentu na podstawie danych wprowadzanych na zasadzie wypełniania ankiety288 lub ułatwiające wykonanie analiz fianansowych w Excelu289.
PARP, “Biznes plan dla POIG”, https://poig.parp.gov.pl/files/74/108/212/2210.doc
Gov.UK, “Write a business plan”, https://www.gov.uk/write-business-plan
286
Entrepreneur, “Biznes Plan: A Step-by Step Guide”, https://www.entrepreneur.com/article/247574
287
Prnce’s Trust, „Business Plans”,
https://www.princes-trust.org.uk/help-for-young-people/tools-resources/business-tools/business-plans
288
Nowyinteres.pl, “Biznes plan jest prosty”, http://www.nowyinteres.pl/
289
Wykorzystaj to.pl, „Prosty biznes plan, czyli jak sprawdzić, czy na tym zarobię”, http://wykorzystajto.pl/860-biznes-wlasna-firma-zarzadzanie_prosty-biznes-plan-czyli-jak-sprawdzic-czy-na-tym-zarobie.html i arkusz analityczny w Excelu, https://docs.google.com/spreadsheets/d/1XgzuMRpAMsI4bnm-G4VnKqhS8oRc6HQmRfPeSCCgdY/edit?hl=pl#gid=3
284
285
216
Profesjonalne biznes plany w języku angielskim oferuje oprogramowanie firmy
Palo Alto Software „LivePlan. Online planning”290, wydanie desktopowe „Biznes
Plan Pro. Premier Ed”291 oraz należący do JIAN Business Power Tools,
“BizPlanBuilder”292.
Kończąc rozdział poświęcony zmianom, warto podkreślić, że dobry biznes
plan pozwala na świadome sterowanie przebiegiem zmiany w czasie. Z założenia
preferuje on działanie ewolucyjne i dzięki temu ogranicza ryzyko niepowodzenia.
Umożliwia zmianę scenariusza działań na każdym etapie realizacji. Nie gwarantuje
wprawdzie sukcesu danego biznesu, ale doświadczenie tych, którzy zrealizowali
swoje biznes plany wskazuje, że osiągali oni założone wskaźniki położenia ekonomicznego. A to jest wystarczającym powodem do potraktowania stosowania biznes
planu jako dobrej praktyki w biznesie i w zarządzaniu zmianą.
4.3 Zarządzanie ryzykiem
Jak już wspomniałem wcześniej, działalności gospodarczej zawsze towarzyszy
ryzyko. Jest ono skutkiem istnienia niepewności w chwili podejmowaniu i wdrażania decyzji. Ryzyko związane jest ze stanem świadomości podejmującego je co do
możliwości poniesienia pewnej straty wskutek podjęcia określonych decyzji i działań. Tym samym akceptując i ponosząc większe ryzyko należy oczekiwać wyższego
poziomu zysku z podjętych działań lub oczekiwać dodatkowej premii w przypadku sukcesu. Taka nagroda zwykle przekracza spodziewaną wartość potencjalnej straty, którą można ponieść w przypadku porażki. Z drugiej strony, ryzyko jest
na ogół proporcjonalne do prawdopodobieństwa wystąpienia zdarzenia obciążonego i do wielkości strat, które mogą wystąpić jako skutek293. Ten mechanizm jest
jednym z motywatorów podejmowania różnych wysiłków i działań przez człowieka. Na rys 4.6 przedstawiony został model takonomii czynników ryzyka, który
najlepiej wyjaśnia gdzie można spodziewać się jego wystąpienia w działalności gospodarczej.
290
Live Plan, https://www.liveplan.com/
Palo Alto, “Biznes Plan Pro”, http://www.paloalto.com/business_plan_software/features/premier
292
Business Power Tools, http://www.businesspowertools.com/project/bizplanbuilder-small-cloud-businessplan-software-app-template-crowd-fund/
293
Jones J. A., „An Introduction to Factor Analysis of Information Risk (FAIR). A framework for understanding,
analyzing, and measuring information risk”, 2011,
http://www.riskMenedźmentinsight.com/media/docs/FAIR_introduction.pdf .
291
217
Rys. 4.6 Układ czynników ryzyka [Na podst.: AIRMIC 29 5 …].
Najprostszym skutkiem ponoszonego ryzyka są bezpośrednie straty finansowe
u inwestorów giełdowych, zwłaszcza tych, spekulujących na Forexie. Można zdefiniować następujące skutki zmaterializowania się ryzyka w formie realnych strat:
 przejście organizacji w stan niebytu,
 zaistnienie niekorzystnych zmian w strukturze zasobów,
 ograniczenie możliwości lub efektywności generowania wartości,
 osłabienie relacji wewnętrznych,
218



osłabienie oddziaływań i relacji z otoczeniem,
obniżenie funkcjonalności zasobów,
obniżenie użyteczności i wartości organizacji,
 uzyskanie negatywnej oceny audytorów,
 wywołanie niekorzystnych działań adaptatywnych u interesariuszy,
 poniesienie nieplanowanych kosztów.
Skutki pośrednie ryzykownych działań i spekulacji finansowych dotyczą nie tylko
bezpośrednich graczy, ale całych systemów społecznych. Wskutek bessy giełdowej
systemy portfelowe zabezpieczenia emerytalnego obniżają swoją wartość, podobnie jak aktywa bankowe. W skrajnych przypadkach dochodzi do upadłości instytucji finansowych i zachowań katastroficznych na szeroką skalę (przypadek upadłości ENRON oraz Lehman Brothers). Dlatego ryzyko działalności gospodarczej musi
być pod kontrolą, a każdy system generujący wartość powinien inwestować w systemy wspomagające szacowanie i obniżanie ryzyka. Nie należy się dziwić, że biznes
wypracował metodologię postępowania z ryzykiem i najlepsze praktyki, co opisano
w sposób normatywny294 oraz standard AIRMIC, ALARM, IRM295 (rys. 4.6).
4.3.1 Taksonomia ryzyka
Ryzyko w działalności gospodarczej zostało podzielone ze względu ma miejsce
powstawania na dwie główne kategorie:
 Ryzyka wewnętrznie zorientowane (a priori) związane są z działaniami i decyzjami wewnątrz organizacji, na redukcję których mamy wpływ. Przykładem
mogą być decyzje finansowe o zakupie środków trwałych lub plan optymalnej
struktury zapasu magazynowego. W obu przypadkach istnieje ryzyko nie trafienia z efektywnością zakupu i spowodowania problemów w obszarze płynności finansowej. Tych ryzyk można uniknąć lub zredukować je, zanim jeszcze
wystąpią.
 Ryzyka zewnętrznie zorientowane (a posteriori) wiążą się ze zmianami w otoczeniu, na które organizacja wpływu nie ma i przejawiają się po podjęciu działań. Można jedynie w sposób adaptatywny ograniczać skutki zaistnienia zdarzeń ryzykownych w otoczeniu i próbować je przewidzieć przed podjęciem decyzji. Stąd wynika bardzo istotny aspekt prognozowania ryzyk zewnętrznie
zorientowanych dla przedsięwzięć biznesowych, szczególnie projektów związanych z inwestycjami.
Drugim kluczem taksonomicznym dla ryzyka są jego rodzaje. Wyróżniono
cztery, główne kategorie rodzajowe, wśród których mogą występować ryzyka we-
ISO Guide 73:2009. Risk Menedźment. http://www.iso.org/iso/catalogue_detail?csnumber=44651
AIRMIC, ALARM, IRM, “A Risk Management Standard”, 2002 http://www.theirm.org/publications/documents/Risk_Menedźment_Standard_030820.pdf
294
295
219
wnętrznie zorientowane oraz zewnętrznie zorientowane, jak na Ryzyko finansowe. Zewnętrznie zorientowane ryzyka dotyczą zmienności stóp procentowych
na rynku międzybankowym, kursów walut oraz zmienności kosztów kredytów.
Wewnętrznie zorientowane, leżące po stronie organizacji, wiążą się z możliwości
utraty płynności finansowej oraz zahamowaniem przepływów finansowych. Podejmując złą decyzję o zakupie inwestycyjnym lub wydatku niecelowym, można przewidzieć skutki dla przepływów finansowych. Stąd, jednym z imperatywów zarządzania ryzykiem jest kontrola przepływów finansowych zarówno dla projektów inwestycyjnych (studium wykonalności), jak również bieżącej działalności organizacji. Ryzyko finansowe objawia się na każdym poziomie zarządzania: operacyjnym,
taktycznym oraz strategicznym. Im dalszy horyzont czasowy skutków ryzykownych decyzji, tym prawdopodobieństwo wystąpienia zdarzeń katastroficznych jest
większe, a ich skutki poważniejsze. Stąd ryzyko finansowe decyzji strategicznych
jest bardzo poważnym zagadnieniem nauk o zarządzaniu i praktyki menedżerskiej.
 Ryzyko strategiczne. W tej grupie ryzyk, po stronie otoczenia (zewnętrznie zorientowane), mamy takie czynniki, jak: zachowania konkurencji, zmiany konkurencji, zmiany preferencji klientów, zmiany technologiczne, upodobania
oraz styl życia konsumentów. Możemy w tej kwestii próbować w sposób elastyczny dostosowywać się do zmienności rynku, a nawet uczestniczyć w jego
kształtowaniu (o ile mamy wystarczająco duży potencjał). Nie mamy jednak
wpływu na konsumentów od strony popytowej – możemy dostosowywać podaż i uatrakcyjniać ofertę. Przyjęcie niewłaściwej strategii rynkowej w dłuższym horyzoncie czasowym, może spowodować nawet upadłość.
Z kolei, po stronie czynników ryzyka strategicznego, wewnętrznie zorientowanego, mogą występować zaburzenia równowagi podaży i popytu wraz z
utratą równowagi mikro-makro. To może być spowodowane działaniem samej
organizacji. Oferując produkty słabo konkurencyjne lub nieakceptowane na
rynku w wyniku błędnych decyzji strategicznych, możemy ponieść znaczne
straty. Przykładem mogą być modele samochodów, które nie przyjęły się na
rynku, a ich producenci ponieśli znaczące straty. Praktyka biznesowa wskazuje, że liczba nietrafionych strategii oraz związanych z tym produktów jest
ogromna.
 Ryzyko operacyjne. Jest to jeden z ważniejszych aspektów zarządzania ryzykiem, albowiem dotyczy codziennej praktyki gospodarczej i najbardziej licznego pakietu decyzji w organizacji. Skutki tych decyzji nakładają się na siebie,
wywołując różnorodne interakcje, często trudne do przewidzenia w chwili ich
podejmowania. Menedżerowie średniego szczeble wdrażają równolegle całe
pakiety decyzyjne. Nie ma przy tym praktycznie możliwości kontroli wzajemnych działań. Cele cząstkowe są osiągane na drodze mnogości procesów, które
są uruchamiane równolegle.
220
Ryzyka operacyjne zewnętrznie zorientowane dotyczą relacji kultury otoczenia i możliwości niedopasowania się organizacji do istniejącego jej poziomu.
Nie da się w Szwajcarii osiągnąć sukcesu stosując afrykańskie standardy działania operacyjnego oraz procedury niezgodne z regulacjami doskonale zorganizowanego państwa. Drugim czynnikiem destabilizującym działalność gospodarczą są wszelkie regulacje państwowe, które zwłaszcza w niestabilnych
systemach gospodarczych i prawnych, takich jak Polska, potrafią wywrócić panujący ład wewnątrz organizacji.
W odniesieniu do ryzyk operacyjnych wewnętrznie zorientowanych, głównym ich źródłem są systemy logistyczne, informatyczne oraz kontroli finansowej. Luki w działaniu któregoś z wymienionych elementów skutkują natychmiast problemami w realizacji procesów łańcucha wartości organizacji. Te ryzyka możemy jednak eliminować, a problemy monitorować na bieżąco, np.
dzięki zintegrowanym systemom informatycznym klasy ERP.
 Ryzyko hazardowe występuje zawsze w działalności gospodarczej zarówno
jako wewnętrznie zorientowane, jak i zewnętrznie zorientowane. Wiąże się ono
z relacjami ludzkimi w organizacji oraz oddziaływaniami między podmiotami
gospodarczymi. Każdy, podpisany kontrakt z dostawcą lub klientem jest formą
hazardu, bo nigdy nie wiadomo czy uda się wszystko zrealizować zgodnie z
założeniami. Dla przykładu klient nie zapłaci, bo w międzyczasie ogłosił upadłość. W drugą stronę, klient nam zapłacił, ale nie zrealizujemy kontraktu, bo
personel zastrajkował. Zawsze gdy mamy do czynienia z zatrudnieniem pracownika pojawia się element hazardu i na nic się zdadzą wyszukane procedury
rekrutacji oraz nadęte struktury head hunterów. Sprzeczności pomiędzy celami
organizacji i indywidualnymi zawsze będzie źródłem ryzyka działalności. Znakomitym przykładem ryzyka hazardowego są relacje logistyczne w systemach
produkcji just in time.
Jednym z najbardziej nieprzewidywalnych aspektów zarządzania organizacją
są rozliczne regulacje: prawne, podatkowe, korporacyjne, etyczne etc. oraz te, tworzone na bieżące potrzeby polityczne. Wszelkie zaburzenia i tak już słabo otwartych
ekonomii przez hordy lobbystów, korporacje i banksterów stale wnoszą poważne
ryzyko dla działalności gospodarczej. W Polsce co cztery lata wieje wiatr historii i
następują coraz lepsze zmiany, na ogół na gorsze dla biznesu. Takie działanie w
odniesieniu do relacji mikro-makro bez przerwy powoduje wychwiania od stanu
równowagi istniejących ekosystemów biznesowych. W odpowiedzi organizacje
mogą jedynie monitorować sytuację za pomocą dostępnych narzędzi i wykorzystać
odpowiednio regułę przekory LeChateliera, zasady optymalizacji i autoadaptacji.
Nie wyeliminuje to jednak ryzyka z ich działalności.
221
4.3.2 Style zarządzania ryzykiem
Zarządzając ryzykiem cały czas należy pamiętać, że biznes nie jest hazardem i
nie lubi ryzyka. Kapitał zaś, idzie tam, gdzie chce. Biznes lubi stabilizację, ciszę i
twarde relacje, które są przewidywalne w długim okresie czasowym. Z zasady prowadzenie biznesu związane jest z ograniczaniem do minimum ryzyk wszelkich, albowiem biznes to jest co najwyżej kontrolowana gra przeciwko otoczeniu, a nie ruletka. Całkowita eliminacja ryzyka nie jest tu możliwa, z czym przedsiębiorca, menedżer i właściciel muszą się pogodzić. Ludzie z natury nie lubią ponosić strat i są
niechętni podejmowaniu ryzykownych działań. Wolą zabezpieczenia i ochronę
własności, niż perspektywę niepewnej nagrody. Z tym faktem związane są cztery
style zarządzania ryzykiem, wynikające z teorii gier, reprezentujące postawy decyzyjne wobec potencjalnej straty lub zysku296.
 Pesymistyczna, charakteryzowana przez kryterium L. Savage'a. Minimalizuje
ono oczekiwaną przez decydenta stratę, związaną z podjęciem decyzji gorszej
niż optymalna, dla pewnego problemu decyzyjnego (ochrona kapitału,
ochrona stabilności, strategie mini-mini etc.). Stąd rodzi się koncepcja prowadzenia biznesu z minimum ryzyka. Przykładem mogą być fundusze inwestycyjne ochrony kapitału, gdzie nie jest ważne ile się zarobi, ale ważne jest aby
lokowany kapitał nie stracił na wartości.
 Optymistyczna, charakteryzowana przez kryterium P. Laplace’a, najwyższej
oczekiwanej wypłaty, przy założeniu, że wszystkie stany natury są jednakowo
prawdopodobne, co zwykle jest trudne do stwierdzenia. Postawa ta charakteryzuje ofensywne zarządzanie w poszukiwaniu maksymalnych korzyści i wykorzystywnia okazji. Dominują tu strategie maxi-maxi, inwestycje w ryzykowne projekty wysoce zyskowne, tworzenie funduszy inwestycyjnych.
 Zrównoważona, charakteryzowana przez kryterium A. Walda, według którego należy wybrać tą decyzję, której odpowiada najwyższa spośród najgorszych wypłat. Wyraża ona tym samym zachowawczą strategię postępowania,
gwarantując najmniejszą stratę, a zarazem maksymalizując zysk. (Strategie
maxi-mini, zrównoważony rozwój, dywersyfikacja portfeli etc.). Przykładem
mogą być fundusze zrównoważonego wzrostu. Fundamentem działań jest zasada bezpiecznego i racjonalnego inwestowania.
 Racjonalna, charakteryzowana przez kryterium L. Hurwicza, według którego
należy wybrać tą decyzję, której odpowiada maksymalna wypłata, ale przy założeniu pewnego współczynnika optymizmu (λ) z przedziału [0,1]. Tym samym postawa racjonalna jest kompromisem między podejściem optymistycznym Laplace’a a pesymistycznym Savage’a. Zarządzanie według kryterium
296
Strafin P.D., op. cit
222
Hurwicza charakteryzuje zmienne ryzyko i podejście adaptatywne w zależności od okoliczności. Dotyczy strategii wyłaniających się od, wykorzystania opcji
realnych oraz szeregów czasowych.
Menedżer ma różne możliwości zachowań wobec decyzji obarczonych ryzykiem.
Nie ma przy tym ścisłej reguły, które z kryteriów jest najlepsze. Zależy to od kontekstu biznesowego, stopnia niepewności oraz psychologicznego nastawienia danego menedżera do poniesienia straty. Inne nastawienie do ryzykownych inwestycji i działań będzie mieć bank, fundusz emerytalny, a zupełnie inne będzie mieć
gracz giełdowy na instrumentach pochodnych. Z racjonalnego punktu widzenia należy przyjąć, że kryterium Hurwicza jest najbardziej uniwersalnym, a przez parametr optymizmu pozwala dopasować poziom ryzyka do problemu.
4.3.3 Model zarządzania ryzykiem w organizacji
Jak zorganizować proces podejmowania istotnych decyzji w większej organizacji, żeby ograniczyć ryzyko? Należy zbudować model umożliwiający równocześnie prognozę skutków decyzji, dostęp online do danych bieżących i przeszłych
wspomagających podejmowanie decyzji oraz kontrolę back office decyzji podejmowanych przez front office297. Takie modele wydają się być najbardziej efektywne w
zarządzaniu ryzykiem, a wsparcie przez systemy ERP jest naturalnym wyborem
narzędzi rys. 4.7.
297
Gospodarek T., “Modelowanie...”, op. cit., str. 159
223
Rys. 4.7 Model zarządzania ryzykiem oparty na uwarstwieniu logicznym decyzji
Model ten jest szczególnie użyteczny w przypadku organizacji finansowych oraz
prowadzących transakcje biznesowe z wykorzystaniem instrumentów pochodnych
(opcje, kontrakty, swapy), gdzie wycena instrumentów i ich zakup lub sprzedaż
należą do operacji ryzykownych.
4.4 Zarządzanie informacją i wiedzą (ujęcie zasobowe)
Zarządzanie wiedzą stanowi dzisiaj jedno z kluczowych zagadnień współczesnego zarządzania. Ewolucja łańcucha wartości organizacji oraz procesy globalizacji spowodowały, że istnieje dzisiaj szereg podmiotów gospodarczych, których wartością generowaną jest wiedza oraz produkty wykorzystania wiedzy. Na rys. 1.12
przedstawiony został model SECI zarządzania wiedzą oraz zasady konwersji wiedzy ukrytej do jawnej (i odwrotnie). Z kolei na rys. 1.13 zaprezentowałem pozycjonowanie wiedzy w ciągu logicznym: dane, informacja, wiedza, mądrość. Nie wnikając bardziej szczegółowo w kwestie epistemologiczne, przejdziemy do metod
prowadzących do zarządzania wiedzą.
Istnieją różne definicje pojęcia „informacja”. Tu zostanie zastosowane określenie w poniższym brzmieniu.
[Df] Informacja jest to takie przetwarzanie i organizacja danych, która powiększa poziom
wiedzy u odbiorcy lub wywołuje określone działanie.
Abstrahując od fizycznego oraz kogniwistycznego znaczenia podanej definicji,
należy zauważyć, że informacja jest wielkością niematerialną, bytem metafizycznym, któremu można jednak nadać zereg cech będących uposażeniem ontycznym
(spójność, wartość, ilość) oraz atrybutów (aktualność, przydatność). Maszyna wykonuje określone czynności dlatego, że oprócz masy, energii i uporządkowania mechanicznego posiada informacje zakodowane w procesorach sterujących. A zatem
pewna wielkość niematerialna decyduje o tym, że działa ona lepiej, gorzej lub w
ogóle działa. Jest to wiedza zapisana na nośnikach fizycznych w formie użytecznych informacji. Te, zapisane informacje sterujące, możemy zgromadzić na fizycznym nośniku, przesyłać, kopiować, uaktualniać, umożliwiając ich rozprzestrzenianie i przetwarzanie. Z samego faktu, że informacja daje się zapisać wynika, że ma
ona określone cechy ilościowe. Traktuje o tym teoria C. Shannona, stanowiąca fundament obliczeń ilości informacji i jej przesyłania298.
Ale skoro można informacje zapisać i gromadzić – to można mówić o definiowaniu pewnego zasobu informacyjnego, stanowiącego zbiór użytecznych informacji z punktu widzenia prowadzonych procesów ekonomicznych. Zanim do tego
298
Shannon C.E., A Mathematical Theory of Communication, The Bell System Technical Journal, Vol. 27, pp.
379–423, 623–656, July, October, 1948.
224
dojdzie, należy umieć oszacować pojęcie użyteczności informacji, nauczyć się wartościować użyteczność, określić zależność pomiędzy treścią komunikatu i otoczeniem. To powoduje, że informacjom obok cech ilościowych, wynikających z teorii
Shannona, należy nadać pewne, rozpoznawalne cechy jakościowe, umożliwiające
ocenę ich przydatności oraz wartości. Traktują o tym fundamentalne prace teoretyczne W.Gitta299 oraz M. Mazura300. W ten sposób powstają przesłanki do zarządzania informacją i wiedzą.
4.4.1 Wiedza jako cenny zasób organizacji
Informacje mogą być w dowolnej organizacji generowane, przetwarzane, przechowywane, usuwane, wymieniane, kradzione, etc., Nazwijmy te działania ogólnie
operacjami na informacjach. Ich prowadzenie wymaga uwzględnienia i istnienia
określonego zasobu informacyjnego. Można rozpatrywać osiem następujących elementów, związanych z finansowaniem, technologią przetwarzania informacji, treścią, wartością, interpretacją danych oraz zespołem ludzkim zarządzającym informacją i wiedzą301:
1. Urządzenia fizyczne aktywne i pasywne umożliwiające zapis, przetwarzanie,
zabezpieczenie oraz przesyłanie informacji (komputery, dyski, drukarki, przełączniki, modemy, …).
2. Serwisy umożliwiające operacje na informacjach, szczególnie jej przesyłanie i
wymianę z otoczeniem (Internet, ATM, DNS, NAT, CMS,…
3. Procedury, standardy, algorytmy i oprogramowanie związane z operacjami na
informacjach (Windows, Procedura instalacji sieci, Standard RS-232, OSI, algorytm odwrotnej notacji polskiej, program FK,…).
4. Zbiory informacji wewnętrznych, stanowiące wiedzę układu, wykorzystywane
w procesach biznesowych lub stanowiące wartość niematerialną i prawną.
5. Zbiory informacji zewnętrznych, użytecznych w procesach biznesowych, realizowanych przez system ekonomiczny.
6. Osoby związane z utrzymaniem zdolności układu do operacji na informacjach.
7. Osoby związane z wykorzystaniem informacji, budowaniem wiedzy i mądrości
układu.
8. Kapitał pokrywający koszty pozyskania informacji, bieżącej konserwacji,
ochrony oraz utrzymania zdolności operacyjnej na informacjach przez system.
Można dokonywać operacji na informacjach bez używania systemu informatycznego (ręcznie) oraz informatyków. Nie da się jednak tego wykonać bez osób,
związanych z budowaniem i wykorzystaniem wiedzy oraz tych, dla których informacje stanowią narzędzia w procesach zarządzania. Zasób informacyjny stanowi
podstawę działania osób związanych z operacjami na informacjach. Stąd logicznym
299
Gitt W., "Am Anfang war die Information" Hanssler, Neuhausen-Stuttgart, Germany 1994
Mazur M., Jakościowa teoria informacji, WNT, Warszawa 1970.
301
Gospodarek T., „Elastyczność …”, op. cit.
300
225
jest wydzielenie czterech obszarów rozważań dotyczących zasobów informacyjnych.
Globalny zasób informacyjny organizacji
Globalnym zasobem informacyjnym (ZIG) nazywać będziemy wirtualne zasoby informacyjne, operacyjne zasoby informacyjne oraz ludzkie zasoby informacyjne związane z operacjami na informacjach i wspomagające podejmowanie decyzji w systemie generującym wartość. Tym samym ZIG stanowi kombinację wirtualnego zasobu informacyjnego (ZIW), operacyjnego zasobu informacyjnego (ZIO)
oraz informacyjnego zasobu ludzkiego (ZIL). Innymi słowy:
ZIG = ZIW  ZIO  ZIL
Wirtualny zasób informacyjny
Wirtualnym zasobem informacyjnym (ZIW) nazywać będziemy wszystkie informacje, składające się na wiedzę i mądrość organizacji w danej chwili czasu, nadające się do wykorzystania w realizowanych przez nią procesach biznesowych.
Przedstawiona definicja ZIW nie uwzględnia ani hardware ani software ani zespołu ludzkiego, związanych z operacjami na informacjach. Jednocześnie pomija
informacje nieprzydatne w procesach biznesowych organizacji. Wirtualny zasób informacyjny można podzielić z kolei na:
 wewnętrzny, stanowiący własność intelektualną organizacji (wiedza, organizacja), który należy chronić, albowiem stanowi on kapitał i pozwala na osiąganie
przewagi konkurencyjnej na rynku oraz wyróżnienie się;
 zewnętrzny, udostępniany organizacji do wykorzystania (sygnały lub informacje) lub pozyskany z otoczenia w dowolny sposób i możliwy do przekonwertowania na wewnętrzny.
Wraz z rozwojem techniki i technologii zmienia się oprogramowanie (element
ZIW). Powoduje to dynamiczną rozbudowę zasobów informacyjnych i wzrost wydajności systemów IT. Jednak prawo Shannona o ilości informacji nie przekłada się
na jej jakość. Stąd pojawia się konieczność coraz bardziej zaawansowanej filtracji
oraz selekcji danych przez zasób informacyjny. Istnieje moment, że dochodzimy do
poziomu big data przetwarzania i konieczności tworzenia efektywnych narzędzi
data mining oraz business intelligence. To jest domeną zintegrowanych systemów IT
zbierających coraz większe ilości danych. Obowiązuje przy tym zasada wykładniczego wzrostu ilości informacji w otoczeniu – ilość informacji dopływających do zasobu
z zewnątrz rośnie wykładniczo w czasie. Jest to związane z wykładniczym wzrostem
mocy obliczeniowej procesorów oraz systemów przetwarzania informacji. Dodatkowo, każdy zasób informacyjny dąży do maksymalizacji entropii informacyjnej i
trzeba dbać o to, żeby nie uległ całkowitemu rozproszeniu, a przetwarzał wyłącznie
dane użyteczne.
226
Wiedza ZIW obejmuje coraz większy zakres metaanaliz i z czasem coraz większy kontekst. Tym samym jej użyteczność ulega rozmyciu, stając się mniej precyzyjnym zasobem dla podejmowania decyzji, zwłaszcza ekonomicznych, ale za to
umożliwia modelowanie. Z drugiej strony dowolne prawdy, znane z lokalnego
rynku, przenoszone na rynki zewnętrzne mogą okazać się fałszem, a wnioskowanie
na podstawie tak uogólnionych informacji może być obarczone dużym ryzykiem.
Dlatego istnieje równowaga zakresu kontekstu i zawartości zasobu informacyjnego,
dla których ma on optymalną wartość użytkową. Ten stan równowagi należy utrzymywać w czasie, pozyskując odpowiednie informacje z zewnętrznych źródeł i eliminując informacje, które utraciły znaczenie na dany moment. W przeciwnym razie
zasób będzie rozpraszać użyteczną wiedzę, zwiększając entropię informacyjną.
ZIW posiada cechę niezużywalności, polegająca na tym, że użyta informacja,
jako wartość dodana w procesie ekonomicznym nie zużywa się i może zostać ponownie w nim użyta. Tym samym ZIW nie zmniejsza swojego potencjału informacyjnego i wiedzy w pewnym przedziale czasowym. Może jednak podlegać modyfikacjom i uaktualnieniom. ZIW ma ograniczoną użyteczność w odniesieniu do relacji biznesowych podmiotu. Użyteczność informacji zasobu wiedzy zawsze pozostaje w relacji z otoczeniem biznesowym i łańcuchem dostaw. W jego obrębie ustala
się stan optymalny użyteczności zasobu ZIW. Poza tym obszarem, zasób ma użyteczność ograniczoną (przeniesienie go w całości do innej firmy niekoniecznie przyniesie korzyści).
ZIW podlega zasadzie ograniczonej użyteczności krańcowej H. Gossena, albowiem każda następna informacja na ten sam temat ma coraz mniejszą użyteczność.
Po prostu liczba potwierdzeń danej informacji wymagana dla zakwalifikowania jej
do zasobu wiedzy jest skończona.
Powyższe fakty na temat informacyjnego zasobu wirtualnego danej organizacji
pozwalają na zdefiniowanie optymalnych działań w zakresie zarządzania nim. Są
to: ochrona przed rozproszeniem wiedzy, budowanie optymalnego zasobu, maksymalizacja użyteczności wiedzy posiadanej, odkrywanie wiedzy i rozbudowa
funkcjonalności zasobu. Jak to uczynić, stanowi kwestie przedmiotu zarządzania
informacją i wiedzą.
Operacyjny zasób informacyjny
Operacyjnym zasobem informacyjnym (ZIO) nazywać będziemy wszystkie systemy i urządzenia techniczne, oprogramowanie, technologie zapisu, przetwarzania, transmisji danych, umożliwiające automatyzację operacji na informacjach. ZIO
służy do obsługi technologicznej zasobu ZIW. Składa się na niego:
 system informatyczny lokalny (hardware, software, sieć LAN),
 system łączności (Internet, sieć WAN LAN, telekom, systemy dzierżawione),
 systemy wymiany danych (protokoły, procedury, standardy),
227
 systemy ochrony danych (procedury, protokoły bezpieczne, zabezpieczenia dostępu, programy),
 systemy zabezpieczeń przed awariami (hardware i software),
 systemy zabezpieczeń przez atakami z zewnątrz (hardware, software, procedury, standardy).
ZIO posiada szereg specyficznych własności, którymi zarządzający informacją i
wiedzą musi zarządzać. Służą one wzrostowi efektywności procesów przetwarzania informacji, jej zabezpieczeniu, udostępnianiu i wymianie, filtracji danych zewnętrznych itp. Nikt dzisiaj nie wyobraża sobie efektywnej pracy z informacją bez
użycia zaawansowanych technologii IT, a zwłaszcza internetowych. Podstawowymi cechami ZIO są te, wymienione poniżej.
 Skalowalność - system informatyczny powinien umożliwiać obsługę dowolnego
zasobu informacyjnego, niezależnie od jego wielkości. Innymi słowy, najlepszym rozwiązaniem są platformy hardware i software, niezależne od rodzaju
sprzętu oraz używanych systemów operacyjnych. Ich budowa powinna być modułowa, umożliwiając w dowolnym momencie dodanie kolejnego. Użyte protokoły i standardy powinny mieć charakter otwarty (np. XML, PHP, HTTP).
 Spójność - spójny system informacyjny jest to taki system, w którym raz wprowadzona informacja jest dostępna w dowolnym jego punkcie, a informacja przetworzona pozwala na wskazanie danych źródłowych, użytych w metaanalizie
(od ogółu do szczegółu). Systemy spójne są w wysokim stopniu zintegrowane i
połączone on-line siecią. Algorytmy wymiany danych są zdefiniowane w formie
buforów i umożliwiają identyfikację danych źródłowych przesyłanych między
modułami. Systemy o wysokim wskaźniku spójności wymagają dużego nakładu
pracy przy ich wdrażaniu i często modyfikują znacząco istniejący system informacyjny wirtualny.
 Bezpieczeństwo - bezpieczny system informatyczny, jest to taki system, w którym
założone poziomy ochrony danych przed utratą, niepowołanym dostępem oraz
nieuprawnionym wykorzystaniem są zapewnione. Nie ma w 100% bezpiecznych systemów IT. Zasoby informacyjne i wiedzy podlegają zazwyczaj szczególnej ochronie. W niektórych przypadkach informacje mają charakter niejawny i z
mocy prawa ich przetwarzanie wymaga użycia procedur specjalnych, zwiększonego bezpieczeństwa. Im bardziej chronione są informacje, tym mniejsza staje się
zdolność systemu informacyjnego do uczestnictwa w ich wymianie. Niezależnie
od powyższych aspektów bezpieczeństwa, istnieją rozwiązania z kategorii „critical applications”, gdzie krytycznym elementem jest zachowanie ciągłości pracy
zasobu informacyjnego, niezależnie od warunków zewnętrznych. Ta kategoria
superbezpiecznych zasobów informacyjnych ma zastosowanie w bankach, nawigacji, lotnictwie, etc.
 Aktualność informacyjna - system informatyczny można uznać za aktualny informacyjnie, jeżeli dane przetwarzane są w czasie rzeczywistym. Systemy online
228
czasu rzeczywistego są najlepszym rozwiązaniem dla obsługi zasobów informacyjnych. Niestety są najbardziej kosztowne, najbardziej zaawansowane technologicznie i „zasobożerne”, co powoduje, że bardziej uzasadnione ekonomicznie
są systemy quasi online. Dodatkowo są one łatwiejsze do wdrożenia.
 Sztuczna inteligencja - system inteligentny, to jest taki system, który umożliwia
dostosowanie zasobów informacyjnych do aktualnego poziomu odbiorcy.
Każdy system informatyczny zawiera pewną ilość inteligentnych tagów, agentów oraz usług umożliwiających uzyskanie maksymalnej transparentności technologii dla użytkownika. Inteligencja systemu w połączeniu ze skalowalnością
pozwala na modyfikację jego funkcjonalności wraz ze wzrostem poziomu świadomości informatycznej zasobu kadrowego układu. Jednocześnie elementy
sztucznej inteligencji zawarte w systemie, umożliwiają maksymalizację użyteczności istniejącego zasobu informacji i wiedzy.
 Dokładność - system informacyjny dokładny, to jest taki system, w którym wyniki
przetwarzania obarczone są mniejszym błędem od założonego poziomu, który
można zdefiniować. Ten element dotyczy obsługi systemów informacyjnych, w
których dokonuje się weryfikacji hipotez, opracowuje analizy oraz podejmuje
decyzje. Najważniejszym elementem jest oszacowanie błędu wyniku. Jest to
również cecha systemów finansowych, bazujących na danych księgowych, gdzie
z mocy ustawy o rachunkowości, na systemy informacyjne nakłada się wymogi
dokładności oraz rzetelności.
Powyższe cechy pozwalają na określenie pożądanej charakterystyki systemu
informatycznego dla dowolnych zastosowań w zakresie obsługi zasobów informacyjnych wirtualnych. To jest kolejnym zadaniem menedżerów zarządzania wiedzą
i informacją. Dobrać takie narzędzia, żeby zasób ZIW był efektywny. Jak można
zmierzyć efektywność, opisałem szerzej w monografii „Systemy ERP…”.
Informacyjny zasób ludzki
Systemy informacyjne w organizacjach służą przede wszystkim wspomaganiu
podejmowania decyzji oraz tworzeniu wartości dodanej w procesach ekonomicznych. Są zatem narzędziem zarządzającego, dostarczając odpowiednio przetworzone informacje oraz metaanalizy. Końcowe decyzje podejmuje zawsze człowiek.
Im lepiej człowiek wykorzystuje zasoby informacyjne, tym mniejsze jest ryzyko
podjęcia błędnych decyzji i tym pewniejsze prognozy są możliwe do opracowania.
System operacji na informacjach nie będzie funkcjonować samorzutnie. Konieczny jest w tym celu pewien zespół ludzki, utrzymujący zasoby ZIW i ZIO w
stanie gotowości do użycia, modyfikujący jego część wirtualną oraz odpowiadający
za trwałość i użycie zasobów. To stwierdzenie uzasadnia zdefiniowanie trzeciego
elementu w obrębie zasobu informacyjnego.
Ludzkim zasobem informacyjnym (ZIL) nazywać będziemy wszystkie osoby związane z operacjami na informacjach, odpowiadające za utrzymanie zasobów ZIW i
229
ZIO w stanie gotowości do użycia oraz osoby decydujące o wykorzystaniu informacji i zasobu informacyjnego w procesach biznesowych. ZIL można zatem określić, jako wydzieloną grupę pracowników wiedzy z zasobu osobowego organizacji,
związaną z:
 serwisem sprzętowym i telekom,
 programowaniem i serwisem software,
 zarządzaniem wiedzą i informacją,
 twórczością, programowaniem i instruktarzem,
 podejmowaniem decyzji z użyciem zasobu informacyjnego.
W powyższym układzie można budować wiedzę w organizacji i zajmować się jej
użyciem, wymianą, dystrybucją, uaktualnianiem, itp. Wynika stąd użytecznie
twierdzenie: Zarządzanie wiedzą odbywa się w części ZIL zasobu informacyjnego ZIG za
pomocą zasobu ZIO ze skutkiem zmian w części ZIW.
Rzeczywiście, decyzje o użyciu wiedzy podejmuje menedżer, który za pomocą
urządzeń i technologii ICT może dokonać dowolnych zmian w wirtualnej części
zasobów informacyjnych. To jest najbardziej ogólne i czytelne ujęcie. Zasób ZIL charakteryzują trzy zasadnicze cechy, które można modyfikować, rozbudowywać i
zmieniać w procesach zarządzania informacją i wiedzą:
 Wiedza - zasób informacji użytecznych, nadających się do wykorzystania w procesach biznesowych organizacji, dostępnych w ZIW dla grupy stanowiącej ZIL.
Wiedza stanowi specyficzną własność zasobu informacyjnego ludzkiego, niekoniecznie dostępna dla ZIW. System informatyczny ZIO oraz zbiór danych i informacji zgromadzony w ZIW stanowi jedynie narzędzie dla funkcjonowania
zasobu ZIL. Tu bowiem odbywa się dalsze doskonalenie przetworzonej informacji na doświadczenie i mądrość, które są póki co domeną zasobu ludzkiego.
Podejmowane próby wykorzystania sieci neuronowych, uczących się, stanowią
jedynie modelowe działanie wspomagające człowieka. Zasób ludzki generuje
zapotrzebowanie na informacje i modeluje architekturę zasobu informacyjnego
wirtualnego, który wykorzystuje. Określa on również zasady filtracji dla użyteczności informacji i decyduje o kształcie metaanaliz. Stąd pochodzą decyzje,
które informacje staną się elementem zasobu informacyjnego (zostaną przekonwertowane na wiedzę), a które zostaną odrzucone. Wiedza może zostać przekazana w formie nauczania bezpośredniego lub opracowań pisanych, audio –video
lub multimedialnych. Może stanowić również towar.
 Decyzyjność - czyli zdolność do podejmowania decyzji przez ZIL na podstawie
danych pochodzących z zasobu informacyjnego oraz doświadczenia popartego
dostępną wiedzą, zgromadzoną w ZIW. Zasób informacyjny stanowi jedynie narzędzie dla zespołu podejmującego decyzje. Dobrze podzielony na warstwy logiczne system podejmowania decyzji, wsparty zasobem informacyjnym, skraca
230
czas realizacji procesów biznesowych i stanowi o konkurencyjności całej organizacji. Im bardziej czytelny jest system podejmowania decyzji, tym wyższa staje
się decyzyjność zarządzających.
 Inteligencja – Jest to zdolność adaptacji zasobu informacyjnego do zmieniających
się warunków zewnętrznych i wewnętrznych jego funkcjonowania. Jest to bodaj
najważniejsza cecha ludzkiego zasobu informacyjnego. Zasób ten stanowi siły
szybkiego reagowania na sygnały i informacje z otoczenia. Buduje strategie,
plany i systemy oceny sytuacji. Decyduje o architekturze wirtualnego zasobu informacyjnego i jego zmienności w czasie oraz bieżącemu dopasowaniu do potrzeb. Jest to działanie inteligentne, którego na dzień dzisiejszy nie udało się powielić w systemach komputerowych. Im lepsze i szybsze dopasowanie zasobu
ZIL do zmian w otoczeniu, tym bardziej inteligentny jest zasób ludzki i cała organizacja. Dlatego wszyscy oczekują od zasobów informacyjnych wysokiego poziomu inteligencji i dopasowania narzędzi metaanaliz do wysokiego poziomu
użyteczności (logika rozmyta, sieci neuronowe, modelowanie matematyczne).
4.4.2 Koszty zasobów IT i ich użyteczność
Nie ma przychodu bez ponoszenia kosztów. Utrzymanie w stanie gotowości
zasobu IT nie jest bezkosztowe. Zasoby informacyjne zalicza się do aktywów przedsiębiorstwa. Są one szybko zmienne co do wartości księgowej, ze względu na moralne starzenie się w czasie, jak również zmiany technologiczne następujące w otoczeniu. Z utrzymaniem zasobu informacyjnego wiążą się określone koszty:
 utrzymania zasobu (koszty pozyskania, umorzenia wartości niematerialnych i
prawnych, amortyzacja sprzętu, koszty wynagrodzeń),
 przetwarzania informacji na wiedzę i mądrość (koszty zaplecza techniczne i zespołu ludzkiego),
 przechowywania i utrzymywania informacji (koszty hardware i software),
 zarządzania informacją (koszty procedur, software i zespołu ludzkiego),
 koszty ochrony (systemy zabezpieczeń, systemy backup i repozytorium),
 koszty wymiany informacji (usługi zewnętrzne, hosting, telekom, sprzęt i oprogramowanie, interfejsy łącznikowe).
Zgodnie z powyższymi rozważaniami, każdy zasób informacyjny ma swoją reprezentację liczbową w postaci: wartości bilansowej, produktywności, kosztów utrzymania, itp., wyrażoną w jednostkach pieniężnych. Wartości te są zwykle trudne do
oszacowania, ale nie niemożliwe. Wynika to z faktu, że skutek wykorzystania lub
utraty informacji w określonym kontekście może prowadzić do zachowań nieliniowych, np. chaotycznych lub katastroficznych (organizacja popada w tarapaty). Z
drugiej strony, ta sama informacja może generować w warunkach normalnej stabilności mierzalną wartość dodaną w powtarzalnych procesach i do jej wyceny daje
się stosować standardy MSR.
231
Każdy zasób informacyjny jest szczególnie podatny na zjawiska anihilacji,
utraty fukcjonalności, rozproszenia i dezintegracji. Mają na to wpływ różne czynniki, zarówno wewnętrznie zorientowane, jak i zewnętrzenie zorientowane.
 Postęp technologiczny w zakresie:
 hardware,
 software,
 systemów wymiany informacji,
 systemów zarządzania wiedzą.
 Poziom edukacji informatycznej;
 społeczeństwa,
 zasobu kadrowego układu,
 kadry zarządzającej układem,
 otoczenia biznesowego,
 Kontekst informacji;
 dezaktualizacja informacji i wiedzy w czasie,
 zmiany wartości zasobu wskutek zachodzących przemian w otoczeniu,
 utrata unikalności zasobu wskutek odkrycia lub dokonania wynalazku,
 utrata unikalności wskutek rozpowszechnienia wiedzy,
Każdy zasób informacyjny podlega przemianom, prowadzącym do coraz wyższego poziomu absorpcji informacji zewnętrznych i bardziej efektywnego wykorzystania ich w procesach ekonomicznych. Wzrasta przy tym wartość zasobu informacyjnego nie tylko pod względem księgowym, ale również jego użyteczności. Czasami wzrost ten może być skrajnie wysoki wskutek dokonania wynalazku lub wygenerowania unikalnej wiedzy, nadającej się do użycia przez system generujący
wartość. Możliwa jest również relacja odwrotna, kiedy to otoczenie posiądzie wiedzę, dezaktualizującą wiedzę organizacji i spowoduje utratę jej kluczowych kompetencji. W rezultacie pozycja rynkowa może zostać zachwiana.
Pamiętajmy, że informacja kosztuje, wiedza kosztuje, a systemy IT również generują poważne koszty. Stawiając pytanie systemowi IT należy mieć świadomość,
czy koszt uzyskania informacji nie przekracza skutków ekonomicznych braku jej
posiadania. Jednym z ważnych elementów zarządzania wiedzą jest zatem optymalizacja kosztowa, co wiąże się ze skuteczności zarządzania zasobem informacyjnym.
4.4.3 Bezpieczeństwo informacyjne
Ostatnim zagadnieniem, które na poziomie podstaw zarządzania powinno zostać zaprezentowane, jest bezpieczeństwo informacyjne. Aktualnie informacja i
wiedza mogą być wykorzystane jako źródło przychodu, czynnik przewagi konkurencyjnej, czy też siła sprawcza prestiżu. Ale informacja może być również bronią
ofensywną i narzędziem przestępstw. Stąd dalej wynika, że menedżer musi orientować się w zagrożeniach informacyjnych i móc im zapobiegać. To generuje kolejną
232
dziedzinę zarządzania zasobami IT związane z bezpieczeństwem systemów przetwarzania informacji w organizacji. Dzisiaj ta dziedzina już bardzo rozległej wiedzy
rozwija się nadzwyczaj szybko, a liczba zagrożeń rośnie eksponencjalnie.
Bezpieczeństwo danych związane jest z ochroną informacji i jej elementów krytycznych. Za najważniejsze aspekty ochrony informacji należy uznać:
 poufność - zapewnienie, że dostęp do określonych informacji posiadają jedynie
osoby uprawnione (certyfikowane) przez administratora zasobu ZIW;
 integralność - gwarancja, że dane w ZIW są kompletne i nie zostały zmienione,
dodane lub usunięte w nieautoryzowany sposób (zagrożenie sabotażem, celowym działaniem osób trzecich lub wprowadzeniem wirusów);
 dostępność – stanowi o tym, że tylko upoważnione osoby i usługi IT mogą skorzystać z informacji w określonym miejscu i czasie (system uprawnień i dziedziczenia praw dostępu do danych na serwerach bezpiecznych);
 spójność – oznacza, że informacja skonsolidowana nie została rozsynchronizowana w trakcie przetwarzania między modułami systemu zintegrowanego z danymi źródłowymi, co może się wiązać z działaniem celowym (atak hakerski,
działanie wirusa, wadliwe oprogramowanie, brak standaryzacji).
Powyższe elementy związane są z przetwarzaniem danych za pomocą urządzeń IT,
a ich bezpieczeństwo zapewniają odpowiednie programy agentowe, rejestry użycia
danych, raporty krzyżowe oraz procedury i standardy używane w organizacji.
Bezpieczeństwo informacji i wiedzy jest czymś innym. Dotyczy ono nie tyle
sfery technologicznej systemu zarządzania organizacją, ale również jej procesów i
przede wszystkim procedur zachowania tajemnicy handlowej oraz tajemnicy organizacyjnej. Są to dla przykładu zasady nieujawniania kwot wypłaty, zasady poufności umów handlowych, zasady tajemnicy technologicznej, itp. Wszystkie te
aspekty dotyczą relacji człowiek – otoczenie i dostępem do informacji. Możliwości
ochrony są jedynie ograniczone do nadzoru przestrzegania procedur oraz istnieniem zagrożenia karnego za ujawnienie informacji poufnych stronom trzecim.
Sposoby praktyczne realizacji zarządu informacją i wiedzą w organizacji stanowią wydzieloną tematykę nie tylko zarządzania, ale również systemów ICT. Niestety, liczba zagrożeń rośnie eksponencjalnie wraz z czasem i mocą obliczeniową
procesorów i na dzień dzisiejszy nikt nie może stwierdzić, że jego zasoby informacyjne są bezpieczne. Ważne raporty dotyczące bezpieczeństwa w cyberprzestrzeni
publikuje Symantec302 w wersji PDF raport ISTR można pobrać ze strony303. Równie
ważne informacje na temat zagrożeń w sieci publikuje Kaspersky Lab304. Wśród
Symantec, „Norton Cybersecurity Insights Report”, 2016 http://us.norton.com/cyber-security-insights
Symantec, “ISTR report”, https://www.symantec.com/content/dam/symantec/docs/reports/istr-21-2016en.pdf
304
Kaspersky Lab., “Kaspersky Security Bulletin 2015/2016”, Kaspersky Lab Global Research and Analysis
Team, http://newsroom.kaspersky.eu/fileadmin/user_upload/de/Downloads/PDFs/Kaspersky_Security_Bulletin_2015_2016.pdf
302
303
233
nich warto wyróżnić: raport na temat zagrożeń i ich ewolucji305 oraz raport na temat
rozwoju oprogramowania wirusów wymuszających okup ransomware306. W zasadzie takie firmy globalne, jak: Microsoft, IBM, Cisco, etc. publikują raporty o zagrożeniach w sieci, związanych z ich produktami. Te informacje są szczególnie użyteczne dla podejmowania działań ochronnych i tworzenia polityki bezpieczeństwa
IT.
4.5 Zarządzanie zasobami ludzkimi
Największym problemem każdej organizacji jest człowiek i jego nieobliczalność w działaniu. Wizjoner może w każdej chwili zmienić obraz organizacji przez
wynalazek, odkrycie lub działanie innowacyjne (S.Jobs, D.Harley, H.Rubinstein).
Sfrustrowany pracownik może wykraść bezcenne dane i przekazać je konkurencji
lub innym interesariuszom, pogrążając firmę lub powodując wielkie szkody307. Ale
też bez zasobu ludzkiego nie da się stworzyć znaczącej wartości. Jednakże wraz z
udziałem człowieka w procesie biznesowym, zadanie to nie dość, że staje się złożonym, to jeszcze przewidywalność rezultatu obarczona jest większą lub mniejszą
niepewnością. Stąd teza, że to człowiek może wnieść największą wartość do organizacji, ale jednocześnie to on kreuje najwyższe ryzyko (rozdział 4.3). Najlepszym
motto dla dalszej dyskusji jest cytat z wypowiedzi B. Gatesa, który w tym miejscu
powtórzę: „Dajcie swoim pracownikom bardziej wyszukane zadania i lepsze narzędzia, a
odkryjecie, że potrafią oni udźwignąć większą odpowiedzialność i wykonywać swoją pracę w
mądrzejszy sposób”.
Jednym z ważnych aspektów zarządzania organizacją są relacje wewnętrzne w
jej strukturze. Istnieje w strukturze S stanowiącej organizację (rozdział 2.1.1), wewnętrzny układ interesariuszy będących jej pracownikami. Relacje pracownik-organizacja są dwustronne i niekoniecznie symetryczne. Inne są bowiem oczekiwania
pracowników w stosunku do organizacji, a inne organizacji w stosunku do pracowników. Dlatego ten układ organizacja - pracownicy jest przykładem złożonej gry
wieloosobowej, gdzie celem każdego gracza jest osiągnięcie optimum Pareto spełnienia własnych oczekiwań. Wypłatą jest wzajemna użyteczność objawiająca się realizacją procesów biznesowych organizacji i wynikające z tego faktu relacyjne korzyści dla obu stron (gra o sumie niezerowej). Strategią organizacji w takiej grze jest
zarządzanie kadrami. Strategią pracowników są działania generowane przez
ujemne lub dodatnie sprzężenia zwrotne, wynikające ze stawianych wymagań
Gostev A., Unuchek R., Garnaeva M., Makrushin D., Ivanom A., „It Threat Evolution
in q1 2016”, Kaspersky Lab., https://securelist.com/files/2016/05/Q1_2016_MW_report_FINAL_eng.pdf
306
Kaspersky Lab., „KSN Report: Ransomware in 2014-2016”, https://securelist.com/files/2016/06/KSN_Report_Ransomware_2014-2016_final_ENG.pdf
307
ARD “Falciani und der Bankenskandal”, film http://www.ardmediathek.de/tv/DoX-Der-Dokumentarfilm-imBR/Falciani-und-der-Bankenskandal/Bayerisches-Fernsehen/Video?bcastId=24831852&documentId=35696800
305
234
przez organizację i jej procesy. W tej sytuacji, osiągnięcie optimum Pareto należy
rozumieć tak, że poprawa sytuacji organizacji nie odbywa się kosztem pogorszenia sytuacji
jej pracowników, a przy tym poprawa sytuacji jednego z pracowników (awans, premia…)
nie pogarsza sytuacji pozostałych. Wydaje się to niezwykle proste i oczywiste, ale osiągnięcie zadowalającego przybliżenia stanu Pareto na linii organizacja pracownik w
praktyce gospodarczej, wymaga skomplikowanych działań zarządczych. Dlatego
też zarządzanie kadrami stanowi jedno z najważniejszych zagadnień zarządzania
organizacją308.
Większość ludzi pragnie, by postrzegano ich jako uczciwych i godnych zaufania. Zależy nam także na tym, by odbierano nas jako konsekwentnych i przewidywalnych. Stąd wynikają trzy najbardziej pożądane wizerunki publiczne i powiązane z ich osiągnięciem cele:
 wzbudzać sympatię,
 uchodzić za osobę kompetentną,
 przekonanie innych o posiadaniu wysokiego statusu społecznego i władzy.
Możliwość wykazania się i pozyskania niezbędnych zasobów może zapewnić między innymi organizacja i kariera zawodowa. Wymaga to jednak zbudowania odpowiednich relacji i uwspólnienia celów. Podstawowymi celami organizacji biznesowej są: tworzenie wartości w otoczeniu, przetrwanie w czasie oraz zaspokojenie interesów swoich interesariuszy w maksymalnym stopniu. Taki zbiór celów indukuje
zbiór relacji oraz działań prowadzących do ich realizacji. Wymaga to odpowiedniego zarządzania potencjałem ludzkim, a zwłaszcza planowanie kariery i ścieżki
rozwoju pracowników (przynajmniej tych, będących pracownikami wiedzy i budujących kapitał intelektualny (rozdział 1.4.3).
Aktualne tendencje na rynku wskazują, że pracownik przestaje być najważniejszym aktywem309. Badania przeprowadzone w USA przez firmę doradczą
Korn&Ferry na populacji 800 szefów i menedżerów firm globalnych wskazuje, że
najważniejsze są aktualnie technologie, zwłaszcza automatyka, sztuczna inteligencja i robotyka mogące poprawić wyniki ekonomiczne bez angażowania dodatkowych ludzi310. Na dwóch pierwszych miejscach menedżerowie ustawili infrastrukturę zaplecza oraz technologie bezpośredniego kontaktu z klientem. Na dalszym
miejscu jest kultura organizacji, zarządzanie zapasami oraz badania i rozwój. Prawie 66% respondentów postrzega czynnik ludzki jako składnik kosztów, a nie aktywa. To skłania do poważnej refleksji, a zwłaszcza do rewizji paradygmatów ważności zasobu ludzkiego w swojej aktualnej wersji i powrotu do mocniejszej ekploracji koncepcji reinżynieringu, jako odpowiedzi na nowe wyzwania.
Pocztowski A., „Zarządzanie zasobami ludzkimi. Strategie – procesy – metody”, PWE, Warszawa 2008
JFRA, Money.pl, „Pracownik przestał być najważniejszy. Globalne korporacje zmieniają priorytety”,
http://www.money.pl/gospodarka/inflacjabezrobocie/wiadomosci/artykul/raport-korn-ferry-technologie-sila-robocza,245,0,2204149.html
310
Korn Ferry Institute, Reports&Insights, https://www.kornferry.com/institute/reports-and-insights
308
309
235
4.5.1 Relacje i interakcje w organizacji
Zagadnienie zarządzania kadrami należy rozpocząć od zdefiniowania najważniejszych interakcji organizacja – pracownik. Traktując organizację jako inteligentny system oddziaływujący z otoczeniem można wyróżnić pięć głównych grup
interakcji definiujących zakres działań w zarządzaniu kadrami311:
 Włączenie lub eliminacja jednostki polegające na ocenie przydatności, uświadomieniu podjęcia decyzji o włączeniu lub eliminacji pracownika, budowaniu
zasad etycznych relacji i kryteriów umożliwiających bezstronne sądy w zakresie
włączeń lub eliminacji, eliminowanie zjawisk patologicznych (nepotyzm, kumoterstwo, „nasizm”).
 Utrzymanie wartościowej jednostki w strukturze systemu, na co składają się
działania edukacyjne, identyfikacji z organizacją, procesy adaptacji w grupie
oraz generowanie wysokiej użyteczności jednostki dla osiągania celów. W tej
kategorii mieszczą się również działania motywacyjne, pozwalające na osiąganie stanu integracji zasobu ludzkiego.
 Wywołanie stanu niezawodności pełnionej roli, poprzez odpowiednie umiejscowienie kompetencyjne, udostępnienie wiedzy oraz działania integrujące z
systemem i jego zasobem ludzkim. Motywacje szkoleniowe, awanse poziome,
powierzanie zadań wymagających włączenia procesów wiedzy, wymiany informacji oraz zachowań inteligentnych. Konwersja wiedzy ukrytej do jawnej.
 Zachowania stabilizujące system, działania lojalnościowe wobec organizacji,
ochrona tajemnicy służbowej, tworzenie silnych relacji wewnątrz organizacyjnych, identyfikowanie się z organizacją w otoczeniu.
 Generowanie wartości dodanej, wykraczające poza zakres pełnionej roli, zdefiniowanej w zakresie obowiązków, np. działania kooperacyjne, działania twórcze (wynalazki, sugestie ulepszające organizację etc.), stwarzanie korzystnej dla
organizacji atmosfery w otoczeniu.
Wybierając kandydata do pracy lub oceniając go, konieczne jest zdefiniowanie
relacji organizacja-pracownik oraz miarę dla oceny wielokryterialnej jego dopasowania do struktury i użyteczności. Stosując metodę kolejnych przybliżeń, poprawne zarządzanie kadrami prowadzi do równowagi pomiędzy możliwościami
pracownika a oczekiwaniami organizacji. W ostateczności pozwala na ustalenie
miary dopasowania pracownika, odpowiadającej kulturze organizacji i strukturze
jej procesów biznesowych.
Pracownik ma zwykle zupełnie inne cele niż organizacja do której należy. Wynikają one głównie z hierarchii potrzeb Masłowa (rozdział 1.2.1 i rys. 1.5). Można
wyróżnić cztery fundamentalne grupy oczekiwań pracownika w stosunku do organizacji, wymienione poniżej.
311
Gospodarek T., “Zarządzanie dla…”, str. 160-167
236
1.
Spełnienie potrzeb w zakresie bezpieczeństwa ekonomicznego (godziwa zapłata, wraz z gwarancją stabilności jej uzyskiwania w dłuższym horyzoncie
czasowym).
2. Spełnienie potrzeb przynależności (afiliacji i identyfikacji z organizacją) oraz
etycznych i moralnych zachowań relacyjnych.
3. Spełnienie potrzeb wyróżnienia się i budowania pożądanego wizerunku dla
otoczenia.
4. Osiągnięcia celów dalekiego horyzontu czasowego, związanych z uznaniem
społecznym, poszanowaniem oraz godnym życiem.
Te oczekiwania można uszczegółowić do postaci pięciu grup czynników definiujących kryteria zadowolenia z pracy.
Grupa I – oczekiwania płacowe i kompensaty:
 wysokość otrzymywanego wynagrodzenia,
 nagrody i premie pieniężne zależne od wyników,
 pozapłacowe kompensaty pracy (mieszkania służbowe, samochód),
 pokrycie kosztów kształcenia i certyfikacji zawodowych,
 dodatkowe dni urlopu płatnego,
 możliwość podjęcia dodatkowego zatrudnienia.
Grupa II – oczekiwania uznania i potwierdzenia kompetencji:
 uznanie za strony przełożonych,
 posiadanie szacunku wśród współpracowników,
 możliwość awansu i rozwoju zawodowego,
 praca na stanowisku kierowniczym,
 szkolenia krajowe i zagraniczne,
 partycypacja pracownicza ( udział w zarządzaniu).
Grupa III komfort pracy i organizacja pracy
 wykonywanie pracy, którą lubisz,
 elastyczny lub nienormowany czas pracy,
 swoboda w działaniu (autonomia),
 praca w komfortowych warunkach,
 dobra organizacja pracy (jasny podział ról i zadań),
 dobre stosunki międzyludzkie.
Grupa IV bezpieczeństwo socjalne:
 bezpieczeństwo zatrudnienia,
 możliwość godzenia życia zawodowego z osobistym,
 opieka medyczna,
 możliwość korzystania z obiektów sportowych,
 opieka nad dzieckiem (przedszkole, żłobek…)
 udział w planie emerytalnym.
Grupa V typ organizacji
 wysokie standardy etyczne i moralne organizacji,
237
 rozpoznawalna międzynarodowo marka firmy,
 status dużej organizacji,
 status organizacji opartej na wiedzy,
 organizacja w określonej branży,
 organizacja sieciowa lub korporacyjna.
Wzajemne relacje pracownika z organizacją nie wyczerpują tematu zarządzania kadrami. Pojawiają się relacje pracownik - pracownik oraz pracownik – grupa
w tym nieformalne. Na te aspekty menedżer powinien zwracać uwagę, ponieważ
to one warunkują atmosferę w pracy i działanie zespołowe, które nie musi być synergiczne. Dobry menedżer łączy właściwie jednostki w zespoły i próbuje osiągnąć
dodatkowe korzyści z synergii grupowej oraz transferu wiedzy w zespole. Skutkiem prawidłowego zarządzania kadrami jest zasób ludzki, który nabiera wartości
poprzez stworzenie kapitału intelektualnego oraz kluczowych kompetencji. Staje
się cennym zasobem klasy VRIN.
Kolejną, ważną kwestią jest zbudowanie zespołu, który będzie w stanie realizować w sposób optymalny zadania organizacji. I tu pojawia się bardzo skomplikowane zagadnienie, związane z osobowością człowieka. Załóżmy teraz, że mamy
stworzyć zespół złożony z teoretyka choleryka, ekstrawertyka estety oraz jakiegoś
flegmatyka księgowego. Czy z takiego konglomeratu cech wyniknie jakaś użyteczność dla organizacji? W tej kwestii psychologia i psychologia społeczna próbują się
jakoś wypowiadać. Niestety precyzyjne i jednoznaczne wskazania chwilowo nie istnieją, a te, którymi się posługujemy przypominają prognozowanie pogody za miesiąc. Możliwe jest określenie pożądanych relacji międzyludzkich na podstawie licznych obserwacji. W. Marston312 wyróżnił układ czterech postaw, umożliwiających
interakcje interpersonalne ujęte w model DISC313 (rys. 4.8). Są to postawy:
 Dominująca (przywódcza) – cechująca się pożądanym zachowaniem w trudnym otoczeniu. Postawę taką reprezentują osoby aktywne, przedsiębiorcze, lubiące wyzwania, potrafiące sobie poradzić w każdej sytuacji. Trudności ich nie
zniechęcają, ale dodają zapału to dalszej pracy. Zorientowane są głównie na wynik i działanie.
 Inicjatywna (wpływowa) – oznacza pozytywne zachowanie jednostki, ale w
sprzyjającym otoczeniu. Wykazują ją osoby pogodne, optymistycznie patrzące
na świat, dla których ważne są uczucia. Osoby te są ufne, zorientowane na ludzi,
łatwo nawiązują kontakty oraz zjednują sobie przyjaciół. Są lubiane i do zespołów wnoszą pogodę ducha i serdeczną atmosferę.
 Stała (pasywna) – stabilna postawa w przychylnym środowisku. Wykazują ją
osoby cierpliwe, cechujące się ostrożnością wobec nagłych i nieplanowanych
312
W.M. Marston, Emotions of Normal People, Taylor & Francis Ltd., New York 1928.
Dominance, Influence, Steadiness, Complaint (Conscientiousness) – metodologiczny system harmonizacji
pracy grupowej oraz produktywności systemów generujących wartość; http://www.discprofile.com/whati
sdisc.htm
313
238
zmian. W grupie pracują one efektywnie potrafiąc również motywować innych.
W razie potrzeby chętnie udzielają pomocy. Zorientowane są na ludzi i pracę
zespołową. Nie mają wyrazistych cech przywódczych.
 Complaint (krytyczna) – nieufna i ostrożna postawa w nieprzychylnym otoczeniu. Osoby ostrożne unikają konfliktów poprzez wycofywanie się lub adaptatywne dopasowanie własnej postawy do postaw innych. Minimalizują ryzyko
błędu przy podejmowaniu decyzji. Charakteryzują się dokładnym i skrupulatnym zbieraniem i analizowaniem wszelkich informacji. Są spokojne, systematyczne i dokładne. Ważną cechą takich osób krytycznych jest zorientowane na
zadania (typowe dla księgowych).
Ustalenie optymalnych cech osobowościowych w metodzie Marstona wymaga
przeprowadzenia odpowiednich testów psychologicznych. Na podstawie uzyskanych wyników klasyfikuje się osoby do danej kategorii osobowości w układzie
DISC (rys. 4.8). Doświadczenie pokazuje, że budując zespół, najlepiej współpracują
ze sobą pokrewne typy osobowości DISC, a słabo przeciwstawne 314. Aspekt ten zaprezentowano w tabeli 11.
Tabela 11 Ocena osoby o określonej kategorii DISC przez inną osobę DISC ’
Interakcje
314
D’
I’
S’
C’
D
pozytywny
pionierski
rywalizujący
wymagający
bezczelny
arogancki
dyktatorski
wymagający
kłótliwy
wymagający
gorący
arogancki
I
sztuczny
lekkoduszny
powierzchowny
zachwycony
optymistyczny
ekstrawertyk
ambitny
powierzchowny
nieuważny
optymistyczny
powierzchowny
sztuczny
S
powolny
niepozorny
nieukształtowany nieprzekonujący
nieuczestniczący powolny
niezawodny
przyjazny
cierpliwy
niedokładny
ostrożny
wahający się
C
ostrożny
pedantyczny
zorientowany
problem
defensywny
odrzucający
pesymistyczny
zorientowany na
na zorientowany na istotę problemu
problem
ostrożny

precyzyjny
zorientowany na
jakość
elastyczny
Gospodarek T., “Zarządzanie dla…”, str. 178
239
Rys. 4.8 Model DISC w praktyce [na podst 315.]
The Mindmap Blog, “US Constitution Mindmap: Creating a “More Perfect Union””, http://mindmapblog.files.wordpress.com/2008/06/disc-styles.jpg
315
240
Doświadczenia zarządzania pokazują, że atmosferę w grupie i możliwości
współpracy warunkują nie tylko kwalifikacje, ale również postawy osobnicze, cele
organizacji oraz motywatory „twarde”. Istnieje również cały szereg aspektów socjokulturowych określających zdolność działań synergicznych grupy.
4.5.2 Motywacja
Motywacja stanowi pojęcie psychologiczne, które dotyczy zachowań ludzkich
w organizacji. Jest jednym z kluczowych aspektów zarządzania praktycznego, powodując szereg cennych dla organizacji (i jej pracowników) efektów. Cytując za Wikipedią316, „Motywacja jest stanem gotowości istoty rozumnej do podjęcia określonego działania. Jest to wzbudzony potrzebą zespół procesów psychicznych i fizjologicznych określający podłoże zachowań i ich zmian, jak również wewnętrzny stan człowieka mający wymiar
atrybutowy”. W zarządzaniu motywacja budowana jest poprzez zbiór procesów motywacyjnych. Ukierunkowują one zachowania podmiotu na osiąganie istotnych
dlań celów (zmiana otoczenia, zmiany osobowości, zmiana położenia socjalnego
lub ekonomicznego). Procesy motywacyjne dają się rozłożyć na pojedyncze motywy, stanowiące przeżycia pobudzające człowieka do działania. Ujemne motywy
mogą prowadzić do powstrzymania od wdrożenia decyzji o wykonaniu lub wybrać
opcje mniejszych skutków.
Motywacja dzieli się na wewnętrzną i zewnętrzną. O motywacji wewnętrznej
mówi się wtedy, gdy człowiek (pracownik) dąży do realizacji własnych potrzeb. W
przypadku motywacji zewnętrznej, zachęta do podejmowania trudu jest indukowana przez otoczenie za pomocą odpowiednich bodźców. Mogą to być nagrody,
kary lub wywoływanie odpowiednich stanów psychofizycznych w czasie realizacji
celów organizacji (np. współzawodnictwo i walka). Warto zauważyć, że motywowanie pracowników wyłącznie poprzez pensje i premie nie jest dziś w wielu wypadkach wystarczające do podejmowania trudnych zadań na rzecz organizacji.
Świat zaczyna cenić czas wolny, możliwość rozwoju osobistego oraz uznanie społeczne. Praca jest jedynie środkiem do osiągnięcia stanu pozwalającego na lepsze
wykorzystanie czasu wolnego, a nie jest celem samym w sobie. To powoduje, że
działy HR muszą podejmować trud monitoringu potrzeb i upodobań, podpowiadając menedżerom prowadzenie elastycznej polityki motywacyjnej.
Motywacje są ściśle powiązane potrzebami oraz celami317. Traktują o tym badania F. Herzberga318 i jego teoria dwuczynnikowa motywacji i higieny (Motivator-
Wikipedia, “Motywacja”, http://pl.wikipedia.org/wiki/Motywacja
Bartkowiak G., Psychologia zarządzania, Wydawnictwo AE w Poznaniu, Poznań, 1997.
318
Herzberg F., Mausner B., Snyderman B., Bloch B., The Motivation to Work, John Wiley and Sons, 2nd Ed.,
New York 1959
316
317
241
Hygiene Theory)319 dotycząca zadowolenia z pracy. Zgodnie z nią, wpływ na pracowników mają dwa zbiory czynników: motywujące oraz higieny pracy, przedstawione w tabeli 12.
Tabela 12 Czynniki zadowolenia i niezadowolenia z pracy wg. F. Herzbe rga 319
Czynniki motywujące
Czynniki higieny pracy
Osiągnięcia i cele
Rozpoznawalność (wyróżnienie)
Kariera własna (samorealizacja)
Odpowiedzialność
Promocja
Awans
Polityka i zarządzanie firmą
Nadzór techniczny
Płace
Nadzór personalny
Warunki pracy
Czynniki higieny pracy zapobiegają frustracji (problem w okresie Tayloryzmu), podczas gdy czynniki motywujące wywołują satysfakcję z podejmowanych
działań, zwiększającą poziom zaangażowania pracownika w realizację celów organizacji, a przy okazji lepszego spełnienia niektórych, własnych potrzeb. Potrzeby w
obszarze higieny pracy mają cykliczny charakter i zawsze powracają do pytania: co
organizacjo zrobiłaś dla mnie ostatnio? W związku z tym, nie mają one ograniczenia
od góry. Stąd też wynika ciągła ich eskalacja. Ale żeby czynniki motywujące mogły
funkcjonować poprawnie, konieczne jest zaspokojenie na poziomie akceptowalnym
potrzeb z obszaru higieny pracy. Dlatego motywować można skutecznie dopiero
wówczas, gdy zostaną spełnione pewne minima, określane jako wzbogacanie
pracy. To jest jedno z ważniejszych spostrzeżeń w podejściu Herzberga. Motywacja
pozostaje w relacji z teorią potrzeb Masłowa i ma charakter dwustopniowy (najpierw warunki pracy, potem rezultaty).
W praktyce zarządzania wypracowano szereg zasad wzbogacania pracy, które
należy traktować jako dobre praktyki. Należą do nich wymienione poniżej.
 Zwiększenie zaufania do pracowników przez ograniczenie albo likwidację pewnych form kontroli pracy.
 Zwiększenie poziomu odpowiedzialności poprzez zlecanie bardziej złożonych
zadań oraz zakresu kompetencji.
 Powiększenie swobody decyzyjnej w obrębie stanowiska pracy i uelastycznienie
czasu pracy na rzecz rozliczeń zadaniowych.
 Udostępnianie niektórych raportów okresowych bezpośrednio pracownikom,
informowanie o położeniu ekonomicznym i planach strategicznych organizacji.
 Zwiększanie kompetencji pracownika poprzez powierzanie trudniejszych zadań
oraz uczestnictwo w procesach ustawicznej edukacji.
319
Herzberg F., "The Motivation-Hygiene Concept and Problems of Manpower", Personnel Administrator, vol
27, I-II,(1964), pp. 3–7.
242
W analizie motywacji brane są pod uwagę również teoria sprawiedliwości J.S. Adamsa320, teoria oczekiwań V. Vrooma321 oraz teoria warunkowania instrumentalnego B.F. Skinnera322.
Model sprawiedliwości J.S. Adamsa oparty jest na obserwacji, że pracownicy dokonują ważenia pomiędzy elementami wnoszonymi do organizacji (pracy), takie
jak: wiedza, doświadczenie, kompetencje, lojalność, czas, a tym, co w zamian od
organizacji otrzymują, np. płaca, uznanie, nagrody, awanse, pochwały etc., po czym
porównują uzyskany wynik do wyników innych osób zatrudnionych na podobnych stanowiskach. Jeżeli pracownik uważa, że wynik porównania nie odbiega znacząco od wzorca lub średniej dla niego dostępnej, to nabiera poczucia sprawiedliwości. W przeciwnym wypadku doświadcza on poczucia niesprawiedliwości i w
konsekwencji deficytu motywacji. To w dłuższej perspektywie czasowej może przeradzać się we frustracje różnego typu. Jest to całkowicie wytłumaczalne i poparte
licznymi obserwacjami.
Ludzie w codziennym życiu ciągle porównują swoją sytuację z sytuacją innych
osób. Znajdują w ten sposób punkt odniesienia, aby móc określić swoje położenie
społeczno-ekonomiczne lub zdefiniować efektywność własnego postępowania.
Jednostka może poprzez porównywanie do innych, będących dla niej układem odniesienia, prawidłowo oszacować własne działania oraz postawy w określonych sytuacjach, w szczególności w relacjach pracownik - organizacja. Takie procesy porównywania się do wzorców są właściwymi działaniami dla każdego i wynikają z
konstrukcji naszych zmysłów oraz sposobów subiektywnej oceny. Dlatego, między
innymi, obiektywne wskaźniki i mierniki postępowania oraz zewnętrzne oceny danych zjawisk podawane liczbowo, mają mniejsze znaczenie wobec porównań do
realnej sytuacji.
Najbardziej istotnym dla człowieka jest subiektywne wrażenie o pozytywnym
wydźwięku, które może on zyskać w wyniku porównania z otoczeniem. Stąd
wprost wynika jedna z optymalizacji relacji człowiek – otoczenie (w szczególności
pracownik-organizacja): dążność do wyrównania poziomu poczucia sprawiedliwości.
Teoria oczekiwań Vrooma zwraca uwagę na fakt, że zanim uda się wygenerować
skuteczną motywację, należy spełnić dwa warunki:
1. Motywowany musi czegoś silnie pragnąć.
2. Prawdopodobieństwo zaspokojenia potrzeby jest wysokie.
W ujęciu Vrooma motywacja wyraża skłonność do ponoszenia wysiłku, ale pojawi
się dopiero wówczas, gdy jednostka będzie przekonana o możliwości osiągnięcia
celu i jego opłacalności w dowolnym tego słowa znaczeniu. Tym samym reprezentuje ona pewien stan równowagi pomiędzy intensywnością pragnienia i stanem
320
Adams J.S., Freeman S., Equity Theory Revisited: Comments and Annotated Bibligraphy, [w] L. Berkowitz, E.
Walster (red.), Equity theory: toward a general theory of social interaction, Academic Press, New York 1976.
321
Vroom V.H., “Work…” op. cit.
322
Skinner B.F., “The Behavior…”, op. cit.
243
wiedzy na temat możliwości jego realizacji. Jeżeli zatem informacja dostępna dla
pracowników jest niepełna, to pozostając w stanie niepewności, mogą oni zredukować własną motywację i ograniczyć wysilanie się. W ten sposób brak jawności kryteriów nagradzania (uznaniowość nagrody lub demokratyczne ustalenia przez głosowanie)
ograniczają motywację.
Model motywacji wg Vrooma jest trudny do zastosowania w praktyce. Wymaga złożonej analizy równowagi wartości rezultatu dla każdego pracownika, w
relacji do prognozy jego wysiłku i prawdopodobieństwa osiągnięcia celu. Udane
wdrożenie tego modelu może przynieść organizacji wartościowe efekty, szczególnie jeżeli dotyczy to pracy twórczej i motywowania do podejmowania działań innowacyjnych. Koncepcja oczekiwań Vrooma uwzględnia dynamiczne cechy osobowości człowieka, szczególnie adaptatywność jego zachowań oraz preferencji. Stawia określone wymagania pracownikom. Pracownicy natomiast dokonują racjonalnych kalkulacji i wybierają działania, których wynik jest osiągalny i prowadzi do
założonego celu w nadziei zdobycia obiecanej nagrody (stanowiącej motywację).
Niestety założenie, że człowiek działa zawsze racjonalnie nie jest prawdziwe i nie
da się przewidzieć wszystkich skutków zastosowania danego wariantu motywacji.
Dokonując zatem działań motywujących, należy mieć na uwadze nadrzędność
działania reguły przekory oraz zasadę optymalności działania nad wszelkimi, innymi poczynaniami.
Model Skinnera – jest kolejną metodą w zakresie motywowania wykorzystującą
warunkowanie instrumentalne. Opracowana została przez B.F. Skinnera, a jej funkcjonowanie najlepiej oddaje przenośnia metody kija i marchewki. Podstawę teoretyczną stanowi koncepcja behawioralna relacji pracownik – pracodawca oraz
stwierdzenie, że człowiek jest całkowicie zdeterminowany przez warunki zewnętrzne. W wyniku różnych, złożonych oddziaływań, zachowuje się on w sposób
adaptatywny w stosunku do chwilowych warunków i bodźców. Zachowanie inteligentne człowieka w danej chwili jest wynikiem przeszłych doświadczeń i zachowań. Ludzie zachowują się tak, jak się wcześniej nauczyli reagować na różne sytuacje położenia, nabywając odruchów Pawłowa. Innymi słowy, pewne zachowania
indukują pozytywne konsekwencje, a inne nieprzyjemne skutki. Oczywistym jest,
że każdy człowiek woli doznania przyjemne i uczucie zadowolenia. Dlatego będzie
wykazywać skłonności do powtarzania zachowań przynoszących mu korzyści i
unikania tych, które wiążą się z negatywnymi skutkami (np. karaniem).
Istnieją cztery typy oddziaływania na pracownika:
 Wzmocnienie pozytywne – są to: nagroda, pochwała, awans za działania przynoszące dodatnie efekty organizacji, szczególnie związane z realizacją jej celów.
 Uczenie unikania – korekty bieżące w wyniku działań adaptatywnych i autorefleksyjnych w relacjach do określonych sytuacji. Pracownik i menedżer uczą się
wzajemnie prawidłowych zachowań i eliminują zagrożenia pojawienia się kar.
244
 Stosowanie wygaszania – działania zarządzania związane z ignorowaniem pewnych zachowań i postępowań. Powoduje to zanikanie ich występowania po
określonym czasie.
 Karanie – czyli radykalny sposób na natychmiastowe zaprzestanie określonych
działań albo eliminację niepożądanych zachowań.
Model Skinnera szczególnie dobrze pasuje do korporacyjnych stosunków pracy, albowiem pomija w procesach motywacji stany wewnętrzne człowieka i jego osobowość. Odrzuca przy tym wolną wolę na rzecz działań deterministycznych, wymuszających określony ład. Zawsze należy mieć jednak na uwadze, że jeżeli pracownik
nie dostrzega związku między swoim wysiłkiem i zaangażowaniem w działalność
firmy a wynikiem jego starań, w szczególności związków z płacą, awansami i nagrodami – prędzej czy później będzie się starał znaleźć inne miejsce pracy. Nie jest
tajemnicą, że w pierwszej kolejności dobrowolnie zrezygnują z pracy najlepsi i najbardziej mobilni pracownicy, którzy będą poszukiwać swojej szansy gdzieś indziej.
4.5.3 Coaching i ścieżka kariery
W zarządzaniu kadrami pojawia się zagadnienie budowania kluczowych kompetencji oraz definiowanie ścieżki kariery szczególnie cennych pracowników organizacji. Wiążą się z tym działania ponad standardowe oraz budowanie relacji na
drodze indywidualnego wsparcia przy pomocy trenera-konsjerża (coacha). Ogół
takich działań i metod osiągania założonych celów rozwoju w krótkiej perspektywie czasowej nazywany jest coachingiem. Model funkcjonalny coachingu został zaczerpnięty ze sportu i metod tam stosowanych dla wykreowania mistrza323, które
zostały wzbogacone o zdobycze psychologii w zakresie oddziaływań międzyludzkich.
Ścisłe zdefiniowanie coachingu nie jest możliwe, aczkolwiek można ustalić szereg desygnatów związanych z funkcjonowaniem takiego bytu w praktyce i na tej
podstawie próbować syntezy epistemologicznej324,325. Jedną z metafor syntetycznych, opisujących coaching jest sentencja: „konsultant pomoże ci kupić odpowiedni rower. Terapeuta pomoże zidentyfikować lęki przed nauką jazdy na rowerze. Coach będzie biegł
za tobą, aż wystartujesz i sam zaczniesz jeździć na rowerze”326. Coaching jest modnym
zagadnieniem w teorii zarządzania (w jej części metodologicznej) i mocno eksploatowany w literaturze dotyczącej aspektów psychologicznych w funkcjonowaniu
człowieka w organizacji. Stanowi przedmiot zainteresowania zarządzania ścieżkami kariery.
Wilson C., “Coaching biznesowy”, Wyd. MT Biznes, Gdańsk 2010
Wujec B., „Geneza i definicje coachingu”, Coaching Review 1, (2012), str. 4-28
325
Starr J., „Podręcznik coachingu. Sprawdzone techniki treningu personalnego”, Wyd. Oficyna, Warszawa
2015
326
Szulc W., “Coaching – misja życia”, Wyd. Złote Myśli, Gliwice 2008, str. 13
323
324
245
Z punktu widzenia naukowego, coaching jest zbiorem dobrych praktyk i relacyjnych działań pomiędzy coachem (tym który wie i potrafi), a coachee (tym, który
chce pozyskać dostępne dla coacha zasoby na zasadzie świadczenia przez tego
ostatniego usług typu consierge). Nie jest to usystematyzowana i ustrukturalizowana wiedza, ale bardziej zbiór opisów obserwacji na temat używania pewnej metody, nie do końca popartych pomiarem oraz twardymi faktami. Należy jednak
podkreślić, że coaching jest narzędziem służącym odkrywaniu i optymalizacji własnych możliwości przez coachee (poddanemu procesom coachingu). Zajmuje się zagadnieniami rozwoju osobowości podmiotu i własną pracą nad sobą w celu doskonalenia przy udziale trenera osobistego. Dlatego w dalszej części coaching będę definiować jako:
[Df] metoda definiowania i wypełnienia luki zasobowej u podmiotu coachingu wykorzystująca model usług concierge świadczonych przez osobę coacha, posiadającego odpowiednie zasoby.
Jak łatwo zauważyć, charakterystyczne dla coachingu jest występowanie silnej
relacji międzyludzkiej podmiot – coach (więź, zaufanie, wiara w skuteczność, itp.),
co podkreślane jest w literaturze przedmiotu. Coach dysponuje nie tylko wiedzą
praktyczną, ale również możliwościami outsourcingu różnych usług wspomagających procesy przejmowania zasobów przez coachee.
Odwołanie się do serwisu concierge jako modelu funkcjonowania coachingu
wydaje się być szczególnie trafne, ponieważ wykreowanie mistrza w sporcie lub w
biznesie wymaga nie tylko treningu, ale również zapewnienia spełnienia różnych
potrzeb, utrzymujących odpowiedni poziom stanu psychofizycznego u podmiotu,
który ma osiągać zakładane cele i wyniki. Wymogi stawiane przez dzisiejsze otoczenie dla potencjalnego mistrza w jakiejkolwiek dziedzinie życia są na tyle ciężkie,
że nie ma on ani czasu ani energii ani wiedzy żeby równoważyć samodzielnie zapotrzebowanie na rozliczne zasoby, konieczne do normalnego funkcjonowania.
Kandydat na mistrza potrzebuje wsparcia i odciążenia od organizowania sobie
pewnych elementów życia i codziennej działalności (np. wyjazdy służbowe, harmonogramy treningowe, zasoby materialne, dostęp do wiedzy, odnowę biologiczną). To załatwia konsjerż, który może ale nie musi być jednocześnie coachem.
Luka zasobowa
Znając zakres działania coachingu i jego określenia, pozostaje do rozpatrzenia
kwestia: jak definiować lukę zasobową, wymagającą stosowania coachingu jako metody jej
wypełnienia. Składają się na nią następujące elementy:
 Luka wiedzy, którą można wypełnić przez zastosowanie konsultingu specjalistycznego. Zadanie coacha polega na zorganizowaniu odpowiednich szkoleń,
konsultacji, udziału w konferencjach oraz dostępu do wiedzy źródłowej, tak
żeby zainteresowany pozyskał brakujące zasoby.
246
 Luka kompetencji, która wiąże się z brakami doświadczenia praktycznego w wykonywaniu określonych zadań oraz brakami wiedzy specjalistycznej. Rola coacha polega na zorganizowaniu odpowiednich szkoleń, konsultacji i treningu
praktycznego w celu uzupełnienia kwalifikacji.
 Luka sprawności fizycznej i zdrowia, która dotyczy sytuacji zdrowotnych związanych z leczeniem, rekonwalescencją, rehabilitacją lub potrzebą poprawienia
stanu tężyzny w związku z jakimś celem. W tej kwestii coach ma za zadanie wykonania planu treningowego i zorganizowanie całego procesu fizycznie stając
się po części konsjerżem, trenerem i powiernikiem, tym bardziej że często pracownicy podupadają na zdrowiu psychicznym wskutek ciągłego stresu i wymagają uspokojenia sytuacji.
 Luka motywacji powstaje w wyniku doznania poczucia niesprawiedliwości, działania stresu, niespełnienia potrzeb, frustracji, obaw lub istnienia ograniczeń, itp.
Wymaga ona zdefiniowania i uświadomienia co w tej kwestii może wymagać
wsparcia zewnętrznego. Rola coacha polega wówczas na wsparciu pokonania
barier i wdrożeniu działań motywujących, a czasami terapeutycznego counsellingu.
 Luka relacji stanowi niedobór zasobów związanych z potrzebami przynależności
lub odpowiedniego układu relacji wymaganego na danym stanowisku. Do zadań coacha będzie należeć doprowadzenie do stworzenia właściwej struktury
relacji, koniecznych np. dla spełnienia potrzeb afiliacji albo uzyskania statusu
osoby wpływowej o wysokim statusie społecznym.
 Luka wizerunku jest związana z niezaspokojeniem potrzeb akceptacji, szacunku
lub uznania jako osoby kompetentnej, wartościowej lub o wysokim statusie społecznym. Coach musi ustalić ścieżkę pozyskania niezbędnych zasobów i sposób
ich przejęcia praktycznego, tak żeby zaspokoić ambicje i dążenia podmiotu coachingu. W tej kwestii zastosowanie mentoringu ma istotne znaczenie.
 Luka czasu wiąże się z brakiem możliwości wykonania wielu czynności umożliwiających funkcjonowanie jednostki w życiu codziennym ze względu na zbyt
duże zaabsorbowanie sprawami zawodowymi (np. trening sportowy wielogodzinny, ciągła podróż, nadmiar spotkań i spraw bieżących). Wówczas coach
musi pełnić częściowo rolę konsjerża, a dodatkowo zapanować nad harmonogramami czasowymi i ich optymalizacją.
 Luka zasobów materialnych stanowi poważną kwestię motywacyjną dla podjęcia
działań na rzecz poprawienia sytuacji materialnej zainteresowanego coachingiem. W takim przypadku coach musi mieć możliwości stworzenia odpowiednich warunków, żeby zaprojektowane działania przełożyły się na wypełnienie
luki i powiązane były ze ścieżką kariery zawodowej.
Powyższa lista nie wyczerpuje całości zagadnień związanych ze wsparciem, które
może oferować coaching. Nowe przypadki zastosowań powstają ad hoc, a co najgorsze ich taksonomia nie jest usystematyzowana. Nie pozwala to ani na stworzenie
247
dobrego paradygmatu327 dla coachingu, ani ustalenia jego zakresu epistemologicznego. Istnieją natomiast opisane i sprawdzone empirycznie metody postępowania,
którymi coaching może się posługiwać, takie jak: counseling, doradztwo, trening,
mentoring, dokształcanie, samorefleksja, medytacja, działanie concierge, itp. Wykorzystanie wielu technik przekazania zasobów równolegle wpływa na trwałość
efektów coachingu i jego efektywność ekonomiczną, a jednocześnie przewyższa
efekty wynikające wyłącznie z zastosowania treningu.328.
Dla kogo coaching?
Coaching nie jest metodą-panaceum na rozwój lub eliminację problemów. Nie
wszyscy pracownicy wykażą dodatnie sprzężenie zwrotne w wyniku jego zastosowania. Z pewnością działania concierge mogą wspomóc każdą interwencję, ale wybór pomiędzy terapią psychologiczną, zwykłym szkoleniem, a coachingiem jest
związany z posiadanymi już zasobami przez coachee. Jeżeli inwestuje się w krótkoterminową interwencję coachingową u menedżera, można oczekiwać zwrotu z inwestycji. W przypadku pracowników nie będących pracownikami wiedzy, zastosowanie coachingu nie będzie mieć znaczenia. W przypadku budowania ścieżki kariery ważne jest wykorzystanie mentoringu i wszechstronnego budowania kluczowych kompetencji w dłuższym horyzoncie czasowym.
Podejmując się organizacji coachingu warto wykorzystać konsultantów dostępnych na rynku, albowiem brak systematycznej wiedzy i występowanie luki naukowej w tym obszarze nie pozwalają na wykorzystanie stabilnej metodyki postępowania. Tematyka coachingu, mentoringu i podobnych zagadnień należy do kwestii nauki z przymrużeniem oka (tzw. wiedza kawiarniana, ale użyteczna). Nie
można jednak zaprzeczyć, że jest to wiedza, działanie i wykorzystanie kluczowych
kompetencji coacha, które mogą przynieść pozytywne rezultaty u adresata usługi.
Z naukowego punktu widzenia jest to wiedza niezupełna i niespójna, gdzie można
jednocześnie udowadniać prawdę i fałsz, wychodząc z tych samych przesłanek (ponieważ egzemplifikacją empiryczną są zindywidualizowane studia przypadku).
Dlatego należy zachować dużą ostrożność w wybieraniu partnerów biznesowych
dla realizacji coachingu. Warto również analizować studia przypadku projektów
zakończonych sukcesem i odnosić je do własnego problemu na zasadzie uprawnionej analogii, a nie metafory. Metoda porównania ze wzorcem może być jedynym
kryterium aksjologicznym dla konkretnego przypadku zastosowania.
Kuhn T., “Struktura rewolucji naukowych”, Aletheia, Warszawa 2001.
McGovern J., Lindemann M., Vergara M., Murphy S., Barker L., Warrenfeltz R., “Maximizing the Impact of
Executive Coaching: Behavioral Change, Organizational Outcomes, and Return on Investment”, The Manchester
Rev., Vol. 6, No. 1, (2006), str. 1–9.
327
328
248
4.5.4 Płace
Jest to jedna z najważniejszych kwestii zarządzania zasobami ludzkimi. Płaca
stanowi równoważnik wartości oferowanej przez pracownika organizacji, która kupuje jego pracę i czas. Płaca, teoretycznie, stanowi wynik gry dwuosobowej o sumie
zero, tzn. nikt tu nie wygrywa i nikt nie przegrywa. Mamy kompromis, który o ile
pozostaje stanem równowagi w sensie Pareto, o tyle zasoby ludzkie w danej organizacji pozostaną stabilne. Często jednak płaca nie jest równowagowa i poczucie
krzywdy jednej ze stron gry powoduje sytuację konfliktową. Rozwiązanie może
przyjąć różnorodne formy, co wiąże się z wystąpieniem ryzyka hazardowego i
możliwości zaistnienia strat. W dodatku ocena poziomu zrównoważenia płacy nie
podlega wyłącznie kryteriom racjonalnym i mierzalnym. Dokonuje się ona w
znacznej mierze w sferze psychologicznej, a płaca stanowi najważniejszy czynnik
motywujący i zadowolenie z pracy lub wywołujący frustracje i poszukiwanie lepszego zajęcia. Stąd też trudno się dziwić, że zarządzanie HR musi w sposób bardzo
wyważony i sprawiedliwy traktować kwestie płacowe.
Jak łatwo zauważyć, to pracownik niemal zawsze pozostaje na słabszej pozycji
w relacjach z pracodawcą, zwłaszcza w korporacyjnych systemach globalnych organizacji. Dlatego prawo pracy wymaga tworzenia dokumentów typu: polityka
płacowa, zbiorowy układ zatrudnienia, zakładowy system wynagrodzeń. Wówczas
możliwa jest kontrola oraz ocena aksjologiczna płacy. Zarządzanie płacami stanowi
wymierny aspekt szerszego obszaru zarządzania zasobami ludzkimi. Dlatego znajduje się w tej części monografii.
Ze względu na różnorodność możliwości kompensat pracowników oraz formułowania umów o pracę, dzieło lub zlecenie, możemy mieć do czynienia z bardzo
oryginalnymi rozwiązaniami systemów płacowych. Warto również zauważyć, że
haracz, który państwo nakłada na płace przypomina funkcjonalnie podatku akcyzowego, mający na celu zniechęcić do konsumpcji danego dobra. Powoduje to szereg działań optymalizacyjnych, umożliwiających ograniczenia w płaceniu PIT, ZUS
oraz podatku od płac, z którymi to państwo usiłuje walczyć, wykorzystując całą
swoją perfidię działania, tak celnie opisywaną w dziele F. Bastiata329. Najlepiej oddaje to cytat „Wszelako nigdy jeszcze nie widziano i nigdy się nie zobaczy, a i nie sposób
sobie tego wyobrazić, żeby państwo oddawało społeczeństwu więcej, niż mu zabrało”. Ma
to głęboki sens w kontekście działania socjalnego państwa. „Złudzeniem obecnych
czasów jest usiłowanie wzbogacić każdego kosztem wszystkich innych; uczynienie powszechnej grabieży przez jej organizowanie”330. Te absurdy ekonomii wespół z działaniem reguły przekory są motorem działań obrony własności ze strony przedsiębiorcy oraz pracownika. Z drugiej zaś strony łupieżcze państwo socjalistyczne wy-
329
330
Bastiat F., “Dzieła zebrane”, Prohibita, Warszawa, 2009.
Bastiat F., http://lubimyczytac.pl/cytaty/636/autor/frederic-bastiat
249
myśliło demokrację by realizować proceder przejmowania własności jednostki i organizowania jej bytu na swoją modłę. „Nasi przeciwnicy sądzą, że działalność, która nie
jest ani finansowana, ani regulowana przez państwo, jest skazana na upadek. My uważamy,
że jest wręcz przeciwnie. Oni wierzą w ustawodawcę, a nie w ludzi. My wierzymy w ludzi,
a nie w ustawodawcę.” I tak dochodzimy do ważnej kwestii, opodatkowania pracy i
optymalizacji płacy.
Opodatkowanie płacy
Kiedyś płaca była traktowana jako to, co dostaję do ręki przy wypłacie. Była to
kwota netto i nikogo nie interesowało, jakie dodatkowe koszty musiał ponosić pracodawca. Państwo nie mogło się jednak pochwalić wysokością płacy średniej, na tle
innych, a poza tym nie było w stanie dokonywać swoich szalbierstw kreatywnej
księgowości, więc wymyśliło płacę ubruttowioną. Natychmiast można było wprowadzić korekty podatków liczonych od brutto, inaczej sformułować kwoty bazowe
opłat, należności za usługi biurokratyczne i usługi państwa. Jednym słowem dokonała się rewolucja bez rewolucji. A jak ładnie zaczęły wyglądać statystyki na tle
Europy. Płace wzrosły, wskaźniki zamożności ruszyły ku wynikom krajów OECD.
A tak naprawdę, to przysłowiowy Kowalski został po raz kolejny okradziony w
majestacie prawa, nawet o tym nie wiedząc, a przede wszystkim, nie mając na to
żadnego wpływu, albowiem demokracja może wszystko. Niby otrzymywał tyle
samo do ręki w czasie kolejnej wypłaty, ale konsekwencje systemowe szybko i bez
rozgłosu odebrały należną sobie część wskutek uruchomienia się mechanizmów
przeliczeniowych, bazujących na wartości przeciętnego wynagrodzenia, które nagle wzrosło, a przy okazji dodało trochę inflacji. Jak to pisał Bastiat „Grabież legalna
może przejawiać się na tysiąc sposobów, stąd nieskończona liczba jej przejawów: cła, ochrona
rynku, dotacje, subwencje, preferencje, progresywny podatek dochodowy, bezpłatna oświata,
prawo do pracy, prawo do zysków, prawo do płacy, prawo do opieki społecznej, prawo do
środków produkcji, bezpłatny kredyt itd., itd. Wszystkie te przejawy – połączone tym, co dla
nich wspólne, czyli usankcjonowaną grabieżą – noszą nazwę socjalizmu”. Wypowiedź ta
w kontekście do: „Są ludzie, którzy uważają, że kradzież traci swoją niemoralność, gdy
staje się legalna.” pokazuje, że tak właśnie działa dzisiejsza niby demokratyczna władza, utrwalająca socjalistyczny system oraz rozdawnictwo socjalne. Dlatego warto
mieć świadomość jak płaca jest podatkowana i ile to kosztuje pracodawcę. Dokładne obliczenia online oferuje serwis Sedlak&Sedlak331.
Wynagrodzenia.pl Sedlak&Sedlak, “Kalkulator wynagrodzeń”, http://wynagrodzenia.pl/kalkulator-wynagrodzen
331
250
Tabela 13 Opodatkowanie pracy
pracodawca płaci
2 412,20 zł
165,28%
Ta sama
firma zlecenie
2 412,20 zł
2 000,00 zł
2 000,00 zł
kwota netto
1 459,48 zł
72,97%
1 455,48 zł
1 687,00 zł
1 712,00 zł
195,20 zł
9,76%
195,20 zł
- zł
- zł
ubezpieczenie rentowe
30,00 zł
1,50%
30,00 zł
- zł
- zł
ubezpieczenie chorobowe
49,00 zł
2,45%
49,00 zł
- zł
- zł
ubezpieczenie zdrowowotne
155,32 zł
7,77%
155,32 zł
180,00 zł
- zł
zaliczka na PIT
111,00 zł
5,55%
111,00 zł
133,00 zł
288,00 zł
2 000,00 zł
100,00%
2 000,00 zł
2 000,00 zł
2 000,00 zł
1 381,00 zł
1 600,00 zł
1 600,00 zł
345,16 zł
400,00 zł
400,00 zł
Rodzaj płatności
ubezpieczenie emerytalne
kwota brutto
podstawa opodatkowania
koszt uzyskania przychodu
Umowa
o pracę
% płatności
Inna firma
zlecenie
Inna firma
dzieło
W tabeli 13 przedstawiona została kalkulację obciążeń płacy w kilku wariantach umowy. Jak łatwo zauważyć, na umowę o pracę za 2 000 zł brutto, pracownik
otrzymuje 1 459 zł netto (ok. 73% kwoty brutto), natomiast pracodawca płaci
2 412 zł (165% narzutu na płacę netto). Oznacza to, że opodatkowanie płacy netto
sięga 65%! Próba optymalizacji daje jedynie szanse oszczędności przy umowie o
dzieło z pracownikiem zatrudnionym w innej firmie. Wówczas narzut na płacę
netto wynosi ok. 17%, co jest akceptowalne dla pracodawcy, jak również dla samego
pracownika, który otrzymuje 252 zł więcej niż na umowie o pracę.
To, że nie ma składek ZUS jest raczej mało interesujące dla tych, którzy taką
formę wybierają. W końcu są świadomymi obywatelami demokracji, skoro potrafią
uczestniczyć w wyborach i wybrać sobie umiłowanych przywódców. Narzucanie
przez państwo jakiegokolwiek systemu ubezpieczeń jest dokładnie tym, o czym pisał F. Bastiat. Za to szara strefa zatrudnienia rozwija się doskonale. Oficjalne zatrudnienie do prac dorywczych po prostu się nie opłaca nikomu, poza wiecznie deficytowym państwem.
Wyobraźmy sobie teraz, że pracownik otrzymuje podwyżkę brutto aż 25%. To
oznacza, że teraz netto zamiast 1 459 zł dostanie 1 808 zł, czyli 348, 62 zł netto więcej.
A to jest jedynie 17% wzrostu płacy netto, a nie obiecane 25%! Za to pracodawca
zapłaci za to o 603 zł więcej, czyli w stosunku do pierwotnej kwoty netto, tylko 41%
więcej. Co to oznacza? Po prostu, nie warto dawać podwyżek, bo najlepiej na tym
wychodzi państwo. Należy inaczej optymalizować wypłaty, stosując model „total
rewards”, uwzględniający różne, dodatkowe bonusy, dla których uda się wyeliminować obciążenia podatkowe i ZUS. Tak powinna działać racjonalna strategia płacowa rozsądnego przedsiębiorstwa.
Nie dziwmy się, że państwu zależy na jak najwyższej kwocie minimalnego wynagrodzenia. Jest to w jego najlepiej pojętym interesie. To jest gra na wydrenowanie
251
prywatnego pracodawcy w celu podniesienia płac w sferze budżetowej i opłat biurokratycznych, z niewielkim bonusem dla pracownika w tle. Te beneficja zależą
często od minimalnej płacy krajowej, przeciętnego wynagrodzenia w gospodarce,
itp. A jak można jednym ruchem wywindować średnią wynagrodzeń? Podnosząc
ustawowo minimalne wynagrodzenie brutto. I już cel jest osiągnięty, zwłaszcza ten
inflacyjny, który musi nastąpić.
Aspekty organizacyjne wynagradzania
Płaca zasadniczo wiąże się z procesami biznesowymi w organizacji i stanowi
zwykle koszt zmienny przypisywany do produktu lub usługi. Może być również
związana pośrednio z ilością produkcji poprzez rozliczenia czasu pracy przypisywanego do wyników zespołu produkcyjnego, wydziału, itp. Odpowiednie wynagrodzenie ma za zadanie utrzymanie zasobów ludzkich w stanie umożliwiającym
optymalną realizację procesów biznesowych w organizacji. Służy temu racjonalne
kształtowanie polityki płacowej332. Ma ona określone funkcje, wykazane poniżej.
 Pozyskanie pracowników odpowiednio przygotowanych do realizacji zadań. W
tym celu organizacja musi oferować godziwą zapłatę zasadniczą. Dodatkowo
należy uwzględnić premiowanie zależne od wyników oraz możliwości powiązania wynagrodzenia zasadniczego z efektami pracy.
 Utrzymanie odpowiedniego zasobu kadrowego, które można osiągać poprzez
długoterminowe oddziaływanie, typu akcjonariat pracowniczy, udział w zyskach, samochód służbowy, itp.
 Motywowanie pracowników do realizacji celów organizacji poprzez konkurencję płacową, związaną z premiowaniem w szerokich przedziałach wartości, nagradzanie za szczególne osiągnięcia.
 Motywowanie do podnoszenia kwalifikacji poprzez finansowanie szkoleń, wynagradzanie za kompetencje oraz kategoryzację płacową w zależności od posiadanych kompetencji.
Najbardziej popularnym systemem wynagradzania jest system ryczałtowy, ustalający stałą, miesięczną płacę lub kwotę umowy. Pozwala on na maksymalne uproszczenie rozrachunków i rozliczeń płacowych, ale pomija aspekty „miękkie” zarządzania kadrami, związane z motywacją, poczuciem ważności, itp. W przypadku
administracji państwowej, szkolnictwa, rozmaitych służb i korporacyjnych firm
zbiurokratyzowanych, ustalono urzędowe taryfikatory wynagrodzenia ryczałtowego w zależności od posiadanych kwalifikacji oraz zajmowanego stanowiska. To
pozwala na różnicowanie płac z pominięciem rozliczeń indywidualnego lub grupowego wkładu w wynik. Jest to równocześnie zasada postrzegania wynagrodzenia jako kosztu mającego zmieścić się w określonym budżecie.
332
Borkowska S., „Strategie wynagrodzeń”, Dom Wydawniczy ABC, Kraków, 2001.
252
Drugim modelem przeciwstawnym do formy zryczałtowanej jest system prowizyjny naliczania płacy. Jest on prosty, zrozumiały i silnie motywujący. Pozwala
wpływać na wysokość zarobków zarówno pracownikowi, jak i pracodawcy. Zwiększa zaangażowanie w procesy biznesowe organizacji i pozwala na zrozumienie zasad wynagradzania. Ale występują równocześnie pewne wady wynagrodzenia
akordowego, związane z indywidualizacją celów działania pracownika zorientowanego na własne cele, a nie cele organizacji. Obniżenie poczucia bezpieczeństwa
ekonomicznego, związane z brakiem stabilności wynagrodzenia. Większa rotacyjność pracowników związana z ograniczeniami możliwości fizycznych osiągania
wyższej płacy.
Czasami model wynagradzania wymaga zastosowania jakiegoś specyficznego
sposobu naliczania płacy. Może to być zależność funkcyjna wynagrodzenia, w której zmienną jest ilość sprzedana, wyprodukowana, przetworzona, itp. Może to być
również podział określonego budżetu, wypracowanego w danym okresie przez zespół, w zależności od wkładu pracy. Wówczas nie jest znana płaca za dany miesiąc,
dopóki nie zostaną rozliczone wyniki pracy. Ma to wpływ na motywowanie do
osiągania określonych rezultatów zespołowych, chętnie stosowany w korporacjach.
Tak działają systemy płacowe w handlu, gdzie warunkiem uzyskania premii kwartalnej jest wykonanie planu sprzedaży przez zespół.
Do całkowitego wynagrodzenia, doliczane są różne zasiłki oraz dodatki w zależności od okoliczności. Zasiłki związane są z socjalną pomocą państwa, ubezpieczeniami, zasługami, kwalifikacjami, itp. Dodatki mogą dotyczyć pracy w warunkach szkodliwych, umundurowania, przepracowanych nadgodzin, jubileuszy, pełnienia funkcji, użytkowania majątku własnego dla celów firmy, itp.
W zależności od potrzeb można różne sposoby naliczania płacy mieszać,
uwzględniając zarówno wynagrodzenie stałe, jak i zmienne. Tworzy się w tym celu
dokumenty formalne, jak polityka płacowa firmy, strategia płacowa, zbiorowy
układ pracy i płacy, zakładowy system wynagrodzeń, a następnie wpisuje się te
sformalizowane reprezentacje umów o pracę w komputerowy system kadry-płace.
Rozliczenia i rozrachunki z pracownikami są na tyle skomplikowane, a kodeks
pracy na tyle obszerny, że lepiej jest wykorzystać inteligentne narzędzie wspomagające i prawidłowo liczące, niż walczyć z morzem przepisów, paragrafów i formularzy, stworzonych przez biurokratów państwa. Analizując sposoby tworzenia systemów płacowych warto skorzystać z serwisu wynagrodzenia.pl333
4.5.5 Wsparcie komputerowe zarządzania kadrami i płacami
Wspomaganie zarządzania kadrami-płacami wymaga kilku programów zintegrowanych w system kadry-płace, który w maksymalnym stopniu pokrywa zapotrzebowanie na wielorakość wariantów rozrachunków i rozliczeń z pracownikami,
333
Wynagrodzenia.pl „Systemy wynagrodzeń”, http://wynagrodzenia.pl/kategoria/systemy-wynagrodzen
253
a jednocześnie zapewnia spełnienie rozlicznych wymogów formalno-prawnych.
Dobrze wykonany system kadrowo-płacowy powinien stanowić inteligentną maszynę do pisania z określonymi funkcjonalnościami, automatycznie realizowanymi
z chwilą wpisania nietypowych zdarzeń kadrowych lub informacji, dotyczących
ilościowych składników płacy. Twierdzenie to wynika z faktu, że to co się rejestruje
w kadrach w ramach codziennej działalności, to opisy zjawisk nietypowych dla
działalności organizacji (zwolnienie pracownika, nieobecności, zmiany przypisań
pracowników do grup lub zadań, wyjazdy służbowe, zmiany w kartotece, etc.). Odbywa się to na dobrą sprawę w jednej bazie danych kartoteki pracowników.
Rys. 4.9 Zasada wymiany informacji w zintegrowanym systemie kadry-płace.
Program płacowy, zintegrowany z kadrowym, po zdefiniowaniu składników
listy płac ma za zadanie generować dokumenty płacowe w sposób automatyczny
pobierając informacje zapisane w bazach danych kadrowych i wykorzystując algorytmy dla zdefiniowanych składników list płac. Wszelkie interwencje menedżerskie w system ograniczone są do zmian definicji tych składników oraz budowania
list płac stosownie do potrzeb. Jeżeli stosowane są rozliczenia ilości pracy (akord
czasowy, ilościowy albo grupowy), wówczas konieczny jest dodatkowy moduł rozliczający ilość pracy, zintegrowany z modułami kadrowym i płacowym. Dane zaimportowane stamtąd stają się jednym ze składników listy płac, podczas gdy informacje źródłowe wprowadzane są tam, gdzie praca akordowa jest mierzona, np.
254
przez mistrza zmianowego, lub przyjmującego ilość wykonanych sztuk od chałupnika wykorzystującego moduł rozliczeń akordowych. W przypadku prostych systemów wynagradzania, takich jak instytucje budżetowe, gdzie dominuje zryczałtowana płaca miesięczna bez konieczności naliczeń akordu, do rozliczenia firmy zatrudniającej 1000 osób potrzeba w zasadzie dwóch osób334.
Na rys. 4.9 przedstawiono zasadę działania zintegrowanego systemu kadrowopłacowego z automatyczną rejestracją czasu pracy i dostępu do stanowisk oraz modułem rozliczenia ilości wykonanej pracy. Moduł „kadry” stanowi część parametryczną dla programu płacowego, a moduł „akord” umożliwia wyliczenie składników pracy zależnych od wyniku (np. prowizja od sprzedaży, udział w przychodach, liczba godzin usługowych sprzedanych, ilość wyprodukowanych sztuk, itp.)
i przekazanie wartości zmiennej do modułu „płace”. Dodatkową funkcjonalnością
modułu „akord” może być planowanie czasu pracy dla stanowisk lub pracowników, co pozwala na eliminację wąskich gardeł w wykorzystaniu zasobów. Moduł
„płace” pobiera informacje z modułu „kadry” (obecności, zasiłki, dodatki, potrącenia) i generuje listy płac, rozdzielniki płac dla księgowości oraz dokumenty płacowe
do udostępnienia w sieci LAN lub dalszego przetworzenia w module kadrowym.
Funkcjonalność
Można zdefiniować cały szereg zapytań do potencjalnego dostawcy albo wykonawcy programu. Pytania te powinny brzmieć335: czy oferowany system kadrowo-płacowy umożliwia:
 pracę w sieci?
 rejestrację pracownika zgodnie z prawem?
 zwolnienie pracownika (świadectwo pracy)?
 przypisania do struktury organizacyjnej (koszty)?
 zmiany przypisań kosztowych?
 Prowadzenie kartoteki pracowniczej z bazą danych zawierającą rejestry?
 funkcję angaże, zmiany angaży?
 funkcję delegacje i ich rozliczenie?
 funkcję umowy-zlecenia i o dzieło?
 definiować dowolnie listy obecności?
 wykorzystanie słowników list płac?
 wykonanie rejestrów czasu pracy?
 wykonanie rejestrów wykorzystania urlopów?
 wykonanie rejestrów zwolnień lekarskich?
 wykonanie rejestrów nieobecności?
 wykonanie rejestrów świadczeń niepieniężnych?
334
335
Gospodarek T., “Systemy ERP…”, op. cit. str. 116, 157.
Gospodarek T., „Systemy ERP…”, str. 121-123
255
 wykonanie rozliczenia czasu pracy w zakładzie z podziałem na wydziały,
zespoły?
 wykonanie rozliczeń akordowych?
 wykonanie rozliczeń z tytułu praw autorskich i majątkowych?
 prowadzenie kasy zapomogowej?
 wykonanie list płac, również w formie pasków?
 wykonanie deklaracji podatkowe (PIT-4, PIT-11/8B, PIT-40)?
 wykonanie syntezy danych do sprawozdań GUS i ZUS,?
 przelewy na konta pracownicze?
 wykonanie definiowalnych raportów i rozdzielników dla kontrolingu?
 wykonanie sprawozdań o kosztach pracy na dział lub projekt?
 wykonanie sprawozdań o kosztach ZUS?
 wykonanie sprawozdań o podatkach od pracowników?
 szablony dokumentów tekstowych?
 szablony dokumentów seryjnych?
 automatyczne wystawiania przelewów płacowych?
 automatyczne wystawianie dokumentów z szablonów?
 automatyczne generowanie deklaracji podatkowych pracowników?
 kryteria bezpieczeństwa i ochrony danych osobowych?
 rejestr wglądów w dane osobowe?
 funkcjonowanie w środowisku bezpiecznym serwera SQL?
 przyjazny interfejs użytkownika?
 dokumentację zgodną z Ustawą o rachunkowości?
 elastyczne słowniki i podpowiedzi?
 użycie modułu współpracy z urządzeniami rejestrującymi czas pracy?
 bufor wymiany danych z Płatnikiem ZUS?
 bufor eksportu do FK?
 bufor importu z systemów planowania zaangażowania kadr?
 system zabezpieczenia danych (repozytorium)?
System ergonomiczny powinien ustalać i podpowiadać ważne informacje na temat
pracownika, takie, jak.: staż pracy w danym dniu, termin ważności badań lekarskich, status pracownika (zwolnienia lekarskie), wpływając tym samym na zmiany
na listach płac oraz ewentualne terminy. Ponieważ ważnym aspektem zarządzania
jest planowanie urlopów oraz przypisania pracownika do działów ze względu na
rozliczenia kosztów i plany produkcyjne, inteligentny system kadry-płace powinien umożliwiać automatyzację rekonfiguracji oraz generowanie rejestrów zmian
w celach kontrolnych.
Dodatkowym aspektem ergonomii jest rozliczanie automatyczne czasu pracy
(nadgodziny) i dni wolnych od pracy. System musi w sposób łatwy umożliwiać
szybkie zamiany dni wolnych oraz wyznaczać godziny nadliczbowe. Ergonomia
pracy zakłada, że jeżeli niczego nie zmieniono w module „kadry”, to stan normalny
256
(8 godzin pracy w dni robocze) został utrzymany i wszelkie konsekwencje tego
faktu zostały zarejestrowane automatycznie (listy obecności, naliczenia płacy, stażu
pracy, wymiaru urlopu, etc.). Czasami zdarza się, że pracownik w czasie urlopu
zachoruje. Wówczas wprowadzenie danych o absencji może rodzić konflikt pokrywających się terminów. Pracownikowi należy przerwać urlop i przenieść na zwolnienie, a system musi taki stan automatycznie uwzględnić po wpisaniu informacji
o L4 i wygenerować odpowiednie zapisy w rejestrach.
Rys. 4.10 Zdefiniowana lista składników płacy dla listy płac
System płacowy ma za zadanie pobrać aktualne informacje z rejestrów kadrowych i wygenerować listę płac według ustalonego szablonu. Składa się na to pewna
liczba składników płacowych, z których część stanowi przychód pracownika, a
część stanowi potrącenia. Ergonomiczny system pozwala na stosowanie różnych,
definiowalnych algorytmów uwzględniania składników płacowych, w tym zapytań SQL i funkcji matematycznych. Prowadzi to do definicji listy płac, na której
składniki pojawią się w określonej kolejności i są przeliczone automatycznie zgodnie z ustaloną polityką płacową (rys 4.10).
Na tym jednak nie kończy się lista zadań stawianych przed modułem płacowym. Z punktu widzenia rachunkowości stanowi on księgę pomocniczą FK, co
oznacza, że musi automatycznie generować rozdzielniki płac dla księgowości, ponadto wykonywać sprawozdania GUS, ZUS oraz deklaracje PIT zgodnie z formalnymi wymogami. Stąd łatwo zauważyć, zarządzanie kadrami i płacami na poziomie operacyjnym wymaga znaczącego zasobu wiedzy oraz znajomości bieżącej
przepisów. Dobry system kadrowo-płacowy zawiera w sobie algorytmy oraz dobre
praktyki w tym zakresie, co znacząco ułatwia zadanie.
Kartoteka pracownika
Najbardziej znamiennym narzędziem działu kadr jest baza danych o pracowniku. Od jej struktury zależy automatyzm działania systemu płacowego. Dodatkowo szereg sprawozdań bieżących, kontrolingowych oraz formalnych (GUS, ZUS)
bazuje na danych pozyskiwanych bezpośrednio z bazy danych kartoteki. Kartoteka
pracownika powinna zawierać następujące informacje:
 imię, nazwisko,
 datę i miejsce urodzenia pracownika,
257

































stan cywilny,
płeć,
dane o dowodzie osobistym,
adres zameldowania, adres zamieszkania,
obywatelstwo,
urząd skarbowy
PESEL, NIP,
dane o kontach bankowych pracownika,
zdjęcie
rodzaj stosunku do służby wojskowej,
dane o kodzie tytułu ubezpieczenia,
obowiązkowe i dobrowolnych ubezpieczenia społeczne i zdrowotnych,
dane o podstawach składek emerytalno-rentowych, chorobowych i wypadkowych
informacja o karalności bądź niekaralności,
informacje dotyczące badań lekarskich,
dodatkowo dane i adres osoby zawiadamianej o wypadku,
ewidencja członków rodziny z wyszczególnieniem osób (dzieci), na które
przysługuje zasiłek rodzinny, automatycznie później wypłacany na liście wynagrodzeń
osoby, na które przysługuje zasiłek pielęgnacyjny
typ ukończonej szkoły, nazwa szkoły, kierunek, tytuł zawodowy, zawód wyuczony,
rodzaj i stopień znajomości języka obcego,
staże, praktyki (miejsca i daty)
rodzaje ukończonych kursów, daty ukończenia.
historię zatrudnienia pracownika i dane dotyczące obecnego stanowiska
rodzaj zatrudnienia, wymiar etatu,
charakter procesu pracy,
wynagrodzenie,
system wynagradzania
chorobowe wypłacane przez ZUS,
ilość dni wykorzystanego urlopu,
dane o pożyczkach oraz ewidencję ich spłat,
dane związane z naliczaniem podatku dochodowego od osób fizycznych,
dane z zakresu przebiegu pracy w innych przedsiębiorstwach: nazwa firmy,
czas pracy, stanowisko, powód zwolnienia, kod zaliczania do stażu pracy,
dane o przerwach w zatrudnieniu (urlop bezpłatny, urlop wychowawczy),
258
Struktura informacji o pracowniku powinna odpowiadać formularzowi angażu
oraz informacjom ilościowym które następnie muszą być dostępne przy wypełnianiu innych formularzy dokumentów kadrowych. To w zasadzie definiuje model
semantyczny kartoteki pracownika.
Dokumenty kadrowo – płacowe i rejestry
Program kadrowy musi umożliwiać generowanie różnorodnych dokumentów
związanych z zarządzaniem zasobem ludzkim. Są to:
1. Dokumenty procesu rekrutacji i zatrudnienia
 umowa przedwstępna,
 umowa o pracę,
 umowa na okres próbny,
 umowa na czas określony,
 umowa na czas nieokreślony,
 umowa o pracę na zastępstwo,
 umowa o pracę tymczasową,
 umowa o pracę nakładczą,
 uontrakt menedżerski,
 porozumienie o wykonywaniu pracy w formie telepracy,
 umowa o pracę na czas określony dla telepracownika,
 oświadczenie pracodawcy o odmowie ponownego angażu,
 informacja o warunkach zatrudnienia u pracodawcy, u którego obowiązuje
regulamin pracy,
 informacja o warunkach zatrudnienia dla pracownika zatrudnionego na podstawie umowy na czas nieokreślony na cały etat w podstawowym systemie
czasu pracy.
2. Zmiana warunków zatrudnienia
 propozycja rozwiązania umowy za porozumieniem stron,
 rozwiązanie umowy za porozumieniem stron,
 rozwiązanie umowy o pracę z zastosowaniem skróconego okresu wypowiedzenia,
 rozwiązanie umowy o pracę za wypowiedzeniem (dot. umowy o pracę nz
czas nieokreślony),
 rozwiązanie umowy o pracę bez wypowiedzenia,
 zwolnienie dyscyplinarne,
 cofnięcie wypowiedzenia umowy o pracę przez pracodawcę,
 cofnięcie wypowiedzenia umowy o pracę przez ciężarną,
 uchwała w sprawie odwołania prezesa zarządu i wypowiedzenia umowy o
pracę,
 pozew o przywrócenie do pracy,
 oświadczenie pracodawcy o odmowie ponownego angażu.
259
3. Regulaminy
 regulamin pracy,
 regulamin wynagradzania,
 regulamin socjalny,
 regulamin zwolnień grupowych,
 regulamin rady pracowników,
 regulamin przyznawania nagród jubileuszowych,
 regulamin szkoleń pracowników.
4. Urlop wypoczynkowy
 wniosek o przesunięcie urlopu,
 wniosek o podział urlopu wypoczynkowego,
 odwołanie z urlopu wypoczynkowego,
 polecenie wykorzystania urlopu wypoczynkowego w okresie wypowiedzenia.
5. Urlop macierzyński i ojcowski
 wniosek o urlop ojcowski,
 zaświadczenie pracodawcy o udzieleniu ojcu dziecka urlopu macierzyńskiego,
 wniosek o dodatkowy urlop macierzyński,
 wniosek o dodatkowy urlop adopcyjny,
 wniosek o rezygnacji z części urlopu macierzyńskiego.
6. Urlop wychowawczy
 wniosek o urlop wychowawczy,
 oświadczenie rodzica o braku zamiaru korzystania z urlopu wychowawczego,
 oświadczenie rodzica o jednoczesnym korzystaniu z urlopu wychowawczego
z drugim rodzicem,
 pismo pracodawcy o udzieleniu urlopu wychowawczego.
7. Urlop bezpłatny
 wniosek o udzielenie urlopu bezpłatnego,
 oświadczenie pracodawcy o udzieleniu pracownikowi urlopu bezpłatnego,
 porozumienie o udzieleniu urlopu bezpłatnego w celu wykonywania pracy u
innego pracodawcy,
 wniosek zarządu zoz o udzielenie urlopu bezpłatnego w celu pełnienia z wyboru funkcji związkowej poza zakładem,
 wniosek zarządu zoz o zwolnienie pracownika z obowiązku świadczenia
pracy na okres kadencji w jej zarządzie.
8. Dni wolne
 wniosek o udzielenie wolnego na poszukiwanie prac,
 wniosek o zamianę dnia wolnego.
9. Podróże służbowe
260
 polecenie wyjazdu służbowego.
10. Odpowiedzialność i zakaz konkurencji
 umowa o indywidualnej odpowiedzialności materialnej za powierzone mienie,
 umowa o współodpowiedzialności materialnej za powierzone mienie,
 umowa o zakazie konkurencji.
11. Podatki i składki
 umowa o używanie prywatnego samochodu do celów służbowych,
 prośba o potrącanie niższych zaliczek na podatek,
 prośba o pobieranie wyższych zaliczek na podatek,
 oświadczenie pracownika o przekroczeniu rocznej podstawy wymiaru składek,
 wniosek o zwrot nadpłaconych składek na ubezpieczenia emerytalne i rentowe.
12. Inne dokumenty pracownicze
 świadectwo pracy,
 kwestionanariusz osobowy dla osoby ubiegającej się o zatrudnienie,
 kwestionanariusz osobowy dla pracownika,
 zaświadczenie o zatrudnieniu i wynagrodzeniu,
 ewidencja czasu pracy,
 umowa w celu podnoszenia kwalifikacji zawodowych pracownika,
 umowa o używanie prywatnego komputera do celów służbowych,
 upoważnienie do przetwarzania danych osobowych,
 dokumenty związane z tworzeniem rady pracowniczej,
 wniosek o podwyższenie kosztów uzyskania przychodu,
 pozew o zapłatę odszkodowania za szkody,
 zawiadomienie o przyznaniu nagrody.
13. Porozumienia i układy zbiorowe
 porozumienie o zawieszeniu stosowania zakładowego układu zbiorowego
pracy,
 porozumienie w sprawie stosowania mniej korzystnych warunków zatrudnienia niż wynikające z umów o pracę,
 porozumienie w sprawie zawieszenia stosowania niektórych przepisów
prawa pracy.
14. Umowy z pakietu antykryzysowego
 umowa o wypłatę ze środków funduszu gwarantowanych świadczeń pracowniczych z tytułu przestoju ekonomicznego,
 umowa o ustalenie nowych warunków spłaty należności funduszu gwarantowanych świadczeń pracowniczych.
261
Narzędziami dokumentującymi zdarzenia w obszarze kadrowym są różnego rodzaju rejestry, na podstawie których można ująć zmiany dokonane w czasie w kartotekach i wykonać odpowiednie raporty. Sposób ich prowadzenia narzuca
prawo336,337 . Do rejestrów kadrowych należy zaliczyć rejestry: absencji, zwolnień
lekarskich, zasiłków, ruchów pracowników (przypisania do zespołów/projektów,
itp.), umów zleceń i o dzieło, czasu pracy, ilości pracy, praw majątkowych i autorskich, urlopów, pracowników zatrudnionych i zwolnionych, badań lekarskich,
szkoleń, list płac, wypłat, podróży służbowych.
Przykładem rejestru może być rejestr zwolnień lekarskich, gdzie oprócz czasu
przebywania na zwolnieniu konieczne jest dodanie informacji o tym kto pokrywa
koszty (wpływ na deklaracje ZUS) oraz jak ma się to objawić na kartotece pracownika, kartotece wynagrodzeń, rozdzielnikach kosztów, itp. Widać stąd poziom
komplikacji zagadnień i konieczność zachowania precyzji zapisów określonych faktów w czasie.
Rys. 4.11 Przykład rejestru zwolnień lekarskich 338
Listy płac i kartoteka wynagrodzeń
art. 149 Kodeksu pracy, oraz § 8 pkt 1 rozporządzenia MPiPS z 28 maja 1996 r. w sprawie zakresu prowadzenia przez pracodawców dokumentacji w sprawach związanych ze stosunkiem pracy oraz sposobu prowadzenia akt osobowych pracownika (DzU nr 62, poz. 286).
337
Infor.pl, „W jakiej formie można prowadzić dokumentację kadrową”, http://kadry.infor.pl/poprzednie_tematy_dnia/604713,W-jakiej-formie-mozna-prowadzic-dokumentacje-kadrowa.html
338
MCM software, “Program kadrowo-płacowy KP PLUS”, MCM Wrocław, 2001.
336
262
Lista płac jest dokumentem płacowym, który ma na celu ustalenie zarówno należności dla pracownika, kosztu dla pracodawcy oraz należności pochodnych dla
ZUS, urzędu skarbowego i innych interesariuszy obciążających pensje. Zadaniem
listy płac jest takie przypisanie kosztu do kont księgowych, żeby można było dokonać rachunku kalkulacyjnego w układzie rodzajowym, miejsc powstawania oraz na
produkcję. To powoduje, że nie może istnieć jeden typ listy płac, ale dla różnych
wypłat warto stosować różnie zdefiniowane. Zarządzanie płacami powinno prowadzić do precyzyjnych rozliczeń oraz rozrachunków, co pozwala na odciążenie
systemu księgowego i wprowadzenie automatyki księgowania za pomocą rozdzielnika kosztów płac.
Żeby zbudować listę płac należy w pierwszej kolejności zdefiniować wszystkie
składniki płacy, jakie wystąpią w organizacji. To definiowanie musi zawierać informacje dla przypisania wartości do odpowiednich pól w bazach danych. W szczególności, czy dany składnik jest należnością, rozrachunkiem czy potrąceniem. Dodatkowo musimy mieć informacje wynikające z przepisów prawnych, czy dany
składnik płacy wchodzi do obciążeń na rzecz ZUS, czy jest opodatkowany, czy
wchodzi do podstawy urlopu wypoczynkowego, zwolnienia L4, itd. W kolejnym
elemencie definiowania musimy podać jak obliczyć wartość danego składnika (algorytm lub wyrażenie matematyczne) i jak go wprowadzić do bazy danych list płac.
Kompletna lista płac jest zatem pewną strukturą tabelaryczną danych (bazą danych), stanowiąc szablon dla informacji szczegółowych zapisywanych na jej pozycjach. Taka budowa list płac pozwala na elastyczne zarządzanie nimi i budowanie
dowolnych przekrojów informacyjnych, z których tworzone są sprawozdania, raporty oraz deklaracje. Stanowi zatem model rozliczeniowy kosztów pracowniczych
przypisany do struktury procesów biznesowych danej organizacji. Jest to niezwykle ważny element zarządzania kadrami i płacami, ponieważ rzutuje na integralność i spójność wymiany informacji i precyzję rozliczeń księgowych.
Rejestr płac wykonanych dla danego pracownika, w którym wskazano kwoty
należności oraz adresy list płac, na których jego identyfikator się pojawił tworzą
kartotekę wynagrodzeń. Jej struktura jest ustalona przepisami, a układ informacyjny musi być standaryzowany w celu wydrukowania odpowiedniego dokumentu na żądanie.
Sprawozdania, raporty, deklaracje
System kadrowo-płacowy musi wykonywać określone raporty, rejestry, sprawozdania oraz deklaracje. Ponadto może rejestrować i planować ścieżki kariery,
harmonogramy szkoleń itp. Jednym z najważniejszych zadań w tej kategorii jest
współpraca i wymiana danych online z aplikacją „Płatnik ZUS”, co umożliwia automatyczne wysyłanie deklaracji ZUS, których mamy sporo i mają one swoją formalną reprezentację de iure. Są to: ZPA, ZFA, ZUA, ZZA, ZCNA, ZWUA, ZWPA,
dane do miesięcznych deklaracji RCA, RNA, RSA. Równie istotne jest generowanie
263
deklaracji podatkowych. Mamy w tej kwestii również poważny wybór: PIT-4R, PIT11, PIT-2, PIT-8AR, PIT-8C, PIT-40, IFT-1. Wykonywanie ręczne tych dokumentów
nie wchodzi praktycznie w grę.
Z punktu widzenia zarządzania HR oraz finansami organizacji konieczne jest
wykonywanie rozdzielnika kosztów płac, wskaźnika efektywności zatrudnienia,
sprawozdania o kosztach płacy, sprawozdanie o kosztach pozaprodukcyjnych
płacy (np. koszt utrzymania związków zawodowych), sprawozdanie o wykorzystaniu czasu pracy, kartoteki wynagrodzeń, kartoteki rozliczeń akordu, oraz całego
szeregu rejestrów etc.
Na rynku istnieje bardzo dużo programów kadrowo płacowych, ale wdrożenie
danego rozwiązania do istniejącego modelu biznesowego stanowi poważne wyzwanie dla działu HR, głównego księgowego, działu produkcji lub usług oraz informatyka. Praktycznie do pierwszego naliczenia płac nie wiadomo niczego o
wdrażanym systemie i lepiej, żeby nie było konieczności sprawdzania, który algorytm został źle wprowadzony albo, które dane nie zostały uwzględnione. Dlatego
planując wdrożenia wspomagania zarządzania kadrami i płacami, należy mieć dobrze działające procedury i dokumenty rozrachunkowe dotyczące płac.
4.6 Marketing i dystrybucja
Zacznijmy od dwóch – przeciwstawnych cytatów: „Zaprzestać reklamy, by oszczędzić pieniądze, to tak jak zepsuć zegar, by oszczędzić czas” należący do T. Jeffersona
oraz „Brakuje w biznesie zwykłej arystotelejskiej etyki i żaden akt prawny tego nie przywróci” należący do mnie. Na tych przeciwstawnych sądach można oprzeć całość
wywodu na temat marketingu i jego bytowaniu w ekosystemie biznesu. Jest to
walka pomiędzy etyką a chciwością, w której ta pierwsza musi ulec, oddalając biznes coraz bardziej moralności, zwłaszcza ten związany z handlem. Podobnie, jak
kropla drąży skałę, tak marketing nadweręża systematycznie zasady arystotelejskiej etyki cnoty, wprowadzając w życie coraz większą dozę oszustwa i manipulacji
do reguł gry rynkowej. Jak słusznie zauważył W. Lenin „kapitaliści sprzedadzą nam
sznur, na którym ich powiesimy”. To najlepiej obrazuje chciwość systemów kapitalistycznych i chęć wzrostu gospodarczego przez rozbuchaną konsumpcję i życie na
kredyt. Obniżanie standardów moralnych z tym związane można jedynie skwitować cytatem z A. Whiteheada „Moralnym jest w danej chwili to, co się większości podoba,
a niemoralnym to, co się większości w danej chwili nie podoba”. Jak to dobrze pasuje do
skrzywionej demokracji partyjnej, która ustala sama sobie prawo i zasady moralne
zgodnie z temporalnym widzi mi się korporacji i systemu globalnego, a przeciw
społecznościom lokalnym. Moralnym stało się permanentne kłamstwo i oszustwo,
albowiem klient oszukany nie jest problemem. Problemem jest niesprzedany towar
i nieosiągnięte cele, choćby najbardziej sprzeczne z ideami złotej zasady postępowania „nie czyń drugiemu, co tobie niemiłe”. A nad tym wszystkim stoi wszechobecny
264
marketing systemowy, bez którego sprzedaż się zawali, PKB dostanie zadyszki, deflacja nie da wzrostu haraczu podatkowego, a banki udławią się nadmiarem pustego pieniądza. Stąd najgorszym elementem społeczeństwa bezprzymiotnikowego
jest jednak ten, który nie kupuje w nadmiarze, najlepiej na kredyt, a do tego pogardza głupotą reklamy oraz ściekiem medialnym na użytek wzrostu konsumpcji. Z
tym marketing musi walczyć, a postawy wstrzemięźliwości zakupowej piętnować.
I to jest kierunek zarządzania w marketingu. Zwiększyć asymetrię rozkładu wiedzy
pomiędzy oferentem, a konsumentem i zmanipulować tego ostatniego do zakupu,
najlepiej wywołując konieczność poddania się terapii zakupowej.
Rys. 4.12 Model „4P” funkcjonowania marketingu [na podstawie 339]
Fundamentalnym dziełem w zakresie marketingu jest książka „Principles of
Marketing”, P. Kotlera i G. Armstronga340. Traktuje ona w sposób kompleksowy o
różnych aspektach wywierania wpływu na konsumenta oraz organizacji sprzedaży
i dlatego warto się na niej oprzeć we wszelkich kwestiach dyskusji o marketingu.
Drugą pozycją wartą poświęcenia szczególnej uwagi jest książka „Marketing research” dotycząca metod ilościowych w badaniach marketingowych opartych na rzeczywistych danych C. McDaniela i R. Gatesa341.
Kotler P. T., Armstrong G., “Principles of Marketing”, 16th Ed., Pearson Edu Ltd, Essex, 2016, str. 48
Ibid.
341
McDaniel C. Jr., Gates R., “Marketing Research”, 10th Ed., Wiley, Hoboken, N.J., 2014.
339
340
265
Model kognitywny funkcjonowania marketingu „4P” (Produkt, Promocja, Plasowanie, Plan cenowy), który można uznać za najbardziej odpowiadający rzeczywistości przedstawiono na rys. 4.12
4.6.1 Budowanie strategii marketingowej
Marketing stanowi sztukę wyboru rynków docelowych i budowania na nim
zyskownych relacji przez oferentów dóbr. Wykorzystuje w tym celu naukę, sztukę,
media oraz technologie IT. Ideałem wykorzystania tak pojętego marketingu jest odpowiedź na dwa zapytania:
 Co możemy zaoferować konsumentowi?
 Jak najlepiej możemy się przysłużyć konsumentowi?
Teoretycznie celem działań marketingu jest budowanie relacji z konsumentami (Customer Relationship Management - CRM), co ma zapewniać dostarczenie maksymalnej
satysfakcji z konsumpcji dóbr. Stąd też kierunkami działania marketingu są: odpowiednia segmentacja rynku oraz wyszukiwanie lub budowanie grup docelowych
konsumpcji oferowanych dóbr. Innymi słowy, marketing proponuje zestaw świadczeń lub korzyści, które obiecuje się dostarczyć klientowi w celu zaspokojenia jego
potrzeb, oczekiwań lub wymagań.
W praktyce biznesowej wyodrębiono następujący układ orientacji marketingowych opisanych poniżej.
 Orientacja na produkcję – dotyczy takiego sposobu wytwarzania, który jest preferowany przez konsumentów (np. custom fit lub przystępność zakupu – niska
cena).
 Orientacja na produkt – związana jest z wysoką jakością, unikatowością lub cechami użytkowymi oferowanych dóbr, które są ważne dla klienta. Wiąże się to
z ciągłym udoskonaleniem i innowacyjnością produktową.
 Orientacja na sprzedaż – opiera się na idei, że konsumenci nie będą kupować produktów danej firmy na zadowalającym poziomie, dopóki nie osiągnie ona wielkiej skali sprzedaży i nie wyda odpowiednio dużo na promocje oraz reklamę.
 Orientacja na rynek – przewodnią myślą tej koncepcji jest idea, że osiągnięcie celów organizacyjnych sprzedaży zależy przede wszystkim od poznania potrzeb i
wymagań rynków docelowych. Na tej podstawie planowane jest dostarczenie
pożądanych dóbr lepiej i w lepszej formie, niż to czyni konkurencja.
 Orientacja społeczna – opiera się na koncepcji, że organizacja podejmuje dobre decyzje marketingowe na podstawie życzeń konsumentów ukierunkowanych na
budowanie z nimi długoterminowych interesów, w kontekście interesów społeczeństwa.
Do zakresu kierunków działań należy również dodać budowanie marki (rozdział.
4.6.7), albowiem stanowi to zagadnienie wielodyscyplinarne, dotyczące zarówno
produktu, sprzedaży, jak i oddziaływań społecznych. Ponieważ działanie marke-
266
tingu realizuje się przede wszystkim w mentalnej sferze postrzegania u konsumenta, należy rozróżnić dwie zasadnicze kategorie odczuć, które marketing stara
się maksymalizować, a praktyka niekoniecznie to potwierdza.
 Postrzegana wartość – stanowi różnicę pomiędzy rzeczywiście otrzymanymi korzyściami, a poniesionym kosztem zakupu (luka marketingowa wartości),
 Satysfakcja z nabycia – rozumiana jako stopień dopasowania użyteczności dobra
do oczekiwań kupującego (luka marketingowa użyteczności).
Jak widać, marketing zawsze będzie w jakimś stopniu wywoływać luki wartości i
użyteczności, albowiem reklama nie jest wiedzą rzetelną, a działania manipulacji
nad konsumentem w celu nakłonienia go do zakupu nie wymagają prawdziwości
wypowiadanych sądów o faktach. Zasady etyczne mają w marketingu ograniczone
zastosowanie, pomimo licznych deklaracji i prób uprawdopodobnienia często karkołomnych hipotez342,343. Dotyczy to zwłaszcza bzdur marketingowych, wypisywanych w social mediach344 i na różnych blogach oraz stronach internetowych, czy też
call center tworzonych na użytek zmanipulowania słabo uświadomionego konsumenta (te ostatnie są przykładem kompletnego braku zasad etycznych w biznesie).
Fikcją jest budowanie przez dzisiejszy marketing stanu zrównoważenia relacji z
klientami, który powinien polegać na traktowaniu konsumentów jako aktywów
wymagających uczciwego zarządzania. Prawdą jest uzyskanie maksymalizacji
efektu sprzedaży przy minimalnych nakładach na reklamę, co odbywa się zwykle
kosztem interesu klienta. Zdarzają się również działania związane z budowaniem
marki i reputacji, ale jest to margines oferty rynkowej.
Każda organizacja musi zaplanować strategię dla swojej aktywności marketingowej. Jest to element zarządzania pojawiający się w biznes planie oraz dokumentach planistycznych dalszego zasięgu. Wiąże się z definicją wizją strategiczną organizacji (rys. 3.10) oraz portfolio oferowanych dóbr (analiza BCG rys. 6.5) oraz atrakcyjnością rynku (analiza McKinsey rys. 6.4). Portfolio i aktywność marketingową
należy dostosować do przyjętej strategii rozwoju całej organizacji, eliminując dobra
nie pasujące z oferty oraz zmieniając status produktów modyfikując je lub dywersyfikując ich alokację rynkową. To wpływa korzystnie na redefinicję łańcucha wartości (rys. 2.4) oraz lokalnego łańcucha dostaw (rys. 2.5). Planowanie strategii marketingu zorientowanej na optymalizację łańcucha wartości polega na budowaniu
partnerstwa biznesowego w łańcuchu dostaw tak, że stworzony alians poprawia
wydolność całego systemu logistyki zewnętrznej oraz sprzedaży oferowanych
dóbr.
Cracked, “23 Outrageous Marketing Lies You See Every Day”, http://www.cracked.com/photoplasty_817_23-outrageous-marketing-lies-you-see-every-day/
343
Stampler L., Business Insider, „The 15 Biggest Lies Ever Told By Major Advertisers”, http://www.businessinsider.com/the-biggest-lies-ever-told-by-major-advertisers-2012-11?IR=T
344
Butters K., Get response blog, “10 Social Media Marketing Lies and Myths Debunked”,
https://blog.getresponse.com/10-social-media-marketing-lies-myths-debunked.html
342
267
Idea działania każdej strategii marketingowej może zostać sprowadzona do
modelu „4P  4C”345, przedstawionego na rys. 4.13. Posługując się portfolio produktów (Produkt), różnymi formami promocji (Promocja), programowanym dostępem klienta do oferowanych dóbr (Plasowanie) oraz strategiami cenowymi (Plan
cenowy) – czyli „4P”, marketing ma za zadanie wykreować zaplanowane pozycjonowanie produktu na rynku oraz wyselekcjonować docelowego klienta. Jeżeli to się
uda, klient i rynek odpowiedzą zwrotnie zdefiniowaniem produktu dopasowanego
do potrzeb (Celowy produkt), określeniem najbardziej skutecznej formy komunikacji (Czytelna komunikacja), ustaleniem optymalnego sposobu udostępnienia produktów (Celowana dostępność), dopasowanym do klienta planem cenowym (Cena
klienta) – czyli „4C”.
Rys. 4.13 Model “4P  4C” marketingu ukierunkowanego na klienta.
345
Kotler P.T & co, op cit. str. 53
268
4.6.2 Strategie marketingowe
Najważniejszymi strategiami w marketingu są dwa modele relacyjne z kategorii Customer Oriented, w których klient jest podmiotowym obiektem działań:
 Strategie zorientowane na klienta (Customer-Driven Marketing Strategy), gdzie konieczne jest podzielenie rynku na odpowiednie grupy interesariuszy wykazujące
określone potrzeby i oczekiwania produktowe. Na tej podstawie możliwe jest
stworzenie celowanego portfolio adresowanego do tych grup. Strategie te wykorzystują zatem relacje rynek – portfolio produktów.
 Strategie skupione na kliencie (Customer-Centered Marketing Strategy) istotnym jest
targeting rynkowy (ustalanie interesujących segmentów lub grup konsumentów
i wybór najbardziej optymalnych) oraz pozycjonowanie produktowe, na które
składa się szeroko pojęty branding i działania promocyjne produktów. W tym
przypadku strategia wykorzystuje relację odwrotną portfolio – rynek.
Strategie zorientowane na klienta
Podstawowymi działaniami marketingu i dystrybucji w ramach strategii Customer Oriented są: segmentacja rynku, targeting, różnicowanie i pozycjonowanie.
Segmentacja rynku polega na podzieleniu dużego zbioru konsumentów na mniejsze podzbiory, do których dostęp jest łatwiejszy i bardziej efektywny ekonomicznie.
Segmentację prowadzi się ze względu na:
 położenie geograficzne (państwa, regiony, miejscowości, itp.),
 układ demograficzny rynku (wiek, płeć, dochód do dyspozycji, wyznanie, itp.),
zachowania behawioralne konsumentów (okazje cenowe, związek z marką,
przynależność do grupy konsumenckiej),
 psychologiczne uwarunkowania konsumpcji (przynależność do grupy społecznej, styl życia, aktualny poziom konsumpcji).
Jeżeli segmentacja rynku ma być skuteczna, konieczne jest, żeby przy podziale spełnić następujące warunki:
 mierzalności (podział musi dawać grupę statystycznie przeliczalną),
 dostępności (dostęp do wydzielonej grupy musi być określony),
 istotności (co oznacza, że można adresować tam informacje gwarantujące oddźwięk),
 zróżnicowanic (pozwala na wydzielenie segmentów obiecujących i podrzędnych) podatności na działania (podział umożliwia skuteczne adresowanie reklamy).
Jak widać nie jest to zagadnienie trywialne, wymagające logicznych i przemyślanych działań, ponieważ pozwala ona ograniczać koszty reklamy i optymalizować
wymianę informacji z konsumentami.
Targeting rynku związany jest z wydzieleniem zbiorów konsumentów o podobnych potrzebach lub wymaganiach, które organizacja oferująca dobra jest w stanie
zaoferować. Może się tak zdarzyć, że podział ten nie ma sensu. Dotyczy to przypadku towarów masowych (cukier, benzyna) gdzie adresatem jest cały rynek, a nie
269
jego segmenty (rynek niezróżnicowany). W przypadku rynków zróżnicowanych,
targeting pozwala adresować odpowiednie dobra do wyselekcjonowanych segmentów rynku. Marketing selektywny jest wprawdzie droższy niż marketing dla
rynków niezróżnicowanych, ale jest znacząco skuteczniejszy w przypadku dóbr nie
należących do segmentu towarów masowych i codziennego użytku. Szczególną
wersją marketingu selektywnego jest mikromarketing dedykowany dla rynków lokalnych i dóbr indywidualizowanych (kastomizowanych oraz marketingu personalnego „jeden na jeden”). Stosuje się go dla specyficznych dóbr i lokalnych marek
dopasowanych do wymagań lokalnych społeczności i niszowych konsumentów.
Jest podstawową strategią marketingową dla mikroprzedsiębiorstw, małych firm
oraz sieci domokrążców. Zadaniem targetingu jest stworzenie mapy segmentów
rynkowych i prognoza dystrybucji selektywnej.
Różnicowanie – pozwala dopasować portfolio oferowanych dóbr do wyselekcjonowanych segmentów rynku i jego potrzeb (np. linie produktowe dostosowane do
różnych portfeli). Różnicowanie dotyczy: produktów, cen, usług, kanałów dystrybucji, konsumentów oraz wizerunku marki. Promuje się przede wszystkim różnice
pomiędzy konkurencyjnymi dobrami, które są: ważne, ewidentne, komunikatywne, trudne do zniwelowania, warte zapłaty oraz przynoszące profity. Porównanie samochodów różnych marek jest w tej kwestii szczególnie wymowne i pozwoliło na powstanie marek luksusowych umożliwiających wyróżnienie się konsumentowi, który stał się posiadaczem Ferrari czy Astona. Proponowana wartość jest mikstem różnorodnych korzyści, głównie w sferze psychofizycznej i realizacji potrzeb
wyższego rzędu. Hasłem przewodnim jest koncepcja, że dla segmentu docelowego
i jego potrzeb ta marka jest rozwiązaniem, które robi różnicę.
Pozycjonowanie – związane jest z tworzeniem map rozpoznawania własnych marek na tle innych, konkurencyjnych produktów i usług. Ma na celu zidentyfikowanie potencjalnych przewag i kluczowych kompetencji umożliwiających poprawienie pozycji rynkowej. Pozycjonowanie powinno doprowadzić do stworzenia mapy
pozycji rynkowych dla naszych produktów z portfolio oferty, w relacji do zdefiniowanych segmentów rynku. W tej kwestii szczególnie użyteczna jest analiza BCG
(rozdział 6.5). Warto również wykorzystać metodę GE McKinsey, wykorzystującą
relacje atrakcyjności rynkowej oraz pozycji danego produktu albo organizacji na
rynku (rozdział 6.4).
Powyższe działania pozwalają na wykreowanie docelowego klienta i optymalizację nakładów na reklamę oraz logistykę, zgodnie z modelem przedstawionym
na rys. 4.13.
4.6.3 Strategie cenowe
Jednym z aspektów strategii marketingowych jest ustalanie polityki cenowej
produktów. Jest to bardzo poważna wiedza związana z modelami sprzedaży oraz
270
relacjami w łańcuchu wartości i definiowanym przez organizację lokalnego łańcucha dostaw. Inaczej budowane są ceny dla towarów szybkozbywalnych przez producenta dla sieci handlowych, inaczej dla hurtownika, a zupełnie inaczej ustala się
ceny kartelowe dla towarów luksusowych w dystrybucji ekskluzywnych butików.
Nie można przy tym pominąć aspektów ekonomicznych, jak:
 zamożność społeczeństwa (dochód do dyspozycji na danym obszarze),
 koszty logistyczne w łańcuchu dostaw (transport, komunikacja, usługi brokerskie i sieciowe),
 aspekty prawne związanych z ochroną konsumenta (przeciwdziałanie zmowom cenowym, dodatkowe certyfikacje i standardy),
 usługi dodane (serwis posprzedażny, opakowania, wiedza konieczna).
Ponadto konieczne jest uwzględnienie aspektów kulturowych (uwarstwienie społeczeństwa, wzorce konsumpcji i styl bycia), a także już istniejące obyczaje handlowe (wyprzedaże, promocje, itp.). Wiąże się to bezpośrednio z kwestiami elastyczności popytu (rozdział 1.2.3), której badanie i monitorowanie jest imperatywem rozsądnie prowadzonego marketingu.
Z punktu widzenia konsumenta istnieją trzy kategorie oddziaływania cenowego, opisane poniżej.
 Cena oparta na wartości – jej ustalanie wynika z oszacowania wartości przez
konsumenta (zorientowana na klienta), a nie na kosztach wytworzenia i dystrybucji, jako kluczowych czynnikach cenotwórczych. Ta cena jest ustalona a priori,
zanim zostanie wdrożony jakikolwiek program marketingowy. Jest to realizacja
zasady towar jest tyle wart, ile można za niego otrzymać.
 Korzystna cena – opiera się na ofercie łączenia odpowiedniej jakości towaru i
dobranych usług dodanych za uczciwą cenę, akceptowaną przez konsumentów.
Firmy o ustalonej marce skłonne są poprawiać jakość lub dodawać opcje użytkowe przy zachowaniu określonej ceny, albo obniżyć cenę przy zachowaniu istniejących parametrów. Dzieje się zwykle tak po premierze innowacyjnych produktów, gdy wchodzą one jako standardowa oferta rynkowa (np. ceny nowych
modeli smartfonów szybko ulegają obniżeniu do pewnego poziomu uważanego
za korzystny, po czym wprowadzany jest kolejny model w zbliżonej cenie, ale o
lepszych właściwościach użytkowych).
W zakresie koncepcji strategii korzystnej ceny zawarte są dwie ważne praktyki marketingowe znane z codziennych obserwacji:
 „codziennie niskie ceny”(strategia marketingowa cen w sieci Biedronka), polegające na codziennym ustalaniu niskiej ceny dla kilku produktów z portfolio zamiast temporalnych rabatów,
 „wysoka-niska cena” pozwala na utrzymaniu wyższych cen w codziennej
praktyce sprzedaży i stosowaniu dla niektórych pozycji towarowych wysokich rabatów okazjonalnie. Jest to typowa strategia cenowa sieci odzieżowych, gdzie nawet rabaty sięgające 70% nie powodują strat ze sprzedaży.
271
 Cena oparta na wartości dodanej. Strategia ta polega na oferowaniu produktu
podstawowego z dodatkowymi opcjami użytkowymi, konfiguracją, kastomizacją, etc. lub serwisem. Przykładem może być sprzedaż samochodu z pakietem
serwisowym i ubezpieczeniem w cenie albo obietnica bezpłatnego uaktualnienia
oprogramowania w jakimś okresie czasu.
 Cena oparta na kosztach. Strategia ta uwzględnia podstawowe aspekty ekonomiczne związane z kosztami wytworzenia, kosztami dystrybucji i logistyki oraz
uczciwą marżę, zapewniającą funkcjonowanie całego systemu generującego
wartość przy możliwości zapewnienia rozsądnego serwisu posprzedażnego.
Metoda ta nie uwzględnia cen konkurencji, co nie zawsze stanowi skuteczne
działanie. Przy obliczaniu cen metodą kosztową należy przeprowadzić kalkulacje finansowe, podobnie jak w przypadku projektu inwestycyjnego.
Tworząc strategie cenowe należy zdawać sobie sprawę z wielu czynników, nie
tylko ekonomicznych, mających wpływ na decyzje konsumenckie o zakupie. Analizując możliwości ustalenia cen, konieczne jest rozważenie warunków ekonomicznych, odpowiedzi partnerów handlowych na proponowaną cenę, uregulowania
prawne i regulacje rządowe oraz uwarunkowania społeczne. Większość tych kwestii została omówiona w niniejszej monografii wcześniej. Do typowych strategii cenowych dla produktów należy zaliczyć poniższe.
 Strategię wysokiej ceny wstępnej – służącą zdjęciu maksymalnego zysku z warstwy konsumentów pożądających innowacyjnych wyrobów i nowinek rynkowych. Metoda ta jest stosowana z sukcesem przez firmę Apple, która w pierwszej fazie dystrybucji swoich nowych produktów zbiera największe żniwo. Warunkiem stosowalności tej strategii jest właściwa relacja wizerunku i jakości oferowanego dobra w relacji do ceny, albowiem to konsument musi chcieć posiąść
dany produkt. Koszty wytworzenia krótkiej serii limitowanej produktu nie powinny stanowić bariery dla ustalenia wyższej ceny, albowiem korzyści z wysokiego pozycjonowania na rynku zrekompensują poniesione nakłady. Jednocześnie postawiona bariera wejścia na rynek konkurentom i substytutom powinna
być wysoka, albowiem warunkuje to zachowanie unikalności oferowanego dobra.
 Strategia ceny penetracyjnej – związana jest z sondażem rynkowym dotyczącym akceptacji ceny dobra. Ustawia się niską cenę początkową, aby szybko i głęboko wejść na rynek i przyciągnąć dużą liczbę nabywców. Pozwala to szybko
zwiększyć udział w rynku i wyżej wypozycjonować firmę lub markę. Strategia
ta jest skuteczna na rynkach wrażliwych na cenę, co w Polsce dotyczy większości
dóbr. Niskie ceny nie powinny jednak zachwiać konkurencji na rynku (dumping
cenowy jest działaniem niedozwolonym w gospodarce rynkowej). Zgodnie z
krzywą doświadczenia Hendersona (rys. 3.8), strategia ta umożliwia zmniejszenie kosztów produkcji i dystrybucji wraz ze wzrostem sprzedaży. W dalszych
272
okresach pozwala to na osiągnięcie większych korzyści przy mniejszym podniesieniu cen, w stosunku do ceny penetracyjnej. W ten sposób firma Huawei weszła na rynek ze swoimi smartfonami i poważnie zamieszała konkurencyjnością
na rynku. Stosowanie takej strategii działania można zauważyć w serwisach aukcyjnych Allegro i eBay. Tam dokonuje się analiz akceptowalnej ceny poprzez
licytację z ustaloną wartością minimalną.
 Strategie cenowe linii produktowej – dotyczy określonej linii produktowej najczęściej opartej na pewnej platformie bazowej i zmiennych konfiguracjach (modele komputerów różniące się cenowo ze względu na użyteczność i parametry),
podobnych produktów jednej marki (kosmetyki – różne kremy na różną okoliczność), produkty uboczne tworzone przy okazji wytwarzania głównego produktu (np. dodatek do odzieży w postaci paska do sukienki) oraz zestawy produktowe sprzedawane po zredukowanej cenie (np. trzy gry w cenie dwóch).
Strategie cenowe dla linii produkcyjnej stanowią fundament relacji producentów
z sieciami dystrybucji i mają szczególne znaczenie w przypadku produktów
szybko zbywalnych. Formy rabatowania oraz dodatkowe korzyści wynikające z
alokacji linii produktowych, stanowią przedmiot negocjacji key account managerów i kupców sieciowych.
 Strategie adaptatywnego ustalania ceny – najczęściej stosowana metoda, bazująca na obserwacji rynku i szybkiej adaptacji cenowej stosownie do sygnałów
płynących z otoczenia. W tej kategorii można wyróżnić kilka kierunków realizacji.
 Rabaty celowe - do tej kategorii działań należy udzielanie rabatów za szybką
płatność lub odpowiedź na kwestię marketingową (np. zapisanie się do prenumeraty newslettera). Może to być również kupon rabatowy do wykorzystania przy kolejnych zakupach.
 Segmentacja cenowa – W tym przypadku stosuje się różne ceny dla poszczególnych segmentów rynku. Ma to miejsce, gdy firma sprzedaje towar w kilku
cenach, pomimo że różnica nie wynika z kosztów wytworzenia. Stosowanie
tej strategii wymaga możliwości podzielenia rynku na segmenty o różnych
cechach i stopniu pożądania dóbr.
 Psychologiczne ustalenia cenowe – Istnieje możliwość sprzedaży dóbr po cenach
bardzo wysokich, do tego stopnia, że niewielu konsumentów może sobie na
taki produkt pozwolić. Dotyczy to produktów związanych z ostentacyjną
konsumpcją, świadczącą o statusie majątkowym ich posiadacza. Przykładem
mogą być luksusowe auta o cenie powyżej 1 mln $, zegarki szwajcarskie w
podobnej cenie, czy też dzieła sztuki sprzedawane na aukcjach za ogromne
sumy. Te ceny nie mają niczego wspólnego z kosztami wytworzenia. Są to
wyłącznie psychologiczne ustalenia poszukujące odpowiedniego klienta.
Inne działanie marketingowe w tym obszarze polega na prezentacji cen referencyjnych, które są na tyle kosmiczne, że klient je zapamięta.
273
 Rabaty i upusty promocyjne – stosowane dla poprawienia popytu danego produktu. Są to akcje marketingowe typu specjalna akcja cenowa, rabaty gotówkowe, finansowanie niskooprocentowanych kredytów, dłuższa gwarancja,
bezpłatne usługi, dodana opcja użytkowa, itp. Należy mieć świadomość, że
klienci bardzo szybko przyzwyczajają się do akcji rabatowych i wstrzymują
decyzje o zakupie do czasu spodziewanych obniżek. To psuje rynek i może
spowodować trudności w harmonogramach sprzedażowych oraz logistycznych. Zwykle takie działania inicjują wojnę cenową na rynku.
 Strategie geograficznej polityki cenowej. Stosowana jest w łańcuchach dostaw,
zwłaszcza globalnych. Jest związana z handlem transgranicznym lub na znaczne
odległości, wymagające działań logistycznych zabezpieczanych kontraktami.
Należy tu zaliczyć strategie cenowe wynikające z przepisów INCOTERMS346, np.
EXW (Ex Works), FOB (Free on Board), CIF (Cost Insurance and Freight). Ceny zależą
od usług dodanych związanych z pakowaniem, załadowaniem wysyłki, ubezpieczeniem, itp. Można wówczas stosować politykę takich samych cen z dostawą
do dowolnego miejsca na Ziemi lub podzielić dostawę na strefy, wykorzystując
podziały cenowe firm kurierskich.
 Strategie cenowe wewnątrz kanałów dystrybucji – Są to działania związane z
kosztami logistyki oraz zapewnienia określonej reprezentacji produktowej na
rynku. Stosuje się wówczas cały szereg działań związanych z ustalaniem jednakowej ceny w sieci dytrybucyjnej oraz systemy dopłat sieci do utrzymania poszczególnych jej węzłów (koncesji lub franczyzy). W sieciach dealerskich poszczególnych marek samochodowych stosuje się premie za wykonanie planu
kwartalnego (tzw. druga marża) oraz kredytowanie samochodu na placu dealera
przez importera w okresie 51 (lub więcej) dni. Prowadzona jest również sprzedaż
z opcją usług dodanych do zrealizowania w dowolnym punkcie sieci lub odkupieniem używanego samochodu za ustaloną cenę w ustalonym czasie.
Niezależnie od procedur i strategii ustalania cen, w bieżącej działalności marketingu stosuje się zmiany cen w czasie. Podwyżki cen można stosować gdy produkt
jest „gorący” i sam się sprzedaje, albo gdy warunki zewnętrzne obniżają zyski ze
sprzedaży wskutek inflacji lub nadmiernego opodatkowania. Ten ostatni przypadek miał ostatnio miejsce w firmie Microsoft, która podwyższyła ceny na swoje produkty w Wielkiej Brytanii ze względu na spadek kursu funta szterlinga.
Obniżki cen na ogół wiążą się zawsze ze spadkiem popytu, wejściem nowego
modelu produktu lub ujawnionych wad jakościowych, odkrytych po wprowadzeniu na rynek. Często zdarza się konieczność reakcji cenowej na działania konkurencji. Mamy wówczas do analizowania kilka ważnych kwestii.
 Dlaczego konkurent obniżył cenę i czy ma to charakter trwały?
 Czy ta obniżka ma jakiś wpływ na naszą pozycję rynkową i wyniki sprzedaży?
346
Incoterms 2015, http://www.one-ill.com/downloads/incoterms%202015.pdf
274
 Czy inni konkurenci również odpowiedzieli obniżkami cen?
Możemy wówczas reagować w sposób elastyczny, mając do dyspozycji kilka działań, wśród których na szczególną uwagę zasługują poniżej zaprezentowane.
 Obniżyć ceny do poziomu konkurencji.
 Utrzymać cenę, ale podnieść wartość postrzeganą naszego produktu za pomocą
komunikacji i działań reklamowych.
 Dodać użyteczność i poprawić jakość, jednocześnie zwiększając cenę.
 Przyjąć wyzwanie i włączyć do walki markę niżej budżetową tego samego produktu (pończochy najwyższej jakości firmy Hanes sprzedawano również pod
tańszą marką Treadwell, co pozwalało utrzymać sprzedaż na super konkurencyjnym rynku).
Na podstawie powyższych informacji możliwe jest stworzenie własnej polityki cenowej, którą można wykorzystać w biznes planie lub wniosku o finansowanie danego projektu.
4.6.4 Kanały dystrybucji
Wprowadzanie nowego produktu na rynek jest jednym z najważniejszych zadań marketingu. Zdarza się nader często, że próba alokacji nowego produktu na
rynku kończy się porażką. Do najczęstszych przyczyn niepowodzeń można zaliczyć opisane poniżej347:
 Przeszacowanie pojemności rynkowej (złe analizy rynku lub ich brak).
 Słabe wzornictwo lub niedostosowanie do trendów rynkowych (brak wiedzy o
upodobaniach konsumentów wynikające z błędów w działaniach marketingu).
 Niedopasowana użyteczność i jakość (błędna ocena rynku i oczekiwań klientów, wynikająca ze złych działań marketingu).
 Nieprawidłowe pozycjonowanie produktu (błędna ocena analityczna wynikająca z
braku właściwej analizy konkurencji).
 Zły harmonogram wprowadzania na rynek (błędy w zarządzaniu marketingiem wynikające ze złego projektowania działań).
 Zbyt wygórowana cena (brak wiedzy o rynku i makroekonomicznych wskaźnikach w danej lokalizacji geograficznej powodująca złą politykę cenową).
 Nieefektywna promocja (błędy działań marketingu wynikające z braku wiedzy).
 Złe zarządzanie (zła organizacja marketingu i słabe zarządzanie projektami).
 Wysokie koszty B+R (złe analizy ekonomiczne przed podjęciem decyzji o realizacji
określonego projektu B+R).
 Konkurencja na rynku i substytuty (czynniki zewnętrzne, które zlekceważył marketing podejmując decyzję o alokacji danego produktu na rynku).
Jak widać z powyższego wykazu większość obserwowanych problemów związana
jest z działaniami marketingu, a dokładniej z błędami w stosowaniu odpowiednich
347
Kotler P.T. Armstrong G., op. cit.
275
narzędzi i strategii. Warto zatem zastanowić się nad problemami dystrybucyjnymi
powiązanymi relacyjnie z marketingiem. Połączenia logityczno-marketingowe stanowią kanały dystrybucji. Ograniczają one możliwość niepowodzeń rynkowych,
ponieważ stanowią wyspecjalizowane struktury uwspólniające zasoby, a przede
wszystkim wiedzę o rynku i doświadczenie pośredników tam działających. W
praktyce biznesowej kanały dystrybucyjne są elementem łańcucha dostaw, stanowiąc zbiór organizacji wspólnie realizujących sprzedaż i logistykę zewnętrzną oferowanych dóbr w zoptymalizowany sposób (rys. 2.5). Są one ważnym elementem
realizacji celów sprzedaży. Pośrednicy oferują większą sprawność w alokacji towarów na rynkach docelowych, niż mógłby to osiągnąć producent samodzielnie. Stąd
też w strukturach kanałów dystrybucji pojawili się wyspecjalizowani fachowcy,
tacy jak: brokerzy, dystrybutorzy, importerzy, centra logistyczne.
W każdym kanale dystrybucyjnym mamy do czynienia z:
 fizycznymi przepływami produktów,
 przepływami własności,
 przepływami pieniężnymi (płatności),
 przepływami i wymianą informacji,
 przepływami promocji i zasobów marketingowych.
Stanowią one wydzielone przedmioty zarządzania dystrybucją i wymagają ciągłej
koordynacji oraz kontroli ze strony organizacji wiodącej w danym kanale dystrybucji. Przy tym konieczne są wyspecjalizowane usługi, umożliwiające synchronizację przepływów, ich dokumentowanie i rozliczenie finansowe. Dlatego zagadnienia
działania kanałów dystrybucyjnych są wielodyscyplinarne. Dotyczą zarówno marketingu, logistyki, finansów, prawa oraz technologii IT.
Zarządzanie kanałem dystrybucyjnym ma za zadanie ciągłą optymalizację celów oraz efektywności łańcucha dostaw z nim związanego. Ważnym elementem
zarządzania jest likwidację konfliktów celów, konfliktów kompetencyjnych zajmowanej w łańcuchu roli oraz podziału marży pomiędzy wszystkimi uczestnikami
struktury dystrybucyjnej. Wiąże się to z koniecznością negocjacji i budowania często złożonych struktur relacji (np. product manager, key account manager, regionalny kierownik sprzedaży i reprezentant handlowy z jednej strony, a z drugiej
marketer, kierownik sklepu i kupiec sieciowy). Wynika to z faktu, że każdy z
uczestników łańcucha dostaw ma swoje własne cele oraz oczekiwania ekonomiczne. Tym samym, koniecznym staje się ciągłe monitorowanie stanu równowagi
i utrzymywanie kompromisu w zakresie podziału marży, kosztów obsługi kanału
oraz ilości sprzedaży danego asortymentu. Jest to duży obszar praktyki zarządzania, mający swoje mechanizmy działania oraz narzędzia i metody realizacji celów.
276
Rozróżniamy trzy typy kanałów dystrybucji:
1. Konwencjonalne kanały dystrybucji - składają się z jednego lub więcej niezależnych producentów, hurtowników i detalistów. Każdy dąży do maksymalizacji własnych zysków i ma słabą kontrolę nad pozostałymi członkami danego
kanału dystrybucji. Nie ma również formalnych dokumentów przypisywania
roli i procedur rozwiązywania konfliktów. Tak uformowane struktury stanowią
większość lokalnych łańcuchów dostaw na rynku.
2. Pionowy system dystrybucji (Vertical Marketing System VMS). Zapewnia przewodnictwo w obrębie struktury kanału dystrybucji. VMS składa się z producentów, hurtowników i detalistów działających jako jednolity system kreowania wartości, wykorzystujący korporacyjne systemy marketingowe, gdzie zdefiniowany został wprost jeden przywódca korporacyjny. Przykładami mogą
być umowne systemy dystrybucyjne (franczyzowe, np. McDonalds) oraz administrowane systemy sprzedaży (przywódcą i administratorem jest na ogół największy uczestnik struktury danego kanału). Przykładem takich sieci jest dystrybucja samochodów danej marki, gdzie liderem jest krajowy importer (np.
Peugeot Polska) dysponujący magazynem centralnym, a członkami sieci koncesjonariusze i ich lokalne łańcuchy dostaw. Może to być globalny dystrybutor
części zamiennych w imieniu producenta (np. dla Forda jest to holding Motorkraft).
3. Poziomy system dystrybucji (Horizontal Marketing System HMS). Powstaje, gdy
dwie lub więcej spółek na podobnym poziomie wielkości łączy się w celu stworzenia nowych możliwości dystrybucyjnych (zawiązuje się konsorcjum lub stowarzyszenie). Firmy takiego konsorcjum uwspólniają zasoby finansowe, produkcyjne lub marketingowe, próbując osiągnąć więcej, niż te organizacje byłyby
w stanie osiągnąć rozdzielnie. W ten sposób powstają dobrowolne układy celowe biznesu, np. stowarzyszenie autoryzowanych dealerów marki (np. stowarzyszenie autoryzowanych dealerów forda, sieć dystrybucyjna Leclerc, w której
każdy hipermarket negocjuje z dostawcami warunki handlowe).
W kanale dystrybucyjnym analizowane są szczegółowo potrzeby i wymagania konsumenta, ustala się cele działania oraz sposoby realizacji wspólnych akcji marketingowych, identyfikuje się alternatywne działania podnoszące efektywność w obrębie struktury i dokonuje ocen efektywności oraz ekonomicznych. Tym samym kanały dystrybucji stanowią strukturę zarządzaną, niezależną od organizacji producenta danego dobra.
Niezależnie od struktury organizacyjnej kanałów dystrybucji, istnieją trzy
główne alternatywy dystrybucyjne ze względu na specyfikę oferowanych dóbr:
 towary masowe, np. chemia gospodarcza oraz towary masowe szybkozbywalne
(np. jogurty, przetwory mięsne),
 towary ekskluzywne (torebki Louis Vuitton, samochody Aston Martin),
277
 dobra podlegające dystrybucji selektywnej dla określonych grup konsumentów
(abonament telewizji SAT, karta klubowa Jaguar).
Dla każdego typu produktu można dopasować odpowiedni kanał dystrybucyjny oraz strategię marketingową, które będą się różnić wzajemnie. Inaczej wygląda organizacja dystrybucji i marketingu produktów mleczarskich o krótkim terminie przydatności do spożycia i transferze dużych objętości przy stosunkowo niskiej cenie jednostkowej, a zupełnie inaczej sprzedaż i dystrybucja drogich smartfonów, choć w obu przypadkach stworzono kanały dystrybucyjne i łańcuchy dostaw.
Omawiając kwestie dystrybucyjne i modele sprzedaży dóbr, konieczne jest
wprowadzenie dodatkowych elementów strukturalnych, związanych z faktem, że
pewne grupy towarów wymagają kilku pośredników zanim dotrą do klienta.
Wiąże się to z odległością pomiędzy producentem a konsumentem, masowością
oraz wielkością spożycia. Nie jest możliwe, żeby każdy sklep zaopatrywał się samodzielnie u producenta proszków do prania lub kupował banany na plantacji
gdzieś w Urugwaju. Potrzebny jest kanał dystrybucyjny, a w nim dwie kategorie
handlowców: detalista i hurtownik.
Pojęcie „detalista” zawiera wszystkie działania w zakresie sprzedaży produktów lub usług bezpośrednio konsumentom końcowym do ich osobistego użytku, a
nie w celach biznesowych (np. dalszej odsprzedaży lub działalności wytwórczej).
„Hurtownik” oznacza tego, kto w procesie dystrybucji nabywa dobra w celu ich
dalszej odsprzedaży lub sprzedaży dla prowadzenia działalności gospodarczej
przez nabywcę. To rozróżnienie jest ważne ze względu na kompletnie różne strategie marketingowe i narzędzia oddziaływania na rynek, jak również różne grupy
docelowe klientów. Poza tym, ze względów logistycznych, możliwe jest tworzenie
kilku poziomów hurtowników, np. importer, broker lub dystrybutor regionalny,
hurtownia lokalna, detalista. W ten sposób skraca się drogę towaru do klienta i obniża koszty dostawy dóbr. Poprawia się ich dostępność, zwłaszcza w sieciach. Więcej na ten temat można przeczytać w rozdziale 4.8.
4.6.5 Marketing bezpośredni
Marketing bezpośredni ma za zadanie dotrzeć bezpośrednio do starannie wybranych konsumentów, często na zasadzie indywidualnego kontaktu. Dla wielu
firm marketing bezpośredni jest czymś więcej niż tylko dodatkowym kanałem reklamy, stanowiąc kompletny model prowadzenia działalności gospodarczej kastomizowanej i ukierunkowanej na klienta. Tam gdzie model marketingu bezpośredniego odnosi sukcesy, staje się wówczas jedynym kanałem dostępu.
Zalety marketingu bezpośredniego dla nabywcy objawiają się w bezpośrednim
dostępie do całej gamy produktów (np. katalog internetowy) oraz większym zakresem informacji podanej w bardziej użytecznej formie (selekcja, sortowanie online)
niż jest to w stanie uczynić sklep lub dział sprzedaży. Ten rodzaj marketingu jest
interaktywny i natychmiastowy, pozostawiając konsumentowi większy margines
278
kontrolny nad zakupem. Niestety, żeby wykorzystać w pełni zalety marketingu
bezpośredniego, konsument musi posiadać wiedzę, żeby użyć narzędzi komunikacyjnych lub dla przykładu, dobrać właściwie detale wymagające dopasowania do
czegoś (zakup części zamiennych nieoryginalnych, wymagający znajomości katalogów producenta).
Marketing bezpośredni przynosi również korzyści sprzedawcy ze względu na
interakcje jeden do jeden. Możliwy jest wówczas kontakt mailowy lub telefoniczny
i dokonanie uzgodnień bezpośrednich w dowolnym momencie. Można również
pozyskiwać dane o preferencjach dla systemu CRM. Dodatkowym atutem jest stosunkowo niski koszt komunikacji przy wysokim wskaźniku efektywności. Aktualnie stosowane są w praktyce biznesowej różnorodne formy marketingu bezpośredniego. Są to: sprzedaż bezpośrednia, kampanie e-mailowe (np. newsletter tematyczny) wysyłane do klientów zapisanych w bazie danych, marketing katalogowy
(np. katalogi sieci ikea lub elektroniczne katalogi firm samochodowych), telemarketing (bardzo nielubiana forma komunikacji ze względu na liczne nadużycia, nie
dotyczy to klientów z bazy danych CRM danej firmy), DRTV – marketing za pomocą telewizji interaktywnej (reklamy telewizyjne iTV, wyświetlane również na
smartfonach), marketing przy użyciu kiosków (automaty sprzedające towary). W
końcu marketing online, związany z reklamami w Interencie i walką z programami
je blokującymi (adblockers) oraz marketing mobilny stanowią dzisiaj fundamentalne narzędzia sprzedaży.
Ta forma marketingu jest najbardziej odpowiednia dla sektora małych i średnich przedsiębiorstw. To właśnie one powinny podejmować strategie cenowe i dostępu do konsumenta łączone z marketingiem indywidualnym.
4.6.6 Model etyczny marketingu
W biznesie globalnym, najważniejszym wskaźnikiem marketingowym jest ROI
(Return of Investment) marketingu, czyli jaki efekt ekonomiczny uzyskano z wyłożonego kapitału na reklamę. Wszelkie ograniczenia etyczne są de mode, a wzrost relatywizmu w pojmowaniu zasad współżycia społeczeństw upoważnia management
do wyłączenia hamulców w rozbudowywaniu oferty rynkowej. Leży to w interesie
wąskiej grupy posiadaczy kluczowych zasobów w skali globalnej, głównie ponadnarodowych korporacji oraz banków. Dlatego należy zastanawiać się nad etyką biznesu, zwłaszcza tego, korporacyjnego.
Przedstawiony na rys. 4.14 model etyczny marketingu348 składa się z czterech
domen stanowiących zbiory aspektów tematycznych:
 budowania systemu marketingu,
 konwencjonalizmu działań,
 intencjonalizmu podejmowania działań,
Gospodarek T., „Marketing systemowy, perspektywa etyczna”, [w] Styś A., Łobos K., „Współczesne problemy zarządzania i marketingu”, Difin, Warszawa 2016, str. 40-52
348
279
 etyki cnoty.
Są one rozłożone na płaszczyźnie określonej przez układ współrzędnych: osi interesu oraz osi funkcjonalności. Model pozwala na wyodrębnienie czterech, skrajnych
postaw etycznych, opierając się na następujących założeniach, że etycznym i moralnym jest jedna z czterech opcji.
Rys. 4.14 Aspekty etyczne marketingu
1. Budowa systemu marketingu odpowiadającego maksymalizacji wypełnienia
interesu producenta i wzrostu funkcjonalności systemowej oddziaływania na
konsumenta, niezależnie od interesu podmiotowego konsumenta, skutków
użycia marketingu systemowego i intencji podjęcia działania.
2. Budowa systemu marketingu odpowiadającego maksymalizacji wypełnienia
interesu producenta i wzrostu funkcjonalności operacyjnej marketingu, niezależnie od interesu konsumenta oraz intencji podjęcia działania, przy zaawansowanej prakseologii i uwzględnieniu skutków działania marketingu.
280
3. Budowa systemu marketingu odpowiadającego maksymalizacji wypełnienia
interesu konsumenta i wzrostu funkcjonalności systemowej oddziaływania na
konsumenta niezależnie od interesu producenta oraz skutków i intencji użycia
marketingu systemowego.
4. Budowa systemu marketingu odpowiadającego maksymalizacji wypełnienia
interesu konsumenta i wzrostu funkcjonalności operacyjnej marketingu, niezależnie od interesu producenta bez uwzględniania aspektów etyki cnoty i
uwzględnieniu skutków działania ale z uwzględnieniem deontologicznych intencji użycia.
Tak należy pojmować jeden z ważnych elementów społecznej odpowiedzialności
biznesu, wykorzystując w relacjach z konsumentem - model etyczny, najbardziej
zbliżony do zrównoważonego. Należy przez to rozumieć, że jest on wynikiem gry
rynkowej o sumie zero (stan równowagi w sensie Pareto). Biznes musi w tym celu
pogodzić wiele sprzeczności interesów producenta i konsumenta, ale przede
wszystkim trzymać się zasady, że poprawienie własnej pozycji, nie może powodować pogorszenia się pozycji pozostałych graczy (konsumentów). Wówczas marketing stanie się pożądanym narzędziem zarządzania, a nie narzędziem globalnego
ogłupienia człowieka.
4.6.7 Zarządzanie marką
Pierwszym problemem, który należy przedstawić w kwestii zarządzania
marką jest definicja marki. Proponuję wziąć pod uwagę cztery ujęcia, definicji, które
najlepiej oddają charakter tej ontologii.
1. American Marketing Association - Markę stanowi: nazwa, wyrażenie, wzór
użytkowy, symbol lub jakakolwiek inna własność, pozwalająca zidentyfikować dane dobro (towar lub usługę) określonego sprzedawcy, odróżniając je
od produktów innych sprzedawców.
2. Prawne określenie marki - Marka określa jedno dobro, grupę dóbr lub
wszystkie dobra danego sprzedawcy. Użyta dla oznaczenia firmy jako całości, staje się znakiem handlowym TM.
3. Philip Kotler - Marka oznacza obietnicę sprzedawcy dostarczenia spójnych
dla nabywcy własności, korzyści i usług, trudnych do uzyskania dla dóbr
typu no name.
4. Ujęcie RBV - Marka jest elementem zasobu klasy VRIN, stanowiącym charakterystykę identyfikującą dobra i organizację firmującą je na rynku.
Każde z powyższych sformułowań oddaje prawidłowo znaczenie marki. Przy tym
ostatnia definicja, w ujęciu zasobowym zawiera epistemologicznie w sobie wszystkie trzy pozostałe. VRIN oznacza bowiem unikatowość, trudność w imitowaniu
oraz w zastąpieniu substytutami. Ale równocześnie wiąże się z tym pewna wartość
marki, czasami bardzo wysoka.
281
Oszacowaniami wartości marek zajmują się organizacje Milward Brown, ogłaszając co roku ranking najcenniejszych 100 marek na świecie349 oraz Interbrand z
raportem „Interbrand Breaksthrough Brands”350. Niezależnie od wymienionych,
rankingami wartości przedsiębiorstw (nie mylić z wartością marki) zajmuje się PriceWaterhouseCoopers (PWC)351 oraz Fortune 500352. W Polsce rankingiem najcenniejszych polskich marek (Top 200) zajmuje się czasopismo „Wprost”353. Warto zauważyć, że wśród 500 najcenniejszych marek globalnych nie ma żadnej polskiej.
Tabela 14 Najcenniejsze polskie marki (za tygodnikiem Wprost)
L.p
Organizacja
1
2
3
4
5
PKO BP
PZU
PKN Orlen
Cyfrowy Polsat
LPP
6
Grupa Mlekovita
7
CCC
8
Grupa Maspex
9
10
Grupa Lotos
Genin Noble Bank
PKO BP
PZU
Orlen, Bliska
Cyfrowy Polsat, Plus, Polsat
Reserved, Cropp, House
Wartość
[mld zł]
3,2 – 5,1
2,8 – 4,4
3,7 – 4,3
3,3 – 4,1
1,3 – 2,2
Mlekovita
1,1 – 1,4
CCC
0,7 – 1,2
Tymbark, Kubuś, Libella
0,9 – 1,1
Lotos
Noble Bank
0,7 – 0,9
0,3 – 0,5
Branża
Bankowość
Ubezpieczenia
Przemysł paliwowy
Media
Handel (odzież)
Przemysł mleczarski
Handel (obuwie)
Przemysł spożywczy
Przemysł paliwowy
Bankowość
Marki
Jeżeli przyjrzymy się rankingowi Milward-Brown, najcenniejszych marek globalnych, to wartości 10 najcenniejszych są o dwa rzędy wyższe, niż PKO BP. Warto
odnotować fakt, że chińskie marki weszły na stałe do światowego rankingu na wysokie pozycje. I tak, China Mobile wszedł na 15 miejsce w rankingu, a serwis Alibaba na 18, a Bank of China ICBC na 27. W branży modowej dominuje Zara na 35
miejscu, a w luksusowych towarach Louis Voiton (LV) na 30 miejscu. Ranking Top
100 zamyka Adobe z wynikiem 10,44 mld USD (10 razy więcej, niż PKO BP). Jak
widać są to liczby raczej jeszcze długo nieosiągalne dla polskich przedsiębiorstw.
Tabela 15 Najcenniejsze marki globalne (na podstawie BrandZ 2016 354)
Milward Brown, „BrandZ. Top 100 Global Brands”, http://www.millwardbrown.com/brandz/top-globalbrands/2016
350
Interbrand, „Breakthrough Brands”, http://interbrand.com/best-brands/interbrand-breakthroughbrands/2016/
351
PWC, “Global Top 100 companies”,
http://www.pwc.com/gx/en/services/audit-assurance/publications/top100-market-capitalisation.html
352
The Fortune 500, http://beta.fortune.com/global500/
353
Adamczyk C., Wprost, Wydarzenia, „Ranking "Wprost": 10. najcenniejszych polskich marek”, 16.06.2015,
https://www.wprost.pl/510524/Ranking-Wprost-10-najcenniejszych-polskich-marek
354
Milward Brown, „BrandZ. Raport Top 100, 2016 http://wppbaz.com/admin/uploads/files/BZ_Global_2016_Report.pdf
349
282
L.p
Organizacja
Branża
1
Google
Technologie ICT
2
Apple
Technologie ICT
3
Microsoft
Technologie ICT
4
AT&T
Usługi ICT,
5
6
7
8
9
10
Facebook
Visa
Amazon
Verizon
McDonalds
IBM
Internet
Bankowość
Handel internetowy
Telecom Provider
Fast Food
Technologie IT
Marki
Google,
IPhone, iPad, Macintosh,
MacOS,
iOS,
watchOS,
iTunes…
Microsoft, Windows, Office,
Visual Studio, Internet Explorer, Skype, Youtube…
Bell, Ameritech, cingular, SBC,
Pacific Bell, Bellsouth,…
Facebook,
Visa, Visa Electron,
Amazon
Verizon
McDonalds, BigMac,
Wartość
[mln USD]
229 198
228 460
121 824
107 387
102 551
100 800
98 988
93 220
88 654
86 206
Czym znamienna jest marka i jak działa
Marka, jako wydzielony byt musi się charakteryzować jakimiś cechami, a dodatkowo musi mieć określony sposób bytowania w środowisku biznesowym. Elementami marki są:
 nazwa (znak słowny) np. Microsoft, Chanel, Cervin,
 logo (wizualizacja graficzna marki) np. liternictwo Coca-cola, krokodyl Lacoste,
 fraza słowna: „Vintage stockings of the fifties”, „BMW radość z jazdy”.
 liternictwo: (np. wstążka Coca cola, napis Polskiego Towarzystwa Informatycznego)
 kolor (np. Owens-Corning kolor różowy izolacji, kolor żółty lidera Tour de
France),
 dźwięk („Let’s get ready to rumble”, wydech Harley Davidson),
 zapach (różowo-jaśminowo-piżmowy perfum Chanel No. 5),
 smak (Kentucky fried chicken - receptura 11 ziół i przypraw),
 ruch: (np. drzwi w Lamborghini).
Zarządzanie powyższymi elementami polega na ochronie patentowej, uwiadamianiu publicznym oraz na zapewnianiu odpowiedniego wizerunku dla produktów
oznaczanych dowolnym elementem marki.
Marka ma swoje cechy użyteczności, umożliwiające wyróżnienie i rozpoznawalność dóbr lub organizacji nią znakowanych na rynku:
 symbolika (reprezentacja relacji produktu, sprzedawcy i jego unikatowości),
 sugestywność (sugeruje zalety oznaczonego produktu i jego jakość): np.
„Twardy”, „SunSail”, „Żubrówka”,
 ergonomiczność (łatwość posługiwania się danym elementem marki, łatwość do
wymówienia, rozpoznania i zapamiętania), np. BMW, CD lub po prostu Dior,
283
 rozpoznawalność, np. Microsoft, Coca Cola, Mercedes;
 skalowalność, (np. marka Amazon rozszerzyła się i rozszerza nadal z księgarni
na inne produkty stając się globalnym pasażem e-handlu);
 pozytyw działania (marka jest pozytywem, który warto posiadać. Nie może
nieść negatywnych skojarzeń w innych językach), np. Nova po hiszpańsku znaczy “nie idzie”.
Oczywistym jest, że każdy, odpowiedzialny za działanie marki musi mieć na
względzie cechy użyteczności, unikać nazw, które w różnych językach mogą mieć
znaczenia obsceniczne, a dodatkowo analizować aspekty psychologizmu działania
elementów marki.
Marka ma również własną architekturę relacji z otoczeniem.
 Może być określona przez wykreowane relacje biznesowe przy użyciu różnych
opcji brandingu (działań na rzecz kreacji marki).
 W danej chwili i miejscu może być konsekwencją przeszłych decyzji zarządczych, jak również realiów biznesowych.
 Zależy od interesariuszy organizacji, sytuacji rynkowej oraz strategii produktowej.
Można określić trzy poziomy architektury marki.
1. Marka korporacyjna, (tzw, marka parasol i marka rodzina - Przykłady obejmują:
Virgin Group i Heinz. Są one ukierunkowane na konsumentów i używane we
wszystkich rodzajach działalności firmy. Nazwa marki jest znane wszystkim interesariuszom - konsumentom, pracownikom, akcjonariuszom, partnerom, dostawcom, etc. Marki te mogą być również stosowane w połączeniu z opisami
produktów lub podsektorów marek: np. Heinz Zupa pomidorowa, czy Virgin
Trains.
2. Marki „lokomotywy” i powiązane z nimi submarki, np. Nestle KitKat, Sony
PlayStation. Marki te obejmują markę nadrzędną - która może być typem parasolowym lub rodzinnym, stosowanym, jako uwiarygodnienie dla danej podmarki lub fizycznego dobra.
3. Marka indywidualna – np. Procter & Gamble Pampers lub Dove Unilever. Poszczególne marki prezentowane są konsumentom, a nazwa spółki dominującej
ma niewielkie znaczenie lub nie ma żadnego z punktu widzenia konsumenta
(coś należy do koncernu Nestle i nikt na to uwagi nie zwraca). Ale inaczej będzie
to wyglądać od strony interesariuszy typu: akcjonariusz lub partner spółki. Dla
nich istotna jest marka producenta powstała z nazwy firmy.
284
Rys. 4.15 Zasada działania marki 355
Na rys. 4.15 przedstawiono zasadę działania marki. Centralnym obiektem relacji
biznesowych marki z otoczeniem są dobra oznaczone marką. Posiadają one pewne
właściwości rzeczywiste (koń jaki jest, każdy widzi), właściwości rzekome (cechy
przypisywane danej marce prawdziwe lub niekoniecznie) oraz własności oczekiwane ze strony nabywcy (nie zawsze uzasadnione stanem rzeczywistym rzeczy).
355
Wikipedia „Brand”, http://en.wikipedia.org/wiki/Brand ]
285
Przy tym właściwości rzekome są domeną właścicieli marki i działań marketingowych, a oczekiwane przynależą grupie docelowych interesariuszy (nabywców
marki). Z drugiej strony przedmioty marki pozostają w relacji ze znakami towarowymi, które są związane z nazwą marki (albo relacyjnie albo bezpośrednio) w sposób, który zależy od architektury danej marki.
Wizerunek marki
Jednym z fundamentalnych celów marketingu i zarządzania marką jest kreacja
pozytywnego wizerunku danej marki. Wizerunek społeczny marki jako szlachetnej
jest fundamentem sukcesu rynkowego. Jeżeli przyjrzeć się najbardziej pożądanym
wizerunkom publicznym marki to można wymienić trzy: unikatowość, ekskluzywność oraz wysoka jakość dóbr znakowanych daną marką. Taktyka strategii budowania wizerunku wysokiej pozycji społecznej polega m. innymi na limitowanym
dostępie do produktów i wiązaniu klienta z marką. Jest to zazwyczaj czynione
przez:
 ekskluzywne kanały dystrybucji,
 pokazywanie unikatowych zalet dóbr w mediach,
 budowanie rynku wokół ludzi o wysokim statusie społecznym,
 oferowanie znaczącej wartości dodanej do produktu.
Rys. 4.16 Tożsamość marki, a jej wizerunek
Z wizerunkiem marki powiązana jest jej tożsamość, pozwalająca na wyróżnienie się na rynku i rozpoznawalność. Budowanie tożsamości marki pokazano na rys.
286
4.16. Wizerunek marki reprezentuje w znacznym stopniu jej misję rynkową. Wiąże
się on ze sposobem jej postrzegania przez nabywcę. Może to być postrzeganie świadome, oparte na wiedzy i heurystyce lub emocjonalne, poprzez wrażenia, wyobrażenia i przekonania. Wizerunek marki jest uzależniony od sposobu dekodowania
symboli oraz elementów marki oraz odnoszących się do niej przekazów. Jest ściśle
powiązany z tożsamością marki, stanowiąc antycypację tożsamości marki w przyszłych okresach. Bardzo często znaczenie marki jest przeszacowane w stosunku do
użyteczności produktów nią znaczonych, co wynika z behawioralnych zachowań
konsumentów, socjotechnicznych zabiegów marketingu i ograniczonej racjonalności decyzji ludzkich.
Kreowanie marki i zarządzanie operacyjne
Zarządzanie marką ma swój poziom operacyjny, taktyczny i strategiczny, stanowiąc dobry przykład koncepcji ogólnego podziału zarządzania, wprowadzonego
w rozdziale 3.2. Układ warstw logicznych zarządzania marką został przedstawiony
na rys. 4.17. Stanowi on istotny element optymalizacyjny zarządzania marketingiem i działaniami funkcjonowania kanałów dystrybucji.
Proces kreowania marki zaczyna się od stworzenia koncepcji marki. Składa się
na niego:
 Określenie tożsamości
 Co będzie podmiotem marki?
 Jaki będzie typ marki (parasolowa, szczegółowa…)?
 Czym znamienna będzie marka?
 Jak będzie się wyróżniać w otoczeniu?
 Jaki będzie logotyp?
 Kto będzie właścicielem marki?
 Wniosek do Urzędu Patentowego
 zastrzeżenia w grupach EKD/EKU,
 zastrzeżenie logotypu (słowne, graficzne…),
 zakres oddziaływania ochrony.
Kolejny aspektem staje się powstanie logotypu marki, żeby można było go zastrzec
prawnie w urzędach patentowych jako znak towarowy. Składa się na to:
 opracowanie słowne znaku towarowego,
 opracowanie graficzne znaku,
 inne aspekty logotypu (wymienione wcześniej w elementach marki),
 wniosek zastrzeżenia znaku towarowego do Urzędu Patentowego,
 domena internetowa (lub zbiór domen komplementarnych, w szczególności:
nazwa.com; nazwa.pl; nazwa.com.pl; nazwa.eu ),
 strona www.
 reprezentacja znaku na Facebook, Twitter, i innych mediach społecznościowych.
287
Marka, jako cenny zasób musi być z jednej strony chroniona, a z drugiej strony
uwiadomiona publicznie, żeby potencjalny klient mógł się z nią identyfikować. Jest
to sytuacja relacji dwóch sprzeczności, prowadząca w rezultacie do ustalenia optymalnej oferty informacyjnej i ochrony jak największej części wiedzy dotyczącej procesów biznesowych.
Rys. 4.17 Schemat warstw logicznych zarządzania marką
288
Poniżej przedstawiono zespół działań umożliwiających pobieranie korzyści z
posiadania marki jako zasobu VRIN w dłuższym horyzoncie czasowym.
1. Działania ochronne w otoczeniu (ochrona pasywna)
 ochrona prawna znaku (postępowania prawne przy nieuprawnionym użyciem),
 monitoring rynku (śledzenie substytutów i podróbek ukazujących się na
rynku),
 zastrzeżenia patentowe i podobne (w szczególności domen w Internecie),
 walka z podróbkami (zawiadomienia organów ścigania o zdarzeniach).
2. Działania wewnątrzorganizacyjne (wsparcie procesowe)
 ograniczenia informacyjne (bezpieczeństwo biznesowe i tajemnica handlowa),
 budowanie wiedzy o sektorze i pozycji marki na rynku (rzecznik prasowy),
 standaryzacja jakościowa produktów (pozyskiwanie certyfikacji dla wyróbów),
 ograniczenia możliwości dostępu do produktów (blokowanie kanałów masowej dystrybucji w dostępie do wyrobów marki).
3. Działania rynkowe (ochrona aktywna)
 aktywna promocja marki i jej wizerunku (sponsoring, reklama, wydarzenia),
 zaangażowanie konsumentów w procesy kreowania produktów (wykorzystanie sprzężenia zwrotnego, kastomizacja produktów i usług),
 tworzenie społeczności skupionej wokół marki (fanpage, facebook, działania lojalnościowe, bonusy),
 inteligentna wirtualizacja marki (wykorzystanie nowoczesnych kanałów
brandingu, np. channel connect).
Ujawnienie i uwiadomienie marki jest działaniem koniecznym. Składają się na to
następujące aspekty:
1. Synchronizacja w czasie
 informacja i dostępność dóbr danej marki (klient nie może czekać na reklamowany produkt, albo musi poczekać, tak jak w przypadku IPhone. Zależy
to od strategii marketingowej w sprzedaży);
 zastrzeżenia prawne i ujawnienie marki (musi zostać zsynchronizowane w
czasie z udostępnieniem produktów, bo inaczej ktoś inny może produkt
opatentować jako swój).
2. Procesy propagacji informacji bezpłatnej
 roboty wyszukiwarek (wykorzystanie reklamy w internecie w formie pozycjonowania strony www oraz promocj płatnej na innych stronach),
 serwisy społecznościowe (Facebook, Twitter…),
 obrazy i filmy intrnetowe (YouTube, DeviantArt…),
 przekazy grupowe (reklama do określonej grupy użytkowników).
289
3. Uwiadomienia sformalizowane i płatne
 imprezy promocyjne (przykład „Zjazd na byle czym” realizowany przez
firmę Red Bull, pikniki i imprezy rodzinne Coca Coli, itp.),
 lokalizacja i sponsoring (wykorzystanie produktów w filmach i na imprezach różnego typu, sponsorowanie zawodników i drużyn),
 ogłoszenia i uwiadomienia płatne (wykorzystanie wszelkich mediów, dających zadowalający response w reklamie),
 informacje przekazane do rozpowszechniania (przygotowane przez marketing treści, prezentujące zalety marki i związanych z nią produktów i
usług),
 ogłoszenia formalne (Urząd Patentowy, Domeny…).
Powyższe aspekty pozwalają wykreować markę i stanowią ważną część zagadnień zarządzania marką na poziomie operacyjnym i taktycznym. Schemat zarządzania marką zaprezentowano na
Aspekty strategiczne marki
Tworząc strategię marki musimy przede wszystkim ustalić misję i wizję marki,
a ponadto ustalić cele jej funkcjonowania na rynku. Tak jak w przypadku budowania strategii, misję danej marki określają odpowiedzi na następujące pytania:
1. Czym jest nasza marka tu i teraz?
2. Jak jest postrzegana na rynku (reputacja)?
3. Jakie wartości wnosi dziś?
Natomiast jej wizję określają odpowiedzi na następujące kwestie:
1. Do czego dąży marka w przyszłości?
2. Jak ma być postrzegana w otoczeniu (wizerunek)?
3. Jakie wartości będzie wnosić w przyszłości?
Pozostałe aspekty zarządzania strategicznego marką wiążą się ze strategiami firmy
(strategia marketingu, strategia zarządzania informacją i wiedzą, w końcu ze strategią rozwoju). Cele strategiczne dla marki można podzielić na trzy kategorie:
1. Oczekiwany efekt ekonomiczny
 wartość marki,
 ograniczenie kosztów zmiennych utrzymania marki,
 franchising i licencjonowanie marki,
 kreacja marek pochodnych.
2. Oczekiwany efekt rynkowy
 wyższy poziom kastomizacji produktów marki,
 wyższa pozycja rynkowa marki,
 znaczna społeczność skupiona wokół marki,
 wysoki poziom lojalności klienta wobec marki,
 pozytywna identyfikacja klienta z produktami marki.
3. Oczekiwany efekt medialny
290





wysoka pozycja marki w Internecie,
rozpoznawalność rynkowa produktów marki,
ograniczenie kosztów istnienia w mediach,
wysoka pozycja w rankingach.
reputacja marki.
5 Imperatywów zarządzania marką
1.
2.
3.
4.
Rozdział o zarządzaniu marką można streścić do pięciu imperatywów:
Imperatyw uwiadomienia marki
 Marka bez uwiadomienia nie funkcjonuje.
 Marka bez klienta zanika.
 Marka bez feed back ulega degeneracji.
 Marka bez brandingu nie rozwinie się.
 Marka bez channel connect może zostać wyparta z rynku.
Imperatyw ochrony marki
 Marka bez zastrzeżeń prawnych nie funkcjonuje na rynku.
 Marka bez ograniczeń dostępu do wiedzy wrażliwej (tajemnica wytwarzania, wiedza ukryta, kluczowe kompetencje) nie będzie zasobem unikatowym.
 Brak bezpieczeństwa informacyjnego u gestora marki naraża zachowanie
unikatowości przez zasób klasy VRIN.
 Brak systemów obronnych przeciwko łamiącym prawo własności intelektualnej degeneruje markę.
Imperatyw relacyjności marki
 Marka bez sprzężenia zwrotnego z jej odbiorcą zaniknie.
 Brak uczestnictwa klienta w wytwarzaniu markowej wartości jest dzisiaj
niemożliwe.
 Marka bez relacji z mediami funkcjonować nie będzie.
 Brak relacji ekonomicznych, psychologicznych i społecznych w kreowaniu
marki wiedzie na manowce.
 O wartości marki decydują jej interesariusze.
Imperatyw reputacji marki
 Marka bez reputacji jest martwa.
 Jeśli raz marka utraciła reputację, wówczas nawet 10-krotne zwiększenie
wysiłków na jej odbudowę może nie wystarczyć.
 Utraty reputacji prędko się nie zapomina.
 Jedna medialnie nagłośniona wpadka marki może zniszczyć całą, misterną
strategię budowy jej wizerunku.
 Wartości marki i jej reputacja są nierozłączne.
 Reputacji marki należy bronić, jak niepodległości, o ile ma ona świecić jasnym blaskiem.
291
5. Imperatyw optymalizacji marki
 Marka musi spełniać kryteria optymalności ekonomicznej.
 Marka musi pozostawać w optymalnych relacjach ze swoimi interesariuszami.
 Marka musi być optymalnym wyborem rynkowym.
 Marka musi dążyć do optymalizacji preferencji i użyteczności.
 Marka nieoptymalnie zarządzana prędzej, czy później zaniknie.
4.7 Aspekty zarządzania finansami
Zarządzanie finansami stanowi jedno z najważniejszych działań operacyjnych
każdej organizacji, związanymi z podejmowaniem decyzji finansowych. Najważniejszymi aspektami zarządzania finansami są:
 zarządzanie płynnością finansową,
 zarządzanie kosztami i rachunek kosztów,
 rachunkowość ex post i ex ante,
 sprawozdawczość finansowa,
 planowanie położenia finansowego,
 hedging (zabezpieczenie przed ryzykiem finansowym).
Finanse każdej organizacji muszą pozostawać pod kontrolą ponieważ stanowią reprezentację formalną jej wyniku ekonomicznego w dowolnej chwili. Umożliwiają
ustalenie maksymalnego poziomu wymiany dóbr z otoczeniem oraz maksymalną
wartość zasobów do dyspozycji. Stanowią najważniejszy obszar optymalizacji ekonomicznej organizacji. Stąd wynika tak ważna rola zarządzania finansami w działalności gospodarczej.
Głównym celem prowadzenia działalności gospodarczej jest generowanie zysku, czyli nadwyżki finansowej przychodów nad kosztami ich uzyskania. Zysk stanowi dodatnią wartość różnicy przychodów i kosztów. Jeżeli ta różnica jest ujemna,
to mówimy o stracie. Stąd do kwestii zarządzania finansami będzie należeć oszacowanie wartościowe zarówno przychodów, jak i kosztów. W tym celu posługujemy
się metodami i narzędziami z zakresu rachunkowości. Ale gdy ktoś zada pytanie,
czy firma dysponuje zasobami pieniężnymi w określonym momencie, wówczas ani
bilans, ani rachunek wyników nie dają poprawnej odpowiedzi. Konieczne jest ustalenie przepływów pieniężnych na dany moment. To samo dotyczy wartości aktualnej inwestycji, którą oblicza się metodą NPV albo wewnętrznej stopy zwrotu liczonej metodą IRR. Są to typowe analizy finansowe i należą do kwestii zarządzania
płynnością oraz sprawozdawczości finansowej. Oczywiście rachunkowość posługuje się tymi narzędziami i pokrywa się to w znacznej części zakresu wiedzy z zarządzaniem finansami, ale obie dziedziny posiadają wiele rozłącznych zagadnień,
standardów oraz metod ustalania położenia ekonomicznego.
292
4.7.1 Analiza finansowa projektu biznesowego
Analiza finansowa projektów inwestycyjnych lub biznesowych ma na celu danie odpowiedzi na zasadnicze zapytanie: czy to się opłaca? Może się okazać, że zysk
z zainwestowanego kapitału i zasobów będzie mały, a nawet może przynieść straty.
Dlatego zarówno koszty, jak i potencjalne zyski dotyczące projektu biznesowego
należy dobrze przeliczyć. Punktem wyjścia analiz finansowych jest wykonanie analizy marketingowej, rynku, ryzyka oraz zasobów dla planowanego przedsięwzięcia. Konieczne jest poznanie ceny sprzedaży dóbr wynikającej z analiz marketingowych i proponowanej strategii kształtowania cen. Należy obliczyć koszty związane
z prowadzeniem własnej działalności gospodarczej oraz wytworzenia analizowanego produktu. Nie można przy tym popełnić błędu polegającego na :
 niewykorzystywaniu wszystkich istotnych analiz lub oparcie się na jednym wyniku, np. rachunku wyników, pomijając przy tym bilans oraz przepływy;
 nadto optymistycznym oszacowaniu wpływów wynikających z realizacji projektu (przeszacowanie sprzedaży);
 zaniżeniu kosztów realizacji projektu w celu uzyskania kredytu lub dotacji;
 nieuwzględnieniu wpływu ryzyka finansowego (analiza wrażliwości).
Przychody, koszty i zyski
Podstawową informacją finansową związaną z jakimkolwiek przedsięwzięciem biznesowym, czy to projektem, czy też działalności organizacji jest kwestia
zyskowności. Zysk jest tym, co warunkuje podjęcie wysiłków i ryzyka. Dzieli się na
zysk operacyjny (zysk z działalności), zysk brutto oraz zysk netto. Ujemny zysk
operacyjny nazywany jest stratą.
Zysk operacyjny = Przychody – Koszty uzyskania przychodu
Zysk brutto = Zysk operacyjny + Przychody nadzwyczajne – straty nadzwyczajne
Zysk netto = Zysk brutto – Podatek dochodowy – Inne podatki i opłaty
Zysk netto jest tą częścią zysku brutto, która pozwala nam rozwijać naszą działalność oraz zaspokajać potrzeby własne. Zanim jednak osiągniemy zyski musimy ponieść koszty, albowiem nie są znane przypadki osiągnięcia przychodu bez poniesienia choćby minimalnych kosztów. Oprócz zysku, dla oceny wyniku finansowego
przedsięwzięć gospodarczych stosuje się wskaźnik EBITDA356, który stanowi jeden
z najbardziej rozpoznawalnych miar rentowności i wraz z pochodnymi wskaźnikami EBITA, EBIT oraz ROI/ROE są fundamentem informacji wynikającej z analizy
finansowej dla celów kontrolingu w organizacjach (str. 352).
Koszty dzielimy na: stałe, zmienne oraz quasizmienne.
EBITDA Earnings Before Interest, Taxes, Depreciation and Amortization – zysk operacyjny przedsiębiorstwa
bez potrącenia odsetek od zaciągniętych zobowiązań oprocentowanych (kredytów, obligacji, akcji), podatku dochodowego oraz innych obowiązkowych obniżek zysku (opłaty lokalne, podatki od obrotu), bez uwzględnienia
amortyzacji majątku trwałego.
356
293
 Koszty stałe – ponoszone są bez względu na wielkość produkcji, np. czynsz, wynagrodzenie ryczałtowe, amortyzacja, ubezpieczenie, odsetki od kredytu.
 Koszty zmienne –zmieniają się wraz ze zmianami ilości produkcji, np. koszt surowców, koszt usług zewnętrznych doliczanych do sztuki, koszty energii, itp.
 Koszty quasizmienne - są częściowo stałe (ułamek dodajemy do kosztów stałych)
a częściowo zmienne (pozostałą część dodajemy do kosztów zmiennych). Może
to być wynagrodzenie w systemie akordowym godzinowym (częściowo przypisywane do sztuki wytworzonej).
W analizach finansowych koszty są grupowane w zależności od rodzaju lub miejsca
powstawania i sumowane zarówno według grup, jak i globalnie. Koszty analizowane są również w okresach czasowych, co pozwala na porównania oraz tworzenie
planów wydatków i harmonogramów kosztowo-zadaniowych i czasowych. Ewidencją poniesionych kosztów zajmuje się rachunkowość finansowa, przy czym
zgodnie z rozlicznymi przepisami, nie wszystkie wydatki można zaliczać do kosztów uzyskania przychodów.
Próg rentowności
Ilościowy próg rentowności PRI (BEP357) wskazuje ile sztuk produktu o numerze „m” należy sprzedać po cenie Cm przy obliczonym koszcie zmiennym na jednostkę produktu Kjzm, aby pokryć koszty stałe Kst. Ilustruje to rys. 4.18.
(4.1)
PRI 
K st
Cm  K jzm
Rys. 4.18 Ilustracja progu rentowności
Przy sprzedaży na poziomie progu rentowności firma ani nie ponosi straty ani nie
osiąga zysku (przychody równoważą całkowite koszty). Stąd wynik finansowy w
357
Angielska nazwa BEP (Break Even Point).
294
PRI jest równy 0, a przepływy pieniężne są równe amortyzacji. Wynika to z faktu,
że jest ona kosztem niepieniężnym i nie ma wpływu na Cash-flow.
Obok ilościowego progu rentowności PRI, w analizie finansowej funkcjonują
jeszcze wartościowy próg rentowności PRW, który wskazuje jaka wartość sprzedaży pokryje jej koszty stałe oraz procentowy próg rentowności PR%, wskazujący
jaka część maksymalnej zdolności produkcyjnej musi zostać zaangażowana w celu
pokrycia kosztów stałych.
(4.2)
PRW  PRI  Cm
PRW jest iloczynem ilościowego progu rentowności PRI oraz ceny jednostkowej Cm produktu o numerze „m”.
(4.3)
PR % 
PRI
 100%
Pmax
PR% jest ułamkiem produkcji maksymalnej Pmax w punkcie progu rentowności
PRI. Analiza progu rentowności pokazuje prostą zależność, kiedy dane przedsięwzięcie biznesowe może przynieść zysk. Należy zauważyć, że zamieniając dochodowość produktu [C(m) – Kzm(m)] na marżę, wyrażenia dla PR stają się prawdziwe
również dla usług i handlu.
Punkt opłacalności oraz wskaźnik bezpieczeństwa
Punkt opłacalności wiąże się z możliwością zaspokojenia bieżących potrzeb organizacji, potrzeb właściciela (np. akcjonariuszy lub przedsiębiorcy) oraz kosztów
zobowiązań związanych z usługami zewnętrznymi (np. spłaty kredytu, należności
outsourcingowe). Jest to wielkość zysku netto, który należy wypracować, aby osiągnąć opłacalność działalności. Tym samym punkt opłacalności PO oznacza ile jednostek produktu oznaczonego jako „m” należy sprzedać, aby pokryć koszty stałe
Kst i osiągnąć zakładaną wartość zysku Z, przy cenie sprzedaży Cm.
(4.4)
PO 
K st  Z
Cm  K jzm
Jeżeli w miejsce PO wstawimy maksymalną produkcję Pmax, wówczas wzór powyższy pozwala na obliczenie maksymalnego zysku brutto, jaki można uzyskać.
Z max  Pmax  (Cm  K jzm )  Kst
(4.5)
Zależność 4.5 pozwala zatem na odpowiedź, czy projektowany biznes ma sens lub
czy to o taki, a nie inny efekt ekonomiczny chodzi w zadanym projekcie.
Z punktem opłacalności wiąże się jeszcze jeden ważny wskaźnik ekonomiczny
dla projektu biznesowego. Jest to wskaźnik bezpieczeństwa. Daje on odpowiedź
na pytanie, co się stanie, gdy popyt spadnie o określoną wartość. Miernikiem jest w
tym przypadku „wskaźnik bezpieczeństwa”. Wb zależy od progu rentowności ilościowej PRI i produkcji maksymalnej Pmax i dany jest wzorem:
295
(4.6)
Wb  1 
PRI
Pmax
Jeżeli Wb < 0 to biznes przyniesie stratę; gdy Wb przyjmuje wartości z przedziału
[0, PRI] pokryte zostaną koszty stałe, przy Wb = 0,5 zysk będzie zerowy, natomiast
gdy Wb będzie mieć wartość z przedziału [0,5; 1], wówczas możemy liczyć na zyski.
Graniczny poziom ceny i jednostkowych kosztów zmiennych
Graniczny poziom ceny jednostkowej Cgr sprzedaży oznacza taki jej poziom,
przy którym sprzedając zakładaną ilość produktów x, przy jednostkowym koszcie
zmiennym Kjzm nie osiągniemy żadnego zysku.
(4.7)
Cgr  K jzm 
K st
x
Podobnie do granicznego poziomu ceny sprzedaży, można wyznaczyć graniczny poziom jednostkowych kosztów zmiennych. Jest to taki poziom kosztów
zmiennych na jednostkę produktu, przy których sprzedając zakładaną ilość x produktu po cenie Cj nie osiągniemy zysków. Stąd dalej można wyznaczyć margines
bezpieczeństwa kosztowego.
(4.8)
gr
K jzm
 Cj 
K st
x
Podobnie jak w przypadku wskaźnika bezpieczeństwa cenowego można ustalić margines bezpieczeństwa ze względu na koszty zmienne jednostkowe MBjkz. Stanowi on ułamek procentowy granicznego poziomu jednostkowych kosztów zmiennych w stosunku do jednostkowego kosztu zmiennego. Im ten wynik jest wyższy,
tym lepiej.
(4.9)
gr
 K jzm


MB jkz  
 1  100%
 K jzm

Analiza granicznych cen i kosztów zmiennych, marginesów bezpieczeństwa w
kontekście ustaleń rentowności i opłacalności, pozwalają na wsparcie decyzji co robić w biznesie i czy to się będzie opłacało.
4.7.2 Oszacowania zmian wartości pieniądza w czasie
W biznesplanach i studium wykonalności jedną z podstawowych kwestii jest
oszacowanie wartości inwestycji lub kosztu pieniądza po pewnym czasie, mając na
uwadze aktualne dane. Jest to prognozowanie wartości w przyszłości. Powszechnie
wiadomym jest, że lepiej otrzymać pieniądze teraz niż w przyszłości. Wynika to
przede wszystkim z działania: inflacji, ryzyka inwestycyjnego, preferencji konsumpcji oraz szkodliwego działania instytucji spekulacyjnych instytucji finansowych (fundusze hedgingowe, spekulacje na instrumentach pochodnych). Inflacja
296
5% oznacza, że posiadane dzisiaj 100 zł po roku ma wartość siły nabywczej już 95
zł, a po pięciu latach już tylko 77,38 zł Najlepiej obrazuje to przykład spadku wartości dolara od 1913 roku, kiedy miał on 100% pokrycie w złocie i dzisiaj, kiedy od
1971roku jest walutą w pełni fiducjarną (wierzymy na słowo, że papier zadrukowany jest tyle wart, ile podają) i można za niego nabyć niecałe dwa centy tego z
roku 1913. Inflacja 50-krotna (rozdział 1.4.1). Wynika to właśnie z faktu dodruku
pustego pieniądza w miarę potrzeb władzy. Dzisiaj co miesiąc dodrukowywane jest
60 mld Euro pustego pieniądza przez Europejski Bank Centralny, co prędzej czy
później musi zakończyć się spektakularnym kryzysem.
Tak samo możemy spojrzeć na obietnice rządowe w sprawach emerytury, czy
też obligacji. Dzisiaj są one warte x, ale po kilkunastu latach nominalnie mogą być
warte więcej. Z pewnością ealnie stanowią jedynie ułamek pierwotnej wartości. Na
tym opierają się ubezpieczenia na życie lub polisolokaty. Zawsze ten, który korzysta z zapewnień agentów ubezpieczeniowych lub bankowych omamów zostanie
wystrychnięty na przysłowiowego dudka. Bank służy zarabianiu pieniędzy kosztem depozytariuszy lub społeczeństwa, któremu oferuje pusty pieniądz (kredyty),
a od którego odbiera ten realny pieniądz w ratach, dodatkowo z marżą i odsetkami,
często zbójnickimi. Inflacja jest konieczna, bo gdy jest deflacja, to system bankowy
cierpi, a konsumpcja hamuje, przez co rząd nie może uzbierać wystarczająco dużo
na cudze potrzeby, a ponadto PKB spada. To wprost oznacza, że ktoś musi zawsze
tracić na zmianie wartości pieniądza i nie jest to bynajmniej bank. I to jest ta cała
mistyka finansów. Warto zatem analizować, czy opłaca się brać kredyty czy szukać
alternatywnych sposobów finansowania biznesu.
Wartość przyszła pieniądza
Inwestując pieniądze, spodziewamy się uzyskania renty od wyłożonego kapitału. Jest to premia za poniesione ryzyko. Na rentę składają się wolna od ryzyka
część odsetek, renta kompensująca inflację w czasie, premia za ryzyko nieotrzymania płatności od kontrahenta, premia za szybszą spłatę, premia za wrażliwość na
zmiany instrumentów finansowych w czasie. Stąd wynika, że wartość depozytu
pieniężnego zmienia się w czasie. Otrzymanie dzisiaj 100 zł nie jest tym samym, co
otrzymanie niby tych samych 100 zł za rok.
Wartość przyszłą depozytów określają dywidendy od zainwestowanego kapitału. Jest to procent składany, dla obliczenia którego stosujemy zależność (kapitalizacja roczna):
Vn  V0  (1  r )n
(4.10)
Gdzie Vn oznacza wartość depozytu po n-latach; V0 początkową wartość; n jest
liczbą lat, a r stopą procentową. Kapitalizację można przeprowadzać w przedziałach krótszych niż rok, wówczas wzór (4.10) należy zmodyfikować.
297
Można zadać pytanie: Jeżeli inflacja jest równa stopie procentowej, to czy wówczas
wartość depozytu po n latach jest równoważna jego wartości początkowej? Odpowiedź na
to pytanie wymaga obliczenia odwrotnej zależności – ile tracimy rocznie od początkowej wartości V przy inflacji o stopie R (stopa dyskonta).
(4.11)
PVn 
FVn
(1  R ) n
Tutaj PVn stanowi wartość bieżącą przyszłego dochodu FVn w n-tym roku, przy
stopie dyskonta (lub odsetek od kapitału) na poziomie R. Jeżeli stopa dyskonta nie
zmieni się, to będziemy mieć wynik neutralny. Poza tym wynik zależy od sposobu
kapitalizacji, która może być miesięczna lub kwartalna, a nie roczna.
Przykład 4.1 Deprecjacja renty kapitałowej
Jako przykład zmian wartości pieniądza można przedstawić wartość aktualną (dzisiejszą) stałej renty kapitałowej 1000 zł po 10 latach, jeżeli stopa dyskonta wyniesie 3% (zakładamy stałość stopy procentowej w całym okresie). Korzystając ze wzoru (4.11) obliczamy,
że będzie to kwota 744 zł (wg dzisiejszej siły nabywczej), pomimo że za 10 lat zostanie również wypłacone 1000 zł. Te 256 zł siły nabywczej „wyparuje” w ciągu lat na działanie państwa i systemów finansowych.
Przy obliczeniach rzeczywistych wartości wycenianych w pieniądzu, gdzieś w
przyszłości, musimy posługiwać się dyskontowaniem (wzór (4.11). Jest to proces
ustalania przepływów pieniężnych wstecz. Zakładamy przy tym stopy procentowe
dyskonta na zasadzie prognozy. Są one związane ze stopami procentowymi kredytów bankowych w poszczególnych okresach, a prognoza obarczona jest ryzykiem
finansowym braku trafności ustalenia stopy dyskonta, która wcale nie musi być
stała, ale zmieniać się w zależności od sytuacji na rynkach. Warto przypomnieć sobie rok 2008 i początek kryzysu finansowego, kiedy to dla ratowania banków wyemitowano potężne ilości pustego pieniądza, a stopy procentowe zmalały do zera.
Konieczne jest też analizowanie kalendarza ekonomicznego, przedstawionego na
rys. 1.11.
Rentowność i efektywność inwestycji
Niezależnie od struktury majątku ani czynników nadzwyczajnych związanych
z jego funkcjonowaniem, efektywność działania organizacji mierzona jest za pomocą wskaźnika rentowności ROI (Return of Investment). Jest on miarą bezwzględnej opłacalności, rozumianej jako stopa zwrotu z nakładów inwestycyjnych poniesionych na realizację danego przedsięwzięcia (niezależnie od źródła finansowania).
Zakłada ona, że nadwyżka korzyści netto z inwestycji jest mierzona zyskiem (niekoniecznie wyrażonym w gotówce) oraz wartość pieniądza w czasie jest stała.
Można w ten sposób mierzyć efektywność projektów IT, marketingowych, szkoleniowych. ROI wyliczamy z zależności:
(4.12) ROI = [(Zysk operacyjny netto)/(całkowite nakłady inw estycyjne)]∙100%
298
Inwestycja jest opłacalna jeżeli ROI > Kryterium graniczne. Za kryterium można
uznać średnie ROI w branży lub średni ważony koszt kapitału (WACC358). Najprostszym wariantem prognozowania wskaźnika ROI, a jednocześnie bardzo użytecznym wskaźnikiem rentowności inwestycji, przy założeniu liniowości jej amortyzacji jest średnia stopa zwrotu (ROIAV)
(4.13) ROI AV = ½[(suma przyszłych zysków netto)/(wartość początkowa inwestycji)
Jak widać, metoda średniej stopy zwrotu jest nadzwyczaj prosta, ale nie
uwzględnia zmiany wartości pieniądza w czasie, bazuje na zyskach księgowych, a
nie na przepływach pieniężnych pomijając wartość amortyzacji oraz wartość rezydualną inwestycji, a dodatkowo zakłada milcząco liniowość rozkładu zysków w
czasie. Tym niemniej dla wstępnej oceny projektu biznesowego można ją z powodzeniem stosować.
Piramida Du Ponta
Najpopularniejszym z finansowego punktu widzenia układem wskaźników
oceny efektywności inwestycji lub działalności biznesowej jest piramida Du
Ponta359, opracowana w 1919 r. Jest to kaskadowy układ relacji finansowych prowadzących do wyznaczenia wskaźnika zwrotu z kapitału własnego (ROE). Źródłem
danych do wyliczenia poszczególnych elementów analitycznych piramidy DuPonta są dane księgowe pobierane z rachunkowości.
Zasadniczym celem jest określenia wzajemnego oddziaływania (współzależności przyczynowo-skutkowych), pomiędzy elementami kaskady wskaźników, składającymi się na ROE (rys. 4.19). Pozwala to na identyfikację kluczowych obszarów
działalności przedsiębiorstwa, które wpływają na uzyskiwaną przez organizację
rentowność kapitału własnego oraz możliwych skutków ich zmienności w czasie
(rozdział 4.9.2). Analizę metodą DuPonta można przeprowadzać zarówno wstecz
(retrospektywnie), jak i prognostycznie. Jest to bardzo wygodne narzędzie dla porównań w czasię stanu organizacji, a jednocześnie objaśnia, z czego wynika zysk w
działalności organizacji.
Ponieważ wynikiem analizy są liczby, piramida DuPonta dostarcza epistemicznego kryterium porównawczego inwestycji i projektów biznesowych. Układ ten jest
różnie przedstawiany, np. można się posługiwać EBITDA zamiast zyskiem netto,
ale z praktycznego punktu widzenia, operowanie kwotami netto są bardziej użyteczne dla wsparcia decyzyjnego.
WACC (Weighted Average Cost of Capital), „Średni ważony koszt kapitału”, https://pl.wikipedia.org/wiki/%C5%9Aredni_wa%C5%BCony_koszt_kapita%C5%82u
359
Gołębiowski G., i in., „Analizy…”, op. cit.
358
299
Rys. 4.19 Piramida DuPonta
4.7.3 Wybrane aspekty rachunkowości
Każdy, kto zarządza organizacją większą niż stragan, powinien zdawać sobie
sprawę z konieczności zapisania formalnego zdarzeń gospodarczych, zachodzących w jego biznesie w formie pieniężnej. To działanie nazywane jest ewidencją gospodarczą. Rachunkowość spełnia szereg funkcji: informacyjną, rodowodową, rozliczeniową, kontrolną, sprawozdawczą i powierniczą360.
Rachunkowość finansowa ma za zadanie z jednej strony określić wartość majątku organizacji (aktywa), a z drugiej sposób jego finansowania (pasywa), przy
czym wartości te muszą być sobie równe (bilans). Ponadto do zadań rachunkowości
należy sporządzanie sprawozdań finansowych w formie nadającej się dla porównań w czasie i pomiędzy różnymi podmiotami. Standardem międzynarodowym,
określającym zasady rachunkowości jest GAAP361. W Unii Europejskiej wprowadzono uregulowania: MSR (międzynarodowe standardy rachunkowości) oraz
Kiziukiewicz T., „Rachunkowość nie tylko dla księgowych”, PWE, Warszawa 2007, s. 13
Financial Accounting Foundation, “About GAAP”, http://www.accountingfoundation.org/jsp/Foundation/Page/FAFBridgePage&cid=1176164538898
360
361
300
MSSF (międzynarodowe standardy sprawozdań finansowych)362. W Polsce kwestie
ewidencji rachunkowości finansowej reguluje ustawa o rachunkowości363.
Menedżerowie, akcjonariusze, urzędy potrzebują rzetelnej informacji na temat
położenia ekonomicznego organizacji oraz dowodów na prowadzenie zgodnie z
prawem interesów. Dlatego rachunkowość powinna stanowić przedmiot szczególnej atencji zarządzania, a jednym z imperatywów menedżera jest umiejętność interpretacji zapisów księgowych oraz konstrukcji informacji syntetycznej, otrzymywanej z programów finansowo-księgowych. W końcu to na tej podstawie podejmowane są liczne decyzje.
Rachunkowość w każdej organizacji jest realizowana przez grupę stanowisk
opisujących procesy biznesowe za pomocą dokumentów. Ten kto wystawia fakturę,
ten kto wydaje z magazynu, ten który nalicza przeroby mechanikom bierze świadomie lub nie udział w procesach księgowania, albowiem generując dokumenty na
swoim stanowisku, przypisuje im automatycznie szablon dekretów na kontach
księgowych. Księgowość może je uzupełniać lub zmieniać, ale gros pracy związanej
z ewidencją rachunkową wykonano wcześniej. A zatem dobrze zorganizowana
księgowość panuje nad rozproszonym po organizacji, sieciowym systemem wymiany informacji, redukując redundancje zapisów w systemie FK. To trzeba dobrze
zorganizować i przemyśleć, albowiem na końcu wszystkich procesów księgowania,
dekretowania czy ewidencjonowania pojawia się sprawozdanie finansowe oraz deklaracja podatkowa. A te muszą być rzetelne, aktualne i spójne, a w dodatku trzeba
potrafić wyjaśnić, skąd się wzięły liczby na poszczególnych pozycjach.
Zasady zapisu księgowego i plan kont
Twórcą nowoczesnej rachunkowości był L. Pacioli, który opracował standard
podwójnego zapisu księgowego: strony księgowania „winien” po lewej stronie –
„bo wziął” co oznacza debet i „ma” po prawej stronie – „bo dał” czyli kredyt). Opisał to w dziele „Summa de arithmetica, geometria, proportioni et proportionalità” wydanym w Wenecji, w roku 1494. Od tego czasu w zapisach księgowych niewiele się
zmieniło, poza ilością informacji rejestrowanej dzięki systemom komputerowym.
Podwójny zapis stanowi fundament zasady równowagi bilansowej, gdzie suma
wszystkich aktywów musi być równa sumie wszystkich pasywów. Innymi słowy
aktywa firmy są finansowane ze źródeł zapisanych po stronie pasywów.
Rozporządzenie Komisji (WE) Nr 1126/2008, z dnia 3 listopada 2008 r, przyjmujące określone międzynarodowe standardy rachunkowości zgodnie z rozporządzeniem (WE), nr 1606/2002 Parlamentu Europejskiego i
Rady. http://polanskiaudyt.pl/msr-mssf/
363
Ustawa z dnia 29 września 1994 r. o rachunkowości Dz. U. z 2016 r. poz. 1047, tekst jednolity z dnia
19.07.2016, http://www.mf.gov.pl/c/document_library/get_file?uuid=78ce716b-3ace-484e-be4c29a413469e75&groupId=764034
362
301
Przykład 4.2 Zapis księgowy dwustronny
Zakup towaru handlowego za gotówkę wymaga zaewidencjonowania tego faktu przynajmniej na dwóch kontach księgowych: po stronie Ma konta "Kasa" (co odpowiada zmniejszeniu się stanu gotówki w kasie) oraz po stronie Winien konta "Rozliczenie zakupu towarów" (co stanowi informacje, że zakupiono towary i zwiększono wartość aktywów, ale bez
informacji czy te towary wpłynęły do magazynu – to wymaga dalszych zapisów księgowych w ramach rozksięgowania).
Zapis zdarzenia gospodarczego w pełnej rachunkowości odbywa się na kontach księgowych, które są logicznie poukładane w plan kont. Zapisy są wyrażane
wartościowo w jednostkach pieniężnych. Zapis po jednej stronie konta nazywa się
obrotem. Różnica w zapisie pomiędzy obrotami na danym koncie po obu stronach
nazywa się saldem. Istnieją konta bilansowe, na których zapisy muszą się równoważyć oraz konta pozabilansowe, pomocnicze (kalkulacyjne), gdzie nie ma obowiązku księgowania dwustronnego. Służą one różnego rodzaju przeliczeniom (np.
kosztów lub walutowych) w celu uzyskania syntetycznej informacji wprowadzanej
na konta bilansowe. Zapisy na kontach można prowadzić jako liczby wymierne dodatnie z dokładnością do dwóch miejsc po przecinku, wówczas korekty muszą być
księgowane przeciwnie jako wartości dodatnie, co zaburza czystość obrotów na danym koncie (pomimo zachowania salda i persalda). Można również stosować zapisy ujemne (storno), ale wówczas należy prowadzić rejestr relacji do dokumentu
korygowanego, żeby można było wyjaśnić dany zapis korygujący.
Pierwotną informacją w rachunkowości (dowodem księgowym) jest dokument księgowy, któremu przypisuje się formalną reprezentację w formie szablonu
rozksięgowania na określonych kontach z planu kont. W przypadku księgowania
danego dowodu księgowego np. faktury VAT sprzedaży, można ustalić szablon
jego zapisów na różnych kontach analitycznych, zwany rozksięgowaniem dokumentu. Proces budowania takiego szablonu rozksięgowań nazywamy dekretacją
dokumentu i stanowi on finansową reprezentację dokumentu księgowego. Im bardziej skomplikowany jest dokument, tym bardziej złożona staje się jego dekretacja
na planie kont.
Przykład 4.3 Dekretacja procesu sprzedaży.
Dokonano sprzedaży towaru z magazynu, co udokumentowano dwoma dokumentami: fakturą VAT (w cenach sprzedaży) oraz WZ (wydanie z magazynu w cenach zakupu).
Jak należy zdefiniować rozksięgowanie dla takiego przypadku? Najprościej zilustrować to
tak, jak na rys. 4.20. Podana w przykładzie dekretacja pozwala na ustalanie wyniku operacyjnego online. Przy odpowiednim sposobie księgowania, możliwe jest ustalanie wskaźników EBITDA quasi-online bez konieczności zamykania miesiąca.
302
rys. 4.20 Przykład księgowania prostego (dekretacja dokumentu).
W zastosowanym szablonie z rys. 4.20 nie uwzględniono komu sprzedano towar, w jaki sposób został on zapłacony oraz jak rozliczono zapłatę podatku. A
można to jeszcze bardziej skomplikować, w zależności, czy była to sprzedaż w walucie lub z odroczoną płatnością. Wówczas szablon rozksięgowań będzie jeszcze
bardziej rozbudowany. Tym niemniej, saldo całej operacji, obejmującej wszystkie
konta bilansowe musi być zerowe.
Na planie kont wyróżnia się konta analityczne oraz konta syntetyczne. Zapisy
księgowe prowadzone są wyłącznie na kontach analitycznych. Obroty i salda z kont
analitycznych mogą być agregowane następnie na kontach syntetycznych, co pomaga w analizie grup zdarzeń danego typu, a nie pojedynczych zdarzeń. Różnica
pomiędzy saldami na kontach syntetycznych nazywana jest persaldo.
Każde konto księgowe musi gromadzić następujące informacje:
 Nazwa (odpowiadająca istocie ujmowanych na nim składników lub zjawisk gospodarczych, np. kasa, bank, koszt energii, koszty wydziału napraw).
 Kod (identyfikator znakowy dla reprezentacji konta w księgach).
 Dane operacji (datę operacji, datę wpisu, numer dowodu księgowego, treść operacji, relacje do innych).
 Kwota operacji (wyrażona w walucie prowadzenia księgowości).
Za architekturę i funkcjonalność rachunkowości odpowiada struktura planu
kont. Stanowi ona zbiór zapisów, gdzie dowolne zdarzenie może być rozksięgo-
303
wane wielokrotnie w celach analitycznych i późniejszej agregacji rodzajowej informacji syntetycznej (np. przychody ze sprzedaży usług, materiały w przerobie,
koszty działu napraw, należności przeterminowane, itp.).
Plan kont ma swój układ logiczny w formie grup najbardziej syntetycznych
(zespoły kont), który traktowany jest jako standard rachunkowości364
0 – Aktywa trwałe
1 – Środki pieniężne, rachunki bankowe i inne krótkoterminowe aktywa finansowe
2 – Rozrachunki i roszczenia
3 – Materiały i towary
4 – Koszty według rodzajów i ich rozliczenie
5 – Koszty według typów działalności i ich rozliczenie
6 – Produkty i rozliczenia międzyokresowe
7 – Przychody i koszty związane z ich osiągnięciem
8 – Kapitały (fundusze) własne, fundusze specjalne i wynik finansowy.
Ten plan można następnie rozbudowywać w logiczny sposób na podgrupy, oraz
konta analityczne, np.
Przykład 4.4 Układ logiczny planu kont dla księgowania gotówki w kasach
1– Rozrachunki i roszczenia
1-100 – Gotówka w kasie (bilansowe, syntetyczne)
1-100-1 Gotówka w kasach złotowych (bilansowe, syntetyczne)
1-100–2 Gotówka w kasach walutowych (bilansowe, syntetyczne)
1-100-1-1 – Kasa złotówkowa nr 1 (bilansowe, analityczne)
1-100-1-2 – Kasa złotówkowa nr 2 (bilansowe, analityczne)
1-100-2-1 – Kasa walutowa w CHF (pozabilansowe analityczne)
1-100-2-10 – Przeliczenie CHF na złote (bilansowe) analityczne
1-100-2-2 – Kasa walutowa w EUR (pozabilansowe, analityczne)
1-100-2-20 - Przeliczenie EUR na złote (bilansowe) analityczne
Wn
1 835 zł
350 zł
1 485 zł
100 zł
250 zł
150 CHF
615 zł
200 EUR
870 zł
W analizowanym przykładzie mamy dwie kasy złotówkowe oraz kasę prowadzoną w
walucie CHF i drugą w walucie EUR (krąg kasowy). Dzięki utworzeniu kont syntetycznych
możemy natychmiast ustalić stan gotówki w walutach, ten sam stan przeliczony na złote
według aktualnego kursu, sumaryczną gotówkę w kasach złotowych 1 i 2 i łączną wartość
pieniędzy w kasach.
Przykład 4.4 ukazuje, że ustawienie prawidłowego planu kont rzutuje na wynik całego systemu rachunkowości oraz syntezę informacji, co powoduje, że w zarządzaniu finansami ten aspekt jest jednym z kluczowych zagadnień. Prezesi oraz
dyrektorzy organizacji sporządzających bilans powinni dokładnie zrozumieć tą
kwestię zanim podpiszą dokument „Zakładowy plan kont”. Oto kilka ważnych
aspektów mających zastosowanie przy konstrukcji planu kont.
Gofin.pl, „Wzorcowy wykaz kont”, http://www.vademecumksiegowego.pl/artykul_narzedziowa,596,0,7771,wzorcowy-wykaz-kont.html
364
304
 Ustalić z zarządem, jakie przekroje danych finansowych będą wymagane przez
kontroling. W szczególności dotyczy to układu kosztów i sposobów ich księgowania.
 Ustalić jakie raporty finansowe będą wymagane przez kontroling operacyjny,
np. kontrola płatności, kontrola dokumentów niezapłaconych, wiekowanie należności.
 Ustalić jakiego rodzaju deklaracje podatkowe oraz sprawozdania obowiązkowe
GUS muszą być generowane przez rachunkowość.
 Ustalić strukturę skonsolidowanego raportu finansowego organizacji i ustalić,
jak z bazy danych planu kont można go wykonać.
 Ustalić, które dane z ksiąg pomocniczych będą uzgadniane miesięcznie i jakie
raporty szczegółowe oraz na jakich kontach będą porównywane.
 Ustalić, jak z planu kont otrzymać wymagane ustawą o rachunkowości sprawozdania: bilans, rachunek zysków i strat oraz przepływy finansowe.
 Przyjąć optymalny poziom analityki, umożliwiający uzyskanie wszystkich przekrojów informacyjnych (np. kosztów według miejsc powstawania z podziałem
na rodzaje lub przypisane do projektu).
 Ustalić konta pozabilansowe dla prowadzenia tzw. księgowań „przelotowych”,
które po określonym czasie zostaną przeksięgowane (np. produkcja w toku albo
rozliczenie inwestycji).
Obiegi dokumentów
Obieg dokumentów oraz informacji jest to jedna z najważniejszych kwestii zarządzania strukturą organizacji, zwłaszcza budowania jej formalnej reprezentacji
opartej na mapie procesów. Na rys. 2.8 przedstawiono sposób dokumentowania
procesu ewidencjonowania faktury zakupu. Można zauważyć, że jest to złożony,
logicznie powiązany ze sobą ciąg różnorodnych działań przygotowawczych, dotyczący kilku stanowisk struktury organizacji, zanim nastąpi finał w postaci dekretacji dokumentu w systemie FK. Jeżeli w organizacji istnieje mapa procesów, będąca
elementem jej białej księgi, to kolejnym etapem modelowania są mapy obiegu dokumentów i informacji księgowej. Mamy dwa sprzężone ze sobą obiegi:
 fizyczny obieg dokumentu między stanowiskami struktury organizacyjnej,
 logiczny obieg dokumentu w strukturze systemu IT lub wymiany informacji,
W tym pierwszym przypadku grupa pracowników dokonuje kolejnych czynności
związanych z merytorycznym opisem procesu (np. wystawia dokument, zatwierdza dokument, dodaje elementy formalne do dokumentu, przekazuje go na inne
stanowisko, wystawia dokument komplementarny, np. WZ do FA, przekazuje do
archiwum). Ślady tych działań odnotowywane są na dokumencie w formie kolejnych podpisów, pieczątek, wydruków, etc. Ma to również swoje odzwierciedlenie
w systemie IT wspomagającym zarządzanie.
305
Rys. 4.21 Powiązanie informacji w systemie rachunkowości
na przykładzie FA.
W
drugim
przypadku, mamy
do czynienia wyłącznie z numeryczną reprezentacją dokumentu w
formie elektronicznej. Obieg informacji następuję pomiędzy kolejnymi stanowiskami komputerowymi,
gdzie
dodawane
są
znaczniki wykonania określonej czynności oraz bazami
buforowymi
danych, pozwalającymi na użycie raz
wprowadzonych
informacji w dowolnym, innym miejscu systemu zintegrowanego IT. Jednocześnie
dokonuje się na tym poziomie agregacja pewnych danych w logiczne struktury formularzy lub raportów, które umożliwiają generowanie informacji pochodnych (np.
deklaracje, sprawozdania, raporty). Oba obiegi generują mapy, które stanowią element polityki rachunkowości, dokumentując logikę działania rachunkowości i jej
satelitów (ksiąg pomocniczych). Finalną czynnością związaną z obiegiem dokumentów jest ich rejestr w systemie finansowo-księgowym i dekretacja na kontach
planu kont. Wówczas można wykonywać dalsze przetwarzanie na użyteczne przekroje informacyjne. Struktura informacji w rejestrze musi odpowiadać wymogom
ustawy o rachunkowości, albowiem stanowi to materiał dowodowy w naliczaniu
podatków.
W praktyce do opisania danego zdarzenia biznesowego zwykle nie wystarcza
jeden dokument, ale pewna ich grupa logicznie ze sobą powiązana. W przypadku
sprzedaży dokumentowanej fakturą FA, może to być dokument sprzężony WZ wydania towaru z magazynu oraz KP - kasa przyjmie, jako dowód wpłaty gotówki za
fakturę. Stąd w rejestrze dokumentów zaksięgowanych pojawią się trzy powiązane
306
ze sobą logicznie wpisy. Każdy z nich jest związany z odpowiednim rozksięgowaniem na planie kont. Przykład wymiany informacji pomiędzy programem fakturowania a finansowo księgowym pokazano na rys. 4.21.
W projektowaniu systemu rachunkowości zdefiniowanie takich powiązań między dokumentami oraz procesami biznesowymi stanowi fundament późniejszej
efektywności działania całej księgowości oraz kontrolingu.
Polityka rachunkowości
Kompletnym projektem (białą księgą) rachunkowości jest dokument o nazwie
polityka rachunkowości. Zgodnie z Art. 10 ustawy o rachunkowości, organizacja
sporządzająca bilans powinna wyznaczyć zasady, według których prowadzona będzie rachunkowość. W szczególności należy określić:
1. rok obrotowy i wchodzące w jego skład okresy sprawozdawcze, albowiem nie
musi to być okres od stycznia do grudnia.
2. metody wyceny aktywów i pasywów oraz sposób ustalania wyniku finansowego (ustawa dopuszcza wariant kalkulacyjny lub porównawczy) a także przepływów pieniężnych (wariant bezpośredni lub wariant pośredni)365,
3. sposobu prowadzenia ksiąg rachunkowych, w tym co najmniej:
 zakładowy planu kont, ustalający wykaz kont księgi głównej, przyjęte zasady
klasyfikacji zdarzeń (rodzaje dokumentów i ich powiązania), zasady prowadzenia kont ksiąg pomocniczych (moduły generujące dokumenty źródłowe)
oraz ich powiązania z kontami księgi głównej (bufory wymiany danych, rys.
4.20 i rys. 4.21);
 wykazu ksiąg rachunkowych, a przy prowadzeniu ksiąg rachunkowych przy
użyciu komputera – wykazu zbiorów danych tworzących księgi rachunkowe
na informatycznych nośnikach danych z określeniem ich struktury, wzajemnych powiązań oraz ich funkcji w organizacji całości ksiąg rachunkowych i w
procesach przetwarzania danych;
 opisu systemu przetwarzania danych, a przy prowadzeniu ksiąg rachunkowych przy użyciu komputera – opisu systemu informatycznego, zawierającego wykaz programów, procedur lub funkcji, w zależności od struktury
oprogramowania, wraz z opisem algorytmów i parametrów oraz programowych zasad ochrony danych, w tym w szczególności metod zabezpieczenia
dostępu do danych i systemu ich przetwarzania, a ponadto określenie wersji
oprogramowania i daty rozpoczęcia jego eksploatacji.
4. systemu służącego ochronie danych i ich zbiorów, w tym dowodów księgowych, ksiąg rachunkowych i innych dokumentów stanowiących podstawę dokonanych w nich zapisów.
Gofin.pl, „Serwis głównego księgowego. Przykład nr 1 - Rachunek przepływów pieniężnych w jednostce
innej niż bank i zakład ubezpieczeń”, http://www.sgk.gofin.pl/11,2384,127306,przyklad-nr-1-rachunek-przeplywow-pienieznych-w-jednostce.html
365
307
Polityka rachunkowości stanowi najważniejszy element projektu reprezentacji
formalnej organizacji, co z punktu widzenia zarządzania ma kluczowe znaczenie,
bo wymusza zaistnienie dokumentu opisującego model konceptualny działania.
Ze strukturą księgi głównej i ksiąg pomocniczych wiąże się mniej lub bardziej
skomplikowany systemem wymiany informacji366. Nie jest bowiem zapisane w
ustawie, że wszystkie informacje muszą pochodzić z jednej bazy danych w systemie
finansowo-księgowym. Nie ma sensu transferować osobno wszystkich, rozliczonych faktur sprzedaży z modułu sprzedaży hurtowni do systemu FK oraz paragonów ze sprzedaży detalicznej, a jedynie zbiorczą informację o sprzedaży dziennej.
Nie ma sensu wpisywać wszystkich składników list płac szczegółowo do FK, a jedynie przekazać rozdzielnik płac, pozostawiając źródłowe dane w księdze pomocniczej kadr-płac. Podobnie nie ma sensu transferować danych o amortyzacji każdego składnika majątku trwałego, a jedynie rozdzielnik amortyzacji przygotowany
przez moduł środki trwałe, będący księgą pomocniczą. Ale to oznacza, że w systemie rachunkowości muszą pojawić się takie moduły, realizujące zadania ksiąg pomocniczych wraz z właściwymi sobie bazami danych. Wiąże się z tym odpowiednia
organizacja dostępu do informacji źródłowej, organizacja agregacji i transferu danych oraz zdefiniowanie sposobów dekretacji zbiorczych raportów typu: raport kasowy, wyciąg bankowy, raport sprzedaży paragonowej, itp. Zyskiem z takiego postępowania jest przejrzystość informacyjna, lepsze przekroje analityczne danych i
większa wydajność działania rachunkowości, przy znacznym ograniczeniu liczby
kont w planie kont księgi głównej.
Dobra polityka rachunkowości stanowi jej białą księgę i pozwala na sformułowanie jednoznacznych modeli semantycznych dla raportów, deklaracji oraz sprawozdań finansowych, nadających się do wyrażenia w językach formalnych.
Księgą główną jest baza danych dokumentów zaksięgowanych w formie rejestru uporządkowanego w kolejności zdarzeń, zgodnie z regułami sztuki. Zgodnie
z Art. 17 ustawy o rachunkowości konta ksiąg pomocniczych prowadzi się w szczególności dla:
1. środków trwałych, w tym także środków trwałych w budowie, wartości
niematerialnych i prawnych oraz dokonywanych od nich odpisów amortyzacyjnych lub umorzeniowych,
2. rozrachunków z kontrahentami,
3. rozrachunków z pracownikami, a w szczególności jako imienną ewidencję
wynagrodzeń pracowników zapewniającą uzyskanie informacji, z całego
okresu zatrudnienia,
4. operacji sprzedaży (kolejno numerowane własne faktury i inne dowody, ze
szczegółowością niezbędną do celów podatkowych),
366
Gospodarek T., Systemy ERP…”, op. cit. str. 91
308
5. operacji zakupu (obce faktury i inne dowody, ze szczegółowością niezbędną do wyceny składników aktywów i do celów podatkowych),
6. kosztów i istotnych dla jednostki składników aktywów,
7. operacji gotówkowych w przypadku prowadzenia kasy.
Rys. 4.22 Struktura polityki rachunkowości
309
Przykładem przeciwnej konfiguracji ksiąg rachunkowych jest system rachunkowości stosowany w koncesjach Mercedes Benz w Polsce, gdzie ze względów
sprawozdawczości korporacyjnej (kwartalne raporty kontrolingowe GBMS), całość
informacji musi pochodzić z księgi głównej systemu FK. Wymagane w tym celu
przekroje informacyjne przychodów i kosztów wykreowały plan kont, który ma
ponad 10 000 pozycji z analityką piątego stopnia włącznie. Nie da się na tym pracować ręcznie bez dobrego systemu automatycznej dekretacji, a systemy wspomagające zarządzanie muszą być bardzo precyzyjnie ustawione pod kątem wymiany
danych źródłowych i zawierać szereg mechanizmów kontroli spójności oraz rzetelności informacji.
Metody wyceny i rozchodu zapasów stanowią kolejne zagadnienie polityki rachunkowości, która powinna określić w jaki sposób dokonywana jest wycena i rozchód materiałów i towarów. Ustawa wyróżnia w tej kwestii trzy metody:
 FIFO (pierwsze przyszło, pierwsze wyszło) - rozchód danego składnika aktywów wycenia się kolejno po cenach (kosztach) tych składników aktywów, które
zostały najwcześniej nabyte (wytworzone),
 LIFO (ostatnie przyszło, pierwsze wyszło) - rozchód składników aktywów wycenia się kolejno po cenach (kosztach) tych składników aktywów, które zostały
najpóźniej nabyte (wytworzone),
 średnia ważona - po każdym przychodzie danego składnika – dokonywane jest
sumowanie wartości jego zapasu i dzielone przez stan ilościowy danego składnika w magazynie, po czym tak uśredniona cena przypisywana jest każdemu z
pozostałych na danej karcie magazynowej składnika.
 szczegółowa identyfikacja cen (kosztów) tych składników aktywów, które dotyczą ściśle określonych przedsięwzięć, niezależnie od daty ich zakupu lub wytworzenia.
Ze względów organizacyjnych systemów zintegrowanych najlepiej jest stosować metodę FIFO, albowiem średnia ważona wprowadza chaos w układzie wielomagazynowym przy występowaniu dokumentów przesunięć oraz wydań na produkcję i zwrotów. W takim przypadku uzgodnienie miesięczne, kwotowe zapasu
magazynowego w księdze głównej, wymaga korygowania protokołami różnic cen
(wystąpią odchylenia).
Koszty działalności operacyjnej są ważnym aspektem polityki rachunkowości, albowiem odpowiednie przekroje w zespołach kont 4 oraz 5. Sposób rejestracji kosztów. Musi on zapewnić wykonanie raportów, rozliczeń, sprawozdań i deklaracji.
Jest to związane z przekrojami informacyjnymi, pożądanymi przez zarządzających.
Równocześnie prawidłowa informacja o kosztach wytworzenia jest potrzebna działom sprzedaży, w celu prowadzenia negocjacji cenowych. Stąd w polityce rachunkowości należy określić przekroje informacyjne kosztów.
Wartość rozchodu walut obcych z rachunku bankowego wymaga również określenia, po jakim przeliczniku będziemy tego dokonywać ze względu na powstające
310
różnice kursowe, które należy zaksięgować. Traktuje o tym Art. 30 ust. 2 ustawy o
rachunkowości. Kurs waluty może być:
 faktycznie zastosowanym w dniu wynikającym z charakteru operacji,
 średnim, ogłoszonym dla danej waluty przez Narodowy Bank Polski z dnia poprzedzającego ten dzień.
W przypadku otrzymania wpłaty na rachunek walutowy w walucie obcej nie
można mówić o kursie faktycznie zastosowanym, gdyż nie dochodzi do faktycznej
wymiany waluty. Z tego względu do wyceny wpływu należności na rachunek walutowy przyjmuje się kurs średni NBP z dnia poprzedzającego otrzymanie należności. Podobnie jest w przypadku rozchodów środków pieniężnych w walutach
obcych.
Raporty skonsolidowane, otrzymywane z systemu finansowo-księgowego w postaci złożonych informacji, pochodzących z różnych ksiąg (ilość sprzedaży, wartość, koszt własny, prowizje wypłacone, opcje udzielone, koszty negocjacji), których
nie da się uzyskać bezpośrednio z księgi głównej ani z rejestrów dokumentów. Konieczne jest przedstawienie sposobu pozyskania takich danych i ustalenia algorytmu obliczeń oraz sposobu weryfikacji poprawności. Wykaz wskaźników, które
mogą być pożądane przez zarząd opisano w rozdziale 4.9 i podrozdziałach dotyczących kontrolingu.
Plan dekretów. Obok ręcznego księgowania, większość rachunkowości jest wspomagana programami finansowo-księgowymi lub zintegrowanymi systemami klasy
ERP. Wówczas księgowanie może odbywać się automatycznie, wykorzystując
kompletnie zdefiniowane szablony rozksięgowań (rys. 4.21). Dotyczy to zwłaszcza
zaimportowanych danych z zewnętrznych źródeł lub ksiąg pomocniczych, np.
banku (wyciągi bankowe w formie elektronicznej), programów fakturowania, magazynowych lub przesyłanych elektroniczne rozproszonych danych z oddziałów
organizacji w celu ich konsolidacji w księdze głównej.
Mechanizmy kontrolne danych. Jest oczywistym, że jeżeli dane źródłowe pozostają w jednej bazie księgi pomocniczej, a do księgi głównej trafiają dane przetworzone, muszą istnieć sposoby uzgodnienia salda w obu bazach. To jest zadaniem
dla kontrolerów finansowych. Z praktyki księgowej wynika, że takie mechanizmy
kontrolne dotyczą przede wszystkim:
 wyszukiwania księgowań nie bilansujących się (o ile takie zaistniały),
 zgodności zapisów w rejestrze z zapisami na kontach księgowych,
 stanów magazynowe w księdze pomocniczej i księdze głównej,
 braku możliwości zaksięgowania niekompletnego dokumentu,
 identyfikacji kogokolwiek dokonującego wpis do księgi głównej,
 kontroli kompletności i spójności baz danych od strony technologicznej,
 kontroli zgodności pozycji raportów z danymi źródłowymi,
 kontroli zamknięcia miesiąca i roku,
 kontroli księgowań wielokrotnych.
311
Utworzenie polityki rachunkowości pozwala na podjęcie próby wdrożenia zintegrowanego systemu IT, wspomagającego działanie rachunkowości. Istnieje na
rynku bardzo wiele systemów finansowo-księgowych, które muszą prowadzić do
uzyskania informacji zgodnych z ustawą o rachunkowości, zgodnie z jej postanowieniami. Ich wybór lub ocena funkcjonalności jest jednym z ważnych zadań zarządzania. Dokonuje się tego metodą wielokryterialną, gdzie poszczególne kryteria
powinny wynikać z mapy procesów organizacji. Te zagadnienia opisałem szerzej
w książce „Systemy ERP. Modelowanie, projektowanie, wdrażanie”, do której odsyłam zainteresowanych tematem.
4.7.4 Hedging
Hedging jest jednym z bardziej interesujących zagadnień zarządzania finansami. Wykorzystuje zarówno zarządzanie ryzykiem, jak i kreowaniem oraz wprowadzaniem instrumentów pochodnych do systemów finansowych. Zmienia przepływy finansowe na bardziej przewidywalne w czasie. Hedging wykorzystuje narzędzia finansowe nazywane instrumentami pochodnymi. Są to kontrakty terminowe, różnego rodzaju opcje i swapy. Stanowi przykład działania reguły przekory
oraz działania buforującego zmienność wartości instrumentów bazowych w czasie,
takich jak: akcje, waluty, ceny surowców, itp. poprzez dobranie instrumentu pochodnego o przeciwnie skorelowanym trendzie czasowym. Tam gdzie mamy do
czynienia z dużą skalą działania, znaczną konkurencją, niskimi marżami z działalności oraz ekspozycją na ryzyko zmian cen, tam może mieć zastosowanie hedging.
Dlatego stosują go zarówno duże linie lotnicze, energetyka, fabryki przetwarzające
surowce, dla których ryzyka finansowe mają strukturę złożoną, jak i mniejsze
przedsiębiorstwa zajmujące się eksportem i importem, gdzie działalność wiąże się
przede wszystkim z ciągłym ryzykiem kursowym.
Producent jabłek może najprościej zabezpieczyć się przed spadkiem cen rynkowych, zawierając kontrakt terminowy z ceną określoną tu i teraz, obowiązującą
w dniu wykonania dostawy za kilka miesięcy (a czasami na rok lub dwa z góry).
Jeżeli cena spadnie w sposób istotny w relacji do ceny w dniu zawarcia kontraktu,
to jabłka zostaną sprzedane po wyższej cenie, ustalonej w zawartym kontrakcie.
Gdy cena jabłek na rynku w dniu dostawy będzie wyższa niż zapisana w kontrakcie, to wprawdzie sprzeda się je relatywnie taniej, ale i tak osiągnięty zostanie zysk
wynikający z kalkulacji w dniu zawieraniu kontraktu. Kontrakt taki można przed
realizacją sprzedać stronie trzeciej (pośrednikowi lub spekulantowi) za cenę różną,
niż w nim to zapisano. Staje się on wówczas instrumentem pochodnym, w stosunku
do przyobiecanej dostawy jabłek (wartościowego aktywa), na którym nabywca
może zyskać lub stracić. W ten sposób powstał rynek instrumentów finansowych i
giełdy obracające kontraktami terminowymi, podobnie jak giełdy walutowe, giełdy
akcji i giełdy towarowe.
312
Już ten przykład pokazuje, że istnienie instrumentów finansowych pozostających w relacji do innych, generuje nowe możliwości działania i całkowicie zmienia
sens funkcjonalności rynków pieniężnych, opartych na twardych zasadach (np. Bitcoin o skończonej liczbie jednostek monetarnych, waluty oparte na parytecie złota,
itp.). Instrumenty pochodne stanowią surogaty pieniądza. Wprowadzają do rzeczywistych systemów monetarnych wartość całkowicie wirtualną. W zamian za poczucie bezpieczeństwa (a nawet jakąś tam gwarancję), klient płaci realnym pieniądzem
nabywając instrument pochodny. Ponieważ ewentualne wykonanie opcji jest zwykle mniej prawdopodobne, niż jej niewykonanie, to powoduje, że wygasa ona bez
żadnych skutków w terminie zapadalności. Jej wystawca zyskuje pieniądz ściągnięty z rynku, podobnie jak bank udzielający kredytu z częściowym pokryciem.
Reszta jest jedynie wiarą w rynek i jego mechanizmy.
Zagadnienia hedgingu należy rozpatrywać z pozycji sześciu podmiotów
uczestniczących w rynku.
 Tego który posiada instrument bazowy – jakieś wartościowe aktywa, (np. pakiet
akcji firmy X, taczkę złota) i jest zainteresowany zawarciem kontraktu na ich
sprzedaż w ustalonej przyszłości po cenie ustalonej w teraźniejszości (tzw. pozycja krótka w kontrakcie).
 Tego, który chciałby zakupić instrument bazowy (aktywa lub towary) po ustalonej tu i teraz cenie od ich posiadacza lub pośrednika, z dostawą w ustalonej przyszłości, w ramach kontraktu (tzw. pozycja długa).
 Wystawcy derywatu, który może wystawić instrumenty finansowe pochodne
(np. opcje lub kontrakty futures) do instrumentu bazowego, zabezpieczające w
określony sposób transakcję kupna-sprzedaży w przyszłości (pozycja krótka).
 Nabywcy instrumentu pochodnego wyłącznie w celach zabezpieczenia kontraktu bazowego w przyszłości, od wystawcy opcji lub swapu (pozycja długa).
 Tego, który może uczestniczyć w pośredniczeniu obrotem instrumentami pochodnymi (bank, giełda, fundusz hedgingowy).
 Tego, który kupuje lub sprzedaje istniejące już na rynku instrumenty pochodne
po cenach dnia w celach osiągnięcia zysku (fundusz hedgingowy, spekulant).
To, co jest wspólne dla wszystkich podmiotów uczestniczących w przedmiotowych
procedurach, to umiejętność zastosowania właściwych instrumentów pochodnych,
wyliczenie ich wartości transakcyjnej oraz prawidłowe odgadnięcie trendu zmian
cen rynkowych dla instrumentu bazowego w czasie (zabezpieczany jest kontrakt).
Od tego zależy skuteczność zabezpieczenia oraz potencjalne koszty z tym związane.
313
Przykład 4.5 Afera z opcjami walutowymi
O tym, że można bardzo źle dobrać instrumenty pochodne niech świadczy polska afera
z opcjami na kursy walut z lat 2008-2009367. Jej bohaterami były banki oferujące niedouczonym menedżerom firm-eksporterów opcje zabezpieczające przed dalszym wzrostem kursu
złotego w stosunku do USD i EUR. Niestety trend rynkowy poszedł nie w tym kierunku.
Nastąpiło załamanie kursu złotego i opcje wykonano po niekorzystnym kursie wymiany.
Zarobili spekulanci, a straciły rzetelne firmy tyle, że niektóre z nich nawet zbankrutowały.
Dla przykładu Sanwil z Lublina stracił 12 mln zł na opcjach368.
Żeby można było kontynuować kwestie stosowania hedgingu należy przedstawić instrumenty finansowe369 służące jako jego narzędzia.
Instrumenty bazowe – są to aktywa lub dobra podlegające transakcjom handlowym w formie kontraktów (umów) o czasie dostawy późniejszym niż moment wyceny ich wartości. Przykładami mogą być: nieruchomości, waluty, akcje, towary,
surowce, energia, itp.
Instrumenty pochodne – są to zobowiązania relacyjne w stosunku do instrumentów bazowych, niebędące papierem wartościowym, stanowiące gwarancje wykonania kontraktu zmiany właności instrumentu bazowego, zachowania ustalonej
ceny transakcyjnej w określonym czasie. Ich wartość jest uzależniona od wartości
instrumentu bazowego. Instrumenty pochodne zawsze stanowią kontrakty między
dwoma stronami.
Klasyfikacja instrumentów pochodnych wynika z trzech aspektów:
 relacji między stronami kontraktu – instrumenty symetryczne (kontrakty terminowe i swap) oraz asymetryczne (opcje, gdzie jedna strona nabywa prawa, a
druga przyjmuje zobowiązanie),
 miejsca obrotu – instrumenty giełdowe (futures, opcje) oraz pozagiełdowe (opcje
OTC, kontrakty forward oraz kontrakty swap).
 relacji do instrumentu bazowego – instrumenty pochodne akcyjne (np. opcje na
akcje), instrumenty na indeksy (np. swap na WIG 20), walutowe (np. opcje na
kursy walut), na stopy procentowe (np. kontrakt FRA na obligacje skarbowe).
Kontrakty terminowe
Kontrakt terminowy stanowi zobowiązanie dwóch stron do przeniesienia własności pewnej ilości aktywa (intrumentu bazowego) za określoną cenę w teraźniejszości w ustalonym terminie w przyszłości. Charakteryzuje się on wartością reali-
Newsweek, „KNF wiedziała co się święci”, 17.03.2009, http://www.newsweek.pl/newsweek-exclusive/knf-wiedziala-co-sie-swieci,37482,1,1.htm l
368
Wikipedia, „Kryzys opcji walutowych w Polsce”, https://pl.wikipedia.org/wiki/Kryzys_opcji_walutowych_w_Polsce
369
Jajuga K., „Instrumenty pochodne”, Komisja Nadzoru Finanowego, Warzawa, 2009,
http://www.knf.gov.pl/Images/Instrumenty%20pochodne_tcm75-17587.pdf
367
314
zacji (ceną dostawy, wykonania, ceną kontraktu), ilością i rodzajem dóbr podlegających transakcji oraz terminem wygaśnięcia (terminem realizacji lub dostawy). Jest
to instrument pochodny symetryczny, w którym obie strony przyjmują na siebie
zobowiązania. Kupujący kontrakt (pozycja długa) zobowiązuje się do zakupienia w
przyszłości przedmiotu umowy, a sprzedający kontrakt (pozycja krótka) zobowiązuje się go sprzedać na określonych warunkach. W praktyce gospodarczej występują dwa rodzaje kontraktów terminowych jako osobnych przedmiotów w obrocie
(instrumenty pochodne): forward i futures.
Kontrakty futures
W kontrakcie futures na coś, inwestor zajmuje pozycję długą lub krótką (zależnie od przewidywanego trendu cenowego dla aktywa bazowego) wobec giełdy
albo izby rozliczeniowej - pośrednika gwarantującego wykonanie kontraktu. Przy
tym wnoszone są natychmiast depozyty na rachunek maklerski, co jest gwarancją
wykonania kontraktu. Kontrakty futures są standaryzowane, tzn. terminy wykonania (4 w ciągu roku), instrumenty bazowe (np. pakiety aktywów), wielkości kontraktów są z góry ustalone. Dzięki temu negocjowana jest wyłącznie cena.
Zajmując pozycję długą (kupując kontrakt) można stać się właścicielem aktywa
bazowego taniej, gdy spodziewamy się, że jego cena na rynku kasowym będzie
wyższa niż określona w kontrakcie w dniu jego realizacji. Odwrotnie, zajmując pozycję krótką (sprzedając kontrakt) można uniknąć straty, gdy cena aktywa bazowego będzie niższa niż w kontrakcie. Cena futures dąży do ceny natychmiastowej
(tej na rynku kasowym) wraz ze skracaniem się czasu do terminu realizacji kontraktu.
W przypadku kontraktów terminowych futures stosowana jest procedura codziennego rozliczania „marking to market”. Składa się na nią trzy elementy:
 w chwili zawarcia transakcji (otwarcia pozycji) obie strony, wpłacają na swoje
rachunki inwestycyjne depozyty, stanowiące ułamek wartości kontraktu na aktywo bazowe;
 na koniec dnia rozliczeniowego salda rachunków obu stron są korygowane w
zależności od zmiany ceny kontraktu bazowego, jeżeli jego cena:
 wzrosła - wówczas powiększane jest saldo strony długiej, a pomniejszane
saldo strony krótkiej;
 spadła - wówczas powiększane jest saldo strony krótkiej, a pomniejszane
saldo strony długiej;
 kiedy saldo którejkolwiek ze stron kontraktu futures spadnie poniżej pewnego
dopuszczalnego poziomu (z góry ustalanego), wówczas ta strona musi je uzupełnić, dopłacając na konto odpowiednią kwotę.
315
Przykład 4.6 Kontrakt futures na WIG 20
Zakładamy się, że za trzy miesiące indeks WIG 20 będzie wynosić X. Przyjmujemy zobowiązanie wobec innego spekulanta, który twierdzi, że tak nie będzie. Zawieramy kontrakt na następujących zasadach, jeśli w dniu rozliczenia:
 wartość WIG20 jest niższa niż X, to strona długa płaci stronie krótkiej kwotę równą 10*(X
– wartość WIG20);
 stanie się odwrotnie, tzn WIG20 będzie więkzy niż X, to strona krótka płaci stronie długiej kwotę równą 10*(wartość WIG20 – X),
 WIG20 = X to nikt, nikomu nie płaci.
W przykładzie powyższym mamy zatem czystą postać gry dwuosobowej o sumie zero. Tak definiowane kontrakty futures są przykładem ryzyka hazardowego i
w normalnym biznesie nie należy ich stosować. Warto prześledzić przykład scenariuszowy what if dla operacji na kontraktach terminowych typu futures.
Przykład 4.7 Scenariusz dla futures
Mamy cenę miedzi 6000$ za tonę na LME. Mamy również kontrakt futures na zakup
30 ton miedzi w cenie 185 000$. Podmiot X kupuje 30 ton miedzi po cenie LME, a podmiot
Y kupuje futures wpłacając depozyt 10% wartości kontraktu sprzedaży 30 ton miedzi z dostawą za miesiąc (18 000$).
Rozważmy teraz dwa scenariusze:
I – cena miedzi za mieiąc wynosić będzie 6500$ za tonę
II – cena miedzi za miesiąc wynosić będzie 5500$ za tonę
Oczywistym jest, że cena kontraktu będzie odpowiadać cenie rynkowej, ponieważ jest on
rozliczany po cenie obowiązującej w tym dniu. Oznacza to, że
I - Podmiot Y uzyska [30*(6 500 – 6 000)] – [(185 000 – 180 000)] = 10 000$;
II – Podmiot Y straci [30*(6 000 – 5 500)] – [(185 000 – 180 000)] = 20 000$
Dla podmiotu X scenariusze mają postać
I – Podmiot X straci 30*(6 500 – 6 000) = 15 000$
II – Podmiot X zyska 30*(6 000 – 5 500) = 15 000$
Stopa zwrotu z kontraktu (zysk 10 000$ przy inwestycja 18 000$) wynosi 55,6%, ale w
przypadku scenariusza pesymistycznego jest to -112% (więcej niż zainwestowano).
Zarządzając hedgingiem należy mieć na uwadze, że zarobek na kontraktach
terminowych futures może wydać się bardzo interesującym dodatkiem do zysków
z działalności podstawowej, ale ewentualna wpadka jest zawsze bardziej kosztowna. Dlatego w hedgingu ten rodzaj derywatów nie ma większego znaczenia.
W wycenach kontraktów terminowych stosuje się następującą zależność:
Ft  F0 exp( r  t   )
(4.14)
gdzie Ft jest ceną terminową kontraktu dla bieżącej wartości aktywa F0 przy danej
stopie procentowej, wolnej od ryzyka, w stosunku rocznym r i czasie pozostałym
wyganięcia kontraktu w latach t, a współczynnik  odpowiada za ograniczenie od
316
góry lub od dołu wartości kontraktu w czasie. Jak łatwo zauważyć, wartość dąży
do początkowej w chwili t = 0 (wykonania kontraktu) przy  = 0.
Kontrakty forward
W kontrakcie forward mamy do czynienia z pozagiełdowym gwarantem wykonania kontraktu (np. bank lub fundusz) ustalonego między stronami, przy czym
ustalana jest osobno cena kupna (bid) oraz cena sprzedaży (ask) przez porednika. W
momencie jego zawarcia żadna ze stron nie płaci. Po rozliczeniu kontraktu różnicę
(ask – bid) skasuje pośrednik lub gwarant. Najczęściej stosowane są kontrakty forward na waluty oraz na stopy procentowe (kontrakty Forward Rate Agreement FRA
np. na WIBOR lub LIBOR). Transakcje forward nie są standaryzowane, jak ma to
miejce w przypadku futures. Tym samym warunki kontraktu są negocjowane w
każdym aspekcie. Sposób realizacji również.
Opcje
Obok kontraktów terminowych opcje stanowią podstawowy instrument pochodny o niesymetrycznym profilu wypłaty oraz charakterystyce asymetrycznej relacji między kontrahentami, gdzie jeden z nich ma prawo, a drugi pozostaje zobowiązany. Wiąże się to z faktem, że opcja daje prawo do zakupu (lub przedaży) instrumentu bazowego w ustalonym terminie zwanym terminem wykonania opcji po
cenie ustalonej, zwanej ceną wykonania opcji. Opcja może być kontraktem na nieregulowanym rynku OTC albo przedmiotem obrotu na giełdzie.
Mamy dwa podstawowe rodzaje opcji: kupna (call) oraz sprzedaży (put).
Pierwsza z nich jest prawem do zakupu, druga prawem do sprzedaży. W obu przypadkach muszą zostać określone trzy parametry:
 ilość instrumentu bazowego objętego transakcją zmieny własności,
 cena wykonania kontraktu (cena realizacji),
 termin wygaśnięcia, po upływie którego prawo gwarantowane opcją traci ważność będący równocześnie terminem do którego można kupić lub sprzedać intrument bazowy (wykonać opcję).
Termin wykonania opcji generuje kolejne dwa rodzaje instrumentów zarówno put
jak i call:
 opcja europejska, dla której prawo wykonania zapada w określonym terminie,
 opcja amerykańska, która może być wykonana w dowolnym terminie do momentu wygaśnięcia opcji.
Warto wpomnieć również o opcjach egzotycznych370, gdzie wypłata zależy od wartości instrumentu bazowego w sposób złożony (np. opcje azjatyckie), wypłata może
zależeć od kilku indeksów cen, a cena wykonania może być realizowana w innej
walucie niż cena instrumentu bazowego po z góry ustalonym kursie (opcje quanto).
Napiórkowski A., „Charakterystyka, wycena i zastosowanie wybranych opcji egzotycznych”, NBP Materiały
i studia, Warszawa, 2001, http://www.nbp.pl/publikacje/materialy_i_studia/136.pdf
370
317
Szczególnym przypadkiem opcji egzotycznych są opcje binarne371 - specjalnie skonstruowane derywaty dla spekulantów – hazardzistów. Aktualnie są one wykorzystywane do naciągania klientów w Internecie.
W kontrakcie opcyjnym występują dwie strony: wystawca opcji (option writter)
oraz posiadacz opcji (nabywca – option holder). Ponieważ sytuacja wystawcy i posiadacza w kontrakcie jest nierówna, to za prawo, które gwarantuje opcja, nabywca
(posiadacz) płaci sprzedającemu (wystawcy) premię opcyjną. Innymi słowy opcja
kosztuje określoną cenę. Ponieważ opcja jest prawem, a nie obowiązkiem, nie musi
ona zostać wykonana (wówczas jej wystawca zarobił). W praktyce giełd towarowych, ok. 80% opcji nie zostaje wykonanych!
Działanie opcji można przedstawić następująco:
 dla opcji kupna (call) jej posiadacz ma prawo kupić instrument bazowy (np. akcje
spółki X po ustalonym kursie), a wystawca opcji zobowiązał się do jego sprzedania. Tym samym nabył praw do uzyskania w określonym terminie kwoty pieniężnej, która zależy od różnicy między wartością kasową intrumentu bazowego
a ceną wykonania kontraktu (sytuację wypłaty przedstawiono na rys. 4.23A opcja call w pozycji short z ceną wykonania K2 oraz opcja call w pozycji long z ceną
wykonania K1);
 dla opcji sprzedaży (put) jej posiadacz ma prawo sprzedać instrument bazowy
(np. dolary po ustalonej cenie), a wystawca opcji zobowiązał się do jego zakupu.
Tym samym nabył praw do uzyskania w określonym terminie kwoty pieniężnej,
która zależy od różnicy między a ceną wykonania kontraktu, a wartością kasową
intrumentu bazowego (sytuację wypłaty przedstawiono na rys. 4.23B opcja put
w pozycji short z ceną wykonania K1 oraz opcja put w pozycji long z ceną wykonania K2).
Z konstrukcji opcji wynikają reguły wykonania:
 Opcja kupna (call) zostanie wykonana, jeżeli cena kasowa intrumentu bazowego,
na który wystawiono opcję, jest wyższa niż cena wykonania.
 Opcja sprzedaży (put) zostanie wykonana, jeżeli cena kasowa intrumentu bazowego, na który wystawiono opcję, jest niższa niż cena wykonania.
Można to sprowadzić do reguł przyjmowania pozycji opcyjnych. Mamy cztery warianty: pozycja długa dla opcji call albo pozycja długa dla opcji put, albo pozycja
krótka dla opcji call albo pozycja krótka dla opcji put.
 Pozycja długa (nabycie opcji call) – jest uzasadnione, jeżeli spodziewamy się
wzrostu cen instrumentu bazowego i stanowi zabezpieczenie się przed jego
wzrostem w zamian za premię opcyjną zapłaconą z góry jej wystawcy. Gdyby
cena rynkowa w terminie wykonania spadła zbyt mocno, posiadacz opcji poniesie stratę, ale tylko w wysokości premii opcyjnej, którą zapłacił (opcja po prostu
nie zostanie wykonana). Natomiast przy wzroście ceny instrumentu bazowego,
371
Wikipedia, „Opcja binarna”, https://pl.wikipedia.org/wiki/Opcja_binarna
318
może wystąpić teoretycznie nieograniczony zysk dla pozycji długiej (opcja zostanie wykonana po cenie kontraktu niższej niż kasowa). Wykonawca opcji
przejmie wówczas kontrakt i sprzeda towar na rynku po wyższej cenie rynkowej, zyskując różnicę pomiędzy ceną kasową aktywa bazowego kontraktu, a
ceną wykonania opcji, pomniejszoną dodatkowo o premię zapłaconą wystawcy
opcji.
 Pozycja długa (nabycie opcji put) – jest uzasadnione, jeżeli spodziewamy się
spadku cen instrumentu bazowego i służy zabezpieczeniu się przed taką ewentualnością za cenę premii opcyjnej. Gdyby cena rynkowa w terminie wykonania
wzrosła zbyt mocno, posiadacz opcji poniesie stratę, ale tylko w wysokości premii opcyjnej (opcja nie zostanie wykonana). Posiadacz opcji put będzie zyskiwać
gdy cena rynkowa instrumentu bazowego spadnie poniżej ceny kontraktu (najlepiej w okolice zera). Wówczas opcja gwarantuje maksymalny zysk (ograniczony wielkością różnicy cen pomiędzy kontraktem, a ceną kasową).
 Pozycje krótka (sprzedaż opcji call) Jeżeli trend cenowy instrumentu pierwotnego wykazuje spadek, można rozważyć sprzedaż opcji call. Zobowiązuje się
wówczas do sprzedaży w terminie wykonania opcji instrumentu bazowego z nią
powiązanego po ustalonej cenie wykonania. W zamian za to, otrzymujemy premię opcyjną płaconą przez nabywcę opcji. Gdy cena rynkowa okaże się niższa
niż cena wykonania, wówczas opcja call nie zostanie zrealizowana. Zysk wystawcy będzie równy otrzymanej premii. W przeciwnym razie wystawca opcji
poniesie stratę, bo został przez opcję zobowiązany sprzedać instrument bazowy
poniżej ceny rynkowej. Ponieważ cena instrumentu bazowego może wzrosnąć
dowolnie, wielkość straty jest teoretycznie nieograniczona od góry.
 Pozycja krótka (sprzedaż opcji put) – Wiąże się ona z wystawieniem opcji sprzedaży. Takie działanie jest uzasadnione, gdy spodziewany jest wzrost cen instrumentu bazowego. Tym razem, wystawca zobowiązuje się do kupna w terminie
wykonania opcji związanego z opcją put instrumentu bazowego po ustalonej cenie wykonania w zamian za premię opcyjną. Gdy cena rynkowa okaże się wyższa niż cena wykonania, wówczas opcja put nie zostanie zrealizowana. Zysk wystawcy będzie równy otrzymanej premii. Gdy cena rynkowa okaże się niższa niż
cena wykonania, wówczas wystawca opcji poniesie stratę, bo jest zmuszony kupić instrument bazowy drożej niż na rynku. Tym niemniej, wielkość straty jest
ograniczona wysokością ceny wykonania opcji (pomniejszonej o otrzymaną premię). Wynika to z faktu, że cena instrumentu bazowego zawsze jest większa od
zera.
Jak łatwo zauważyć, pozycja krótka w opcji put jest podobna do pozycji długiej w
opcji call, przy czym wielkość straty jest ograniczona. Podobnie, pozycja długa w
opcji call jest podobna do pozycji krótkiej w opcji put. Sugeruje to możliwość budowania złożonych układów opcyjnych na dany instrument bazowy, z których najprostszym jest kombinacja dwóch rodzajów opcji call-call, put-put oraz call–put o
319
przeciwnych trendach. Mamy wówczas do czynienia z zakładanym przedziałem
uzyskania ceny zabezpieczanego instrumentu bazowego, niezależnie od jej zmian
w czasie. Przedstawione to zostało na rys. 4.23.
Strategie opcyjne
Wyróżniamy kilka kombinacji dwuelementowych opcji call – put w zależności
od celu zabezpieczenia oraz parametrów opcyjnych (różne ceny wykonania, różne
rodzaje opcji)372, ale możliwe są również bardziej złożone kombinacje, więcej niż
dwóch rodzajów opcji, np. strategia motyla oraz różnic cen i terminów wykonania
dla opcji składowych. Przykładami prostych kombinacji dwuelementowych, gdzie
obie opcje składowe mają te same czasy oraz ceny wykonania mogą być: strategia
byka, strategia niedźwiedzia i strategia stelaża.
Strategia byka (Call bull spread) rys. 4.23A– składa się na nią założenie długiej pozycji dla opcji call z niższą ceną wykonania K1 niż cena kontraktu dla aktywa bazowego i krótkiej pozycji w call z wyższą ceną wykonania niż cena kontraktu K2. Przy
tym obie opcje mają ten sam termin wygaśnięcia. Cena opcji kupna maleje wraz ze
wzrostem ceny wykonania. Ponieważ wartość opcji wystawionej jest niższa od wartości opcji kupionej K1<K2, zapłacimy na początku za różnicę premii opcyjnych
(strategia typu debit), tym więcej, im szerszy jest przedział zabezpieczenia cen instrumentu bazowego. Strategi byka pozwala zarobić przy wzroście ceny instrumentu bazowego. Skala zysków i strat jest ograniczona i zawiera się w przedziale
[K1,K2]. Wynika to z faktu wykonania opcji call przy określonej cenie rynkowej aktywa.
Strategię byka można zrealizować również przy zastosowaniu opcji sprzedaży
(Put bull spread), wystawiając opcję sprzedaży instrumentu pierwotnego o cenie
K1 i kupując opcję sprzedaży tego samego instrumentu o cenie K2<K1. Różnica premii opcyjnych jest wówczas dodatnia, co nie wymaga wkładu na początku.
Strategia niedźwiedzia (Put bear spread) rys. 4.23B– składa się na nią założenie
długiej pozycji w opcji put z wyższą ceną wykonania K2 i krótkiej pozycji w opcji
putl z niższą ceną wykonania K1. Podobnie, jak w strategii byka pojawia się spread
premii opcyjnych, który będzie zyskiem „niedźwiedzia”, ze względu na różnice cen
opcji put w transakcji. Takie działanie pozwala zarobić na spadku ceny instrumentu
bazowego. Skala zysków jest tu również ograniczona.
Podobnie, jak w przypadku strategii byka, strategię niedźwiedzia można również zrealizować za pomocą dwóch składowych opcji typu call.
Strategia stelaża (Straddle) – polega na złożeniu dwóch długich pozycji w opcjach
call i put z tą samą ceną i terminem wykonania (long straddle). Taki układ generuje
zysk niezależnie od zmiany cen instrumentu bazowego. Straty powstaną w sytuacji,
gdy cena instrumentu bazowego zrówna się z ceną wykonania. Dlatego strategię
372
Hull J. C., „Kontrakty…”, op. cit.
320
straddle stosuje się w sytuacji, gdy spodziewane są znaczne zmiany ceny instrumentu bazowego, ale ich kierunek jest trudny do określenia (są stochastyczne w
pewnym przedziale wartości). Strategia inwestycyjna spread polega na nabyciu (zajęciu długiej pozycji) na opcję kupna call oraz opcję sprzedaży put o tej samej wartości i terminie wykonania. Analogiczny układ można wykonać na sprzedaży opcji
kupna put i równocześnie sprzedaży opcji zakupu call z tą samą ceną oraz terminem
wykonania (short straddle).
Rys. 4.23 Ilustracja zysku dla strategie zabezpieczających kontrakt z wykorzystaniem opcji: spread byka (call) A oraz spread niedźwiedzia (put) B
321
W praktyce występują również strategie strangle (rozszerzonego, długiego stelaża) stanowiąca modyfikację straddle polegającą na wykorzystaniu opcji o różnych
cenach wykonania oraz strategia motyla, wykorzystująca różnice czasowe i różnice
cen wykonania opcji składowych równocześnie, których opisy można znaleźć w
opracowaniach dla inwestorów giełdowych373,374.
Działanie zabezpieczenia opcyjnego
Ważnym aspektem zabezpieczenia jest umiejętność wyznaczenia scenariuszy
dla każdego rodzaju zabezpieczenia, które w danym przypadku można zastosować. W rozdziale dotyczącym symulacji (str. 381) przedstawiono analizę what if,
która ma szczególne zastosowanie w działaniach zabezpieczających. Najważniejsze
jest obliczenie wartości opcji oraz prognozy cenowej w zależności od przyjętej strategii. Trudno jest to wykonać bez użycia wspomagania komputerowego. W Internecie występują serwisy, udostępniające odpowiednie narzędzia wykonane w programie Excel oraz Visual Basic375. Godną polecenia jest książka „Zaawanowane modele finansowe w Excelu”376. Wykorzystanie wzoru Blacka-Scholesa oraz symulacji
Monte Carlo zostało zaprezentowane w rozdziale 6.8.
Przykład 4.8 Strategia Bull spread call w akcji
Dane do przykładu zaczerpnięto ze strony Bossa.pl 377. Mamy strategię opartą na dwóch
opcjach call o nazwach LC (zakupiona) oraz LS (wystawiona) na aktywo bazowe o wartości
kontraktowej 2 591 zł, przy następujących parametrach:
S1 kurs wykonania opcji LC Long call (kupionej) = 2 400 zł
S2 kurs wykonania opcji LS Short call (wystawionej) = 2 900 zł
P1 premia zapłacona od opcji LC (kurs opcji Premium bought) = 258,50 zł
P2 premia otrzymana od opcji LS (kurs opcji Premium sold) = 34,00 zł
F Wartość instrumentu bazowego = 2 591 zł
U Kurs rozliczeniowy instrumentu bazowego (Underlaying) = zmienna
Zmienność cenowa (volatility) = 26,6%
Stopa procentowa = 6,5%
Czas do wygaśnięcia opcji = 71 dni
Obliczenia dla zysku P
P = S2 - S1 + P2 – P1 = 275,50 dla U > 2900 (dla U > S2)
P = U – S1 + P2 – P1 dla S2 >U> S1 (zmienne w przedziale [S1,S2])
P = P1 – P2 = -224,50 dla U < 2 400 (strata maksymalna) (dla U < S1)
Zysk maksymalny i strata maksymalna
Pmax = S2 - S1 + P2 – P1 = 275,50 zł
Bossa.pl, „Leksykon strategii opcyjnych”, http://bossa.pl/edukacja/opcje/strategie/
Pokonać Rynek, „Encyklopedia rynków”, http://pokonac-rynek.pl/edukacja/encyklopedia-rynkow/
375
McPhee P., “Option Pricing Spreadsheet” https://www.optiontradingtips.com/pricing/free-spreadsheet.html
376
Jackson M., i wsp., „Zaawansowane…” op. cit., CD do rozdziału 10, 11, 12 (arkusze w Excelu)
377
Okuniewski Ł., „Poziomy spread byka - Horizontal Bull Spread”, Bossa.pl
http://bossa.pl/edukacja/opcje/strategie/ograniczonego_ryzyka/bull/
373
374
322
Lmax = |P1 – P2| = 224,50 zł
Próg rentowności PR
PR = S1 + P1 – P2 = 2 624,50 zł (wynik neutralny)
W powyższym przykładzie zabezpieczono za maksymalnie 224,50 zł spadek
ceny aktywa poniżej 2 400 zł. Ale gdy cena rozliczeniowa wzrośnie do 2700 zł uda
się nam zarobić na wzroście ceny, ale maksymalnie ten zarobek wyniesie 275,50 zł
(11%). Oznacza to tylko tyle, że przy dużej awersji do ryzyka zabezpieczenie według przyjętej strategii będzie efektywne (ale nie pozwoli zarobić jeżeli cena aktywa
bazowego wzrośnie znacznie powyżej 2900). Dla menedżera o pozytywnym nastawieniu do ryzyka nie będzie to strategią satysfakcjonującą ( rozdział 4.3.2, str. 222).
Dlatego kryterium Hurwicza378, traktujące parametrycznie kwestie akceptacji ryzyka w podejmowaniu decyzji, zwłaszcza w grach przeciwko naturze, powinno być
wskazaniem dla konstrukcji strategii hedgingowej.
Parametry greckie
O ile w kontraktach terminowych mamy dwa parametry wpływające na zmienność ceny, to opcje mają aż sześć wymiarów zmienności (w dodatku są one relacyjne
z pozostałymi). Dlatego do praktyki hedgingu i inwestowania na giełdzie w instrumenty pochodne, wprowadzono dodatkowe zmienne analityczne nazywane greckimi literami, wskazujące na trendy zmienności wartości opcji379.
Delta – odpowiada za zmiany ceny opcji w zależności od zmian cen instrumentu
bazowego. Dla opcji call jest zawsze dodatnia, dla opcji put zawsze ujemna (rys. 6.9).
Delta zmienia się w czasie trwania opcji. Im bliżej terminu wygaśnięcia opcji ITM(
rozdział 6.8.1), tym będzie ona bliżej 100% (call) oraz -100% (put), a w przypadku
opcji OTM będzie bliżej zera.
Gamma - mierzy poziom zmiany Delta w zależności od ceny instrumentu bazowego. Zarówno parametr Delta jak i Gamma nie są stałymi. Jakakolwiek zmiana
któregokolwiek z sześciu czynników wpływających na cenę opcji powoduje trudne
do interpretacji zmiany obu wskaźników. Wskaźnik Gamma jest najwyższy dla opcji ATM. Oznacza to, że przy przejściach opcji ITM w OTM wystąpi maksimum
gamma. Jednocześnie należy zaznaczyć, że gamma jest identyczny dla opcji typu
call oraz put.
Rho – określa zmiany wartości opcji na zmiany stopy procentowej wolnej od ryzyka
przy danym rozkładzie gęstości prawdopodobieństwa.
Theta - opisuje zmiany wartości w modelu teoretycznym opcji wobec wraz z upływem czasu. Każda opcja ma datę wykonania/wygaśnięcia (expiration date). Theta
określa spadek wartości opcji w jednostce czasu.
Jagodziński J., „Rozszerzone kryterium Hurwicza podejmowania decyzji w procesach logistycznych”, Zeszyty Naukowe Wyższej Szkoły Bankowej we Wrocławiu, vol. 41 nr 3, (2014), s. 197-214.
379
Marczak K., “"Greeks" czyli opcyjna greka”, Bossa.pl http://bossa.pl/edukacja/opcje/kurs/greeks/
378
323
Vega – stanowi wskaźnik zmiany ceny opcji powiązany ze zmiennością ceny instrumentu bazowego. Jest to zmiana ceny opcji, przy wzroście ceny instrumentu bazowego o jeden procent. Zależy od zmienności ceny opcji (volatility) oraz innych czynników i nigdy nie jest stała. Wskaźnik vega różni się dla opcji ITM, ATM i OTM
przy tych samych parametrach.
Z punktu widzenia inwestora analiza wskaźników greckich dla opcji odpowiada za poziom ryzyka ponoszonego w zarządzaniu zabezpieczeniami. To w zasadzie wyczerpuje prezentację zagadnień dotyczących hedgingu. Każdy menedżer
powinien sobie zdawać sprawę z istnienia instrumentów finansowych i sposobu ich
wykorzystywania. Bardziej szczegółowe informacje znajdują się w bogatej literaturze dostępnej online, a dodatkowo w serwisach wspomagających inwestowanie na
giełdach. Szczególnie przydatne jest zainstalowanie sobie oprogramowania umożliwiającego analizy zachowań instrumentów finansowych. Wówczas zagadnienia
teoretyczne są możliwe do praktycznej realizacji.
4.8 Wybrane kwestie zarządzania logistyką
Z faktu, że zostało wyprodukowane jakieś dobro nie wynika, że stanowi ono
wartość. Dopiero gdy konsument w otoczeniu wymieni je na jakiś równoważnik
wartości, będzie można uznać, że osiągnięto cel działalności biznesowej. Będzie to
możliwe jeżeli dane dobro zostanie dostarczone fizycznie od producenta do konsumenta i nastąpi zmiana własności. To jest główny cel logistyki: dokonać transferu
dobra od producenta do konsumenta (pokonać lukę czasowo przestrzenną) w najbardziej pewny i optymalny sposób.
Analizując strukturę łańcucha wartości dowolnej organizacji (rys. 2.4) można
zauważyć, że wśród procesów podstawowych kreowania wartości znajdują się dwa
elementy: logistyka wewnętrzna oraz logistyka zewnętrzna. Jest to w pełni uzasadnione, albowiem logistyka wewnętrzna ma za zadanie zapewnić zdolność produkcyjną poprzez dostarczenie zasobów, materiałów, surowców i mediów transportowych w wewnętrznych procesach wytwórczych organizacji. Natomiast logistyka
zewnętrzna ma za zadanie skrócić dystans pomiędzy organizacją i konsumentem
dla produktów. Obie logistyki różnią się między sobą, tym niemniej wspólną ich
cechą jest optymalizacja transportu, przekazu informacji oraz transferu pieniędzy.
Logistykę od strony zarządzania musimy traktować w trzech kategoriach:
 modeli koncepcyjnych zarządzania logistyką,
 modeli rzeczywistych realizacji zadań logistycznych,
 reprezentacji formalnych procesów logistycznych.
Warto przy tym mieć na względzie, że:
 nie istnieje jeden, uniwersalny model organizacji logistyki, satysfakcjonujący
wszystkich interesariuszy i nadający się do wszystkich organizacji,
324
 nie istnieje jeden, uniwersalny sposób uzyskania optymalnego wyniku w zarządzaniu systemem logistycznym,
 nie istnieje jeden, uniwersalny opis formalny systemu logistycznego.
Ale zawsze istnieje wymierna funkcja celu działań logistycznych oraz metoda pomiaru rezultatu. Dlatego konieczne jest tworzenie przez logistykę strategii taktycznych wpisujących się w mapę procesów i wizję organizacji.
Niezależnie od powyższych stwierdzeń, logistyka obejmuje całość zagadnień
inżynierskich oraz biznesowych, związanych z fizycznym funkcjonowaniem łańcuchów dostaw. Ta część wiedzy jest znamienna dla dziedziny logistyka, transport,
magazynowanie i nie będzie omawiana w niniejszej monografii. W kolejnych rozdziałach omówię część projektowania systemów logistycznych, wynikających z teorii optymalizacji i dotychczas poznanych modeli koncepcyjnych w biznesie.
4.8.1 Optymalizacja logistyczna
Logistyka wywodzi się bezpośrednio z prakseologii i ogólnych zasad działania
systemów. Działania logistyczne mają za zadanie skrócenie dystansu pomiędzy dobrem a konsumentem, co wiąże się z optymalizacjami w zakresie całej rozmaitości
procesów na szlaku producent konsument. Uogólnieniem optymalizacji logistycznej jest zestrojenie łańcucha dostaw danej organizacji (rys. 2.5) z jej procesami zdefiniowanymi przez łańcuch wartości (rys. 2.4).
Logistyka stanowi zbiór problemów, decyzyjnych i w celu ich rozwiązania, posługuje się metodami wsparcia informacyjnego (ilościowego i jakościowego). W
szczególności stara się odpowiadać na poniższe pytania.
 Ile wyprodukować i w jakim czasie?
 Jak zorganizować czas pracy?
 Jak dostarczyć?
 Jak zakupić?
 Czy przekazać zadania do 3PL?
 Jak zorganizować łańcuch dostaw?
 Jak wykorzystać zasoby?
Każda z odpowiedzi na powyższe pytanie jest rozwiązaniem niezależnego problemu logistycznego, który wymaga złożonych działań. W procesach optymalizacyjnych posługujemy się kilkoma fundamentalnymi zasadami: zasada minimum
działania, zasada minimum kosztów, zasada maksimum efektywności. To pozwala
budować systemy logistyczne zoptymalizowane tak, jak to ma miejsce w teorii gier.
Zasada 7W logistyki
Na rys. 4.24 przedstawiona została zasada 7W logistyki. Ten model optymalizacji jest na tyle oczywistym, komentarz wydaje się być zbytecznym. Warto jedynie
nadmienić, że wszystkie elementy 7W podlegają optymalizacji niezależnie.
325
Rys. 4.24 Zasada optymalizacji 7W logistyki
Wąż logistyczny (rurociąg logistyczny)
Przyjmijmy teraz, że na procesy logistyczne składają się następujące elementy,
tworzące ciąg logiczny :
 zakupy materiałów, towarów, surowców (łańcuch dostaw od),
 składowanie na wejściu dla procesów generowania wartości (gospodarka magazynowa),
 działalność produkcyjna lub usługowa (optymalizacje zasobowe),
 składowanie wytworzonych produktów na wyjściu (magazyny sprzedaży),
 dystrybucja do klienta (łańcuch dostaw do).
Wówczas istnieje możliwość niedopasowania poszczególnych elementów tego
ciągu pod względem wydajności lub efektywności (rys. 4.25). Tworzą się wąskie
gardła lub obszary nadmiarów zasobów, które nie są wykorzystane. Optymalizacja
prowadzi do uzyskania równomiernych przepływów funkcjonalności zasobów w
całym ciągu procesów. Jak to zrobić praktycznie - jest zadaniem inżynierii logistycznej. Jedno jest pewne – logistyka należy do zagadnień wymiernych zarządzania.
Tym samym istnieją modele ilościowe optymalizacji oraz metody pomiarowe,
umożliwiające oceny aksjologiczne.
326
Rys. 4.25 Model optymalizacji “rurociągu logistycznego”
Zagadnienia równowagi logistycznej
W większości zagadnień optymalizacyjnych logistyki wielkość optymalizowana zależy od dwóch, wzajemnie przeciwnych zmiennych, co powoduje, że istnieje taka wartość zmiennej niezależnej, dla której obie zmienne zależne są sobie
równe. Wówczas możemy mieć do czynienia z lokalnym ekstremum optymalizacyjnym (rys. 4.30). Najczęstszym przypadkiem jest analiza kosztów dla dwóch
skrajnych modeli logistycznych, zależnych od dwóch zmiennych.
Można przytoczyć pewne przykłady działań logistycznych, gdzie optymalizacja kosztów dotyczy znalezienia punktu równowagowego dla dwóch, przeciwstawnych zmiennych. Jeżeli próbujemy oszczędzić na:
 transporcie, musimy liczyć się ze zwiększeniem kosztów magazynowania,
 transporcie, musimy liczyć się z wydłużeniem czasu realizacji zamówień,
 opakowaniach, musimy liczyć się z uszkodzeniami w transporcie,
 zakupach, musimy zwiększyć koszty zapasów,
 obsłudze, musimy zwiększyć liczbę magazynów,
 zapasach, musimy zwiększyć efektywność procesów produkcji
 zapasach, musimy zwiększyć koszty transportu.
Powyższa lista nie wyczerpuje zagadnienia. Ogólnie wszystkie wymienione sytuacje można przedstawić graficznie, jak na rys. 4.26. Zadaniem zarządzania jest znalezienia takich punktów równowagowych.
327
Rys. 4.26 W ykres kosztów dla dwóch zmiennych logistycznych
4.8.2 Zagadnienie magazynowe
Jest to ważny model optymalizacyjny, dotyczący zapytania: jak należy planować stan magazynu, żeby osiągnąć najwyższą rotacyjność? Pytanie to stanowi uogólnienie problemu gazeciarza na wiele zmiennych, a jednocześnie umożliwia ustalenie kryterium syntetycznego dla stanu optymalnego (np. maksymalna wartość
zapasu w kredycie). Z obserwacji wielu firm wynika, że ok. 20% najbardziej rotujących towarów przynosi ok. 80% całkowitej rotacyjności magazynu. A to oznacza, że
nad strukturą pozostałych 80% asortymentu warto się zastanowić, bo blokują rotacyjność kapitału. To właśnie stanowi fundament optymalizacji wielowymiarowej,
stanowiącej zagadnienie magazynowe.
Przykład 4.9 Prognozowanie rotacyjności magazynu metodą średniej kroczącej
W sieci magazynowej dealerów pewnej marki samochodów ustalono algorytm zamawiania części z magazynu centralnego. Na podstawie kilkuletniej obserwacji obrotów magazynów części zamiennych o wartości zapasu powyżej 1 mln zł stwierdzono, że stany zapasu części powinny być analizowane w okresie 6 miesięcy w podziale na przedziały tygodniowe (rozchody pomniejszone o zwroty). Przyjęto, że rozchody estymowane na kolejny
tydzień lub dwa, powinny być przybliżane metodą średniej kroczącej (z pewnymi modyfikacjami, specyficznymi dla marki i wielkości koncesji, których nie będę tutaj omawiać). Algorytm pozwala ustalić zoptymalizowany zapas magazynowy złożony z ok. 3 tys. pozycji
rotujących w półrocznym okresie, na kolejny miesiąc pracy koncesji.
328
W powyższym przypadku, zmienna losowa określająca popyt na części zamienne dla każdej pozycji magazynowej jest ustalana metodą średniej kroczącej na
podstawie danych z przeszłości oraz teraźniejszych. Jest to przybliżenie, które
sprawdzono eksperymentalnie, osiągając zadowalającą dokładność w planowaniu
zapasu magazynowego. Ale nawet w przypadku tak określonego algorytmu nie
można stwierdzić ze 100% pewnością, że w kolejnym tygodniu rozchody z magazynu będą dokładnie takie, jak system sugeruje. Jednakże margines niepewności
został zredukowany na tyle, żeby planowany tym sposobem stan magazynu uznać
za optymalny.
Istnieją różne podejścia do planowania zapasu magazynowego, zwłaszcza w
systemach produkcji just-in-time. Stanowi to fundament zagadnień logistyki, która
stanowi ważną dziedzinę nauk o zarządzaniu. Wykorzystuje się w tym celu zintegrowane systemy IT wspomagające zarządzanie magazynami, zwłaszcza te, klasy
MRP oraz ERP. Warto zdawać sobie sprawę z faktu, że w przypadku produkcji
zgodnej z normami ISO, występuje konieczność ustalenia w dowolnej chwili zarówno partii produktu, jak i źródła pochodzenia każdej części w produkcie finalnym. Wyobraźmy sobie w tym momencie samochód jako zbiór części poskładanych. Potrzeba dobrego systemu wspomagającego zarządzanie, żeby nie tylko zaplanować przychody i rozchody, ale również identyfikację dostawcy w relacji do
partii produktu lub półproduktu. A to nie są jeszcze wszystkie problemy związane
z zarządzaniem magazynami. Może być ich wiele sprzężonych w system logistyczny i wówczas rozliczenie ilościowo-wartościowe potrafi się mocno skomplikować380.
Zagadnienie gazeciarza
Jest to najprostsza wersja zagadnienia magazynowego, gdzie konieczne jest dokonanie prognozy rynkowej i powiązanie z nią optymalnego zapasu magazynowego. Jest to równocześnie najprostszy przykład optymalizacji nieliniowej.
Przykład 4.10 Klasyczne zagadnienie gazeciarza
Gazeciarz musi powziąć decyzję ile ma zakupić gazet po cenie C1, które następnie
sprzeda w cenie C2. Gazety, które sprzeda w ilości n przyniosą zysk Z = n∙(C2 – C1). Jeżeli
zamówi zbyt mało n < nopt (rynek może wchłonąć więcej gazet), nie osiągnie maksymalnego
zysku Zopt. Jeżeli zamówi za dużo, to nie sprzeda wszystkich gazet, a te, które mu pozostaną
przyniosą stratę s = k∙C1, pomniejszając zysk, co również uniemożliwia osiągnięcie maksymalnego zysku Zopt. W ten sposób postawiono zagadnienie optymalizacji ilości zamawianych gazet, w którym kluczowym elementem staje się rozkład krzywej prawdopodobieństwa popytu (dystrybuanta zmiennej losowej). Może to wymagać podejścia eksperymentalnego, albowiem zmienna może nie być ciągła i będzie wymagała aproksymacji.
380
Gospodarek T., „Systemy ERP…”, str. 100
329
Istnieje kilka wariantów zagadnienia gazeciarza (np. model ze zwracaniem niesprzedanej części po cenie C3 < C1 ) w zależności od typów rozkładów krzywej popytu. Istnieje również kilka rozwiązań, np. metoda macierzy dochodów, metoda
rekurencyjna oraz metoda analityczna. Są to zagadnienia fundamentalne badań
operacyjnych. Tym niemniej na poziomie podstaw zarządzania należy zdawać sobie sprawę z wagi prognozowania popytu oraz planowania zakupów ze względu
na wynik ekonomiczny działalności.
W przypadku, gdy dystrybuanta zmiennej losowej jest wyrażeniem analitycznym, problem gazeciarza ma rozwiązanie dokładne. W praktyce, rozkład zmiennej
losowej nie zawsze jest znany, więc jest estymowany (dystrybuanta i parametry
rozkładu są ustalane eksperymentalnie lub przyjmowane a priori). Wówczas rezultat jest przybliżeniem, ale często bardzo dobrym. W Internecie można znaleźć dokładne rozwiązania dla różnych przypadków381. Nie będą one omawiane dokładnie.
Należy zdać sobie sprawę, że każdy magazyn posiada wiele pozycji, z których
każda może być rozpatrywana za pomocą modelu gazeciarza. To powoduje, że istnieje możliwość ustalenia optymalnego stanu magazynowego jako sumy prostej
wyników rozwiązania dla wszystkich pozycji. Dlatego zagadnienie gazeciarza jest
tak użytecznym modelem, mającym zastosowanie praktyczne na poziomie zarządzania operacyjnego.
Rozwiązania problemu
Istnieją trzy zasadnicze metody rozwiązania problemu gazeciarza: macierz dochodów, metoda rekurencyjna oraz metoda analityczna. We wszystkich trzech
przypadkach potrzebna jest znajomość rozkładu prawdopodobieństwa popytu.
Najprostszym rozkładem jest stały popyt np. 10 szt., który pojawił się 9 razy w ciągu
30 dni. Możemy wówczas przyjąć, że prawdopodobieństwo popytu na 10 sztuk wynosi 9/30, czyli 0,3. Popyt może podlegać rozkładowi normalnemu, rozkładowi Poissona (dwumianowemu), Levy’ego lub być zupełnie stochastycznym. Dla każdego
z tych rozkładów rozwiązanie problemu gazeciarza będzie mieć inną postać. Niezależnie od przyjętego rozkładu prawdopodobieństwa, konieczne jest wyliczenie
dystrybuanty tego rozkładu F(x), czyli funkcji, która mówi, jakie jest prawdopodobieństwo, że popyt wyniesie nie więcej niż x (może być mniej). Żeby to obliczyć
sumujemy prawdopodobieństwo wystąpienia danego popytu i każdego, mniejszego od niego. Dla rozkładów ciągłych jest to pole pod krzywą rozkładu prawdopodobieństwa w przedziale (, X].
Macierz dochodów. Tworzymy tablicę, w której wiersze dotyczą możliwych wartości naszej podaży, a kolumny możliwe wartości popytu. Niech „Z” będzie sprzedażą gazeciarza z dochodem „d” ze sprzedaży jednej gazety, kupionej po cenie „c”.
Mamy teraz dwie możliwości:
381
Wikipedia, „Newsvendor model”, https://en.wikipedia.org/wiki/Newsvendor_model
330
 popyt jest nie mniejszy od oferowanej (zakupionej) ilości gazet – wtedy gazeciarz
sprzeda wszystkie gazety, osiągając dochód równy dZ (iloczyn dochodu d z jednej gazety i liczby sprzedanych gazet Z).
 popyt jest mniejszy niż oferowana liczba gazet – wtedy gazeciarz sprzeda tylko
tyle sztuk ile wynosi popyt (czyli X), a przychód ze sprzedaży d∙X ≤ d∙Z. Niesprzedana nadwyżka s = Z – X przyniesie stratę, c∙(Z - X). Dochód całkowity dla
tego przypadku wynosi zatem, d∙X – c∙(Z – X)).
Wypełniamy następnie macierz dochodów i sumujemy wartości wierszy oraz
kolumn, a następnie obliczamy sumę sum. Jest to wynik najbardziej prawdopodobny, obliczony niezależnie od rozkładu prawdopodobieństwa.
Metoda rekurencyjna
Jeżeli znamy oczekiwany dochód dla podaży na poziomie Z-1, to możemy obliczyć go dla wartości popytu o jeden większej.
(4.15)
D(Z) = D(Z-1) + d – (d+c)∙F(Z-1)
A zatem dochód dla popytu X obliczamy jako dochód dla popytu o jeden mniejszego powiększony o dochód jednostkowy d pomniejszony o iloczyn dystrybuanty
rozkładu prawdopodobieństwa dla popytu X – 1 i sumy dochodu jednostkowego
oraz ceny zakupu. Wystarczy zatem znać wartość dla najmniejszej możliwej ilości
sprzedaży (pierwszy wiersz w macierzy dochodów) i można wówczas niemal w
pamięci wyliczyć dochód dla kolejnych ilości sprzedanych.
Wzór analityczny
Optymalną jest taka ilość podaży Zopt, dla której pomiędzy wartością dystrybuanty F(Zopt) oraz tej dla podaży o jeden mniejszej F(Zopt – 1)] zawarta jest wielkość
F(X) = d/(d+s). A zatem najpierw szukamy wartości wyrażenia F(X), a następnie
dwóch dystrybuant sąsiednich, pomiędzy którymi będzie ona zawarta. Następnie
z tabeli rozkładu prawdopodobieństwa popytu odczytujemy liczbę stanowiącą
wartość popytu X.
Metoda analityczna jest najszybszym sposobem znalezienia optymalnej wartości podaży. Może być ona z powodzeniem wykorzystywana do planowania zapasu
magazynowego, wspomaganego komputerowo.
4.8.3 Magazyn jako obiekt logiczny
W logistyce wewnętrznej organizacji występują różnorodne magazyny, których zadaniem jest ułatwienie rozrachunków księgowych oraz ułatwienie procesów biznesowych. Z punktu widzenia reprezentacji formalnej, magazyn w strukturze zarządzania organizacją jest obiektem logicznym, miejscem w którym generowane są dokumenty przychodu i rozchodu rzeczy podlegających ewidencji. Niezależnie od tego jest to obiekt fizycznie realizujący procesy logistyczne. Różnorodność
modeli biznesowych i sposobów realizacji procesów kreowania wartości pozwala
domniemywać, że może istnieć cały szereg typów magazynów, w których rejestro-
331
wane są dokumenty przychodu lub rozchodu, wnoszące do rachunkowości logiczne podziały danych kosztowych lub operacyjnych. Na ogół dla realizacji złożonego procesu produkcyjnego wymagany jest układ współdziałających ze sobą magazynów.
Przykład 4.11 Układ magazynów dla realizacji złożonego procesu produkcji
Na rys. 4.27 przedstawiony został układ logiczny magazynów w firmie produkcyjnej,
który umożliwia precyzyjne rozliczenie ruchu materiałów, surowców oraz wyrobów. Zakładamy, że każdy magazyn jest emitentem dokumentów przychodu (PZ – przyjęcie zewnętrzne, MM+ przesunięcie międzymagazynowe przyjęcie, PR+ protokół różnic superata)
oraz rozchodu (WZ – wydanie zewnętrzne, RW – rozchód wewnętrzny, MM- przesunięcie
międzymagazynowe wydanie, PR- protokół różnić ubytek). Tym samym jest on w stanie
ustalić stan zapasu magazynowego w dowolnym momencie na podstawie dokumentów
wyemitowanych w danym okresie w danym magazynie. To jest jedna z najistotniejszych
właściwości systemu magazynowego, umożliwiająca traktowanie go jako pomocniczej
księgi rachunkowości. Uzgodnienie zapasu w każdym z magazynów układu z księgą
główną systemu rachunkowości jest kluczowym zadaniem w obrocie towarowym i materiałowym.
Rys. 4.27 Przykładowy układ logiczny magazynów w produkcji 382
382
Gospodarek T., “Systemy ERP…”, str. 130
332
Magazyny tworzone są również ze względu na złożoność przepisów podatkowych lub procedur kontroli jakości. Dlatego wyróżnia się magazyny: opakowań
zwrotnych, kaucjonowanych (palety, beczki, …) oraz te, które podlegają szczególnej ewidencji ze względu na rozliczenia podatku VAT. Istnieją magazyny będące
składami podatkowymi, gdzie prowadzone są szczegółowe rozliczenia podatku akcyzowego oraz podatku VAT w sposób różny od typowego (składy celne). Wyróżnia się również magazyny, w których dokonuje się rozliczeń post factum produkcji
na podstawie receptur i kompletacji oraz magazyny, gdzie prowadzona jest ścisła
kontrola pozycjonowania obiektów magazynowanych i źródeł pochodzenia materiałów do produkcji ze względu na procedury kontroli jakości. W wielu przypadkach prowadzone są również magazyny pomocnicze BHP lub narzędzi w celach
rozrachunków z tytułu płac oraz praw wynikających z różnych, często dziwnych
przepisów prawa.
Powyższe wskazuje na konieczność synchronizacji struktury rachunkowości i
procesów biznesowych z układem logicznym magazynów. Jest to ważny element
zarządzania i optymalizacji struktury organizacji, którego fizyczną realizacją są
procesy logistyczne. Dobrze poukładany system magazynowy pozwala na wdrożenie zintegrowanych systemów IT, które w sposób automatyczny pozwalają rozliczać skomplikowane procesy.
Magazyny w sprzedaży
Teoretycznie może to być jeden magazyn zajmujący się sprzedażą wszystkiego,
co w organizacji jest do sprzedania. Powstaje jednak problem natury organizacyjnej
i rozliczeniowej. Czy sprzedajemy towary pełnowartościowe i niepełnowartościowe w jednym miejscu? Czy towary do dalszej odsprzedaży z działalności hurtowej lub detalicznej powinny być sprzedawane łącznie z własnymi produktami?
Takich pytań można postawić znacznie więcej. Odpowiedzi jednoznacznych nie
można udzielić, bo zależy to od wielkości firmy, organizacji jej rachunkowości oraz
struktury procesów logistycznych. Jeżeli do tego dodamy specyfikę procesów
sprzedaży w zależności od asortymentu (inaczej sprzedaje się paliwa, inaczej cement luzem, a jeszcze inaczej lekarstwa czy podzespoły elektroniczne). Poza tym
większe organizacje mają zwykle oddziały zamiejscowe, co wiąże się z tworzeniem
magazynów lokalnych.
Magazyny sprzedaży mogą funkcjonować w trzech wariantach procesowych:
 najpierw klient ustala w magazynie co zostanie kupione i na podstawie wygenerowanego dokumentu WZ, dział sprzedaży wystawia dokument sprzedaży
(klient zawsze wie, że to co zakupił jest na stanie magazynu w odpowiedniej
ilości i jakości),
 klient w dziale sprzedaży ustala co zostanie kupione i na podstawie dokumentu sprzedaży magazyn generuje dokument WZ (klient nie ma pewności, że
333
towar w magazynie będzie dostępny, ale nie musi mieć kontaktu z magazynem),
 klient składa zamówienie za pomocą dowolnego kanału dostępu do działu
sprzedaży, gdzie dokonywana jest kompletacja dostawy i uruchamiane są procesy transakcyjne (dział sprzedaży pozostaje w niepewności dostępności asortymentu).
Niezależnie od powyższych wariantów, możemy mieć do czynienia z przekwalifikowaniami wyrobów na niepełnowartościowe. Korzystnym jest wówczas
przeniesienie takich towarów do magazynu wyrobów niepełnowartościowych,
gdzie można wykonywać ruchy wydań i przyjęć do serwisu w celu usprawnienia
go i dopiero wówczas dokonania sprzedaży. To wiąże się również z innym sposobem liczenia kosztów sprzedaży, które muszą uwzględnić prace naprawcze i obciążyć produkcję fakturą wewnętrzną.
Bardzo często zdarza się, że sprzedaż polega na kompletacji zestawu lub przygotowaniu produktu według określonej receptury. Wówczas tworzy się pomocnicze magazyny kompletacyjne, w których funkcjonują procedury pobierania detali
zestawów dokumentami rozchodowymi RW i tworzenia kompletów, które są
przyjmowane jako nowa pozycja magazynowa PZ.
Przykład 4.12 Układ magazynów sprzedaży dla samochodów
Sprzedaż samochodu nowego i samochodu używanego. W obu przypadkach konieczne jest stworzenie dwóch niezależnych magazynów i dodatkowo magazynu części zamiennych, stanowiących źródło uzupełniające podzespołów do kompletacji. Dokumenty
sprzedaży różnią się w sposób istotny pomiędzy magazynami (rozliczenia VAT i akcyzy w
przypadku samochodów nowych i sprzedaży samochodu używanego). Jeżeli dodane zostaną sposoby sprzedaży buy back oraz dodatkowe beneficja typu opcje realne, to rozróżnienie między magazynami sprzedaży samochodów nowych, używanych oraz części zamiennych jest w pełni uzasadnione.
W podobny sposób można analizować układy magazynów dla produkcji. Parę
słów komentarza wymaga również kwestia magazynu zakupów. Jest bardzo użytecznym rozwiązaniem zastosowanie jednego, centralnego magazynu zakupów w
sensie logicznym (fizycznie nie ma to znaczenia). Wówczas wszelkie zakupy scentralizowane są dokumentacyjnie w jednym miejscu, skąd dokumentami przesunięć
magazynowych przenoszone są do miejsc docelowych zamówień dostawy. Z
punktu widzenia kontrolingu i sprawozdań finansowych jest to duże ułatwienie w
agregowaniu danych w księdze głównej i bazach raportowych.
Zagadnienia gospodarki magazynowej stanowią oddzielną grupę zagadnień
zarządzania operacyjnego. Szczególne znaczenie mają one w projektowaniu systemów IT wspomagających zarządzanie. Zainteresowanych odsyłam do mojej książki
na temat systemów ERP.
334
4.8.4 Kolejkowanie
Kolejką nazywamy liniową strukturę czynności procesu, w której kolejne czynności dopisywane są na końcu kolejki, a wykonywane są te z początku kolejki (metoda FIFO – First-in-First-out pierwsze przyszło pierwsze wyszło). Przeciwieństwem funkcjonowania kolejki jest stos, gdzie obowiązuje zasada LIFO (Last-inFirst-out, ostatnie przyszło pierwsze wyszło). W logistyce metody kolejkowania stanowią bardzo istotny element funkcjonalności systemów magazynowych, transakcyjnych, transportowych. Szczególne zastosowania kolejkowania dotyczą przesyłów pakietów informacyjnych w sieciach LAN/WAN oraz w algorytmach wykonywania aplikacji komputerowych. W sieciach telefonicznych, help desk i call center,
sprawność dostępu do źródłowych informacji jest kluczowym elementem. Dotyczy
to również średniego czasu oczekiwania w kolejce, co dla zarządzania dostępem
ma pierwszorzędne znaczenie.
Kolejka do pojedynczego kanału dostępu
W większości sytuacji kolejka powstaje stochastycznie i nie jesteśmy w stanie
przewidzieć kiedy kolejni klienci przybędą. Czasami na linii produkcyjnej zdarzy
się zacięcie i wówczas powstaje zator, który musi został rozładowany w jak najbardziej efektywny sposób. Najprostszym modelem kolejkowym jest powstawanie kolejki do budki z jedzeniem rys. 4.28.
Rys. 4.28 Model systemu kolejkowego z dostępem jednokanałowym
Do opisania ilościowego używamy rozkładu Poissona.
(4.16)
P( x ) 
x exp(  )
x!
gdzie:
x = 0,1,2,... jest liczbą przychodzących klientów
 = jest średnią szybkością przybywania klientów w jednostce czasu
Wartości exp(-) należy obliczyć na kalkulatorze lub arkuszu kalkulacyjnym.
Załóżmy, że w ciągu godziny naszą budkę odwiedza 15 osób. Korzystając ze wzoru
335
(4.16) możemy obliczyć prawdopodobieństwo przybycia 5, 10, 20 osób w ciągu godziny. (lub innej jednostki czasu, np. kwadransa).
Po drugiej stronie zagadnienia znajduje się efektywność obsługi klienta. Można
założyć, że czas obsługi klienta jest stały i wówczas łatwo jest ustalić liczbę osób
pozostających w kolejce (taki model obowiązuje w sterowaniu światłami na skrzyżowaniu). W przypadku sprzedaży standardowej stosuje się model eksponencjalnego zaniku. Jeżeli w jednostce czasu serwis jest w stanie obsłużyć  zleceń (szybkość obsługi), to prawdopodobieństwo, że klient zostanie obsłużony w czasie t dane
jest wzorem:
(4.17)
P(  t )  1  exp( t )
gdzie  jest czasem obsługi jednego klienta.
Połączenie zagadnienia powstawania kolejki oraz sprawności obsługi klienta prowadzi w pewnym momencie do stanu równowagi kolejki, gdzie liczba przychodzących jest równa liczbie obsłużonych w jednostce czasu. Łącząc ze sobą wzory 4.16 i
4.17, można odpowiedzieć na kilka kwestii.
Ponieważ prawdopodobieństwo, że klient będzie musiał poczekać w kolejce
wynosi /, to prawdopodobieństwo, że nikogo nie ma w systemie wynosi:
(4.18)
P(0)  1   / 
Średnia liczba osób pozostających w kolejce XQ
(4.19)
2
XQ 
(   )
Średni czas, który klient spędzi w kolejce TQ
(4.20)
TQ 

(   )
Równania (4.18) - (4.20) opisują model projektowania systemów kolejkowych
w dowolnym zagadnieniu logistycznym. Oczywistym jest, że model ten można rozbudowywać, dodając więcej centrów obsługi klienta – model wielokanałowy.
Innym kierunkiem analitycznym dla systemów kolejkowych jest założenie, że
czas obsługi klienta jest stochastycznym (np. naprawa samochodu). Wówczas dla
obliczenia prawdopodobieństwa opuszczenia systemu przez klienta musimy stosować rozkład normalny. Wyrażenia (4.18) - (4.20) ulegają w tym wypadku istotnej
modyfikacji, aczkolwiek dane wyjściowe oraz główna idea ich powstawania są
identyczne, jak w modelu z rozkładem ekiponencjalnym.
Przykład 4.13 Parametry modelu kolejkowego w Excel u
Mamy system kolejkowy, w którym średnia liczba przychodzących w ciągu godziny
wynosi 30. Średni czas obsługi jednego klienta wynosi 1 minuta. Zakładając, że przybywanie klienta można opisać za pomocą rozkładu Poissona, a czas obsługi podlega rozkładowi
eksponencjalnemu wyznaczyć parametry takiego systemu kolejkowego. Tym samym  =
30/60 (0,5); a  = 1. Wykorzystamy arkusz kalkulacyjny, w którym do komórek:
B7 wpisujemy =B4/60 a do B8 wpisujemy =1/B5
336
B10 wpisujemy =JEŻELI(B8>B7;1-B7/B8;"Szybkość obsługi jest za mała")
B11 wpisujemy =JEŻELI(B8>B7;B7^2/(B8*(B8-B7));"0")
B12 wpisujemy =JEŻELI(B8>B7;B11+B7/B8;"0")
B13 wpisujemy =JEŻELI(B8>B7;B11/B7;"0")
B14 wpisujemy =JEŻELI(B8>B7;B13+1/B8;"0")
B15 wpisujemy =JEŻELI(B8>B7;B7/B8;"Złe parametry na wejściu")
W wyniku obliczeń otrzymamy informacje zaprezentowane na rys. 4.29.
Rys. 4.29 W yniki obliczeń dla systemu kolejkowego z przykładu 4. 13
Analizując powyższe dane można zauważyć, że prawdopodobieństwo stania
w kolejce 1 minutę jest prawdopodobne w 50% nawet przy średnim czasie dochodzenia klienta do systemu co 2 minuty. Jeżeli model będzie bardziej złożony, a czas
załatwienia sprawy dany będzie jako zmienna losowa (np. rejestracja samochodu
w wydziale komunikacji), to rezultaty mogą być całkiem zaskakujące.
Dostęp wielokanałowy
Model zakłada, że klient z kolejki dochodzi do pierwszego, wolnego okienka
obsługi. Tak, jak w modelu jednokanałowym, szybkość dochodzenia klientów wynosi , natomiast szybkość obsługi w każdym z k dostępnych kanałów wynosi .
W tym przypadku wyrażenia (4.18) - (4.20) zmieniają się do postaci:
(4.21)
 k 1 ( /  ) n ( /  ) k
P(0)  

k!
 i 0 n!
 k 


 k   
1
Średnia liczba osób pozostających w kolejce XQ
(4.22)
XQ 
( /  ) k 
P(0)
(k  1)!(k   ) 2
Średni czas pobytu w kolejce klienta TQ
337
(4.23)
TQ 
XQ

Tego typu rozwiązania są realizowane praktycznie w systemach rejestracji klienta
w dużym oddziale banku, urzędzie, przychodni lekarskiej, itp.
Aspekt ekonomiczny systemu kolejkowego
Nie zawsze likwidacja kolejki musi być ekonomicznie uzasadniona, albowiem
wiąże się to z inwestycjami oraz kosztami, które mogą być większe niż potencjalna
strata z tytułu nieobsłużenia klienta w określonym czasie. Przykładowa analiza
kosztów związanych z funkcjonowanie systemu kolejkowego została przedstawiona na rys. 4.30. Istnieje zakres optymalizacji wydajności systemu, ale to optimum wynika z równowagi kosztów pochodnych jego funkcjonowania i kosztów
obsługi. Warto zwrócić uwagę, że w ciągu 24 godzin pracy poczty, urzędu czy też
restauracji, istnieją godziny szczytu oraz godziny normalne, kiedy nie ma zbyt
wielu interesantów.
Koszty ponoszone na poprawienie funkcjonalności systemu obciążają po
równo całość czasu jego działania, ale przynoszą efekty jedynie w szczycie. Czasami
nie warto ich ponosić. To jest dylemat do rozwiązania przez menedżera – wybór
optymalnego kompromisu pomiędzy kosztem zasobów redukujących kolejki, a
efektywnością obsługi klienta.
Rys. 4.30 Koszt całkowity w systemie kolejkowym
338
4.8.5 Problem transportowy
Problem ten związany jest z dystrybucją towaru w sieci złożonej z kilku producentów mających siedzibę w różnych miejscach i centrów dystrybucyjnych w
kilku innych lokalizacjach, obsługujących obszary o różnym poziomie popytu. Takie sieci są standardem logistycznym (np. dystrybucja towarów mleczarskich, olejów silnikowych, paliw płynnych, nawozów mineralnych, pasz…). Problem zawsze
dotyczy minimalizacji kosztów transportu przy maksymalnym poziomie zaspokojenia popytu. Optymalizacja może również dotyczyć zapasu magazynowego oraz
najkrótszej drogi dostaw.
Ogólnie problem transportowy daje się szczególnie dobrze opisać za pomocą
modelu programowania liniowego (rozdział 5.3.1), gdzie funkcją celu podlegającą
optymalizacji jest koszt transportu, rotacyjność towaru w sieci albo najkrótsza
droga przy zadanych warunkach brzegowych.
Przykład 4.14 Logistyka dystrybucji nawozów
Mamy trzech producentów
nawozów A, B i C położonych w
miejscowościach X, Y, Z o zdolności produkcji odpowiednio 5000,
6000 i 2500 ton miesięcznie. Nawozy są dystrybuowane przez
cztery centra P, Q, R, S mające siedzibę w miejscowościach K,M,N,L
o przewidywanym zapotrzebowaniu kwa-rtalnym: 6000, 4000, 2000
oraz 1500 ton. Każdy producent
może przesyłać towar do każdego
centrum dystrybucji (łącznie 12
możliwych połączeń), przy czym
koszty jednostkowe transportu są
różne AP(3), AQ(2), AR(7), AS(6),
BP(7), BQ(5), BR(2), BS(3), CP(2),
CQ(5), CR(4), CS(5). Sytuację zilustrowano na rys. 4.31.
Rys. 4.31 Dane dla przykładu 4.10
Wprowadzamy zmienne modelu
optymalizacji. Są to ilości transportowane z miejsca pochodzenia i do
miejsca przeznaczenia j, oznaczane
jako:
Xij (i = 1,2,3; j=1,2,3,4)
339
Rys. 4.32 Rozwiązanie problemu z przykładu 4.7 za pomocą programu Open Office
Koszty transportu z fabryki A, B oraz C można wyrazić następująco:
3X11+2X12+7X13+6X14 (fabryka A)
7X21+5X22+2X23+3X24 (fabryka B)
2X31+5X32+4X33+5X34 (fabryka C)
Suma powyższych wyrażeń stanowi naszą funkcję celu, którą mamy zminimalizować. Ale
na rozwiązanie musimy nałożyć ograniczenia po stronie wielkości produkcji:
X11+X12+X13+X14 ≤ 5000 dla (A)
X21+X22+X23+X24 ≤ 6000 dla (B)
X31+X32+X33+X34 ≤ 2500 dla (C)
oraz ograniczenia po stronie popytowej (centra logistyczne):
X11+X21+X31 = 6000
340
X12+X22+X32 = 4000
X13+X23+X33 = 2000
X14+X24+X34 = 1500
Dodatkowo interesują nas wyłącznie rozwiązania dodatnie
 i,j Xij  0
Mamy zatem 7 równań dotyczących liczebności przesyłanych dla 7 węzłów i po jednym ograniczeniu dla każdego z nich. Mamy 12 połączeń , dla których musimy wykonać
obliczenia, zakładając dodatkowo, że wszystkie zmienne Xij są dodatnio określone (nadmiar
zmiennych). Odrzucamy najdroższe połączenia i próbujemy rozwiązań układ tak, żeby sumaryczne dostawy były równe sumarycznemu popytowi dla maksimum 7 zmiennych. Rozwiązując układ równań liniowych otrzymujemy łączny koszt minimalny = 39 500 przy następujących ilościach transportowanych: AP = 3500; AQ = 1500; BQ = 2500; BR = 2000; BS =
1500; CP = 2500.
Powyższy przykład pokazuje, jak za pomocą programowania liniowego
można rozwiązywać pewne kwestie logistyczne. Zaprezentowany model jest uniwersalny na tyle, że za pomocą niewielkich modyfikacji można wykonać znacznie
bardziej złożone projekty logistyczne. Na rys. 4.32 zaprezentowany został sposób
rozwiązania problemu transportowego za pomocą Excela.
4.8.6 Zagadnienie komiwojażera (Zadanie chińskiego listonosza)
Zadanie chińskiego listonosza postawił chiński matematyk Mei-Ku Kwan. Polega ono na tym, żeby listonosz, który ma doręczyć listy, przeszedł jak najkrótszą
łączną drogę i powrócił do punktu wyjścia, przechodząc przez każdą z ulic na swojej drodze. Warunkiem optymalności jest, żeby listonosz nie przechodził po kilka
razy przez zbyt wiele ulic (rys. 4.33).
Rys. 4.33 Ilustracja problemu chińskiego listonosza w ujęciu grafów Eulera
Problem ten daje się przedstawić w języku grafów z wagami383. Graf odpowiada sieci ulic. Waga każdej krawędzi odpowiada długości odpowiadającej jej
Pearn W.L., Chou J.B., “Improved solutions for the Chinese postman problem on mixed networks.” Computers & Operations Research. 26 (8), 1999, s. 819-827
383
341
ulicy. Należy znaleźć taką trasę zamkniętą, dla której całkowita waga jest minimalna i gdzie każda krawędź występuje co najmniej jeden raz. Jeżeli graf jest typu
eulerowskiego, to każdy cykl przejścia jest trasą zamkniętą. Jeżeli nie, to wówczas
zadanie staje ię znacznie trudniejsze.
Istnieje kilka algorytmów umożliwiających rozwiązanie problemu, np. algorytm Fleury’ego. W naszym przypadku można zauważyć, że wierzchołki B i E są
jedynymi stopni nieparzystych (wychodzą z nich po trzy linie), to ścieżka
BCDE jest grafem półeulerowskim o łącznej wadze 7+5+6=18 (da się ją przejść
bez powtórzeń). Pozostaje dodać EFAEDABDB (łącznie 56). W
wyniku otrzymamy 18 + 56 = 74.
Pokazane zagadnienie jest szczególnym przypadkiem problemu najkrótszej
drogi, którego przykładem jest problem komiwojażera. Komiwojażer wyjeżdża z
miasta A i przejeżdża przez pewien zbiór miast, a na końcu wraca do miasta, z którego wyjechał. Im szybciej, taniej i krócej pokona tą drogę, tym lepiej. Zagadnienie
polega na znalezieniu najkrótszego cyklu objechania wszystkich miast dokładnie
jeden raz. Rozwiązanie takiego problemu jest możliwe metodą programowania dynamicznego384, wykorzystując zasadę optymalności Bellmana, którą w odniesieniu
do problemu komiwojażera można sformułować następująco: jeżeli jakiś węzeł leży
na optymalnej drodze, to najkrótsza droga od tego węzła do końcowego jest elementem drogi
optymalnej. Zasade Bellmana w odniesieniu do procesów Markowa omawiana była
w rozdziale 3.2.4.
Problem transportowy wraz z zagadnieniem komiwojażera kończą w zasadzie
teoretyczne modele obiektywnej optymalizacji w transporcie (tej która nie wynika
z rozwiązań technologicznych oraz metodycznych). Nie poruszam kwestii sieci z
węzłami pośredniczącymi (transshipment) ponieważ wykracza to poza ramy niniejszej monografii. Zainteresowanych odsyłam do książki Andersona i wsp385.
4.8.7 Strategie logistyczne
Analizując model 7W logistyki (rys. 4.24) oraz model funkcjonowania łańcuchów dostaw (rys. 2.5), można zaproponować kilka czystych strategii logistycznych
(minimalizujących i maksymalizujących funkcje celu). Przykładami mogą być te,
przedstawione w tabeli 16.
Tabela 16 Przykłady strategii logistycznych
minimum
Kosztów
Czasu
Strategia logistyczna oparta na
maksimum
Dopasowania do wymogów klienta
Użyteczności zasobów
Józefowska J., “Modele i narzędzia optymalizacji w systemach informatycznych zarządzania”,
http://www.cs.put.poznan.pl/jjozefowska/wyklady/opt/DYNA.pdf
385
Anderson i wsp. „Management…”., rozdział 6.3 – 6.4
384
342
Zasobów
Błędów operacyjnych
Bezpieczeństwa i niezawodności
Jakości
W praktyce poszukiwanie optimum polega na użyciu strategii mieszanych, takich że definiując efektywność logistyczną systemu można znaleźć co najmniej
dwie zmienne przeciwstawne, dla których możliwe jest zbudowanie funkcji celu
posiadającej ekstremum (rys. 4.26). Projektując strategię logistyczną należy posłużyć się modelami działania całej organizacji i mapą jej procesów, uwzględniając w
szczególności strukturę łańcucha dostaw, strategie marketingowe i politykę rachunkowości. Zostało to szeroko opisane wcześniej.
Strategia logistyczna stanowi część integralną strategii całej organizacji, a
zwłaszcza „białej księgi organizacji”. Wraz z innymi strategiami równoległymi i politykami definiuje w sposób formalny kluczowe aspekty efektywności i użyteczności dla łańcucha wartości. Musi ona wpisywać się w misję i wizję organizacji (rys.
2.3 i rys. 3.10). Jej zadaniem jest przede wszystkim rozbudowanie mapy procesów
o czynności związane z przepływami fizycznymi materiałów, zasobów, produktów
i finansów oraz ustalenie kwantyfikatorów efektywności ogółu procesów wytworzenia i udostępnienia produktu klientom. Należy pamiętać, że to nie strategia logistyczna dominuje strategię organizacji, ale jest w niej zawarta.
Przykład 4.15 Strategiczne działania w firmie Apple
Kiedy 25 sierpnia 2011 r. schorowany Steve Jobs oddał fotel prezesa Timowi Cookowi,
akcje firmy Apple kosztowały poniżej 350$. Teraz ich kurs wynosi około 700$, a giełdowa
wartość firmy to nieco ponad 600 mld dolarów (więcej niż wynosi PKB Polski za rok 2016).
Cook dał się wcześniej poznać w Apple, jako świetny logistyk, dlatego nakazano mu przede
wszystkim usprawnienie produkcji. Pod jego kierownictwem firma zaczęła przenosić produkcję do Chin (strategia korporacyjna obniżenia kosztów i skrócenia czasu dostępu do
dóbr).
T. Cookowi nie wystarczały jednak proste oszczędności, uzyskane dzięki tańszej sile
roboczej. Miał ambicję zredukowania zapasów surowcowych – będących dla niego synonim
zamrożonej gotówki i skorzystania z japońskich metod produkcji just in time. Tyle, że im
mniej znajduje się towaru w magazynach, tym trudniej dostarczyć go na czas do klienta.
Cookowi udało się jednak niemożliwe – zmniejszył zapasy i jednocześnie skrócił czas dostaw z fabryk do sklepów z 31 do zaledwie sześciu dni.
Wykonanie strategii logistycznej najlepiej jest przeprowadzić zgodnie z procedurą macierzy logicznej LFA ( rozdział 6.7), odpowiednio modyfikując macierz do
potrzeb struktury dokumentu.
Definicja i zakres strategii logistycznych
Próba dokładniejszego zdefiniowania zagadnienia sprowadza się do pytania:
czym zatem jest strategia logistyczna? Tu odpowiedź składa się z czterech aspektów.
Strategia logistyczna jest:
343

wiedzą przyszłą o procesach logistycznych i pozostających z nimi w relacji procesach biznesowych podmiotu po czasie prognozy,
 zbiorem uporządkowanym logicznie programów, projektów logistycznych,
funkcji celu, informacji, wskaźników produktu, rezultatu i oddziaływania,
 projektem transformacji podmiotu realizującego procesy logistyczne ze stanu
A do pewnego stanu B według przyjętego schematu logicznego działań,
 projektem optymalizacji stanu podmiotu według założonej funkcji celu przez
procesy logistyczne.
Kierunkami strategicznymi logistyki są:
 orientacja na zmiany podmiotowe – (usieciowanie, wejście w struktury łańcuchów dostaw, zmiany relacji w kierunku 3PL),
 orientacja na optymalizacje – (usprawnienie procesów logistycznych i poprawa
efektywności działania podmiotu).
 orientacja na wirtualizację – (wdrożenie procesów wirtualizacji biznesu i e-logistyki).
 orientacja na operacjonalizację – (wdrożenie automatyzacji i systemów samosterujących dla istniejących procesów logistycznych).
Jednym z ważniejszych aspektów definiowania strategii logistycznej jest ustalenie
jej bilansu otwarcia. Składa się na niego:
 opis procesów biznesowych organizacji w kontekście zapotrzebowania na
usługi logistyczne. Miernikiem może być wskaźnik pożądalności,
 opis zasobów własnych i pozyskiwanych z zewnątrz,
 znalezienie luk jakościowych w realizacji procesów biznesowych (luka pokrycia potrzeb w zakresie procesów dostaw i transferów oraz zasobów),
 określenie luk ilościowych w zakresie usług logistycznych i zasobów dla realizacji procesów (wskaźnik nasycenia),
 opis lokalnego łańcucha dostaw, zawierającego własny system logistyczny,
 ustalenie wskaźników kosztowo-efektywnościowych dla systemu logistycznego i dokonanie pomiaru integralnego:
 koszty ogółem i na proces,
 wskaźnik efektywności rynkowej,
 wskaźnik bezpieczeństwa i terminowości realizacji,
 inne wskaźniki (poziom zadowolenia klienta, etc.)
Poziomy realizacji strategii logistycznych
Strategia logistyczna może dotyczyć dwóch stanów: przemiany lub optymalizacji
i może być rozpatrywana na pięciu poziomach kontekstowych. Przemiany wymagają jakichkolwiek zmian strukturalnych w istniejącej organizacji lub jej otoczeniu,
a co najmniej zmian workflow, podczas gdy optymalizacja wiąże się ze zmianami
344
parametrów lub cech istniejącej struktury lub dodatkowymi jej działaniami, poprawiającymi użyteczność. Charakterystykę strategii logistycznych przedstawiono w
tabeli 17 –poniżej.
Tabela 17 Charakterystyka działań strategicznych logistyki
Poziom
Procesu
Przemiany
Strategia
Optymalizacji

W przypadku procesów kluczowych
dotyczy decyzji o
outsourcingu lub o
istotnych
zmianach zasobów oraz
technologii
procesu.
Związana jest z automatyzacją, informatyzacją,
zmianami proceduralnymi lub kontrolnymi procesu.
Wiąże się ze zmianami funkcjonalnymi działu w tym
reorganizacjami
struktury oraz procesów ale nie likwidacją lub powstaniem.
Dotyczy obniżenia
kosztów wydziałowych, wprowadzenia nowych procedur lub rozwiązań
automatyki i technologicznych, ale
bez zmian strukturalnych.



Działu
Organizacji (SBU)
Korporacji
Globalny
Wiąże się z likwidacją lub utworzeniem procesów, likwidacją lub utworzeniem działu, restrukturyzacją, outsourcingiem, usieciowieniem
lub
łańcuchem dostaw.
Reorganizacja łańcucha dostaw, globalizacja
logistyczna,
zmiany
koncepcji
logistycznej na poziomie
korporacyjnym (np. JIT).
Zmiana w teorii logistyki i kulturze
biznesowej na poziomie krajowym
Dotyczy
redukcji
kosztów, reorganizacji wewnętrznej,
reorganizacji relacji
w łańcuchu dostaw,
zmian adaptatywnych.






Reorganizacja
na
poziomie SBU, obniżenie kosztów i
poprawa wskaźników systemowych.
Optymalizacja metod
zarządzania
ukierunkowanych






Przykłady
Logistyka załadunku i wyładunku
(outsourcing, zmiana zasobów,
zmiana technologii, monitoring).
Logistyka reklamacji door2door; outsourcing, wymiana online, optymalizacja procedur.
Logistyka dostaw (zmiana technologii, zmiana relacji, outsourcing,
zmiana procedur).
Logistyka magazynu części. (Utworzenie nowego magazynu, wprowadzenie automatycznej inwentaryzacji, wdrożenie systemu IT w dziale).
Logistyka działu produkcji (Zmiana
asortymentu, Reorganizacja struktury dostaw, Outsourcing).
Logistyka działu usług (Zmiana
procedur, Zmiana technologii na
sieciową, Zmiana obiegu informacji).
Wejście organizacji do sieci lub łańcucha dostaw (np. DAF, Chata Polska…)
Otwarcie nowego działu lakierniczego (ASO, produkcja AGD)
Likwidacja działu transportu (Outsourcing, 3PL…)
Outsourcing dystrybucyjny (Raben
Logistic, ZOTT Polska)
Centralizacja zakupów i dystrybucji
( Peugeot Polska,…)
Specjalizacja usług w korporacji
(KGHM, PKP, Sygnity…)
Sieci kooperacyjne (PSA = Peugeot +
Citroen; Renault + Nissan…)
Metody Lean Management
System produkcji Toyoty Just-inTime
System dystrybucji nowych produktów Apple
345
lub międzynarodowym
na efektywność, jakość i pozycję rynkową.
Planując wdrożenie którejś z koncepcji, należy mieć na uwadze horyzont czasowy strategii logistycznych. Poziom procesu - strategie operacyjne ad hoc. Na poziomie SBU strategie logistyczne taktyczne. Poziom korporacji - strategiczne.
4.9 Kontroling
Jednym z najważniejszych aspektów zarządzania jest kontrolowanie. Przede
wszystkim realizacji celów. W ślad za tym każdy menedżer chce uzyskać informacje
bardziej szczegółowe o przyczynach sukcesu lub porażki projektu, czy też całej organizacji. I tak kontrola zstępuje na niższe poziomy zarządzania. A że informacje
muszą być spójne, to powstaje konieczność syntezy danych od szczegółu do ogółu
(globalnych wskaźników), a analizy raportów, od ogółu do szczegółu. To jest z
grubsza cała idea kontrolingu.
Pozostaje zatem zastanowić się nad definicją modelu kontrolingu organizacji.
Najlepszym ujęciem będzie po raz kolejny podejście systemowe, co sprowadza się
do modelu generowania wartości opisanego na rys. 1.18. Funkcja kontrolna przypada wówczas pewnemu narzędziu, które stanowi urządzenie pomiarowe sprzężenia zwrotnego pomiędzy stanem wyjściowym, a stanem wejściowym, które różnią się czasem.
Kontrolingiem nazywamy układ pomiarowy umożliwiający zdefiniowanie i monitoring
stanu organizacji w czasie.
Układ pomiarowy musi składać się z podmiotu kontrolingu, miary, skali, kryteriów oceny rezultatu oraz urządzenia pomiarowego. Takim urządzeniem pomiarowym może być system ERP386. Idea pomiaru może być przedstawiona, jak na rys.
4.34
386
Gospodarek T., „Systemy ERP…”, str. 58
346
Rys. 4.34 Idea ujęcia systemowego kontrolingu z urządzeniem pomiarowym ERP
Jak widać na powyższym schemacie warunkiem koniecznym staje się zdefiniowanie kryteriów rezultatu, miary (definicja stanu podmiotu) oraz zbioru danych i
modeli ich syntezy w raporty cząstkowe o stanie (mierniki). W końcu konieczne jest
zbudowanie raportu syntetycznego, stanowiącego reprezentację formalną rezultatu. Raport ten, porównywany w czasie, stanowi istotę kontrolingu oraz wskazania dla zarządzających, które parametry należy zmienić w kolejnym cyklu pomiarowo-kontrolnym.
4.9.1 Metoda KPI (Key Performance Indicators)
Zbiór finansowych i niefinansowych, kluczowych wskaźników efektywności
dla organizacji (Key Performance Indicators) określa stopień realizacji celów organizacji. Dla każdego wskaźnika można zbudować kryterium optymalności (zakres
dopuszczalnych wartości). Można również budować z wybranych wskaźników
kryteria integralne, oraz benchmarkingowe rezultatu (rozdział 5.1).
KPI jest ważnym narzędziem kontrolingu, ponieważ umożliwia zbudowanie
spójnego kryterium oceny zmian położenia ekonomicznego. Wskaźniki modelu
KPI koncentrują się na tych aspektach funkcjonowania organizacji, które są najbardziej krytyczne dla obecnego i przyszłego jej sukcesu. Najczęściej nie są czymś nowym w organizacji, ponieważ są już obliczane przez systemy księgowe, sprzedaży,
majątku trwałego, ale nie znalazły wcześniej uznania u zarządzających albo były
obliczane w rozproszeniu. Stąd główną ideą systemu kontrolingu w odniesieniu do
modelu KPI jest ustalenie zbioru kluczowych wskaźników efektywności jako stałej
347
miary optymalizacji (nie zmieniającej się co do struktury w czasie). D. Parmenter
podzielił kluczowe wskaźniki na dwie zasadnicze grupy387:
 Rezultatu – obliczane na podstawie różnych danych wejściowych do systemu
kontrolingu z więcej niż jednego centrum zysków/kosztów. Mierniki te są przydatne w ocenach wyników pracy struktury (np. całego SBU, wydziału, etc.), ale
nie pomagają zarządzającym rozwiązać problemu źródeł wewnętrznych osiągniętego rezultatu. Trudno jest bowiem ustalić, które elementy tej struktury są
odpowiedzialne za osiągnięcie lub nieosiągnięci zakładanego wyniku zbiorczego.
 Efektywności - mogą być przypisane do zespołu lub klastra zespołów współpracujących dla wspólnego celu. Tym samym dobry lub zły wynik danego wskaźnika może mieć ustalonego adresata. Dlatego mierniki efektywności zapewniają
przejrzystość pomiarową i decyzyjną. Nie są z kolei zbytnio użyteczne w zarządzaniu taktycznym i strategicznym. Mogą za to być monitorowane online przez
systemy ERP.
Wszystkie wskaźniki powinny podlegać kryteriom modelu SMART388 ustalania celów, co zapewnia mierzalność i interpretowalność danego indykatora. Nie da
się tego wykonać bez uprzedniego stworzenia modelu semantycznego (sposobu
wyliczania i zasilania danymi źródłowymi online) dla każdego wskaźnika.
Z obszernej analizy obejmujących większość typów organizacji (rozdział 2.1.2),
zarówno w sektorze publicznym, jak i prywatnym, zdefiniowano siedem grup analitycznych w skutecznie funkcjonujących zbiorach KPI.
1. Wskaźniki niefinansowe – te, które nie są mierzalne w jednostkach monetarnych (np. ilość wykonanych detali, liczba nowych klientów).
2. Zmienne w czasie – mierzone często np. dziennie albo tygodniowo (dane o
sprzedaży, dane o stanie magazynowym).
3. Istotne dla CEO – wskaźniki istotne dla zarządu oraz dyrektoriatu (położenie
finansowe, przepływy finansowe).
4. Proste – zrozumiałe dla każdego pracownika, wskazujące wprost działania naprawcze (liczba reklamacji, liczba godzin przestojów).
5. Grupowe – za które odpowiedzialność może być przypisana grupie lub strukturze (sprzedaż warsztatu, zużycie materiałów).
6. Istotnego wpływu – takie, które dotyczą więcej niże jednego centrum zysku lub
kosztów oraz więcej niż jednej strategicznej karty wyników (sprzedaż ogółem,
marża zrealizowana w okresie),
7. Ograniczniki słabości - zachęcają do podjęcia odpowiednich działań (zostały
wcześniej przetestowane, jako zapewniające pozytywny wpływ na wyniki).
D. Parmenter, „How to implement winning kpis in 16 weeks”, 2009, http://davidparmenter.com/files/howto-implement-winning-kpis-in-16-weeks-article.pdf
388
Gospodarek T., „Aspekty…”, str. 130
387
348
Ten układ kluczowych wskaźników efektywności musi zostać skonstruowany dla
każdej organizacji osobno. Podstawą i punktem wyjścia jest analiza łańcucha wartości, misja i cele stawiane przed organizacją. Zarządzający musi sobie odpowiedzieć na pytanie do czego dążymy i jak to będziemy kontrolować w czasie. Najlepiej
posiłkować się w tej kwestii doradcami, mającymi pojęcie o systemach ERP oraz
kontrolingu. Kluczowym ogniwem w takich działaniach jest główny księgowy lub
dyrektor finansowy. Te osoby mają całość obrazu organizacji od strony najbardziej
istotnych wskaźników i wyliczają je w ramach sporządzania bilansów oraz miesięcznych raportów. Wskaźniki finansowe są zazwyczaj głównymi elementami
zbioru KPI.
4.9.2 Aspekty finansowe kontrolingu
Jednym z najważniejszych aspektów zarządzania jest kontroling finansowy bez
którego trudno jest zapanować nad biznesem na każdym poziomie jego rozwoju.
Nawet jednoosobowa działalność gospodarcza musi panować nad płynnością finansową, albowiem łatwo jest przeinwestować i splajtować.
349
Przykład 4.16 Zaburzenie płynności finansowej
Wyobraźmy sobie, że w grudniu dokonano zakupów towarów po okazyjnej cenie i zapełniono magazyn po sam sufit. Wydano na to wszystkie wolne środki, a dodatkowo zadłużono się na pewną kwotę. Bilans wypada okazale, bo jest dużo towaru (nie ważne, że
wolnych środków pieniężnych brakuje). Rachunek wyników też wygląda dobrze, bo mamy
dodatnie saldo (na papierze tak, niestety fizycznie w postaci towaru). A tu urząd skarbowy
prosi o dokonanie zapłaty podatku dochodowego od tak dobrego wyniku – niestety pieniądzem, a nie jego surogatem. I jest problem, bo firma może go zapłacić dopiero po sprzedaży
towar, a fiskus płatności w naturze nie przyjmuje. Podobnież pracownicy, chcą otrzymać
pensję pieniądzem na czas, a nie w naturze. Tak właśnie można rozłożyć na przysłowiowe
łopatki nawet bardzo dobrą firmę.
Jak widać, ten prosty przykład 4.16 pokazuje, że przepływy finansowe zostały
zachwiane przez decyzję o nadmiernym zakupie na magazyn, w nadziei na szybką
sprzedaż. Nie zawsze jest to groźne, ale zawsze powoduje pewne perturbacje w
obszarze płynności finansowej. A co będzie jeżeli się nie sprzeda? Wówczas pojawia
się duży problem wymagający interwencyjnego poprawienia płynności finansowej
(np. przez zaciągnięcie niekorzystnych kredytów krótkoterminowych). Dlatego
dbałość o przepływy finansowe jest jednym z imperatywów przedsiębiorcy i menedżera. A monitoring sytuacji możliwy jest online za pomocą wskaźników kontrolingowych.
To jednak jest czubek góry lodowej. Najważniejszym aspektem kontrolingu w
większej firmie jest monitoring wskaźników finansowych i położenia ekonomicznego w czasie. Służą temu ustalone modele kontrolingowe, piramida Du Ponta389
oraz model Altmana, predykcji bankructwa organizacji (analiza dyskryminacyjna)390. Modele te definiują ciągi logiczne wskaźników cząstkowych, które można
wyliczyć na podstawie danych z bilansu i rachunku wyników organizacji ( załącznik nr 1 i 2 do ustawy o rachunkowości), a następnie przetworzyć syntetycznie.
Najbardziej syntetycznymi wskaźnikami dla zarządu są: ROS (wskaźnik zysku),
ROA (stopa zysku z aktywów), ROE(rentowność kapitałów własnych), EBITDA
(zysk przed opodatkowaniem, odliczeniem amortyzacji oraz odsetek). W Tabela 18
przedstawiony został układ wskaźników finansowych dla celów kontrolingu, dostępny przy pomocy prostych metod rachunkowych na podstawie danych źródłowych, pochodzących z tabeli bilansowej oraz rachunku zysków i strat, zdefiniowanych de iure w ustawie o rachunkowości391.
Gołębiowski G., Tłaczała A., „Analiza finansowa w teorii i w praktyce”, Warszawa: Difin, 2009, s. 237
Stabryła A., „Zarządzanie…”, op. cit.
391
Ustawa o Rachunkowości z dnia 9 listopada 2000 r (Dz. U. 00.113.1186 z dnia 18 grudnia 2000)
389
390
350
4.9.3 Aspekty procesowe
Kontroling dotyczy również optymalizacji struktury organizacji i jej efektywności działania. Model biznesowy, jak również odpowiadająca mu struktura powinny spełniać zasady ergonomii (rys. 1.4, str.), wynikające ze stosowania zasad
prakseologii. To przekłada się na następujące aspekty:
 Mapa procesów (kontrola efektywności procesów str. 97),
 Mapa relacji formalnych (przypisania zasobów do zadań i informacji),
 Mapa informacyjna (hierarchia przetwarzania danych źródłowych na raporty
syntetyczne i przekrojowe).
Na tej podstawie powstaje formalna reprezentacja organizacji biznesowej poprzez
odpowiednie dokumenty, wielkości mierzalne, wskaźniki i stąd definicja formalna
jej stanu. Tym samym, istnieje możliwość wyznaczenia wskaźników efektywności
zarówno operacyjnych, taktycznych, jak i strategicznych. Kontrola polega na ciągłym doskonaleniu reprezentatywności map do rzeczywistych procesów metodą
kolejnych przybliżeń (adaptatywną). W pewnym momencie osiągany jest poziom
dopasowania, tak jak minimum błędów w modelu 6σ ( str. 158) i dopiero zmiana
modelu biznesowego wymusza kolejne dopasowania.
351
Tabela 18 Układ wskaźników finansowych systemu kontrolingu.
Lp.
Nazwa wskaźnika
Metoda obliczania
Interpretacja wskaźnika
PODSTAWOWE WSKAŹNIKI FINANSOWE
1
Suma bilansowa (tys.zł)
2
Wynik finansowy brutto (tys.zł)
3
Wynik finansowy netto (tys.zł)
4
5
Przychody ze sprzedaży netto (tys.
zł)
Koszty działalności operacyjnej (tys.
zł)
6
EBITDA
7
EBIT
(pozycja z tabeli bilansowej)
Wartość aktywów = wartości pasywów
(pozycja z tabeli rachunku zysków i
strat)
(pozycja z tabeli rachunku zysków i
strat)
(pozycja z tabeli rachunku zysków i
strat)
(pozycja z tabeli rachunku zysków i
strat)
(pozycja z tabeli rachunku zysków i
strat)
Wartość obliczana z tabeli bilansowej (też jako pozycja sprawozdania F-01)
Wartość z tabeli bilansowej (również jako pozycja sprawozdań
F-01, F-02)
Suma wystawionych dokumentów sprzedaży pomniejszona o
korekty
Suma kosztów według rodzajów lub suma według miejsc powstawania
Zysk organizacji przed potrąceniem odsetek, podatków oraz
amortyzacji.
(pozycja z tabeli rachunku wyników) Zysk organizacji przed potrąceniem odsetek, podatków
WSKAŹNIKI RENTOWNOŚCI (ZYSKU)
8
Rentowność sprzedaży netto ROS
(w %)
9
Rentowność sprzedaży brutto (w %)
10
Rentowność majątku ROA (w %)
11
Skorygowana rentowność majątku
(w %)
(wynik finansowy netto * 100%) /
(przychody netto ze sprzedaży)
(Zysk ze sprzedaży x 100%) /
(przychody netto ze sprzedaży)
(zysk netto x 100%) /
(majątek ogółem (aktywa))
(zysk netto +odsetki płacone od
długu) /
(majątek ogółem (aktywa))
Informuje o tym jaki procent sprzedaży stanowi marża po odliczeniu wszystkich kosztów i zapłaceniu podatku. Tendencją korzystną jest wzrost wskaźnika w czasie albo w stosunku do prognozy.
Informuje o tym jaki procent stanowi marża ze sprzedaży w stosunku do całości przychodów. Tendencją korzystną jest wzrost
wskaźnika.
Informuje o efektywności wykorzystania majątku (zasobów)
firmy. Tendencją korzystną jest wzrost wskaźnika.
Informuje ile zł wyniku netto przyniosła 1 złotówka kapitału zaangażowanego w działalność firmy. Tendencją korzystną jest
wzrost wskaźnika.
352
12
Rentowność kapitałów własnych
ROE (w%)
13
Dźwignia finansowa (DFL)
(zysk netto x 100%) /
(kapitał własny)
Rentowność kapitału własnego pomniejszona o skorygowaną rentowność majątku
Stopa rentowności zainwestowanych kapitałów własnych w
działalność. Tendencją korzystną jest wzrost wskaźnika
Informuje jaką zmianę zysku netto wywoła zmiana zysku operacyjnego o określony procent. Jeżeli wartość DFL wynosi 1,5 to
gdy zysk operacyjny wzrośnie o 10%, wówczas zysk netto
wzrośnie o 15%.
WSKAŹNIKI WYKORZYSTANIA MAJĄTKU
(przychody netto ze sprzedaży)/
(stan należności krótkoterminowych)
(stan należności krótkoterminowych
x 365)/
(przychód ze sprzedaży)
(koszty działalności operacyjnej)/
(stan zapasów)
(przeciętny stan zapasów)x365/
(koszty działalności operacyjnej)
(koszty działalności operacyjnej)/
(stan zobowiązań krótkoterminowych)
(stan zobowiązań krótkoterminowych)x365/
(koszty działalności operacyjnej)
14
Obrót należnościami (w razach)
13
Cykl inkasa należności w dniach
14
Obrót zapasami(w razach)
15
Cykl obrotu zapasami w dniach
16
Spłata zobowiązań (w razach)
17
Spłata zobowiązań w dniach
18
Rotacja majątku (w razach)
(przychody netto ze sprzedaży)/
(stan majątku (aktywów))
19
Rotacja majątku trwałego (w razach)
(przychody netto ze sprzedaży)/
(stan aktywów trwałych)
Ilość cykli obrotu należnościami w ciągu okresu. Tendencją korzystną jest wzrost wskaźnika.
Informuje o średniej długości cyklu realizacji należności.
Tendencją korzystną jest spadek wskaźnika.
Ilość cykli obrotu zapasami w ciągu okresu. Tendencją korzystną jest wzrost wskaźnika.
Liczba dni potrzebna na jeden cykl obrotu zapasami. Tendencją
korzystną jest spadek wskaźnika.
Ilość cykli spłat zobowiązań w ciągu okresu. Tendencją korzystną jest wzrost wskaźnika.
Informuje o średniej długości cyklu zapłat zobowiązań należności. Tendencją korzystną jest spadek wskaźnika.
Informuje ile złotych przychodu ze sprzedaży przypada na 1
złotówkę. zaangażowaną w majątku firmy. Tendencją korzystną
jest wzrost wskaźnika.
Informuje ile złotych przychodu ze sprzedaży przypada na 1
złotówkę zaangażowaną w majątku trwałym firmy. Tendencją
korzystną jest wzrost.
WSKAŹNIKI WYKORZYSTANIA KAPITAŁÓW
353
(zobowiązania ogółem)/
(aktywa ogółem)
(zysk (strata) brutto + płacone odsetki)/
(płacone odsetki)
20
Wskaźnik zadłużenia ogólnego
21
Pokrycie odsetek zyskiem
22
Wskaźnik sfinansowania majątku
kapitałem własnym
(kapitał własny)/
(aktywa ogółem)
23
Wskaźnik zaangażowania kapitałów
własnych
24
Wskaźnik "złotej" reguły bilansowej
25
Trwałość struktury finansowania
(kapitał własny)/
(aktywa trwałe)
(kapitały stałe) /
(aktywa trwałe)
(kapitały stałe)/
(pasywa ogółem)
26
Wskaźnik unieruchomienia środków
(majątek trwały)/
(aktywa ogółem)
Informuje o stopniu zadłużenia (Im niższy wskaźnik, tym
mniejszy udział kapitałów obcych w finansowaniu majątku)
Zdolność do obsługi długoterminowych pożyczek. Wyższy
wskaźnik oznacza mniej uciążliwe terminowe regulowanie zobowiązań (opt. 4 – 5)
Stopień pokrycia majątku firmy kapitałami własnymi. Wskaźnik bliski 1 oznacza, że podstawy finansowe działalności są stabilniejsze (opt. 1).
Stopień pokrycia majątku trwałego firmy kapitałami własnymi.
(opt. > 1)
Stopień pokrycia majątku trwałego firmy kapitałami stałymi
(opt. > 1)
Udział kapitałów stałych w pasywach ogółem (im wyższy
wskaźnik, tym stabilniejsze finansowanie).
Udział środków zaangażowanych w aktywach na dłuższy
okres. Nadmierne zaangażowanie środków w majątek trwały
jest niekorzystne.
WSKAŹNIKI PŁYNNOŚCI STATYCZNEJ
27
Wskaźnik płynności bieżącej
(aktywa obrotowe)/
(zobowiązania krótkoterminowe)
28
Wskaźnik szybkiej płynności
(aktywa obrotowe – zapasy)/
(zobowiązania krótkoterminowe)
29
Wskaźnik płynności
(inwestycje krótkoterminowe)/
(zobowiązania krótkoterminowe)
Informuje o zdolności firmy do regulowania wymagalnych zobowiązań przy pomocy upłynnienia środkami obrotowych.
(opt. od 1,5 do 2,0).
Określa zdolność do szybkiego uregulowania wymagalnych zobowiązań pokrycie płynnymi środkami obrotowymi. (opt. nie mniejszy od
1).
Określa zdolność do natychmiastowego uregulowania wymagalnych zobowiązań - pokrycie środkami pieniężnymi. (opt. nie
mniejszy od 0,5).
WSKAŹNIKI PŁYNNOŚCI DYNAMICZNEJ
354
30
31
Wskaźnik zdolności generowania
środków pieniężnych netto z działalności operacyjnej
Wskaźnik udziału zysku netto w
przepływach z działalności operacyjnej
32
Wskaźnik pokrycia odsetek
33
Wskaźnik wydajności pieniężnej
sprzedaży
(przepływy pieniężne netto z działalności operacyjnej) + (wpływy z działalności inwestycyjnej i finansowej)
(zysk netto) x 100%/ (przepływy pieniężne netto z działalności operacyjnej)
(odsetki płacone)/(przepływy pieniężne netto z działalności operacyjnej)
(przepływy pieniężne netto z działalności operacyjnej)/(przychód ze
sprzedaży)
Określa zdolność jednostki do generowania nadwyżek pieniężnych z działalności operacyjnej. Tendencją korzystną jest wzrost
wskaźnika.
Określa udział zysku netto w przepływach z działalności operacyjnej. Tendencją korzystną jest wzrost wskaźnika.
Określa zdolność do regulowania odsetek z przepływów z działalności operacyjnej (opt. nie mniejszy od 1).
Określa ile środków pieniężnych z działalności operacyjnej jest
generowane przez jedną złotówkę sprzedaży. Tendencją korzystną jest wzrost wskaźnika.
WSKAŹNIKI DLA RYNKU KAPITAŁOWEGO
34
35
36
37
(zysk netto)/(liczbę emitowanych akZysk na jedną akcję (EPS)
cji)
Relacja ceny jednej akcji do zysku na (cena rynkowa jednej akcji)/
jedną akcję (P/E)
(zysk na jedną akcję)
(dywidenda na jedną akcję) /
Stopa dywidendy
(cena rynkowa jednej akcji)
(dywidenda na jedną akcję) /
Stopa wypłat dywidendy
(zysk na jedną akcję)
Wartość zysku netto przypadająca na jedną akcję.
Cena jaką trzeba zapłacić za jednostkę zysku przy kupnie akcji.
Skala korzyści akcjonariuszy w stosunku do ceny rynkowej akcji.
Skłonność jednostki do przeznaczenia zysku netto na wypłatę
dywidendy.
Uwaga!
Powyższy układ wskaźników może zostać rozszerzony o dowolne, inne przekroje.
Do bezpośredniego stosowania metody KPI należy wybrać najwyżej 10 najbardziej istotnych.
355
4.9.4 Aspekty struktury informacyjnej kontrolingu
W rozdziale 3.2 poruszony został aspekt czasowy zarządzania. Wynika zeń
analogiczny układ struktury kontrolingu. Żeby to lepiej zilustrować należy przeanalizować model przedstawiony na rys. 35.
Rys. 4.35 Układ struktury kontrolingu w organiza cji
W codziennej działalności mamy co czynienia z kontrolingiem operacyjnym. Na koniec każdego dnia działalności ustalane są raporty z wykonania
sprzedaży, stanu zapasów, stany magazynowe oraz stan gotówki w kasie i na
kontach. Wykonują to kierownicy działów. Równocześnie zakłada się plany,
harmonogramy, budżety i zadania na kolejny dzień.
Zagregowane dane dzienne, są konsolidowane następnie dla tworzenia raportów tygodniowych i miesięcznych. Na poziomie miesięcznym następuje
zawsze zamknięcie księgowe miesiąca i można wówczas wykonać szczegółowe
raporty i sprawozdania miesięczne, dotyczące procesów oraz działów/wydziałów. To pozwala na stworzenie informacji porównawczych z poprzednimi miesiącami i ustalenia planów na kolejne miesiące. Ten poziom kontrolingu można
nazwać kontrolingiem taktycznym. W tym momencie obliczanie wskaźników
KPI jest ograniczone do badania efektywności procesowej i finansowej. Pozwala
na tworzenie obrazu formalnego efektywności organizacji w oparciu o dane
pewne (zaksięgowane i zamknięte w danym miesiącu), stanowiąc bazę dla raportów ekonomicznych.
Z chwilą, gdy mamy już dane kwartalne, istnieje sens wyliczania wskaźników kontrolingowych o charakterze integralnym. Wówczas tworzone są sprawozdania kontrolingowe392 o charakterze ekonomicznym, których zadaniem jest
ukazanie potencjalnych kierunków zmian taktycznych w łańcuchu wartości organizacji. Tak postępują m. innymi sieci koncesyjne sprzedaży samochodów,
tworząc bardzo rozbudowane sprawozdania kwartalne, np. Mercedes (raport
GBMS), sieć PSA (raport REFECO), sieć Ford (raport BMI), etc. Raporty te można
porównywać pomiędzy podmiotami sieci w różnych krajach, uzyskując dane
ekonomiczne o zasadności prowadzenia biznesu. Ten etap kontrolingu ustala
prawidłowość działania łańcucha wartości organizacji (rys. 2.4). Ewentualne
zmiany taktyczne w działaniach jego elementów wynikają z danych kontrolnych
raportów skonsolidowanych na poziomie ekonomicznym.
Rys. 4.38 Strategiczna karta wyników – koncepcja.
Na końcowym etapie kontrolingu mamy do czynienia z kontrolingiem strategicznym. Dotyczy on na ogół okresów rocznych i bazuje na kwartalnych raportach ekonomicznych uzupełnionych o sprawozdania finansowe roczne, rachunek zysków i strat oraz bilans. Na tej podstawie tworzone są prognozy i korygowane cele. Dzieje się to w cyklu realizacji strategii, z chwilą otrzymania danych porównawczych (rys. 3.11). Ten rodzaj kontrolingu nazywamy strategicz-
392
Gospodarek T., „Systemy ERP…”, str. 172-191
357
nym. Podstawowym narzędziem jest w tym przypadku strategiczna karta wyników Kaplana i Nortona (rys. 4.38)393. Zaprojektowanie takiej karty jest elementem monitoringu strategii. Stąd kontroling strategiczny w praktyce, bazuje na
właśnie tak zdefiniowanej mierze. Strategiczna karta wyników może być automatycznie generowana przez dobrze wdrożony system ERP. Jednak jej struktura
musi zostać wcześniej ustalona (jakie dane będą brane pod uwagę i skąd je pozyskać), a dane wynikowe muszą być uzyskane w pierwszym podejściu ręcznie
i potwierdzone księgowo (uzgodnienie z zapisami źródłowymi w rachunkowości). Zawsze należy mieć na uwadze, że informacja syntetyczna na poziomie kontrolingowym nie jest anonimowa i musi istnieć możliwość uzyskania danych
źródłowych, z których powstała oraz sposobu obliczania jej wartości (zasada od
ogółu do szczegółu przetwarzania danych).
393
Kaplan R., Norton S., op. cit.,
358
5 Pomiar i ocena w zarządzaniu.
Oddzielny rozdział należy poświęcić pomiarowi w zarządzaniu. Ci, którzy
wierzą, że menedżer nie musi posługiwać się pomiarem lub eksperymentem,
tworzą jedynie literaturę piękną zarządzania. Oni po prostu wierzą i czują, tak
jak to się sugeruje w koncepcji cynefin (rys. 3.1). Rzetelną wiedzę tworzą jednak
ci, którzy coś mierzą, porównują, szacują, klasyfikują. Najlepiej ujął to R. Feynman „Nie ma żadnego znaczenia, jak piękna jest twoja teoria. Nie ma to znaczenia jak
jesteś mądry. Jeśli hipotezy nie potwierdza eksperyment, jest ona nieprawdziwa”. A z
tym w teorii zarządzania jest nie najlepiej. Wynika to z faktu, że eksperyment
ekonomiczny nie jest możliwy do powtórzenia, ze względu na niemożliwość odwrócenia w czasie zmian, które w zachodzą w otoczeniu. Formułowanie uogólnień na miarę teorii Maxwella, czy też równowagi Pareto w teorii gier, w obrębie
teorii zarządzania nie jest zasadne, a nawet nie jest możliwe394. Prawdziwe są za
to wyniki pomiarów ilości produkcji i sprzedaży, oszacowania kosztów zużycia
materiałów, energii oraz ilości godzin pracy włożonej w powstanie dzieła. A zatem miara jest tym, czym musi operować menedżer. Najlepiej świadczą o tym
japońskie systemy produkcyjne, które doprowadziły niemal do doskonałości pomiar efektywności (rozdział 3.3.3).
Zmierzyć można praktycznie wszystko, nawet wielkości niematematyczne.
Problemem jest jednak interpretacja otrzymanego wyniku. W tym miejscu dotykamy pragmatyzmu interpretacyjnego, gdzie oprócz miary, musimy dysponować kryterium uznania wyniku za pozytywny lub negatywny (kryterium aksjologiczne - oceniające). Dodatkowo dla poprawności wnioskowania wymagane
jest wyrażenie ilościowe siły ekspresji cech (aksjometria)395, np. jakości, nasycenia
kolorem, piękna formy. To wymaga definiowania sposobu pomiaru, skali oraz
miary. Nie jest to zagadnienie łatwe, albowiem wymaga najczęściej stosowania
funkcji wielu zmiennych i często ważniejszym jest oszacowanie maksymalnego
błędu pomiaru, niż podanie dokładnej wartości. W dodatku, stosując metody
ilościowe, zawsze borykamy się z problemem skończonej liczby zmiennych,
które stosujemy do opisania rzeczywistości. Traktujemy te pozostałe, jako nieistotne (mający znikomy wpływ na wynik), co może okazać się założeniem błędnym. Problem ten nazywamy ceteris paribus. Jest to kompromis, który przyjmujemy, albowiem dostępne nam metody matematyczne i numeryczne nie pozwalają na stosowanie modeli absolutnie pewnych w układach rzeczywistych. Nie
oznacza to, że każdy pomiar w naukach społecznych jest błędny lub zły. Po prostu trzeba mieć świadomość ograniczeń.
394
395
Gospodarek T., „Aspekty złożoności…”, str. 199
Hartman, R. S., op. cit.
359
5.1 Miara
Rozważania na temat miary należy zaproponować jej definicję. Najlepszą
wydaje się być definicja oparta na opisie przekształcenia wzajemnie jednoznacznego mierzonej cechy na liczbę (lub zbiór liczb).
Df: Miarą nazywamy uporządkowaną trójkę liczb [Emp, Num, M], gdzie:
 Emp jest rzeczywistym obiektem mierzalnym (bytem) posiadającym cechę
mierzalną, np. wartość, ilość, jakość.
 Num stanowi wyrażenie przekształcające cechy Emp w jakimś języku symbolicznym, reprezentującym wyniki pomiarów, np. w zbiorze liczb rzeczywistych, zbiorze liczb naturalnych, zbiorze zmiennych logicznych
(prawda, fałsz).
 M jest jakimś jednoznacznym odwzorowaniem Emp do Num (np. przyporządkowanie określonej liczby rzeczywistej dla długości pręta według kryterium wzorca długości).
Takie ujęcie definicji miary jest uniwersalne i pozwala na zbudowanie akceptowalnej miary dla każdego problemu dającego się sprowadzić do swojej reprezentacji semantycznej. Dotyczy to również zagadnień niematematycznych
(oceny eksperckie, oszacowania cech jakościowych np. smaku), niezależnie od
subiektywizmu obserwatora oraz użytych metod pomiarowych. Co to oznacza
w praktyce menedżera oraz teorii zarządzania? Dla każdej cechy mierzalnej danego bytu Emp (np. użyteczności maszyny produkcyjnej) można przyporządkować liczbę M lub pewien zbiór liczb M (jeżeli użyteczność jest określana za pomocą więcej niż jednej zmiennej), dający się w jakiś sposób formalny wyrazić za
pomocą Num (np. oszacowanie liczbowe zbioru cech obiektu M składających się
na użyteczność), za pomocą metody lub zbioru metod Num.
5.1.1 Skala
Zdefiniowanie miary wymaga dodatkowo wyskalowania uzyskanego wyniku M w określonej w skali, np. liniowej 0 – 100 %. w celu sformułowania kryterium pragmatycznego oceny wyniku i jego interpretacji. Typ danych ma
istotny wpływ na konstrukcje skal pomiarowych, nie tylko w naukach społecznych, ale również w naukach przyrodniczych. S. Stevens wyróżnił cztery skale
dla danych pomiarowych:
Skala nominalna – niektóre obiekty mają przyporządkowane wyłącznie etykiety lub nazwy (np. nazwiska, kody towarowe, kody kreskowe EAN, itp.). Nie
mają one właściwości matematycznych. Jedyną relacją dla porównań wartości
według skali nominalnej jest relacja równości. W ten sposób równoważność towarów na półce sklepowej skutkuje równością znakową ich kodów kreskowych
(lub kodów towarowych, wyrażonych symbolicznie). Dwa towary nie będące
360
identycznymi, mają też różne kody (różne miary nominalne). Taka skala nie pozwala na żadne operacje matematyczne poza porównaniem liczby kontrolnej
albo równoważności obrazu. Można na jej podstawie ustalić kryterium tak/nie
oraz dokonywać wyboru jednostki z określonego zbioru. Nie można wyliczyć
średniej, bo nie jest wiadomo co oznacza średnia z kilku kodów towarowych
(trochę jednego, trochę drugiego). Jeżeli jednak dwie zmienne prezentowane na
skali nominalnej są podzielone na kategorie, (np. czyta, nie czyta oraz kobieta,
mężczyzna), można badać ich niezależność za pomocą testów nieparametrycznych, np. chi-kwadrat, stawiając pytanie czy: czy płeć ma wpływ na czytelnictwo
gazety, czasopisma, itp.
Skala porządkowa – wartości w tej skali określa dowolna relacja porządkująca.
Nie ma zdefiniowanej odległości między elementami zbioru Emp. Można tej
skali użyć do rangowania jakiej cechy jakościowej, (np.: wykształcenie podstawowe, średnie, wyższe licencjackie, wyższe, wyższe ze stopniem naukowym).
W zarządzaniu może to być ranking preferencji. Umożliwia ona ustalenie siły
ekspresji cech, np. zabarwienia. Jak łatwo zauważyć, obliczanie średniej również
i w tym przypadku nie ma sensu, bo nie wiadomo co oznacza wynik pośredni
np. wykształcenie więcej niż średnie i trochę mniej niż wyższe. Właściwe użycie
skali porządkowej pozwala na oszacowania większe niż, mniejsze niż. Ma zatem
większe znaczenie niż skala nominalna. Ustalenie rang dla dwóch zmiennych
pozwala na wykorzystanie testu sumy rang dla ustalania zależności między tymi
zmiennymi dla małych próbek pomiarów.
Skala interwałowa (przedziałowa) – Charakteryzuje się zdefiniowaną różnicą
pomiędzy wartościami (dla określonego przedziału zmiennej np. czasu). Iloraz
dwóch wielkości w tej skali nie ma sensownej interpretacji. Przykładem mogą
być skale opinii (np.: 1 = bardzo złe, 2 = złe, 3 = neutralne, 4 = dobre, 5 = bardzo
dobre). Nie istnieje również w tej skali punkt zerowy w sensie bezwzględnym,
bo wartość 0 ustalona jest dla całego przedziału zmiennej niezależnej i może to
być dowolna liczba pośrodku skali. Dla tej skali dopuszcza się korelację oraz regresję jako metody statystyczne. Stąd wynika również możliwość interpolacji i
ekstrapolacji wartości mierzonych w skali interwałowej jako średnia. Zasadne
stają się wówczas statystyki dla średniej (np. F-Snedecora oraz wariancja).
Skala ilorazowa – W tej skali zarówno różnice, jak i ilorazy wielkości mierzonych mają swoją, fizyczną interpretację. Przykładem może być ilość jednostek
towarów, wartość dobra, koszt wytworzenia, itp. Wielkości wyrażone w skali
ilorazowej są addytywne i multiplikatywne. Istnieje również punkt zerowy.
Możliwe jest zatem dzielenie przez siebie dwóch wartości ze skali ilorazowej.
Skala ta ma dla zarządzania największe znaczenie. Dozwolone są w niej wszelkie
statystyki, średnie i przekształcenia jednostek. Mają również sens aproksymacje
funkcyjne, interpolacja i ekstrapolacja. Skala ilorazowa może być łatwo uogólniona do wielowymiarowej.
361
Skala bezwzględna - gdzie dla danej zmiennej istnieje jeden i tylko jeden sensowny sposób kodowania wyników pomiaru (np. ilość osób zamieszkałych na
danym obszarze, liczba maszyn w wykazie majątku, itp.). Ma ona zastosowanie
przede wszystkim w ewidencji, gdzie występuje ilość albo wartość.
5.1.2 Miara integralna w zagadnieniu wielowymiarowym
Załóżmy, że dany byt może zostać scharakteryzowany za pomocą wielu
cech mierzalnych. Przykładem może być charakterystyka opon zgodnie z wytycznymi UE. Składają się na nią cztery cechy: cena, głośność toczenia, wpływ
na zużycie paliwa, trzymanie na suchej nawierzchni, trzymanie na mokrej nawierzchni. Wszystkie wymienione cechy są od siebie niezależne, ale wyrażane
w skali ilorazowej. Wówczas do zbudowania integralnej miary użyteczności dla
konsumenta, uwzględniającej równocześnie wszystkie wymienione cechy,
można użyć formalizmu przestrzeni wektorowej. Miarą jest wówczas długość
wektora w przestrzeni metrycznej wymiaru 4, zbudowanej na miarach poszczególnych cech. Możliwe jest wówczas takie przekształcenie skali, że uzyskamy
syntetyczny wskaźnik w przedziale [0, 1] co jest równoznaczne z wykorzystaniem skali procentowej.
Załóżmy teraz, że mamy kilka charakterystyk podmiotu wyrażonych w
skali interwałowej. Grupa ekspertów ocenia kolor, smak i zapach w skali punktowej 0 – 10 pkt. Również i w takim przypadku możemy użyć formalizmu przestrzeni wektorowej i miary opartej na długości wektora, normalizowanej do
100%. Jest to powszechnie wykorzystywane w opracowaniach statystycznych
(np. globalny wskaźnik innowacyjności, globalny wskaźnik konkurencyjności).
Pozwala to wykorzystać metodę wielokryterialną do budowania syntetycznych
wskaźników aksjologicznych.
Zagadnienie miary w problemie wielowymiarowym można wykorzystać w
różnych sytuacjach praktycznych.
 ocena użyteczności, np. oprogramowania,
 syntetyczne kryterium kosztów i korzyści (metoda CBA),
 oszacowanie scoringowe konkurencyjności kraju,
 ustalenie poziomu innowacyjności organizacji,
 wpływ wielu czynników na zmienną globalną.
Zagadnienia pomiarowe, związane z analizą wielokryterialną i budowaniem
skali syntetycznej zostały bardziej szczegółowo omówione dalej.
5.1.3 Dystans do frontiery (ranking benchmarkingowy)
Jeżeli dokonujemy pomiarem jakiej cechy produktu, grupy społecznej, czy
gospodarki i chcemy wynik porównać w relacji do innych, to potrzebujemy nie
tylko miary, ale również sposobu odniesienia do najlepszego lub najgorszego w
grupie. Ma to szczególne znaczenie w stosowaniu miary integralnej, zwłaszcza
362
gdy kryteria są różnego typu (rozdział 6.1). Najlepiej jest to wykonać, wykorzystując miarę względną, znormalizowaną do 100%. Iloraz uzyskanego wyniku z
pomiaru i wyniku maksymalnego jest przykładem skali umożliwiającej taką procedurę. Nie uwzględnia on jednak wpływu wyniku najgorszego w grupie porównywanej na wynik, co jest pewnym ograniczeniem interpretacyjnym. Dlatego dla celów benchmarkingwych wykorzystuje się skalę ilorazową odległości
do frontiery DTF (krzywa pomiędzy mimimum, a maksimum taka, że żaden
punkt leżący na frontierze nie jest zdominowany przez inny punkt jak to zilustrowano na rys.5.1).
Rys. 5.1 Ilustracja kontrukcji frontiery dla przypadku dwóch zmiennych f1 i f2
Jak zatem mierzymy wynik procentowy w raporcie benchmarkingowym?
Jest to dystans do frontiery (DTF) będącej linią prostą, który odległość pomiędzy
minimum i maksimum danej wielkości mierzonej ustala jako 100%. Stąd wszystkim wynikom pośrednim (pomiędzy max i min) możemy przypisać proporcjonalną wartość w procentach rys. 5.2. Załóżmy, że wynik pomiaru danej zmiennej
liniowej (w tym przypadku zależność jest wprost proporcjonalna), w najlepszym
przypadku wynosi 60, a najgorszym przypadku 20. Frontiera jest tu linią prostą
łączącą punkty minimum i maksimum. Przedział [20, 60] jest odwzorowany na
przedział [0, 100%], co pozwala graficznie rzutować wynik pomiaru na skalę
procentową, na osi prostopadłej. W ten sposób wynik 45 oznacza w rankingu
DTF 62,5%. Jest to bardzo wygodny sposób prezentowania danych dla celów
benchmarkingu.
363
Rys. 5.2 Ilustracja prezentacji rankingu jako odległości od frontiery.
Metodę DTF można również użyć do analizy danych wielowymiarowych,
budując odpowiedni wektor, którego długość jest rzutowana na przedział [0,1]
(rozdział 6.1.5). Wszystkie, pozostałe filary podlegają podobnym zasadom metodologicznym, a ich omówienie można znaleźć na stronie poświęconej raportowi Doing Business (rozdział 5.4.7).
5.2 Wnioskowanie statystyczne i testowanie hipotez
Jednym z najważniejszych problemów w zarządzaniu jest weryfikacja hipotez i interpretacja statystyczna danych dla zmiennych losowych (modele niedeterministyczne). Kluczowym zagadnieniem jest wybranie testu statystycznego,
nadającego się do wykorzystania dla danego typu zmiennych. Mamy tu dwie
grupy zagadnień:
 porównanie grup (czy próby badane pochodzą z tej samej populacji),
 stwierdzenie istnienia związku pomiędzy zmiennymi.
Do dyspozycji mamy testy parametryczne, dotyczące ciągłych rozkładów
zmiennej losowej (np. t-Studenta dla rozkładów zbliżonych do normalnego), wyrażanej w skali ilorazowej oraz testy nieparametryczne dla różnych, niekoniecznie ciągłych rozkładów, mogących różnić się od normalnego (np. rozkłady skośne Levy’ego). A zatem wybór metody zależy od typu zmiennej i skali, w jakiej
jest ona wyrażana.
364
5.2.1 Porównanie grup mierzonych niezależnie
Problem sprowadza się do wyselekcjonowania dwóch próbek pomiarowych, co do których możemy wypowiedzieć się, że są one reprezentatywne statystycznie. Należy ten fakt zbadać, a dopiero następnie postawić hipotezę o
braku różnicy pomiędzy próbami, wobec hipotezy alternatywnej o istnieniu tej
różnicy. Dopiero wówczas można dokonać obliczeń zgodnie z metodyką wybranego testu weryfikacji hipotez statystycznych i porównać wynik z wartościami
krytycznymi, dostępnymi w tablicach. Wybór testu dla porównań zależy od rodzaju zmiennej mierzonej i skali, w której zmienna jest wyrażana.
 Zmienna pomiarowa jest wyrażana w skali nominalnej – Należy wówczas zastosować test niezależności chi-kwadrat Pearsona pomiędzy zmiennymi kategorialnymi. Jest to jeden z najpopularniejszych testów statystycznych używanych w obecnie realizowanych badaniach. Podlega małej liczbie założeń
i jest bardzo prosty w przeprowadzeniu, a przy tym dokładny. Stosujemy
go wyłącznie dla przypadku dwóch zmiennych, które mogą mieć kilka wariantów odpowiedzi (np. płeć z wariantami kobiety, mężczyźni, inni) oraz
(czytelnictwo czasopisma z wariantami często, rzadko, wcale).
 Zmienna pomiarowa wyrażana jest w skali porządkowej – test sumy rang U- Wilcoxona-Manna-Whitney’a (alternatywa dla testu t-Studenta). Z testu U
można również skorzystać, gdy zmienna jest wyrażona w skali dychotomicznej (czyli 0 - 1). Test nie wymaga ani równoliczności grup ani rozkładu
normalnego ani homogenicznych wariancji. Liczebność grupy badanej nie
musi być duża, co jest bardzo ważnym czynnikiem dla badacza, który dysponuje ograniczoną ilością wypowiedzi ankietowych. Dlatego test U jest
bardzo uniwersalny i użyteczny. A jeżeli uwzględnić fakt, że jest on bardzo
łatwy w przeprowadzeniu, to skłania do zwrócenia na niego szczególnej
uwagi przy planowaniu badań.
 Zmienna pomiarowa wyrażana jest w skali interwałowej lub ilorazowej – Rozkłady
zmiennych losowych porównywanych powinny być zbliżone do normalnego. Wówczas możemy zastosować test t-Studenta dla prób niezależnych.
Stosujemy go wyłącznie dla porównania dwóch niezależnych grup ze sobą
(np. zawodowi testerzy i grupa konsumencka), odpowiadając na kwestie
czy różnice wskazań w tych grupach są istotne statystycznie. Nie wnikając
w szczegóły, istnieje trzy typy testów t-Studenta (dla prób niezależnych, dla
prób zależnych oraz dla jednej próby). Za pomocą testu t-Studenta nie
można porównywać ze sobą kilku grup, wykonując kolejno test między różnymi grupami. Albowiem z faktu, że A≠B i A≠C nie wynika wprost, że B≠C.
Jeżeli mamy więcej niż dwie grupy do porównania, to musimy skorzystać z
innych testów statystycznych albo formułować hipotezy tak, żeby porównywać jedynie dwie grupy.
365
5.2.2 Porównanie więcej niż dwóch zmiennych
Ponieważ nie da się przenieść wyników testów dla dwóch zmiennych na
wynik problemu wielu zmiennych, należy stosować inne statystyki.
 Jednoczynnikowa analiza wariancji ANOVA dla klasyfikacji pojedynczych
zmiennych, podzielonych na przedziały umożliwia sprawdzenie hipotezy o
równości wariancji w każdym podprzedziale. Wymaga, aby w każdym z
przedziałów występował normalny rozkład zmiennej losowej. Średnie kwadraty odchyleń pomiędzy grupami oraz średni kwadrat odchyleń wewnątrz
każdej z grup porównujemy za pomocą statystyki Fishera F. Niestety ta statystyka nie mówi, który przedział przyczynił się do istotności różnic, o ile
wystąpią. Dlatego konieczne jest uzupełnienie o test istotności różnić, np. tStudenta. (Jest to możliwe, ponieważ założenie normalności rozkładu pozwala na używanie testów parametrycznych).
 Wieloczynnikowa analiza wariancji MANOVA. Bada wpływ kilku czynników
międzygrupowych na zmienną zależną. Metoda analizy wariancji jest bardzo rozbudowaną techniką badawczą, a jej analiza wykracza poza ramy niniejszego opracowania. Warto jednak mieć na uwadze, że nie jesteśmy całkowicie bezradni wobec hipotez wielowymiarowych.
5.2.3 Stwierdzenie istnienia związku pomiędzy zmiennymi
Jest to przypadek bardzo często analizowany przez menedżerów i badaczy
z obszaru nauk społecznych (w tym zarządzania). Występuje tu kilka sposobów
postępowania w zależności od rodzaju zmiennej oraz użytej skali.
 Obie zmienne skalowane za pomocą skal przedziałowych i ilorazowych. Najprostszym sposobem ustalenia związku (ale jedynie liniowego lub sprowadzalnego do liniowego za pomocą przekształceń matematycznych) jest korelacja
w sensie Pearsona. Ten związek należy rozumieć jako podobieństwo dwóch
cech (np. ilość godzin treningu tygodniowo, a wynik pływania na 100 m).
Statystyką testującą jest w tym przypadku współczynnik korelacji r Pearsona.
Mówi on równocześnie o istnieniu zależności, jej sile i kierunku (korelacja
prosta rmax = 1 albo odwrotna rmax = -1). Jeżeli r = 0, wówczas mówimy o braku
związku396. Sposobem wyliczenia współczynnika korelacji jest metoda najmniejszych kwadratów (rys. 6.3). Wartość krytyczna współczynnika r odczytywana jest z tablic rozkładu Pearsona (lub wprost z danych programów
IT, oferujących analizy statytyczne). Warunkiem jest mierzalność obu
zmiennych (co najmniej skala przedziałowa). Dodatkowo należy zakładać
rozkład zmiennej losowej zbliżony do normalnego (ale można ten warunek
osłabić).
Ale uwaga! Jeżeli zależność między zmiennymi ma postać funkcji symetrycznej (np. funkcja kwadratowa), wówczas współczynnik korelacji będzie zawsze zerem pomimo istnienia 100% korelacji.
396
366

Obie zmienne są wyrażone w skali porządkowej albo jedna z nich jest w skali porządkowej, a druga w przedziałowej lub ilorazowej. Wówczas należy zastosować
współczynnik korelacji rho Spearmena albo tau Kendalla. Stanowią one odpowiednik nieparametryczny korelacji r Pearsona. W przypadku zastosowania
korelacji rho, wyniki są w pierwszej kolejności poddawane rangowaniu i dopiero wówczas stosuje się metodę najmniejszych kwadratów. To pozwala na
badanie korelacji na skali porządkowej i nie ma to znaczenia, czy wyniki
podlegają rozkładowi normalnemu. Jest to bardzo użyteczna opcja. Dodatkowo współczynnik rho Spearmena jest znacznie bardziej odporny na odchylenia pomiarów w próbie na skutek rangowania. Przykładem zastosowania
może być badanie zależności pomiędzy zasobnością mierzoną w przedziałach, a poziomem wykształcenia (skala porządkowa).
 Obie zmienne lub jedna z nich są wyrażone w skali nominalnej. W tym przypadku
używa się testu chi-kwadrat. Można dodatkowo uzupełnić testowanie testem phi lub V Cramera. Metoda chi-kwadrat jest bardzo uniwersalnym sposobem wyszukiwania zależności pomiędzy zmiennymi niemierzalnymi.
Nie wymaga rozkładu normalnego. Pozwala użyć stosunkowo małych liczebności. Stanowi test nieparametryczny. W pierwszym kroku oblicza się
liczebności teoretyczne i sumy kwadratów odchyleń w stosunku do liczebności mierzonych dla danej kategorii. Następnie wylicza się współczynniki
cząstkowe chi-kwadrat i sumuje. Wartość porównuje się z wartością krytyczną z rozkładu chi-kwadrat.
Kończąc rozważania tego rozdziału należy podkreślić wagę hipotez możliwych do statystycznego potwierdzenia lub obalenia z punktu widzenia zarządzania. Zostały zasygnalizowane jedynie użyteczne metody bez wgłębiania się
w szczegóły metodologiczne. Warto mieć świadomość, że większość obliczeń
można przeprowadzić za pomocą arkusza kalkulacyjnego, a wartości krytyczne
znanych statystyk (t-Studenta, F-Snedecora, chi-kwadrat czy też r Pearsona) są
wbudowane w standardowe funkcje Excela czy też Open Office.
5.3 Metody ilościowe w zarządzaniu
Jest to cały dział wiedzy, który wykorzystuje modele i metody matematyczne oraz ekonometryczne w analizach ilościowych funkcjonowania organizacji. Badania operacyjne dostarczają obiektywnego wsparcia decyzyjnego, ograniczają niepewność decyzyjną, pozwalają ograniczyć ryzyko oraz zbudować
kryteria epistemiczne wyboru. Trudno wyobrazić sobie menedżera poważnej
firmy, który niczego nie mierzy, nie waży i nie analizuje ilościowo (zwłaszcza
stanu finansów i kosztów). Potrzebujemy modeli, potrzebujemy metod i potrze-
367
bujemy dobrej prognozy. Z drugiej strony, jeżeli zarządzanie ma na celu jakąkolwiek optymalizację, to musi dokonać pomiaru stanu sytuacyjnego lub położenia
ekonomicznego w chwili początkowej i po pewnym czasie.
Oto dziesięć podstawowych pytań, stawianych menedżerowi, które wymagają obliczeń, a często również zastosowania złożonych systemów IT, wspomagających przetwarzanie danych źródłowych, dokumentujących procesy biznesowe.
1. Ile kosztuje godzina pracy organizacji i jaka jest wartość zasobów zaangażowanych w procesy produkcyjne?
2. Czy jesteśmy w stanie wyprodukować 1000 detali w ciągu tygodnia, opisanych w zamówieniu?
3. Jaki jest stan gotówki w kasie i ile musimy mieć wolnych środków do dyspozycji w dniu jutrzejszym?
4. Czy lepiej jest kupić samochód ciężarowy w leasingu, czy na kredyt, czy
może skorzystać z outsourcingu?
5. Jaka struktura zapasu w magazynie gwarantuje najlepszą rotacyjność?
6. Jak zmniejszyć należności podatkowe na przełomie roku?
7. Ile będzie kosztować firmę wprowadzenie minimalnej stawki wynagrodzenia?
8. Które pozycje z portfela sprzedaży przynoszą najlepsze dochody?
9. Czy uruchomić własną lakiernię, czy korzystać z usług podwykonawców?
10. Czy warto wziąć kredyt na działalność z tej, a nie z innej oferty?
Takich pytań można postawić znacznie więcej, a menedżer musi dysponować
wiedzą i narzędziami wspomagającymi udzielenie na nie odpowiedzi. Jak widać, bez obliczeń i pomiaru nic z tego nie będzie. A zatem nie ma możliwości
ucieczki od liczb i oszacowań. Zarządzanie wymusza stosowania matematyki i
modeli ilościowych w codziennej praktyce. Stąd wynika celowość krótkiego zaprezentowania wybranych metod ilościowych, szczególnie istotnych dla wspierania podejmowania decyzji i oszacowań rezultatów działalności.
Nie jest celem niniejszej monografii prezentacja szczegółowa modeli matematycznych oraz teorii poszczególnych metod, ale przedstawienie ich zastosowań w praktyce. Zainteresowanych odsyłam do książek poświęconych badaniom operacyjnym, w szczególności do doskonałej monografii D.R. Andersona i
wsp397.
5.3.1 Programowanie liniowe
Metoda wykorzystująca rozwiązania układów równań liniowych, reprezentujących zmienne, które można sprowadzić do zależności liniowej. Metody tej
można używać w zagadnieniach maksymalizacji produktywności, minimalizacji
397
Anderson D.R., op. cit.
368
kosztów, optymalizacji portfela zamówień, poziomu obciążenia pracą, strategii
produkcji, analiz wrażliwości, w zagadnieniach efektywności marketingu, do
modelu DEA etc.). Jak można zauważyć, jest to szczególnie użyteczna metoda,
łatwa do stosowania, łatwa w interpretacji, a dodatkowo można dokonywać obliczeń z zakresu programowania liniowego z pomocą Excela lub podobnych narzędzi. Niektóre, proste zagadnienia, jak wyliczenie zdolności produkcyjnej,
można rozwiązać graficznie.
Znaczna ilość zagadnień związanych z praktyką zarządzania operacyjnego
daje się sprowadzić do analizowania zależności liniowych, np. liczba godzin
pracy dla danej czynności produkcyjnej w zależności od ilości produkcji. (Im
więcej produkujemy, tym większy czas jest potrzebny). Może to być liczba odsłon stron internetowych w zależności od czasu prezentacji reklamy na stronie.
Ale analizowany proces może być zależny od kilku zmiennych liniowych, co powoduje, że znalezienie optymalnych parametrów jego przebiegu wymaga rozwiązania układu równań liniowych. Mamy wówczas do czynienia z zagadnieniem z zakresu programowania liniowego.
Przykład 5.1 Minimum kosztów produkcji dla zamówienia
Jako przykład można rozważyć problem prostej minimalizacji kosztów produkcji.
Pewien zakład produkuje tlenek ołowiu PbO i dwutlenek ołowiu PbO2. Oba tlenki są
produktami handlowymi, a jednocześnie półproduktami dla wytwarzania minii ołowiowej Pb3O4, a PbO2 dodatkowo wykorzystuje się do produkcji akumulatorów. Zdolności
produkcyjne zakładu są ograniczone wielkością wsadu do pieca. Optimum produkcji ma
miejsce wówczas gdy na 3 części PbO przypada jedną część PbO2, przy tym cykl produkcyjny PbO wynosi 1 godzinę, a PbO2 2 godziny na 1 tonę produktu. Klient zamówił 8 ton
PbO2 i musimy to zamówienie zrealizować.. Ile należy wyprodukować PbO, a ile PbO2 z
wsadu 20 ton Pb, żeby koszty były jak najniższe przy istniejących ograniczeniach i priorytecie realizacji zamówienia dla klienta.
Powyższe zagadnienie jest możliwe do rozwiązania za pomocą układu równań liniowych, z których jedno dotyczy prostej optymalnej produkcji, drugie ilustruje zużycie czasowe na tonę produkcji. Trzecie jest ograniczeniem wynikającym z żądania zamawiającego. Układ równań można rozwiązać nawet graficznie, wskazując na obszar wykonalności zagadnienia oraz punkt optymalny.
Przykład 5.2 Obliczenie za pomocą Excela maksimum dochodu z produkcji
Produkcja pary produktów składa się z czterech operacji numerowanych od 1 do 4.
W tabeli podane są czasy jednostkowe na wykonanie jednej sztuki oraz maksymalne
czasy dostępne w harmonogramie działania firmy, stanowiące ograniczenia.
369
Tabela 19 Dane do obliczeń metodą programowania liniowego dla przykładu 5.2.
Nakłady czasowe [godz.]
Operacje w procesie produkcji
Produkt A
Produkt B
Czas dostępny
Operacja 1
0,70
1,00
630
Operacja 2
0,50
0,83
600
Operacja 3
1,00
0,67
708
Operacja 4
0,10
0,25
135
120
100
Dochód na 1 sztukę [zł]
Ilość optymalna
540
Maksymalny dochód [zł]
Warunki ograniczające
252
90 000
Liczba godzin wykorzystana
Różnica
Na operację 1
630
0
Na operację 2
480
120
Na operację 3
708
0
Na operację 4
117
18
Przygotowanie danych w programie Excel
Wpisać dane z górnej części tabeli 19 do pustego arkusza programu Excel, a następnie uzupełnić komórki funkcyjne tak, żeby uzyskać strukturę przedstawioną na rys. 5.3.
Funkcją maksymalizującą dochód: L = Max{(ilość A * cenaA)+(ilość B * cenaB)} (w naszym przypadku, będzie to wynik komórki „B12” z rys. 5.3). Wpisujemy
do „B12” =zaokr((B11*B9+C11*C9); 2)
natomiast
do „B15” = B5*$B$11+C5*$C$11
do „B16” = B6*$B$11+C6*$C$11
do „B17” = B7*$B$11+C7*$C$11
do „B18” = B8*$B$11+C8*$C$11
Różnice pomiędzy czasem dostępnym i wykorzystanym w maksimum
do „C15”…=D5-B15
do „C16”…=D6-B16
do „C17”…=D7-B17
do „C18”…=D8-B18
Rozwiązanie problemu przy użyciu dodatku „Solver” dla MS Excel
Włączyć w opcji [Narzędzia] menu głównego programu Excel, opcję [Solver] wpisując
w wyświetlone okno dialogowe jak na rys. 5.3 następujące dane. Komórka celu $B$12;
komórki zmieniane $B$11:$C$11 warunki ograniczające $B$15:$B$18<= $D$5:$D$8 Tak
przygotowany zestaw danych rys. 5.3 jest gotowy do obliczeń.
370
Rys. 5.3 Okno dialogowe Solver dla przykładu rozwa żanego
Należy jeszcze dodać warunki sterujące dla rozwiązania, wywołując okno [Opcje] i
wprowadzić następujące informacje zaznaczając odpowiedni check box na formularzu:
„Przyjmij model liniowy” oraz „Przyjmij nieujemne”. W tym momencie należy zaakceptować wybór naciskając „OK.”, powracając do ekranu przedstawionego na rys. 5.3, wybrać opcję „Rozwiąż” i nacisnąć klawisz.
Rozwiązanie ogólne dla przypadku: maksymalny dochód 90 000 z produkcji zostanie osiągnięty przy ilości 540 szt. produktu A oraz 252 szt. produktu B. Wykorzystany
zostanie całkowicie czas czynności 1 oraz 3. Pozostaną niewykorzystane godziny na
czynności 2 w ilości 120 godzin oraz 4 w ilości 18 godzin.
Ogólna postać zagadnienia dla dwóch zmiennych
Załóżmy że mamy zagadnienie złożone z dwóch zmiennych, dotyczące optymalnej ilości produkcji ze względu na jakieś kryterium przy zadanych ograniczeniach.
X1 = ilość produktu A
X2 = ilość produktu B
Musi istnieć funkcja celu L (model matematyczny procesu), która umożliwia wyznaczenie kryterium maksymalizacji (zysku, produktywności) lub minimalizacji
(kosztów, czasu). Niech to będzie w przypadku maksymalizacji funkcja dwóch
zmiennych L(X1,X2)
(5.1)
L = Max {kX1 + jX2 = const}
Muszą istnieć jakieś kryteria ograniczające, które wpływają na rozwiązanie,
dajmy na to”
K1:
aX1 + bX2 ≤ m (np. jakieś kryterium dotyczące ilości)
K2:
cX1 + dX2 ≤ n (np. jakieś kryterium dotyczące czasu)
K3:
X1  0 (fakt, że ilości produktu X1 nie mogą być ujemne)
371
K4:
X2  0 (fakt, że ilości produktu X2 nie mogą być ujemne)
Niech produkcja optymalna przebiega według zależności kX1+jX2 =q
Rys. 5.4 Ilustracja dla programowania liniowego z maksimum funkcji c elu
Dla przypadku zapisanego równaniem (5.1) można wykonać wykres ilustrujący
zarówno obszar wykonalności, jak i punkt optymalny, jak na rys. 5.4. Obszar
wykonalności mieści się pod prostymi ograniczającymi, a warunkiem istnienia
optimum, jest by prosta reprezentująca funkcję celu miała przynajmniej jeden
punkt styczny z tym obszarem. Jest to warunek prawdziwy dla dowolnej ilości
zmiennych ograniczających, warunkujących istnienie rozwiązania.
W przypadku wielu zmiennych, znalezienie minimum lub maksimum funkcji celu niekoniecznie oznacza konieczność rozwiązania układu równań liniowych. Najważniejsze jest ustalenie obszaru wykonalności. Należy dokładnie
przeanalizować modele dla podobnego problemu i zdefiniować poprawnie
372
funkcję celu, wykorzystując przy tym dostępne programy dla optymalizacji, np.
LINGO398. Większość zagadnień można jednak rozwiązać za pomocą arkusza
kalkulacyjnego Open Office albo Microsoft Excel. Gotowe szablony problemów
optymalizacyjnych, wykorzystujących Excel można znaleźć pod adresem „Try
What’s Best”399.
Analiza wrażliwości w programowaniu liniowym
Jeżeli uda się wyznaczyć za pomocą programowania liniowego optymalną
wartość jakiejś funkcji celu, to może powstać pytanie: jak zmieni się ta wartość
optymalna wskutek małych zmian parametrów opisujących zagadnienie. Te
zmiany mogą być wywołane dowolnym zaburzeniem procesowym, niezależnym od ustaleń. Tym samym zbadanie zachowania się optimum w pewnym obszarze zmienności parametrów jest prognozą ryzyka.
Załóżmy, że funkcja celu L(X1,X2) została ustalona jako mX1 + nX2 i szukamy
dla niej maksimum przy określonych ograniczeniach. Powstają wówczas następujące zapytania, zaczynające się od Jak zmieni się rozwiązanie optymalne problemu,
gdy funkcja L zmieni się o 10% ze względu na::
1. parametr X1, tzn. [0,9nX1 + mX2 ; 1,1nX1 + mX2].
2. parametr X2, tzn. [nX1 + 0,9mX2 ; nX1 + 1,1mX2].
3. jednocześnie parametr X1 oraz X2, tzn. [0,9(nX1 + mX2), 1,1(nX1 + mX2)].
Oczywiście, pytania ogólne dotyczą przedziałów zmienności parametrów
np. o 10%. To powoduje, że można ustalić granice bezpieczeństwa wykonania
zamówienia i wykorzystania mocy produkcyjnych, a tym samym ograniczyć ryzyko założenia, że w procesie produkcyjnym wszystko pójdzie według optymalnych parametrów. Warunkiem rozpoczęcia analizy wrażliwości jest jednak ustalenie rozwiązania optymalnego bez odchyleń.
W wyniku przeprowadzenia obliczeń, może okazać się, że brzegowe odchylenia nie mieszczą się w obszarze wykonalności. Na ogół jednak zmiany w równaniu krzywej celu zmieniają jedynie jej nachylenie oraz przesunięcie wzdłuż osi
pionowej. To pozwala na znalezienie nowej stycznej do obszaru wykonalności i
wyznaczenie nowego punktu optymalnego. W analizie wrażliwości zastosowanie arkusza kalkulacyjnego jest naturalną koniecznością. Solver automatycznie
generuje raport wrażliwości dla wyniku optymalnego. Dla danych z przykładu
5.2 raport ten ma postać:
398
399
Lindo Systems Inc. http://www.lindo.com/index.php/ls-downloads/try-lingo
Lindo Systems Inc., http://www.lindo.com/index.php/ls-downloads/try-what-sbest
373
Tabela 20 Analiza wrażliwości dla przykładu 5.2
Metoda Data Envelopment Analysis (DEA)
Efektywność organizacji, alokacji zasobów, inwestowanie, etc. jest ważnym
zagadnieniem zarządzania. Rozumienie tego pojęcia jest rozmyte, bo może dotyczyć różnych aspektów ekonomii oraz kwestii optymalizacji organizacji. Z
punktu widzenia metod ilościowych efektywność wiąże się z zagadnieniem, w
którym można wyznaczyć minimum lub maksimum ze względu na jakąś funkcję celu, zadaną a priori. Tym samym DEA jest metodą nieparametryczną znajdowania frontiery zagadnienia produkcyjnego, użyteczności, funkcjonalności
oraz ustalania benchmarkingu400. Wykorzystuje jako wynik finalny benchmarkingu odległość do frontiery funkcji celu ( przypadek liniowy DTF str. 409).
Model tworzenia benchmarkingu opartego na DEA można zdefiniować następująco: mamy pewną liczbę k porównywanych obiektów Uj. Dla każdego z
nich wybieramy funkcję scoringową L (np. wektor wielokryterialny), która maksymalizuje wynik oceny dla dowolnego Uk. Stąd dla każdej jednostki Uj, wynik
funkcji Lj ≤ 1. Załóżmy, że dla jednostki k, wynik Lk = 1, to oznacza że żadna inna
jednostka nie zdominuje w porównaniu k. W porównaniu DEA zakładamy, że
dozwolone funkcje scoringowe są ilorazem sumy ważonych wyników i sumy
ważonych wejść (podanych warunków lub ograniczeń). Normalizując wagi do
1, można stwierdzić, że ważona suma wejść  ważonej sumie wyjść. Algebraicznie model DEA możemy zapisać jak poniżej (sformułowanie problemu z przykładu 5.2 str. 360).
Niech:
n = liczba jednostek porównywanych podejmujących decyzje,
m = liczba kryteriów decyzyjnych (liczba wejść),
s = liczba danych na wyjściu (parametry oceny),
Dane zmieniane w Solverze:
Cij = j-ty element kryterium dla jednostki ocenianej o numerze i,
Rij = j-ty element wyjściowej oceny dla jednostki o numerze i,
Domagała A., „Metoda data envelopment analysis jako narzędzie badania względnej efektywności technicznej” Badania operacyjne i decyzje, Nr 3-4, (2007), 21-34.
400
374
Zmienne:
Wj = ograniczenia (wagi) stosowane dla j-tego kryterium,
Vj = wartości obliczone dla j-tego rezultatu.
Funkcja optymalizacji L
(5.2)
 s

Lk  max   v j rkj  przy ograniczeniach
 j 1

m
w c
j
kj
1
j 1
Dodatkowo z warunku DEA mamy kolejne ograniczenia dla każdego i
(5.3)
s
m
j 1
j 1
 v j rkj   w j ckj
Mamy w ten sposób zagadnienie sprowadzone do metodyki programowania liniowego. Pozwala to wykonać dowolną analizę porównawczą z wynikiem
względnym procentowym w relacji do frontiery (maksymalnego, osiągniętego
rezultatu dla funkcji optymalizacji ze zbioru L).
5.3.2 Optymalizacja nieliniowa
Pod pojęciem optymalizacji nieliniowej mieści się cały szereg zagadnień
praktycznych zarządzania operacyjnego, jak: optymalizacja logistyczna, optymalizacja produkcji, model portfolio Markowitza, prognoza dla wdrożeń nowego produktu, modele zamówień, prognozowanie TCM, ile zamówić, kiedy
zamówić etc.). Metoda programowania nieliniowego jest bardziej uniwersalna
niż programowanie liniowe, ale znacznie trudniejsza w zastosowaniach. Dodatkowo wymaga wiedzy z zakresu stosowania algorytmów i metod przybliżonych.
W wielu wypadkach problem nieliniowy można sprowadzić do postaci liniowej bądź to przez przekształcenie ciągłej funkcji celu do postaci liniowej (np.
A∙exp(-kx) za pomocą funkcji ln ), bądź to przez rozwinięcie na szereg Taylora i
pominięcie wyrazów o potędze wyższej, niż pierwsza. W przypadku funkcji nieciągłych konieczne będzie zastosowanie metody interpolacji liniowej metodą
najmniejszych kwadratów (rozdział 6.2.1). W najgorszym przypadku problem
może nie być rozwiązywalny na poziomie liniowym, ale dobrze przybliżony na
poziomie funkcji kwadratowej lub jakiejś innej krzywej stożkowej.
Ostatnim wariantem jest wariant stochastyczny o zadanym rozkładzie
prawdopodobieństwa. Tu wszystko zależy od postaci funkcyjnej dystrybuanty
zmiennej losowej. Jeżeli mamy do czynienia z zagadnieniem nieparametrycznym (np. rozkład dyskretny, zadany w postaci tablicy), nie da się w prosty sposób stworzyć modelu, ale nie jest to niemożliwe. Dlatego, jeżeli nie jest możliwe
sprowadzenie problemu do postaci liniowej, trzeba poszukiwać modelu przybliżonego dla funkcji celu (funkcji optymalizującej). Można użyć metod interpolacji
375
funkcyjnej, w szczególności aproksymacji liniowej znanych z analizy numerycznej401. Przykładem linearyzacji problemu pomiarowego jest metoda najmniejszych kwadratów, przedstawiona w rozdziale 6.2.1.
Model efektywnego portfolio Markowitza
Ponieważ zagadnienia poszukiwania ekstremum funkcji wielu zmiennych
wykracza poza zakres niniejszej monografii, zainteresowanych odsyłam do
opracowań z zakresu badań operacyjnych oraz podręczników metod numerycznych. W tym miejscu zaznaczę jedynie możliwości praktyczne wykorzystania
zagadnień optymalizacji nieliniowej w zagadnieniach biznesowych402,403.
Wróćmy do przypadku liniowego (przykład 5.2). Jeżeli którekolwiek z ograniczeń będzie zadane jako krzywa, wówczas zmieni się kształt obszaru wykonalności i zamiast linii prostych przecinających się, pojawią się w ich miejsce
krzywe. Natomiast, jeżeli funkcja celu nie będzie zadana w formie liniowej, ale
np. jako funkcja kwadratowa, to jej styczność z obszarem wykonalności musi być
wyznaczona przez rozwiązanie układu równań nieliniowych.
Znanym przykładem optymalizacji nieliniowej jest model Markowitza dla
efektywnego portfolio aktywów oparty na średniej wariancji oczekiwanego ryzyka404. Zgodnie z teoria portfelową, maksymalizacja stopy zwrotu nie jest jedynym celem przy konstruowaniu portfela, ponieważ wraz oczekiwanym zyskiem
rośnie ryzyko. Z modelu Markowitza można wyliczyć najkorzystniejszą proporcję zysku i ryzyka. Istnieje wiele możliwych portfeli aktywów o zakładanej stopie zwrotu, ale tylko jeden z nich charakteryzuje się minimalnym ryzykiem. W
drugą stronę, istnieje wiele portfeli o zakładanym ryzyku, ale wówczas tylko jeden z nich daje maksymalny zwrot z inwestycji.
Optymalizacja Markowitza może być rozpatrywana na bazie teorii gier,
gdzie mamy do czynienia z sytuacją konfliktową zysk/ryzyko i wówczas wybór
minimaksowej strategii inwestowania jest rozwiązaniem najbardziej racjonalnym. Wykracza to jednak poza zakres niniejszej monografii, aczkolwiek zagadnienie jest bardzo interesujące.
Model adaptacji rynkowej Bassa
Innym przykładem może być analiza marketingowa adaptacji rynkowej
substytutów produktu innowacyjnego lub technologii, oparta na modelu dyfuzji
innowacji i krzywej Bassa405. Model ten stara się wykorzystać krzywą popytu dla
istniejącego produktu do prognozowania popytu na jego zamiennik albo nowy
Ralston A., „Wstęp do analizy numerycznej”, PWN Warszawa, 1971
Anderson D.R. i wsp., op. cit rozdział 8.
403
Schrage L., “Optimizantion Modeling with LINGO”, wyd. 6, Lindo Systems Inc., Chicago, 2015
404
Markowitz H.M., “Portfolio Selection”,. Journal of Finance. Vol. 7, (1952), 77–91
405
Bass F.M., "A New Product Growth Model for Consumer Durables", Management Science, 15, (1969),
215-227.
401
402
376
model. Bass zauważył, że niemal dla wszystkich produktów krzywa dyfuzji ma
taki sam kształt. Teoria dyfuzji innowacji zakłada, że grupa naśladowców (potencjalnych nabywców) zainteresuje się nowym produktem po uprzednim wypróbowaniu go przez innowatorów (bieżących użytkowników).
Krzywa adaptacji produktu innowacyjnego na rynku jest wypadkową czynników wewnętrznych oraz zewnętrznych, wynikających z interakcji wewnątrz
systemu społecznego, a w mniejszym stopniu działaniem menedżerów (regulujących rynek cenowo lub ilościowa). Zewnętrzne czynniki są związane ze skutecznością reklamy i marketingu oraz przekazu innowator-naśladowca. Wzór
Bassa sprawdza się w praktyce marketingowej i ma postać:
(5.4)
f (t )
 p  q  F (t )
1  F (t )
f(t) – jest zmianą liczby osób adaptujących dane dobro w czasie t (gęstość prawdopodobieństwa adaptacji),
F(t) – jest liczbą skumulowaną liczbą nabywców do czasu t czasie (dystrybuantą
prawdopodobieństwa zakupu w czasie t),
p – jest współczynnikiem innowacyjności (zewnętrzny),
q – jest współczynnikiem naśladownictwa (wewnętrzny),
m – jest współczynnikiem potencjału rynkowego (nie większy od pewnej wartości
ustalającej jego nasycenie).
Sprzedaż S(t) jest szybkością zmiany alokacji danego dobra f(t) pomnożonej
przez wskaźnik potencjału rynkowego m (ilość osób akceptujących nowy produkt). W ten sposób prognoza skumulowana sprzedaży ma postać:
(5.5)
S(t) = m∙f(t)
W połączeniu z zależnością 5.4 można wyprowadzić równanie różniczkowe, z którego daje się wyznaczyć analitycznie prognozowaną wielkość sprzedaży406.
Typowymi wartościami średnimi parametrów, wynikającymi z obserwacji
rynków są odpowiednio p= 0,03 (jest często mniejsza niż 0,01) oraz q= 0,38 przy
zmienności w przedziale [0,3; 0,5]. Wartość m może być oszacowana jako iloraz
bieżącej ilości sprzedaży do maksymalnej wartości nasycenia rynkowego.
Współczynnik innowacjo p reprezentuje wpływ mass mediów, agend rządowych, wysiłków promocji i reklamy na adaptację danego produktu na rynku.
Współczynnik zastąpienia q reprezentuje wewnętrzny wpływ społecznych interakcji związanych z propagandą szeptaną lub atrakcyjnością oferty produktu
(tym wyższy im bardziej tępe jest społeczeństwo). Kalkulacje online dla modelu
Bassa są dostępne na stronie www407.
Bartłomowicz T., „Prognozowanie sprzedaży z wykorzystaniem modelu dyfuzji oraz programu R”, Ekonometria, vol 4, No. 38, (2012), 210-220.
407
Bass’s Basement Research Institute, http://bassbasement.org/BassModel/Calculator.aspx
406
377
Przykład 5.3 Obliczenia adaptacji produktu na rynku według modelu Bassa
Przyjmijmy następujące dane o ilości alokacji produktu A na rynku w poszczególnych miesiącach 0,1,…,12.
Miesiąc
Ilość
0
1
2
3
4
5
6
7
8
9
10
11
12
0
150
330
523
698
831
917
966
990
1002
1007
1009
1010
Mamy przewidzieć alokację na rynku produktu B, który zastępuje A i jest do niego podobny. W tym celu musimy wyliczyć parametry: p, q, oraz m wykorzystywane w modelu
Bassa, a następnie wyznaczyć krzywą dyfuzji. Wykorzystamy model optymalizacji nieliniowej i dodatek Solver w programie Microsoft Excel (rys. 5.5) lub Open Office.
Rys. 5.5 Rozwiązanie problemu z przykładu 5.3 za pomocą programu Excel
W komórki A2-A14 arkusza należy wpisać numery okresów analitycznych (np. miesiące), natomiast w B2-14 wartości obserwowanej sprzedaży danego dobra. Na tej podstawie można wygenerować wykres (linia ciągła) W kolumnie C program wylicza przyrosty ilościowe w okresach (C2 pozostawiamy puste), natomiast w C3 wstawiamy wyrażenie „=B3-B2”. Kopiujemy komórki w kolumnie B (dane będą stanowić podstawę wykresu różnicowego – linia przerywana). W kolumnie D musimy wstawić funkcję współczynnika sprzedaży, jako ilorazu ilości sprzedanej w danym okresie do poziomu nasycenia rynku. W komórce D2 wpisujemy: „=B2/$19$B”. Kopiujemy w kolumnie D pozycje
od D2 do D14. W kolumnie E komputer ma za zadanie obliczyć liczebności teoretyczne
współczynnika sprzedaży. W tym celu w komórce E2 wpisujemy 0, a w E3 wyrażenie
Bassa w postaci: „=E2+($B$17+($B$18*E2))*(1-E2)”. Kopiujemy komórki w kolumnie E
do pozycji E14. W kolumnie F obliczamy kwadraty różnic pomiędzy obliczonymi współ-
378
czynnikami sprzedaży. Innymi słowy w F3 wpisujemy wyrażenie: „=(E3-D3)^2”. Komórki F2-F14 będą zmieniane. W komórce F15 sumujemy dane w kolumnie F, wstawiając wyrażenie „=SUMA(F2:F14)”. To jest nasza komórka obliczana.
Uruchamiamy Solver i wpisujemy dane: komórka celu $F$15 i wybieramy opcję
[Min]. Wpisujemy zakres komórek zmienianych: $B$17:$B$19 i naciskamy klawisz [Rozwiąż]. Program wylicza wówczas współczynniki p, q oraz m optymalne.
Dla tak przygotowanego rozwiązania można sporządzić wykres, wykorzystują
standardową opcję [Wykres] w Excelu lub Open Office. Wynik przedstawiono na rysunku powyżej. Formatowanie wykresu i jego właściwości jest opisane w pomocy online
programów.
Przedstawione przykłady zastosowań optymalizacji nieliniowej są na tyle uniwersalne, że można próbować je adaptować do innych zagadnień, pokrewnych
strukturalnie.
5.3.3 Symulacja
Czasami w praktyce zarządzania konieczne jest ustalenie jakiegoś stanu wymiernego zmiennej w przyszłości dysponując danymi z przeszłości oraz czasu
bieżącego. Nie jest przy tym znany deterministyczny model rozwoju danej
zmiennej. Wówczas konieczne staje się użycie metod symulacyjnych. Szczególnie użyteczna jest medoda Monte Carlo oraz scenariusze tworzone za pomocą
szeregów czasowych. Problemami, które można w ten sposób rozwiązywać są:
analiza ryzyka, struktura portfolio, symulacja zapasu magazynowego, analizy
co-jeżeli, symulcje ATM, czas obsługi klienta, prognoza wartości waluty, kursy
akcji etc.
Symulacje stanowią bardzo ważne narzędzie, stosowane przede wszystkim
do prognozowania skutków decyzji finansowych. Dla menedżera są one trudne
do stosowania, ponieważ warunkiem wykonania symulacji jest skonstruowanie
odpowiedniego modelu formalnego dla konkretnego przypadku, a interesujące
zagadnienia z obszaru zarządzania zwykle nie należą do matematycznych.
Najprostszym modelem symulacji deterministycznej jest aproksymacja liniowa (rozdział 6.2.1) lub nieliniowa, w szczególności wielomianowa408. Pozwala
ona na przybliżanie danych dyskretnych za pomocą funkcji ciągłej i obliczania
wartości zmiennej zależnej w punktach pomiędzy pomiarami (interpolacja) albo
na prognozę wyniku poza zakresem pomiaru (ekstrapolacja). Zarówno ekstrapolacja, jak i interpolacja wymaga zdefiniowania modelu przybliżenia danych
za pomocą jakiejś funkcji i pomiaru dyskretnego w kilku punktach.
Zmienna może mieć jednak charakter losowy. Wówczas przybliżenie modelu za pomocą funkcji gładkiej (albo łamanej) nie jest możliwe. Jak wówczas
postępować z próbami oszacowania wartości w jakimś punkcie? Bardzo oryginalna metoda symulacji została zastosowana po raz pierwszy przez polskiego
408
Ralston A., op. cit.
379
matematyka lwowskiej szkoły S. Ulama409, którą nazwano Monte Carlo. Procedura postępowania składa się w zasadnie z dziewięciu kroków.
1. Określenie wskaźnika ilościowego, stanowiącego podstawę miary danego
problemu, w którym można wyróżnić zmienną losową, np.: (wartość opcji,
poziom zadłużenia, zysk, efektywność).
2. Zbudowanie modelu formalnego (matematycznego) dla badanego problemu, w którym wystąpi przynajmniej jedna zmienna losowa (przyjmuje
wiele przypadkowych wartości).
3. Ustalenie odpowiedniego rozkładu prawdopodobieństwa dla każdej zmiennej losowej w opisywanym zagadnieniu (np. Gaussa, dwumianowy).
4. Przetworzenie rozkładów prawdopodobieństwa ustalonych w punkcie 3 do
postaci skumulowanej (dystrybuanty zmiennej losowej, czyli prawdopodobieństwa wystąpienia przypadkowej wartości x, mniejszej lub równej od
wartości rzeczywistej x).
5. Przypisanie każdej wartości zmiennej losowej w sposób wzajemnie jednoznaczny odpowiedniej wartości losowej, którą generujemy za pomocą generatora liczb losowych (np. funkcji Los() w programie Microsoft Excel).
6. Wygenerowanie wartość zmiennej losowej, określonej w poprzednim kroku
i wykorzystywanie jej do wyznaczenia wartości miary wskaźnika określonego w pkt. 1, zgodnie z modelem formalnym, określonym w pkt. 2.
7. Zapamiętanie wartości wyznaczonej w kroku 6.
8. Powtórzenie kroków procedury 4 – 7 wielokrotnie (10 000 i więcej razy – im
więcej, tym dokładniejszy wynik symulacji) i zapamiętanie liczby powtórzeń.
9. Obliczenie średniej arytmetycznej z wyników zapamiętanych w pkt 7 (stanowi ona rezultat symulacji Monte Carlo dla zagadnienia postawionego w
pkt.1 zgodnie z modelem formalnym, określonym w pkt. 2).
Jak już wspomniałem wcześniej, eksperymentu ekonomicznego nie da się powtórzyć, ponieważ odwrócenie w czasie stanu otoczenia nie jest możliwe. Tym
samym warunki przeprowadzenia powtórzenia doświadczenia nie będą identyczne. Nie dotyczy to jednak symulacji. To możemy powtarzać wielokrotnie i
posługiwać się wynikiem uśrednionym. Na tym polega między innymi sens metody Monte Carlo. Im więcej symulacji uda się przeprowadzić i im lepsze narzędzia zostaną użyte, tym lepszą prognozę przyszłej sytuacji biznesowej można
otrzymać.
409
Metropolis N., Ulam S., "The Monte Carlo Method", Journal of the American Statistical Association, vol.
44, No. 247, (1949), pp. 335–341.
380
Zarządzanie kontraktami terminowymi
Wyobraźmy sobie, że podpisujemy kontrakt na dostawę wyrobów za trzy
miesiące, za które otrzymamy zapłatę w USD po kursie obowiązującym miesiąc
po terminie dostawy. Widać od razu, że pojawiło się ryzyko kursowe, bo relacja
złotówki do dolara zależy od notowań na FOREX. Możemy zyskać, ale równie
dobrze możemy stracić. Im większy kontrakt, tym większa nominalnie jest różnica w stosunku do dnia dzisiejszego. Czy można zatem zredukować potencjalne straty z tytułu różnic kursowych? Są na to dwa sposoby:
1. Wynegocjować przedpłatę i odpowiednią wartość kontaktu, gwarantującą
pokrycie ewentualnych strat z tytułu różnic kursowych.
2. Wystawić w dniu podpisania kontraktu opcje put na sprzedaż USD po ustalonym kursie zapadające na dzień zapłaty za ten kontrakt, zyskując określoną kwotę zwaną premią opcyjną (rozdział 4.7.4).
Powstaje problem, jak oszacować wartość opcji put410 w dniu podpisania kontraktu, żeby opłacało się zabezpieczać w ten sposób prognozowaną różnicę kursową, a nabywca był zainteresowany zakupem opcji i wpłaceniem premii opcyjnej411. Można wówczas posłużyć się symulacją Monte Carlo, wykorzystując wzór
Blacka-Scholesa412. Zostało to przedstawione w rozdziale 6.8.2.
5.3.4 Analiza „What if”
Analizy tego typu są powszechnie stosowane przy oszacowaniach ryzyka
projektów inwestycyjnych. Przykładami są omawiane wcześniej oszacowania finansowe opłacalności inwestycji, wartości NPV oraz IRR (rozdział 4.7.1), a także
praktyczny przykład analizy wrażliwości opisany na str. 374. Generalnie analiza
„A co jeżeli?”, wiąże się z symulacjami przyszłych stanów oraz scenariuszami
rozwoju sytuacji. W niektórych przypadkach są to analizy jakościowe lub quasiilościowe, w wyniku których otrzymujemy scenariusze np. PEST ( rozdział 6.3.2)
albo wskaźniki syntetyczne, np. SWOT (rozdział 6.6.2). Jednak w większości zagadnień what if poszukujemy konkretnych oszacowań ilościowych odchyleń od
wartości średnich lub oczekiwanych, zależnych od rozkładów statystycznych
swoich zmiennych losowych. W tym miejscu przedstawiona zostanie przykładowa symulacja metodą Monte Carlo dla oszacowania dochodu ze sprzedaży
nowego produktu.
Załóżmy, że zamierzamy w wprowadzić na rynek nowy produkt, dla którego najistotniejszymi kosztami są koszty zmienne robocizny oraz koszty mate-
Opcja put gwarantuje jej nabywcy sprzedaż powiązanego z nią waloru bazowego za określoną cenę w
dniu wygaśnięcia opcji. Jeżeli cena rynkowa waloru będzie wyższa – nabywca opcji zyskuje (ale wystawca
nie traci) wykonując ją. Jeżeli cena będzie niższa, nabywca opcji nie musi jej wykonać.
411
Hull J. C., „Kontrakty terminowe i opcje. Wprowadzenie”, WIG-Press, Warszawa, 1998.
412
Black F., Scholes M., “The Pricing of Options and Corporate Liabilities”, „Journal of Political Economy”,
vol . 81( 3), (1973), 637–654.
410
381
riałowe, natomiast po stronie przychodowej prognozowany popyt. Mamy oszacować prognozowany przychód z wyprodukowania i sprzedaży określonej ilości produktu. Już na pierwszy rzut oka można zauważyć, że trzy zmienne decydujące o wyniku finansowym nie mogą być uznane za niezależne od czasu. W
dodatku nie można przyjąć, że będą one zmieniać się w sposób deterministyczny. A zatem dla oszacowań ilościowych nadaje się w sposób szczególny symulacja scenariuszowa. Nasze zagadnienie należy rozważyć w trzech wariantach: scenariusza optymistycznego, scenariusza pesymistycznego i tego najbardziej prawdopodobnego. W przypadku pesymistycznym, wszystkie czynniki
złożą się na najgorszy, możliwy wynik. W optymistycznym, będą to najlepsze
możliwe. Ten najbardziej prawdopodobny będzie zatem leżeć gdzieś pomiędzy.
I właśnie tego wyniku poszukuje się w analizie symulacyjnej.
Przykład 5.4 Symulacja prognozowanego dochodu
Niech k1 będzie kosztem pracy na jednostkę produktu A, a k2 kosztem materiałów.
Koszty stałe szacowane są na kwotę ks. Niech x będzie popytem w pierwszym roku
sprzedaży a c będzie ceną jednostkową. Wówczas dochód ze sprzedaży produktu A będzie dany wyrażeniem:
(5.6)
D = (c – k1 – k2)x - ks
Oszacowania wstępne przedstawione są w tabeli 21.
Tabela 21 Dane dla przykładu 5.4
Czynnik
analityczny
Scenariusze
bazowy
pesymistyczny
optymistyczny
Koszty stałe
100 000
110 000
90 000
Koszt pracy
50
60
45
Koszt materiałów
Cena sprzedaży
Sprzedaż
Dochód
80
100
75
200
180
220
3 000
2 000
5 000
110 000
- 70 000
410 000
Jak widać, z danych w tabeli 21, można na tej produkcji dobrze zarobić, ale równie
dobrze można stracić. Konieczne jest zatem przeprowadzenie jakiejś analizy ryzyka,
uwzględniającej prawdopodobieństwo uzyskania takiego, a nie innego wyniku.
W tym celu konieczne jest ustalenie rozkładów prawdopodobieństwa zaistnienia
zmian każdego czynnika. Załóżmy, że koszty stałe nie będą zmieniać się w czasie z
chwilą podjęcia decyzji o produkcji i pozostaną na poziomie 100 000 zł. Założenie takie
jest na ogół uzasadnione. Koszty pracy zmieniają się w zakresie [45, 60] zł przy czym
prawdopodobieństwo zaistnienia na poziomie 45-46 zł wynosi 0,1; 47-50 wynosi 0,3; 5154 zł wynosi 0,3; 55-57 zł wynosi 0,2 i 58-60 zł wynosi 0,1. Koszty materiałów [80, 100] zł
mają równy rozkład prawdopodobieństwa w całym przedziale wynoszącym 0,05 dla
każdej wartości. Cena sprzedaży zmienia się w zależności od popytu tak, że jeżeli popyt
jest maksymalny, to cena jest również maksymalna, a wraz ze zmniejszaniem się popytu
382
maleje proporcjonalnie do ceny minimalnej. Popyt podlega rozkładowi normalnemu
Gaussa o średniej 3500 i odchyleniu standardowym 750.
Rys. 5.6 Analiza Monte Carlo dla przykładu 5.4
Budowanie modelu dla Excel (rys. 5.6)
Wykorzystujemy funkcję generatora liczb losowych z programu Excel „Los()”, którą
wprowadzamy do komórki B12 (i będziemy kopiować w całej kolumnie B w liczbie pożądanych powtórzeń). W komórce C12 wprowadzamy wyrażenie, umożliwiające symulację najbardziej prawdopodobnej wartości kosztu robocizny =JEŻELI(B12<0,1;45,5;JEŻELI(B12<0,4;49;JEŻELI(B12<0,7;53;JEŻELI(B12<0,9;56;JEŻELI(B12<1;59;0))))) Oznacza
to, że jeżeli liczba losowa jest mniejsza od 0,1, to program wpisuje 45 zł, w przeciwnym
wypadku, jeżeli jest ona mniejsza od 0,4 to wpisuje 49 zł, w przeciwnym wypadku… itd.
W komórce D12 wpisujemy wyrażenie =ZAOKR(75+(100-75)*B12;2) co oznacza zaokrągl
do dwóch miejsc po przecinku wartość najniższej płacy powiększonej o iloczyn wygenerowanej liczby losowej w komórce B12 i różnicy pomiędzy maksymalną i minimalną
wartością robocizny (100 – 75).
W kolumnie E będziemy posługiwać się odwróconym rozkładem normalnym, który jest
funkcją standardową w programie Excel i został wybrany dla określenia rozkładu prawdopodobieństwa popytu. Przyjmujemy parametry rozkładu: średnia 3 500 szt. przy odchyleniu standardowym 750. Wpisujemy do komórki E12 co następuje =ZAOKR(ROZKŁAD.NORMALNY.ODW(B12;3500;750);0) co daje w wyniku liczbę w zakresie zbliżonym do przyjętych ograniczeń 2000 i 5000 dla dowolnie wygenerowanej liczby losowej
(poza skrajnie małymi i skrajnie dużymi).
Ponieważ ustalono cenę, jako wielkość proporcjonalną do zmienności popytu, zatem do
komórki F12 wpisujemy =ZAOKR(E12/$D$8*($D$7-$C$7)+$C$7;2).
W końcu do komórki G12 wpisujemy wyrażenie na dochód określone wzorem (5.6) w
formie =(F12-C12-D12)*E12-$B$4
383
Następnie kopiujemy zakres B12:G12 w dół w liczbie wierszy pożądanych powtórzeń.
Po dokonaniu przez program obliczeń, wykorzystujemy funkcję „Średnia” dla zakresu
komórek G12:GXXX (XXX jest liczbą wierszy z obliczeniami).
W komórkach F4:F9 zaznaczyłem liczbę wykonanych symulacji, a w komórkach
G4:G9 odpowiadające jej wartości oczekiwane dochodu. Można zauważyć, ż mniej więcej od n = 500, wynik zaczyna się zmieniać o małą wartość, a dodatkowo niewiele odbiega
od przyjętych założeń bazowych. To oznacza, że liczba powtórzeń symulacji na poziomie 500 jest dla analizowanego przypadku wystarczająca. Na ogół wykonuje się 10 000
powtórzeń jako bezpieczną, uniezależniając wynik od gorszego uwarunkowania modelu.
5.3.5 Elementy teorii gier
Zastosowanie teorii gier w ekonomii i zarządzaniu doprowadziło do przyznania pięciu nagród Nobla aż 11 uczonym na przestrzeni 30 lat413. Ten fakt nakazuje zatem zwrócenie baczniejszej uwagi na wykorzystanie metod teorii gier
matematycznej w praktyce menedżerskiej. Z grami związana jest pewna filozofia postępowania przy podejmowaniu decyzji. Opiera się ona na ustaleniu sytuacji konfliktowej, w której dwie strony konfliktu starają się go rozwiązać na
swoją korzyść. W wielu wypadkach istnieje rozwiązanie kompromisowe, które
zapewnia stan równowagi. Przykładem niech będzie sytuacja, w której dwoje
dzieci ma podzielić sprawiedliwie między siebie ciastko. Jedno z dzieci otrzymuje nóż i będzie kroić ciastko na dwie połowy, ale żeby podział był sprawiedliwy, drugie z dzieci wówczas prawo pierwszeństwa wyboru odkrojonej części.
Widzimy tu wyraźnie złośliwość sytuacyjną, tak charakterystyczną dla wszelkich sytuacji wziętych z rzeczywistości.
Najbardziej interesujące są jednak przypadki gier dwuosobowych przeciwko otoczeniu. Zawsze mamy wówczas do czynienia z sytuacją konfliktową.
Jeden z graczy A usiłuje pozyskać zasoby z otoczenia, wykonując jakieś czynności lub działania. Drugim graczem B jest otoczenie, które odpowiada na te działania w możliwie najbardziej złośliwy sposób. Wynik zależy zatem od przyjętej
strategii postępowania przez gracza A, zakładając że otoczenie zawsze wybierze
zawsze najlepszą (najgorszą dla A), możliwą odpowiedź. Tak można wyjaśniać
działanie reguły przekory i ujemnego sprzężenia zwrotnego. To jest również
zgodne z zasadami minimum działania w przyrodzie. W końcu teoria gier idzie
w parze z racjonalnością postępowania. Nie jest zatem zaskoczeniem, że w praktyce biznesowej można znaleźć rozmaitość przykładów gier.
Herbert Simon 1974 (ewolucyjna teoria gier i ograniczona racjonalność podejmowania decyzji), John
Nash, Reinhard Selten i John Harsanyi 1994 (rozwój teorii gier i jej zastosowania w ekonomii), William
Vickrey i James Mirrlees w roku 1996 (konflikty z niesymetryczną informacją dla uczestników), Thomas C.
Schelling i Robert J. Aaumann 2005 (zastosowanie teorii gier w naukach społecznych), Leonid Hurwicz,
Eric S. Maskin, Roger B. Myerson w 2007 (zastosowanie teorii gier z alokacjach zasobów).
413
384
Oczywiście oprócz gier dwuosobowych mogą istnieć gry wieloosobowe,
gdzie dopuszczalne jest cały szereg relacji między graczami, w tym zawieranie
aliansów i koalicji, ale również gier każdego z każdym. Można się również domyślać, że istnieją gry jednorazowe, sekwencyjne, sprzężone, równoległe oraz
cały szereg układów gier opisujących zjawiska gospodarcze. Wspólną ich cechą
jest zawsze istnienie sytuacji konfliktowej, zasady gry, strategie do wyboru i
określona wypłata na koniec gry.
Definicja gry
Podejmując się definiowania gry należy przyjąć, że stanowi ją opis formalny
procesu postępowania interesariuszy w rozwiązywaniu sytuacji konfliktowej, w
której istnieje skończona liczba graczy. Mogą oni wybierać strategie postępowania z pewnego zbioru dostępnych działań {Sk} dla każdego z k graczy. Przy tym
istnieją określone jednoznacznie reguły postępowania (zbiór reguł), które są bez
ograniczeń znane wszystkim graczom oraz mierzalny wynik gry, nazywany wypłatą W, wyrażony w jakiejś skali miary użyteczności, możliwy do zdefiniowania dla każdego uczestnika Wk. Przykładem definiowania gry jest systemowe
ujęcie działalności gospodarczej (rozdział 1.5.1).
Teraz dopiero można wprowadzać interpretacje (modele semantyczne) dla
pojęć użytych w definicji. Dla przykładu w dwuosobowej grze, gdzie mamy
dwóch graczy G1 oraz G2, którzy dysponują strategiami {SG1} oraz {SG2} w grze,
w której wypłatą jest wartość W, grę można zdefiniować jako trójkę liczb
[SG1,SG2,W]. Gracze G1 oraz G2 wybrali strategie i po wykonaniu pewnych działań gracz G1 wypłacił graczowi G2 wypłatę W414. Jest to bardzo ważny aspekt w
kontekście rozważań nad grami przeciwko otoczeniu, gdzie zawsze mamy do
czynienia z grą dwuosobową lub grą sprowadzalną do skończonej liczby gier
dwuosobowych (nawet gdy po jednej stronie gra koalicja).
Ze względu na fakt, że w sytuacji konfliktowej możemy mieć do czynienia
z większą ilością jej uczestników, niż dwóch, można oczekiwać, że istnieją inne
rodzaje gry niż dwuosobowa. Również reguły gry mogą być powodem, że niektóre gry są sprawiedliwe (gry o sumie zero), a niektóre nie są (gra w kasynie o
sumie niezerowej).
W grze mamy zawsze do czynienia z sytuacją, w której przynajmniej jeden
gracz działa wyłącznie w celu osiągnięcia maksimum korzyści poprzez antycypację kontrreakcji oponentów na swoje działania (gracz racjonalny). Zakłada on
przy tym, że wszyscy pozostali uczestnicy podejmują najkorzystniejsze dla siebie działania (strategie optymalne).
Wypłata W może być wartością ujemną dla gracza G1, a wówczas to gracz G2 wypłaca graczowi G1
dodatnią wartość. Ze względów porządkowych ustala się relacje w stosunku do gracza G1.
414
385
Przykład 5.5 Optymalizacja podatkowa jako gra prze ciwko otoczeniu
Przykładem takiej racjonalizacji jest optymalizacja podatkowa. Jeżeli państwo nakłada zbyt wysoki haracz za swoje wątpliwej jakości usługi, to podatnicy działają wówczas tak, żeby zapłacić jak najmniej. Jest to działanie w pełni racjonalne, wykorzystujące
regułę przekory LeChateliera jako strategię działania oraz zasadę minimaksu (minimalna strata w formie zapłaconego podatku przy maksymalizacji kontrybucji nałożonej
przez państwo). Gra ma charakter wieloosobowy, który można sprowadzić do szeregu
równoległych gier dwuosobowych o sumie niezerowej, ponieważ zawsze obywatel traci.
Reguły gry są niejasne, a informacja dostępna jest dla obywateli w sposób ograniczony
(zagmatwane prawo i możliwości swobodnej interpretacji reguł w czasie trwania gry
przez pańtwo). Dodatkowo żaden z graczy nie ma możliwości wycofania się z gry, a
zatem każdy musi opracować własne strategie optymalne ad hoc.
Najważniejszym podziałem gier jest ich rozróżnienie ze względu na dostęp
do informacji (pełna lub niepełna). Reprezentacją kognitywną tego podziału
mogą być gry naprzemienne (gracze dokonują ruchów naprzemiennych, znając
posunięcie poprzednie przeciwnika, np. szachy) oraz gry symultaniczne (gracze
wykonują posunięcia równoczesne, np. gra w marynarzyka – „papier, kamień,
nożyce” kiedy żaden z nich nie ma pełnej informacji o ruchu przeciwnika). W
rzeczywistości biznesowej mamy często do czynienia z grami mieszanymi, gdzie
występują zarówno elementy naprzemienne i równoczesne. Jeżeli dwie firmy
zaczynają konkurować na rynku, wybierają swoje strategie cenowe i nie informują się o tym, ale z chwilą rozpoczęcia realizacji (element symultaniczny), pojawiają się korekty cenowe adaptatywne do poziomu konkurencji (element naprzemienny).
Macierz wypłaty i punkt siodłowy
Z punktu widzenia gier, za najważniejszy aspekt należy uznać szacowanie
wypłaty. Stosuje się do tego celu macierze wypłat. Najprostszym przykładem
jest dwuosobowa gra o sumie zero. Oznacza to, że wygrana jednego z graczy jest
dokładnie taką samą przegraną drugiego. Ale może wówczas istnieć strategia
remisowa, gdzie obaj ani nic nie wygrywają ani nie przegrywają (remis w szachach). Mówimy wówczas o istnieniu punktu siodłowego gry (rys. 5.7).
Przykład 5.6 Gra marketingowa
Mamy dwie konkurujące ze sobą na rynku firmy A oraz B, oferujące identyczne
produkty. Każda z firm dysponuje identycznymi strategiami:
S1. Zwiększyć nakłady na reklamę.
S2. Wprowadzić upusty.
S3. Rozszerzyć gwarancje.
S4. Wprowadzić wartość dodaną do produktu bazowego.
Macierz wypłat (rys. 5.7) należy odczytywać następująco: jeżeli firma A wybierze strategię S1, może spodziewać się wzrostu sprzedaży o 4% jeżeli firma B wybierze strategię
386
S1, 3% jeżeli firma B wybierze S2 itd. Automatycznie, jeżeli firma A osiąga wynik dodatni, traci na tym firma B tyle samo. Dlatego suma wypłat wynosi zawsze 0. W przykładzie widać wyraźnie, że wojna cenowa nie jest dobrym rozwiązaniem dla firmy B, a
bitwa na rozszerzanie gwarancji nie jest dobra dla A.
Rys. 5.7 Tabela wypłat w przykładzie 5.6
Można zauważyć, że w przykładzie 5.6, strategia S1 wybrana przez A, zawsze przynosi dodatni wynik (rys. 5.7). To oznacza, że jest ona dominującą nad
innymi. Wybierając strategię S3 może wprawdzie zyskać 5%, jeżeli firma B Synderze S1, ale jest to nieracjonalne, bo firma B z pewnością wybierze strategię S2 i
to ona zyska 3% kosztem A. Racjonalnym jest zatem, że firma A będzie dążyć do
maksymalizacji zysku, podczas gdy firma B będzie robić wszystko, aby wygrana
firmy A była minimalna, bo wówczas jej strata będzie też minimalna. W rezultacie firma A będzie szukać maksimum wśród minimalnych wypłat (maksimum z
minimów w szeregach), a firma B będzie poszukiwać minimalnych strat (minimum z maksimów w kolumnach). Obie strony poszukują zatem minimaksu.
Może się tak zdarzyć, że istnieje równocześnie maximinimum równe minimaksimum. W naszym przykładzie jest to liczba 2 przy wyborze strategii S1
przez firmę A przy równoczesnym wyborze strategii S4 przez firmę B (komórka
F3 w tabeli z rys. 5.7). Mówimy wówczas, że gra posiada punkt równowagi,
zwany punktem siodłowym. Jeżeli zachodzi równość:
Maksimum (minimów w szeregu) = Minimum (maksimów w kolumnach)
wówczas gra posiada rozwiązanie w strategiach czystych. Tym samym gra zaprezentowana w przykładzie posiada strategie czyste S1 dla A oraz S4 dla B,
prowadzące do punktu siodłowego.
Strategie mieszane
Nie zawsze w grze można znaleźć punkt siodłowy, bo nie da się wyznaczyć
czystych strategii. Wówczas konieczne jest uwzględnienie kombinacji liniowej
istniejących strategii, gdzie współczynnikami udziału poszczególnych strategii
jest prawdopodobieństwo ich użycia. Problem ten sprowadza się do wykorzystania programowania liniowego i wyznaczenia minimaksu.
387
Przykład 5.7 Gra o strategiach mieszanych.
Mamy grę o zdefiniowanej macierzy wypłat w poniższej tabeli. Można zauważyć,
że w tym przypadku gra nie ma punktu siodłowego (rys. 5.8). Dla jej rozwiązania należy
użyć strategii mieszanych.
Rys. 5.8 Macierz wypłat w przykładzie 5.7
Niech PA(S1), PA(S2), PA(S3), PA(S4) oznacza prawdopodobieństwo użycia przez gracza A odpowiednio strategii S1, S2, S3 i S4. Suma prawdopodobieństw
PA(S1)+PA(S2)+PA(S3)+PA(S4) =1. (Załóżmy że prawdopodobieństwa są równe po 0,25).
Niech EA-B(S1), EA-B(S2), EA-B(S3) i EA-B(S4) oznacza oczekiwaną wypłatę dla gracza
A, jeżeli gracz B wybierze czystą strategię odpowiednio S1, S2, S3, S4. Wówczas:
EA-B(S1) = 5PA(S1)-2PA(S2)+5PA(S3)+2PA(S4) = 2,5
EA-B(S2) = 2PA(S1)+3PA(S2)-3PA(S3)+1PA(S4) = 3,0
EA-B(S3) = 3PA(S1)+1PA(S2)-2PA(S3)-1PA(S4) = 1,0
EA-B(S4) = 2PA(S1)+0PA(S2)+4PA(S3)+1PA(S4) = 7,0
Na tej podstawie firma A może domniemywać, że B wybierze właśnie strategię S3 ponieważ minimalizuje ona wypłatę dla A przy strategiach mieszanych. Oznacza to, że
wybór strategii z równym prawdopodobieństwem nie jest optymalnym dla A.
Żeby obliczyć optymalne działanie dla A oraz B, konieczne jest zastosowanie programowania liniowego. Wykorzystamy w tym celu program Excel z dodatkiem Solver,
z parametrami określonymi na rys. 5.9. Mamy tablicę z danymi wypłat w grze, komórki
w zakresie [B3:F6].
1. W komórce G3 wpisujemy funkcję =MIN(C3:F3) następnie kopiujemy do komórek
G4:G6. W ten sposób program wyznacza minima wypłat dla A przy wyborze czystej
strategii przez obu graczy.
2. W komórce H3 wpisujemy wyrażenie =MAX(G3:G6), co pozwala na znalezienie
maksiminimum wypłat dla gracza A i ustalenie, która z czystych strategii daje najlepszy rezultat, niezależnie od wyboru strategii czystej przez gracza B.
3. W wierszu 7 dokonujemy podobnych obliczeń. W komórce C7 wpisujemy funkcję
=MAX(C3:C6) i kopiujemy w komórkach z zakresu [D7:F7]. Uzyskujemy w ten sposób maksymalne straty dla gracza B, w wyniku przyjęcia określonej strategii czystej
przez obu graczy.
4. W komórce D8 wpisujemy wyrażenie =MIN(C7:F7) w celu ustalenia minimaksimum
straty gracza B, niezależnie od wyboru strategii czystej przez obu graczy.
388
5.
W wierszu 9 wstawiamy wyrażenia wyników dla strategii mieszanych. W komórce
C9 wstawiamy =SUMA.ILOCZYNÓW(C3:C6;$G$13:$G$16 i kopiujemy do komórek
w zakresie [D9:F9]. W tym miejscu program wpisze wyliczone wypłaty dla gracza
A, jeżeli gracz B zastosuje określoną strategię czystą.
Rys. 5.9 Rozwiązanie dla strategii mieszanej Excel/Sollver
6.
7.
W komórce G11 wpisujemy wyrażenie funkcji celu dla gracza A: =MIN(C9:E9) Jest
to minimalny z maksymalnych wyników gry w zakresie komórek [C9:F9].
Komórki [G13:G16] pozostają puste. Solver po dokonaniu obliczeń wypełni wartościami optymalnymi częstotliwości użycia strategii czystych (prawdopodobieństwa
użycia strategii czystych w strategii mieszanej) przez gracza A.
389
8.
W komórkach [G18:G21] znajdują się warunki ograniczające możliwe rozwiązania.
Wypłata dla gracza A musi być wyższa od minimalnej, gdy gracz B wybierze daną
strategię czystą (S1, S2, S3 lub S4). W komórkach G18:G21 należy wpisać wyrażenia
=SUMA.ILOCZYNÓW(C3:C6;$G$13:$G$16)
=SUMA.ILOCZYNÓW(D3:D6;$G$13:$G$16)
=SUMA.ILOCZYNÓW(E3:E6;$G$13:$G$16)
=SUMA.ILOCZYNÓW(F3:F6;$G$13:$G$16)
9. W komórce G22 należy wpisać ostatni warunek, suma prawdopodobieństw użycia
strategii czystych jest nie większa od 1. Wpisujemy zatem =SUMA($G$13:$G$16)
10. Teraz pozostaje uruchomić program Solver i wprowadzić parametry wejściowe (rys.
5.9). Zaznaczyć wariant rozwiązania Max. Komórka celu $G$11. Komórki zmieniane
$G$13:$G$16. Następnie wprowadzamy ograniczenia:

Rozwiązania w zakresie $G$13:$G$16 <= 1 (nie większe niż 1)

Obliczone wypłaty w zakresie $G$18:$G$21 >= $G$11 (nie mniejsze niż minimalna, przy wykorzystaniu strategii czystych)

Ostatni warunek $G$22 = 1 (suma prawdopodobieństw jest równa 1)

W opcjach Solvera zaznaczamy „Model liniowy” oraz „Przyjmij dodatnie”.
11. Po wyjściu z opcji nacisnąć klawisz [Rozwiąż]. Program wypełni komórki obliczonymi wartościami.
W powyższej sytuacji istnieje dla gracza A rozwiązanie optymalne, lepsze niż
maksymalne z minimalnych wypłat przy stosowaniu strategii czystych (2,75 zamiast 2,0). Co więcej zastosowanie strategii czystych S1 w ilości 25% i S2 ilości
75% przyniesie optymalny rezultat niezależnie od strategii wybieranych przez
gracza B. Jednocześnie z obliczeń wynika, że gracz A nie powinien stosować
wcale strategii S2 oraz S3.
Analogiczną analizę można przeprowadzić dla gracza B i wyznaczyć dla
niego zoptymalizowane strategie mieszane. Okaże się wówczas, że w przykładzie powyższym, również maksymalną stratą optymalną dla gracza B jest wartość 2,75. Jest to punkt równowagowy tej gry przy strategach mieszanych.
Przykład 5.7 pokazuje zalety optymalizacji postępowania przy użyciu teorii
gier. Problemem jest zrozumienie zasad minimaksu oraz maksimini w sytuacjach konfliktowych i przełożenia tego na model opisujący daną rzeczywistość.
Dodatkowo konieczna jest znajomość wypłat dla poszczególnych strategii. Nie
zawsze jest to możliwe do łatwego ustalenia.
Drzewa decyzyjne w grach naprzemiennych
W przypadku gier z pełną informacją, w których kolejny gracz podejmuje
decyzję po zakończeniu działania poprzedniego gracza, mamy do czynienia z
sytuacją, w której możemy przewidywać kolejne posunięcia do przodu i analizować aktualne położenie przed wykonaniem działania. Przykładem klasycznym takiego modelu jest gra w szachy. Gracz racjonalny wybiera działanie
(pierwsze, lub każde następne), rozważając reakcje i kontrreakcje będące skutkiem jego ruchu, decyzji lub działania. Następnie ocenia, zgodnie z modelem
390
podejmowania decyzji, zaprezentowanym na rys. 3.4, która z możliwych wypłat
cząstkowych jest dla niego najbardziej korzystna (ma największą użyteczność
lub wartość i przez to jest najbardziej preferowana), po czym wybiera działanie
optymalne. Jest to algorytm indukcji wstecznej (lub odwrotnej), który polega
na wyznaczeniu w pierwszej kolejności optymalnej strategii dla tego gracza,
który podejmuje decyzję jako ostatni. Dopiero potem wyznacza się optymalna
strategię dla gracza, który wykonuje ruch jako przedostatni. Znamy wówczas
wyznaczoną we wcześniejszym kroku iteracji strategię ostatniego gracza. Proces
ten kontynuuje się do początku gry, co pozwala na ustalenie sekwencyjne optymalnych strategii dla wszystkich graczy. Tak uzyskane strategie prowadzą do
punktu równowagi, który określa się punktem doskonałej równowagi Nasha415.
Z równowagi Nasha w grze można wywodzić równowagę w sensie Pareto,
gdzie poprawienie swojej pozycji przez zastosowanie strategii równowagowej
nie pogarsza pozycji innych graczy194.
Warto w tym miejscu po raz kolejny przypomnieć zasadę Bellmana (rozdział 3.2.4) i procesy Markowa, gdzie ustalenie optymalności decyzyjnej w kroku
n-tym ciągu decyzyjnego, pozwala ustalić optymalność całego procesu wstecz.
Jest to dobry przykład działanie indukcji odwrotnej, która została wprowadzona
przez teorię gier.
Rys. 5.10 Przykładowe drzewo gry naprzemiennej
Gry sekwencyjne przedstawia się w postaci drzewa (w odróżnieniu od macierzy wypłat w grach równoczesnych). Jest to przykład matematycznego
obiektu zwanego grafem skierowanym. Drzewo gry składa się z wierzchołków
415
Strafin P.D., op. Cit. str. 130
391
(punktów decyzyjnych), oraz łączących je linii. Każdy wierzchołek w rozwinięciu grafu, może być traktowany jako podgra (pojedynczy ruch) danej gry sekwencyjnej. W każdym wierzchołku decyzyjnym można utworzyć macierz wypłat dla podgry. Zastosowanie drzew decyzyjnych ma szerokie zastosowanie w
zarządzaniu, zwłaszcza w problemach optymalizacji portfela inwestycyjnego
lub budowania scenariuszy osiągania celów.
Dalszy wywód na temat zastosowań teorii gier w zarządzaniu wykracza
poza zakładane ramy niniejszej monografii. Tym niemniej, warto zgłębiać tą metodę, albowiem bardzo wiele decyzji jest możliwych do zoptymalizowania, o ile
zostaną dokonane obliczenia skutków i w ten sposób uda się zdefiniować wypłaty dla różnych strategii lub scenariuszy.
5.4 Globalne wskaźniki ekonomiczne w otoczeniu
Wielokrotnie media bombardują nas różnymi wskaźnikami ekonomicznymi, a „gadające głowy” z ekranu TV dyskutują zapamiętale na temat ich wartości, nie zawsze rozumiejąc dogłębnie sens interpretacyjny takiego, czy innego
wskaźnika. Przykładem może być najbardziej medialny i nadmiernie wykorzystywany dla podkreślenia zamożności danego kraju wskaźnik PKB. Niestety to
jest wskaźnik propagandowy, a nie analityczny. Stąd też bez wielu dodatkowych
informacji i ustalenia warunków pomiaru, takie dane mają małą wartość poznawczą. Ot można sobie ustawić ranking lub porównać coś rok do roku albo
miesiąc do miesiąca, a następnie dywagować co będzie.
Wskaźniki makroekonomiczne można podzielić ze względu na ich relację
czasową do zdarzeń w gospodarce (ściślej – do zmian na rynkach inwestycyjnych) na trzy grupy: wyprzedzające, równoczesne i zapóźnione. Oczywiście dla
menedżera najbardziej interesujące są wskaźniki wyprzedzające rynek przynajmniej o miesiąc, o ile są aktualizowane online (np. dane źródłowe Bloomerg,
LME, Gartner Group). Dają one informacje o potencjalnych zmianach jeszcze
przed ich powszechnym uwidocznieniem się. Z kolei obserwacja wskaźników
równoczesnych pozwala na potwierdzenie bieżącego trendu, czy to w sektorze,
czy całej gospodarce. Wskaźniki zapóźnione służą głównie weryfikacji modeli
ekonomicznych i ustalaniu prawidłowości historycznych. Za pomocą wskaźników makroekonomicznych można określać również koniunkturę dla miast i regionów416.
Do wskaźników wyprzedzających koniunkturę należy zaliczyć: CCI (Consumer Confidence Index) – wskaźnik zaufania konsumentów, PMI (Purchasing Mana-
Herbst M., „Złożone ilościowe wskaźniki koniunktury dla obszaru metropolitalnego Warszawy”, Studia
regionalne i lokalne, vol. 4(7), 2001, s.61-81.
416
392
gers Index) – Indeks zakupów surowcowych, ISM (Institute for Supply Management) – Indeks Instytutu zarządzania podażą dla sektora nieprodukcyjnego, IFO
(Institut für Wirtschaftsforschung ) oraz ZEW (Zentrum für Europäische Wirtschaftsforschung).
Wskaźnikami równoczesnymi są PKB (produkt krajowy brutto) oraz PNB
(produkt narodowy brutto), dochody osobiste ludności (dochód rozporządzalny), produkcja przemysłowa, wskaźnik zadłużenia państwa. Wskaźnikami
opóźnionymi są sprzedaż detaliczna, przyrost kredytów konsumpcyjnych, stopa
procentowa, średni czas pozostawania bez pracy, itp.
Z punktu widzenia zarządzania, rozumienie wybranych parametrów makroekonomicznych jest kluczowa, ponieważ pozwala na podejmowanie właściwych działań w skali mikro, wykorzystując zasadę sprzężeń zwrotnych, zwłaszcza regułę przekory. Kluczowym aspektem analizy wskaźników makro jest rozumienie holistyczne otoczenia i współzależności między parametrami makro i
mikro. Dodatkowo konieczne jest rozumienie miary i skali oraz modelu stojącego za danym wskaźnikiem syntetycznym. Wyobraźmy sobie, że jedziemy samochodem z prędkością 50 km/h. Czy to jest szybko? Natychmiast odpowiemy,
że to zależy od… Jeżeli będzie to ostry zakręt zimą, to może okazać się prędkością śmiertelną. Jeżeli jest to autostrada w optymalnych warunkach, to będzie
raczej powoli. A zatem kontekst danego wskaźnika jest kluczowy w jego rozumieniu i interpretacji. To właśnie stanowi istotę pragmatycznego ujęcia pomiaru
makroekonomicznego i miary w zarządzaniu.
Istnieje kilka istotnych źródeł informacji w zakresie danych ekonomicznych.
Do najważniejszych należy zaliczyć GUS, OECD, World Bank, World Economics
Forum, Eurostat. Adresy internetowe będą cytowane w dalszej części monografii, przy okazji omawiania różnych wskaźników. Na szczególne wyróżnienie zasługuje serwis „Trading Economics”417. Jest to najlepiej zorganizowane źródło
danych biznesowych dla Polski, obejmujące liczne wskaźniki branżowe, koniunkturalne oraz prognozy. W dalszej części rozdziału omówione zostaną pokrótce najważniejsze wskaźniki ilościowe, umożliwiające scharakteryzowanie
otoczenia biznesu oraz kontekstu prowadzenia działalności gospodarczej.
5.4.1 Dochód narodowy brutto PKB
Produkt krajowy brutto (PKB) (gross domestic product, GDP) stanowi pieniężną miarę wszystkich dóbr i usług wytworzonych w zadanym okresie pomiaru (roku, kwartału) przez analizowane państwo lub region. W ekonomii PKB
stanowi jeden z podstawowych mierników efektów pracy społeczeństwa danego
kraju lub regionu. OECD definiuje PKB jako „łączną miarę produkcji równą su-
417
Trading Economics, http://pl.tradingeconomics.com/indicators
393
mie wartości dodanej brutto, wszystkich jednostek instytucjonalnych zaangażowanych w produkcję na danym terytorium (w tym wszelkie podatki, minus jakiekolwiek dopłaty do produktów, które nie są uwzględnione w wartości ich
produkcji "418. Należy zauważyć, że PKB jest przybliżoną (ale nie kompletną)
miarą aktywności gospodarki i jej wielkości. Wzrosty lub spadki PKB określają
wprawdzie zmiany wzrostu gospodarczego, ale spadek PKB nawet o 10% nie
oznacza, że dany region przestał produkować, albo że nagle stał się niewydolny
ekonomicznie. Natomiast wzrost PKB ma istotne znaczenie dla wydatków i rozrzutności państwa, niekoniecznie przekładając się na dobrobyt mieszkańców.
Wskaźnik PKB oblicza się zgodnie z kryterium geograficznym. Niestety, nie
ma znaczenia dla jego wartości pochodzenie kapitału, własność przedsiębiorstw,
wielkość transakcji B2B, sprzedaż towarów używanych, wartość wytworzonych
dóbr pośrednich, itp. Można zadłużyć się ponad miarę (casus Polski) i poprawić
chwilowo wynik PKB, żyjąc na kredyt. Tym samym jest to wskaźnik mający za
zadanie odzwierciedlać dobrobyt społeczeństwa pozostając w relacji do wielkości wytworzonej wartości dodanej. Nie jest to jednak ścisła informacja odnośnie
charakterystyki danej gospodarki. Dlatego w niektórych krajach (USA, Wielka
Brytania) podejmowane są próby określenia wskaźnika całkowitej mocy wyjściowej gospodarki (GO - gross output)419 i stosowania go zamiast PKB.
PKB może być określany trzema metodami, które powinny prowadzić do
tego samego wyniku: metodą produkcyjną, przychodową oraz wydatkową.
W metodzie produkcyjnej (production approach) PKB stanowi sumę wartości dodanej ze wszystkich gałęzi gospodarki regionu (lub kraju). Globalną wartość dodaną GVA (Gross value addend) obliczamy na podstawie różnicy wartości produkcji globalnej i zużycia pośredniego dla jej wykonania (materiały, koszty
pracy, usługi…), a następnie dodając podatki i odejmując dotacje.
W metodzie przychodowej (income approach) PKB stanowi sumę dochodów
wszystkich właścicieli czynników produkcji. PKB stanowi zatem sumę dochodów z pracy, dochodów z kapitału, dochodów państwa oraz wartości amortyzacji. Tym samym metoda przychodowa uwzględnia podział GVA na wartość dodaną wynikającą z przychodów z pracy pracowników najemnych, przychodów
z kapitału właścicieli zasobów (w tym kapitałowych), przychodów z rolnictwa,
przychodów z działalności pozarolniczej, przychodów wnoszonych od usług
państwa, wartości odtworzeniowej zużytego majątku. Od tego należy odliczyć
podatki pośrednie, zapłacone w procesie produkcji.
W metodzie wydatkowej (Expenditure approach) PKB obliczany jest od strony popytowej jako suma wydatków wszystkich nabywców dóbr finalnych wytworzo-
http://stats.oecd.org/Index.aspx?DatasetCode=SNA_TABLE1 (dostęp 26.01.2016)
Jorgenson D. W.; Landefeld J. S.; [w] Nordhaus W. [red] “A New Architecture for the U. S. National
Accounts”. Chicago University Press. Chicago (2006) str. 5.
418
419
394
nych w ciągu badanego okresu (roku, kwartału). Jest to suma wydatków na konsumpcję, inwestycje, wydatki budżetowe rządu (bez transferów), wartość bilansu (eksport – import) oraz wartość oszacowania zmiany stanu zapasów.
Każda z wymienionych metod ma swoje wady i zalety. Żadna z nich nie
prowadzi do pełni informacji o rzeczywistości gospodarczej danego kraju lub
regionu. Tym niemniej jest to ważny wskaźnik z punktu widzenia zarządzania i
każdy menedżer powinien rozumieć jego sens oraz sposób obliczania. Wskaźnik
PKB (GDP) jest obliczany niezależnie przez cztery światowe organizacje: Międzynarodowy Fundusz Walutowy, Bank Światowy, ONZ oraz OECD420. Może
być on wyrażany nominalnie w cenach bieżących w USD, w dolarze międzynarodowym $Int lub PPP (rozdział 1.4.1), w zależności od rodzaju porównań. Przykładowo, PKP Polski na rok 2015 w $US wynosi 593,3 mld, podczas gdy wyrażony jest w PPP wynosi on 954,4 mld421. Jesteśmy na 23 pozycji w rankingu światowym krajów o ustalonym PKB.
Wskaźnik PNB
Obok PKB w analizach makroekonomicznych funkcjonuje wskaźnik „produkt narodowy brutto” PNB. O ile PKB nie definiuje skąd wziął się kapitał na wytworzenie dochodu oraz ile z tego przypada na produktywność podmiotów zagranicznych, z których Polska nie ma dochodu, bo ten jest transferowany z Polski, to PNB określa tą część PKB, która rzeczywiście została wytworzona przez
krajowy potencjał gospodarczy. Stąd bierze się luka pomiędzy PKB, a PNB, która
stanowi wartość wpływów do (+) oraz wypływów z (-) polskiej gospodarki. Im
ta luka jest większa, tym gorsze są uwarunkowania gospodarki narodowej, a
PKB mniej wartościowym wskaźnikiem z punktu widzenia oceny stanu ekonomicznego. W 2014 roku. Była to kwota - 14 mld EUR.
5.4.2 Dochód narodowy na jednego mieszkańca
Ponieważ PKB nie uwzględnia liczby mieszkańców wytwarzających dochód narodowy, dla porównań zamożności społeczeństwa wprowadzono
wskaźnik PKB na mieszkańca. Jest to prosty iloraz dochodu narodowego brutto
i liczby ludności. W ten sposób można również oceniać produktywność społeczeństwa. W roku 2015 Polskie PKB/mieszkańca wynosi w zależności od instytucji obliczającej: $12 662 (MFW), $14 422 (Bank Światowy); $14 111(ONZ)422.
Plasuje to nas w okolicach 50 miejsca na świecie pod względem zamożności. W
jednostkach siły nabywczej jest to około 25 000 jednostek PSN i daje 46 pozycję
w rankingu światowym MFW.
420
Wikipedia, GDP https://en.wikipedia.org/wiki/List_of_countries_by_GDP_(nominal)
Wikipedia “Gospodarka Polski”, https://pl.wikipedia.org/wiki/Gospodarka_Polski
422
Wikipedia, https://en.wikipedia.org/wiki/List_of_countries_by_GDP_(nominal)_per_capita
421
395
Menedżer planujący wejście na rynek powinien brać pod uwagę dochód narodowy na jednego mieszkańca pod uwagę analizując atrakcyjność rynku oraz
możliwości konsumpcyjne danego społeczeństwa. Jest logicznym, że polski rynek będzie mieć inną pojemność dla dóbr luksusowych, produktów innowacyjnych i zaawansowanych usług, niż ten, gdzie wskaźnik PKB na mieszkańca jest
dwukrotnie wyższy, a konkurencja może być znacząco wyższa.
5.4.3 Dochód do dyspozycji
Jest to jeden z najważniejszych wskaźników mikro, określający poziom życia i możliwości konsumpcji przez społeczeństwo danego regionu lub kraju.
Człowiek sprzedając swoją pracę lub zasoby otrzymuje przychód brutto. Może
również otrzymać granty, zasiłki, itp. (transfery z budżetu państwa). To
wszystko składa się na przychody indywidualne. Aby je uzyskać jednostka ponosi pewne koszty, co powoduje, że rzeczywisty dochód brutto jest mniejszy od
przychodu. Ale z faktu, że owa jednostka żyje w nowoczesnym państwie, musi
ponosić koszty jego funkcjonowania. W ten sposób jej dochód brutto zostaje pomniejszony przez zabór podatku od dochodu, składek ZUS, składek na ubezpieczenie zdrowotne oraz wielu innych danin, tych bardziej i tych mniej celowych,
globalnych i lokalnych, w zależności od stopnia rozpasania administracji i biurokracji państwa. W rezultacie pozostaje kwota netto (po opodatkowaniu strony
przychodowej), będąca dochodem do dyspozycji423. Kwota ta nie jest jednak do
końca kwotą wolną od podatku, albowiem nabywając dobra, obywatel płaci kolejne podatki po stronie zakupowej (VAT, akcyza, PCC). W ten sposób państwo
zabiera około 70% dochodu netto obywatela, ograniczając w ten sposób jego własność, swobody i prawa.
Dochód do dyspozycji jest ważnym wskaźnikiem ekonomicznym. Istnieje
granica jego wielkości, przy której mogą nastąpić katastroficzne zmiany w otoczeniu (strajki, rewolty, zmiany władzy). A równocześnie wyznacza on poziom
zamożności społeczeństwa i swobody jednostki. Im większa jest różnica pomiędzy średnią płacą brutto, a dochodem do dyspozycji, tym gorszy jest system zarządzania państwem i tym bardziej nasilają się zjawiska patologiczne (wzrost
„szarej strefy”, emigracja ekonomiczna, osłabienie przedsiębiorczości, wypieranie kapitału prywatnego przez państwowy w inwestowaniu, problemy demograficzne, opresyjność i represyjność władzy nie mogącej domknąć kolejnego budżetu, itp.). To wszystko obserwujemy aktualnie w Polsce, między innymi dlatego, że od 25 z górą lat kolejne władze wychodzą z założenia, że bogactwo narodu bierze się przede wszystkim z dotacji i zadłużania się.
GUS, „Definicja dochodu do dyspozycji”, http://stat.gov.pl/metainformacje/slownik-pojec/pojecia-stosowane-w-statystyce-publicznej/62,pojecie.html
423
396
Ważnym wskaźnikiem makroekonomicznym opartym na koncepcji dochodu do dyspozycji (dochodu rozporządzalnego) jest średni dochód rozporządzalny424. Precyzyjne wyjaśnienie metodologiczne pomiędzy dochodem do dyspozycji, a dochodem rozporządzalnym jest wyjaśnione w materiałach GUS425. W
roku 2014 w Polsce, przeciętny, miesięczny dochód do dyspozycji na 1 osobę w
gospodarstwie domowym wynosił 1 293,32 zł! (wobec przeciętnej płacy brutto 3
777,10 zł). Liczba mówi sama za siebie. Biorąc pod uwagę PKB na jednego mieszkańca wynoszący w 2014 roku około 57 100 zł. To oznacza, że dochód do dyspozycji na jednego mieszkańca stanowi zaledwie 22,6%. Jest to wynik zatrważający,
albowiem resztę, czyli 77,4% zabiera państwo, korporacje, banki i system władzy. I nie jest to ważne jak i na co, i ile zostanie zwrócone w postaci wątpliwej
jakości usług. Ta relacja przekracza zakres definicji grabieży.
5.4.4 Globalny wskaźnik przedsiębiorczości GEM
Jako jeden z pierwszych wskaźników globalnych, ważnych dla analizy klimatu dla przedsiębiorczości w danym kraju jest Globalny Wskaźnik Przedsiębiorczości (GEM)426, obliczany i katalogowany przez konsorcjum założone przez
Babson College z Bostonu oraz London Business School od 1999 roku. Wskaźnik
ten ma wysoką reputację, przez co wykorzystywany jest w analizach ekonomicznych, takich organizacji jak Bank Światowy, OECD, itp.
Wikipedia, „Dochód rozporządzalny” https://pl.wikipedia.org/wiki/Doch%C3%B3d_rozporz%C4%85dzalny
425
GUS, „System monitorowania rozwoju”, http://strateg.stat.gov.pl/Home/Strateg
426
Global Entrepreneurschip Monitor, http://www.gemconsortium.org/
424
397
Rys. 5.11 Model charakterystyki przedsiębiorczości w metodolog ii GEM 427.
Inicjatywa GEM jest największym, projektem badania przedsiębiorczości w
skali międzynarodowej. Służy rozpowszechnianiu wiedzy o przedsiębiorczości
i wspieraniu tworzenia jej nowych form. Obecnie obejmuje ponad 100 krajów
świata, stanowiących razem ponad 75% ludności świata i ponad 90% globalnego
PKB, opierając się na ponad 200 000 wywiadów w ciągu roku i badaniach ponad
500 naukowców współpracujących z konsorcjum.
GEM służy porównaniom różnych przejawów przedsiębiorczości pomiędzy
krajami, pomiarom różnic w aktywności gospodarczej, identyfikowanie czynników determinujących poziom aktywności w obszarze przedsiębiorczości, a
także wskazywanie rozwiązań dla systemów gospodarczych umożliwiających
podnoszenie poziom aktywności przedsiębiorczej.
GEM opiera się na ściśle ustalonej metodologii, stałej w czasie i jednolitej dla
wszystkich krajów. Dotyczy ona pozyskiwania danych (zakłada między innymi
prowadzenie badań ilościowych na minimalnej próbie 2000 dorosłych respondentów oraz przeprowadzenie minimum 36 indywidualnych wywiadów z ekspertami danego kraju w dziedzinie przedsiębiorczości). Proces zbierania danych
znajduje się pod ścisłą kontrolą osób odpowiedzialnych za jakość danych w ramach konsorcjum GEM. Model rozwoju przedsiębiorczości opiera się na koncepcji M. Porter, J. Sachsa i J. MacArthura dla Globalnego Wskaźnika Konkurencyjności428. W metodologii GEM wykorzystywany jest również model wzrostu
organizacji i przedsiębiorczości, uwzględniający cykl życia oraz uwarunkowania
zewnętrzne (ekosystem biznesu), jak na rys. 2.2.
W Polsce analizą danych i współpracą w ramach GEM zajmuje się Polska
Agencja Rozwoju Przedsiębiorczości PARP429. Raport GEM za rok 2015 (i wcześniejsze lata) można znaleźć pod adresem internetowym PARP430 i GEM431.
Filary i kluczowe wskaźniki GEM
Raport GEM oparty jest na kluczowych wskaźników przedsiębiorczości powiązanych ze sobą dla każdej gospodarki pogrupowanych na cztery filary, z których każdy ma swoje szczegółowe wskaźniki kluczowe. Dla każdego ze wskaź-
GEM, “2015/16 Global Report” 2016, str. 13, http://www.gemconsortium.org/report ]
Porter M.E., Sachs J.D., MacArthur J.W., “Competitiveness and Stages of Economic Development”,
http://www.earth.columbia.edu/sitefiles/file/Sachs%20Writing/2002/WorldEconomicForum_20012002_GlobalCompetitivenessReport2001-2002_ExecutiveSummary.pdf
429
PARP, „Badania i ewaluacje PARP”, Global Entrepreneurship Monitor. https://badania.parp.gov.pl/global-entrepreneurship-monitor-gem
430
PARP Badania i ewaluacje PARP, GEM 2015 Global Report
http://badania.parp.gov.pl/gem-2015-global-report
431
GEM Raporty za poszczególne lata http://www.gemconsortium.org/report
427
428
398
ników ustala się wartości pomiarowe, a następnie dla każdego filara można ustalić ranking metodą DTF (odległość od frontiery). Struktura wskaźnika GEM ma
postać:
Społeczne postrzeganie wartości związanych z przedsiębiorczością
I.1. Przedsiębiorczość jako dobry wybór kariery zawodowej.
I.2. Wysoki status społeczny przedsiębiorcy, który odniósł sukces,
I.3. Uwaga mediów poświęcona przedsiębiorczości.
II. Indywidualne postrzeganie przedsiębiorczości
II.1. Postrzeganie okazji wynikających z przedsiębiorczości,
II.2. Postrzeganie możliwości w przedsiębiorczości,
II.3. Intencje przedsiębiorcze,
II.4. Obawa przez upadłością.
III. Charakterystyki aktywności w obszarze przedsiębiorczości
III.1. Całkowita przedsiębiorczość wczesnego stadium (TEA).
III.2. Indeks motywacji.
III.3. Procent podmiotów gospodarczych w populacji.
III.4. Procent zakończenia działania podmiotów gospodarczych.
III.5. Zatrudnienie dzięki przedsiębiorczości (EEA).
IV. Postrzeganie jakości ekosystemu przedsiębiorczości
IV.1. Finansowanie działań przedsiębiorczych.
IV.2. Polityka władz (pomoc, biurokracja, podatki).
IV.3. Edukacja w zakresie przedsiębiorczości w szkołach.
IV.4. Transfery wiedzy B+R.
IV.5. Infrastruktura komercyjna i prawna.
IV.6. Dynamika rynku wewnętrznego (regulacje i ograniczenia wejścia).
IV.7. Infrastruktura fizyczna.
IV.8. Normy kulturowe i społeczne.
Szczegółowe dane dotyczące kluczowych wskaźników GEM można znaleźć na
stronie „Global Entrepreneurship Monitor - Adult Population Survey Measures,
2015” 432.
I.
Dane dla Polski za rok 2015
Rozwój przedsiębiorczości wynikający z analizy kilku lat wskaźnika GEM
idzie w złym kierunku433. Dotyczy to przede wszystkim zmian związanych z polityką gospodarczą, obciążeniami biurokratycznymi oraz nadmiernymi podatkami. Programy rządowe od kilkunastu lat są przeciw rozwojowi przedsiębiorczości, a te obecne dodatkowo poważnie uszkodzą istniejącą już sferę MSP przez
GEM Kluczowe wskaźniki http://www.gemconsortium.org/data/key-indicators
Węcławska D., Tarnawa A., Nieć M., Zabierowski P., „Global Entrepreneurship Monitor. Polska”, PARP,
Warszawa, 2015, http://www.parp.gov.pl/attachments/article/48704/newGEM_wyd.2015.pdf
432
433
399
nadmierną opresyjność i represyjność państwa, programy socjalne, preferowanie zagranicznego kapitału oraz nepotyzm i arogancję władzy. Wyniki te można
zaobserwować w dołączonej poniżej tabeli 22.
Tabela 22 Wartości globalnego wskaźnika przedsiębiorczości 2015 dla Polski 434
Kategoria
Dane globalne
Postrzeganie przedsiębiorczości
Aktywność
Indeks motywacji
Równoważność płci
Działania przedsiębiorcze
Ocena społeczna
przedsiębiorczości
%
Oceny eksperckie
ekosystemu przedsiębiorczości [wynik
punktowy z ocen
ekspertów w skali
[1 – 10 pkt]. Pozycja
w rankingu na 62
państwa.
Aspekt
Populacja
PKB 2014
PKB/na głowę
Udział MSP w PKB
WB Doing Business
WB Starting a Business
WEF Global Competitiveness Report
Postrzeganie szans
Postrzeganie możliwości
Obawa przed upadłością
Intencje przedsiębiorczości
Aktywność w obszarze wczesnym
TEA
Udział ustabilizowanego biznesu
Aktywność biznesu w zatrudnianiu
Okazje/Konieczności
K/M w fazie TEA
K/M okazje
Spodziewane zatrudnianie
Innowacyjność
Przemysł (% w usługach biznesowych)
Wysoki status społeczny przedsiębiorcy
Przedsiębiorca = dobry wybór kariery
Finansowanie przedsiębiorczości
Polityka rządu, wsparcie i ukierunkowanie na przedsiębiorczość
Polityka rządu, biurokracja, podatki
Programy rządowe
Nauka przedsiębiorczości w szkole
Nauka przedsiębiorczości po szkole
Transfer wiedzy B+R
Infrastruktura komercyjna i prawna
Dynamika rynku wewnętrznego
Przeszkody rynkowe wewnętrzne lub
regulacje wejścia
Infrastruktura fizyczna
Wartość
38,0 mln
$546,6 mld
$14 379
50%
76,0
86,0
4,5/7
32,9
55,9
47,8
20,0
Ranking
25/189
85/189
41/140
46
20
56
27
9,2%
38
5,9%
4,0%
1,7
0,5
0,9
26,1%
2,1%
34
22
33
38
24
17
40
24,5%
17
55,7%
44
60,5%
4,73
31
16
4,60
18
3,44
5,00
2,48
3,87
3,51
4,51
6,36
40
19
46
55
43
45
6
4,56
15
6,82
20
434
Kelley D., Singer S., Herrington M., Global Entrenpreneurship Monitor, 2015/16 Global Report, str. 97,
http://www.gemconsortium.org/report/49480
400
Normy społeczne i kulturowe
4,26
38
W globalnych wskaźnikach World Bank - Doing Business, osiągnęliśmy
wyższą niż przed rokiem pozycję w rankingu 25, ale w Starting a Business spadliśmy na pozycję 85 na 100 państw. W dodatku z analizy wskaźnika GEM w
ocenie społecznej przedsiębiorczości kategoria wysokiego statusu przedsiębiorcy plasuje nas na 44 pozycji na 60 państw, co przy polityce podatkowej i biurokratycznej rządu pozycjonowanej na 40 wród 60 państw nie rokuje zbytnio na
poprawę. Dodając do tego nauczanie przedsiębiorczości w szkole i po jej zakończeniu pozycja 55 na 62 może sugerować załamanie się przedsiębiorczości w Polsce już w roku 2017. Za to w Wielkiej Brytanii Polacy rozwijają swoje skrzydła w
biznesie. Polska znajduje się w fazie rozwoju efektywności gospodarczej, mając
ambicję na awans do kategorii rozwoju opartego na innowacyjności. Niestety
obserwując trendy w zakresie zmian wskaźników GEM w relacji do Doing Business oraz Global Innovation Index, możemy o tym zapomnieć na najbliższe 50
lat przy tak prowadzonej polityce gospodarczej państwa, jak to jest czynione
obecnie.
5.4.5 GCI Globalny indeks konkurencyjności
GCI jest obliczany jest na podstawie 110 czynników wielokryterialnych, wykorzystując najnowsze wyniki badań teoretycznych i empirycznych. Dwie trzecie danych pochodzi z sondażu prowadzonego wśród tysięcy menedżerów z
prawie wszystkich badanych krajów. Pozostałe dane pochodzą z publicznie dostępnych źródeł, np. danych Banku Światowego, Eurostatu, etc435. Pomiar konkurencyjności oparty jest na 12 filarach wzajemnie się uzupełniających podzielonych na trzy kategorie (każdy element jest mierzony w wartościach bezwymiarowych w skali 1-7 (7 stanowi maksymalną wartość)):
I. Kategoria wymagań podstawowych (subindex basic requirements):
1 Różnorodność instytucjonalna,
2 Odpowiednia infrastruktura,
3 Równowaga makroekonomiczna,
4 Zdrowie i edukacja na poziomie podstawowym,
II. Kategoria czynników poprawiających efektywność gospodarczą (subindex efficency
enhancers):
1 Wyższe wykształcenie i doskonalenie zawodowe,
2 Efektywne rynki dóbr,
3 Efektywny rynek pracy,
4 Poziom rozwoju rynków finansowych,
5 Zdolność do wykorzystania zaplecza technologicznego i technicznego,
435
http://www3.weforum.org/docs/GCR2014-15/GCR_Chapter1.1_2014-15.pdf
401
6 Rozmiar rynku wewnętrznego i zewnętrznego,
III. Kategoria czynników innowacyjności i rozwoju ekstensywnego
1. Zaawansowanie techniczne i różnorodność produktów,
2. Innowacyjność.
Do obliczenia indeksu konkurencyjności, poszczególnym filarom nadaje się
wagę istotności, zależną od tego, na jakim etapie rozwoju znajduje się dane państwo. Rozróżnia się w tej kwestii trzy fazy, zależne od poziomu PKB na mieszkańca: poniżej $2000 jest to rozwój sterowany przez czynniki wytwórcze; dla
przedziału $3000-$9000 jest to rozwój sterowany inwestycjami, podczas gdy dla
PKB powyżej $17000 na mieszkańca jest to rozwój sterowany przez innowacje.
Wartości międzyprzedziałowe sugerują rozwój sterowany przez czynniki mieszane (transformacja do kategorii wyższej). Dla przykładu, GDP na głowę w Polsce w cenach bieżących wynosi $13 394, co oznacza stan transformacji kraju pomiędzy rozwojem przez inwestycje a rozwojem przez innowacje. Sposób obliczania wskaźnika GCI oraz jego analiza za lata 2015-2016 w języku polskim opublikował NBP436.
Zgodnie z danymi z raportu GCI z zasobów Word Economic Forum437 Polska w roku 2015 zajęła 41 pozycję wśród 140 państw z wynikiem CGI na poziomie 4,5 (na maksymalną możliwą 7)438. Tam można również znaleźć wartości
cząstkowe wskaźnika CGI dla Polski za rok 2015-2016. Warto zauważyć, że od
kilku lat pierwsze miejsce w rankingu konkurencyjności na świecie zajmuje
Szwajcaria, drugie Singapur, a trzecie USA.
5.4.6 GII Globalny indeks innowacyjności
Zasada konstrukcji GII jest podobna do wcześniej zaprezentowanego
wskaźnika GCI. GII bada 143 gospodarki na całym świecie używając aktualnie
79 wskaźników pomiarowych (na rok 2015)439, dotyczących zarówno potencjału
innowacyjnego, jak i wymiernych efektów ekonomicznych.
Szkielet koncepcyjny wskaźnika GII opiera się na dwóch subindeksach: Innovation Input Sub-index (Wskaźnik działań proinnowacyjnych WDPI) oraz Innovation Output Sub-index (Wskaźnik rezultatów innowacyjności – w otoczeniu
WRI). Na każdy z tych subindeksów składają się określone filary innowacyjności. Każdy filar dzieli się na podfilary, a nie składają się układy wskaźników
szczegółowych. Globalny wskaźnik GII stanowi średnią arytmetyczną subindeksów WDPI oraz WRI. Natomiast wskaźnik efektywności innowacyjności definiowany jest jako iloraz subindeksów WRI/WDPI. Ten ostatni stanowi podstawę
Boguszewski P., „Globalny raport konkurencyjności 2015-16 Światowego Forum Gospodarczego”, NBP,
30.09.2015 https://www.nbp.pl/aktualnosci/wiadomosci_2015/WEF-2015.pdf (dostęp 22.01.2016)
437
http://reports.weforum.org/global-competitiveness-report-2015-2016/economies/#economy=POL (dostęp 22.01.2016).
438
http://www3.weforum.org/docs/gcr/2015-2016/POL.pdf (dostęp 22.01.2016).
439
https://www.globalinnovationindex.org/content/page/framework/ (dostęp 22.01.2016
436
402
rankingu efektywności innowacyjności państw. Każdy z subindeksów zbudowany jest na grupie filarów innowacyjności, na które składa się po trzy podfilary.
Te, z kolei są tworzone ze szczegółowych wskaźników. W ten sposób powstaje
układ pomiarowy na zasadzie analizy wielokryterialnej, jak na rys. 5.12
Rys. 5.12 Struktura globalnego indeksu innowacyjności według stanu na 2015
Bardziej szczegółowe omówienie wszystkich wskaźników cząstkowych
oraz struktury całego rankingu można znaleźć pod adresem organizacji zarządzającej rankingiem GII440 oraz w opracowaniu „Innowacyjność po polsku”441.
Należy zauważyć, że struktura metodyczna obliczania GII może ulegać zmianom w czasie, co związane jest z postępem wiedzy w zakresie badania innowacyjności. Warto również zauważyć związek pomiędzy GII, a globalnym indeksem konkurencyjności GCI oraz PKB na głowę mieszkańca. Z faktu, że rozwój
krajów o dochodzie na jednego mieszkańca powyżej $17 000 następuje głównie
przez innowacje, wynika że to właśnie Szwajcaria, Wielka Brytania, Holandia i
USA przewodzą rankingowi innowacyjności. Polska pozostając na 41 miejscu,
znacząco odstaje od czołówki i warto zastanowić się, które subfilary z obszaru
działań proinnowacyjnych stanowią wąskie gardła rozwoju innowacyjności.
Metodologia dla analiz, wynikająca ze struktury wskaźnika GII jest dobrym narzędziem do pomiaru i porównań.
440
441
Globalny Indeks Innowacyjności, https://www.globalinnovationindex.org/content/page/data-analysis/
Gospodarek T., “Innowacyjność…”, op. cit.
403
Tabela 23 W yniki globalnego wskaźnika innowacyjności dla Polski za rok 2015
prognoza
dane 2015
Kategoria raportu GII
Wynik % pozycja w
najlepszego rankingu
optymistyczna
pesymistyczna
Globalny wskaźnik innowacyjności GII
40,2
46
40,4
35,9
Globalny wskaźnik efektywności innowacyjności
GEI
70,2
93
60,0
60,0
I. Wskaźnik działań proinnowacyjnych (WDPI)
48,4
39
50,6
44,9
1.
75,3
34
69,0
57,6
1.1 Środowisko polityczne
74,1
35
73,3
55,5
1.2 Środowisko uregulowań
75,4
42
55,7
44,3
1.3 Środowisko biznesu
76,3
39
78,1
73,0
2.
37,2
45
46,5
41
2.1 Edukacja ogólna
53,6
36
60,3
59,1
2.2 Edukacja na poziomie wyższym
32,8
66
37,4
29,1
2.3 Badania i wdrożenia (R&D)
35,4
38
41,9
34,7
3.
45,5
47
48,8
44,4
3.1 Technologie informacyjne i telekom (ICT)
55,8
46
58,3
53,6
3.2 Infrastruktura ogólna
36,0
53
44,8
38,8
3.3 Równowaga ekologiczna
44,7
46
43,3
40,9
4.
49,0
60
49,7
47,8
4.1 Kredytowanie
31,0
69
33,5
35,5
4.2 Inwestycje
32,0
84
28,9
26,1
4.3 Rynek i konkurencja
83,9
33
86,8
81,8
5.
35,2
66
39,1
33,8
5.1 Pracownicy wiedzy
45,3
45
45,3
42,2
5.2 Łącza innowacyjności
24,8
102
30,3
24,4
5.3 Absorpcja wiedzy
35,6
60
41,8
34,9
II Wskaźnik rezultatów innowacyjności (WRI)
31,9
56,0
30,2
26,9
6.
28,3
56
29,4
25,0
6.1 Kreacja wiedzy
24,4
40
27,0
25,6
6.2 Wpływ wiedzy
35,7
81
32,5
29,6
6.3 Dyfuzja wiedzy
24,9
89
28,7
19,8
7.
35,4
89
31,0
28,7
7.1 Wartości niematerialne i prawne
36,9
108
38,4
34,3
7.2 Wykreowane usługi i produkty
31,0
36
29,8
27,7
7.3 Twórczość online
36,8
37
24,9
24,1
Instytucje
Kapitał ludzki i badania
Infrastruktura
Stan zaawansowania rynku
Stan zaawansowania biznesu
Produkty wiedzy
Wyniki działalności twórczej
404
5.4.7 Globalny wskaźnik „Doing Business”
Jest to jeden z bardziej interesujących wskaźników globalnych, obejmujący
szereg aspektów prowadzenia biznesu w 189 krajach świata442. Doing Business
jest flagową publikacją Banku Światowego. Dokonuje pomiaru jakości regulacji
państwa oraz jego działań dla rozwoju biznesu. Monitoruje przy tym te działania, które hamują rozwój firm. W ramach konstrukcji wskaźnika syntetycznego
badane są ilościowo takie składowe, jak: przepisy podatkowe, jasność prawa,
ochrona własności, łatwość zakładania firmy, stopień komplikacji procedur likwidacji, dostęp do elektryczności, łatwość uzyskania kredytu, łatwość płacenia
podatków, itp.
Dane do rocznych raportów443 pochodzą ze zbiorów Banku Światowego444.
Raport Banku Światowego, „Doing Business w Polsce” opublikowano po raz
pierwszy w roku 2015445. Warto zauważyć, że w roku 2016 Polska awansowała
na 25 miejsce w rankingu, awansując aż o 7 pozycji w stosunku do roku poprzedniego, wyprzedzając między innymi: Szwajcarię, Francję i Hiszpanię. Jednak Estonia, Islandia i Litwa oferują lepsze warunki prowadzenia biznesu. Jest to najwyższa pozycja Polski w historii publikowania globalnego wskaźnika „Doing
Business”. Należy jednak zauważyć, że ta wysoka pozycja wynika przede
wszystkim z regulacji import/eksport wymuszonych prawodawstwem UE i
wszystkie kraje Unii zajmują w tej kwestii pozycję nr 1 w rankingu. W dalszym
ciągu rozliczenie podatkowe zajmuje 270 godzin rocznie, a zakładanie spółki z
ograniczoną odpowiedzialnością stanowi udrękę. W Tabela 24 przedstawiono
szczegółowe wskaźniki składające się na globalny wskaźnik „Doing Business”.
Wskaźnik Doing Business nie mierzy wszystkich aspektów prowadzenia
biznesu, jedynie ale wybrane, zdaniem ekspertów, najistotniejsze z nich. Badanych jest w sumie 11 najważniejszych obszarów działania każdej firmy. Subiektywizm wyboru wskaźników jest ograniczany do najbardziej spektakularnych
problemów, jak biurokracja, niejasne prawo, itp. Pomimo że raport Doing Business jest mocnym narzędziem dla kierunkowania reform i regulacji optymalnych
dla biznesu, to politycy i tak wiedzą swoje i biorą pod uwagę różne źródła przy
podejmowaniu decyzji gospodarczych (zazwyczaj są po prostu ignorantami ekonomicznymi). Wskaźnik nie promuje nadmiernej deregulacji, jak to można wnioskować bez dogłębnej analizy metodologii jego tworzenia, ponieważ stanowi
World Bank, Tabela wyników dla państw, http://www.doingbusiness.org/reports/global-reports/~/media/GIAWB/Doing%20Business/Documents/Annual-Reports/English/DB16-Chapters/DB16-Country-Tables.pdf
443
World Bank, Doing Business 2016 Report, http://www.doingbusiness.org/~/media/GIAWB/Doing%20Business/Documents/Annual-Reports/English/DB16-Chapters/DB16-Mini-Book.pdf
444
World Bank, “Doing Business” dane, metody i raporty globalne. http://www.doingbusiness.org/reports/global-reports/doing-business-2016
445
World Bank, Doing business w Polsce, raport za rok 2015, http://polish.doingbusiness.org/~/media/GIAWB/Doing%20Business/Documents/Subnational-Reports/DB15-Poland-polish.pdf
442
405
układ wielokryterialny, gdzie jedna ze składowych może rosnąć, podczas gdy
druga maleć. Wynik finalny obliczany jest jako odległość od frontiery, a nie w
stosunku do 100%.
Tabela 24 Tablica wskaźnika Doing Business dla Polski za rok 2016 442
Kategoria
Doing Business Indeks
Wkaźnik
wartość
Globalny
Kategoria ogółem
Zakładanie biznesu
Procedury (liczba)
4
Czas (dni)
30
Koszt (% PKB/głowę)
12,2
Minimalny kapitał (%PKB/głowę)
11,4
Kategoria ogółem
Pozwolenia na budowę
Procedury (liczba)
16
Czas (dni)
156
Koszt (% kosztu hurtowni)
0,3
QC budowy w skali 0-15
12
Kategoria ogółem
Procedury (liczba)
Uzyskanie elektryczności Czas (dni)
Koszt(%PKB/głowę)
Wsparcie i transparentność taryf (0-8)
6
33
Koszt(%wartości budowli)
0,3
Indeks jakości administracji (0 - 30)
18,5
Poziom informacji o kredytach (0-8)
8
Informacja o spłatach (% dorosłych)
91
Rejestry historii spłat zadłużenia
0
Wskaźnik rozszerzonego zarządu akcjonariuszy (0-10)
Wskaźnik ochrony inwestorów
mniejszościowych (0-10)
Liczba płatności (w roku)
74,24
52
80,15
49
75,65
41
75
19
60
49
79,63
58
6
6
6
Kategoria ogółem
Płacenie podatków
85
7
Kategoria ogółem
Ochrona inwestorów
mniejszościowych
85,94
7
Czas (dni)
Wskaźnik konfliktu interesów (0-10)
25
19,5
Kategoria ogółem
Uzyskanie kredytu
76,45
133
Procedury (liczba)
Wskaźnik mocy prawnej (0-12)
ranking
4
Kategoria ogółem
Rejetracja nieruchomości
DTF
7
Czas (dni potrzebny na rozliczenie)
271
Ociążenia podatkowe (% przychodu)
40,3
406
Kategoria ogółem
Umowy egzekucyjne
Czas (dni)
685
Koszt (% windykacji)
19,4
Wskaźnika jakości procesów sądowych (0-18)
10,5
Kategoria ogółem
63,44
55
100
1
70,43
32
Czas eksportu
Dokumentacja eksportowa (godz.)
1
Dokumentacja graniczna (godz.)
1
Transport krajowy (godz. )
14
Koszt ekportu
Handel zagraniczny
Dokumentacja uwzględniana
0
Dokumentacja graniczna
0
Transport krajowy (USD)
1000
Czas importu
Dokumentacja importowa (godz.)
1
Dokumentacja graniczna
0
Transport krajowy
14
Koszt importu
Dokumentacja uwzględniana
0
Dokumentacja graniczna
0
Transport krajowy (USD)
1000
Kategoria ogółem
Rozwiązanie niewypłacalności
Czas (lata)
3
Koszt (% należności)
15
Wskaźnik windylacji (cent/dolar)
58,3
Moc prawna windykacji (0-16)
12,5
Metodologia obliczania wskaźnika Doing Business
Doing Business publikuje rocznie 9 620 różnych wskaźników, na które
składa się około 57 000 punktów pomiarowych. Każdy z nich jest udostępniany
na stronie www, jako szereg czasowy począwszy od pierwszego roku monitoringu. Ponieważ z każdym rokiem następują pewne korekty metodologiczne, jakakolwiek zmiana powoduje automatycznie przeliczenie danych wstecznie według nowej miary, tak żeby można było porównywać wyniki w różnych latach.
Na stronie są również dostępne dane oryginalne z danego roku (przed korektą),
co pozwala na wyliczenie współczynników przeliczeniowych. Jest to unikatowe
podejście w stosunku do innych wskaźników globalnych, które nie publikują danych skorygowanych wstecz. Wydaje się, że Doing Business stanowi najbardziej
czytelny układ wielokryterialny oceny warunków prowadzenia działalności gospodarczej i każdy menedżer powinien znać jego wyniki.
407
Filary wskaźnika globalnego Doing Business
Filarami analitycznymi globalnego wskaźnika Doing Business są następujące
aspekty, mierzone jako jego składowe subindeksy:
1. Rozpoczęcie działalności.
2. Radzenie sobie z pozwoleniami na budowę.
3. Uzyskiwanie energii elektrycznej.
4. Rejestrowanie własności.
5. Otrzymanie kredytu.
6. Ochrona inwestorów mniejszościowych.
7. Płacenie podatków.
8. Handel transgraniczny.
9. Egzekwowanie umów.
10. Rozwiązywanie problemu niewypłacalności.
11. Regulacja rynku pracy.
Metodyka dla filara „Rozpoczęcie działalności”.
Ten filar uwzględnia wszystkie procedury wymagane oficjalnie lub praktycznie realizowane przez przedsiębiorcę w celu rozpoczęcia działalności gospodarczej. Obejmuje on również czas oraz koszty realizacji tych procedur wraz z
minimum kapitałowym wymaganym na starcie. Składają się na to czynniki, takie
jak: uzyskanie wszystkich niezbędnych pozwoleń i zezwoleń na prowadzenia
działalności gospodarczej, dokonanie wszelkich wymaganych zgłoszeń, weryfikacji zapisów dla firmy i pracowników w odpowiednich rejestrach organów władzy.
Ranking w zakresie łatwości rozpoczynania działalności gospodarczej dla
poszczególnych państw jest określany przez sortowanie odległości uzyskanego
wyniku od frontiery. Wynik integralny jest średnią arytmetyczną odległości do
punktów granicznych dla każdego ze wskaźników składowych, na które składają się:
1. Czas przedrejestracyjny (np. sprawdzenie nazwy, zawarcie umów notarialnych), czas okresu rejestracji oraz post-rejestracji (rejestracja w organizacjach,
umowy na usługi) firmy do chwili rozpoczęcia działalności wyrażony w
dniach.
2. Koszt założenia działalności w relacji do dochodu narodowego na mieszkańca wyrażony w procentach (opłaty skarbowe, opłaty sądowe, opłaty notarialne, podatki od czynności cywilnoprawnych, opłaty rejestrowe).
3. Minimalny kapitał zakładowy wymagany do rozpoczęcia działalności gospodarczej wyrażany jako procent dochodu narodowego na mieszkańca.
4. Liczba procedur ukończonych do momentu otrzymania dokumentu finalnego (wpisu sądowego lub pozwolenia na działalność).
Wynik określany jest w procentach odległości od frontiery (DTF str 362).
408
Żeby powyższe dane były reprezentatywne, zakłada się następującą standaryzację: przez firmę rozumiemy spółkę z ograniczoną odpowiedzialnością (lub
jej najbardziej powszechny odpowiednik prawny w dany kraju). Spółka ta działa
w największym ośrodku biznesowym danego kraju (w Polsce Warszawa)446. Jest
w 100% podmiotem krajowym, mającym co najmniej pięciu właścicieli, posiadającym kapitał zakładowy równoważny 10-krotnej wartości dochodu narodowego brutto na mieszkańca. Firma nie wykonuje działalności w handlu zagranicznym ani nie podlega szczególnemu nadzorowi podatkowemu (alkohol, tytoń, metale szlachetne) lub koncesyjnemu (np. produkcja broni, leków). Nie jest
zbyt uciążliwa dla środowiska. Nie posiada nieruchomości na własność, a jedynie dzierżawi niezbędne zasoby. Nie kwalifikuje się do otrzymania dotacji lub
pomocy publicznej. Po rozpoczęciu działalności zatrudnia minimum 10, a maksimum 50 pracowników – wyłącznie obywateli danego kraju. Osiąga obroty minimum 100-krotnej wartości dochodu narodowego na mieszkańca. Umowa
spółki liczy 10 stron.
5.4.8 PMI (Purchasing Managers Index)
Przy prognozowaniu rynku ważnym aspektem jest ustalenie koniunktury
oraz zachowań kontrahentów. W tym celu organizacje Markit Group i Institute
for Supply Management447 of financial activity opracowały syntetyczny wskaźnik scoringowy, charakteryzuący aktywność transakcyjną na rynkach – Purchasing Managers Index (PMI). Wskaźnik PMI bazuje na analizach miesięcznych
informacji pozyskiwanych od menedżerów 30 krajów, reprezentujących ponad
22 000 organizacji w bazie danych ocen. Dla Polski, sierpniowy (2016) odczyt
PMI wynosi 51,5%, co oznacza pozytywny wzrost448 od minimalnego wyniku
50,3% sprzed 22 miesięcy. Średni wynik dla strefy Euro wynosi 51,7%449, z czego
Niemcy wykazują spadek PMI do poziomu 53,6%, a Holandia największy wzrost
do poziomu 53,5%. Największy spadek indeksu PMI dotyczy Włoch, które osiągnęły najniższy jego poziom od 22 miesięcy – 49,8%.
Dane od 1948 roku dla wskaźnika PMI oraz jego składowych można znaleźć
w bazie Quandl Institute for Supply Management (ISM)450. Warto zwrócić uwagę
na raport globalny PMI z 3 stycznia 2017451, wskazujący na lekki wzrost optymizmu w gospodarce światowej. Wskaźnik globalny PMI wzrósł do 54,7%, a w
Dane są również zbierane dla drugiego co do wielkości miasta w danym kraju.
https://www.instituteforsupplymanagement.org/
448
Markit, PMI dla Polski z dnia 6.08.2016 https://www.markiteconomics.com/Survey/PressRelease.mvc/12f681ae38f94852be4210193623f2b4
449
Markit, PMI dla strefy UE, z dnia 6.08.2016 https://www.markiteconomics.com/Survey/PressRelease.mvc/76ed1db5bbb64a38b29fa1118c57f4aa
450
Dane z bazy Quandl, ISM, https://www.quandl.com/data/ISM-Institute-for-Supply-Management
451
Cahil K., “December 2016 Manufacturing ISM Report On Business”, ISM, 3.01.2017. https://www.instituteforsupplymanagement.org/ismreport/mfgrob.cfm?SSO=1
446
447
409
strefie Euro do 54,9%. Polskie wskazania również odzwierciedlają ten trend. Jest
wzrost PMI do poziomu 54,3% w grudniu452 z poziomu 51,9% w listopadzie
2016453.
Rys. 5.13 Zmiany wskaźnika PMI 1999-2016 dla Polski [wg. GUS i ISM Markit]
PMI Metodyka
Istnieją dwie części miesięcznych wydań PMI: główny wskaźnik PMI, mający na celu prezentację bieżącej kondycji gospodarki, a także wskaźniki cząstkowe lub dane na poziomie składników tych indeksów. Subindeksy zapewniają
wgląd w kluczowe czynniki ekonomiczne, takie, jak: inflacja, eksportu, zatrudnienia i zapasy. Każdy kraj, dla którego określany jest wskaźnik PM dla sektora
wytwórczego i usług opiera się na odpowiedziach ankietowych repondentów z
paneli kierownictwa sprzedaży (lub podobnego) z ponad 400 firm. Panele badawcze są starannie rekrutowane, tak aby dokładnie reprezentować rzeczywistą
strukturę danego sektora.
Kwestionariusze są wypełniane w drugiej połowie każdego miesiąca, a wyniki badań są następnie przetwarzane przez ekonomistów z Markit. Respondenci proszeni są o podanie, czy warunki biznesowe dla wielu zmiennych, uję-
IHS Markit, Komunikat prasowy, „Markit PMI® Polski Sektor Przemysłowy” https://www.markiteconomics.com/Survey/PressRelease.mvc/09fac3d773b947dab2ca6d305a468fad
453
Dane Trading Economics http://www.tradingeconomics.com/poland/manufacturing-pmi
452
410
tych w kwestionariuszu uległy poprawie, pogorszeniu lub pozostały niezmienione w porównaniu z poprzednim miesiącem, a także podania przyczyny
ewentualnych zmian.
Zmienne, brane pod uwagę przy określeniu wskaźnika PMI podzielone są
na cztery kategorie:
1. Produkcja przemysłowa: nowe zamówienia, nowe zamówienia eksportowe,
zaległości produkcyjne, ceny, ceny wyjściowe, ceny wejściowe, czas dostaw
surowców i półproduktów, zapasy wyrobów gotowych, ilości zamówień, zapasy zamówień, zatrudnienie.
2. Usługi Działalność gospodarcza, nowe biznesy, zaległości wykonania, cen
stosowane, ceny nakładów, zatrudnienia, oczekiwania dotyczące aktywności.
3. Sektor budownictwa Aktywność całkowita branży budowlanej, aktywność
budownictwa mieszkaniowego, działalność handlową, inżynieria lądowa i
wodna, nowe zamówienia, zatrudnienie, ilość zamówień, czas dostaw, ceny
wejścia, korzystanie z podwykonawców, dostępność podwykonawców,
stopy podwykonawca, jakość podwykonawstwa, przyszła działalność.
4. Rezultat dla całej gospodarki. Nowe zamówienia, nowe zamówienia eksportowe, zaległości produkcyjne, ceny wyjściowe, ogólne koszty produkcji,
ceny zakupu, koszty personelu, czas dostaw, ilości zamówień, nadmiar zamówień, zatrudnienie.
Przy okazji zbierania i analizy danych dla indeksu PMI, organizacja ISM przygotowuje ważny raport na temat światowego biznesu454. Pełna wersja raportu
ISM® jest zamieszczana na stronie internetowej pod adresem www.ismrob.org
ISM® w pierwszy dzień roboczy każdego miesiąca po godz. 10:00 rano.
5.4.9 Wskaźnik moralności płatniczej (IPM)
Wskaźnik Payment Morality Index455 ma w literaturze identyczny skrót PMI,
jak Purchasing Managers Index. Dotyczy on jednak zupełnie innego zagadnienia terminów regulowania płatności w gospodarce lub sektorze. Jest publikowany
przez niemiecką firmę Bürgel głównie dla Niemiec i krajów UE456. W dalszej części będę go nazywać dla odróżnienia IPM. Średnie zadłużenie w branży jest to
niezwykle ważna informacja dla menedżera, ponieważ niejeden doskonały biznes upadł z powodu braku płynności finansowej. Jednym z największych i najczęstszych kłamstw w biznesie jest stwierdzenie: „pieniądze za fakturę są już w
drodze”. Wskaźnik moralności płatniczej wyprzedza koniunkturę na rynku.
ISM August 2016 Manufacturing ISM® Report On Business® USA https://www.instituteforsupplymanagement.org/ISMReport/MfgROB.cfm
455
Bürgel, Payment Morality Index, https://www.buergel.de/de/glossar/payment-morality-index-pmi
456
Prezentacja wartości wskaźnika IPM dla Niemiec, https://www.buergel.de/de/insolvenzindex/firmen
454
411
Wskaźnik IPM bierze pod uwagę wysokość zadłużenia liczoną w dniach
opóźnienia spłaty należności. Średni IPM stanowi średnią ocenę terminu płatności dla wszystkich kontrahentów danej branży. Można go interpretować jako ryzyko działalności w danej branży lub sektorze. Jeżeli wynik IPM wynosi 100%,
tzn. wszystkie płatności są regulowane terminowo, to mamy do czynienia z idealną sytuacją w branży i niskim ryzykiem. Przy wartościach 80 – 99% oznacza to
opóźnienia kilkudniowe i małe ryzyko. Między 40 – 79% opóźnienia sięgają
kilku tygodni i mogą być niebezpieczne dla utrzymania płynności w niektórych
branżach. Przy wartościach 0 – 39% opóźnienia sięgają miesięcy i stanowią poważne zagrożenie dla prowadzonej działalności.
W Polsce analizami należności zajmuje się firma Euler-Hermes457. Niestety
nie udostępnia ona danych nieodpłatnie. Wskaźnik moralności płatniczej w Polsce w sierpniu 2015 wynosił 54,3%, co świadczy o przyzwoitej kondycji naszej
gospodarki. Wartość IPM poniżej 50 wskazuje na początek recesji w cyklu koniunkturalnym (kalendarz ekonomiczny rys. 1.11). Gdy jego wartość jest niższa
niż 40, mamy do czynienia z kryzysem gospodarczym.
5.4.10
Wskaźnik IFO (ZEW)
Wskaźnik ZEW458 znany jako Indeks IFO (ifo-Geschäftsklimaindex) jest publikowany przez Zentrum fur Europäische Wirtschaftsforschung z Mannheim459.
Obrazuje on nastroje niemieckich analityków i inwestorów instytucjonalnych
odnieszące się do sytuacji gospodarczej Niemiec. Dane publikowane są raz w
miesiącu od roku 1991460.
Metodologia ZEW polega na przeprowadzeniu badań ankietowych na próbie 350 niemieckich ekspertów z branży finansowej. Przedmiotem oceny punktowej (scoringowej) jest sytuacja gospodarcza w Niemczech, strefie Euro, USA,
Japonii, Francji i Włoszech na najbliższe sześć miesięcy. Wartość ZEW wyraża
różnicę pomiędzy oczekiwaniami pozytywnymi, a negatywnymi skali punktowej [-100,100]. Wskaźnik na poziomie zera oznacza stagnację gospodarczą. Wynik dodatni oznacza nastroje optymistyczne, a ujemny pesymistyczne i problemy gospodarcze. W pewnym sensie, wskaźnik ten opisuje cykle koniunkturalne (rys. 1.10) z wyprzedzeniem półrocznym. Nawiązuje on do wskaźnika PMI
przedstawionego w rozdziale 5.4.8.
457
Euler Hermes http://www.eulerhermes.pl/inne-uslugi/Pages/analizy-naleznosci.aspx
Wikipedia “Indeks IFO”, https://pl.wikipedia.org/wiki/Indeks_Ifo
459
http://www.zew.de/de/
460
Trading Economics „Niemcy - Indeks Nastroju Ekonomicznego wg ZEW”, http://pl.tradingeconomics.com/germany/zew-economic-sentiment-index
458
412
Rys. 5.14 Indeks nastrojów ekonomicznych ZEW w okresie 2012-2016 461
Wskaźnik ZEW osiągnął najniższy od czterech lat poziom -6,8% 461. Wartości
szczegółowe Indeksu IFO można znaleźć na stronach Statista462.
Frączyk J., Money.pl, http://www.money.pl/gospodarka/unia-europejska/wiadomosci/artykul/wskaznikzew-w-niemczech-spadl-do--6-8-pkt-w,16,0,2125328.html 19.07.2016.
462
Statista, „Entwicklung des ifo-Geschäftsklimaindex von Juni 2015 bis Juni 2016”, http://de.statista.com/statistik/daten/studie/1307/umfrage/entwicklung-monatswerte-des-ifo-geschaeftsklimaindex/
461
413
6 Dodatki
W tym rozdziale zostaną opisane nieco bardziej szczegółowo niektóre metody, szczególnie użyteczne w praktyce zarządzania. Warto poznać bardziej
szczegółowo dostępne narzędzia ilościowego wsparcia podejmowania decyzji
na poziomie podstaw zarządzania, ponieważ na tym można budować rzetelne
kryteria oceny, oszacowania itp.
6.1 Metoda wielokryterialna
Jest to jedna z najważniejszych technik tworzenia integralnej miary dla różnych kryteriów aksjologicznych lub decyzyjnych. Opiera się na formalizmie
przestrzeni wektorowej i długości wektora. Bazą przestrzeni są miary poszczególnych cech, charakteryzujących opisywany byt.
6.1.1 Kryterium oparte na skali nominalnej
W skali tej można ustalić dychotomiczną wartość porównania jako: Tak
(spełnia), Nie (nie spełnia). Może to być również 1 (spełnia), 0 (nie spełnia).
Tabela 25 Przykładowa ocena wielokryterialna w skali nominalnej
Lp.
Cecha użyteczności
TAK
x
1
Obsługa wielu magazynów przez jeden program,
2
Podział interfejsów na część operacyjną i raportową
3
Możliwość wyłączenia części handlowej (typowy moduł GM)
4
Kartoteki wieloindeksowe (zamienniki, katalogi fabryczne),
x
5
Blokada rekordu kartoteki (praca w sieci LAN)
x
6
Rezerwacje towaru (status niezatwierdzony),
7
Podział ról uczestników procesu w zatwierdzaniu dokumentów
8
Dowolne rodzaje magazynów (np. skład podatkowy,…),
9
Wielość modeli sprzedaży opcjonalnie (np. WZ-FA)
10
Wybór metody wyceny zapasu (FIFO, LIFO, Średnia ważona)
11
Definiowanie kompletów i receptur
12
Automatyczna kompletacja (ZK-RW-PZ-FA)
13
Automatyczne rozliczenie dokumentów dostawy
14
Logistyka zamówień od klientów (ZA-ZD-PZ-WZ-FA)
x
15
Elastyczność konfiguracji parametrów (słowniki, listy…),
x
x
x
x
………………
Suma uzyskanych wyników pozytywnych
15
Stąd naturalnym jest budowanie kryterium wyboru opartego na jak największej
liczbie odpowiedzi pozytywnych w stosunku do wszystkich uwzględnianych
414
cech. Tego typu pomiar stosuje się np. przy wyborze oprogramowania, biorąc
poszczególne jego funkcje jako cechy pożądane. Zakładamy równocenność każdej z cech, składających się na globalną użyteczność (wagi istotności są takie
same). Zakładamy również, że wiadomo na czym polega podanie odpowiedzi
pozytywnej (mogą to być subiektywne oceny ekspertów, albo pokazanie wprost
danej funkcjonalności). Nie ma w tym miejscu wartości neutralnej (brak danych,
albo spełnia częściowo), ponieważ wówczas musimy użyć innej skali (przedziałowej). Innymi słowy, problem jest albo czarny albo biały (nie ma odcieni szarości).
Wynik integralny dla przypadku zaprezentowanego w tabeli 25 jest bardzo
prosty. Jest to ułamek 8/15 (8 pozytywnych deklaracji na 15 możliwych). W skali
procentowej jest to 53,33%463. Tym samym sprowadzono rezultat do przedziału
[0, 1]. Jest to o tyle ważne, że ten wynik można dalej łączyć z innymi rezultatami
w wielowymiarowy układ kryteriów określonych również w przedziałach [0, 1],
obliczając długość wektora jako wynik finalny.
6.1.2 Kryterium oparte na skali porządkowej
W tym przypadku oceny dla poszczególnych cech dokonuje się w skali bardziej zróżnicowanej niż dychotomiczna, przez więcej niż jednego oceniającego.
Każdy oceniający podaje wynik dla ocenianej zmiennej (np. intensywność koloru
zielonego) w ustalonej skali punktowej np. 1 – 10. Sposób kategoryzowania
zmiennej jest w tym przypadku arbitralny (np. oparty na wrażeniach zmysłowych), co powoduje, że obiektywnej oceny musi dokonać grupa reprezentatywna statystycznie464. Wówczas wynik w danej kategorii przyjmuje się jako
średnią arytmetyczną.
Na takim modelu opiera się analiza scoringowa, gdzie miarą jest dystans
procentowy danej zmiennej, uzyskany przez podmiot poddany analizie, do najlepszego wyniku uzyskanego przez inny podmiot według tej samej miary. Takie
ujęcie prowadzi również do wskaźnika integralnego, określonego w przedziale
[0, 1].
Skala porządkowa może też dotyczyć wypowiedzi w różnorodnych ankietach (pięciostopniowa skala Likerta465 – zdecydowanie nie zgadzam się, raczej
się nie zgadzam, nie mam zdania, raczej się zgadzam, zdecydowanie się zgadzam). Wynik dla każdej kategorii w ankiecie jest wówczas średnią arytme-
Wynika to z podzielenia 8 przez 15 i pomnożenia przez 100 (wyrażenie ułamka w procentach).
Jest to niezwykle ważny element badań sensorycznych oraz eksperckich. Reprezentatywność stanowi o
wiarygodności pomiaru. Osiąga się ją na drodze doboru grupy respondentów (np. grupy ekspertów, których
oceny nie odchylają się ponad ustalony zakres). Jak liczna musi być to grupa zależy od problemu oraz sposobu obróbki statystycznej wyników. Dyskusja tego problemu wykracza poza ramy niniejszej monografii.
465
Likert R., "A Technique for the Measurement of Attitudes" Archives of Psychology vol. 140, (1932), str.
55 http://www.voteview.com/pdf/Likert_1932.pdf
463
464
415
tyczną z odpowiedzi respondentów. To w zarządzaniu i badaniach socjologicznych ma bardzo istotne znaczenie. Oczywiście skala nie musi być pięciopunktowa, może być trójstopniowa lub dziesięciopunktowa. Wynik integralny musi
zostać sprowadzony (znormalizowany) do przedziału [0, 1], a wówczas można
go dalej przetwarzać.
Dla zmiennej wyrażanej w skali porządkowej możemy obliczać dominantę,
czyli przypadek najczęściej występujący. Istnieje również możliwość wyznaczenia mediany. Wynika to z dopuszczalności uszeregowania przypadków od najgorszego do największego. Zwykłej średniej arytmetycznej nie ma sensu obliczać, dlatego że nie da się interpretować danych ułamkowych (np. wykształcenie 2,83 czyli trochę takie, a trochę inne). Można jednak dla niektórych zagadnień
wykorzystać średnie ważone, których nie da się wprawdzie interpretować, ale
można na tej podstawie dokonywać porządkowania i analizy scoringowej.
Przykład 6.1 Kryterium wykorzystujące skalę porządkową
Zbadano grupę 368 menedżerów zadając pytanie: Jak ocenia pan/pani w skali pięciopunktowej istotność posiadania danego zasobu dla podjęcia decyzji o strukturze portfela produktów? Wyniki ilościowe zaprezentowane są w tabeli 26.
Tabela 26 Tabela liczebności odpowiedzi
1
2
3
4
5
suma
Wiedza
Kategoria oceniana
38
115
145
57
13
368
Postawy pracownicze
40
158
119
32
19
368
Relacje sformalizowane
23
133
129
64
19
368
Relacje niesformalizowane
51
165
95
45
12
368
Technologie branżowe
67
75
123
80
23
368
Technologie informacyjne
58
152
99
44
15
368
Zasoby naturalne
97
167
79
17
8
368
Lokalizacja
13
64
81
112
98
368
Image firmy
25
55
84
78
126
368
Źródła finansowania
33
190
91
29
25
368
Rutyny
73
180
73
30
12
368
Mając wyniki ilościowe, można konstruować przekroje danych lub analizować średnie i
odchylenia standardowe. Można również poszukiwać zgodności pomiędzy populacjami
udzielającymi odpowiedzi. Przykładową prezentację danych dla analizowania średniej
ważonej przedstawiono w tabeli 27.
416
Tabela 27 Tabela wartości dla średniej ważonej 466
Kategoria oceniana
średnia
1
2
3
4
5
Wiedza
0,103
0,625
1,182
0,620
0,177
2,707
Postawy pracownicze
0,109
0,859
0,970
0,348
0,258
2,544
Relacje sformalizowane
0,063
0,723
1,052
0,696
0,258
2,791
Relacje niesformalizowane
0,139
0,897
0,775
0,489
0,163
2,462
Technologie branżowe
0,182
0,408
1,003
0,870
0,313
2,775
Technologie informacyjne
0,158
0,826
0,807
0,478
0,204
2,473
Zasoby naturalne
0,264
0,908
0,644
0,185
0,109
2,109
Lokalizacja
0,035
0,348
0,660
1,217
1,332
3,592
Image firmy
0,068
0,299
0,685
0,848
1,712
3,611
Żródła finansowania
0,090
1,033
0,742
0,315
0,340
2,519
Rutyny
0,198
0,978
0,595
0,326
0,163
2,261
Ponieważ wynik maksymalny dla każdej kategorii wynosi 5, stąd wyliczone wartości średnie można podzielić przez 5, otrzymując wynik scoringowy możliwy do wyrażenia w procentach (znormalizowany do przedziału [0, 1]). Można również analizować
wynik stanowiący różnicę do 100% wyniku maksymalnego.
6.1.3 Kryterium oparte na skali interwałowej
Skala przedziałowa ma zastosowanie przede wszystkim w pomiarach wielkości zależnych od czasu, gdzie koniecznym jest podzielenie całego przedziału
czasowego analizy na skończoną liczbę podprzedziałów o równej długości.
Wówczas w danym podprzedziale (np. w okresie miesiąca) mierzona wielkość
jest reprezentowana przez jedną wartość pomimo, że czas jest zmienną ciągłą.
Przykładem może być miesięczny wynik finansowy firmy analizowany w okresie rocznym. W każdym miesiącu wynik ten jest ustalany jako jedna wartość,
zgodnie z ustawą o rachunkowości. W rezultacie możemy wykonać wykres
słupkowy. Dodatkowo możemy porównywać wyniki w przedziałach czasowych, badać istotność zależności pomiędzy okresami, itp. W skali przedziałowej
nie ma ustalonej wartości początkowej (nie jest znane zero skali). Np. temperatura w skali Celsjusza (istnieją wartości ujemne i dodatnie, ale nie ma początku).
Wyniki w skali interwałowej możemy również znormalizować do przedziału [0, 1], ustalając wynik maksymalny jako 100% skali. Każdy wynik z określonego przedziału będzie stanowić wówczas ułamek i może zostać wyrażony w
procentach wartości maksymalnej (pomiar względny). To pozwala na włączenie
Wyniki są obliczane następująco: wartość deklarowaną mnoży się przez liczebność odpowiedzi i dzieli
przez całkowitą liczebność próby. Dla przykładu wynik 3 dla kategorii wiedza zadeklarowało 145 osób.
Oznacza to, że do średniej ważonej wniesie on wkład równy 3*145/368 = 1,182. Średnia ważona stanowi w
tym przypadku sumę wkładów dla poszczególnych ocen.
466
417
wyniku względnego do kryteriów integralnych, wyrażanych wielowymiarowymi wskaźnikami z przedziału [0, 1].
Przykład 6.2 Analiza wskaźnika ROA w skali interwałowej
Analizowano wskaźnik ROA firm transportowych w latach 2006-2011, uzyskując
następujące rezultaty zaprezentowane w tabeli 28467:
Tabela 28 Dane źródłowe do przykładu 6.2
Rok
2006
2007
2008
2009
2010
2011
Batim
0,84
0,76
0,83
0,80
0,78
0,82
Butter
X
0,55
0,82
0,93
0,84
0,96
Delta trans
0,61
0,68
0,70
0,64
0,61
0,68
VOS LOGISTICS
0,88
0,94
0,88
0,78
0,54
0,55
Średnia ROA
0,77
0,73
0,81
0,79
0,69
0,75
Wynik scoringowy [%]
95,1
90,1
100,0
97,5
85,2
92,6
Średni wynik ROA dla poszczególnych lat (podprzedziały sześcioletniego okresu analizy) jest reprezentowany jako jedna liczba. Można to przedstawić, jak na poniższym wykresie.
Zadłużenie względne
Wskaźnik zadłużenia dla dużych firm
0,81
0,79
0,77
0,75
0,73
0,69
0,69
2006
2007
2008
2009
2010
2011
rok
Rys. 6.1 Przykładowa prezentacja wyniku w skali przedziałowej
467
Pizoń S., Praca doktorska (w przygotowaniu).
418
Biorąc pod uwagę maksymalną wielkość 0,81 jako 100%, wszystkie pozostałe można
sprowadzić do skali scoringowej metodą DTF opisaną w rozdziale 5.1.3.
Zero rozmyte
Skala interwałowa ma na celu umożliwienie budowania kryteriów rozmytych, albowiem nie wszystko jest czarne i białe, umożliwiając używanie ostrego
kryterium. Jednym z podstawowych aspektów skali interwałowej jest ustalenie
„zera rozmytego”. Można to definiować różnie. W analizach wypowiedzi w
skali trój lub pięciopunktowej, gdzie wartości deklarowane mieszczą się po obu
stronach zera (np. -2, -1, 0, 1, 2 rozumianych jako: bardzo negatywny, negatywny, neutralny, pozytywny, bardzo pozytywny). Powstaje wówczas kwestia,
czy wynik średni 0,1 należy już do przedziału kategorii 1, czy też powinien być
uznany za zerowy.
Jeżeli analizowana prób pochodzi z rozkładu normalnego, wówczas założenie,
że 33% wyników najbardziej skupionych wokół zera, może być uznanych za
neutralne, nie wskazujące na kierunek zależności jest racjonalne. Wówczas pozostałe 66% wyników zostaje przyjęte za wskazanie istotne i możliwe do przypisania albo jako +1 (dodatnia zależność), albo jako -1 (zależność ujemna). Racjonalność tą można uzasadnić definicją odchylenia standardowego Sx, które mówi,
że w przedziale <X>  Sx mieści się 66% wyników pomiaru wielkości X. Jeżeli jest
to -1, to istotna liczba wyników będzie w przedziale [(-1-Sx), (-1+Sx)]. Jeżeli jest to
+1, to istotna liczba wyników będzie w przedziale [(1-Sx), (1+Sx)] A zatem skala
ma w rzeczywistości długość pięciu odchyleń standardowych: dwa na opcję
ujemną, dwa na opcję dodatnią, oraz jeden na przedział zerowy. Skala została
podzielona jak na rys. 6.2
Rys. 6.2 Przykład definiowania “zera rozmytego”.
6.1.4 Kryterium oparte na skali ilorazowej
Ten rodzaj kryteriów ma najczęściej charakter epistemiczny, czyli nie podlegający subiektywnym oszacowaniom. Wynikają one z danych pomiarowych i
można nadawać im sens pragmatyczny (rozumienia w kontekście). Zmienne są
w tym przypadku powiązane funkcyjnie (jedna wartość zmiennej niezależnej
jest powiązana wyłącznie z jedną wartością zmiennej zależnej). Stąd wynika
możliwość aproksymacji wielomianowej, funkcyjnej oraz kwestie interpolacji i
419
ekstrapolacji. Podobnie, jak w przypadku skali przedziałowej, możliwe jest ustalenie wartości maksymalnej i obliczanie wartości względnych, wyrażanych w
skali [0, 1]. W skali ilorazowej istnieje zawsze zero.
Jeżeli dana zmienna może być wyrażona w skali ilorazowej, wówczas mają
uzasadnienie wszelkie analizy statystyczne hipotez, oparte na testach parametrycznych, takich jak, test t-Studenta, test F-Snedecora, współczynnik korelacji rPearsona. Można interpretować wszystkie średnie i rozkłady statystyczne dla
zmiennych losowych.
Najważniejszą zaletą zmiennej ilorazowej jest możliwość aproksymacji
funkcyjnej, w szczególności linią prostą (metoda najmniejszych kwadratów)468.
Pozwala to na proste prognozowanie ilościowe.
11
10
9,9
9,2
9
8
7,9
y = 2,0786x - 0,3179
2
R = 0,9884
7,3
7
y
6
5,6
5,1
5
4
3,7
3
1,5
2
2,5
3
3,5
4
4,5
5
5,5
x
Rys. 6.3 Aproksymacja metodą najmniejszych kwadratów z przykładu 6.3 (tabela 29)
6.1.5 Kryterium integralne
Ostatnią kwestią analiz wielokryterialnych jest budowanie wskaźników integralnych z analiz cząstkowych, wykonanych dla każdego aspektu kryterium.
Mamczur J.A., Komputerowy program „Metoda najmniejszych kwadratów”, http://www.prz.rzeszow.pl/~janand/mnk.htm
468
420
Każde kryterium integralne jest możliwe do ustalenia pod warunkiem wyrażenia jego wszystkich zmiennych na tej samej skali. Mamy wówczas do czynienia
najczęściej z dwoma przypadkami, opisanymi poniżej.
 Zmienne cząstkowe są wynikami scoringowymi, stanowiącymi ocenę procentową w relacji do najlepszego rezultatu, albo są wynikiem procentowym
w stosunku do jakiejś innej relacji. Można wówczas posłużyć się średnią
arytmetyczną wyników cząstkowych dla ustalenia wyniku integralnego.
Taka metodologia jest stosowana w przypadku ustalania globalnego wskaźnika innowacyjności, globalnego wskaźnika konkurencyjności, wskaźnika
doing business, itp. (rozdział 5.4).
 W drugim przypadku mamy do czynienia z kryterium złożonym, gdzie
jedna zmienna stanowi np. wynik scoringowy, druga jest oceną siły
związku, a kolejna wartością materiału zużytego na wykonanie detalu w
stosunku do wzorca. Wszystkie, te zmienne dają się sprowadzić do zakresu
[0, 1] (znormalizować). Wówczas należy użyć wyrażenia na długość wektora w przestrzeni wielowymiarowej (pierwiastek z sumy kwadratów wartości zmiennych cząstkowych z przedziału [0, 1]). Jest to uzasadnione zastosowaniem metod algebry liniowej w odniesieniu do pomiarów.
Obie opisane metody prowadzą w rezultacie do syntetycznego wyniku, wyrażonego w formie liczby rzeczywistej z przedziału [0, 1], co może stanowić racjonalne kryterium wspomagające podejmowanie decyzji. Jeżeli nie uda się znormalizować którejkolwiek ze zmiennych ze względów interpretacyjnych albo
praktycznych (brak wzorca albo wartości odniesienia), taką zmienną należy wykluczyć z konstrukcji kryterium integralnego.
6.2 Badania zależności zmiennych
Omówione kwestie istnienia zależności między zmiennymi w rozdziale
5.2.3 wymagają krótkiego zaprezentowania w działaniu trzech, najbardziej istotnych z nich. Pierwszą będzie metoda najmniejszych kwadratów, drugą metoda
chi-kwadrat, a trzecią test sumy rang Wilcoxona-Manna-Whitney’a.
6.2.1 Metoda najmniejszych kwadratów
Zasada metody polega na tym, że mamy pewną liczbę k punktów pomiarowych (y1, y2, …, yk) określonych dla zmiennej niezależnej ( x1, x2. …, xk), takich,
że można ułożyć punkty (xj, yj) kolejno w szereg rosnący (skala co najmniej przedziałowa). Zadanie polega na znalezieniu prostej o równaniu y = ax +b, dla której
suma kwadratów odległości punktów pomiarowych od tej prostej jest jak najmniejsza. (ilustracja na rys. 6.3). Możemy to zapisać w formie równania 6.1 w
postaci:
421
k
[( y
(6.1)
i
 (axi  b)]2  min{a, b}
i 1
Z zależności 6.1 i twierdzeń dotyczących znajdowania minimum funkcji wielu
zmiennych wynika układ równań, którego rozwiązanie prowadzi do następujących wyrażeń na szukane współczynniki a i b prostej:
k
(6.2)
a
k
k
k  xi yi   xi  yi
i 1
i 1
k
2
k
k
k
i 1
i 1
i 1
 yi  xi2   xi  xi yi
b
i 1


k  xi2    xi 
i 1
 i 1 
k
k
i 1


k  xi2    xi 
i 1
 i 1 
k
k
2
Dodatkowo możliwy jest do wyliczenia współczynnik korelacji, wskazujący
na siłę związku pomiędzy zmiennymi x i y, który można wówczas obliczyć z
zależności:
k
r
(6.3)
k
k
k  xi yi   xi  yi
i 1
i 1


k  x    xi 
i 1
 i 1 
k
k
2
i 1
 k 
k  y    yi 
i 1
 i 1 
k
2
i
2
2
i
Przykład 6.3 Wykorzystanie metody najmniejszych kwadratów
Dla zmiennej niezależnej x={2; 2,5; 3; 3,5; 4; 4,5; 5} zmierzono następujące wartości
zmiennej zależnej y={3,7; 5,1; 5,6; 7,3; 7,9; 9,2; 9,9}. Ustalić, czy pomiędzy zmiennymi x i
y występuje istotna korelacja, a jeżeli tak to wyliczyć równanie prostej aproksymacji. Dla
obliczeń można stworzyć następującą tabelę:
Tabela 29 Tablica pomocnicza dla metody najmniejszych kwadratów
Numer
xi
yi
1
2,0
3,7
4
13,69
7,40
2
2,5
5,1
6,25
26,01
12,75
3
3,0
5,6
9
31,36
16,80
4
3,5
7,3
12,25
53,29
25,55
5
4,0
7,9
16
62,41
31,60
6
4,5
9,2
20,25
84,64
41,40
7
∑
(∑)2
5,0
9,9
24,5
48,7
600,25
x i2
yi2
25
92,75
x i yi
98,01
49,50
369,41
185,00
2371,69
Współczynnik korelacji dla tego przypadku wynosi: 0,9942 jest bliski ideału (1,0).
Oznacza to, że funkcja liniowa jest rosnąca (korelacja dodatnia). Równanie prostej (zaokrąglone do trzech miejsc) ma postać y = 2,079x – 0,318 . Wynik ten można bardzo łatwo
uzyskać przy użyciu arkusza kalkulacyjnego.
422
Ponieważ współczynnik korelacji jest statystyką, należy go traktować jako
zmienną losową. Jeżeli wybrano próbkę n-elementową z populacji o rozkładzie
gaussowskim (normalnym, dwuwymiarowym), dla której brak jest korelacji, to
dla niej teoretyczny współczynnik korelacji ρ wynosi 0. Z teorii statystyki wynika, że zmienna t dana zależnością 6.4:
t
(6.4)
r
n2
1  r2
podlega rozkładowi t-Studenta o (n – 2) stopniach swobody (liczba punktów pomiarowych pomniejszona o 2 – w analizowanym przykładzie jest to 5). Wyliczona w naszym przypadku wartość empiryczna tej zmiennej temp = 20,67. Z rozkładu t-Studenta (tablice, funkcja Excela „ROZKŁAD.T.ODW”) wynika, że wartość krytyczna tkryt dla 5 stopni swobody na poziomie ufności wnioskowania 99%
wynosi 4,032. Ponieważ, temp > tkryt należy odrzucić hipotezę o braku korelacji
między zmiennymi, a przyjąć alternatywną, jej istnienie z bardzo wysokim
prawdopodobieńtwem.
Nie wnikam w dalsze szczegóły testowania istotności zależności oraz szczegółów związanych z oszacowaniem błędów zaprezentowanej aproksymacji liniowej oraz analizy wartości reszt. Polecam w tej kwestii zainteresowanym opracowanie StatSoft dostępne online469.
6.2.2 Test chi-kwadrat
Kolejnym aspektem, wartym poświęcenia nieco uwagi jest poszukiwanie
zależności pomiędzy zmiennym wyrażonymi w skali nominalnej za pomocą metody chi-kwadrat (χ2). Wzór umożliwiający obliczenie χ2 empirycznego
m
(6.5)
( x ( E ) ij  x ( T ) ij ) 2
x ( T ) ij
j 1
n
 2  
i 1
Gdzie x(E)ij stanowi element (i,j) macierzy danych empirycznych, a x(T)ij jest
jego odpowiednikiem teoretycznym, obliczanym z zależności (iloczyn sumy itego wiersza i j-tej kolumny podzielony przez całkowitą liczebność N).
(6.6)
x ( T ) ij 
m
n
i 1
j 1
 xi  x j
N
Wymiar macierzy zależności jest (m x n). Tym samym liczba stopni swobody
dla danych wynosi (m-1)*(n-1).
Wątroba J., „Wprowadzenie do analizy korelacji i regresji”, http://www.statsoft.pl/Portals/0/Downloads/Wprowadzenie_do_analizy_korelacji_i_regresji.pdf
469
423
Przykład 6.4 Badanie związku metodą -kwadrat
Analizowano grupę 368 menedżerów funkcjonujących w czterech kategoriach wielkości firm (mikro, mała, średnia, duża), którzy określili typ otoczenia społecznego w
trzech kategoriach SP (stabilne i przewidywalne), NP (niestabilne ale przewidywalne)
oraz NN (niestabilne i nieprzewidywalne). W ankiecie zadano zapytanie: czy typ otoczenia społecznego ma znaczenie na wielkość prowadzonej firmy? Dla prezentacji zmiennych wykorzystano skale nominalne, dla których średnia nie może być określona.
Postawiono hipotezę H0: Nie istnieje zależność pomiędzy typem otoczenia, a wielkości
prowadzonej firmy. Dla jej weryfikacji wykorzystano metodę χ2. Składa się na nią 4 kroki.
1. Budowanie empirycznej tablicy zależności
mikro
mała
średnia
duża
suma
SP
33
18
34
57
142
NP
14
39
52
34
139
NN
19
39
18
11
87
suma
66
96
104
102
368
Liczebności z ankiety naniesiono na macierz o wymiarze 3x4. Liczba stopni swobody
wynosi wówczas (liczba wierszy – 1)*(liczba kolumn – 1)= 6. Warunkiem użycia statystyki chi-kwadrat jest odpowiednia ilość danych w każdej komórce macierzy (nie mniej
niż 7). W przeciwnym przypadku należy połączyć kategorie (np. mikro+mała), żeby uzyskać właściwy poziom reprezentatywności próby.
2 Obliczanie liczebności teoretycznych wynikających ze wzoru na χ2.
mikro
mała
średnia
duża
suma
SP
25,47
37,04
40,13
39,36
142
NP
24,93
36,26
39,28
38,53
139
NN
15,60
22,70
24,59
24,11
87
suma
66
96
104
102
368
Mnożymy sumę w kolumnie przez sumę w wierszu i dzielimy przez całkowitą liczebność. Np. wartość 36,26 (element 2,2 macierzy) = 96*139/368.
3 Obliczamy różnice pomiędzy liczebnością teoretyczną, a empiryczną
mikro
mała
średnia
duża
SP
7,53
-19,04
-6,13
17,64
NP
-10,93
2,74
12,72
-4,53
NN
3,40
16,30
-6,59
-13,11
Odejmujemy wartości w tych samych komórkach macierzy liczebności empirycznych i
teoretycznych, otrzymując tablicę różnic.
424
4 Obliczamy wartości cząstkowe χ2 dla każdej komórki i sumujemy.
SP
mikro
2,23
mała
9,79
średnia
0,94
duża
7,91
suma
20,86
NP
4,79
0,21
4,12
0,53
9,65
NN
0,74
11,71
1,76
7,13
21,35
suma
7,76
21,71
6,82
15,57
51,86
W tym celu podnosimy do kwadratu wartość danej różnicy i dzielimy przez odpowiadającą jej liczebność teoretyczną. W ten sposób wartość komórki (2,2) wynosi
0,21 = 2,74*2,74/36,26. Następnie sumujemy w wierszach, kolumnach i obliczamy sumę
sum (51,86). Jest to wartość χ2 empiryczna, którą porównujemy z wartością krytyczną,
wynikającą z rozkładu chi-kwadrat. Wartość χ2kryt dla 6 stopni swobody i poziomu ufności 99% wynosi 16,812. Oznacza to, że można z wysokim prawdopodobieństwem odrzucić hipotezę o braku związku wielkości firmy i niestabilności otoczenia.
6.2.3 Test Wilcoxona-Manna-Whitney’a
Tam gdzie zastosowanie testu χ2 nie ma uzasadnienia, ze względu na zbyt
rozbudowaną liczbę kategorii danej cechy, badanie zależności dwóch zmiennych można przeprowadzić za pomocą testu sumy rang Wilcoxona, zwanego
również testem Manna-Whitney’a. Zakładamy, że obie mierzone próbki można
ułożyć na skali porządkowej (tzn. uszeregować wyniki od najmniejszego do największego).
Weźmy dwa zbiory danych zmiennej x (np. średniej arytmetycznej odpowiedzi na zadaną kwestię) mierzonych dla dwóch różnych grup pomiarów (np.
kobiety i mężczyźni). Niech {x11, x12, x13, …, x1n} stanowi próbę mierzonej wartości
przez n respondentów z grupy 1, a { x21, x22, x23, …, x2m} stanowi próbę mierzonej
wartości przez m respondentów z grupy 2. Obie grupy są rozłączne (w sensie
skali nominalnej), a pomiary zmiennej x są niezależne, przy czym liczebności w
grupach spełniają zależność m  n. Testujemy hipotezę H0 na zadanym poziomie
ufności (lub poziomie istotności), że próby 1 i 2 nie pochodzą z tej samej populacji.
Statystyką jest U Manna-Whitneya
k
(6.7)
U   R(min) j 
j 1
k (k  1)
2
gdzie ∑R(min) jest sumą rang mniejszą w grupie 1 oraz 2, a k liczbą danych w
grupie o mniejszej sumie rang (albo k = m albo k = n). Wzór ten jest wykorzystywany w przypadku mniejszej liczby danych niż 20. Jeżeli liczba obserwacji przekracza 20, wówczas stosuje się funkcję testującą Z wraz z testem parametrycznym t-Studenta.
425
Przykład 6.5 Porównanie dwóch prób metodą W ilcoxona
Sprawdzić czy na poziomie ufności 95% (poziomie istotności 0,05) czy pomiędzy
średnimi x1 oraz x2 występuje istotna różnica, wiedząc że dokonano następujących pomiarów:
X1 = {74; 87; 42; 73; 91; 81; 54; 66; 72; 68};
X2 = {60; 41; 41; 55; 90; 65; 54; 73; 75; 24},
Obliczone średnie: <x1> = 70,8 (wariancja 214,8) oraz <x2> = 57,8 (wariancja 372,2).
Pobieżna obserwacja wskazuje, że zastosowanie testu parametrycznego nie nadaje się w
tym przypadku, ze względu na zbyt duże różnice wariancji. Ale test Wilcoxona nie żąda
przybliżonej równości wariancji i można go zastosować. Procedura składa się z dwóch
elementów: rangowania oraz testowania hipotezy.
1. Rangowanie
Łączymy oba ciągi pomiarów w jeden wspólny i porządkujemy go rosnąco (kolumna „pomiar” w tabeli 30), ustalając przy tym, który wynik należy do której średniej.
Nadajemy rangi poszczególnym wynikom, które są na ogół zgodne z pozycją w kolejności. Jeżeli mamy dwa pomiary identyczne, każdy z nich otrzymuje rangę połówkową (
kolumna „ranga”). Jeżeli będą to trzy identyczne, ranga wyniesie pozycja pierwszego
wyniku + 1. Ogólnie, ranga wynosi [k+(n-1)/2] dla wszystkich równych wyników, gdzie
k jest pierwszą pozycją rangowaną, od której wystąpi n identycznych wyników.
Tabela 30 Tabela rang dla testu Wilcoxona (przykład 6.5)
kolejność
pomiar
grupa x
ranga
1
24
2
1
2
41
2
2,5
3
41
2
2,5
4
42
1
4
5
54
1
5,5
6
54
2
5,5
7
55
2
7
8
60
2
8
9
65
2
9
10
66
1
10
11
68
1
11
12
72
1
12
13
73
1
13,5
14
73
2
13,5
15
74
1
15
16
75
2
16
17
81
1
17
18
87
1
18
19
90
2
19
20
91
1
suma rang 1
20
126
suma rang 2
84
426
Suma rang R(emp) dla serii 2 jest mniejsza niż dla pierwszej i wynosi 84. Wybieramy ją do
dalszej procedury weryfikacji hipotez.
2. Testowanie
Stawiamy hipotezę zerową.
H0: oba pomiary różnią się nieistotnie wobec alternatywy przeciwnej.
Funkcją testującą jest:
(6.8)
U() = 2En,m – Rn,m()
Hipotezę o równoważności można odrzucić, jeżeli zachodzą nierówności:
Rn,m() < R(emp) < U()
Enm jest równe połowie sumy wszystkich rang. W naszym przypadku jest to połowa
sumy ciągu (1,2,…,20), czyli 105. Rnm() jest odczytywane z tablic rozkładu Wilcoxona
dla liczby (n,m) pomiarów i poziomu istotności . W naszym przykładzie należy odczytać R10,10(0,01) = 74. Stąd wartość U(0,01) =136. Ponieważ zachodzi { R10,10(0,01) < R(emp) <
U(0,01)} (albowiem 74 < 84 < 136), to uzyskana suma rang mieści się w przedziale ufności.
A zatem nie ma przesłanek do odrzucenia hipotezy o tym, że obie serie pomiarów pochodzą z jednej populacji. Stąd, średnie <x1> oraz <x2> z podanego przykładu różnią się
w sposób nieistotny z prawdopodobieństwem 99% (na poziomie istotności 0,01).
6.3 Analiza PEST(LE)
Aby strategia organizacji lub oszacowanie poziomu sprzyjającego uwarunkowania projektu inwestycyjnego były jak najlepiej dopasowane do zmienności
otoczenia, należy rozważyć różnorodność kontekstową wpływu środowiska biznesowego na przedmiot analizy. Analiza PEST(LE)470 jest jednym z kluczowych
elementów procesu planowania strategicznego oraz taktycznego. Można to traktować jak proces „skanowania” środowiska, dostarczający informacji o tym, co
dzieje się wokół organizacji lub projektu obecnie i na podstawie posiadanych informacji przeszłych i bieżących przewidzieć, co może się przydarzyć w przyszłości. W PEST chodzi o identyfikację zachodzących zmian i zjawisk społeczno-ekonomicznych w skali makro, albowiem wpływ otoczenia biznesu na projekt lub
organizację jest zwykle długofalowy. Kontekst biznesowy rozpatruje się w kilku
obszarach, stanowiących zmienne (wielokryterialne) metody PEST: Political, Economic, Social, Technological (stąd nazwa), a PEST(LE) dodatkowo uwzględni
aspekty: (Legal - prawny i Environmental - środowisko naturalne).
Arkusz PEST dotyczy wymienionych wyżej obszarów analizy makrootoczenia. W każdym z nich należy zidentyfikować kilka głównych czynników charakteryzujących otoczenie biznesu (5-6 czynników w każdym obszarze, żeby nie
przekroczyć progów rozróżniania wpływu wag istotności, tak jak to wynika z
podejścia wielokryterialnego), które rozpatruje się w następującym trójscenariuszu: wzrost znaczenia danej cechy, jej stabilizacja i spadek znaczenia. Trendy w
CIPD, „ PESTLE Analysis. An exploration of the PESTLE model, process, advantages and disadvantages”,
15.10. 2015 http://www.cipd.co.uk/hr-resources/factsheets/pestle-analysis.aspx
470
427
scenariuszu można mierzyć w skali 3- lub 5-stopniowej, co umożliwia sporządzenia mapy dla scenariuszy negatywnych, pozytywnych i najbardziej prawdopodobnych. W planowaniu strategicznym chodzi o jak najbardziej trafne przewidzenie przyszłości oraz zbudowanie mechanizmów antycypacji zmian w celu
przygotowania się organizacji na rozmaite scenariusze wydarzeń. Stąd tak
ważne jest znaczenie analizy PEST i doboru właściwych czynników, mających
najbardziej prawdopodobny wpływ na kontekst biznesowy, w jakim działa dana
organizacja,471.
Dobrze wykonana analiza PEST(LE) redukuje niepewność decyzyjną w odniesieniu do relacji mikro-makro (wdrożenie projektu inwestycyjnego) i pozwala
na ustalenie niektórych czynników ryzyka zewnętrznego. Z punktu widzenia
techniki wykonania oraz interpretacji PEST stanowi wariant analizy wielokryterialnej, co dodatkowo podkreśla istotność modelu.
6.3.1 Tablica czynników PEST
Analiza PEST jest bardzo dobrze poznanym narzędziem zarządzania. Opracowano dobre praktyki wykonania analizy oraz układy optymalnych czynników
do budowania scenariuszy.
Przykład 6.6 Analiza PEST(LE) dla systemu edukacji w powiecie wałbrzyskim 472.
Ustalono na podstawie danych makroekonomicznych, że najbardziej istotnymi
czynnikami dla analizy PESTLE systemu edukacji są:
Otoczenie polityczne (Political factors)
1. Stabilność polityczna. (kadencyjność władzy),
2. Polityka ekonomiczna państwa,
3. Polityka społeczna (poziom krajowy),
4. Polityka Unii Europejskiej (polityki równoległe),
5. Polityka innowacyjności i informatyzacji,
6. Polityka kulturalna i oświatowa.
Otoczenie ekonomiczne (Economic factors)
1. PKB i jego konsekwencje,
2. Poziom bezrobocia,
3. Średnia płaca krajowa i dochód do dyspozycji,
4. Udział nakładów na edukację w PKB,
5. Programy pomocowe pozabudżetowe ukierunkowane na edukację,
6. Struktura biznesowa w otoczeniu bliskim.
471
472
Wikipedia, „PEST”, http://pl.wikipedia.org/wiki/PEST
dane pochodzą z pracy doktorskiej J. Sempryka,
428
Tabela 31 Analiza PEST – otoczenie polityczne
Czynnik PEST
Stabilność polityczna.
(Kadencyjność władzy)
Polityka ekonomiczna
państwa
Polityka społeczna
Polityka Unii Europejskiej (polityki równoległe),
Polityka innowacyjności
i informatyzacji
Polityka kulturalna
i oświatowa.
trend
wpływ
Prawdo-podobieństwo
Wpływ
ważony
Stabilizacja (+)
+5
0,30
1,50
Małe zmiany (0)
+2
0,30
0,60
Duże zmiany (-)
-3
0,40
-1,20
Wzrost wydatków (+)
+5
0,20
1,00
Status quo budżetu (0)
+1
0,10
0,10
Oszczędności (-)
-5
0,70
-3,50
Zmiany pozytywne(+)
+3
0,50
1,50
Neutralność (0)
0
0,30
0,00
Brak działania (-)
-5
0,20
-1,00
Wzrost nakładów (+)
+5
0,30
1,50
Stabilizacja (0)
-1
0,30
-0,30
Cięcia programów (-)
-3
0,40
-1,20
Wzrost (+)
+5
0,70
3,50
Stagnacja (0)
+2
0,20
0,40
Zaniechanie (-)
-5
0,10
-0,50
Zielone światło (+)
+5
0,50
2,50
Stagnacja (0)
+1
0,30
+0,30
Zaniechania (-)
-2
0,20
-0,40
Otoczenie socjokulturowe (Social factors)
1. Odniesienie do globalizacji i integracji europejskich.
2. Aspekty kulturowe społeczeństwa (więzi rodzinne, religia).
3. Zjawiska negatywne (wykluczenie, NEET etc.),
4. Poziom życia społeczeństwa,
5. Ogólne uczestnictwo w kulturze,
6. Wzorce i postawy społeczne.
Otoczenie technologiczne (Technological factors)
1. Zasoby kadrowe procesów edukacji,
2. Zasoby techniczne procesów edukacji,
3. Zasoby technologiczne procesów nauczania,
4. Otoczenie biznesowe edukacji,
5. Nowe technologie w otoczeniu,
6. Rewolucja informacyjna.
Otoczenie prawne (Legal factors)
1. Uregulowania prawne KWE,
2. Uregulowania prawne ustawowe,
3. Rozporządzenia i zarządzenia centralne,
4. Zarządzenia wojewódzkie,
429
5. Koncesje i pozwolenia,
6. Dokumenty planistyczne i strategiczne.
Otoczenie środowiskowe (Environmental factors)
1. Znaczenie koncepcji TBL,
2. Zasady zrównoważonego rozwoju,
3. Uświadomienie ochrony środowiska,
Dla powyższego układu zmiennych PEST(LE) wykonano następnie tablice istotności
czynników. Konieczne prawdopodobieństwa zaistnienia sytuacji przyjęto arbitralnie
(można ten czynnik próbować standaryzować metodą ekspercką, wybierając średnią
ocen dla grupy eksperckiej, tak jak to się czyni w gremiach typu Rada Polityki Pieniężnej). Dla wszystkich kategorii przyjęto jednakowe wagi istotności (6 kategorii oznacza
istotność każdej z nich równą 1/6; w ostatnim przypadku 3 kategorii, istotność wyniesie
1/3). W wyniku otrzymano scenariusz przedstawiony w tabeli 33.473: W tabeli 31 pogrubiono najbardziej istotne czynniki polityczne, wpływające dodatnio na rozwój systemu
edukacji powiatowej, kursywą zaś te, najbardziej negatywnie oddziaływujące.
Tabela 32 Analiza PEST – otoczenie ekonomiczne
Czynnik PEST
PKB i jego konsekwencje
Poziom bezrobocia
Średnia płaca krajowa i
dochód do dyspozycji
Udział nakładów na
edukację w PKB
Programy pomocowe
po-zabudżetowe ukierunko-wane na edukację
Struktura biznesowa w
otoczeniu bliskim.
trend
wpływ
Prawdo-podobieństwo
Wpływ
ważony
Wzrost (+)
+2
0,25
0,50
Stabilizacja (0)
0
0,50
0,00
Spadek (-)
-5
0,25
-1,25
Wzrost (+)
-3
0,60
-1,80
Stabilizacja (0)
0
0,30
0,00
Spadek (-)
+3
0,10
+0,30
Wzrost (+)
+5
0,50
+2,50
Stabilizacja (0)
+1
0,25
+0,25
Spadek (-)
-5
0,25
-1,25
Wzrost nakładów (+)
+5
0,30
+1,50
Stabilizacja (0)
0
0,20
-0,00
Cięcia budżetowe (-)
-5
0,50
-2,50
Wzrost (+)
+2
0,60
+1,20
Stagnacja (0)
0
0,30
0,00
Zaniechanie (-)
-2
0,10
-0,20
Mocna (+)
+5
0,20
+1,00
Przeciętna (0)
+2
0,60
+1,20
Słaba (-)
-3
0,20
-0,60
Zostały zaprezentowane dwie tabele, jedna dotycząca sytuacji politycznej, a druga
ekonomicznej. Pozostałe są dostępne w cytowanej pracy doktorskiej
473
430
Postępując w powyższy sposób, powstają tablice analityczne dla wszystkich
zmiennych PEST(LE). Dla czynników ekonomicznych wyniki są w tabeli 32.
6.3.2 Scenariusze PEST
W wyniku utworzenia tablic analitycznych dla poszczególnych zmiennych
analizy PEST (tabela 31 i 32), w kolejnym kroku łączymy je wszystkie i porządkujemy rosnąco tak, żeby otrzymać scenariusze wariantowe.
Tabela 33 Analiza PEST – scenariusz najbardziej prawdopodobny
Czynnik PEST
trend
wpływ
Prawd.
Ważony
Polityka ekonomiczna państwa
Oszczędności (-)
-5
0,7
-3,50
Rozporządzenia i zarządzenia centralne
Osłabiające system (-)
-5
0,6
-3,00
Udział nakładów na edukację w PKB
Cięcia budżetowe (-)
-5
0,5
-2,50
Poziom życia społeczeństwa
Spadek poziomu (-)
-5
0,5
-2,50
Zjawiska negatywne (wykluczenia etc.)
Wzrost (-)
-5
0,5
-2,50
Poziom bezrobocia
Wzrost (+)
-3
0,6
-1,80
Ogólne uczestnictwo w kulturze
Spadek (-)
-3
0,6
-1,80
Rewolucja informacyjna
Neutralność (0)
-3
0,6
-1,80
Zasoby kadrowe procesów edukacji
Spadek poziomu (-)
-3
0,5
-1,50
Zarządzenia wojewódzkie
Status quo (0)
0
0,6
0,00
PKB i jego konsekwencje
Stabilizacja (0)
0
0,5
0,00
Odniesienie do globalizacji i integracji
europejskiej
Aspekty
kulturowe społeczeństwa
Status quo (0)
0
0,5
0,00
Stabilizacja (0)
0
0,5
0,00
Dokumenty planistyczne i strategiczne
Status quo (0)
0
0,5
0,00
Koncesje i pozwolenia
Status quo (0)
1
0,5
0,50
Otoczenie biznesowe edukacji
Wzrost znaczenia (+)
2
0,5
1,00
Programy pomocowe pozabudżetowe
Wzrost (+)
ukierunkowane
na
edukację
Struktura biznesowa w otoczeniu bliskim Przeciętna (0)
2
0,6
1,20
2
0,6
1,20
Wzorce i postawy społeczne
Neutralne (0)
2
0,6
1,20
Uregulowania prawne ustawowe
Status quo (0)
3
0,5
1,50
Polityka społeczna
Pozytywne (+)
3
0,5
1,50
Zasoby technologiczne w nauczaniu
Wzrost (+)
3
0,5
1,50
Koncepcja TBL (3P)
Wzmacniający (+)
3
0,5
1,50
Nowe technologie w otoczeniu
Wzrost (+)
3
0,6
1,80
Uregulowania prawne KWE
Status quo (0)
3
0,6
1,80
Polityka kulturalna i oświatowa.
Zielone światło (+)
5
0,5
2,50
Średnia płaca krajowa i dochód na głowę Wzrost (+)
5
0,5
2,50
Uświadomienie ochrony środowiska
Wzmacniające (+)
5
0,5
2,50
Polityka innowacyjności i informatyzacji
Wzrost (+)
5
0,7
3,50
431
Analizę prowadzimy w trzech wariantach:
 najbardziej optymistyczny,
 najbardziej pesymistyczny,
 najbardziej prawdopodobny.
Bardzo pomocnym narzędziem w tym kroku jest arkusz kalkulacyjny, np. Microsoft Excel albo Open Office Calc. Pozwala to na zautomatyzowanie procesu
porządkowania danych według ustalonego kryterium.
W tabeli 33 czynnikiem selekcjonującym jest prawdopodobieństwo zaistnienia wyniku (wyniki zaprezentowano dla wartości większej lub równej 0,5), a
czynnikiem porządkującym jest wartość ważona wpływu. W ten sposób scenariusz najbardziej prawdopodobny sugeruje odpowiednie działania wyprzedzające dla systemu edukacji.
Z punktu widzenia menedżera warto zauważyć jak przejrzysty i przy tym
łatwy do wykonania jest przestawiony w przykładzie 6.6 model i ile cennych
informacji można z niego pozyskać. Z doświadczenia wynika również fakt, że
analiza PEST ani nie jest powszechnie znana ani stosowana wśród menedżerów
przy podejmowaniu decyzji inwestycyjnych. Warto się nią zainteresować. Dodatkowo należy zauważyć, że stanowi ona punkt wyjścia dla formułowania
czynników analizy SWOT oraz oceny wpływu otoczenia na silne i słabe strony
podmiotu analizy.
6.4 Analiza GE-McKinsey
Często w zarządzaniu portfelem oferowanych dóbr konieczne jest racjonalne ustalenie struktury produktów oferowanych przez daną organizację.
Może to być również problem ustalenia, czy dany produkt należy rozwijać, czy
zakończyć z jego ofertą, ponieważ nie rokuje już generowania wartości dodanej
na odpowiednim poziomie. Do tego celu służą analizy portfelowe. Wśród nich
metoda macierzy McKinsey (zwana również macierzą General Electric).
Metoda wykorzystuje dwie zmienne: atrakcyjność sektora oraz pozycję rynkową danego dobra, oferowanego przez firmę. Zakłada przy tym w sposób pragmatyczny, że należy tworzyć wartość i oferować produkty w sektorach bardziej
atrakcyjnych rynkowo, likwidować natomiast produkty przynależne do sektorów o mniejszej atrakcyjności. Stąd pierwszą zmienną jest pozycja rynkowa
firmy (lub produktu oferowanego, poddanego analizie).
Drugą zmienną metody GE-McKinsey jest pozycja konkurencyjna organizacji, którą należy powiększać inwestując w te produkty, gdzie ma ona mocną pozycję konkurencyjną, a wycofywać się z tych, gdzie pozycja konkurencyjna firmy
jest słabsza.
432
Tym samym metoda McKinsey jest przykładem analizy scoringowej dla
dwóch zmiennych: atrakcyjności rynkowej sektora (mierzonej w dłuższym okresie) oraz pozycji konkurencyjnej firmy. Jako wynik otrzymujemy układ tablicy
dziewięciopolowej, jak na rys. 6.4, w dwuosiowym układzie współrzędnych o
umownych skalach474. Umożliwia to podjęcie dezycji strategicznej.
Rys. 6.4 Macierz wynikowa analizy GE-McKinsey.
Sugestia decyzyjna odnośnie postępowania z produktem, fragmentem organizacji lub całą firmą jest bardzo czytelna. Jeżeli sektor jest atrakcyjny, a pozycja
rynkowa produktu, firmy wysoka – rozwijać. W odwrotnym przypadku – odzyskać, ile się da i wycofać z rynku. Istnieje obszar trzech pól przekreślonych linią
ukośną, oddzielającą kalkulacje czy iść w kierunku rozwoju, czy wycofania się z
gry.
6.4.1 Atrakcyjność rynkowa sektora
Pierwszym problemem praktycznym, który się pojawia przed analitykiem
jest kwestia: jak zmierzyć „atrakcyjność rynkową sektora” oraz „pozycję rynkową organizacji (lub produktu)”. Innymi słowy, jak wybrać zbiór cech kryterium „atrakcyjności” i ustalić miarę, a następnie otrzymać jakieś wskaźniki syntetyczne. Dla oceny atrakcyjności rynkowej sektora punktem wyjścia może być
Przyjęta skala umowna (porządkująca) w przedziale [0, 3] oznacza, że zarówno miara atrakcyjności i
pozycji rynkowej musi być zawarta w tym przedziale. Można przyjąć dowolną skalę np. 0-100%, co nie
zmienia ani ogólności metody ani jej interpretacji. Równie dobrze może to być macierz 25 polowa. Jednak
oryginalna koncepcja McKinsey ograniczona do 9 pól ma wystarczającą użyteczność dla menedżera. Jest to
istotna cecha metody wielokryterialnej, umożliwiającej uzyskanie wskaźnika syntetycznego znormalizowanego, niezależnie od przyjętej skali.
474
433
koncepcja opisana na str. 39 (zawierająca w sobie koncepcję konkurencyjności
wg. M.Portera), a przedstawiona syntetycznie w tabeli 34. Oczywiście można, a
nawet należy rozważyć dodatkowe cechy wpływające na atrakcyjność rynku, a
wynikające z np. analizy PEST.
Tabela 34 Analiza GE-McKinsey atrakcyjności sektora (tabela A).
Kryterium oceny rynku
Skala przedziałowa (opis podziału)
0 – 0,9
1 – 1,9
2-3
niszowy
stabilny
chłonny
>60%
30 – 60%
< 30%
< 2% r/r
2-8% r/r
>8% r/r
Średnia rentowność w sektorze
<10%
10-20%
>20%
Ryzyko substytucji produktów
Duże
Istnieje
Brak
Wojna cen
Stabilne
Swobodne
Marża zysku
Niska
Średnia
Wysoka
Intensywność konkurencji
Duża
Średnia
Niska
Podatność na recesję
Brak
Średnia
Duża
Bariera wejścia
Brak
Średnia
Wysoka
Bariera wyjścia
Duża
Istnieje
Brak
Utrudniona
Zmienna
Pełna
Sezonowość/cykliczność sprzedaży
Duża
Średnia
Niska
Uciążliwość dla środowiska
Duże
Małe
Brak
Wolumen rynku
Udział liderów
Prognoza wzrostu rynku
Poziom cen
Dostępność zasobów
Ocena
Suma punktów
Średnia
W tym celu konieczne jest stworzenie dwóch tablic: tablicę A zawierającą
kryteria cząstkowe atrakcyjności sektora – tabela 34) oraz tablicę B, uwzględniającą cząstkowe kryteria charakterystyk pozycji rynkowej (tabela 35). Warto zauważyć, że przyjmowane kryteria cząstkowe do analiz nie są sztywno zdefiniowane. Analityk może uwzględnić własny zbiór parametrów charakterystycznych, co oznacza pewną dozę subiektywizmu w ich doborze. Istnieją opracowania na temat sposobów formułowania takich ocen, prowadzone przez wiodące
organizacje statystyczne (Bank Światowy, Eurostat czy w Polsce GUS) oraz organizacje audytorskie. Nie ma jednak uniwersalnego pomiaru dla dowolnych
produktów i rynków. Stąd użyteczność metody wymaga dodatkowych analiz
jakościowych.
Struktura danych w tabeli jest przykładowa i może zostać zmieniona w zależności od podmiotu i przedmiotu analizy. Każda zmienna wielokryterialna ma
swoje uzasadnienie statystyczne lub literaturowe i zanim przydzielimy wartość
434
1,5 albo 2 w odpowiednim wierszu tabeli, konieczne jest zaznajomienie się z
danymi źródłowymi na temat sytuacji rynkowej. Należy mieć również na względzie fakt, że metoda GE-McKinsey nadaje się do analiz zarówno rynku krajowego, jak i lokalnego. W przypadku lokalnym można w pozycji „Inne” wpisać
upodobania miejscowej ludności. Można również dodać informację o sieciowej
strukturze biznesu (o ile jest się ogniwem sieci lub łańcucha dostaw). Istotnym
parametrem wynikowym jest średni wynik atrakcyjności sektora. Odpowiada
on pozycji wiersza na diagramie GE-McKinsey (rys. 6.4).
6.4.2 Ustalanie pozycji rynkowej
Drugą część analizy poświęcamy pozycji rynkowej naszej organizacji (lub
produktu). W tym celu konieczne jest przygotowanie tabeli wielokryterialnej,
zawierającej zmienne związane z pozycjonowaniem podmiotu analizowanego
na rynku (Tabela 35). Dane pozycjonowania rynkowego należy definiować, mając na uwadze rodzaj analizy (czy dotyczy jednostki biznesowej, czy produktu etc.). Poszczególne kategorie analityczne (charakterystyki cząstkowe pozycji rynkowej) mogą być definiowane inaczej niż na przedstawionym w tabeli
(Tabela 35) przykładzie. Wymaga to jednak pewnej wiedzy i argumentacji dlaczego ma być tak, a nie inaczej. Dodatkowo używając wag statystycznych menedżer może nadać większe znaczenie określonemu parametrowi niż innym.
(Suma wszystkich wag musi być równa 1). W wyniku prawidłowego wypełnienia tabeli B otrzymujemy wskaźnik pozycji rynkowej, który jest liczbą dodatnią
z przedziału [0, 3] i odnosi się do odpowiedniej kolumny macierzy GE-McKinsey
z 5.1.
Tabela 35 Analiza GE-McKinsey pozycjonowania rynkowego (tabela B)
Kryteria pozycjonowania
Opis kluczowej cechy
Udział w rynku
Procent lub wartość
Cena zbytu
Pareto optymalna
Technologia produktu
Nowoczesność
Jakość produktu
Na tle średniej rynkowej
Rentowność
W procentach
Postrzeganie przez rynek
Wzrost portfela zamówień
Udział wiedzy w produkcie
Trudność imitacji
Unikatowość zasobów
Trudność w skopiowaniu
Inne (zdefiniować)
Ocena w
skali 0-3
Waga*)
Ocena ważona**)
???
Suma
1
Waga jest arbitralnie przyjętym poziomem istotności danej zmiennej w całości. Oznacza to, że suma wag
jest równa 1.
**) Ocena ważona jest iloczynem oceny punktowej oraz wagi (istotności).
*)
435
Ostatnim krokiem wykonania analizy jest interpretacja otrzymanych wyników w postaci liczbowej. Załóżmy, że z tabeli A otrzymano wynik atrakcyjności
sektora 2,2, a z tabeli B otrzymano wskaźnik pozycji rynkowej naszego przedsięwzięcia na poziomie 1,8. Ustalamy na tej podstawie, któremu polu macierzy GEMcKinsey odpowiada punkt o takich współrzędnych (1,8; 2,2). Jest to pole w kategorii „rozwijaj”. I taką wskazówkę strategiczną należy z powyższej analizy odczytać.
W podobny sposób można dokonać analizy dotyczącej relacji rynkowej pozycji organizacji do fazy cyklu życia produktu. Metoda nosi nazwę macierzy
ADL475,476 i daje wskazania strategiczne do modelowania struktury produktów w
czasie.
6.5 Analiza portfelowa BCG
Macierz BCG (analiza Boston Consulting Group) opisuje portfolio produktów w układzie współrzędnych wzrostu rynku oraz pozycji rynkowej w formie
wykresu quasi ilościowego. Została zsaproponowana przez B. Hendersona z Boston Consulting Group w 1970 roku aby pomóc korporacjom w analizach ich
jednostek organizacyjnych w kwestiach optymalizacji ich linii produktów. Analiza BCG pomaga firmie optymalizować zaangażowanie zasobów i jest powszechnie stosowana jako narzędzie analityczne w marketingu marki, zarządzaniu produktami, zarządzaniu strategicznym oraz analizy portfelowej (optymalizacji). Ze względu na łatwość stosowania i przejrzystość interpretacji wyników
jest ona bardzo chętnie omawiana w literaturze i często wykorzystywana w
praktyce477,478. Jednak ze względu na znaczny udział subiektywizmu w ocenach
wzrostu rynku, jak również doświadczenia organizacji stosujących ją, należy zachować dużą ostrożność w wypowiadaniu sądów opartych na kryteriach BCG479.
Analiza BCG zakłada, że aby odnieść sukces rynkowy, firma powinna operować portfelem produktów o różnym tempie wzrostu i różnych udziałach w
rynku. Skład takiego, zoptymalizowanego portfela zależy od równowagi między przepływami pieniężnymi wynikającymi z wartości generowanej przez poszczególne jego składniki. Produkty z fazy wysokiego wzrostu wymagają wzrostu nakładów pieniężnych. Produkty w fazie niskiego wzrostu (za maksimum
475
Romanowska M., Gierszewska G., Analiza strategiczna przedsiębiorstwa, Wyd. 4, PWE Warszawa, 2009.
Krupski R [red.]., Zarządzanie strategiczne- koncepcje, metody, Wyd. VI, Wydawnictwo Akademii Ekonomicznej, Wrocław, 2007.
477
Henderson B., “The product portfolio”, BCG.perspectives, 1970, https://www.bcgperspectives.com/content/classics/strategy_the_product_portfolio/
478
Krupski R., ibidem str. 166-169
479
Armstrong J.S., Green K.C., “Competitor-oriented Objectives: The Myth of Market Share”, International
Journal of Business, 12(1), 2007, 116-133
476
436
na krzywej życia produktu) powinny generować nadwyżki środków pieniężnych. Zakłada się jednak, że obie te kategorie produktów są jednocześnie potrzebne w portfelu ofert.
Dla przejrzystości jakościowej interpretacji wyników quasiilościowych macierzy BCG, Henderson podzielił produkty na cztery kategorie:
1. Gwiazdy czyli produkty przebojowe. Mają potencjalnie duży udział w szybko
rosnącym rynku, zwłaszcza w jego wiodących sektorach. Na ogół przynoszą organizacji wysokie dochody z chwilą wejścia produktu w końcówkę fazy wzrostu. Wymagają jednak zainwestowania w reklamę, jakość, innowacyjność w początkach fazy wzrostu, w warunkach dynamicznej zmienności otoczenia. Po
pewnym czasie gwiazdy mogą się same finansować. Produkty z kategorii
gwiazd mają potencjał rozwojowy i są z definicji konkurencyjne. Po osiągnięciu
fazy dojrzałości powinny przekształcić się kategorię produktów określanych
jako „dojne krowy”.
Rys. 6.5 Mapa portfela produktów BCG
2. Dojne krowy – ta kategoria produktów stanowi fundament życia danej jednostki organizacyjnej. Dojne krowy posiadają wysoki udział w ustabilizowanym
437
albo powoli rozwijającym się rynku. Przynoszą dla organizacji nadwyżkę dochodu i dodatnie przepływy finansowe. Pozwalają na finansowanie inwestycji
w pozostałe produkty (zwłaszcza w rozwój gwiazd), albo w wyjście z rynku z
produktami fazy schyłkowej (kategoria psy).
3. Znaki zapytania (problemowe dzieci). Jest to kategoria produktów deficytowych o niskim udziale w w szybko rozwijającym się rynku. Są to produkty, dla
których perspektywa wzrostu udziału w rynku są trudna do określenia. Zwykle
każdy stert up zalicza się do znaków zapytania. Przynoszą one organizacji niskie
dochody i zbilansowany Cash flow. W dłuższej perspektywie czasowej mogą
stać się zarówno gwiazdami, jak i psami. Stąd znaki zapytania muszą być starannie analizowane w celu ustalenia, czy są one warte inwestycji wymaganych
dla wzrostu udziału w rynku.
4. Psy (kule u nogi). Stanowią kategorię produktów ani nie przynoszących dodatnich przepływów pieniężnych, nie mających perspektyw rozwoju. Są one rezultatem albo przegranej walki konkurencyjnej na rynku, albo zmiennością otoczenia, powodującą że rynek został w pełni nasycony danym rodzajem dóbr. Organizacja musi rozważyć możliwość bezpiecznego wycofania się z danego sektora rynku, co zwykle wiąże się z poniesieniem określonych kosztów wyjścia.
Na tym jednak analiza BCG się nie kończy. Pozostaje bowiem do określenia
co to oznacza „duży wzrost rynku” oraz co oznacza „relatywny udział w rynku”.
Są to kryteria do ustalenia przez menedżera i wyrażone w celach do realizacji w
odniesieniu do danego produktu/usługi. Pomyłka na tym etapie analizy może
skutkować błędnymi decyzjami. Nie wiadomo, bowiem, czy udział produktu na
poziomie 1% na danym rynku oznacza dla firmy sukces czy porażkę, bo zależy
to od wielu innych czynników. W wyniku przeprowadzonej analizy powstaje
„mapa portfela”, co można przedstawić, jak na rys. 6.5. Wielkość koła symbolizującego dany produkt (produkty oznaczone są literami alfabetu A…K), oznacza
wielkość sprzedaży w jednostkach umownych. Można również oznaczać w ten
sposób wielkość cash-flow dla danego produktu znacząc dodatkowo kolorem
dodatnie i ujemne przepływy.
6.6 Analiza SWOT wersja quasi-ilościowa
Przeprowadzenie analizy SWOT wyłącznie na zasadzie jakościowej jest bardzo pożyteczne dla ocen kierunków postępowania strategicznego. Ale mało kto
zastanawia się, czy można jakoś te wyniki skwantyfikować i jeszcze lepiej oszacować kwestie podjęcia decyzji? Służy temu qasi-ilościowa analiza SWOT.
Tak, jak to pierwotnie przedstawił P. Selznik480 Macież SWOT w swoim podstawowym kształcie składa się z czterech pól:
480
Selznick P. "Foundations…”, op. cit.
438
Mocne strony:
S1. Kluczowe przewagi
S2. Doświadczenie, wiedza, certyfikacje, akredytacje
S3. Unikatowy charakter organizacji
S4. Zasoby, przywództwo, zarządzanie
S5. Przewagi geograficzne i geopolityczne
S6. Kompetencje i umiejętności
S7. Reputacja i jakość
S8. Innowacyjność i technologie ICT
Słabe strony
W1. Zapóźnienia
W2. Luka w doświadczeniu, wiedzy i IT
W3. Aspekty finansowe
W4. Brak wiarygodności i zaufania
W5. Słaby zarząd i niska moralność biznesowa
W6. Czynniki geograficzne i geopolityczne
W7. Wydajność systemów IT i bezpieczeństwo
W8. Złe mapy lub organizacja procesów biznesowych
Okazje w otoczeniu
O1. Alianse strategiczne i partnerstwo biznesowe
O2. Rozwój produktów oraz działalnośći B+R
O3. Import i eksport
O4. Innowacyjność i rozwój technologiczny
O5. Oczekiwania rynkowe (zmiany w otoczeniu)
O6. Marketing i wytworzenie nowych potrzeb
O7. Wejście na nowe rynki (dopasowanie czasowe)
O8. Wirtualizacja biznesu
Zagrożenia płynące z otoczenia\
Z1. Utrata afiliacji i partnerów
Z2. Utrata kluczowych kontraktów, klientów, itp.
Z3. Inflacja lub deflacja cenowa
Z4. Konkurencja cenowa zbyt silna
Z5. Wejścia na rynek nowych produktów innowacyjnych i substytutów
Z6. Pogarszające się warunki ekonomiczne
Z7. Złe uwarunkowania prawne i polityczne
Z8. Zagrożenia środowiska naturalnego
Powyższe aspekty są ogólnymi zagadnieniami, które w niniejszej książce
można odnaleźć w poprzednich rozdziałach. Analiza SWOT może być stosowana w sposób dość uniwersalny do wielu zagadnień, a wówczas czynniki
SWOT muszą zostać dostosowane do uwarunkowań analizowanego problemu.
439
6.6.1 Analiza czynników
Analizę czynników SWOT prowadzimy dla każdego z osobna, wykorzystując wyniki analizy PEST oraz sposób prezentacji. Zasadą jest ocena subiektywna
istotności wpływu danego czynnika oceniana w pięciopunktowej skali przedziałowej (1 najmniej istotny, 5 najbardziej istotny). Nie ma kryterium ustalającego
co oznacza średnio istotny, a co bardzo istotny. Stąd poziom subiektywizmu
można zmniejszyć jedynie w grupie kilku ekspertów, którzy niezależnie dokonają ocen.
Przykładową analizę SWOT można przeprowadzić dla niszowej firmy będącej mikroprzedsiębiorstwem posiadającym jakieś kluczowe kompetencje.
Tabela 36 Przykładowa analiza czynników SWOT
kod
S1
S2
S3
S4
S5
Czynnik analityczny
Jesteśmy na rynku polskim
niszową firmą, oferującą unikatowe dobra
Posiadamy unikatowe kompetencje, zasoby i wiedzę,
ważne dla klienta
Nasza firma działa w niszy
biznesowej i jest mało prawdopodobne, aby konkurent
mógł wejść nagle na rynek
Działamy na rynku polskim,
ale w każdej chwili możemy
rozszerzyć rynek
Nasze wyroby są najwyższej
jakości i cieszą się wysoką reputacją.
Suma silne strony
ocena
prawdopodobieństwo
zmiany
in
in
status
plus
minus
quo
Ocena po
zmianie
in
in plus
minus
Ocena
prognozowana
5
0
0,1
0,9
5
4
4,5
5
0
0
1
5
5
5,0
4
0,1
0,3
0,6
5
3
2,4
3
0,2
0,1
0,7
4
2
2,1
5
0
0,2
0,8
5
4
4,0
24
18
18,0
22
W1
Jesteśmy mikroprzedsiębiortwem słabym finansowo
5
0,1
0
0,9
5
4
4,5
W2
Działamy w niszy rynkowej o
bardzo płytkiej pojemności
5
0,1
0,2
0,7
5
3
3,5
W3
Nasze procesy biznesowe są
słabe, a zasoby są możliwe do
zastąpienia substytutami
4
0,2
0,2
0,6
5
3
2,4
W4
Nie dysponujemy sprawnym
łańcuchem dostaw
3
0,2
0,1
0,7
4
2
2,1
W5
Nie inwestujemy w reklamę i
marketing
4
0,2
0
0,8
4
2
4,5
23
14
17,0
Suma słabe strony
21
440
Rozszerzenie rynku firmy na
zagranicę
Zaistnienie w mediach i serO2
wisach Internetowych
Pojawienie się mody na asorO3
tyment oferowany
Poprawa ekonomiczna waO4
runków działania biznesu
Wygenerowanie
nowej
O5 grupy użytkowników i potrzeb
Suma okazje w otoczeniu
Utrata kluczowych zasobów
T1 (zespół ludzki i rozproszony
łańcuch dostaw)
Gwałtowne osłabienie waT2 luty i nieopłacalność importu
podzespołów do produkcji
Utrata stałych klientów ze
względu na rosnące ceny i
T3
nasycenie płytkiego rynku
substytutami
Destrukcyjna
działalność
władz (niekorzystne regulaT4
cje podatkowe i bariery biurokratyczne)
Problemy techniczne lub ekoT5 nomiczne u dostawców i
utrata części asortymentu
Suma zagrożenia w otoczeniu
O1
…
…
…
…
W analizie czynników SWOT możemy utworzyć tabelę, trójscenariuszową,
w której dla każdego czynnika ustalamy arbitralnie prawdopodobieństwo zajścia zmiany: zmniejszenie istotności czynnika (in minus), zwiększenie istotności
czynnika (in plus), oraz pozostania na tym samym poziomie (status quo). Suma
prawdopodobieństw musi być równa 1.
Następnie ustalamy spodziewane wartości oceny w skali pięciopunktowej
w wariancie in plus oraz wariancie in minus i wpisujemy do tabeli. Wyszukujemy,
dla którego wariantu zmiany wpisano najwyższą wartość prawdopodobieństwa
i mnożymy tą wartość przez odpowiadającą danemu wariantowi zmiany ustaloną ocenę. Wynik wpisujemy w ostatniej kolumnie tabeli. (Dla S1 jest to status
quo, czyli iloczyn 5*0,9, a dla S4 jest to in plus czyli 4*0,6). Wyniki sumujemy w
kolumnach.
W ten sposób powstał scenariusz najbardziej prawdopodobnej zmiany
czynników na najbliższy okres analizy. Można zauważyć, że w przedstawionym
przypadku mamy do czynienia z równowagą silnych stron i słabych (różnica 22
441
– 22 = 0, a jako najbardziej prawdopodobna prognoza jest to słaby wzrost 18 – 17
= 1). Ale również prognozujemy znaczący spadek poziomu istotności stron silnych (22 – 18 = 4), co nie jest zmianą korzystną. Jednocześnie spadek poziomu
istotności słabych stron (22 – 17 = 5) będzie większy niż silnych, co stanowi
zmianę korzystną. Na tej podstawie możemy wnioskować o tym, jaki kierunek
działań i zmian należy przyjąć, aby osiągnąć poprawę.
Tabela 37 Układ czynników SW OT w formie macierzy.
S (Silne strony)
1.
Czynniki wewnętrzne
2.
3.
4.
5.
Jesteśmy na rynku polskim niszową
firmą, oferującą unikatowe dobra
Posiadamy unikatowe kompetencje, zasoby i wiedzę, ważne dla klienta
Nasza firma działa w niszy biznesowej i
jest mało prawdopodobne, aby konkurent mógł wejść nagle na rynek
Działamy na rynku polskim, ale w każdej chwili możemy rozszerzyć rynek
Nasze wyroby są najwyższej jakości i
cieszą się wysoką reputacją.
W (Słabe strony)
1.
2.
3.
4.
5.
O (Okazje)
T (Zagrożenia)
1.
Czynniki zewnętrzne
1.
2.
3.
4.
5.
Rozszerzenie rynku firmy na zagranicę
Zaistnienie w mediach i serwisach Internetowych
Pojawienie się mody na asortyment oferowany
Poprawa ekonomiczna warunków działania biznesu
Wygenerowanie nowej grupy użytkowników i potrzeb
Jesteśmy mikroprzedsiębiortwem słabym finansowo
Działamy w niszy rynkowej o bardzo
płytkiej pojemności
Nasze procesy biznesowe są słabe, a zasoby są możliwe do zastąpienia substytutami
Nie dysponujemy sprawnym łańcuchem
dostaw
Nie inwestujemy w reklamę i marketing
2.
3.
4.
5.
Utrata kluczowych zasobów (zespół
ludzki i rozproszony łańcuch dostaw)
Gwałtowne osłabienie waluty i nieopłacalność importu podzespołów do produkcji
Utrata stałych klientów ze względu na
rosnące ceny i nasycenie płytkiego rynku
substytutami
Destrukcyjna działalność władz (niekorzystne regulacje podatkowe i bariery
biurokratyczne)
Problemy techniczne lub ekonomiczne u
dostawców i utrata części asortymentu
Taką samą analizę można wykonać dla pary czynników okazje/zagrożenia,
co dopełni obrazu istotności czynników wewnętrznych SWOT oraz pozwoli ponownie przeanalizować zmiany dla pary czynników strony silne/słabe. Przyjęta
koncepcja analizy scenariuszowej stanowi pełniejszy obraz sytuacji wyrażony
syntetycznymi wskaźnikami. Niestety, podobnie jak przypadku analizy PEST
nie da się wyeliminować subiektywizmu oceny poziomu istotności danego czynnika oraz prawdopodobieństwa jego zmiany. Dlatego ten fragment analizy należy potraktować jako quasi-ilościowy. Ale lepsza jest taka synteza, niż żadna,
zwłaszcza gdy podejmują się jej wykonania eksperci. Generalnym wskazaniem
442
jest, aby różnica pomiędzy sumą czynników mocne strony i słabe strony zmniejszała się, a różnica zmian dla silnych stron nie malała, a dla sła bych nie rosła.
Ostatecznie prezentację wyników dla czynników SWOT prezentuje się w
formie macierzy czteropolowej, tak jak to przedstawiono w tabeli 36 Większość
analiz SWOT spotykanych w dokumentach prognostycznych kończy się na tym
etapie, co jest ewidentnym niezrozumieniem metody oraz jej rzeczywistych
wskazań. Z analizy czynników i scenariusza ich zmienności wynikają bardzo
ważne informacje dla perspektywy sukcesu przedsięwzięcia biznesowego. Natomiast wykonanie dalszej części analizy SWOT polegającej na zbudowaniu macierzy interakcji i wyliczeniu prawdopodobieństwa sukcesu jest kluczowe dla
ustalenia sposobu realizacji czy to projektu, czy też strategii. Stąd należy mieć
świadomość, że analiza SWOT nie kończy się na wymienieniu czynników i ułożeniu ich w macierz.
6.6.2 Macierz interakcji SWOT
Na analizie czynników nie kończą się możliwości wsparcia decyzyjnego
analizy SWOT. Dochodzi jeszcze analiza interakcji czynników. Nie jest czymś
zaskakującym, że można oczekiwać wpływu silnych lub słabych stron na wykorzystanie okazji albo na neutralizację w otoczeniu. Można również oczekiwać
relacji odwrotnych (TOWS). Innymi słowy zakładamy, że siła wpływu czynnika
jednego na drugi może być wyrażona w pięciostopniowej skali porządkowej: -2
istotny wpływ negatywny, -1 słaby wpływ negatywny, 0 brak wpływu 1 słaby
wpływ pozytywny, 2 istotny wpływ pozytywny. Jest to oczywiście umowna
skala, której wybór jest intuicyjny i łatwy do interpretacji.
Tabela interakcji
Wykorzystujemy kody i opis czynników SWOT, zdefiniowane w tabeli 36 w
celu połączenia ich w logiczne relacje i opisujemy każdy element, nadając mu
wartość wpływu tak, jak to przedstawiono w. Łącznikami relacji interakcji są następujące funktory:
 „umożliwia to wykorzystanie okazji”
 „ma to wpływ na zredukowanie zagrożenia”
Zdefiniowano tylko dwa łączniki relacji, albowiem SWOT jest prezentowana w
formie macierzy czteropolowej w układzie SW-OT.
Tabela 38 Tabela interakcji dla czynników SW OT
KOD
S1-O1
Silne strony
Okazje
Interakcja
Jesteśmy jedyną na
Rozszerzenie rynku Jesteśmy jedyną na rynku polskim
rynku polskim firmą,
firmy na zagranicę firmą,
oferującą
unikatowy,
oferującą unikatowy
ocena
2
443
trudno dostępny towar.
S1-O2
…
trudno dostępny towar. Umożliwia to wykorzystanie okazji rozszerzenia rynku na zagranicę
Jesteśmy jedyną na
rynku polskim firmą, Zaistnienie w meoferującą unikatowy diach i serwisach
trudno dostępny to- Internetowych
war.
…
…
Jesteśmy jedyną na rynku polskim
firmą,
oferującą
unikatowy,
trudno dostępny towar. Umożliwia to wykorzystanie okazji zaistnienia w mediach i serwisach Internetowych.
…
1
…
S5-O4
Nasze wyroby są najPoprawa ekonowyższej jakości i cieszą miczna warunków
się wysoką reputacją.
działania biznesu
Nasze wyroby są najwyższej jakości i cieszą się wysoką reputacją.
Umożliwia to wykorzystanie okazji poprawy ekonomicznej warunków działania biznesu
1
S5-O5
Wygenerowanie
Nasze wyroby są najnowej grupy użytwyższej jakości i cieszą
kowników i posię wysoką reputacją.
trzeb
Nasze wyroby są najwyższej jakości i cieszą się wysoką reputacją.
Umożliwia to wykorzystanie okazji Wygenerowanie nowej grupy
użytkowników i potrzeb
1
Interakcja
ocena
KOD
Słabe strony
Okazje
Jesteśmy mikroprzedsiębiortwem
Jesteśmy mikroprzedRozszerzenie rynku słabym finansowo. Ma to wpływ
W1-O1 siębiortwem słabym fifirmy na zagranicę na wykorzystanie okazji rozszenansowo
rzenie rynku firmy na zagranicę
Jesteśmy mikroprzedsiębiortwem
Jesteśmy mikroprzed- Zaistnienie w mesłabym finansowo Ma to wpływ
W1-O2 siębiortwem słabym fi- diach i serwisach
na wykorzystanie okazji zaistnienansowo
Internetowych
nia w mediach i serwisach internetowych
…
…
-2
…
…
Poprawa ekonoZbyt mało inwestumiczna warunków
jemy w marketing i PR
działania biznesu
Zbyt mało inwestujemy w marketing i PR. Ma to wpływ na wykorzystanie okazji poprawy ekonomicznych warunków działania
biznesu
0
Wygenerowanie
Zbyt mało inwestunowej grupy użytW5-O5
jemy w marketing i PR kowników i potrzeb
Zbyt mało inwestujemy w marketing i PR. Ma to wpływ na wykorzystanie okazji wygenerowania
nowej grupy użytkowników i potrzeb.
-1
W5-O4
…
-2
Wypełnienie powyższej tabeli dla interakcji mocnych stron z zagrożeniami
i słabych stron z zagrożeniami tworzy się w analogiczny sposób. Należy zauważyć, że w naszym przypadku wszystkie grupy czynników SWOT mają po 5 ele-
444
mentów. Stąd mamy 100 interakcji (4 grupy po 25 interakcji każda). W przypadku różnych ilości czynników w każdej z grup, tych interakcji będzie więcej.
Nie ma to wpływu na procedurę obliczeniową. Względy praktyczne wskazują,
że nie należy wpisywać do grupy czynników większej liczby niż 10, bo wówczas
obraz bardzo mocno się zaciemnia. Istnieje możliwość redukcji czynników
SWOT do najbardziej istotnych w kolejnym kroku, eliminującym te, najmniej
istotne z tabeli.
 Mocne strony – Okazje w otoczeniu (S – O) z łącznikiem relacji „Mają wpływ
na wykorzystanie okazji”. Wynik ujemny nie ma zastosowania w tym przypadku, albowiem silne strony nie powinny wpływać negatywnie na przejmowanie okazji.
 Słabe strony – Okazje w otoczeniu (W – O) z łącznikiem relacji „Mają wpływ
na wykorzystanie okazji”. Wynik dodatni oznacza, że dana słaba strona
może mieć dodatni wpływ na wykorzystanie okazji, co może mieć miejsce
w zależności od układu czynników SWOT. Ujemny zaś, jest naturalną relacją osłabiania szans na wykorzystanie okazji wskutek własnych słabości.
 Mocne strony – Zagrożenia w otoczeniu (S – T) z łącznikiem relacji „Mają
wpływ na redukcję zagrożenia”. Wynik dodatni oznacza, że dana mocna
strona może mieć wpływ na redukcję zagrożenia. Ujemny wynik jest ewenementem, ale rzadko zdarza się, że mocna strona wzmacnia wpływ zagrożenia. Nie można jednak wykluczyć takiego przypadku.
 Słabe strony – Zagrożenia w otoczeniu (W – T) z łącznikiem relacji „Mają wpływ
na redukcję zagrożenia”. Dodatni wynik jest w tym przypadku ewenementem. Jest jednak możliwe, że słaba strona może wpłynąć na ograniczenie zagrożenia płynącego z zewnątrz. Należy spodziewać się przede wszystkim
ujemnych wartości.
Macierz interakcji
Na podstawie wyników zaprezentowanych w tabeli 38 prezentujemy wartości poszczególnych interakcji w układzie macierzy SWOT, zaprezentowanym
w tabeli 39:
Układ interakcji jest zrównoważony, jeżeli suma sum w tabeli wynosi 0 (w
naszym przykładzie jest to +25). Im wynik jest bardziej dodatni, tym bardziej
korzystna jest sytuacja opisana przez SWOT, a strategia może być bardziej agresywna. Im wynik jest bardziej ujemny, tym sytuacja opisana przez SWOT jest
gorsza, a strategia musi być bardziej defensywna. Przyjmując wartości graniczne
dla tablicy interakcji jako:
 wartość maksymalna: Max{Suma(S - O)} + Max{Suma(S – T)} = 100 (Mocne
strony w maksymalnym stopniu wpływają na wykorzystanie okazji oraz
ograniczenie zagrożeń), przy równoczesnym założeniu, że {Suma(W – O)} +
445
{Suma(W – T)} = 0 (Słabe strony nie wpływają na zdefiniowane okazje i zagrożenia);
 wartość minimalna: Min{Sumy(S - O)} + Min{Sumy(S – T)} = 0 (Mocne strony
nie mają wpływu na pozyskaniu okazji ani na zagrożenia) przy równoczesnym założeniu, że Min{Sumy(W – O)} + Min{Sumy(W – T)} = - 100 (Słabe
strony w maksymalnym stopniu uniemożliwiają pozyskanie okazji i mają
maksymalny wpływ na wzmocnienie oddziaływania zagrożeń);
uzyskujemy teoretyczny przedział zmienności dla naszej, przykładowej macierzy interakcji SWOT [-100,100]. Graniczne wartości nie są praktycznie do osiągnięcia.
Tabela 39 Tabela interakcji SW OT dla danych z tabeli 17
słabe strony
silne strony
SWOT Interakcje
okazje w otoczeniu
zagrożenia w otoczeniu
∑
∑∑
0
2
6
0
2
4
9
2
0
0
5
10
0
1
0
0
2
10
2
0
2
0
0
4
9
27
7
1
7
0
2
17
44
-2
-7
-2
0
0
0
0
-2
-9
0
1
3
1
0
2
1
0
4
7
-2
-1
-1
-6
-1
0
0
0
0
-1
-7
0
-1
-1
0
-3
-2
0
0
0
0
-2
-5
-1
-2
0
0
-1
-4
-1
0
0
0
0
-1
-5
∑WO
-5
-5
-2
-2
-3
-17
-5
0
2
1
0
-2
-19
∑∑
4
2
1
1
2
10
2
1
9
1
2
15
25
O1
O2
O3
O4
O5
S1
2
1
0
0
1
S2
2
2
0
0
S3
2
1
1
S4
2
2
S5
1
∑SO
∑
T1
T2
T3
T4
T5
4
1
0
1
0
1
5
1
0
1
0
1
5
2
1
1
2
1
8
1
1
1
1
1
5
9
7
3
3
5
W1
-2
-2
-1
0
W2
0
0
2
W3
-1
-1
W4
-1
W5
Mamy tu do czynienia z przewagą wpływu stron silnych nad słabymi
(44 > 19) oraz przewagą możliwości wystąpienia działania niepożądanych zagrożeń nad możliwym sukcesem wynikającym z przejęcia okazji (15 > 10).
Ogólny wynik +25 jest nadwyżką interakcji silnych stron nad ograniczeniami
wynikającymi ze słabości, co sugeruje zasadność podejmowania działań, ale nie
nadto agresywnych.
Jeżeli dokonamy sumowania wszystkich interakcji w tabeli 33 co do wartości bezwzględnej, otrzymamy wynik 86, co oznacza, że dobrze wybrano układ
czynników SWOT. Przy tym liczba wszystkich interakcji pozytywnych wynosi
w tej tabeli wynosi 51, albowiem nie wszystkie słabe strony wpływają w ujemny
446
sposób na redukcję zagrożeń, na co warto zwrócić uwagę przy interpretacji wyników.
Interpretacja wyników interakcji SWOT
Na podstawie danych z macierzy interakcji możemy zdecydować o sposobie
postępowania w konkretnym przypadku analizy SWOT. Mamy do czynienia z
czterema możliwościami strategii działania:
 agresywna (Maxi-Maxi) – przewaga silnych stron i możliwości przejęcia
okazji w otoczeniu nad słabymi stronami i wpływem zagrożeń z otoczenia.
Koncentracja wysiłków na przejęcie okazji nadarzających się w otoczeniu
niezależnie od zagrożeń;
 konserwatywna (Maxi-Mini) – przewaga silnych stron i możliwości przejęcia okazji w otoczeniu, ale równocześnie przewaga wpływu zagrożeń nad
sukcesem wynikającym z przejęcia okazji. Skierowanie potencjału przede
wszystkim na redukcję zagrożeń istniejących w otoczeniu, nawet kosztem
przejmowania okazji;
 konkurencyjna (Maxi-Mini) – przewaga słabych stron nad mocnymi ograniczająca przejęcie okazji, przy równocześnie małym wpływie zagrożeń z
otoczenia (szanse i okazje przewyższają potencjalne zagrożenia). Działania
polegające na zwalczaniu swoich słabości i przejmowaniu okazji, kosztem
redukcji zagrożeń w otoczeniu.
 defensywna (Mini-Mini) – słabe strony przeważają nad silnymi, a zagrożenia w otoczeniu przeważają nad możliwymi okazjami. Działania na przetrwanie i strategie zmiany.
W interpretacji wyników macierzy interakcji SWOT wynik końcowy stanowi
prawdopodobieństwo sukcesu działania, wynikającego ze wskazań dominującego typu oddziaływań. Wymaga to zsumowania wszystkich dodatnich interakcji w tabeli 33 i podzielenia przez sumę wartości bezwzględnych wszystkich interakcji. W naszym przypadku jest to 51/86 = 59,3% przy założeniu strategii konserwatywnej (maxi-mini), czyli skierowania silnych stron na ograniczenie
wpływu zagrożeń istniejących w otoczeniu i przy okazji przejęcia nadarzających
się okazji.
6.7 Metoda macierzy logicznej LFA
Metodę macierzy logicznej Logical Frame Approach (LFA) opracowano jako
narzędzie zarządzania projektami w latach sześćdziesiątych. Dzisiaj wykorzystuje się ją powszechnie przy realizacji projektów takich organizacji, jak: ONZ,
447
UE, SIDA481,482, a dodatkowo przy tworzeniu dokumentacji projektowych, strategii oraz inwestycji współfinansowanych z funduszy UE483.
Metoda LFA nie skupia się na działaniach, które chcemy wykonać oraz środkach koniecznych do ich realizacji. Stanowi procedurę dla znalezienia odpowiedzi na pytanie: co chcemy osiągnąć przez wdrożenie projektu. Jest zorientowana
obiektowo, skupiając się na problemach, które należy rozwiązać działaniami
operacyjnymi (projektami). Tym samym doskonale nadaje się do zastosowań w
fazie projektowej przedsięwzięć inwestycyjnych i planistycznych. Stanowi fundament zarządzania projektami.
Procedura LFA składa się z dziewięciu kroków:
1. analiza kontekstu projektu uzasadniająca konieczność jego realizacji,
2. analiza uczestników procesu realizacji projektu (interesariuszy),
3. analiza problemów do rozwiązania za pomocą planowanego projektu,
4. analiza celów związanych z planowanym projektem (metoda SMART),
5. działania prowadzące do wdrożenia projektu,
6. zasoby niezbędne i te do dyspozycji,
7. wskaźniki i kwantyfikatory rezultatu,
8. analiza ryzyka i zarządzania ryzykiem
9. uwarunkowania wykonalności.
Planowanie projektu lub strategii musi odnosić się do opisania szczegółowego każdego z nich. Podczas całego cyklu trwania projektu (od fazy projektowania do fazy monitoringu) każdy z dziewięciu kroków może podlegać aktualizacji metodą kolejnych przybliżeń do celu. Dlatego mówimy, że metoda LFA
nie jest procesem liniowym i może być stosowana nawet, gdy projekt jest już w
fazie wdrożenia, pomimo że wówczas niektóre kroki mogą stracić na znaczeniu.
Przyglądając się strukturze macierzy logicznej projektu, łatwo zauważyć, że
stanowi ona ilustrację sprzężenia zwrotnego, umożliwiając szybki monitoring i
kontrolę parametrów przez porównanie stanu bieżącego ze stanem początkowym. Zachowana jest bowiem jednolita struktura dla porównania oraz mierniki
(kwantyfikatory).
Davidson F., Geoff P., “Urban Projects. Manual”, Liverpool: Liverpool University Press and Fairstead
Press, Liverpool, 1983.
482
Solomon B., Jobs J., “Land and Urban Development: The Economic Success of Small Manufacturers in
East Delhi, India”. Lincoln Institute of Land Policy, Cambridge, 1991.
483
Gospodarek T., "Metoda LFA przy tworzeniu strategii powiatu", Samorząd terytorialny, nr 12, (2007),
20-31. http://gospodarek.eu/publikacje/LFA%20Wolters%20Kluwer.pdf
481
448
6.7.1 Projekt inwestycyjny w ramach EFRR
Przykładem zastosowania metody macierzy logicznej jest układ działania
finansowania wniosków o współfinansowanie projektu inwestycyjnego przez
Regionalny Program Operacyjny484. Wniosek zawiera relacje pomiędzy danymi
wynikającymi z harmonogramów, montaży finansowych, określenia luki finansowej oraz ustaleń dotyczących wskaźników produktu i rezultatu, które następnie można połączyć w formie macierzy logicznej, jak na rys. 6.6. W ten sposób
oceniający ma możliwość szybkiej weryfikacji logiki interwencji oraz wielkość
koniecznego dofinansowania, aby osiągnąć założone rezultaty.
Regionalny Program Operacyjny dla Województwa Dolnośląskiego na lata 2007-2013 współfinansowany
ze środków Unii Europejskiej EFRR, Załącznik nr 1 do uchwały nr 1954/III/08 Zarządu Województwa z
dnia 24 wrzesnia 2008 roku.
484
449
Rys. 6.6 Matryca logiczna projektu współfinansowanego z funduszu RPO
6.7.2 Matryca logiczna dla strategii
Drugim przykładem zastosowania metody macierzy logicznej LFA jest strategia gminy lub powiatu. W tym przypadku relacje pomiędzy elementami budowania strategii, a LFA są bardziej rozległe ze względu na liczność projektów
inwestycyjnych, składających się na strategię i koniecznych do realizacji w jej ramach. Wynikiem działania procedury jest macierz logiczna projektu (strategii),
którą można przedstawić jak na rys. 6.7.
Rys. 6.7 Macierz logiczna dla strategii
Taka forma macierzy stanowi dobry punkt wyjścia do bardziej szczegółowych
analiz luki strategicznej i działań przedstawionych schematem jak na rys. 3.11.
6.8 Obliczenia wartości dla opcji
W tym dodatku postanowiłem przedstawić rozwiązanie wspomagające projektowanie zabezpieczeń kontraktów za pomocą opcji, jak również umożliwiające obliczanie zmian wartości w czasie dla opcji call oraz put przy zadanych parametrach. Wykorzystany zostanie w tym celu model Blacka-Scholesa i wariant
programu Excel wykorzystujący VBA.
W rozdziale 4.7.4 przedstawione zostały opcje jako przedmiot zarządzania
zabezpieczeniami kontraktów terminowych oraz cen aktywów nie dających się
przewidywać w sposób deterministyczny w czasie. Nie omówiono jednak parametrów obliczeniowych prognozowania dla cen przyszłych opcji. Ponieważ zagadnienie stricte rachunkowe nie mieści się w cyklu głównym monografii, przeniosłem je do dodatków dla bardziej zainteresowanych czytelników.
6.8.1 Wartość podstawowa opcji
Każda opcja posiada dwa składniki wartości: wewnętrzny (gdyby można
było ją natychmiast wykonać) oraz czasowy, stanowiący miarę zmiany wartości
opcji do chwili jej wygaśnięcia. Wartość czasowa maleje do ustalonego minimum
(ceny wykonania) w miarę zbliżania się do terminu wygaśnięcia. Istnieją trzy
typy opcji (dotyczy to zarówno call, jak i put) ze względu na cenę wykonania
(rys. 4.23):
 In the money ITM (opcja w cenie) – jej wykonanie jest opłacalne,
 At the money ATM (neutralna) – jej cena jest prawie równa cenie kontraktowej
instrumentu bazowego
 Out of money OTM (opcja poza ceną) – jej wykonanie nie jest opłacalne i wygasa.
Na wartość opcji wpływa wiele czynników, z których za wspólne dla wszystkich
rodzajów opcji można wymienić następujące:
 Cena kasowa K (bieżąca) instrumentu bazowego (kontraktowa). Im ta cena jest
wyższa, tym wyższa jest wartość opcji kupna call i tym niższa jest wartość
opcji sprzedaży put.
 Czas do wygaśnięcia opcji t – im ten czas jest dłuższy, tym większa jest wartość
czasowa opcji niezależnie od jej rodzaju.
 Stopa procentowa wolna od ryzyka p – jest to stopa referencyjna kosztu pieniądza
w czasie. Im wyższa jest stopa procentowa, tym niższa staje się bieżąca cena
wykonania opcji. Stąd opcja kupna call będzie drożeć, a sprzedaży put maleć.
 Zmienność historyczna cen instrumentu bazowego – zakres zmian obserwowanych w przeszłości dla danego aktywa. Im wyższa zmienność, tym wyższa
jest cena opcji ze względu na większe prawdopodobieństwo utalenia trendu
cenowego dla instrumentu bazowego.
Dla wyznaczenia wartości opcji najczęściej stosowany jest wzór Blacka-ScholesaMertona485, drzewo dwumianowe Cox-Ross-Rubinstein486 lub symulacja metodą
Monte Carlo487.
485
Black F. i inni., op. cit.
Jackson M., i inni, op. cit, rozdział 10 dodatek na płycie CD „Drzewa dwumianowe”
487
Ibid. rozdział 12 dodatek na płycie CD „Symulacja MC dla opcji BS”
486
452
Model Blacka-Scholesa
Cena opcji call dana jest wyrażeniem:
(6.9)
Ccall
 S 
 S 
2  
2  
ln

r

t
ln

r




t




 K
 K
2  
2  
   
   
 rt
 SN 
  Ke N 

 t
 t








Gdzie:
Ccall jest ceną opcji kupna (call) przy aktualnej cenie instrumentu bazowego S z
ceną rozliczenia opcji K i terminie rozliczenia t (liczonego w latach), przy stopie
procentowej r. N{} jest dystrybuantą rozkładu normalnego o współczynniku
zmienności .
Analogicznie dla opcji sprzedaży put wzór Blacka-Scholesa ma postać
(6.10) C put


2  
2  
S 
S 

ln

r

t

ln

r


t
  
  


K 
2  
K 
2  




 rt
 Ke N 
  SN 

 t
 t








W momencie, w którym można wykonać opcję, objęty nią instrument bazowy
będzie miał określoną ceną rynkową. Jeśli cena z opcji jest korzystniejsza od rynkowej, opcja zostanie wykonana. Zysk z operacji będzie równy różnicy między
ceną wykonania a ceną rynkową. Jeśli cena wykonania jest mniej korzystna, opcja nie zostanie wykonana (strata w wysokości premii opcyjnej).
Reprezentacja w arkuszu kalkulacyjnym
Wzór Blacka-Scholesa wydaje się być wyjątkowo skomplikowanym. Tak
jednak nie jest i z pomocą standardowych funkcji programu Excel/Open Office
można go bardzo łatwo wprowadzić i wykonać. Korzystne jest jednak zaprogramowanie w języku VBA funkcji BlackScholes, która będzie obliczać automatycznie wartości konieczne dla zastosowania wzoru 6.1 lub 6.2 (wartość dystrybuanty rozkładu normalnego) lub składowych w nawiasach obu wyrażeń. W tym
celu należy:
 otworzyć arkusz nowy arkusz i nacisnąć Alt i F11 (otworzy się edytor Visual
Basic).
 skopiować poniżej zamieszczony program i zamknąć edytor;
 program automatycznie powróci do otwartego arkusza,
 w zestawie funkcji Excel (w otwartym arkuszu, ale nie na stałe) pojawi się
nowa funkcja BlackScholes
 zdefiniować arkusz w formacie przedstawionym na rys. 6.9
 prawidłowe użycie funkcji BlackScholes przedstawione jest na rys. 6.8.
453
'Skopiować od tego miejsca
Option Compare Text
Option Explicit
Option Base 0
Global Const Pi = 3.14159265358979
'Little N - funkcja pomocnicza, licząca wyrażenia exp
Public Function Littlen(X As Double) As Double
Littlen = 1 / Sqr(2 * Pi) * Exp(-X ^ 2 / 2)
End Function
'Struktura funkcji BlackScholes
Function BlackScholes(Cena_Aktywa_Bazowego As Double, Cena_Wykonania As Double,
Stopa_Procentowa As Double, _
Czas_Wykonania As Double, Dywidenda As Double, Zmiennosc_Ceny As Double,
Call_albo_Put As String, _
Opcja_Std_czy_Opcja_Futures As Integer, Jaki_Rezultat As Integer) As Double
'Argumenty funkcji i rodzaj zmiennej oraz definicja rezultatu
'Cena wyjściowa = 0, Delta = 1, Gamma = 2
Dim Zmiennosc_CenyrooCzas_Wykonania As Double
Dim d1 As Double
Dim d2 As Double
Dim DiscF As Double
Dim DivF As Double
Dim Optprice As Double
Dim topline1 As Double
Dim topline2 As Double
Dim topline As Double
Dim Price As Double
Dim Delta As Double
Dim Gamma As Double
DiscF = Exp(-Stopa_Procentowa * Czas_Wykonania)
DivF = Exp(-Dywidenda * Czas_Wykonania)
Zmiennosc_CenyrooCzas_Wykonania = (Czas_Wykonania ^ 0.5) * Zmiennosc_Ceny
'Opcja_Std_czy_Opcja_Futures function distinguishes between regular options (0) and options on
futures (1)
If Opcja_Std_czy_Opcja_Futures = 0 Then
topline1 = Log(Cena_Aktywa_Bazowego / Cena_Wykonania)
topline2 = ((Stopa_Procentowa - Dywidenda) + ((Zmiennosc_Ceny ^ 2) / 2)) * Czas_Wykonania
topline = topline1 + topline2
d1 = topline / Zmiennosc_CenyrooCzas_Wykonania
d2 = d1 - Zmiennosc_CenyrooCzas_Wykonania
If Call_albo_Put = "C" Then
Price = (Cena_Aktywa_Bazowego * DivF * Application.NormSDist(d1)) - _
(Cena_Wykonania * DiscF * Application.NormSDist(d2))
Delta = DivF * Application.NormSDist(d1)
Gamma = (Littlen(d1) * DivF) / (Cena_Aktywa_Bazowego * Zmiennosc_CenyrooCzas_Wykonania)
Else
Price = Cena_Wykonania * DiscF * WorksheetFunction.NormSDist(-d2) - _
Cena_Aktywa_Bazowego * DivF * WorksheetFunction.NormSDist(-d1)
Delta = DivF * (Application.NormSDist(d1) - 1)
454
Gamma = (Littlen(d1) * DivF) / (Cena_Aktywa_Bazowego * Zmiennosc_CenyrooCzas_Wykonania)
End If
Else
topline1 = Log(Cena_Aktywa_Bazowego / Cena_Wykonania)
topline2 = ((Zmiennosc_Ceny ^ 2) / 2) * Czas_Wykonania
topline = topline1 + topline2
d1 = topline / Zmiennosc_CenyrooCzas_Wykonania
d2 = d1 - Zmiennosc_CenyrooCzas_Wykonania
If Call_albo_Put = "C" Then
Price = DiscF * ((Cena_Aktywa_Bazowego * Application.NormSDist(d1)) - _
(Cena_Wykonania * Application.NormSDist(d2)))
Delta = DiscF * Application.NormSDist(d1)
Gamma = (Littlen(d1) * DiscF) / (Cena_Aktywa_Bazowego * Zmiennosc_CenyrooCzas_Wykonania)
Else
Price = DiscF * ((Cena_Wykonania * Application.NormSDist(-d2)) - _
(Cena_Aktywa_Bazowego * Application.NormSDist(-d1)))
Delta = DiscF * (Application.NormSDist(d1) - 1)
Gamma = (Littlen(d1) * DiscF) / (Cena_Aktywa_Bazowego * Zmiennosc_CenyrooCzas_Wykonania)
End If
End If
Select Case Jaki_Rezultat
Case 0 ' Price
BlackScholes = Price
Case 1 'Delta
BlackScholes = Delta
Case 2 ' Gamma
BlackScholes = Gamma
End Select
End Function
'Koniec wklejania
Wybierając funkcję BlackScholes z polecenia „wstaw funkcję”, należy wprowadzić jej argumenty w układzie przedstawionym na rys. 6.8. Są to:




Cena_Aktywa_Bazowego: należy wstawić cenę z kontraktu (lub cenę aktywa);
Cena_Wykonania: wprowadzić cenę wykonania opcji;
Stopa_procentowa: wprowadzić stopę procentową wolną od ryzyka w %;
Czas_Wykonania: wprowadzić w latach czas do wygaśnięcia zobowiązania. W przypadku kwartału jest to 0,25. Pół roku to 0,5, itd. Dane te można wyliczyć na podstawie
liczby dni do wygaśnięcia kontraktu i podzielenia przez 365.
 Dywidenda: Zwykle kalkuluje się jakiś dodatkowy bonus na poziomie 1 – 2%, ale nie
jest to wymagane i można wpisać 0 lub zostawić komórkę pustą.
 Zmienność_Ceny (volatility): Należy w wprowadzić zmienność ceny aktywa, na które
wystawiono opcję (może to być liczba 20 – 25%).
 Call_albo_Put – jest to zmienna sterująca. Jeżeli wpiszemy „C” funkcja BlackScholes
zwróci wartość opcji call, jeżeli wpiszemy „P” otrzymamy wartość dla opcji „Put”.
455
 Opcja_Std_czy_Opcja_Futures – jest zmienną sterującą. Wpisując 0 otrzymamy wyniki dla typowej Opcji na kontrakt, Akcje, WIG lub podobne aktywo bazowe; jeżeli
wpiszemy 1, wówczas otrzymamy rezultat dla opcji na futures.
 Jaki_Rezultat – wpisujemy 0 jeżeli funkcja ma zwrócić wartość opcji; wpisujemy 1,
jeżeli ma to być współczynnik „delta”; wpiujemy 2, jeżeli ma to być współczynnik
„gamma”.
Rys. 6.8 Argumenty funkcji BlackScholes
Teraz można w zaprojektownym arkuszu lub całym skoroszycie związanym z
zależnością premii opcyjnej, ceny, zysku z opcji, łączenia opcji (suma wartości),
wykresów, etc. używać funkcji BlackScholes wielokrotnie.
Dane wprowadzane ręcznie
Rys. 6.9 Obliczenia kontrolne dla opcji
Niniejszy arkusz można zrealizować wpisując do komórek Excela co następuje,
456
do komórki:
E11 wpisać =BlackScholes($E$4;$E$5;$E$6;$E$7;$E$8;$E$9;"C";0;0)
E12 wpisać =BlackScholes($E$4;$E$5;$E$6;$E$7;$E$8;$E$9;"P";0;0)
E14 wpisać =BlackScholes($E$4;$E$5;$E$6;$E$7;$E$8;$E$9;"C";1;0)
E15 wpisać =BlackScholes($E$4;$E$5;$E$6;$E$7;$E$8;$E$9;"P";1;0)
F11 wpisać =BlackScholes($E$4;$E$5;$E$6;$E$7;$E$8;$E$9;"C";0;1)
F12 wpisać =BlackScholes($E$4;$E$5;$E$6;$E$7;$E$8;$E$9;"P";0;1)
F14 wpisać =BlackScholes($E$4;$E$5;$E$6;$E$7;$E$8;$E$9;"C";1;1)
F15 wpisać =BlackScholes($E$4;$E$5;$E$6;$E$7;$E$8;$E$9;"P";1;1)
G11 wpisać =BlackScholes($E$4;$E$5;$E$6;$E$7;$E$8;$E$9;"C";0;2)
G12 wpisać =BlackScholes($E$4;$E$5;$E$6;$E$7;$E$8;$E$9;"P";0;2)
G14 wpisać =BlackScholes($E$4;$E$5;$E$6;$E$7;$E$8;$E$9;"C";1;2)
G15 wpisać =BlackScholes($E$4;$E$5;$E$6;$E$7;$E$8;$E$9;"P";1;2)
Wykorzystanie powyższego schematu pozwala na konstrukcję różnych strategii
zabezpieczeń opcyjnych i wykonywanie scenariuszy zarówno cenowych, jak
również czasowych. Polecam w tym celu gotowy program znajdujący się pod
internetowym adresem na dzień wydania niniejszej monografii).
https://www.optiontradingtips.com/pricing/free-spreadsheet.html
6.8.2 Symulacja wartości opcji metodą Monte Carlo
Wykorzystanie metody Monte Carlo w połączeniu z zależnością BlackaScholesa pozwala na prognozowanie uzyskiwanych wyników finansowych z zawartych strategii zabezpieczających w czasie. Metodę Monte Carlo opisano w
rozdziale 5.3.3. Model symulacji oparty został na obliczaniu wartości kontraktu
terminowego po określonym czasie - wzór (4.14). Jak widać, obie metody pozostają w dobrej zgodności.
457
Rys. 6.10 Symulacja wartości opcji call metodą Monte Carlo
458
Literatura przedmiotu
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
A Guide to the Project Management Body of Knowledge, Fifth Edition, PMI, USA, 2012.
Aaker D.A., “Strategic Market Management”, 10th Ed; Wiley, New York, 2013
Abell D. F., “Defining the Business: The Starting Point of Strategic Planning.”, Englewood
Cliffs, NJ, Prentice Hall, 1980.
Adamczyk C., Wprost, Wydarzenia, „Ranking "Wprost": 10. najcenniejszych polskich marek”, 16.06.2015, https://www.wprost.pl/510524/Ranking-Wprost-10-najcenniejszych-polskich-marek
Adams J.S., Freeman S., “Equity Theory Revisited: Comments and Annotated Bibligraphy”
[w] L. Berkowitza & E. Walster, Eds., “Equity theory : toward a general theory of social interaction”, Academic Press, New York, 1976.
Adams J.S., Freeman S., Equity Theory Revisited: Comments and Annotated Bibligraphy,
[w] L. Berkowitz, E. Walster (red.), Equity theory: toward a general theory of social interaction, Academic Press, New York 1976.
Agile https://pl.wikipedia.org/wiki/Programowanie_zwinne
AIRMIC, ALARM, IRM, “A Risk Management Standard”, 2002
http://www.theirm.org/publications/documents/Risk_Menedźment_Standard_030820.pdf
Alderfer C.P., “Existence, Relatedness, and Growth; Human Needs in Organizational Settings”. Free Press, New York 1972.
Alderfer C.P:, “Existence, Relatedness, and Growth; Human Needs in Organizational Settings”. Free Press, New York 1972.
Amstrong M., „Zarządzanie zasobami ludzkimi”, Oficyna Ekonomiczna Dom Wydawniczy
ABC, Kraków, 2000
Anderson D.J., “Kanban: Successful Evolutionary Change for Your Technology Business”,
Blue Hole Press, Sequim, 2010
Anderson D.R., Sweeney D.J., Williams T.A., Martin K., “An Introduction to Management
Science. Quantitative Approaches to Decision Making”, 13th Ed., West Publishing Company, St. Paul 2013.
Ando A., Modigliani F., “Tests of the Life Cycle Hypothesis of Saving: Comments and
Suggestions”, Oxford Institute of Statistics Bulletin, maj 1957, 99-124.
Andonov S., “Levels of Product Differentiation in the Global Mobile Phones Market”,
http://www.economicswebinstitute.org/essays/levelsdifferentiation.pdf
Andrzejczak M., [red]., „Analiza systemowa RCM”, http://www.utrzymanieruchu.pl/menugorne/artykul/article/analiza-systemowa-rcm/
Atkinson R., Ezel S., “Principles for National Innovation Success”, [w] The Global Innovation Index 2015. Effective Innovation Policies for Development, Dutta S.,Lanvin B., and
Wunsch-Vincent., Eds, https://www.globalinnovationindex.org/userfiles/file/reportpdf/giifull-report-2015-v6.pdf
ARD “Falciani und der Bankenskandal”, film http://www.ardmediathek.de/tv/DoX-DerDokumentarfilm-im-BR/Falciani-und-der-Bankenskandal/BayerischesFernsehen/Video?bcastId=24831852&documentId=35696800
Armstrong J.S., Green K.C., “Competitor-oriented Objectives: The Myth of Market Share”,
International Journal of Business, 12(1), 2007, 116-133
Arrow K.J, Debreu G., “Existence of an Equilibrium for a Competitive Economy”, Econometrica 22,
Avery G.C., „Przywództwo w organizacji. Paradygmaty i studia przypadków”, PWE, Warszawa, 2009.
Balassa, B. (1964), "The Purchasing Power Parity Doctrine: A Reappraisal", Journal of Political Economy 72 (6): 584–596.
Barney J. B., Clark D. N., “Resource Based Theory. Creating and Sustaining Competitive
Advantage”, Oxford University Press, Oxford, 2007.
459
24. Barney, J.B., “Firm resources and sustained competitive advantage.” Journal of Management, 19, (1991), 99-120.
25. Barney, J.B., “Firm resources and sustained competitive advantage.” Journal of Management, 19, (1991), s. 99-120
26. Bartkowiak G., Psychologia zarządzania, Wydawnictwo AE w Poznaniu, Poznań 1997.
27. Bartkowiak G., Psychologia zarządzania, Wydawnictwo AE w Poznaniu, Poznań, 1997.
28. Bartłomowicz T., „Prognozowanie sprzedaży z wykorzystaniem modelu dyfuzji oraz programu R”, Ekonometria, vol 4, No. 38, (2012), 210-220.
29. Bass F.M., "A New Product Growth Model for Consumer Durables", Management Science,
15, (1969), 215-227.
30. Bass’s Basement Research Institute, http://bassbasement.org/BassModel/Calculator.aspx
31. Bastiat F., “Dzieła zebrane”, Prohibita, Warszawa, 2009.
32. Bellman R.E., „Adaptative Control Processes: a guide tour”, Princeton, Princeton University Press, 1961.; („Adaptacyjne procesy sterowania. Przewodnik problemowy”, Warszawa:
PWN, 1965).
33. Bellman R.E., DreyfusS.E., „Programowanie dynamiczne. Zastosowanie”, PWE Warszawa,
1967
34. Bentham J., “Introduction to the Principles of Moral Legislation”, 1781 Batoche Books,
Kitchener, http://socserv2.socsci.mcmaster.ca/econ/ugcm/3ll3/bentham/morals.pdf
35. Bertalanffy L. von, “General System Theory. Foundations, Development, Applications”.
New York: Braziller, 1968.; („Ogólna teoria systemów. Podstawy, rozwój, zastosowania”.
Warszawa: PWN 1984).
36. Black F., Scholes M., “The Pricing of Options and Corporate Liabilities”, „Journal of Political Economy”, vol . 81( 3), (1973), 637–654.
37. Boguszewski P., „Globalny raport konkurencyjności 2015-16 Światowego Forum Gospodarczego”, NBP, 30.09.2015 https://www.nbp.pl/aktualnosci/wiadomosci_2015/WEF2015.pdf (dostęp 22.01.2016)
38. Borkowska S., „Strategie wynagrodzeń”, Dom Wydawniczy ABC, Kraków, 2001.
39. Bossa.pl, „Leksykon strategii opcyjnych”, http://bossa.pl/edukacja/opcje/strategie/
40. Boulding K.E., „General Systems Theory. The Skeleton of Science”, Management Science,
2(3), (1956), 197-208.
41. Bürgel, Payment Morality Index, https://www.buergel.de/de/glossar/payment-morality-index-pmi
42. Burns, T., Stalker, G. M., “The Management of Innovation”, London: Tavistock, 1961,
http://uk.sagepub.com/sites/default/files/upm-binaries/27412_8.pdf
43. Butters K., Get response blog, “10 Social Media Marketing Lies and Myths Debunked”,
https://blog.getresponse.com/10-social-media-marketing-lies-myths-debunked.html
44. Camerer, C.F., Löwenstein, G., “Behavioral Economics: Past, Present, Future.”, [w]
Camerer, Löwenstein and Rabin, “Advances in Behavioral Economics”, New York: Princeton University Press, (2004), pp. 1-51.
45. Cameron E., Green M., “Making Sense of Change Management. A complete guide to the
models, tools & techniques of organizational change”, 2 nd Ed. Kogan Page, London and
Philadlphia, 2009. http://www.bms.lk/download/GDM_Tutorials/e-books/Making_Sense_of_Change_Management.pdf
46. Cassel G., “Abnormal Deviations in International Exchanges”, The Economic Journal,
28(112), (1918), 413.
47. Chaffee E.E., “Three Models of Strategy”, Academy of Management Rev., 10, No. 1,
(1985), 89-98.
48. Chandler A. D. Jr., “The Visible Hand. The Managerial Revolution in American business”,
Belknap Press of Harvard University Press, Cambridge, 1977.
49. Chandler, A. D. Jr., ” Chandler, A.D. Jr., “Strategy and Structure: Chapters in the History of
the American Industrial Enterprise”, MIT Press, Cambridge, 1962.
460
50. Chandler, A. D., Jr., “The Visible Hand: The Managerial Revolution in American Business”, Harvard University Press, Cambridge MA, London, 1977.
51. Change Management Framework, Charles Sturt University, http://www.csu.edu.au/special/wpp/resources/change-management-framework
52. Change Manangement Plan, Workbook, and Template, Queensland Gov. CIO,
http://www.nrm.wa.gov.au/media/10528/change_management_plan_workbook_and_template.pdf
53. Cialdini R., "Wywieranie wpływu na ludzi. Teoria i praktyka", Gdańskie Wydawnictwo
Psychologiczne, Gdańsk, 2000
54. CIPD, „ PESTLE Analysis. An exploration of the PESTLE model, process, advantages and
disadvantages”, 15.10. 2015 http://www.cipd.co.uk/hr-resources/factsheets/pestle-analysis.aspx
55. Cooper L.G., Nakanishi M., “Market-Share Analysis. Evaluating Competitive Marketing
Effectiveness”, Kluwer Academic Publishers, Dordrecht 1988.
56. Cracked, “23 Outrageous Marketing Lies You See Every Day”,
http://www.cracked.com/photoplasty_817_23-outrageous-marketing-lies-you-see-everyday/
57. Credit Suisse, “Global Wealth Report 2015”, https://publications.creditsuisse.com/tasks/render/file/?fileID=F2425415-DCA7-80B8-EAD989AF9341D47E
58. Cyert R.M., March J.G., „A Behavioral Theory of the Firm”, Prentice-Hall, Englewood
Cliffs, NJ 1963.
59. Cykl koniunkturalny jest podstawą, Forbes, 5, (2011), http://www.forbes.pl/forbes-millennium-prestige/artykuly/millenium-prestige/cykl-koniunkturalny-jest-podstawa,14457,1
60. D. Parmenter, „How to implement winning kpis in 16 weeks”, 2009, http://davidparmenter.com/files/how-to-implement-winning-kpis-in-16-weeks-article.pdf
61. Davenport T., Prusak L., “Working Knowledge”, Harvard Business School Press, Boston
(1998).
62. Davidson F., Geoff P., “Urban Projects. Manual”, Liverpool: Liverpool University Press
and Fairstead Press, Liverpool, 1983.
63. Davies. J., Lluberas R., Shorrock A; Credit Suisse, “Global Wealth Databook 2015”,
http://publications.credit-suisse.com/tasks/render/file/index.cfm?fileid=C26E3824-E86856E0-CCA04D4BB9B9ADD5
64. Dąbrowski M., „Matryce opisujące metodykę AgilePM” http://4pm.pl/artykuly/matryceopisujace-metodyke-agilepm-wersja-pl-oraz-en
65. Dąbrowski M., Szczepkowski J., Portal 4PM http://4pm.pl/
66. Debreu G., „Theory of the Value”, Cowles, 1954
67. Debreu G., „Theory of Value. An Axiomatic Analysis of Economic Equilibrium”, Yale
University Press, New Haven and London, 1959.
68. Deming, W. E., “Out of the Crisis”, MIT Center for Advanced Engineering Study, Cambridge, 1986.
69. Dobija D., „Pomiar i sprawozdawczość kapitału intelektualnego przedsiębiorstwa”, Warszawa: Wydawnictwo Wyższej Szkoły Przedsiębiorczości i Zarządzania im. Leona Koźmińskiego, 2004.
70. Doing Business 2016, World Bank, http://www.doingbusiness.org/~/media/GIAWB/Doing%20Business/Documents/Annual-Reports/English/DB16-Full-Report.pdf
71. Domagała A., „Metoda data envelopment analysis jako narzędzie badania względnej efektywności technicznej” Badania operacyjne i decyzje, Nr 3-4, (2007), 21-34.
72. Dominance, Influence, Steadiness, Complaint (Conscientiousness) – metodologiczny system harmonizacji pracy grupowej oraz produktywności systemów generujących wartość;
http://www.discprofile.com/whati sdisc.htm
73. Düppe T., & Weintraub E.R., “Finding Equilibrium: Arrow, Debreu, McKenzie and the
Problem of Scientific Credit”, Princeton Univ. Press, Princeton, 2014.
461
74. Durkin M., “Britain's Trillion Pound Horror Story”,
https://www.youtube.com/watch?v=DVPq8DjZ9s4 (film napisy PL)
75. Durkin. M., “Bilionowy brytyjski horror – film https://www.youtube.com/watch?v=DVPq8DjZ9s4”
76. E. Engel, “Die Productions- und Consumptionsverhaeltnisse des Koenigsreichs Sachsen”,
Zeitschrift des Statistischen Bureaus des Königlich Sächsischen Ministeriums des Innern”,
Dresden, 1857.
77. Earning Before Interests Taxes Depreciation and Amortization.
78. EC, Flash Eurobarometer Reports, “Entrepreneurship in the EU and beyond”, 2012
http://ec.europa.eu/public_opinion/flash/fl_354_sum_en.pdf
79. Egan M., TechWorld, “14 best free project management software programs 2016: Great
project management software tools that don't cost a penny”, http://www.techworld.com/picture-gallery/startups/10-best-free-project-management-software-programs-3625922/
80. Elkington J., “Cannibals with Forks: the Triple Bottom Line of 21st Century Business”,
Capstone Publishing Ltd., Oxford, 1997. http://appli6.hec.fr/amo/Public/Files/Docs/148_en.pdf
81. Entrepreneur, “Biznes Plan: A Step-by Step Guide”, https://www.entrepreneur.com/article/247574
82. Euler Hermes http://www.eulerhermes.pl/inne-uslugi/Pages/analizy-naleznosci.aspx
83. Eurostat, Legal notice | Contact “RAMON - Reference And Management Of Nomenclatures”, Metadata, Statystycznej Klasyfikacji Działalności Gospodarczej w EC, Rev. 2
http://ec.europa.eu/eurostat/ramon/nomenclatures/index.cfm?TargetUrl=LST_NOM_DTL&StrNom=NACE_REV2&StrLanguageCode=PL&IntPcKey=&StrLayoutCode=HIERARCHIC
84. Fayol H., “Administration industrielle et générale; prévoyance, organisation, commandement, coordination, controle”, H. Dunod et E. Pinat, Paris, 1918
85. Feigenbaum A.V., „Total quality control”, McGraw-Hill, New York ,1983.
86. Financial Accounting Foundation, “About GAAP”, http://www.accountingfoundation.org/jsp/Foundation/Page/FAFBridgePage&cid=1176164538898
87. Fisher, I., “The Theory of Interest”, The Macmillan Company, New York (1930),
http://files.libertyfund.org/files/1416/0219_Bk.pdf
88. Frączyk J., Money.pl, http://www.money.pl/gospodarka/unia-europejska/wiadomosci/artykul/wskaznik-zew-w-niemczech-spadl-do--6-8-pkt-w,16,0,2125328.html 19.07.2016.
89. Friedman M., (1957). "The Permanent Income Hypothesis. A Theory of the Consumption
Function”. Princeton University Press. http://papers.nber.org/books/frie57-1 ;
http://www.nber.org/chapters/c4405.pdf
90. GEM Kluczowe wskaźniki http://www.gemconsortium.org/data/key-indicators
91. GEM Raporty za poszczególne lata http://www.gemconsortium.org/report
92. Gitt W., "Am Anfang war die Information" Hanssler, Neuhausen-Stuttgart, Germany 1994
93. Global Entrepreneurship Monitor, http://www.gemconsortium.org/;
94. Globalny Indeks Innowacyjności, https://www.globalinnovationindex.org/content/page/data-analysis/
95. Gofin.pl, „Serwis głównego księgowego. Przykład nr 1 - Rachunek przepływów pieniężnych w jednostce innej niż bank i zakład ubezpieczeń”, http://www.sgk.gofin.pl/11,2384,127306,przyklad-nr-1-rachunek-przeplywow-pienieznych-w-jednostce.html
96. Gofin.pl, „Wzorcowy wykaz kont”, http://www.vademecumksiegowego.pl/artykul_narzedziowa,596,0,7771,wzorcowy-wykaz-kont.html
97. Goldratt E.M., Cox J., „Cel i doskonałość w produkcji”, Wyd. Mintbooks, Warszawa 2007.
98. Gołębiowski G., Tłaczała A., „Analiza finansowa w teorii i w praktyce”, Difin, Warszawa,
2009
99. Gospodarek T., "Metoda LFA przy tworzeniu strategii powiatu", Samorząd terytorialny, nr
12, (2007), 20-31. http://gospodarek.eu/publikacje/LFA%20Wolters%20Kluwer.pdf
462
100. Gospodarek T., “Aspekty złożoności i filozofii nauki w zarządzaniu”, Wydawnictwo
WWSZiP, Wałbrzych, 2012.
101. Gospodarek T., “Logical Layers of Entrepreneurship”, Proceedings of the The 9th International Entrepreneurship Forum (9th IEF), 16-18 September 2009, Istanbul, https://www.essex.ac.uk/conferences/ief/9th/documents/040-Tadeusz%20Gospodarek-28.08.09.pdf
102. Gospodarek T., „Aspekty złożoności i filozofii nauki w zarządzaniu”, Wydawnictwo
WWSZiP, Wałbrzych, 2012; http://www.gospodarek.eu/publikacje/Filozofia%20nauki%20zarzadzanie.pdf
103. Gospodarek T., „Does the optimum management for the given economic process exist?”
Management, 11, No. 2, (2007), 39-42, http://www.gospodarek.eu/publikacje/Existing%20optimum%20management.pdf
104. Gospodarek T., „Elastyczność zasobu informacyjnego”, [w], R. Krupski [red.], „Elastyczność organizacji”, Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu: Wrocław,
2008, str. 127-148
105. Gospodarek T., „Innowacyjność po polsku. Raport oparty na analizie globalnego wskaźnika
innowacyjności GII za rok 2015”, Google Books, GGKEY:0LENHUK9TEK, 2016
http://gospodarek.eu/publikacje/Innowacyjnosc%20po%20polsku.pdf
106. Gospodarek T., „Marketing systemowy, perspektywa etyczna”, [w] Styś A., Łobos K.,
„Współczesne problemy zarządzania i marketingu”, Difin, Warszawa 2016, str. 40-52
107. Gospodarek T., „Physicalistic Reasoning in Management Science”, Acta Physica Polonica
A, 117(4), 2010
108. Gospodarek T., „Systemy ERP. Modelowanie, projektowanie, wdrażanie”, Helion, Gliwice,
2015.
109. Gospodarek T., „Zarządzanie dla racjonalnego menedżera”, DIFIN Warszawa, 2014.
110. Gossen H. H., “Die Entwicklung der Gesetze des menschlichen Verkehrs und der daraus
fließenden Regeln für menschliches Handeln” (1854). Wersja angielska “The Laws of Human Relations and the Rules of Human Action Derived Therefrom” (1983) MIT Press;
Cambridge MA.
111. Gostev A., Unuchek R., Garnaeva M., Makrushin D., Ivanom A., „It Threat Evolution
112. Gov.UK, “Write a business plan”, https://www.gov.uk/write-business-plan
113. Greiner, L.E., “Evolution and revolution as organizations grow”, Harvard Business Review,
(1972), p37-46. http://in8dna.com/Portals/0/documents/partners/HBR_EvolutionRevolution.pdf
114. GUS, „Definicja dochodu do dyspozycji”, http://stat.gov.pl/metainformacje/slownik-pojec/pojecia-stosowane-w-statystyce-publicznej/62,pojecie.html
115. Hammer M., Champy J., „Reengineering w przedsiębiorstwie”, Warszawa 1996, s. 16.
116. Hammond J. H.; Kelly M. G., “Quick response in the apparel industry”, Harvard Business
School Note N9-690-038, (1990).
117. Hansen M.T., Birkinshaw J., “The Innovation Value Chain”, Harvard Business Rev., 05,
(2007).
118. Harrod, R., “Towards a Dynamic Economics”, The Macmillan Company, London, (1948).
119. Hartman, R. S., "Axiometric Structure of Intrinsic Value", Journal of Value Inquiry (Summer, 1974; v.8, no. 2, pp. 88-101
120. Hatta T., "Le Châtelier principle," The New Palgrave: A Dictionary of Economics, 3,
(1987), s. 155–57
121. Henderson B., “The Logic of Business Strategy”, Ballinger Publishing Company, Cambridge, MA1984
122. Henderson B., “The product portfolio”, BCG.perspectives, 1970, https://www.bcgperspectives.com/content/classics/strategy_the_product_portfolio/
123. Henderson B., „The Rule of Three and Four”, (1976), https://www.bcgperspectives.com/content/Classics/strategy_the_rule_of_three_and_four/
124. Herbst M., „Złożone ilościowe wskaźniki koniunktury dla obszaru metropolitalnego Warszawy”, Studia regionalne i lokalne, vol. 4(7), 2001, s.61-81.
463
125. Herzberg F., "The Motivation-Hygiene Concept and Problems of Manpower", Personnel
Administrator, vol 27, I-II,(1964), pp. 3–7.
126. Herzberg F., Mausner B., Snyderman B., Bloch B., The Motivation to Work, John Wiley
and Sons, 2nd Ed., New York 1959.
127. Herzberg F., The Motivation-Hygiene Concept and Problems of Manpower, „Personnel Administrator” Vol 27, I–II, 1964, s. 3–7.
128. Holweg M., "The genealogy of lean production". Journal of Operations Management 25,
No.2, (2007) 420–437
129. Hull J. C., „Kontrakty terminowe i opcje. Wprowadzenie”, WIG-Press, Warszawa, 1998.
130. Hull J.C., Options, Futures, and Other Derivatives, 7th Ed., Prentice Hall, Upper Saddle
River NJ, 2008
131. Imai M., “Gemba Kaizen. Zdroworozsądkowe podejście do strategii ciągłego rozwoju”, MT
Biznes, Warszawa, 2012
132. Imai M., „Gemba Kaizen. Zdroworozsądkowe, niskokosztowe podejście do zarządzania”,
MT Biznes, Warszawa 2006.
133. Imai M., „Kaizen, Klucz do konkurencyjnego sukcesu Japonii”, MT Biznes, Warszawa,
2007
134. Infor.pl, „W jakiej formie można prowadzić dokumentację kadrową”, http://kadry.infor.pl/poprzednie_tematy_dnia/604713,W-jakiej-formie-mozna-prowadzic-dokumentacjekadrowa.html
135. Interbrand, „Breakthrough Brands”, http://interbrand.com/best-brands/interbrand-breakthrough-brands/2016/
136. International Standard Industrial Classification of All Economic Activities; http://unstats.un.org/unsd/statcom/doc02/isic.pdf
137. Ishikawa K., „What is total quality control? The Japanese way”, Prentice-Hall, Englewood
Cliffs1985.
138. ISM August 2016 Manufacturing ISM® Report On Business® USA https://www.instituteforsupplymanagement.org/ISMReport/MfgROB.cfm
139. ISO Guide 73:2009. Risk Menedźment. http://www.iso.org/iso/catalogue_detail?csnumber=44651
140. Jackson M., Staunton M., „Zaawansowane modele finansowe z wykorzystaniem Excela i
VBA”, Wydawnictwo Helion, Gliwice 2004, str. 234-244.
141. Jagodziński J., „Rozszerzone kryterium Hurwicza podejmowania decyzji w procesach logistycznych”, Zeszyty Naukowe Wyższej Szkoły Bankowej we Wrocławiu, vol. 41 nr 3,
(2014), s. 197-214.
142. Jajuga K., „Instrumenty pochodne”, Komisja Nadzoru Finanowego, Warzawa, 2009,
http://www.knf.gov.pl/Images/Instrumenty%20pochodne_tcm75-17587.pdf
143. Japan Management Association, D.J. Lu (ed.), “Kanban Just-in Time at Toyota: Management Begins at the Workplace”, Productivity Press; Rev Sub edition (1989)
144. JFRA, Money.pl, „Pracownik przestał być najważniejszy. Globalne korporacje zmieniają
priorytety”, http://www.money.pl/gospodarka/inflacjabezrobocie/wiadomosci/artykul/raport-korn-ferry-technologie-sila-robocza,245,0,2204149.html
145. Jones J. A., „An Introduction to Factor Analysis of Information Risk (FAIR). A framework
for understanding, analyzing, and measuring information risk”, 2011, http://www.riskMenedźmentinsight.com/media/docs/FAIR_introduction.pdf
146. Jorgenson D. W.; Landefeld J. S.; [w] Nordhaus W. [red] “A New Architecture for the U. S.
National Accounts”. Chicago University Press. Chicago (2006) str. 5.
147. Józefowska J., “Modele i narzędzia optymalizacji w systemach informatycznych zarządzania”, http://www.cs.put.poznan.pl/jjozefowska/wyklady/opt/DYNA.pdf
148. Juran J. M., “A History of Managing for Quality: The Evolution, Trends, and Future Directions of Managing for Quality”, ASQC Quality Press, Milwaukee, 1995.
149. Kahneman D., Tversky A., “Prospect theory: An analysis of decisions under risk”, Econometrica, 47, (1979), 313-327.
464
150. Kamugisha S., The Effects of Change Management in an Organisation: A Case Study of
National University of Rwanda (Nur), Wyno Journal of Management & Business Studies,
Vol. 1(1), 2013, 1-18, http://www.wynoacademicjournals.org/management_biz.html
151. Kanter R. M., “The change masters: innovation and entrepreneurship in the American corporation”, Simon and Schuster, New York, (1984)
152. Kapitał należy w tym miejscu rozumieć szerzej, niż u K. Marksa. Może to być dowolna
forma określonego potencjału oddziaływania systemu na otoczenie, rozróżniana w teorii zarządzania jako, np. kapitał ludzki, kapitał społeczny, kapitał organizacyjny, kapitał intelektualny, kapitał relacyjny, etc. Szerzej na ten temat pisałem w pracy „Aspekty złożoności i
filozofii nauki w zarządzaniu”, str. 174-181.
153. Kaplan R.S., Norton D.P., “The Balanced Scorecard: Measures That Drive Performance”,
Harvard Business Review, Jan.–Feb. 1992.
154. Kaplan R.S., Norton D.P., „Wdrażanie strategii dla osiągnięcia przewagi konkurencyjnej”,
Wyd. Profesjonalne PWN, Warszawa 2010.
155. Karaś R., Teorie motywacji w zarządzaniu, Wydawnictwo Akademii Ekonomicznej w Poznaniu, Poznań 2003.
156. Kaspersky Lab., “Kaspersky Security Bulletin 2015/2016”, Kaspersky Lab Global Research
and Analysis Team, http://newsroom.kaspersky.eu/fileadmin/user_upload/de/Downloads/PDFs/Kaspersky_Security_Bulletin_2015_2016.pdf
157. Kaspersky Lab., „KSN Report: Ransomware in 2014-2016”, https://securelist.com/files/2016/06/KSN_Report_Ransomware_2014-2016_final_ENG.pdf
158. Keynes, J. M., The General Theory of Employment, Interest and Money. London: Macmillan, London 1936.
159. Kieżun W., „Patologia transformacji”, Wyd. Poltext Warszawa, 2013.
160. Kiziukiewicz T., „Rachunkowość nie tylko dla księgowych”, PWE, Warszawa 2007, s. 13
161. Kompendium wiedzy o zarządzaniu projektami, MT&DC, Warszawa, 2006.
162. Korotayev, Andrey V.; Tsirel, Sergey V. (2010). "A Spectral Analysis of World GDP Dynamics: Kondratiev Waves, Kuznets Swings, Juglar and Kitchin Cycles in Global Economic
Development, and the 2008–2009 Economic Crisis". Structure and Dynamics 4 (1): 3–57.
http://escholarship.org/uc/item/9jv108xp#page-1
163. Kotarbiński T., “Dzieła wszystkie. Prakseologia cz. I”, tom 6, Wyd. Ossolineum, Wrocław,
1999.
164. Kotarbiński T., “Dzieła wszystkie. Prakseologia cz. II”, tom 7, Wyd. Ossolineum, Wrocław,
2003.
165. Kotarbiński T., „Dzieła wszystkie. Traktat o dobrej robocie”, Wyd. Ossolineum, Wrocław ,
2000.
166. Kotarbiński T., Praxiology. an introduction to the sciences of efficient action”, Pergamon
Press, 1965
167. Kotler P. T., Armstrong G., “Principles of Marketing”, 16th Ed., Pearson Edu Ltd, Essex,
2016.
168. Kotter, J. P., “Leading Change”, Harvard Business Press Review, Boston, (1996).
169. Koźmiński A.K., „Organizacja”, [w]: Koźmiński A.K., Piotrowski W., „Zarządzanie. Teoria
i praktyka”, Wyd. 5. Wydawnictwo Naukowe PWN, Warszawa, 2000, s. 38-42.
170. Krupski R [red.]., Zarządzanie strategiczne- koncepcje, metody, Wyd. VI, Wydawnictwo
Akademii Ekonomicznej, Wrocław, 2007.
171. Kuhn T., “Struktura rewolucji naukowych”, Aletheia, Warszawa 2001.
172. Lawrence, P. R., Lorsch, J. W., “Organization and Environment: Managing Differentiation
and Integration”, Boston, MA: Harvard University, 1967.
173. Lean Center, „Czym się różni Lean i Six Sigma?”, http://www.leancenter.pl/bazawiedzy/lean-i-six-sigma-roznice
174. Lester, D., Parnell, J. and Carraher, S. “Organizational life cycle: A five-stage empirical
scale”, International Journal of Organizational Analysis, 11(4), (2003), 339-354.
465
175. Lewin K., . "Frontiers in Group Dynamics: Concept, Method and Reality in Social Science;
Social Equilibria and Social Change", Human Relations. Vol. 1, (1947), 5–41.
176. Likert R., "A Technique for the Measurement of Attitudes" Archives of Psychology vol.
140, (1932), str. 55 http://www.voteview.com/pdf/Likert_1932.pdf
177. Lindo Systems Inc. http://www.lindo.com/index.php/ls-downloads/try-lingo
178. Locke, E. A.; Shaw K. N.; Saari L. M., Latham, G. P., "Goal Setting and Task Performance:
1969–1980", Psychological Bulletin (American Psychological Association) 90(1), (1981),
125–152.
179. Mamczur J.A., Komputerowy program „Metoda najmniejszych kwadratów”,
http://www.prz.rzeszow.pl/~janand/mnk.htm
180. Mantegna R.N., Stanley H.E., “An Introduction to Econophysics: Correlations and Complexity in Finance”, Cambridge University Press, Cambridge, 1999. (polskie wydanie PWN,
Warszawa 2001).
181. Marczak K., “"Greeks" czyli opcyjna greka”, Bossa.pl http://bossa.pl/edukacja/opcje/kurs/greeks/
182. Markit, PMI dla Polski z dnia 6.08.2016 https://www.markiteconomics.com/Survey/PressRelease.mvc/12f681ae38f94852be4210193623f2b4
183. Markit, PMI dla strefy UE, z dnia 6.08.2016 https://www.markiteconomics.com/Survey/PressRelease.mvc/76ed1db5bbb64a38b29fa1118c57f4aa
184. Markowitz H.M., “Portfolio Selection”,. Journal of Finance. Vol. 7, (1952), 77–91
185. Maslow, A. H., „Motivation and Personality”, Harper, New York 1954.
186. Maxwell J.C., „Przywództwo. Złote zasady”, MT Biznes, Warszawa, 2010.
187. Mazur M., Jakościowa teoria informacji, WNT, Warszawa 1970.
188. McClelland D.C., „Human Motivation”, Cambridge: Cambridge University Press, 1988.
189. McDaniel C. Jr., Gates R., “Marketing Research”, 10th Ed., Wiley, Hoboken, N.J., 2014.
190. McGovern J., Lindemann M., Vergara M., Murphy S., Barker L., Warrenfeltz R., “Maximizing the Impact of Executive Coaching: Behavioral Change, Organizational Outcomes, and
Return on Investment”, The Manchester Rev., Vol. 6, No. 1, (2006), str. 1–9.
191. McGregor D., http://www.accel-team.com/human_relations/hrels_03_mcgregor.html
192. McKenzie L.W., “The Classical Theorem on Existence of Competitive Equilibrium”, Econometrica, Vol. 49, No. 4 (1981), pp. 819-841. http://www.dklevine.com/archive/refs41388.pdf
193. McPhee P., “Option Pricing Spreadsheet” https://www.optiontradingtips.com/pricing/freespreadsheet.html
194. Mesjasz C., “Systems Metaphors, Systems Analogies, and Present Changes”, [w] International Relations, Cybernetics and Systems. An International Journal (Vienna), vol. 25, , no.
6, 1994: 763-780,
195. Metropolis N., Ulam S., "The Monte Carlo Method", Journal of the American Statistical Association, vol. 44, No. 247, (1949), pp. 335–341.
196. Mill J. S., “Utilitarianism”, G.Sher Ed., 2nd Ed., Hackett Publishing Co. Inc., Indianapolis,
2001.
197. Mill J.S., „Utylitaryzm”. 1863; http://www.earlymoderntexts.com/assets/pdfs/mill1863.pdf
198. Milward Brown, „BrandZ. Raport Top 100, 2016 http://wppbaz.com/admin/uploads/files/BZ_Global_2016_Report.pdf
199. Mimkes J., “Econophysics and Sociophysics: Trends and Perspectives”. [w] B.K.
Chakrabarti, A. Chakraborti, A. Chatterjee (eds.), Wiley-VCH Verlag, Weinheim 2006.
200. Ministerstwo Rozwoju, “Plan na rzecz Odpowiedzialnego Rozwoju”, op. cit. str. 34.
201. Mintzberg H.,”The Rise and Fall of Strategic Planning”, Free Press, New York, (1994).
202. Mirowski P., “More Heat than Light - Economics as Social Physics, Physics as Nature's
Economics”, Cambridge University Press, Cambridge, 1989,
203. Mises L von, “The Ultimate Foundation of Economic Science. An Essay on Method”,
D.van Nostrand, Princeton, 1962.
204. Morgan G., „Obrazy organizacji”, Wydawnictwo naukowe PWN, Warszawa 1997.
466
205. Morgan J., Brenig-Jones M., “Lean Six Sigma For Dummies”, 3rd Ed., John Wiley & Sons,
Hoboken, 2015.
206. Mumford E., “Sociotechnical Systems Design: Evolving Theory and Practice”, Manchester
Business School, 1985.
207. Nakajima S., “Introduction to TPM: Total Productive Maintenance”, (Preventative Maintenance Series), 11 Ed., Productivity Press, Univ. Minnesota, 1998.
208. Napiórkowski A., „Charakterystyka, wycena i zastosowanie wybranych opcji egzotycznych”, NBP Materiały i studia, Warszawa, 2001, http://www.nbp.pl/publikacje/materialy_i_studia/136.pdf
209. Neace M.B., Gospodarek T., Neace X.G., „Global supply chains as holistic systems: an expanded perspective”, International Journal of Economics and Business Research, Vol 5, No
2, (2013), 165-182 http://gospodarek.eu/publikacje/Global%20Supply%20Chain%20as%20Holistic.pdf
210. Newsweek, „KNF wiedziała co się święci”, 17.03.2009, http://www.newsweek.pl/newsweek-exclusive/knf-wiedziala-co-sie-swieci,37482,1,1.htm l
211. Nonaka I., "The Knowledge-Creating Company", Harvard Business Review 69 (6 NovDec), (1991), 96–104
212. Nonaka I., Takeuchi H., “The Knowledge-Creating Company: How Japanese Companies
Create the Dynamics of Innovation”, Oxford University Press, New York, 1995.
213. Nykänen P., Salminen M., “Kto pogrążył Nokię?”, Project Syndicate, 14.07.2015,
http://project-syndicate.pl/artykul/kto-pogr%C4%85%C5%BCy%C5%82noki%C4%99,1172.html?snippet=Salminen
214. Obłój K., „Strategia organizacji”, wyd. III, PWE, Warszawa, 2014.
215. OECD, Entrepreneuship and business statistics, “Entrepreneurship at glance”, 2015
http://www.oecd.org/std/business-stats/entrepreneurship-at-a-glance-22266941.htm
216. Ohno T., „System produkcyjny Toyoty. Więcej niż produkcja na wielką skalę”, ProdPress,
Taylor & Francis, Wrocław 2008, http://wydawnictwo.prodpublishing.com/wp-content/uploads/2011/07/System-Produkcyjny-Toyot-fragmenty.pdf oraz Art of Lean
http://www.artoflean.com/files/Basic_TPS_Handbook_v1.pdf
217. Okuniewski Ł., „Poziomy spread byka - Horizontal Bull Spread”, Bossa.pl
http://bossa.pl/edukacja/opcje/strategie/ograniczonego_ryzyka/bull/
218. Parmenter D., “Key performance indicators: Developing, implementing, and using winning
KPIs”, (2nd ed.). Hoboken: John Wiley & Sons, 2010.
219. PARP, “Biznes plan dla POIG”, https://poig.parp.gov.pl/files/74/108/212/2210.doc
220. PARP, „Badania i ewaluacje PARP”, Global Entrepreneurship Monitor. https://badania.parp.gov.pl/global-entrepreneurship-monitor-gem
221. Pasinetti, L., “Structural Change and Economic Growth: a Theoretical essay on the dynamics of the wealth of nations”. Cambridge University Press, Cambridge, (1981).
222. The Best Project Management Software of 2016, PC Magazine, http://www.pcmag.com/article2/0,2817,2380448,00.asp
223. Pearn W.L., Chou J.B., “Improved solutions for the Chinese postman problem on mixed
networks.” Computers & Operations Research. 26 (8), 1999, s. 819-827
224. Pocztowski A., „Zarządzanie zasobami ludzkimi. Strategie – procesy – metody”, PWE,
Warszawa 2008
225. Podgórska M., Śliwka P., Topolewski M., Wszołek M., „Łańcuchy Markowa w teorii i zastosowaniach”, wyd. 2, Szkoła Główna Handlowa, Oficyna Wydawnicza, Warszawa, 2002.
226. Pogorzelski W., „O filozofii badań systemowych”, Wyd. Nauk. Scholar, Warszawa 2002, s.
47
227. Pokonać Rynek, „Encyklopedia rynków”, http://pokonac-rynek.pl/edukacja/encyklopediarynkow/
228. Polanyi M., “The Tacit Dimension”, University of Chicago Press: Chicago, 1966.
229. Polska Klasyfikacja Działalności http://stat.gov.pl/Klasyfikacje/doc/pkd_07/pkd_07.htm
230. Porter M.E., “Competitive advantage”, Free Press, New York, 1985.
467
231. Porter M.E., “Przewaga konkurencyjna”, Helion Gliwice, 2006
232. Porter M.E., Sachs J.D., MacArthur J.W., “Competitiveness and Stages of Economic Development”, http://www.earth.columbia.edu/sitefiles/file/Sachs%20Writing/2002/WorldEconomicForum_2001-2002_GlobalCompetitivenessReport2001-2002_ExecutiveSummary.pdf
233. Prahalad C.K., Hamel G., “Kluczowe kompetencje” Harvard Business Rev., vol. May-June,
(1990), str. 79-90. http://www.profrandes.com.br/wp-content/uploads/2013/03/Core-Competence-of-the-Corporation.pdf
234. Prahalad C. K., Hamel G., “The core competence of the corporation.” Harvard Business
Review, 68, No.3, (1990), 79-91.
235. PRINCE2 - Skuteczne zarządzanie projektami, The Stationery Office Ltd (TSO), 2009
ISBN 9780113312245 (polskie wydanie 2010).
236. Prnce’s Trust, „Business Plans”, https://www.princes-trust.org.uk/help-for-young-people/tools-resources/business-tools/business-plans
237. Ralston A., „Wstęp do analizy numerycznej”, PWN Warszawa, 1971
238. Rath M., “Die Geschichte des Pharma Geshäfts teil. 1-4”.
https://www.youtube.com/watch?v=VFDP0gkuJA&list=PL68gVFkfht18iJtDX_vY_USOi66O6nBw3
239. Romanowska M., Gierszewska G., Analiza strategiczna przedsiębiorstwa, Wyd. 4, PWE
Warszawa, 2009.
240. Ropohl G., “Philosophy of socio-technical systems, in: Society for Philosophy and Technology”, Spring 1999, Vol. 4, (3), 1999.
241. Roser M., “Income Inequality”. (2015), http://ourworldindata.org/data/growth-and-distribution-of-prosperity/income-inequality/
242. Rozporządzenie Komisji (WE) Nr 1126/2008, z dnia 3 listopada 2008 r, przyjmujące określone międzynarodowe standardy rachunkowości zgodnie z rozporządzeniem (WE), nr
1606/2002 Parlamentu Europejskiego i Rady. http://polanskiaudyt.pl/msr-mssf/
243. Samuelson A.A., Nordhaus W.D., „Ekonomia” tom 2, PWN, Warszawa, 2007.
244. Samuelson, P. A. (1994), "Facets of Balassa-Samuelson Thirty Years Later", Review of International Economics 2 (3): 201–226.
245. Scarf H.E., Hansen T, “The Computation of Economic Equilibria”, Cowles Foundation for
Research in economics at Yale University, Monograph No. 24, UK: Yale University Press,
New Haven, London, 1973.
246. Schlefer J., “Niewidzialna ręka rynku nie istnieje”, HBR Polska, 2016
http://www.hbrp.pl/news.php?id=763
247. Schrage L., “Optimizantion Modeling with LINGO”, wyd. 6, Lindo Systems Inc., Chicago,
2015
248. Schwaber K., Sutherland J., “The Scrum Guide. The Definitive Guide to Scrum: The Rules
of the Game”, http://4pm.pl/wp-content/uploads/2016/07/2016-Scrum-Guide-US.pdf
249. Scrum guides, http://www.scrumguides.org/
250. Selznick P. "Foundations of the Theory of Organization". American Sociological Review vol. 13, No. 1, (1948), pp. 25–35
251. Shannon C.E., A Mathematical Theory of Communication, The Bell System Technical
Journal, Vol. 27, July, Oct., (1948), pp. 379–423, 623–656
252. Sheldon O., „The Philosophy of Management”, Pitman&Sons, London, 1923
253. Shingo, S., “A Study of the Toyota Production System from an Industrial Engineering
Viewpoint”, Japan Management Association, Tokyo, 1984.
254. Simon H.A., “Administrative Behavior”, Free Press, New York 1957.
255. Simon H.A., “Podejmowanie decyzji i zarządzanie ludźmi w biznesie i administracji”, wyd.
4, One Press - Helion, Gliwice, 2007
256. Skinner B.F., The Behavior of Organisms:An Experimental Analysis, Appleton-CenturyCrofts, New York 1938.
257. Smith. A., “Badania nad naturą i przyczynami bogactwa narodów”, Wydawnictwo Naukowe PWN, Warszawa, 2013.
468
258. Snowden D.J., Boone M.E.; “A Leader’s Framework for Decision Making”, HBR, 11,2007
259. Solomon B., Jobs J., “Land and Urban Development: The Economic Success of Small Manufacturers in East Delhi, India”. Lincoln Institute of Land Policy, Cambridge, 1991.
260. Sołek A., “Ekonomia behawioralna a ekonomia neoklasyczna”, Zeszyty Naukowe PTE, No.
8, (2010), 21-34; http://www.pte.pl/pliki/1/1066/01_Solek.doc.pdf
261. Stabryła A., „Zarządzanie strategiczne w teorii i praktyce firmy”, PWN, Warszawa-Kraków
2002, s. 359
262. Stalk Jr. G., "Time – The Next Source of Competitive Advantage". Harvard Business
Review 66, July/August, (1988), 41–51.
263. Stampler L., Business Insider, „The 15 Biggest Lies Ever Told By Major Advertisers”,
http://www.businessinsider.com/the-biggest-lies-ever-told-by-major-advertisers-201211?IR=T
264. Starr J., „Podręcznik coachingu. Sprawdzone techniki treningu personalnego”, Wyd. Oficyna, Warszawa 2015
265. Statista, „Entwicklung des ifo-Geschäftsklimaindex von Juni 2015 bis Juni 2016”,
http://de.statista.com/statistik/daten/studie/1307/umfrage/entwicklung-monatswerte-des-ifogeschaeftsklimaindex/
266. Strafin P.D., „Teoria gier”, Wydawnictwo Scholar, Warszawa, 2006
267. Sułkowski Ł., „Epistemologia w naukach o zarządzaniu”, PWE Warszawa, 2005
268. Suri R., “It's About Time. The Competitive Advantage of Quick Response Manufacturing”,
Productivity Press, (2010).
269. Symantec, “ISTR report”, https://www.symantec.com/content/dam/symantec/docs/reports/istr-21-2016-en.pdf
270. Szulc W., “Coaching – misja życia”, Wyd. Złote Myśli, Gliwice 2008, str. 13
271. The Fortune 500, http://beta.fortune.com/global500/
272. The World Bank, „Doing Business”, data, http://data.worldbank.org/data-catalog/doingbusiness-database
273. Trading Economics „Niemcy - Indeks Nastroju Ekonomicznego wg ZEW”, http://pl.tradingeconomics.com/germany/zew-economic-sentiment-index
274. Trist E., Bamforth K., “Some social and psychological consequences of the longwall
method of coal getting”, Human Relations, 4, (1951), pp.3-38.
275. Tversky, A., Kahneman, D., “Judgment under Uncertainty: Heuristics and Biases”. Science,
New Series, Vol. 185, No. 4157, (1974), pp. 1124-1131.
276. Ustawa o Rachunkowości z dnia 9 listopada 2000 r (Dz. U. 00.113.1186 z dnia 18 grudnia
2000)
277. Ustawa z dnia 27 kwietnia 2001 r. „Prawo ochrony środowiska”. Dz.U. 2001 nr 62 poz. 627
Art. 3 pkt. 50.
278. Ustawa z dnia 29 września 1994 r. o rachunkowości Dz. U. z 2016 r. poz. 1047, tekst jednolity z dnia 19.07.2016, http://www.mf.gov.pl/c/document_library/get_file?uuid=78ce716b3ace-484e-be4c-29a413469e75&groupId=764034
279. Von Glahn, R., “Fountain of Fortune: Money and Monetary Policy in China, 1000–1700”,
Berkeley University Press, Berkley, 1996.
280. Vroom V.H., “Work and Motivation”, J. Wiley & Sons, 1964, [paperback] Jossey-Bass
Publishers, San Francisco, 1995.
281. W.M. Marston, Emotions of Normal People, Taylor & Francis Ltd., New York 1928.
282. Wawak. S., Encyklopedia zarządzania „Wykresy sieciowe”, https://mfiles.pl/pl/index.php/Wykresy_sieciowe
283. Wątroba J., „Wprowadzenie do analizy korelacji i regresji”, http://www.statsoft.pl/Portals/0/Downloads/Wprowadzenie_do_analizy_korelacji_i_regresji.pdf
284. Weber M., “Wirtschaftsgeschichte. Abriß der universalen Sozial- und Wirtschaftsgeschichte”, Duncker und Humblot, Leipzig, 1923,
285. Wernerfelt, B., “A resource-based view of the firm.” Strategic Management Journal, 5,
(1984), 171-180.
469
286. Wernerfelt, B., “A resource-based view of the firm.” Strategic Management Journal, 5,
(1984), pp. 171-180
287. Westley F., Mintzberg H., “Visionary Leadership and Strategic Menedźment”, Strategic
Management Journal, vol. 10, (1989), str. 17-32.
288. Węcławska D., Tarnawa A., Nieć M., Zabierowski P., „Global Entrepreneurship Monitor.
Polska”, PARP, Warszawa, 2015, http://www.parp.gov.pl/attachments/article/48704/newGEM_wyd.2015.pdf
289. Wilson C., “Coaching biznesowy”, Wyd. MT Biznes, Gdańsk 2010
290. Witzel M., “Fifty key figures in management”,. Routledge, London, 2003
291. World Bank, “Doing Business” dane, metody i raporty globalne. http://www.doingbusiness.org/reports/global-reports/doing-business-2016
292. World Economic Forum, “The Global Competitiveness Report”, 2016, http://reports.weforum.org/global-competitiveness-report-2015-2016/downloads/
293. World Economic Forum, Globalny Indeks Konkurencyjności, Ranking 2014-2015, http://reports.weforum.org/global-competitiveness-report-2014-2015/rankings/ dostęp 21.04.2016
294. Wujec B., „Geneza i definicje coachingu”, Coaching Review 1, (2012), str. 4-28
295. Wyżnikiewicz B., Obserwator Finansowy, „Klasa średnia rośnie w Polsce w siłę”,
15.05.2015, https://www.obserwatorfinansowy.pl/tematyka/makroekonomia/klasa-sredniarosnie-w-polsce-w-sile/
296. Zandhuis A., Stellingwerf R., “ISO 21500. Guidance on Project Management. A Pocket
Guide”, van Haren Publishing, Amersfoort, 2013.
297. Zemke J., „Scenariusze procesów decyzyjnych w warunkach zarządzania ryzykiem obsługi
zobowiązań długoterminowych”, http://zif.wzr.pl/pim/2013_3_2_19.pdf
298. Zieleniewski J., „Organizacja i zarządzanie”, PWN, Warszawa 1969 s. 111
470
Spis ilustracji
RYS. 1.1 MODELOWANIE ZARZĄDZANIA ORGANIZACJĄ W UJĘCIU TEORII KONTYNGENCJI. .................................10
RYS. 1.2 FUNKCJONOWANIE UKŁADU WARTOŚCI. ....................................................................................11
RYS. 1.3 PODSTAWOWE PRAWA CZŁOWIEKA ..........................................................................................20
RYS. 1.4 KOSTKA PRAKSEOLOGICZNA ....................................................................................................21
RYS. 1.5 HIERARCHIA POTRZEB WG MASLOWA .......................................................................................23
RYS. 1.6 ILUSTRACJA SUBIEKTYWIZMU OCENY WARTOŚCI DOBRA ................................................................27
RYS. 1.7 KRZYWA CYKLU ŻYCIA PRODUKTU (DOBRA). ...............................................................................28
RYS. 1.8 ILUSTRACJA RÓWNOWAGI RYNKOWEJ, Z CENĄ JAKO PARAMETREM REGULACJI...................................36
RYS. 1.9 KONCEPCJA OCENY KONKURENCYJNOŚCI RYNKU METODĄ 5 SIŁ M.PORTERA .....................................39
RYS. 1.10 IDEALNY CYKL KONIUNKTURALNY ..
Download