Zarządzanie Jakością - Politechnika Śląska

advertisement
Politechnika Śląska
Zarządzanie Jakością
SIX SIGMA
Opracowanie
Jan Brzóska
Zarządzanie przez jakość (ang. Total Quality Management, inaczej: kompleksowe
zarządzanie przez jakość, kompleksowe zarządzanie jakością, totalne zarządzanie jakością) podejście do zarządzania organizacją, w którym każdy aspekt działalności jest realizowany z
uwzględnieniem spojrzenia projakościowego. Uczestniczą w nim wszyscy pracownicy
poprzez pracę zespołową, zaangażowanie, samokontrolę i stałe podnoszenie kwalifikacji.
Celem jest osiągnięcie długotrwałego sukcesu, którego źródłem są zadowolenie klienta oraz
korzyści dla organizacji i jej członków oraz dla społeczeństwa.
Zarządzanie przez jakość opiera się na kilku założeniach:
Zaangażowanie każdego pracownika w przedsiębiorstwie w doskonalenie najdrobniejszych
aspektów jego działalności. Doskonalenie to odbywa się poprzez częste drobne usprawnienia,
a nie wielkie inwestycje. Przyczyną takiego podejścia jest rachunek efektywności - inwestycja
wiąże się z nakładami, a zatem wyższa jakość, większa produkcja czy niższe koszty okupione
są wcześniejszymi wydatkami. Prawdziwy wzrost efektywności występuje, gdy ten efekt
powodują setki drobnych, tanich zmian.
Optymalizowanie procesów. Wykorzystanie prostych i uniwersalnych narzędzi oraz maszyn,
które można łatwo i szybko przezbroić, maksymalizuje czas, kiedy można produkować.
Synchronizacja pracy poszczególnych stanowisk pozwala minimalizować koszty zapasów.
Wykonanie zadań dobrze za pierwszym razem sprawia, że praca nie jest destabilizowana
przez ciągłe poprawki.
Przyczyną przeważającej większości problemów jakościowych jest niewłaściwe zarządzanie
firmą, organizacja pracy, motywacja. Zaledwie kilka procent błędów powodowanych jest
przez pracowników przy linii produkcyjnej.
Sukces stosowania zarządzania przez jakość jest oddalony w czasie, ponieważ dopiero
długotrwałe stosowanie metod powoduje uzyskanie przewagi konkurencyjnej. Sukces musi
przekładać się jednak nie tylko na działalność organizacji, ale także na korzyści dla
społeczeństwa, środowiska naturalnego, itp., ponieważ przedsiębiorstwo musi brać na siebie
społeczną odpowiedzialność.
Pojęcie „Zarządzanie przez jakość” pojawiło się na przełomie lat 70. i 80. XX wieku w
Stanach Zjednoczonych i szybko stało się modną, choć - jak pokazały doświaczenia
przedsiębiorstw - słabo rozumianą koncepcją. Jednak źródeł TQM należy szukać już w latach
20. XX wieku.
Prowadzone w latach 20. badania Waltera Shewharta nad statystycznym opisem zmienności
w produkcji zaowocowały opracowaniem założeń statystycznego sterowania procesami, a
2
później statystycznego sterowania jakością. Metody te zostały wykorzystane już w czasie II
wojny światowej w przemyśle zbrojeniowym Stanów Zjednoczonych. Jednak boom
popytowy, jaki miał miejsce po zakończeniu wojny spowodował, że kwestie jakości zeszły na
dalszy plan. Sterowaniem jakością za pomocą metod statystycznych zainteresowali się pod
koniec lat 40. inżynierowie japońscy. Stało się to za sprawą Williama Edwardsa Deminga,
ucznia W. Shewharta, który przedstawił w Japonii serię wykładów na ten temat. Zdarzenie to
uważa się za początek rozwoju nowego podejścia do jakości produktów. Od początku lat 50.
wiedzę na temat statystyki oraz jakości propagował w Japonii także Joseph Juran.
Na początku lat 60. opublikowano koncepcję Total Quality Control - kompleksowego
sterowania jakością, która zbierała w postaci kilku zasad osiągnięcia i doświadczenia
współpracy amerykańsko-japońskiej. Zasady te zostały zrewidowane i znacznie rozszerzone
kilka lat później, gdy wprowadzono koncepcję Total Quality Commitment znaną także jako
Company-Wide Quality Commitment.
Kryzys naftowy w Stanach Zjednoczonych spowodował, że Amerykanie zainteresowali się
małymi i tanimi autami z Japonii. Pod koniec lat siedemdziesiątych, zaniepokojone
wzrastającą konkurencyjnością na rynkach światowych tanich wyrobów japońskich, firmy
amerykańskie, zmuszone zostały do poszukiwania sposobów podniesienia jakości swoich
produktów przy jednoczesnym obniżeniu kosztów własnych. Okazało się, że są one bardziej
niezawodne od pojazdów rodzimej produkcji, dzięki czemu sprzedaż szybko rosła.
Zaniepokojone konkurencją amerykańskie koncerny motoryzacyjne zaczęły poszukiwać
przyczyn swoich porażek. Zjednoczone w swych wysiłkach firmy motoryzacyjne; General
Motors, Ford i Chrysler zastosowały na szeroką skalę Statystyczną Kontrolę Procesu (SPC Statistical Process Control), dającą im możliwość ciągłego monitorowania procesu w
punktach newralgicznych dla jakości i kosztów. Motorola zaś, wypierana z rynku przez tanie,
lecz o wysokim poziomie jakości produkty firm japońskich, skupiła w swych ośrodkach
badawczych
grupę
wybitnych
matematyków
statystyków,
specjalistów
z
zakresu
projektowania oraz specjalistów zapewnienia jakości, którzy opracowali spójny system
ciągłej poprawy jakości zwany "Six Sigma Initiative". System ten dawał możliwość ciągłego
obniżania kosztów własnych, poprzez redukcję kosztów złej jakości (COPQ - Cost of Poor
Quality). Skutkiem tych poszukiwań były pierwsze poza Japonią próby wdrożeń metod Total
Quality Commitment. Nazwę Total Quality Management przyjęto w Stanach Zjednoczonych
dla podejścia (nazywanego przez niektórych autorów filozofią) wykorzystującego zestaw
metod projakościowych. Nie wszystkie z tych metod pochodziły z Japonii, niektóre zostały
3
opracowane przez korporacje amerykańskie (np. Six Sigma, Failure Mode and Effects
Analysis).
W latach 80. nastąpiła popularyzacja zarządzania przez jakość w Stanach Zjednoczonych i
Europie. Szybko jednak okazało się, że efekty są dalekie od osiągnięć japońskich.
Stwierdzono, iż głównymi przyczynami niepowodzeń była próba skopiowania metod bez
uwzględnienia odmiennej kultury organizacyjnej i narodowej. Zachodnie przedsiębiorstwa
zorientowane na krótkoterminowe projekty poprawy, przynoszenie zysków akcjonariuszom,
oceniające swoich pracowników na podstawie osiągnięć w krótkich okresach czasu, nie były
w stanie sprostać filozofii mozolnego, długotrwałego doskonalenia organizacji w każdym
aspekcie jej działalności. Stąd w latach 90. zarządzaniu przez jakość przeciwstawiono
reengineering
-
koncepcję
rewolucyjnych
zmian
w
całej
firmie.
Wprowadzenie
reengineeringu okazało się bardzo drogie. Po niepowodzeniu kilku dużych projektów
wdrożeniowych, autorzy koncepcji zrewidowali swoje poglądy i ograniczyli się do
rewolucyjnych zmian tylko w kluczowych procesach.
W okresie powojennym motto japońskiego przemysłu brzmiało „dogonić zachód”. Jednak,
gdy w połowie lat 90. zdano sobie sprawę, że Japonia staje się liderem, zarządy
przedsiębiorstw stanęły przed wyzwaniem zmiany polityki zarządzania organizacjami.
Dotychczas bowiem zarządzanie przez jakość było zorientowane na wnętrze firmy. Pozycja
lidera wymaga stosowania metod zarządzania strategicznego, a obecnie także uwzględniania
w strategiach problemu globalizacji. Rozwijając filozofię jakości w nowym kierunku
Japończycy sięgają po zachodnie metody i koncepcje, które stosują po udoskonaleniu i
dostosowaniu do swojej specyfiki.
Six Sigma jest metodą zarządzania jakością, która została opracowana w latach
osiemdziesiątych i dziewięćdziesiątych XX wieku, dzięki inicjatywie dyrektorów Motoroli i
General Electric (GE). W założeniach miała służyć tworzeniu infrastruktury do wprowadzania
w przedsiębiorstwie zmian mających na celu zapewnienie wymiernych korzyści jego
interesariuszom. Przez interesariuszy rozumiano nie tylko nabywców wyrobów, ale również
akcjonariuszy i pracowników. Charakterystyczną cechą tej metody stało się dążenie do
niezwykle niskiego poziomu wadliwości – 3 -4 niezgodności na milion możliwości ich
wystąpienia. Drugim wyróżniającym elementem metody Six Sigma było położenie nacisku na
polepszenie rentowności w wyniku doskonalenia jakości. Inicjatorami nowego podejścia byli
dyrektorzy – osoby odpowiadające własnym stanowiskiem za zysk firmy. To co różniło od
4
początku Six Sigma od innych metod zarządzania jakością jak TQM i ISO-9000 było
przedefiniowanie celu. Stało się nim zwiększenie dochodowości przez poprawę jakości, a nie
jakość sama w sobie. Zysk firmy został uznany za miarę efektywności zarządzania jakością.
Obecna popularność metody Six Sigma jest wynikiem sukcesów finansowych firmprekursorów.
Sześć Sigma (ang. Six Sigma) jest to program do zarządzania jakością opracowany przez
firmy amerykańskie.
Jego zadaniem jest osiągniecie jakości "sześć sigma". Wprowadzony w Motoroli w połowie
lat 80., przez Boba Galvina (syn założyciela firmy) oraz Billa Smitha. Obecnie używany w
wielu światowych koncernach takich jak GE, Honeywell, Alstom, Raytheon czy Microsoft. W
2000 roku Fort Wayn w Indianie został pierwszym miastem używającym sześć sigma do
zarządzania miastem. Istnieją opinie, iż Six Sigma powinno zostać wprowadzone w większej
liczbie dziedzin życia, a jego efekty trudno przeceniać.
Zgodnie ze strategią wielu koncernów, jednym z podstawowych obszarów na których należy
w najbliższym czasie skupić główny wysiłek jest poprawa jakości. Wszystkie zakłady tych
koncernów mają przestrzegać określonego standardu jakości, a wszyscy dyrektorzy, kadra
kierownicza, specjaliści z dziedziny sterowania jakością oraz cała załoga koncentrują się na
osiągnięciu wyznaczonych celów, z których podstawowym jest ,,pełne zaspokojenie potrzeb
Klienta z zyskiem”. Aby to osiągnąć podejmowane są działania mające na celu wdrożenie i
certyfikowanie systemów zarządzania jakością i środowiskiem zgodnych z normami serii
ISO. Ale nie tylko. Filozofią zarządzania znaną w świecie mniej więcej od trzydziestu lat ale
dopiero od niedawna budzącą zainteresowanie polskich managerów i wdrażaną w niektórych
zakładach (szczególnie w polskich ramionach międzynarodowych koncernów) jest koncepcja
zarządzania zwana "Six Sigma Initiative" – dająca się w olbrzymim skrócie opisać jako pełne
odwrócenie się twarzą do Klienta (zwiększenie udziału w rynku) oraz stały wzrost zdolności
procesów biznesowych do spełniania zidentyfikowanych potrzeb i wymagań klientów (Zero
Defektów czyli dobrze za pierwszym razem co daje się bezpośrednio przełożyć na redukcją
kosztów własnych).
5
SIGM
A
1
2
3
4
5
6
1
0,1
DPO ***
KALKULATORY
0,01
PAM
IĘCIKOM
P.
0,001
0,0001
JAPOŃSKI PRZEM
YSŁTV
0,00001
SILNIKTOYOTYLEXUS
0,000001
PANASONIC
.
Rys. 1 . Jakość niektórych produktów japońskiego przemysłu
(DPO*** - Defects Per Opportunity)
Twórcy tej spójnej koncepcji z zakresu biznesu, firma Motorola, w przeciągu kilku lat jej
wdrażania zredukowała swe koszty złej jakości z około 40% wartości sprzedanej do około
1%, a jakość wyrobów tej firmy to tylko 3.4 błędu na milion możliwości jego popełnienia.
Obalone zostało obiegowe mniemanie, że wyższa jakość kosztuje więcej. Przekonanie to
opierało się na błędnej koncepcji, że aby zapewnić klientom wyższą jakość, trzeba przed
dostawą wykonać więcej prób, analiz i kontroli
Nie potwierdziła się też uaktualniona wersja wymienionej obiegowej sentencji, opierająca się
na klasycznej teorii optymalnego kosztu jakości, która mówiła, że inwestowanie w poprawę
jakości jest rekompensowane z nawiązką przez zmniejszenie wewnętrznych i zewnętrznych
kosztów uszkodzeń - aż do pewnej granicy. Optymalny koszt jakości jest zatem punktem, w
którym koszty działań prewencyjnych i oceny są równe całkowitym kosztom uszkodzeń.
Doświadczenia Motoroli podważają ten punkt widzenia i wykazują, że im wyższa jakość (lub
mniej wad), tym mniejsze koszty zapobiegania i oceny, jak również koszty uszkodzeń, co
znaczy, że wytwórca najlepszy jest jednocześnie najtańszym.
Zachęconych takimi rezultatami, wielu światowych potentatów przemysłowych zaczęło
wdrażać filozofię Six Sigma. Są między nimi; Texas Instruments, Kodak, Xerox, ABB, oraz z
6
wręcz szokującymi rezultatami efektywnościowymi General Electric który rozwinął program
implementowany z Motoroli zamieniając go nie tylko w rzeczywistą filozofię zarządzania
lecz wręcz w sposób w jaki się w GE pracuje (The Way we Work) Jest to już system w pełni
ukształtowany i sprawdzony w działaniu, a co nie jest bez znaczenia, może on być wdrażany
równolegle z innymi już istniejącymi w zakładach systemami zarządzania jakości, takimi jak
Zintegrowany System Zarządzania Jakością i Środowiskiem spełniający wymogi norm serii
ISO 9000 i ISO 14000, czy jeszcze innymi będąc ich uzupełnieniem i rozwinięciem.Co to
jest „filozofia six sigma”?
Założyciel Akademii Six Sigma przy Uniwersytecie Motorola, jeden z twórców tego systemu,
a jednocześnie człowiek odpowiedzialny za jego wdrożenie i przebieg w Motoroli, dr Mikel J.
Harry mówi parafrazując Lorda Kelvina:
"Jeżeli nie mierzymy, to nic nie wiemy,
Jeżeli nie wiemy, to nie możemy działać,
Jeżeli nie działamy to narażamy się na straty".
Start do Six Sigma to przede wszystkim start z pomiarami i zbieraniem ich wyników.
Ustalamy parametry, miejsca pomiarów i ich metodologię. Miejsca - to punkty newralgiczne
dla jakości procesu i jego kosztów, zaś metodologia
-
to jak najdokładniejsze
odzwierciedlenie stanu faktycznego. Zebrane wyniki pomiarów stanowią podstawę do analizy
jakości procesu w badanym punkcie. Wnioski wysnute z analizy pozwalają na
przeprowadzenie działań korygujących proces i jego poprawę. Całość cyklu powtarza się
dając w sumie ciągły postęp.
Pełna powtarzalność procesu jest tylko założeniem projektowym, zaś w praktyce
konieczna jest ocena jego zmienności i to niezależnie czy proces przebiega w sferze
produkcji, planowania, zaopatrzenia czy marketingu. ,,Six Sigma” wprowadza miernik
poziomu jakości procesu pozwalający porównać nieporównywalne dotąd, ze względu na swój
odrębny charakter, obszary naszej działalności na terenie przedsiębiorstwa. Jest nim DPMO
(Defect per Million Oportunities), określający nam liczbę błędów w stosunku do miliona
możliwości jego popełnienia. Matematyczną interpretację poziomu jakości Six Sigma
przedstawia poniższy rysunek.
7
- 1.5
+ 1.5

CP=2
CPK=1.5
CP= CPK=2
CP=2
CPK=1.5
POZORNE ZERO
DEFEKTÓW
( 3.4 ppm)
POZORNE ZERO
DEFEKTÓW
( 3.4 ppm)
ZMIANA
CZĘŚCI LUB PROCESU
- 6
- 5 - 4 - 3
- 2 - 1
0
1
2
3
4
5
6
 SZEROKOŚĆSPECYFIKACJI PROJEKTOWEJ SIX SIGMA
Rys. 2. Six Sigma dopuszcza jedynie 3.4 wady na 1 milion sposobności
1.5 - niestabilność procesu ( wyznaczona empirycznie )
CP - wskaźnik zdolności, wymiar rozrzutu procesu w stosunku do wymaganych tolerancji,
CPK - wskaźnik zdolności, wymiar rozrzutu oraz położenia, zdolności procesu w stosunku do
wymaganych tolerancji.
Zmienność każdego procesu określa się liczbowo poprzez oszacowanie wartości
średniego odchylenia kwadratowego dla określonej wielkości próbki losowej pobranej z
procesu (pomiar newralgicznego parametru decydującego o jakości i kosztach procesu).
Poziom jakości Six Sigma w danym miejscu procesu oznacza, że odchylenie standardowe
pomiarów mieści się w założonym przedziale specyfikacji 12 razy. Uwzględniając
wartości średniej, otrzymujemy przy poziomie Six Sigma minimalną odległość wartości
średniej z próbki do którejkolwiek granicy specyfikacji. Odległość ta wynosi 4.5, co oznacza,
8
że prawdopodobieństwo wystąpienia błędu w analizowanym miejscu procesu wynosi
0.0000034.
Dla większości przedsiębiorstw takie prawdopodobieństwo wystąpienia błędów to
nierealny świat marzeń. Większość tabel współczynników w normach i tablic statystycznych
ogranicza się do prezentowania trzech poziomów odchyleń standardowych, przez co stają się
bezużytecznymi dla metodologii Six Sigma.
Rozważmy więc czy 99% pewności, że efekt procesu w badanym miejscu jest pozytywny,
to wielkość nas zadawalająca ? Otóż jeżeli proces składa się z więcej niż jednego etapu o 99%
pewności każdy, to efekt końcowy takiego procesu wynosi:
liczba etapów
prawdopodobieństw
prawdopodobieństwo
o
procesu
pozytywnego efektu
pozytywnego efektu
pojedynczego etapu
procesu
2
0.99
0.992 = 0.980
10
0.99
0.9910 = 0.904
100
0.99
0.99100 = 0.366
1500
0.99
0.991500
1500
0.999
0.9991500 = 0.223
1500
0.9999
0.99991500 = 0.861
1500
0.9999966
0.99999661500 = 0.995
Widzimy, że przy bardziej skomplikowanych procesach, składających się z około 1500
kroków, dopiero 3.4 błędu na milion możliwości jego popełnienia w każdym kroku, daje nam
efekt końcowy 99.5% wyrobów dobrych.
Osiągnięcie poziomu Six Sigma wymaga dogłębnego zrozumienia przyczyn zmienności
procesów, przeprowadzenia analizy tych przyczyn i kosztów usterek zarówno wewnętrznych
jak i zewnętrznych. Zastosowania narzędzi i technik analitycznych zmniejszających
prawdopodobieństwo powstania błędu już w fazie projektowania procesu (DOE, FMEA)
W naszą działalność musi zostać wbudowana nowa filozofia systematycznego
usprawniania, a nie zajmowanie się tylko sytuacjami wymagającymi doraźnej interwencji. W
9
tym celu stale winna być prowadzona identyfikacja obszarów wymagających długofalowej
poprawy, oraz bezzwłocznie podejmowane czynności usprawniające.
Jak z powyższego widać Six Sigma nie zajmuje się działaniem na gotowym wyrobie
(kontrolą wyrobu, eliminującą produkty wadliwe), lecz skupia się na działaniach
prewencyjnych (w procesach) zmniejszających prawdopodobieństwo powstania wyrobu
niezgodnego ze specyfikacją, w szerokim rozumieniu słowa wyrób. Jako kompleksowy
system sterowania jakością znajduje zastosowanie w każdej dziedzinie naszej działalności na
terenie przedsiębiorstwa.
Proces wyboru i definiowania projektów Six Sigma bywa często nazywany „piętą
achillesową” całej koncepcji. Bywa tak nazywany nie dlatego, że miliardy dolarów
zaoszczędzone przez „organizacje Six Sigma” to skumulowany wynik dobrze wybranych,
zdefiniowanych i zrealizowanych projektów. Nie dlatego też, że poprawnie zdefiniowany
projekt to podstawa przyszłego sukcesu. Bywa tak nazywany dlatego, że o ile projekt
właściwie zdefiniowany nie gwarantuje powodzenia, o tyle projekt źle zdefiniowany jest
niemal 100% gwarantem porażki. Co więcej, wybór niewłaściwych projektów w
przedsiębiorstwie, szczególnie na początku wdrożenia, prowadzi nieuchronnie do fiaska
programu Six Sigma. Źle zdefiniowane projekty nie przynoszą oczekiwanych oszczędności,
zaczynają się przedłużać, a ludzie stają się sfrustrowani brakiem widocznych efektów
pomimo włożonego wysiłku... To wszystko prowadzi powoli (ale pewnie) do przeniesienia
uwagi (i zasobów) na inną inicjatywę.
Dlaczego sześć odchyleń od zmiennej ?
Zgodnie z wykresem odchylenia standardowego, tylko 2 bilionowe wykresu wychodzą poza 6
sigma, gdy program Six Sigma mówi o 3,4 milionowych. Taka wartość występuje dla 4,5
sigma oraz 1,5 sigma przesunięcia. Te wartości promował Mikey Harry około roku 1980,
wyprowadził je z obserwacji i praktyki, a nie z teoretycznych danych. Prawdopodobnie
oznacza to, że rozkład nie był do końca normalny, jak to się często zdarza. Używa się ich jako
modelu zmian, gdyż defekty produkcyjne często nie podlegają normalnemu rozkładowi
standardowemu, zamiast tego, "przesuwają" w czasie, większość problemów pojawia się po
jednej stronie wykresu, co bez przesunięcia powodowało by więcej niż 3,4 DPMO. W Six
Sigmie proces może przesunąć się o 1,5 i dalej pozostać w wartościach 3,4 DPMO.
Donald J. Wheeler uważa iż przesunięcie 1,5 jest nie właściwe, argumentuje iż takie praktyki
transformują proces 4,5 sigma (3,4 DPMO) w 6 sigma. Jednak takie argumenty są właściwe
10
jedynie dla danych krótko okresowych, gdyż tylko wtedy 1,5 jest odejmowany od wyniku.
Gdy wynik 3,4 DPMO wskazuje na proces o wartości 3 sigma, a nie 6 sigma. W przypadku
danych długo okresowych przesunięcie procesu zostało wliczone, i nic więcej się nie
odejmuje.
Sześć Sigma to nie tylko statystyka
Wbrew nazwie celem programu zarządzania jakością Six Sigma jest przede wszystkim
redukcja kosztów wytwarzania i opieki nad produktem. Można powiedzieć, że jakość Sześć
Sigma to "produkt uboczny" w tym programie. Dlaczego? Zaobserwowano, że olbrzymia
część kosztów prowadzenia działalności związana jest z wykrywaniem i usuwaniem usterek
wynikających z procesu wytwarzania produktu. Im mniejsza ilość braków powstaje i im
szybciej są wykrywane tym mniejszy jest całkowity koszt ich usunięcia. Dlatego metodą na
obniżanie kosztów jest takie prowadzenie procesów biznesowych, aby przede wszystkim
eliminować bądź ograniczać przyczyny występowania usterek, a jeśli już wystąpią, to jak
najszybciej je wykrywać. Doskonalenie Procesów Biznesowych odbywa się w trybie
projektów doskonalących mających na celu nie tylko poprawę jakości, ale przede wszystkim
uzyskanie wymiernej korzyści finansowej wynikającej z tej poprawy. Nadzór nad realizacją
tych projektów sprawują wewnętrzni konsultanci nazywani (w zależnosci od zakresu
projektów jakie prowadzą) Green Belt, Black Belt i Master Black Belt. Dalszymi
zdefiniwanymi rolami w Six Sigma są Zarząd - odpowiedzialny za wizję Six Sigma i
Championi - odpowiedzialni za integrację różnych projektów Six Sigma.
Podstawą wdrożeń Six Sigma jest tak zwany DMAIC - Define / Definiuj, Measure / Mierz,
Analyze / Analizuj, Improve / Implementuj poprawę i Control / Controluj (żartobliwa polska
nazwa, gdyż w polskim odpowiedniku nie występuje litera c). Pod tymi pojeciami kryją się:
zdefiniowanie celów poprawy, pomiar aktualnych parametrów, analiza czynników mających
wpływ na proces, zaproponowanie i wdrożenie zmian oraz sprawdzanie czy uzyskane efekty
są zgodne z założeniami.
Doskonalenie w Six Sima rozpoczyna się od obszarów o najniższej jakości, gdzie projekty
doskonalące najniższym kosztem przyniosą największe efekty. Następnie podnosi się jakość
w kolejnych obszarach. Uważa się, że uzyskanie poprawy jakości powyżej 5 Sigma wymaga
narzędzi do SPC - Statystycznej Kontroli Procesów. Najpopularniejszym pakietem
statystycznym w Six Sigma jest Minitab, pewną popularność uzyskały również JMP,
11
Statistica oraz różne nakładki na Microsoft Excel. Narzędzia te są wspierane
oprogramowaniem do zarządzania projektami i zasobami oraz narzędziami do mapowania,
symulacji i analizy procesów biznesowych np. iGrafx Process For Six Sigma lub nakładkami
na Microsoft Visio.
finalnego jako cel strategiczny w konkretnym roku musi zdawać sobie sprawę, że wymagać to
będzie aktywnego włączenia się do wdrożenia i realizacji projektu wszystkich pracowników,
na każdym stanowisku pracy, a także systemu szkoleń wyjaśniających cele tego działania,
oraz uczących sposobów korzystania z narzędzi pracy zespołowej, narzędzi technik i metod
Six Sigma oraz czasami bardzo wyrafinowanych matematycznych narzędzi analizy, Całość
zagadnień związanych z narzędziami, technikami i metodami oferowanymi przez Six Sigme
ujęte być musi. w cykl szkoleń uczących ich wykorzystania w realizowanych projektach oraz
codziennej pracy jako części kultury przedsiębiorstwa
W zależności od jakościowego poziomu procesów, wyrażonego w ZB (liczbowy wskaźnik
jakości procesu), program Six Sigma zaleca skupić główny nacisk na:
S
IG
M
A
1
2
3
4
5
6
1
LU
D
ZIE
0,1
DPO
P
R
O
C
E
S
0,01
P
R
O
JE
K
T
0,001
0,0001
0,00001
0,000001
Rys. 3. Gdzie skierowany jest główny wysiłek
Jeśli chodzi o szkolenie ludzi - to celem powinien być poziom wiedzy załogi, a nie liczba
godzin przeznaczonych na kształcenie. Każdy z pracowników powinien umieć udzielić
odpowiedzi na kilka podstawowych pytań dotyczących wyrobu i procesu, w którym
uczestniczy, świadczących o znajomości tych zagadnień. Kadra kierownicza zaś powinna
12
umieć posługiwać się w swej pracy narzędziami wspomagającymi procesy decyzyjne. Six
Sigma wykorzystuje wszystkie zdobycze z zakresu narzędzi statystycznych, oraz wszystko co
prowadzi do jak najgłębszej analizy procesu i pozwala na podjęcie trafnych i skutecznych
kroków poprawiających proces.
Zmniejszenie zmienności procesu
Opracowanie strategii „Six Sigma” było odpowiedzią na zadanie postawione firmie
Motorola w 1987 roku przez jej prezesa Boba Galvina, aby poprawić jakość produktów i
usług do 1989 roku 10 – krotnie, do 1991 roku 100 – krotnie, a do 1992 roku osiągnąć poziom
jakości „Six Sigma”, tzn. 3 -4 wady na milion możliwości. Zmniejszenie wadliwości i
związane z tym działania miały być środkiem do osiągnięcia nowego celu strategicznego –
kompleksowej satysfakcji klienta (total customer satisfaction). Prezes Motoroli opisał to
następująco, że jeżeli zatroszczymy się o klienta lepiej niż konkurencja, to biznes zatroszczy
się o nas. Zatwierdził w ten sposób pomysł pracującego w firmie inżyniera jakości Billa
Smitha (później został wiceprezesem firmy), który postulował, aby wymagania jakościowe
dla poszczególnych kroków procesu produkcyjnego i elementów składowych były znacznie
wyższe niż dla wyrobu finalnego. Był to sposób na obniżenie wadliwości wyrobów
końcowych.
W 1988 roku Motorola zdobyła prestiżową amerykańską nagrodę jakości „Malcolm
Baldridge National Quality Award”, dzięki czemu nowa metoda zyskała sławę i uznanie na
świecie, a jej skuteczność podkreśliło ogłoszenie przez firmę, że „Six Sigma” przyniosło 4
miliardy dolarów oszczędności. W rezultacie nowe podejście do jakości zaczęły stosować
inne znane firmy. Wśród nich dużą rolę odegrał General Electric oraz firma Allied Signal. Z
czasem „Six Sigma” stało się tak znane jak TQM, czy ISO-9000.
Idea „kompleksowej satysfakcji klienta” przesuwała zakres, w jakim producent
interesował się odbiorcą wyrobu. Przestawało wystarczać zadowolenie klienta z tego, co
kupował. Klient miał być zadowolony także z kompetencji sprzedawcy, metody zapłaty,
dostępności produktu lub usługi, wsparcia technicznego i szeregu innych elementów
należących do „otoczenia wyrobu”. Równocześnie zmodyfikowano definicję „wady”. Był nią
jakikolwiek brak satysfakcji klienta, przy czym klientem stawała się każda następna osoba
uczestnicząca w produkcji, aż do ostatecznego klienta – nabywcy wyrobu końcowego.
Takie zdefiniowanie wady i klienta przez Motorolę znalazło odbicie w zastosowaniu
określonych metod i narzędzi analizy. Podstawowym miernikiem jakości stała się liczba wad
w produkcie końcowym wyrażana prze liczbę wad na jednostkę produktu (TDU – ang. total
defects per unit). Stwierdzono, że wielkość ta przekazuje dużo więcej informacji o jakości niż
13
wcześniej stosowany wskaźnik – liczba wadliwych produktów. Ponadto wady wykryte
podczas procesu produkcji zaczęto łączyć z wadami wykrytymi w czasie gwarancji i po jej
wygaśnięciu. Założono, że zmniejszenie liczby wad na jednostkę produktu zmniejszy
jednostkowy czas wytwarzania, awaryjność wyrobów zakupionych przez klienta, a zwłaszcza
liczbę wad ujawnionych we wczesnym okresie użytkowania wyrobu. W rezultacie wzrośnie
satysfakcja klienta i zmniejszą się przypadające na jednostkę produktu koszty wytworzenia i
obsługi gwarancyjnej. Założono również, że jeśli w czasie procesu produkcji nie zostanie
znaleziona żadna wada, to z dużym prawdopodobieństwem wady nie wystąpią także u klienta.
Przeniesienie punktu ciężkości w definiowaniu jakości na klienta oznaczało zmianę
znaczenia dotychczasowych wskaźników jakości. Podstawowymi punktami odniesienia stały
się granice specyfikacji. Z punktu widzenia Motoroli klienta interesuje, czy właściwość
jakościowa wyrobu, do której przywiązuje wagę, nie wykracza poza granicę specyfikacji –
górną (USL) i dolną (LSL). Nie ma zaś dla klienta znaczenia, czy wartości tej właściwości
świadczą o tym, że proces jest statystycznie uregulowany. Preferencje klienta dotyczące
granic specyfikacji przekładają się na decyzję zakupu wyrobu, a więc na dochód firmy.
Parametrami, które w podejściu Motoroli nabrały ogromnego znaczenia były współczynniki
zdolności procesu Cp i Cpk, wiążące granice specyfikacji ze statystycznym uregulowaniem
procesu opisanym teorią Shewharta.
Po wprowadzeniu w Motoroli „Six Sigma” zaczęto projektować wyroby tak, aby
zdolność procesów wynosiła Cp = 2. Nazwano to „odpornym projektowaniem”. Zaczęto dążyć
do zwiększenia „odporności” przez zwiększanie marginesu projektowania. Starano się, aby
granice specyfikacji USL i LSL, wynikające z potrzeb klienta, były znacznie większe od
naturalnych granic kontrolnych UCL i LCL.
Założono, że poprawienie „odporności projektowania”, czyli zwiększenie Cp dla
wszystkich kluczowych właściwości jakościowych wyrobu, zaowocuje zmniejszeniem TDU
(liczby wad na jednostkę produktu) oraz odpornością na intensywną eksploatację.
Zwiększenie marginesu projektowania nie mogło polegać na prostym zwiększeniu tolerancji
przez przesunięcie granic specyfikacji (LSL i USL). Sposobem na osiągnięcie tego celu było
zmniejszenie zmienności procesu równoznaczne z podwyższeniem zdolności od C p=1 do
Cp= 2.
Zliczanie TDU dotyczy wielu właściwości jakościowych. Najważniejsze dla producenta
są wady dotyczące tych właściwości jakościowych, które wpływają na satysfakcję klienta. W
Motoroli nazwano je „kluczowymi dla jakości”. Na tych właściwościach miało się
skoncentrować
„odporne
projektowanie”.
Ponadto
Motorola
wprowadziła
postulat
14
„współbieżnego projektowania”, polegającego na równoczesnym położeniu nacisku na
wszystkie właściwości kluczowe dla jakości już podczas projektowania wyrobu.
Struktura organizacyjna
Six Sigma opiera się na oryginalnym rozwiązaniu organizacyjnym wzorowanym na
systemie pasów w karate. Jego autorami są Mikel Harry, jeden ze współtwórców Six Sigma w
Motoroli, i Cliff Ames z firmy Unisys. W zależności od posiadanej wiedzy i stanowiska w
hierarchii systemu zarządzania jakością pracownicy mogą pełnić następujące role:
– członkowie wyższej kadry kierowniczej,
– czempioni,
– mistrzowie czarnego pasa,
– posiadacze czarnego pasa,
– posiadacze zielonego pasa.
W najnowszym projekcie „Six Sigma III – trzeciej Generacji” utworzony jest jeszcze
niższy stopień posiadacza białego pasa dla właścicieli procesów. Przyznanie białego pasa po
przeszkoleniu w podstawowych metodach jakościowych ma spowodować ich zaangażowanie
w udoskonalenie procesów. Dla lepszej efektywności dwóch lub trzech posiadaczy białych
pasów może utworzyć „zespół tygrysi”, aby wspólnie pracować nad kilkoma problemami.
W oparciu o system pasów, modelowy program Six Sigma wprowadzany jest w sześciu
fazach:
1. Wybór czempionów i mistrzów czarnego pasa w każdej jednostce organizacyjnej przez
kierownictwo. Zalecenie: 1 czempion na jednostkę, 1 mistrz czarnego pasa na 30
posiadaczy czarnych pasów.
2. Szkolenie czempionów i mistrzów czarnego pasa. Opracowanie planu realizacji Six
Sigma.
3. Wybór pierwszej grupy projektów przez czempionów i mistrzów czarnego pasa.
Wyznaczenie posiadaczy czarnych pasów i członków zespołów doskonalenia jakości.
Zalecenie: 1 posiadacz czarnego pasa na 100 zatrudnionych.
4. Szkolenie dla mistrzów czarnego pasa w zakresie prowadzenia szkoleń dla przyszłych
posiadaczy czarnego pasa i uczestników Six Sigma.
5. Szkolenia prowadzone przez posiadaczy czarnego pasa. Początek realizacji pierwszych
projektów.
6. Szkolenie posiadaczy zielonego pasa przez posiadaczy czarnego pasa. Zalecenie: 1
posiadacz zielonego pasa na 30 zatrudnionych.
15
Struktura organizacyjna Six Sigma opiera się na powszechnym zaangażowaniu kadry
kierowniczej. Takie wymaganie wprowadził jako jeden z pierwszych Jack Welsch w General
Electric, zaliczenie szkolenia w zakresie zielonego pasa stało się warunkiem awansu na
stanowisko kierownicze. Był on także inicjatorem premii pieniężnych dla osób
zaangażowanych w sprawy jakości. W systemie premiowym GE, 40% premii było
uzależnione od wyników zastosowania strategii Six Sigma. Widać tutaj zasadniczą różnicę w
porównaniu z TQM, gdzie zaangażowanie pracowników w ruch jakościowy miało odbywać
się na zasadzie pracy społecznej.
Wskaźniki opisujące proces
Six Sigma stawia sobie za cel minimalizowanie wadliwości nie tylko wykrywanej w
czasie produkcji, ale także w czasie używania wyrobu przez nabywcę. Wyrób będzie
traktowany za wadliwy i obciąży „produkcję”, gdy wady ujawnią się w czasie gwarancji, a
nawet po jej upływie.
Zjawiskiem, na które w Six Sigma zwrócono uwagę jest tzw. „ukryta fabryka” –
niejawne procesy i systemy rozwinięte przez pracowników, służące naprawianiu błędów i
korygowaniu niezgodności, ukrywane przed kierownictwem, zużywające czas i zapasy
organizacji. Istnienie ukrytej fabryki blokuje możliwość poprawy procesów i wpływ na
powstawanie ukrytych kosztów, błędnie przypisywanych zupełnie innym procesom.
Skuteczną metodą przeciwdziałania jest analiza procesów przy pomocy odpowiednich
parametrów.
Specjaliści Six Sigma krytycznie oceniają wskaźnik wydajności pierwotnej (first time
yield) oraz wskaźnik wydajności końcowej (final yield) – klasyczne wskaźniki wydajności
używane w produkcji. Pierwszy z nich obliczany jest jako stosunek liczby wyrobów
skontrolowanych po zakończeniu danego etapu procesu. Służy do mierzenia jakości procesu.
Zwykle pokazuje stan po zadziałaniu „ukrytej fabryki”. Nie uwzględnia liczby wad
przypadających na jednostkę produktu (TDU) oraz nie uwzględnia wszystkich procesów
potrzebnych do wyprodukowania wyrobu. Informuje, jak firma sobie radzi z realizowaniem
ilościowego planu produkcji. Korelacja między tym wskaźnikiem, a poziomem kosztów jest
niewielka.
Drugi ze wskaźników obliczany jest jako stosunek liczby wyrobów pozbawionych wad
po ostatnim etapie danego procesu do liczby wyrobów na początku procesu. Wyraża
prawdopodobieństwo, że wyrób z powodzeniem przejdzie test jakości przeprowadzony na
zakończenie procesu produkcji.
16
W zamian Six Sigma opisuje proces przy pomocy obliczanych na podstawie liczby wad,
a nie na podstawie liczby wadliwych wyrobów.
Wskaźnik wydajności przejściowej – w metodologii Six Sigma jest odpowiednikiem
wskaźnika wydajności pierwotnej. Wyraża prawdopodobieństwo, że wyrób z
powodzeniem przejdzie testy jakości przeprowadzane po danym etapie procesu
produkcji. Jest obliczany na podstawie całkowitej liczby cech krytycznych dla jakości
wyrobu, a więc określa również prawdopodobieństwo spełnienia wymagań klienta po
danym etapie procesu. Zależy również od złożoności wyrobu – im bardziej złożony
wyrób tym więcej cech krytycznych dla jakości.
Wskaźnik wydajności mierzonej w toku – prawdopodobieństwo, że po przejściu całego
procesu produkcyjnego wyrób będzie pozbawiony wad (prawdopodobieństwo, że
wyrób z powodzeniem przejdzie kontrolę po każdym etapie procesu oraz na
zakończenie procesu produkcji). Daje większą pewność, że wady nie ujawnią się w
okresie gwarancji i po jej upływie.
Wskaźnik wydajności znormalizowanej – przeciętny wynik wydajności przejściowej,
jakiego można oczekiwać na dowolnym etapie procesu, obliczany jako pierwiastek n –
tego stopnia ze wskaźnika wydajności mierzonej w toku, gdzie n jest liczbą etapów
procesu.
W przeciwieństwie do wskaźników klasycznych (wydajności pierwotnej i wydajności
końcowej) wskaźniki stosowane w Six Sigma wskazują wysoki poziom korelacji z
pracochłonnością, kosztami, długością cyklu produkcyjnego oraz zapasami.
Wskaźnik „sigma”
Metodą, która wyróżnia Six Sigma od innych podejść do zarządzania jakością jest
mierzenie wadliwości przy pomocy jednostki „sigma”. Pomimo zbieżności nazwy nie jest to
odchylenie standardowe, jedynie miara zmienności procesu określana na podstawie
wskaźników wydajności.
Proces opisuje się jako K-sigma, gdzie K jest liczbą otrzymaną z podzielenia połowy
zakresu specyfikacji przez odchylenie standardowe procesu przy założeniu, że proces jest
wycentrowany.
Poziomowi jakości K-sigma odpowiada wadliwość wyrażona liczbą wad na milion
możliwości wystąpienia.
17
Zauważono, że rzeczywista wadliwość wyrobu finalnego jest dużo większa od
oczekiwanej na podstawie operacji kontrolnych. Uznano, że istnieją dwa powody tego
zjawiska:
1.
złożona budowa wyrobu – rozbieżność rośnie z liczbą części składowych;
2.
dryf wartości średniej procesu dochodzący do 1,5σ.
Pierwsza przyczyna wydaje się być oczywista. Skoro prawdopodobieństwo poprawnego
działania złożonego wyrobu jest iloczynem prawdopodobieństw poprawnego działania
elementów składowych (przy założeniu niezależności zdarzeń), wyrób ten będzie działał
poprawnie jeśli wadliwość elementów składowych będzie bliska zero. Druga przyczyna budzi
kontrowersje. Nawet jeśli przyjmiemy, że istnieje dryf średniej procesu, to przesunięcia
wartości średniej charakterystyki jakościowej nie może być z góry przyjmowane jako 1,5σ.
Wartość przesunięcia i jego typ wymaga każdorazowo zbadania.
W metodologii Six Sigma zakłada się, że obliczone wskaźniki wydajności dotyczą
rozkładu normalnego przesunięcia o 1,5σ.
Strategia przełomu
Six Sigma zakłada, że „codzienna” wadliwość oscyluje wokół ustalonego poziomu
średniego. Czasami występują chwilowe załamania wadliwości spowodowane problemami z
kategorii sporadycznych. Kierownictwo powinno dążyć do jak najszybszego zlikwidowania
tych problemów, dzięki czemu wadliwość będzie utrzymywana na możliwie najniższym
poziomie. Najmniej, nawet po zlikwidowaniu zidentyfikowanych problemów sporadycznych
wadliwość nadal będzie występowała, a jej miarą może być przeciętny poziom wad. Za ten
rodzaj wad odpowiadają tzw. problemy długotrwałe.
Powyższy problem dobrze opisuje teoria Shewharta, która uznaje występowanie dwóch
rodzajów zmienności właściwości jakościowej. Zmienność przypadkowa powstaje z przyczyn
losowych zwanych też przyczynami ogólnymi. Spowodowana jest wieloma, stale obecnymi
przyczynami, które trudno jest rozpoznać. Każda z przyczyn stanowi mały składnik całej
zmienności, nie mający znaczącego wpływu, ale suma udziałów wszystkich przyczyn
losowych jest mierzalna. Zakłada się również, że jest nieodłączna dla procesu. Uwidacznia się
na
przykład
w
postaci
odchyleń
właściwości
jakościowej
procesu
statystycznie
uregulowanego. W takim przypadku jej miarami mogą być współczynniki zdolności. W
metodologii Six Sigma zmienności z przyczyn losowych odpowiadają odchylenia wadliwości
spowodowane problemami długotrwałymi.
18
Drugi typ zmienności opisany w teorii Shewharta dotyczy zmian w procesie
spowodowanych przyczynami identyfikowalnymi (inna nazwa – przyczyny specjalne), które
nie są nieodłączne dla procesu i mogą być zlikwidowane. W Six Sigma zmienności z przyczyn
specjalnych odpowiadają odchylenia wadliwości spowodowane problemami sporadycznymi.
Jak z tego wynika, problemy z kategorii sporadycznych powinny być usuwane na bieżąco i w
ten sposób prowadzić do poprawy procesu. Problemy z kategorii długotrwałych wymagają
zmiany samych procesów, ich przeprojektowania.
Stosowana w ramach metodologii Six Sigma strategia przełomu jest metodą
rozwiązywania problemów długotrwałych. Obejmuje ona osiem faz:
1. rozpoznanie (stanu przedsiębiorstwa lub problemów operacyjnych),
2. (D) definiowanie (planów poprawy wyników przedsiębiorstwa lub projektów Six Sigma),
3. (M) pomiar (systemów przedsiębiorstwa, wyników projektów Six Sigma lub cech
krytycznych dla jakości),
4. (A) analizę (różnic na podstawie benchmarkingu, odchylenia wyników od celów
operacyjnych, zmienność procesu),
5. (I) usprawnianie (systemu zarządzania przedsiębiorstwem, systemu zarządzania
projektami Six Sigma lub badanie przyczyn zmienności właściwości jakościowej),
6. (C) kontrolę (cech sytemu istotnych dla rentowności, systemu zarządzania projektami,
zmiennych procesu, określenie zdolności procesu),
7. standaryzację (najlepszych systemów lub rozwiązań w zarządzaniu),
8. integrację (najlepszych rozwiązań z procesem planowania strategicznego lub z
procedurami funkcjonowania przedsiębiorstwa).
Podstawowe fazy 2, 3, 4, 5, 6 oznaczone są skrótem DMAIC od angielskich słów:
define, measure, analyze, improve i control.
Zakłada się równoczesne realizowanie strategii przełomu na trzech poziomach:
–
przedsiębiorstwa,
–
operacyjnym,
–
procesu.
Zakres czynności obejmowanych przez fazy 1 – 8 zależy od poziomu, na którym
realizowana jest strategia przełomu. Na poziomie procesu występują tylko fazy DMAIC.
Strategia przełomu Six Sigma wykazuje wiele cech wspólnych z cyklem Shewharta –
Deminga oraz z zarządzaniem hoshin stosowanym w TQM.
19
Hoshin polega na wyznaczeniu sprecyzowanego celu i mobilizacji pracowników.
Realizowany jest na kilku poziomach, od planowania celów strategicznych po ustalanie
działań na dany dzień.
Na poziomie procesu stosuje się cykl Shewharta – Deminga PDCA (plan, do, check,
act), a na poziomie kierownictwa cykl SDCA (standardize, do, check, act). Kierownictwo na
podstawie analizy powtarzającej się fazy A procesu koryguje obowiązujące standardy. Na
przykład, na podstawie analizy kart Shewharta zmienia się wartość granic kontrolnych UCL i
LCL, gdy nastąpi zmniejszenie zmienności mierzonej właściwości.
Strategia przełomu Six Sigma jest metodą bardziej uporządkowaną. Wyznacza sztywne
ramy ośmiu faz realizowanych na trzech poziomach. Ponadto poszczególne fazy
opracowywane
są
przez
osoby
o
odpowiednich
kompetencjach.
Na
poziomie
przedsiębiorstwa działa kierownictwo i czempioni, na poziomie operacyjnym – posiadacze
czarnych pasów, a na poziomie procesu – posiadacze czarnych pasów i zielonych pasów.
Strategia przełomu może być szczególnie przydatna do likwidowania problemów
długotrwałych, a więc do udoskonalenia procesu przez zmniejszanie jego rozrzutu
mierzonego współczynnikami zdolności.
Koszt Six Sigma
Ostatecznym celem Six Sigma było od samego początku zwiększenie rentowności
firmy. Mówiło się o tym wprost w przeciwieństwie do kompleksowego zarządzania jakością
(TQM), które postulowało zaspokajanie potrzeb klienta, natomiast nie wiązało bezpośrednio
doskonalenia jakości z pieniędzmi, które firmie miało przynieść doskonalenie jakości. Zysk
miał się pojawić automatycznie. Postulowano, aby nie płacić dodatkowo członkom kół
jakości działającym po godzinach pracy. Podobnie pierwsze wersje norm ISO-9000 w ogóle
nie zajmowały się dochodowością firmy, a jedynie systemem zarządzania. Krytycy zwracali
uwagę, że certyfikat zgodności z ISO-9000 mogła otrzymać firma nierentowna.
W Six Sigma kładzie się nacisk na opłacalność doskonalenia jakości i analizę kosztów.
Nakłady na jakość maleją w miarę jej polepszenia, ale tylko do pewnego punktu. Po jego
przekroczeniu polepszenie jakości powoduje gwałtowny wzrost kosztów. Z punktu widzenia
opłacalności inwestowanie w jakość wyrobu ma sens, jeśli klient jest gotowy zapłacić za
polepszone właściwości.
Zmniejszenie zmienności właściwości jakościowej pozwala na dalsze obniżenie
nakładów na jakość. Dla procesu 3-sigmowego polepszenie jakości spowoduje gwałtowny
20
wzrost nakładów. Jeśli uda się zmniejszyć zmienność do 6σ nakłady na jakość spadną.
Margines zysku producenta jednocześnie zwiększy się.
Po wprowadzeniu strategii Six Sigma można spodziewać się średniego wzrostu
rentowności o 6-8%. Pracownicy, którzy przyczynili się do wzrostu dochodu powinni być
wynagradzani. Z dodatkowego zysku mają korzystać wszyscy, którzy go wypracowali, nie
tylko udziałowcy i liderzy firmy. M. Harry postuluje, aby przynajmniej 30% pensji dyrektora
naczelnego i pensji kierowników wyższego szczebla było uzależnione od wyników projektów
Six Sigma. Posiadacze czarnych pasów byliby wynagradzani po wygenerowaniu dochodów o
określonej wysokości, przy czym zalecaną formą nagrody są opcje na akcje firmy. Takie
rozwiązanie zapobiega zwalnianiu się właścicieli czarnych pasów i zachęca ich do pozostania
dłużej w firmie.
Wpływ Six Sigma na organizację i potencjalne korzyści
W 1988 roku, powszechne było przekonanie, że wychwalana przez Boba Galvina nowa
strategia Six Sigma jest niczym więcej jak tylko rozszerzeniem akceptowalnej zdolności
procesu z 3 na 6 sigma. Z każdym rokiem jednak, zaczęło przybywać organizacji, które
otwarcie mówiły, że są organizacjami Six Sigma. Obecnie, grono organizacji Six Sigma stale
się powiększa, a sama strategia, rozprzestrzenia się z niezwykłą prędkością trafiając nie tylko
do zakładów produkcyjnych, ale też banków, szpitali czy firm internetowych (np.: Terra
Lycos). Wyjątkowość Six Sigma polega między innymi na tym, że jej właściwa
implementacja przynosi rzeczywiste, wymierne korzyści, mierzone w dolarach, euro czy
jenach. W odróżnieniu od np. certyfikowanych systemów jakości czy TQM, Six Sigma w
sposób bardzo oczywisty przekłada się na tak istotne dla każdej organizacji pieniądze.
Oszczędności uzyskane przez pionierów Six Sigma są niezwykle imponujące:
-
w trakcie 11 lat stosowania Six Sigma Motorola zaoszczędziła ok. 15 miliardów
dolarów,
- General Electric – ok. 2 miliardy dolarów zaoszczędzone w samym tylko roku 1999,
- American Express – średnio 285 tysięcy dolarów na każdym projekcie.
W statystyce sigma oznacza odchylenie standardowe zmiennej. Sześć sigm oznacza
sześciokrotną odległość standardową. Celem programu jest zmiejszenie liczby defektów do 3
-4 defektu na milion okazji. Panowały opinie, iż taka sytuacja jest niemożliwa i już procesy o
21
wartości 3 sigmy były akceptowane (67000 DPMO - czyli defektów na milion okazji).
Obecnie liderzy osiągają wartość 6 sigm w wielu procesach
Podsumowanie
Kluczowe elementy strategii „Six Sigma”, które świadczą o jej odrębności i warunkują
jej skuteczność to: nowe spojrzenie na jakość, specyficzny podział zadań (infrastruktura), a
także cykl DMAIC. Pominięcie któregoś z tych elementów grozi fiaskiem inicjatywy Six
Sigma.
Rozważając na przykład wyrób składający się z 100 części i produkowany w procesie
mającym 8 kroków, przy założeniu, że przejściowy wskaźnik wydajności wynosi 99.73%
(krytykowany poziom jakości 3σ), wskaźnik wydajności mierzonej w toku będzie wynosił
0.9973800=0.115. Oznacza to, że na 10000 wyprodukowanych wyrobów tylko 1150 będzie
wolne od wad. Taka sytuacja jest trudna do zaakceptowania. W przypadku poziomu jakości
6σ wskaźnik wydajności przejściowej wynosiłby 99.99966%. Wtedy wskaźnik wydajności
mierzonej w toku będzie wynosił 0.9999966800=0.9973 dla całego wyrobu. Czyli na 10000
wyprodukowanych wyrobów 9973 będzie pozbawionych wad.
Przykład pokazuje, że dopiero wskaźnik zdolności procesu Cp bliski wartości 2
(przejściowy wskaźnik wydajności 99.99966%) daje akceptowalny poziom jakości w
przypadku złożonych procesów produkujących wyroby składające się z wielu części. Te
obliczenia są nadmiernie pesymistyczne, ponieważ niesłuszne jest założenie niezależności
między poszczególnymi krokami produkcji i poszczególnymi częściami.
Można wyróżnić dwa punkty widzenia:
– inżyniera jakości, dla którego celem jest zmniejszenie zmienności procesu w taki
sposób żeby (USL – LSL/2) = 6σ lub
– kierownictwa lub klienta, którym bardziej odpowiada opisanie właściwości
jakościowej w postaci liczby wad na milion możliwości.
Aby osiągnąć cel kierownictwa lub klienta, łatwiej i taniej jest doprowadzić najpierw do
wycentrowania procesu przez zlikwidowanie dryfu wartości średniej, a dopiero zająć się
zmniejszeniem wariancji, czyli przechodzeniem na wyższy poziom sigma. Zgodnie z teorią
Shewharta brak wycentrowania procesu może być związany z występowaniem przyczyn
specjalnych. Aby proces wycentrować należy te przyczyny zlikwidować. Jeżeli nie ma
przyczyn specjalnych, wycentrowanie wymaga pewnej – często prostej – zmiany procesu.
Zmniejszenie wariancji procesu wymaga likwidacji niektórych przyczyn naturalnej
zmienności procesu. Jest to bardziej skomplikowane i wymaga zazwyczaj specjalnych decyzji
kierownictwa.
22
Niezależnie od kontrowersji wokół przesunięcia 1.5σ, nawet przeciwnicy Six Sigma
podkreślają, że metoda jest bardzo efektywna w tworzeniu wewnętrznej projakościowej
kultury firmy, budowaniu jakościowej infrastruktury i propagowaniu odpowiednich narzędzi.
Poprzez podkreślenie, że miarą poprawy jakości jest wzrost rentowności, w naturalny sposób
uzyskuje poparcie kierownictwo organizacji.
Literatura:
– James R. Thompson, Jacek Koronacki, Jacek Nieckuła „Techniki zarządzania
jakością: od Shewharta do metody "Six Sigma"” Warszawa: EXIT, 2005
–
http://www.6sigma.pl/
23
Download