Znaczące zwiększenie możliwości produkcyjnych i poszukiwanie nowych rynków zbytu, związane z zastosowaniem nowych technologii wytwarzania, przyczyniło się do zmian w postrzeganiu jakości począwszy od XVIII w. W miejsce poszukiwania doskonałości, zaczęto stosować odniesienie jakości produktu do jego ceny. Dzięki temu producenci mogli kierować produkty o niższym poziomie jakości do mniej zamożnych klientów. Niższy poziom jakości oznacza mniejszą funkcjonalność, np. spełnienie tylko podstawowych wymagań, co przekłada się na niższą cenę. Nie powinien prowadzić do niższej jakości produktu (np. gorszego wykonania, awaryjności), która zawsze powinna być wysoka. Jednak w praktyce producenci obniżali oba te parametry, co doprowadziło na początku XIX w. do zalania rynku produktami o niskiej jakości [B.W. Tuchman 1980, s. 40]. Jedną z przyczyn tej sytuacji były stosowane metody wytwarzania, które mimo zastosowania nowych rozwiązań technicznych, nie uległy znaczącym zmianom. Podzespoły były ręcznie dopasowywane w każdym egzemplarzu produktu. Podniesienie jakości uzyskiwano przez zatrudnienie dodatkowych pracowników zajmujących się dopasowywaniem. Dopiero wprowadzenie szablonów i form wspomagających obróbkę podzespołów przyczyniło się do ograniczenia tej praktyki, jednak ujawniło kolejny problem – konieczność kontroli jakości obróbki części.
Rozpatrywanie jakości produktu w kontekście kosztu jej uzyskania w istotny sposób zmieniło postrzeganie problemów jakości. Odnosząc się do tego A.V. Feigenbaum (1951) oraz L. Abbott (1955) sformułowali postulat świadomego różnicowania poziomów jakości i cen przez producentów. Zauważyli bowiem, że jest to korzystne także z punktu widzenia klienta, który najpierw wybiera oczekiwany poziom jakości, a dopiero potem sugeruje się ceną i innymi kryteriami [C.A. Reeves, D.A. Bednar 1994, s. 423].
Postrzeganie jakości produktów uległo transformacji na przestrzeni XIX i XX w., przechodząc przez cztery fazy rozwoju: inspekcję jakości, statystyczne sterowanie jakością, zapewnienie jakości oraz zarządzanie jakością [D.A. Garvin 1988, s. 7 i nast.]. Inspekcja jakości wprowadziła kontrolę końcową i może być uznana za pierwszą próbę systemowego rozwiązania kwestii jakości w przedsiębiorstwie. Rolą inspektorów było segregowanie wyrobów gotowych i oddzielanie tych, które nie spełniały wymagań. Brak lub niedoskonałe narzędzia pomiarowe, a także niskie kompetencje pracowników były przyczyną częstych błędów w ocenie. Jednak to właśnie inspektorów uczyniono odpowiedzialnymi za jakość [F.W. Taylor 1911, s. 101]. W tej sytuacji pracownicy produkcji mogli się czuć zwolnieni z tej odpowiedzialności. Kontrola końcowa ograniczała zatem liczbę braków na rynku, ale podnosiła wewnętrzne koszty niskiej jakości oraz koszty oceny, a w efekcie przyczyniała się do wyższych kosztów produkcji.
W początkach XX w. rozwinięto kontrolę jakości podczas procesu produkcyjnego, zamiast po jego zakończeniu, co miało ograniczyć do minimum wykorzystanie wadliwych półproduktów w wyrobie końcowym. Wprowadzono także pierwsze specyfikacje i instrukcje stanowiskowe dla pracowników. Gromadzone w czasie kontroli dane były analizowane w oparciu o narzędzia statystyczne. W latach 20. W.A. Shewhart [1931] zwrócił uwagę, że wykorzystanie statystyki umożliwia redukcję kosztów zarówno kontroli, jak i braków czy napraw. Opracowane przez niego metody statystycznego sterowania jakością doprowadziły do lepszego opanowania procesów wytwórczych i obniżenia limitów tolerancji dla poszczególnych elementów. Uzyskano w ten sposób zmniejszenie kosztów produkcji przy jednoczesnym podniesieniu jakości produktów. Analiza przyczyn powstawania braków wykazała niedostatki stosowanego podejścia do jakości. Pracownicy produkcji mieli tylko ograniczony wpływ na wytwarzany produkt i nie byli w stanie usunąć błędów popełnionych przez projektantów.
Uwzględnienie jakości projektowania, próby zapobiegania powstawaniu błędów oraz pełniejsze uznanie wymagań klienta były jednymi z głównych osiągnięć fazy zapewnienia jakości. Autorem, który jako pierwszy zwrócił na to uwagę, był J. Juran. Oddzielił on jakość wykonania od jakości projektowania, a także wskazał na kroki jakie należy podjąć, aby zaprojektować i wdrożyć produkt spełniający wymagania klienta. Rolą projektantów miało być przeniesienie wymagań klienta na specyfikacje techniczne, a następnie zaprojektowanie i wdrożenie produktu tak, aby możliwe było jego niezawodne wytwarzanie [S. Wawak 2011]. Idea ta została uwzględniona przez autorów późniejszych norm ISO serii 9000. Była także podnoszona przez polskich badaczy, m.in. B. Oyrzanowskiego [1970] i R. Kolmana. Przykładem może być definicja R. Kolmana, w której określa jakość jako „zbiór wybranych właściwości interpretowanych jako wymagania potrzebne do realizacji zadań przewidzianych dla danego przedmiotu, czyli za stopień spełnienia stawianych wymagań” [1992, s. 12].
Intensywny rozwój gospodarki, dalsze zwiększenie roli klienta oraz postęp techniczny i technologiczny po II wojnie światowej spowodowały dalsze zmiany w postrzeganiu jakości. W czwartej fazie rozwoju, zarządzaniu jakością, jeszcze dalej rozszerzono obszar zainteresowania. W. Edwards Deming wskazał, że na jakość produktu finalnego istotny wpływ ma jakość pracy wykonywanej przez kierownictwo . Swoje tezy oparł na obserwacji błędów popełnianych przez kierownictwa przedsiębiorstw amerykańskich i europejskich [R. Karaszewski 2005, s. 113].
Zarządzanie jakością wykorzystuje osiągnięcia wcześniejszych podejść do jakości. D. Kroslid [1999] wskazał na dwie szkoły, które wpłynęły na ukształtowanie zarządzania jakością: deterministyczną oraz ciągłego doskonalenia. Szkoła deterministyczna swój początek bierze w tayloryzmie, standaryzacji jakości w amerykańskim przemyśle zbrojeniowym oraz idei Zero Defektów P. Crosby’ego. Standardy, procedury, specyfikacje i ich wierna realizacja są jej głównymi założeniami. Dlatego za doskonalenie jakości odpowiedzialna jest przede wszystkim kadra kierownicza. Pochodną tej szkoły są systemy zarządzania jakością zgodne z ISO 9001 czy Six Sigma.
Natomiast szkoła ciągłego doskonalenia wywodzi się z koncepcji doskonalenia procesów W.A. Shewharta, Total Quality Control A. Feigenbauma oraz japońskiej Company-Wide Quality Control. Głównym kierunkiem działań projakościowych jest w niej zaspokajanie zmieniających się potrzeb klienta. Jakość jest postrzegana dynamicznie, nie jako stan wysokiej jakości, ale ciągłe doskonalenie procesów i dążenie do zaspokajania potrzeb klienta przy zachowaniu niskich kosztów funkcjonowania [B. Bergman, B. Klefsjö, 2003, s. 94]. W tym duchu M. Imai stwierdza, że jakość jako „wszystko to, co można poprawić” [L. Wasilewski 1998, s. 2], natomiast G. Taguchi określa ją jako „minimalny poziom strat ponoszonych przez społeczeństwo z powodu produktu” [Zarządzanie jakością… 1997, s. 47]. Z tej szkoły pochodzi TQM czy Lean Management.
Zobacz także:
- Pojęcie jakości przed rewolucją przemysłową
- Zmiany pojmowania jakości w XXI wieku
- Czym jest zarządzanie jakością?
Pełna wersja tekstu z przypisami została opublikowana w książce: S. Wawak, Koncepcja oceny systemu zarządzania jakością w przedsiębiorstwie, Wydawnictwo UEK, Kraków 2018
- Zaloguj się aby dodawać komentarze