• Nie Znaleziono Wyników

Symulacyjne badanie własności karty kontrolnej typu Shewharta x

N/A
N/A
Protected

Academic year: 2021

Share "Symulacyjne badanie własności karty kontrolnej typu Shewharta x"

Copied!
15
0
0

Pełen tekst

(1)Zeszyty Naukowe nr. 770. Uniwersytetu Ekonomicznego w Krakowie. 2009. Piotr Stefanów Katedra Informatyki. Symulacyjne badanie własności karty kontrolnej typu Shewharta x Streszczenie. Celem artykułu jest oszacowanie prawdopodobieństwa pojawienia się fałszywego sygnału o rozregulowaniu procesu dla klasycznych testów wzorca przebiegu. Omówiono testy konfiguracji kolejnych obserwacji, a następnie zdefiniowano parametry i sposób przeprowadzenia eksperymentu symulacyjnego, w którym równolegle testowano ten sam proces. Szczegółowo przedstawiono wyniki symulacji, a oszacowane wartości prawdopodobieństw pojawienia się błędu I rodzaju dla każdego testu oraz rozkłady badanych zmiennych zostały zobrazowane odpowiednimi rysunkami wraz z komentarzem. Pracę kończy propozycja zmian parametrów testów wzorca przebiegu w celu zmniejszenia prawdopodobieństwa wygenerowania fałszywego sygnału o rozregulowaniu procesu. Do obliczeń symulacyjnych wykorzystano pakiet komputerowy STATISTICA oferowany przez firmę StatSoft Inc. Słowa kluczowe: statystyczne sterowanie procesami, SPC, zarządzanie jakością, symulacja komputerowa.. 1. Wstęp Karty kontrolne typu Shewharta są wykorzystywane w procedurach statystycznego sterowania procesami (SPC, Statistical Process Control). Badania dotyczą wszelkiego rodzaju procesów realizacji przemysłowej, a więc procesów produkcji lub procesów świadczenia usług. Procesy te modelowane są z wykorzystaniem instrumentarium pojęciowego procesów stochastycznych (ciągłych lub dyskretnych) z czasem dyskretnym. Karty kontrolne od klasycznych testów istotności różnią się następującymi elementami: – regułą decyzyjną w razie braku podstaw do odrzucenia hipotezy zerowej. W klasycznych testach istotności można jedynie stwierdzić „nie ma podstaw do odrzucenia hipotezy zerowej”, natomiast stosując podejście statystycznego ste-.

(2) 278. Piotr Stefanów. rowania procesem w rzeczywistości przyjmuje się hipotezę zerową, „twierdząc, proces jest uregulowany”; – sposobem przeprowadzenia testu. Testy statystycznego sterowania procesami są najczęściej weryfikowane na pomocą procedur graficznych (karty kontrolne); – charakterem badanej zmiennej losowej. W wypadku procedur SPC istnieje możliwość wykorzystania pamięci procesu, gdyż w tym wypadku mamy do czynienia z procesem, ze zdynamizowaną zmienną losową. Druga i trzecia cecha może być wykorzystana do zdefiniowania różnych, dodatkowych sekwencyjnych testów wzorca przebiegu. Wszelkie mało prawdopodobne konfiguracje punktów mogą wskazywać na rozregulowanie badanego procesu. Stosowanie testów wzorca przebiegu zwiększa moc testu, czyli możliwość uchwycenia rozregulowania przez procedurę kontrolną, w szczególności pozwala wskazać na małe, systematyczne zmiany badanej charakterystyki. Zwiększenie liczby testów powoduje jednak wzrost prawdopodobieństwa popełnienia błędu I rodzaju (proces przebiega prawidłowo, a procedura sygnalizuje rozregulowanie). Celem pracy jest określenie prawdopodobieństwa pojawienia się fałszywego sygnału o rozregulowaniu dla wszystkich klasycznych testów wzorca przebiegu. Obliczenia zostaną przeprowadzone dla karty kontrolnej typu Shewharta x. W pkt. 2 zostaną omówione klasyczne, opisane w literaturze, konfiguracje kolejnych obserwacji, które mogą wskazywać na rozregulowanie. Kolejne części pracy są poświęcone omówieniu eksperymentu symulacyjnego oraz przedstawieniu wyników obliczeń. Pracę kończą propozycje modyfikacji klasycznych testów wzorca przebiegu. 2. Testy wzorca przebiegu Do identyfikacji rozregulowania można wykorzystać sekwencje kolejnych obserwacji empirycznych. Opracowane w firmie Western Electric [Hryniewicz 1996] testy doczekały się akceptacji i zostały ujęte w międzynarodowych i polskich normach [Polska norma 1996]. Należy podkreślić, że każda konfiguracja, której pojawienie się ma niewielkie prawdopodobieństwo pojawienia się, może zostać zdefiniowania jako wzorzec. Oznacza to, że można zdefiniować wiele różnych testów wzorca przebiegu1. W niniejszym opracowaniu skoncentrowano się na klasycznych procedurach sekwencyjnych zdefiniowanych w polskiej normie PN-ISO 8258+AC1 [Polska.   Szersze omówienie różnych testów można znaleźć np. w: [Hryniewicz 1996], [Iwasiewicz, Stefanów 2000], [Lawrence, Pasternak 1998], [Shirland 1993]. 1.

(3) Symulacyjne badanie własności karty kontrolnej…. 279. norma 1996], w której wymieniono osiem różnych testów, przy czym pierwszy z nich jest sygnałem punktowym2, pozostałe zaś to: 2.1. Dziewięć kolejnych obserwacji znajduje się po tej samej stronie linii centralnej. Ciąg kilku (tutaj dziewięciu) kolejnych obserwacji leżących po jednej stronie linii centralnej może świadczyć o niewłaściwym określeniu tej linii lub o przesunięciu wartości średniej. 2.2. Każda z sześciu kolejnych obserwacji jest większa od poprzedniej lub każda z sześciu kolejnych obserwacji jest mniejsza od poprzedniej (trend wzrastający lub malejący). Pojawienie się takiej sekwencji punktów może świadczyć o dryfie badanej charakterystyki, tendencji do trwałej zmiany wartości zmiennej diagnostycznej. 2.3. Ciąg czternastu kolejnych obserwacji na przemian w górę i w dół. Wystąpienie takiej konfiguracji kolejnych obserwacji może świadczyć o tym, że na proces mają wpływ przynajmniej dwa istotne czynniki. 2.4. Dwie obserwacje spośród trzech kolejnych znajdują się w strefie A. Przy stosowaniu tego i kolejnych trzech testów wykorzystuje się dodatkowe linie pomocnicze. Linie te rozgraniczają „obszar akceptacji” na 6 stref (rys. 1):. x. strefa A. Górna linia kontrolna. strefa B strefa C strefa C. Linia centralna. strefa B strefa A. Dolna linia kontrolna. t. Rys. 1. Strefy karty kontrolnej Źródło: [Polska norma 1996]..   Kolejność omawiania testów w tej pracy jest zgodny z kolejnością przedstawioną w pracach: [Hryniewicz 1996] i [Polska norma 1996]. 2.

(4) Piotr Stefanów. 280. Obszary stref ABC są zależne od zdefiniowanego prawdopodobieństwa pojawienia się punktów poza wykreślonymi liniami3. Analizowane dwie obserwacje leżące w strefie A muszą leżeć w pobliżu tej samej linii regulacji. 2.5. Na pięć kolejnych obserwacji cztery znajdują się w strefie B po jednej stronie linii centralnej. Wystąpienie takiej sekwencji punktów może świadczyć o tym, że wartość średnia badanej charakterystyki uległa przesunięciu. 2.6. Piętnaście kolejnych obserwacji znajduje się tylko w strefie C powyżej lub poniżej linii centralnej. Taka sekwencja wskazuje, że zmienność monitorowanej zmiennej diagnostycznej uległa zmniejszeniu. Należy zwrócić uwagę, że chociaż za pomocą karty kontrolnej x wnioskuje się o wartości średniej, to w przypadku tego sygnału wypowiada się zdanie na temat odchylenia standardowego. 2.7. W ciągu ośmiu kolejnych obserwacji wszystkie znajdują się poza strefą C. Analizowane obserwacje mogą być usytuowane po obu stronach linii centralnej. Pojawienie się takiego ciągu punktów może świadczyć o tym, że na proces mają wpływ dwa silne czynniki. 3. Eksperyment symulacyjny W ogólnym przypadku dla zdefiniowanego wzorca przebiegu istnieją trudności w analitycznym obliczeniu prawdopodobieństwa pojawienia się fałszywego sygnału o rozregulowaniu. Stąd konieczność stosowania metod symulacyjnych, gdyż dają one możliwość oszacowania prawdopodobieństwa pojawienia się fałszywego sygnału o rozregulowaniu dla dowolnej zdefiniowanej sekwencji punktów. Badaniu poddano „klasyczne”, zdefiniowane w firmie Western Electric [Hryniewicz 1996] i opisane w normie [Polska norma 1996] testy wzorca przebiegu. Założenia eksperymentu symulacyjnego: wygenerowano 4000 liczb pseudolosowych o rozkładzie normalnym o średniej wynoszącej 100 i odchyleniu standardowym równym 1 { Xt } ; ∀t Xt ~ N (100, 1) . Eksperyment symulacyjny przeprowadzono dla następujących danych: – dwustronny schemat kontrolny: H0: μt = μ0, H1: μt ≠ μ0, gdzie: –  μ0 = 100, –  σ = 1, –  α = 0,0027,. (. ). 3   „Tradycyjnie” linie są kreślone odpowiednio w odległości 1, 2 oraz 3 odchylenia standardowe z próbki (sigma)..

(5) Symulacyjne badanie własności karty kontrolnej…. 281. –  n = 4, –  N = 4000, gdzie: μ0 – wartość nominalna badanej zmiennej diagnostycznej, σ – stałe i znane odchylenie standardowe, α – prawdopodobieństwo zbędnej regulacji (błąd I rodzaju), n – liczebność badanej próbki, N – liczba wygenerowanych liczb pseudolosowych. Ustalono wartość linii centralnej na poziomie 100. Obliczone wartości górnej i dolnej linii kontrolnej (regulacji) wynoszą odpowiednio 101,5 oraz 98,5. Równolegle za pomocą wyżej zdefiniowanych ośmiu testów, weryfikowano hipotezę zerową, według której badany proces jest uregulowany. Obliczono liczbę sygnałów o rozregulowaniu wyemitowaną niezależnie przez każdy test. Skorzystano z programu Statistica firmy StatSoft Inc. Liczby pseudolosowe zostały wygenerowane, korzystając z funkcji zawartych w tym pakiecie komputerowym. Podczas budowy modelu konceptualnego poczyniono pewne założenia. Przede wszystkim przeprowadzono analizę bez pokrywających się zakresów dla pojedynczego wzorca. Oznacza to, że dla konkretnego testu jeden punkt jest elementem tylko jednej sekwencji. Jeśli na przykład punkty od próbki 101 do próbki 112 tworzą ciąg kolejnych 12 obserwacji leżących powyżej linii centralnej, to: 1) w wypadku analizy bez pokrywających się zakresów otrzymuje się jeden sygnał o rozregulowaniu „9 powyżej lub poniżej linii centralnej”, 2) w wypadku analizy obejmującej pokrywające się zakresy otrzymuje się cztery sygnały o rozregulowaniu „9 powyżej lub poniżej linii centralnej”, a mianowicie: – ciąg obserwacji od próbki 101 do 109, – ciąg obserwacji od próbki 102 do 110, – ciąg obserwacji od próbki 103 do 111, – ciąg obserwacji od próbki 104 do 112. Następnym założeniem jest nieprzerywanie badań po pojawieniu się fałszywego sygnału o rozregulowaniu procesu. W konsekwencji: – jeden punkt może wchodzić w skład kilku sygnałów, np. punktowego, „2 z 3 w strefie A”, „4 z 5 w strefie B”, „6 w trendzie”, – na pojawienie się sygnału np. „14 naprzemiennie” nie trzeba pobierać 14 próbek, gdyż są dostępne poprzednie obserwacje (nie dotyczy to początku każdego badania ciągu 1000 elementowych próbek). Takie postępowanie powoduje wzrost liczby generowanych sygnałów w stosunku do procesu monitorowanego w rzeczywistości. W badaniach korzystano ze stosunkowo długich ciągów próbek, by zminimalizować efekt początku badań polegający na tym, że na przykład nie ma możliwości.

(6) Piotr Stefanów. 282. wygenerowania sygnału „9 powyżej lub poniżej” po zbadaniu pierwszych 8 próbek. Wygenerowano 1000 czteroelementowych próbek oraz poddano je ośmiu wcześniej omówionym testom. Doświadczenie powtórzono 100 razy. 4. Wyniki badań Tabela 1 przedstawia wartości średnie po wykonaniu stu eksperymentów symulacyjnych. Tabela 1. Wyniki eksperymentu symulacyjnego Średnia liczba wystąpień sygnału na 1000 próbek. Rodzaj sygnału. Częstość. Częstość w %. 2,68. 0,0027. 0,27. 6 w trendzie. 0,38. 0,0004. 0,04. 2 z 3 w strefie A. 1,89. 0,0019. Punktowy. 9 powyżej lub poniżej. 14 naprzemiennie. 2,10. 0,0021. 0,98. 4 z 5 w strefie B 15 w strefie C. 0,0010. 0,10 0,19. 3,53. 0,0035. 0,35. 0,08. 0,0001. 0,01. 0,99. 8 poza strefą C. 0,21. 0,0010. 0,10. Źródło: opracowanie własne. 4,0 3,5 3,0 2,5 2,0 1,5 1,0. 8 poza strefą C. 15 w strefie C. 4 z 5 w strefie B. 2 z 3 w strefie A. 14 naprzemiennie. 6 w trendzie. 9 powyżej lub poniżej. 0,0. Punktowy. 0,5. Rys. 2. Liczba wystąpień różnych sygnałów o rozregulowaniu przy badaniu 1000 próbek Źródło: opracowanie własne..

(7) Symulacyjne badanie własności karty kontrolnej…. 283. Analizując tabelę 1 oraz rys. 2 można stwierdzić, że stosowanie testów wzorca przebiegu powoduje radykalny wzrost prawdopodobieństwa pojawienia się fałszywego sygnału o rozregulowaniu. Sumując uzyskane wyniki, okazuje się, że na 1000 próbek średnio 12,6 razy zostanie wygenerowany fałszywy sygnał o rozregulowaniu procesu, co oznacza prawie pięciokrotny wzrost w stosunku do założonej liczby opartej na prawdopodobieństwie popełnienia błędu I rodzaju (α). Należy jednak pamiętać, że przedstawiona suma jest zawyżona o około 15%, gdyż – zgodnie z założeniami eksperymentu – jeden punkt mógł wchodzić w skład kilku wzorców. Poniżej zostaną zaprezentowane szczegółowe analizy dotyczące różnych sygnałów o rozregulowaniu procesu. Sygnał punktowy Liczba wystąpień tego sygnału w badaniach symulacyjnych jest bezpośrednią weryfikacją eksperymentu. Na etapie konstrukcji karty kontrolnej zdefiniowano prawdopodobieństwo pojawienia się fałszywego sygnału o rozregulowaniu na poziomie α = 0,0027. Jeśli eksperyment symulacyjny jest dobrze zaprojektowany, to otrzymana frakcja sygnałów punktowych po wykonaniu symulacji powinna być bliska zakładanej wartości. W wyniku eksperymentu symulacyjnego otrzymano średnio 2,68 fałszywych punktowych sygnałów o rozregulowaniu, co odpowiada αp = 0,0028 ≈ 0,0027. Wartość ta, po zaokrągleniu, odpowiada zakładanemu poziomowi błędu I rodzaju. 0,3 0,25 0,2 0,15 0,1 0,05 0. 0. 1. 2. 3. 4. 5. 6. 7. Rys. 3. Rozkład wystąpień punktowego sygnału o rozregulowaniu Źródło: opracowanie własne.. Rys. 3 przedstawia średnią liczbę wystąpień fałszywego sygnału punktowego przy badaniu 1000 czteroelementowych próbek i po stukrotnym powtórzeniu.

(8) Piotr Stefanów. 284. doświadczenia. Podczas badania 1000 próbek najczęściej (z prawdopodobieństwem około 0,24) można oczekiwać, że fałszywy sygnał pojawi się 2 razy, a z prawdopodobieństwem około 0,2 zostanie wygenerowany 1, 3 lub 4 razy. Sygnał: 9 kolejnych obserwacji powyżej lub poniżej linii centralnej Częstotliwość pojawiania się tego sygnału również może służyć do weryfikacji modelu. Prawdopodobieństwo pojawienia się punktu poniżej (powyżej) linii centralnej (rozkład symetryczny, linia centralna na poziomie średniej) wynosi ½. W konsekwencji prawdopodobieństwo zdarzenia polegającego na tym, że po jednej stronie linii centralnej znajduje się ciąg k kolejnych punktów, przy czym 1 proces jest uregulowany (hipoteza H 0 jest prawdziwa), wynosi k Wartości te 2 . dla kolejnych ciągów punktów leżących po tej samej stronie linii centralnej są przedstawione w tabeli 2. Tabela 2. Prawdopodobieństwo pojawienia się fałszywego sygnału o rozregulowaniu przy procedurze „ciąg obserwacji poniżej (powyżej) linii centralnej” Długość serii. Prawdopodobieństwo pojawienia się sekwencji. 3. 0,12500. 2 4 5 6. 0,25000 0,06250 0,03125 0,01563. 7. 0,00781. 9. 0,00195. 8. 0,00391. 10. 0,00098. 12. 0,00024. 14. 0,00006. 11. 13. 0,00049 0,00012. Źródło: obliczenia własne.. W wyniku przeprowadzonych badań symulacyjnych analizowany sygnał pojawił się średnio 2,1 razy podczas badań 1000 elementowych sekwencji próbek. Odpowiada to prawdopodobieństwu pojawienia się fałszywego sygnału o rozregulowaniu α9 = 0,0021..

(9) Symulacyjne badanie własności karty kontrolnej…. 285. 0,3 0,25 0,2 0,15 0,1 0,05 0. 0. 1. 2. 3. 4. 5. Rys. 4. Rozkład wystąpień sygnału „9 punktów poniżej lub powyżej linii centralnej” Źródło: opracowanie własne.. Analizując rys. 4 można stwierdzić, że podczas badania 1000 próbek sygnał seryjny „9 punktów poniżej lub powyżej linii centralnej” najczęściej pojawi się jeden raz (z prawdopodobieństwem około 0,28), dwa razy (z prawdopodobieństwem około 0,25) lub trzy razy (z prawdopodobieństwem około 0,24). Sygnał: 6 w trendzie Średnio podczas badania 1000-elementowych ciągów ten sygnał seryjny wystąpił 0,38 razy. Oznacza to, że prawdopodobieństwo pojawienia się 6 kolejnych punktów wzrastających lub malejących wynosi około α6 = 0,0004. 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0. 1. 2. Rys. 5. Rozkład wystąpień sygnału „6 w trendzie” Źródło: opracowanie własne.. 3.

(10) Piotr Stefanów. 286. Prawdopodobieństwo α6 jest stosunkowo niewielkie, stąd (rys. 5) najczęściej (około 65 razy na sto) nie pojawia się ten sygnał podczas badania 1000 próbek. Sygnał: 14 naprzemiennie Podczas badania 1000 próbek w uregulowanym procesie fałszywy sygnał o rozregulowaniu „14 naprzemiennie” pojawia się średnio jeden raz, co odpowiada prawdopodobieństwu α14 = 0,001. 0,45 0,4 0,35 0,3 0,25 0,2 0,15 0,1 0,05 0. 0. 1. 2. 3. Rys. 6. Rozkład wystąpień sygnału „14 naprzemiennie” Źródło: opracowanie własne.. Można zaobserwować na rys. 6, że omawiany sygnał seryjny przy badaniu 1000 próbek najczęściej pojawi się jeden raz (z prawdopodobieństwem około 0,41) lub nie pojawi się (z prawdopodobieństwem około 0,32). Sygnał: 2 z 3 w strefie A Przy standardowo zdefiniowanych strefach A, B oraz C na poziomie jeden, dwa i trzy odchylenia standardowe z próbki (sigma) i α = 0,0027 prawdopodobieństwo pojawienia się fałszywego sygnału o rozregulowaniu spowodowane korzystaniem z sygnału „2 z 3 w strefie A” wynosi α2 = 0,0019. Podczas badania 1000 próbek najczęściej (rys. 7) fałszywy sygnał o rozregulowaniu wynikający ze stosowania omawianego testu pojawi się średnio jeden raz (z prawdopodobieństwem około 0,33) lub dwa razy (z prawdopodobieństwem około 0,25). Sygnał: 4 z 5 w strefie B Ten fałszywy seryjny sygnał o rozregulowaniu występuje najczęściej. Przy badaniu 1000 próbek, średnio aż 3,53 razy został wygenerowany sygnał „2 z 5 w strefie B”, co odpowiada prawdopodobieństwu α4 = 0,0035 = 0,35%. Należy.

(11) Symulacyjne badanie własności karty kontrolnej…. 287. 0,4 0,35 0,3 0,25 0,2 0,15 0,1 0,05 0. 0. 1. 2. 3. 4. 5. 6. Rys. 7. Rozkład wystąpień sygnału „2 z 3 w strefie A” Źródło: opracowanie własne.. 0,25 0,2 0,15 0,1 0,05 0. 0. 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. Rys. 8. Rozkład wystąpień sygnału „4 z 5 w strefie B” Źródło: opracowanie własne.. zwrócić uwagę, że prawdopodobieństwo pojawienia się tylko tego sygnału jest większe od zakładanego prawdopodobieństwa pojawienia się całkowitego sygnału o rozregulowaniu (α). Przy badaniu 1000 próbek najczęściej fałszywy sygnał „4 z 5 w strefie B” pojawi się (rys. 8) trzykrotnie. Należy zwrócić uwagę, że istnieje realna szansa, że ten test wzorca przebiegu pojawi się nawet 10 razy podczas badania 1000 próbek..

(12) Piotr Stefanów. 288. Sygnał: 15 w strefie C Średnio jeden raz na 1000 pojawił się fałszywy sygnał o rozregulowaniu „15 w strefie C”, co odpowiada prawdopodobieństwu α15 = 0,001. 0,45 0,4 0,35 0,3 0,25 0,2 0,15 0,1 0,05 0. 0. 1. 2. 3. 4. Rys. 9. Rozkład wystąpień sygnału „4 z 5 w strefie B” Źródło: opracowanie własne.. Najczęściej przy badaniu 1000 elementowego ciągu próbek sygnał ten (z prawdopodobieństwem około 0,39) nie pojawi się, a z prawdopodobieństwem około 0,32 zostanie wygenerowany jednokrotnie. Sygnał: 8 poza strefą C Pojawienie się fałszywego sygnału o rozregulowaniu „8 poza strefą C” jest bardzo mało prawdopodobne. Sygnał ten pojawił się podczas stukrotnego badania 1000 próbek czteroelementowych tylko 8 razy. Odpowiada to prawdopodobieństwu α8 = 0,0001. Należy dodać, w pracy [Hryniewicz 1996] są cytowane wyniki symulacji opublikowanych w artykule [Walker, Philpot, Clement 1991]. Przedstawione tam wyniki (łączne prawdopodobieństwo popełnienia błędu I rodzaju wynosi prawie 0,3) zdecydowanie różnią się od przedstawionych powyżej oszacowań. Jest to – jak się wydaje – spowodowane tym, że w cytowanej pracy badano ciągi próbek o długości zaledwie 20, czy 30 elementów. 5. Wnioski Analizując otrzymane wartości prawdopodobieństwa popełnienia błędu I rodzaju, należy pamiętać, że są one obliczone dla przypadku, gdy mamy do.

(13) Symulacyjne badanie własności karty kontrolnej…. 289. czynienia z rozkładem normalnym, wartość średnia odpowiada wartości linii centralnej, a zmienność procesu jest niezmienna. Każde, nawet najmniejsze odejście od powyższych założeń może prowadzić do zdecydowanego zwiększenia prawdopodobieństwa pojawienia się sygnału rozregulowania procesu. Przypomnijmy, że testy wzorca przebiegu są stosowane w celu zwiększenia mocy procedur kontrolnych typu Shewharta. Zwiększenie zdolności do diagnozowania niekorzystnego stanu procesu poprzez wykorzystanie sygnałów seryjnych powoduje jednak drastyczne zwiększenie liczby nieprawdziwych sygnałów o rozregulowaniu. Kilkukrotny wzrost prawdopodobieństwa pojawienia się błędu I rodzaju ma bardzo niekorzystny wpływ na otoczenie monitorowanego procesu. Na przykład, jeśli system funkcjonuje w tzw. cyklu Shewharta [Iwasiewicz 1993]: – wykryj systematyczne (nielosowe) zakłócenie procesu, – dokonaj identyfikacji przyczyn wykrytego zakłócenia, – dokonaj korekty procesu, – sprawdź skuteczność dokonanej korekty i wykorzystaj ją, to w wyniku pojawienia się sygnału o rozregulowaniu następują dalsze działania. Mogą one być bardzo kosztowne, gdyż poszukiwanie przyczyny nieistniejącego rozregulowania może wymagać zatrzymania procesu, zaangażowania wielu osób, zastosowania kilku procedur służących do identyfikacji przyczyn zakłócenia procesu. W razie braku identyfikacji przyczyn rozregulowania jest ono zaliczane do grupy „inne przyczyny” i następuje etap regulacji procesu. Korekta dobrze pracującego procesu może zakończyć się jego rozregulowaniem. Inną – często niedocenianą – konsekwencją pojawiania się fałszywych sygnałów o rozregulowaniu jest demoralizacja osób obsługujących badany proces. Operatorzy procesu przestają zwracać uwagę, na sygnały generowane przez kartę kontrolną, wskazania tych kart są lekceważone, ignorowane przez kadrę zarządzającą. W konsekwencji kolorowe karty kontrolne są kosztowne, ale zbyteczne, służące tylko do zadowolenia audytora jednostki certyfikującej. Ogólnie można stwierdzić, że każde pojawienie się fałszywego sygnału o rozregulowaniu generuje dodatkowe koszty. Rozwiązaniem problemu może być modyfikacja standardowych, klasycznych sygnałów o rozregulowaniu. Należy podkreślić, że poniższe uwagi mają sens tylko wtedy, gdy nie mamy żadnej dodatkowej wiedzy na temat procesu. Każda „historyczna” wiedza o zachowaniu procesu (np. tendencja do dryfu wartości średniej) powinna zmodyfikować przedstawione poniżej propozycje. Propozycja polega na zwiększeniu prawdopodobieństwa popełnienia błędu I rodzaju o 50% w stosunku do zakładanej wartości α = 0,0027. Skorzystanie z podanych sugestii spowoduje zmniejszenie łącznego ryzyka fałszywego sygnału o rozregulowaniu poniżej. Wydaje się, że pojedyncze prawdopodobieństwo pojawienia się każdego z omawianych sygnałów seryjnych nie.

(14) 290. Piotr Stefanów. powinno przekraczać wartości 0,0002. W odniesieniu do poszczególnych sygnałów należy przyjąć następujące propozycje: – sygnał punktowy – założony błąd I rodzaju α wynosi 0,0027; – sygnał 9 powyżej lub poniżej – należy zmienić liczbę kolejnych próbek leżących po jednej stronie linii centralnej, gdyż wartość α9 = 0,0021 jest zbyt wysoka. Wydaje się, że długość sekwencji próbek (k) powinna wynosić 13, i wtedy prawdopodobieństwo pojawienia się fałszywego sygnału powinno wynosić (tabela 2) około 0,00012; – sygnał 6 w trendzie –liczba 6 kolejnych próbek jest odpowiednia, gdyż prawdopodobieństwo pojawienia się fałszywego sygnału o rozregulowaniu jest niewielkie α6 = 0,0004. Co więcej, jeśli mamy dodatkową informację, że proces ma tendencję do ciągłego (małego) dryfu można zmniejszyć liczbę kolejnych próbek do 5 (co jednak zwiększa prawdopodobieństwo pojawienia się fałszywego sygnału); – sygnał 14 naprzemiennie – 14 kolejnych próbek należy zwiększyć do około 17, gdyż prawdopodobieństwo α14 = 0,001 jest zbyt wysokie; – sygnał 2 z 3 w strefie A – występują dwa problemy, a mianowicie: definicja stref oraz definicja sekwencji. Sygnał ten jest najbliższy sygnałowi ostrzegawczemu, polegającemu na identyfikacji punktu lub ciągu punktów leżących w pobliżu granicy regulacji. Wielkość strefy A (leżącej najbliżej linii regulacji) może zostać zmniejszona i wtedy szansa na pojawienia się w tej strefie obserwacji zmniejsza się i w konsekwencji prawdopodobieństwo α2 = 0,0019 będzie niższe. Drugim sposobem zmniejszenia tego prawdopodobieństwa jest redefinicja badanej sekwencji z „2 z 3” na, na przykład, „2 z 2” lub „3 z 4”; – sygnał 4 z 5 w strefie B – sekwencja ta ma najwyższą szansę na pojawienie się wynoszącą aż α4 = 0,0035. Tylko ten jeden sygnał ma większe prawdopodobieństwo pojawienia się niż zakładane prawdopodobieństwo pojawienia się fałszywego sygnału o rozregulowania dla sygnału punktowego α = 0,0027. Należy zrezygnować z rejestracji tego sygnału lub zmienić definicję stref (zmniejszenie strefy B i A), lub zmienić sekwencję „4 z 5” na, na przykład, „4 z 4” lub „5 z 6”; – sygnał 15 w strefie C – sygnał ten najczęściej sygnalizujący zmniejszenie zmienności procesu, występuje z prawdopodobieństwem α15 = 0,001. Wydaje się, że można postulować zwiększenie sekwencji punktów leżących w strefie C do około 20 obserwacji. – sygnał 8 poza strefą C – w procesie uregulowanym pojawia się z prawdopodobieństwem α8 = 0,0001, stąd nie ma potrzeby redefiniowania tej sekwencji. Innym rozwiązaniem problemu wzrostu prawdopodobieństwa wystąpienia fałszywego sygnału o rozregulowaniu procesu jest ustalenie różnych wag dla poszczególnych sekwencji punktów. Można postawić pytanie, czy może dopiero koniunkcja kilku konfiguracji punktów powinna generować sygnał o rozregulowaniu procesu..

(15) Symulacyjne badanie własności karty kontrolnej…. 291. Literatura Hryniewicz O. [1996], Nowoczesne metody statystycznego sterowania jakością, Instytut Badań Systemowych PAN, Warszawa. Iwasiewicz A. [1999], Zarządzanie jakością, PWN, Warszawa. Iwasiewicz A., Stefanów P. [2000], Wykorzystanie testów wzorca przebiegu w statystycznym sterowaniu procesami; Taksonomia 7; Klasyfikacja i analiza danych. Teoria i zastosowania; Prace naukowe Akademii Ekonomicznej im. Oskara Langego we Wrocławiu, nr 874, Wrocław. Lawrence J.A., Pastemack B.A. [1998], Applied Management Science. A Computer-Integrated Approach for Decision Making, John Wiley & Sons, Inc. Polska norma [1996] PN – ISO 8258+AC1:; Karty kontrolne Shewharta; czerwiec. Shirland L.E. [1993], Statistical Quality Control with Microcomputer Applications, John Wiley & Sons, Inc. Walker E., Philpot J., Clement J. [1991], False Signal Rates for the Shewhart Control Chart with Supplementary Runs Tests, „Journal of Quality Technology”, vol. 23, nr 3. Simulation Research into Shewhart Control Chart Features The goal of the study is the estimation of probability of false signal occurrence that concerns process maladjustment for classical tests of course pattern. The Author discusses tests of subsequent observations configuration and next defines parameters and performing method for simulation experiment devoted to parallel tests of the same process. Simulation results have been presented in detail and estimated probabilities of I-type error occurrence for each test, together with distributions of examined variables, have been exhibited in proper illustrations with commentary. The last part of the study contains suggestions of changes of course pattern tests parameters, intended for decreasing the probability of generation of a false signal concerning process maladjustment. The STATISTICA software, offered by StatSoft Inc., has been utilised for simulation computing. Key words: statistical processes control, SPC, quality management, computer simulation..

(16)

Cytaty

Powiązane dokumenty

Po dokładnym dopasowaniu szerokości linii rezonansowej w całym obszarze liniowym, dla próbki GdNiln otrzymano wartość parametru linii rezonansowej b =9.4[Oe/K], a

Najczęściej spotykaną postacią nadmiernej potliwości jest pierwotna nadpotliwość pach.. Dotyczy ona mniej więcej połowy wszystkich przypadków

• może być trudne zarówno dla kierownika jednostki, jak i dla biegłego rewidenta, zrozumienie charakteru instrumentów finansowych oraz tego, do czego są one

W ramach tego zagadnienia obliczeniowego zbadano jak zmieni się wydajność po- szczególnych studni oraz położenie punktu pracy ujęcia, na skutek zmiany orientacji rzędu

Analizując efekty pracy wodnych osadzarek pulsa- cyjnych KOMAG z róŜnymi systemami sterowania, stosowanych w polskich zakładach przeróbki węgla kamiennego, w oparciu

Ile strzałów należy oddać, aby z prawdopodo- bieństwem 0,95 lub większym, można było twierdzić, że cel został trafiony co najmniej raz2. W mieście działają dwa

 Jaki będzie wektor udziałów grupy krwi dla osobników z następnego pokolenia, dla którego jednym z rodziców jest ktoś

W wyniku tych wszystkich działań, przygo- towany został dokument, w którym znalazły się przewidywane zakresy prac oraz wykazy wszystkich nieruchomości budynkowych, mienia