• Nie Znaleziono Wyników

Index of /rozprawy2/10848

N/A
N/A
Protected

Academic year: 2021

Share "Index of /rozprawy2/10848"

Copied!
179
0
0

Pełen tekst

(1)Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Informatyki Stosowanej. ROZPRAWA DOKTORSKA Algorytmy ze skończoną pamięcią dla przetwarzania sygnałów w diagnostyce procesów Finite memory algorithms for signal processing in the diagnosis of processes. Mgr inż. JĘDRZEJ BYRSKI. Promotor: Prof.dr hab.inż. Antoni Ligęza Katedra Informatyki Stosowanej WEAIiIB AGH, Kraków Kraków, 2014.

(2) Bardzo dziękuję Panu Profesorowi Antoniemu Ligęzie za cenne wskazówki i pomoc udzieloną podczas pracy nad rozprawą. Autor.

(3) S SPIS TREŚCI 1. WSTĘP .................................................................................................................................... 5 2. ZAKRES i TEZY PRACY ...................................................................................................... 12 3. DETEKCJA i DIAGNOSTYKA BŁĘDÓW w UKŁADACH DYNAMICZNYCH ............. 25 3.1. Systemy FDD oparte o redundancję sprzętową i analityczną.......................................... 25 3.2. Systemy detekcji i diagnostyki błędów FDD oparte o wiedzę ........................................ 26 3.3. Modelowanie dynamiki procesu i modelowanie generatorów residuów......................... 28 3.4. Generator residuów oparty o równania parytetów ........................................................... 31 3.5. Generator residuów oparty o identyfikację parametrów (wersja dyskretna i ciągła) ...... 35 3.6. Generator residuów oparty o asymptotyczne obserwatory stanu i wyjścia ..................... 39 3.6.1. Asymptotyczne obserwatory stanu ............................................................................ 39 3.6.2. Asymptotyczne obserwatory wyjścia w detekcji błędów .......................................... 41 4. ALGORYTMY IDENTYFIKACJI I OBSERWACJI ZE SKOŃCZONĄ PAMIĘCIĄ ........ 44 4.1. Wstęp ............................................................................................................................... 44 4.2. Metody identyfikacji liniowego systemu ciągłego na skończonym przedziale T ........... 47 4.2.1. Identyfikacja systemu ciągłego metodą Equation Error........................................... 47 4.2.2. Identyfikacja systemu ciągłego na oknie przesuwnym o szerokości TID .................. 55 4.2.3. Prosty przykład analityczny zastosowania metody identyfikacji ............................. 56 4.2.4. Identyfikacja systemu ciągłego metodą Output Error. Ciągła wersja metody MNK ......................................................................................................................... 58 4.3. Metody dokładnej obserwacji stanu liniowego systemu ciągłego na skończonym przedziale T .......................................................................................... 60 4.3.1. Całkowe dokładne obserwatory stanu początkowego x(0) ...................................... 62 4.3.2. Całkowe dokładne obserwatory stanu końcowego x(T) ........................................... 64 4.3.3. Obserwatory całkowe stanu bieżącego x(t) na oknie przesuwnym .......................... 67 4.3.4. Przykład wyliczania macierzy obserwatora ............................................................. 68 4.3.5. Nowa koncepcja obserwatora MWO o podwójnym oknie obserwacji ..................... 69 2.

(4) SPIS TREŚCI. 5. MODELE PROCESÓW I ICH WYKORZYSTANIE DO DIAGNOSTYKI ........................ 73 5.1. Problemy parametryzacji modeli dynamicznych ............................................................. 73 5.2. Model struktury kaskadowej połączeń 3 różnych zbiorników ........................................ 85 5.3. Model struktury szeregowej połączenia 2-ch różnych zbiorników ................................. 87 5.4. Model struktury szeregowej połączenia 3-ch różnych zbiorników ................................. 88 5.5. Modele fizyczne używane w testach diagnostyki ............................................................ 91 5.6. Opis stanowiska badawczego i eksperymentów fizycznych ........................................... 93 5.6.1. Stanowisko układu kaskadowego 3-go rzędu ........................................................... 93 5.6.2. Eksperymenty badawcze, praktyczne i symulacyjne ................................................ 95 5.7. Analiza złożoności obliczeniowej przy weryfikacji hipotez ........................................... 101 6. TRANSFORMACJA DO POSTACI NATURALNYCH ZMIENNYCH STANU ............... 107 6.1. Podstawowe formuły ....................................................................................................... 107 6.2. Naturalne zmienne stanu dla systemu kaskadowego zbiorników .................................... 110 6.3. Naturalne zmienne stanu dla systemu szeregowego zbiorników..................................... 113 6.3.1. Naturalne zmienne stanu dla systemu szeregowego 2-go rzędu ............................. 113 6.3.2. Naturalne zmienne stanu dla systemu szeregowego 3-go rzędu ............................. 114 7. PROCEDURY FDI dla DETEKCJI i IDENTYFIKACJI AWARII ZAWORÓW ................. 116 7.1. Opis procedur FDI dedykowanych dla systemu kaskadowego ....................................... 116 7.2. Opis procedur FDI dedykowanych dla systemu szeregowego ........................................ 120 7.2.1. Opis procedur FDI dedykowanych dla systemu szeregowego 2-go rzędu ............... 120 7.2.2. Opis procedur FDI dedykowanych dla systemu szeregowego 3-go rzędu ............... 122 7.2.3. Opis procedur FDI dedykowanych dla systemów szeregowych wyższych rzędów .. 125 7.3. Opis uniwersalnej procedury FDI dla systemu kaskadowego lub szeregowego ............. 128 7.4. Uwagi na temat numerycznych aspektów użytych algorytmów ..................................... 130 8. WYBRANE ALGORYTMY FDI dla DETEKCJI AWARII ZAWORÓW ........................... 135 8.1. Algorytm FDI dla systemów o znanej strukturze i znanych parametrach ....................... 135 8.2. Algorytm FDI dla systemów o znanej strukturze i znanych parametrach ....................... 137 8.3. Algorytm FDI dla systemów o nieznanej strukturze i nieznanych parametrach ............. 138 9. TESTY PROGRAMOWE PODSTAWOWYCH ALGORYTMÓW IDENTYFIKACJI i OBSERWACJI ...................................................................................................................... 143 9.1. Testy identyfikacji parametrów, na skończonym oknie pomiarowym ............................ 143 9.2. Testy dokładnej obserwacji stanu końcowego, na skończonym oknie pomiarowym ..... 149 9.3. Testy obserwacji momentu awarii i diagnostyka obserwatorem podwójnym ................. 153 3.

(5) SPIS TREŚCI. 10. PODSUMOWANIE ............................................................................................................. 162 W. WYKAZ OZNACZEŃ ........................................................................................................ 169 L. LITERATURA.................................................................................................................... 170. 4.

(6) 1 1. WSTĘP Praca poświęcona jest metodom diagnostyki, opartym o model, sytuacji awaryjnych zachodzących w procesach dynamicznych, dla wybranej klasy systemów. Sytuacje awaryjne będą rozumiane, jako nagłe (skokowe) zmiany nieznanych parametrów procesów, czyli będą zaliczane do tzw. multiplikatywnych zakłóceń parametrycznych. Dla diagnostyki będą wykorzystane metody redundancji analitycznej, bazujące na modelach matematycznych i na procedurach symulacji zachowania się procesu przed i po awarii oraz na porównaniu wyników z zarejestrowanym przebiegiem. Procedury symulacji procesów dynamicznych powinny wykorzystywać z jednej strony, możliwie dokładne modele matematyczne, które z drugiej strony powinny być identyfikowane i weryfikowane w oparciu o minimalny zestaw informacji pomiarowej procesu rzeczywistego. Podstawowym problemem w tej metodologii jest brak informacji o wartościach rzeczywistych parametrów procesowych, które decydują o zachowaniu się procesu, a stąd trudności w dokładnym modelowaniu i symulacji procesu oraz jego awarii. Standardowe procedury identyfikacji parametrycznej modeli wejście-wyjście dostarczają, bowiem informacji o symbolicznych parametrach zagregowanych, będących nieliniowymi funkcjami parametrów rzeczywistych. Procedury rozwiązywania zestawu tych funkcji mogą nie dać jednoznacznego rozwiązania na parametry rzeczywiste, stąd ta droga zwykle zniechęca badaczy do diagnostyki dokładnego modelu procesu. Dodatkowo, jak wynika z przeglądu literatury, same procedury identyfikacji i obserwacji stanu wykorzystywane powszechnie w dotychczasowych badaniach diagnostyki, mają z reguły charakter iteracyjny dostarczając wyników w sposób asymptotyczny, ze zmieniającym się w czasie nieznanym błędem. Korzystając z tej metodologii należy się, więc liczyć z istnieniem dodatkowej niepewności przy ocenie przyczyn awarii. Autor postanowił przebadać przydatność do zadań diagnostyki pewnych nowych metod identyfikacji parametrów i tzw. dokładnej obserwacji stanu (a nie metod powszechnie stosowanych, z użyciem asymptotycznych obserwatorów). Wysoką efektywność tych metod autor potwierdził we wcześniejszych badaniach, testach i publikacjach z analizy systemowej procesów dynamicznych.. 5.

(7) 1. WSTĘP. Podstawowym założeniem przyjmowanym powszechnie przez badaczy metod diagnostycznych w oparciu o model jest przyjęcie, że badany proces jest wyposażony w kompletny zestaw czujników pomiarowych wszystkich zmiennych stanu procesu oraz czujników monitorujących stan techniczny urządzeń wykonawczych. Przedmiotem badań jest wtedy określenie wiarygodności tych czujników (ich awarii) oraz detekcja awarii strukturalnych (np. wycieki). W takiej sytuacji, rejestrowanie i identyfikacja innych awarii może nie stanowić problemu. Zdarzają się jednak procesy, czy układy, z dynamiką wyższego rzędu, w których montaż czujników monitorujących pełen stan, nie jest możliwy, czy to ze względów konstrukcyjnych, czy ze względu na koszty. Przykładowo, większość małych instalacji przemysłowych, ze względów ekonomicznych wyposażona jest tylko w podstawowy zestaw pomiarowo-monitorujący (minimalizacja liczby czujników), dotyczący tylko zmiennych wyjściowych, na jakie chcemy oddziaływać sterowaniem, a nie wszystkich zmiennych stanu. Również, żywotność drogich platynowych czujników temperatury np. w piecach do wytopu szkła, jest bardzo krótka. Problem badawczy postawiony i rozwiązany w pracy jest związany z pytaniem, czy przy minimalnej informacji, jaka dostępna jest w każdej instalacji procesowej, wyposażonej w podstawową aparaturę kontrolno-pomiarową dla wybranych zmiennych regulowanych, nie zawierającą podsystemu diagnostyki awarii, jest możliwym prawidłowa ocena historii zmian procesu, na podstawie tylko dodatkowego przetworzenia tej informacji. Proponowana w pracy metodologia diagnostyki, musi wykorzystać tą informację, poddając ją zaawansowanym algorytmom przetwarzania. Metodologia ta wymaga, więc wiedzy o tych algorytmach i wiedzy o systemach dynamicznych, a do realizacji tych algorytmów wystarczający będzie dostępny sprzęt komputerowy klasy PC. Cena takiego sprzętu może być wielokrotnie tańsza, niż koszt specjalizowanych czujników i przetworników sygnałów. W pracy pokazano, że wykonując sukcesywną rejestrację sytuacji procesowej i posługując się symulatorem procesu, zasilanym dostępną informacją oraz wykorzystując algorytmy przetwarzania, można odtworzyć prawidłowo miejsce awarii, jaka zdarzyła się w procesie. W wielu instalacjach systemy monitoringu (SCADA) standardowo wykonują taką akwizycję danych pomiarowych, dla bezpieczeństwa lub analizy jakościowej produkcji. Zgodnie z tytułem pracy, zostaną w niej omówione, nowe zaawansowane algorytmy przetwarzania danych pomiarowych dostępnych w trakcie obserwacji systemu dynamicznego, w celu wydobycia z tych danych ukrytej w nich dodatkowej informacji o zdarzeniach, jakie pojawiły się w systemie. Oprócz opisu wybranych metod przetwarzania informacji, 6.

(8) 1. WSTĘP. przedstawione zostaną odpowiednie algorytmy diagnostyki. Dla testów tych algorytmów, w ramach pracy autor stworzył obszerną platformę programową umożliwiającą ich wdrożenie. Pod pojęciem systemu dynamicznego rozumieć będziemy każdy dostępny do obserwacji system, w którym wartości jego parametrów i wartości innych jego zmiennych procesowych mogą się zmieniać w dziedzinie czasu. Klasa rozpatrywanych systemów dynamicznych zostanie ograniczona do systemów deterministycznych, dla których można sądzić, że ich zachowanie podlega znanym prawom przyrody, a sygnały sterujące u i sygnały wyjściowe y są mierzalne. Jednoznaczne zachowanie systemu jest odwzorowane przez jego model, w którym występują parametry α i wewnętrzny stan x(t). Parametry są reprezentowane przez wektor liczb rzeczywistych, a stan x(t) jest reprezentowany przez wektor funkcji czasu, (dla wybranej chwili t, stan jest też wektorem liczb rzeczywistych). Dla spełnienia swego przeznaczenia system jest sterowany sygnałami u(t), które również są funkcjami czasu i są dostępne do pomiaru dla obserwatora. Zachowanie systemu w czasie można ocenić poprzez obserwację jego zmiennych wyjścia y(t). Projektant (operator) definiuje te wyjścia, biorąc pod uwagę dostępność do pomiaru zmiennych procesowych lub opłacalność tworzenia nowych punktów pomiarowych. Dla budowy ciągłych w czasie modeli dynamicznych używa się równań różniczkowych. Zrozumienie i zdefiniowanie pojęcia pochodnej i całki stało się w 17 wieku, matematycznym fundamentem opisu świata rzeczywistego. Najpowszechniej stosowaną klasą modeli dynamicznych są skończenie wymiarowe modele liniowe, stacjonarne o stałych parametrach skupionych w punkcie, zwane skrótowo w języku angielskim Linear Time Invariant Systems LTI. Są one opisywane liniowymi równaniami różniczkowymi zwyczajnymi. Dla tej klasy modeli znana jest kompletna teoria ich analizy i syntezy i znane są warunki konieczne i wystarczające istnienia rozwiązań. Dla innych ogólniejszych modeli, np. nieskończenie wymiarowych lub nieliniowych lub niestacjonarnych bądź o parametrach rozproszonych w przestrzeni, nie zdołano stworzyć tak ogólnych kompleksowych wyników. W praktyce są, więc one rozważane, jako indywidualne przypadki, dla których daje się sformułować często tylko warunki wystarczające lub tylko konieczne. Ten fakt sprawił, że w inżynierii dąży się do takiej aproksymacji rzeczywistości, aby dobór modeli LTI był możliwy i dawał dobry opis rzeczywistości przynajmniej lokalnie.. 7.

(9) 1. WSTĘP. Modele matematyczne służą do opisu zachowań zjawisk przyrody, systemów technologicznych, ekonomicznych, biznesowych, społecznych, a nawet biologicznych. Modele te przedstawiają sobą matematyczną abstrakcję o znanych własnościach, opisującą nie do końca poznany proces fizyczny. Testowanie modelu, dobrze dobranego do rzeczywistego procesu, potrafi w bezpieczny sposób odsłonić mało eksploatowane w praktyce punkty pracy tego procesu, jak również umożliwia symulacyjny trening operatorów. Produkcja komputerowych symulatorów objęła nie tylko różne typy pojazdów lądowych (np. czołgi), powietrznych (samoloty) i wodnych (łodzie podwodne), ale również procesy technologiczne (reaktory) i biznesowe (giełda). Zasadniczo rozróżnia się dwa podejścia do modelowania procesów. Pierwsze odnosi się do modelowania systemów o parametrach rozłożonych w czasie i przestrzeni, takich jak zjawiska przyrody, zachowania pogody czy trudne procesy technologiczne takie jak wytop szkła. Podejście to znajduje również zastosowanie w modelowaniu naprężeń w dużych konstrukcjach mechanicznych takich jak kopuła dachu czy skrzydło samolotu i przy budowie dużych urządzeń takich jak turbiny czy silniki. Te zadania modelowania są rozwiązywane numerycznie za pomocą komputerów i oprogramowania typu FEM, a czas rozwiązywania w zależności od wymiarowości może sięgać od kilku do 500 godzin. Do tego celu służą duże zbiory (nawet do 500 tysięcy) równań różniczkowych opisujących za pomocą metody elementu skończonego MES (Finite Element Method FEM) zachowanie się małych elementów procesu lub fragmentów konstrukcji sąsiadujących ze sobą [1ZIE]. To pierwsze podejście służy, więc głównie projektantom instalacji procesowych na etapie ich projektowania, np. przy projektowaniu kształtu i geometrii pieca szklarskiego, sprawdzania wytrzymałości dachu i wytrzymałości wysokociśnieniowego zbiornika pary lub sprawdzania podatności na drgania poszczególnych fragmentów skrzydła czy elementów turbiny pracującej wokół częstotliwości wirowania wirnika. Metodologia modelowania FEM, może jednak również służyć do diagnozowania stanu bezpieczeństwa eksploatacji konstrukcji mechanicznych. Np. uproszczony model o parametrach rozłożonych typu FEM kotła wysokociśnieniowego, weryfikowany danymi z kilku miejscowych czujników tensometrycznych naprężenia, może wskazać inne niemierzone miejsca, w których naprężenia, stają się niebezpieczne. Dla celów sterowania i diagnostyki częściej jednak stosuje się drugie podejście do modelowania. W tym wypadku wymogiem podstawowym jest, bowiem, czas rozwiązywania modelu. W tym celu buduje się modele uproszczone o parametrach skupionych w czasie i przestrzeni, uwzględniające tylko zasadnicze związki przyczynowe np. modele dla opisu 8.

(10) 1. WSTĘP. dynamiki zmian temperatury szkła w wybranych punktach wanny szklarskiej w funkcji przepływu gazu grzewczego i kilku wybranych parametrów wanny. Inne parametry konstrukcji nie są dla nich istotne. Dla celów diagnostyki on-line to drugie podejście ma większy sens. Jednak dla niektórych procesów rzeczywistych, również to drugie podejście może napotykać na trudności przy modelowaniu, spowodowane bogactwem ich zachowań w stosunku do możliwości ich obserwacji i przewidywania. Dotyczy to zwłaszcza procesów o dużej wymiarowości. Przy wystąpieniu wielości nieznanych oddziaływań przyczynowych, zadanie budowy modeli deterministycznych bardzo się komplikuje. Rozważa się wtedy konstrukcję uproszczonych modeli stochastycznych, operujących na wielkościach uśrednionych sygnałów losowych, takich jak mediana, wariancja, odchylenie standardowe itd. Dotyczy to np. modeli cen akcji giełdowych czy modeli ruchu drogowego. Dotyczy to również sytuacji, gdy dużą rolę odgrywają losowe warunki początkowe oraz szumy pomiarowe o znanych parametrach statystycznych, ale które są nieróżniczkowalne. Stąd lepiej proces opisywać równaniem różniczkowym stochastycznym, [1OKS], tzn. operującym na nieskończenie małych przyrostach zmiennych procesowych i np. na nieskończenie małych przyrostach ruchu Browna. Całkiem innym podejściem do modelowania i diagnostyki dla złożonych i nieliniowych procesów jest użycie modeli aproksymacyjnych, np. modeli neuronowych [1PLO]. Dla modelowania struktur i zachowań procesów, które współdziałają z innymi procesami w ich otoczeniu, w naukach systemowych i informatyce operuje się pojęciem modeli kontekstowych. Otoczenie procesu ma decydujące znaczenie dla takich modeli, a narzędziami opisu są schematy blokowe i języki obiektowe (UML), [1SAM], [1STR]. W krańcowych przypadkach, przy braku koncepcji tworzenia modeli przyczynowych, projektant mając do dyspozycji olbrzymie zasoby, czasami nieuporządkowanych, danych pomiarowych i obserwacyjnych, które są zeskładowane w bazach i hurtowniach danych, może zlecić komputerowi eksplorację tych zasobów w celu odkrycia jakichś prawidłowości, zasad i ustalenia ewentualnie ich powiązań korelacyjnych. Od początku lat 90-tych termin eksploracja danych, ekstrakcja danych, drążenie danych, wydobywanie danych, zgłębianie danych, pozyskiwanie wiedzy (Data Mining - DM, Knowledge Discovery in Databases - KDD) oznacza dziedzinę szczególnie eksploatowaną w naukach informatyczno-inżynierskich [1FRA]. Wiążą się z tą tematyką takie pojęcia jak uczenie maszynowe, sztuczna inteligencja, logika rozmyta, wnioskowanie statystyczne, weryfikacja hipotez, diagnostyka, drzewa decyzyjne, sieci neuronowe, indukcja reguł, najbliższego sąsiedztwa i algorytmy ewolucyjne. Technologie KDD można zastosować w rozpoznawaniu obrazów i mowy, diagnostyce medycznej, badaniach 9.

(11) 1. WSTĘP. genetycznych, prognozowaniu ryzyka kredytowego czy popytu, wykrywaniu danych skojarzonych, rozpoznawaniu zachowań klienta. Zastosowanie KDD w tematyce biznesowej wykorzystuje różne narzędzia np. technologie OLAP (On-Line Analytical Processing), gdy użytkownik posiada już pewną wiedzę o przedmiocie analizy. Jak stwierdzono na wstępie, w niniejszej pracy autor chciałby się zająć systemami deterministycznymi, dla których można stworzyć przyczynowe modele dynamiczne LTI, o parametrach skupionych, o których wspomniano na poprzedniej stronie. Wykorzystanie takich modeli dla celów diagnostyki, jest jedną z metodologii, jaką stosuje się od wielu lat (Model Base Approach) [1SIM], [1DIN]. W tym obszarze nauki ciągle jeszcze można proponować nowe metody badawcze, wydajniejsze i bardziej dokładne od dotychczas stosowanych. Polegają one na odkrywanie nowych nietypowych metod zaawansowanego przetwarzania danych pomiarowych, w celu wydobycia z nich informacji diagnostycznych o systemie. W niniejszej pracy zostanie przyjęte podstawowe założenie, że dla rozważanego systemu dynamicznego, istnieje odpowiedni model typu LTI, a więc że między pochodnymi zmiennych stanu istnieją zależności liniowe. Nie są jednak znane parametry systemu i może nie być znany jego rząd. Nie ma też dostępu pomiarowego do rzeczywistych zmiennych stanu, a tylko do wybranych jego wyjść, dla których pewność pomiaru jest możliwa do weryfikacji, nie muszą, więc być one objęte podsystemem diagnostyki. Ocena występujących w takim systemie zdarzeń typu awarii - powolnej lub nagłej zmiany jego parametrów procesowych lub stanu była przedmiotem wielu badań. We wszystkich tych badaniach wykorzystywano różne techniki estymacji residuów, w większości jednak używano rekurencyjnych metod numerycznych, które z racji asymptotycznej zbieżności nie zawsze mogły dostarczyć precyzyjnych danych o czasie o model (Model Based Approach) nie zawsze, więc gwarantowały dobre rezultaty. Szczególne kłopoty pojawiały się dla systemów wysokiego rzędu. Rząd równania różniczkowego jest ściśle związany z ilością pojemności czy zbiorników energii, zbiorników cieczy lub substancji, jakie składają się na cały system. Z reguły identyfikowane są parametry zagregowane, których zaobserwowane zmiany nie dają jednoznacznej odpowiedzi o zmianach parametrów procesowych. W niniejszej pracy zostanie przedstawiona dyskusja o transformacjach pomiędzy parametrami zagregowanymi i procesowymi (rzeczywistymi) oraz zostaną przedstawione i wykorzystane nietypowe, nieasymptotyczne, całkowo-splotowe algorytmy identyfikacji stanu i parametrów, działające na skończonych oknach przesuwnych, których długość może być zmieniana i które odtwarzają dokładne wartości stanu i parametrów. Algorytmy te nie reprezentują, więc estymatorów, a raczej są rekonstruktorami, które gwarantują precyzyjne 10.

(12) 1. WSTĘP. odtworzenie stanu i parametrów w wybranej chwili czasu. W pracy zostanie zaprezentowany pomysł na specjalny algorytm koordynacji ich współpracy, co pozwoli na dokładną lokalizację zakłóceń parametrów procesowych. Może to mieć ważne zastosowanie w diagnostyce procesów technicznych. Implementacja tych algorytmów wymaga wzmożonej mocy obliczeniowej, stąd w przeszłości nie mogły być one wykorzystane w procedurach on-line. Autor nie spotkał w literaturze wykorzystania takich metod i ich specjalnej kooperacji, jako metodologii diagnostycznej, stąd podjął się w tej pracy badawczej, pokazania konstrukcji specjalnej struktury diagnostycznej dla obiektu G i prezentacji pozytywnych efektów wykorzystania tego pomysłu, (Rys.1.1).. DIAGNOSTYKA Odtwarzanie stanu x Odtwarzanie zdarzenia Odtwarzanie parametrów α. u(t). G(α,x). y(t). Zdarzenie. Rys.1.1 Struktura funkcjonalna modułu diagnostyki. 11.

(13) 2 2. ZAKRES i TEZY PRACY W nowoczesnych kompleksowych systemach produkcji, podstawową funkcję kontrolno-pomiarową pełnią dziś komputerowe systemy monitoringu i sterowania. Użycie do tego celu sprzętu programowalnego jest nieodzowne w związku koniecznością nadzoru online zmiennych procesowych, których liczba w zależności od wielkości instalacji czy całego zakładu może wahać się od dziesiątek (automatyka lokalnej kotłowni) do dziesiątek tysięcy (elektrociepłownia). Wiedza na temat integracji różnorodnych platform informatycznych i wykorzystania najnowszych narzędzi programistycznych i sprzętowych dla powyższych celów tworzy dział, który wchodzi w skład specjalności nazywanej niekiedy Informatyką Techniczną, Informatyką Przemysłową lub ogólniej Informatyką Stosowaną. Dział ten nie zajmuje się tworzeniem nowych narzędzi programowania dla Informatyki, takich jak konstrukcje nowych kompilatorów, systemów operacyjnych, sieciowych systemów rozpraszania zasobów komputerowych czy systemów baz danych. Specjaliści Informatyki Technicznej muszą wykazać się raczej znajomością profesjonalnego tworzenia oprogramowania czasu rzeczywistego, przy jednoczesnej wiedzy na temat wydajnych metod przetwarzania informacji w technice. Widać wyraźne powiązania Informatyki Technicznej z Informatykę Zarządzania zajmującą się zbieraniem i przetwarzaniem informacji dla celów zarządzania. Dzisiaj często te dwie specjalności występują w dużych nowoczesnych wielozakładowych przedsiębiorstwach, jako komputerowe systemy zintegrowane CIM (Computer Integrated Systems), w hierarchicznej wielopoziomowej i wielowarstwowej strukturze zarządzania i sterowania. Występuje tu zróżnicowanie poziomów tak w warstwie sprzętowej jak i programowej. Najniższy poziom (Primary Control lub Direct Digital Control) zawiera problematykę czasu rzeczywistego dla programowalnych cyfrowych przetworników i sterowników PLC z wykorzystaniem różnych protokołów komunikacyjnych i interfejsów przemysłowych (np. Profibus, Modbus). Poziom wyższy, zwany poziomem sterowania nadrzędnego (Supervisory Control) wiąże się z zagadnieniem oprogramowania systemów z wykorzystaniem systemów monitoringu i wizualizacji typu SCADA (Supervisory Control and Data Acquisition). Systemy te są odpowiedzialne za tworzenie bazy danych pomiarowych 12.

(14) 2. ZAKRES i TEZY PRACY. czasu rzeczywistego i realizują utrzymanie procesu w optymalnych reżimach pracy ustalonej, dbając również o optymalność dynamiki procesów przejściowych i wyznaczając optymalne nastawy regulatorów. Na jeszcze wyższym poziomie można umieścić tzw. systemy MES (Manufacturing Execution Systems), które wyposażone w bazy wiedzy i reguły eksperckie wykazują cechy inteligentnego operatora, określając optymalne punkty pracy ustalonej, które przekazują do systemu SCADA i realizując elementy harmonogramowania produkcji wytyczają jej krótko-horyzontalne plany. Na tym poziomie przetwarzania informacji można też umieścić coraz bardziej rozwijającą się dziedzinę informatyki technicznej - systemy nadzoru i oceny sytuacji awaryjnych oraz błędnego działania systemu technologicznego (instalacja) lub technicznego (samolot). Te algorytmy realizują więc procedury, które można nazwać diagnostyką procesu. Efektem diagnozy może być uruchomienie awaryjnego algorytmu sterowania lub w sytuacji krytycznej automatyczne zatrzymanie i zamknięcie cyklu produkcyjnego ESS (Emergency Shutdown Systems). Oprogramowanie na poziomie najwyższym przedsiębiorstwa, dotyczy głównie oprogramowania systemu MRPII (Manufacturing Resource Planning) i dotyczy globalnego systemu informatycznego zarządzania przedsiębiorstwem we wszystkich jego filiach, komórkach i ich działach: produkcji, magazynowania, transportu, zaopatrzenia, sprzedaży, marketingu, kadr i finansów. Może on też dotyczyć wspomagania zarządzaniem firmą w długofalowych (wieloletnich) cyklach produkcji. Hierarchiczny schemat poziomów oprogramowania widać na Rys.2.1.. MRP. MES SCADA SYSTEM. DIRECT DIGITAL CONTROL. Rys.2.1 Wielopoziomowy system informatyczny sterowania i zarządzania. Schemat ten nałożony na hierarchiczną strukturę samego przedsiębiorstwa produkującego produkty od A do Z, pokazuje przenikanie się struktur zarządzania i produkcji oraz stopień zaangażowania poszczególnych zadań informatycznych na poszczególnych poziomach przedsiębiorstwa, Rys.2.2.. 13.

(15) 2. ZAKRES i TEZY PRACY. W szczególnym przypadku struktury ściśle hierarchicznej charakterystycznym jest:. •. jednokierunkowy przepływ decyzji sterujących i zarządzających „w dół”,. •. możliwość objęcia informacyjnym sprzężeniem zwrotnym „z dołu do góry” wszystkich poziomów,. •. brak połączeń informacyjnych poziomych w obrębie jednego poziomu.. PRZEDSIĘBIORSTWO. FABRYKA 2. FABRYKA 1. ZAKŁAD 1. INSTALACJA 1. A. B. ……. MRP. ……. FABRYKA N. MRP + MES. ZAKŁAD 3. MES + SCADA. SCADA+DDC. INSTALACJA 2. C. D. ……. U. X. Y. W. Z. A PRODUK T. PRZEDSIĘBIORSTWA. Rys.2.2 Hierarchiczna struktura funkcjonalna przedsiębiorstwa i zadania informatyczne. Z Rys.2.2 widać, że zadania informatyczne w wielopoziomowym komputerowym systemie informatycznym CIM, muszą dotyczyć nie tylko oprogramowania merytorycznych zadań gwarantujących sprawną działalność firmy (logistyka, nadzór, zarządzanie, sterowanie), ale również muszą gwarantować niezawodną i sprawną komunikację międzyzadaniową i międzypoziomową (technologie OPC, .COM, CORBA, [2BYJ1], [2BYJ2], [2BYJ3], [2BYJ4]. W związku z tym, że tematyka niniejszej pracy będzie usytuowana głównie w poziomach oprogramowania MES – SCADA i ewentualnie SCADA – DDC przedstawione zostaną skrótowo dokładniejsze struktury i zadania tych dwóch poziomów. W obu tych poziomach kluczową role pełnią systemy ze sprzężeniem zwrotnym. W szczególności na pierwszym poziomie tej struktury hierarchicznej, czyli sterowania bezpośredniego DDC, pomimo ciągłego rozwoju różnych algorytmów i zastosowania w nowoczesnych technologiach produkcyjnych. programowalnego. i. komputerowego. sprzętu. automatyki,. struktura. podstawowego schematu regulacji ze sprzężeniem zwrotnym pozostaje niezmienna. Oprócz obiektu sterowania G, występują tu: statyczny lub dynamiczny człon regulatora R reprezentujący algorytm sterujący, człon wykonawczy W realizujący ten algorytm, elementy pomiarowe i przetwarzające sygnały oraz tory przesyłające informację. Kluczowym elementem 14.

(16) 2. ZAKRES i TEZY PRACY. systemu jest obiekt regulacji G, którego zachowanie operator musi nadzorować. Układ sterowania musi być zamknięty sprzężeniem zwrotnym, gdy zachodzi, choć jedna z trzech okoliczności:. • model dynamiczny obiektu regulacji G jest słabo rozpoznany, • model dynamiczny obiektu jest znany, ale jest niestabilny w punkcie pracy, • nie ma gwarancji, że w trakcie procesu sterowania nie wystąpią zakłócenia i awarie. Zastosowanie ujemnego sprzężenia zwrotnego z odpowiednim regulatorem sterującym we wszystkich tych przypadkach gwarantuje lepsze lub gorsze wypełnienie dwóch podstawowych zadań sterowania:. • nadążanie za sygnałem referencyjnym r, podawanym przez operatora lub przez system nadrzędnego sterowania – z reguły określającym nowy punkt pracy obiektu, oraz • stabilizację pracy obiektu w osiągniętym punkcie pracy, bez względu na niepewność modelu i działające zakłócenia. Wśród wielu zadań teorii regulacji i sterowania, jakie były rozwiązywane od lat trzydziestych 20-go wieku wymienia się metody modelowania matematycznego dynamiki procesów, dobór struktury i metod strojenia regulatorów PID, optymalizację kształtu sterowania. Wraz z rozwojem techniki komputerowej algorytmy sterowania obejmują coraz trudniejsze problemy, głównie związane z nieliniowościami procesów. W związku z tym w latach 70-tych, pojawia się pojęcie sterowania adaptacyjnego i rozwijają się badania nad algorytmami regulatorów adaptacyjnych. Z tym tematem wiążą się ściśle badania nowych algorytmów identyfikacji parametrów obiektów regulacji. Przyjmuje się, że parametry te, w pewnym rozsądnym zakresie, mogą ewoluować w trakcie procesu sterowania, czy to ze względu na swoją niestacjonarność, czy ze względu na linearyzację modeli nieliniowych w różnych punktach pracy (np. zmienna aerodynamika samolotu w zależności od wysokości i prędkości lotu). Regulatory adaptacyjne wykorzystują aktualne informacje o modelu obiektu i dostosowują swoje parametry, a nawet strukturę do aktualnego obiektu. Są, więc lepsze i bardziej niezawodne w zadaniach sterowania niż regulatory klasyczne. Powyższe badania są wynikiem troski projektantów o podniesienie jakości systemów sterowania. W latach 80-tych do tych badań doszedł jeszcze jeden aspekt - troska o podniesienie niezawodności i bezpieczeństwa systemów sterowanych. W związku z szeregiem katastrof samolotowych, katastroficznych awarii elektrowni (Czarnobyl) i zakładów chemicznych (Bhopal) w latach 80tych. i. 90-tych. międzynarodowe. komisje. ustanawiają. standardy. bezpieczeństwa. programowalnych systemów sterowania. Jednoznacznie definiuje się układy automatyki. 15.

(17) 2. ZAKRES i TEZY PRACY. procesowej (Distributed Control Systems) i układy automatyki zabezpieczającej (Safety. Instrumented Systems). Pierwsze pracują z reguły w konfiguracji systemu ciągłego sterowania nadrzędnego dla znalezienia optymalnego punktu pracy i utrzymania procesu w pobliżu tego punktu. Drugie mają gwarantować pozostawanie obiektu w obszarze stabilności i w bezpiecznej odległości od ograniczeń. Zalecane jest nie umieszczanie obu typów algorytmów w jednym urządzeniu sprzętowym (sterowniku PLC czy przemysłowym komputerze sterującym IPC). W latach 80-tych, wraz z rozwojem stosowalności sprzętu komputerowego w przemyśle, zaczęto też rozwijać badania rozszerzające dalej metodologię podnoszenia niezawodności i bezpieczeństwa systemów. Nowymi zadaniami inżynierii komputerowej stało się wcześniejsze wykrywanie błędów i awarii, zanim jeszcze doprowadzą do wysokiego zagrożenia. To pole badawcze nazwano diagnostyką systemu. Rozwój używanych w tym celu metod matematycznych inżynierii wiedzy, algorytmów i zaawansowanych narzędzi informatycznych (np. język PROLOG, CLP), spowodował, że dziś dział ten stał się też polem zainteresowania nauk informatycznych i informatyki stosowanej. W kraju, od 1996 r. organizowane są specjalne konferencje naukowe, najpierw pod nazwą Diagnostyka Procesów Przemysłowych, a od 2007 r. Diagnostyka Procesów i Systemów. Materiały tych międzynarodowych konferencji (organizowanych od 1999 roku, co 2 lata), zawierają szerokie spektrum badań i wyników teorii i praktyki diagnostycznej np. [2KOR1], [2KOR3], [2KOW], [2DPS] (również wydania zagraniczne [2KOR2], [2KOR4]). Systemy technologiczne są czułe na występowanie błędów. Błędy urządzeń nastawczych i wykonawczych zmniejszają jakość systemów sterowania, a w końcu mogą doprowadzić do ich awarii. Błędne odczyty czujników mogą być przyczyną wyboru przez operatora nieoptymalnego punktu pracy układu lub nawet niedopuszczalnego punktu pracy. Zużycie techniczne obiektu sterowania zmniejsza wydajność linii produkcyjnych, ale w przypadkach krańcowych może doprowadzić do katastrofy. W wielu sytuacjach regulatory adaptacyjne nie są w stanie dostosować swoich własności dla utrzymania procesu w dopuszczalnym reżimie pracy. Wtedy powinno się zatrzymać proces produkcyjny dla uniknięcia jego zniszczenia, a nawet wystąpienia katastrofy. Na wszystkie zmienne procesowe i sterowania narzucone są ograniczenia dolne i górne ich wartości. Ograniczenia te związane są z technicznymi możliwościami instalacji (procesu). Należą do nich np. maksymalne ciśnienie, które wytrzymuje jeszcze zbiornik, minimalna dla danej wysokości prędkość samolotu (prędkość przeciągnięcia), maksymalny przepływ medium 16.

(18) 2. ZAKRES i TEZY PRACY. przy pełnym otwarciu zaworu, zerowy minimalny przepływ medium przy pełnym zamknięciu zaworu, maksymalna możliwa temperatura przy pełnej mocy grzewczej. Te wartości, jakkolwiek możliwe do uzyskania, z reguły nie są dopuszczalne w procesie produkcji, gdyż każda instalacja jest projektowana do pracy w jednym lub kilku punktach nominalnych leżących wewnątrz ograniczeń technicznych. Z reguły punkt pracy z aktywnym jakimkolwiek ograniczeniem technicznym, nie nadaje się do sensownej produkcji, a jego przekroczenie, może wiązać się już z wystąpieniem awarii. Na zmienne procesowe muszą, więc być narzucone bardziej realne ograniczenia, które można nazwać technologicznymi. Gwarantują one poprawność produkcji i uzyskiwanie produktu o gorszych lub lepszych własnościach. Pożądane indywidualne własności można zaliczyć do jeszcze jednych ograniczeń, zwanych marketingowymi i również one powinny być spełnione. Ograniczenia technologiczne w przestrzeni zmiennych procesowych mogą przyjmować bardziej złożone zależności funkcyjne niż typu proste mini-max. Wewnątrz ograniczeń technologicznych usytuowany jest region. optymalnych wartości zmiennych procesowych, przy których produkt zachowuje żądane ograniczenia marketingowe (jakość), a jednocześnie koszty produkcji są najniższe (zysk maksymalny), Rys.2.3. Naruszenie ograniczeń technicznych prowadzi do uszkodzeń, awarii i katastrof. Jak było to już powiedziane instalacja jest projektowana do pracy wewnątrz dopuszczalnych ograniczeń technologicznych, gdzie produkuje się produkty o różnych własnościach. y. Ograniczenia techniczne. Obszar w którym zagrożone jest bezpieczeństwo procesu Obszar niedopuszczalnych jakościowo punktów pracy ESS. Obszar dopuszczalnych punktów pracy Obszar optymalnych punktów pracy PID. RA STR Ograniczenia technologiczne. FTC. u Rys.2.3. Obszary pracy procesu technologicznego. Regulatory klasyczne PID stabilizują proces w optymalnym punkcie pracy. Głównym celem pracy regulatorów adaptacyjnych typu Self-Tuning STR, jest sprowadzanie procesu z dopuszczalnego obszaru pracy instalacji do optymalnego punktu pracy. W obszarze. 17.

(19) 2. ZAKRES i TEZY PRACY. niedopuszczalnych punktów pracy, powinny się uruchamiać specjalne procedury sterujące FTC (Fault Tolerant Control), nie dopuszczające do wejścia w obszar zagrożenia bezpieczeństwa i o ile to możliwe, sprowadzające system do obszaru dopuszczalnego. Poza ograniczeniami technicznymi (w obszarze zagrożeń) powinny się uruchamiać specjalne procedury zamykające niebezpieczne cykle produkcyjne tzw. ESS (Emergency Shutdown Systems), przez co proces znajdzie się w obszarze bezpiecznym, choć bywa, że niedopuszczalnym jakościowo. Częstą przyczyną znalezienia się procesu w obszarze niedopuszczalnym, są awarie procesowe, błędy sprzętu i oprogramowania oraz błędy operatorskie obsługi. W ostatnich latach w związku z komplikacją systemów produkcyjnych szczególnego znaczenia nabrało wykrywanie zagrożeń sprzętowych i wykrywanie błędów w pozyskiwanej informacji. W powszechnym rozumieniu słowo błąd (failure, fault) oznacza wystąpienie zjawiska, które zmienia zachowanie systemu technologicznego tak, że nie spełnia on już swego zadania w minimalnie zadawalającym stopniu. Takim zjawiskiem może być zmiana struktury systemu lub samych jego parametrów od wartości nominalnych. Może to być utrata szczelności przez zbiornik (wyciek), blokada członu wykonawczego, awaria czujnika, przerwa w szynach komunikacyjnych. Aby system sterowania można nazwać odpornym na błędy (fault-tolerant system), [2BLA], [2EDW] system powinien posiadać zdolność do:. • detekcji błędu (fault detection, fault isolation, failure detection), • identyfikacji błędu (fault diagnosis, fault identification), • generacji sterowania korekcyjnego (fault-tolerant control). Stąd często w literaturze angielskojęzycznej dla dwóch pierwszych własności stosuje się wspólną nazwę fault detection and diagnosis w skrócie FDD albo fault detection and.. identification lub isolation w skrócie FDI. Tradycyjnymi metodami dla pierwszego punktu detekcji błędów jest wyposażenie obiektu w dedykowane czujniki granicznych wielkości naprężeń, poziomów, temperatur lub ciśnień. Dla diagnostyki błędów wykorzystuje się logiczną analizę sygnałów, eksperckie systemy oparte o wiedzę lub specjalizowane metody identyfikacji parametrów i estymacji stanu i wyjścia. Trzeci punkt dotyczący sterowania. odpornego oznacza możliwość budowy sterownika (regulatora) ze zdolnością generacji sterowania utrzymującego obiekt w obszarze pracy nominalnej. W wypadku wystąpienia dużych błędów, które mogą być już zaliczone do awarii katastrofalnych, sterownik powinien dążyć do wykorzystania zastępczych obwodów redundantnych, a w przypadku ich braku do bezpiecznego wyłączenia systemu. Tego typu regulatory nazwano odpornymi na błędy. 18.

(20) 2. ZAKRES i TEZY PRACY. Również same sterowniki powinny przeprowadzać własną autodiagnostykę i w razie potrzeby wykorzystywać wewnętrzne redundantne obwody (dwa procesory). Z powodu mnogości sygnałów i kosztów oprzyrządowania nie zawsze można zidentyfikować mierzalną i pojedynczą przyczynę wystąpienia błędu. Stąd oprócz systemów eksperckich opartych o wiedzę ważnym podejściem przy projektowaniu odpornych układów sterowania jest zastosowanie matematycznych modeli, które pozwalają na diagnostykę porównawczą informacji modelowej i pomiarowej (model based fault tolerant control). [2NOU], [2WAS], [2MHA]. W rzeczywistym systemie technologicznym (elektrownia) lub technicznym (samolot) powinny istnieć różne procedury dla zagwarantowania jego funkcjonalności pomimo wystąpienia błędów i awarii. W dzisiejszych komputerowych systemach nadzoru i sterowania procedury te powinny być zaprojektowane w oparciu o niezawodne algorytmy i oprogramowane dla zadań czasu rzeczywistego. Poniżej przedstawiono na Rys.2.4 ogólnie przyjęty schemat procedur nadzoru, alarmów i obsługi błędów, w którym umiejscowiono zarówno decyzje podejmowane przez system komputerowy jak i przez operatora.. Operator. Decyzje. Obsługa błędów. Detekcja błędów. Diagnostyka błędów. Generator residuów. Zabezpieczenia. Przetwarzanie sygnałów. Alarm. Błędy Zatrzymanie Zmiana punktu. Proces. pracy. U, Y. Rekonfiguracja Naprawa Obsługa operatorska. Rys.2.4. Ogólna struktura nadzoru z zadaniami detekcji i obsługi błędów.. Jak powiedziano powyżej błędne zachowanie się systemu może być spowodowane zmianami parametrów, które można nazwać błędami multiplikatywnymi. Błędne zachowanie może też być spowodowane nieznanymi sygnałami zewnętrznymi zwanymi zakłóceniami, które można nazwać błędami addytywnymi. Klasyczne układy regulacji ze sprzężeniem zwrotnym wykazują zdolność do osłabiania efektów zakłóceń i niepewności modelu, ale tylko 19.

(21) 2. ZAKRES i TEZY PRACY. do pewnego stopnia ich intensywności. Błędy zaliczane do awarii wymagają stosowania specjalnych algorytmów umieszczonych w warstwie nadzoru. W literaturze podkreśla się zalety stosowania metod diagnostyki z wykorzystaniem modeli. Zwykle prace badawcze dotyczące diagnostyki z wykorzystaniem modeli wykorzystują dwie niezależne idee. Pierwsza związana jest z wykorzystaniem procedur identyfikacji parametrów. Ciągła identyfikacja parametrów pozwala na ich porównywanie i wychwycenie ich nagłej zmiany. Druga idea polega na użyciu algorytmów do odtwarzania niemierzalnego stanu procesu. Takie algorytmy nazywają się obserwatorami stanu. Nagłe nieuzasadnione zmiany estymaty stanu będą świadczyły o możliwych błędach sprzętowych i awariach.. Celem niniejszej pracy jest analiza możliwości jednoczesnego użycia tych dwóch idei, z wykorzystaniem procedur i algorytmów o skończonej pamięci, jakie jeszcze nie były stosowane w dotychczasowych (i znanych autorowi) badaniach. Połączenie zaawansowanych procedur przetwarzania sygnałów (Data Processing) nosi cechy wydobywania maksimum informacji z dostępnych danych pomiarowych (Data Mining) i pozwoli na bardziej precyzyjne i jednoznaczne zlokalizowanie błędów i awarii. W celu realizacji takich procedur diagnostycznych komputerowy system sterowania powinien być wyposażony w osobne zadania - moduły programistyczne. Moduł ID dla bieżącej identyfikacji parametrów i moduł OB dla bieżącej obserwacji stanu układu G, tworzą podsystemy współpracujące z modułem detekcji i diagnostyki błędów DD, który z kolei może współpracować z podsystemem strojenia regulatora S, Rys.2.5.. Rys.2.5. Struktura zadań systemu diagnostyki i sterowania. Jak to już było wspomniane, w większości modeli dynamiki pojawiają się parametry zagregowane, będące funkcjami parametrów rzeczywistych. Dobrze znane są różne algorytmy identyfikacji parametrów zagregowanych dyskretnych modeli liniowych. Metody te wywodzą 20.

(22) 2. ZAKRES i TEZY PRACY. się z metody najmniejszych kwadratów i z reguły oparte są o rekurencyjne rozwiązywanie procedury RLS (Recursive Least Squares) z ewentualnym współczynnikiem zapominania. Dla obiektów stacjonarnych, metody te dają dobre wyniki estymacji tych parametrów, zwłaszcza z wykorzystaniem zmiennych instrumentalnych. Głęboka pamięć pomiarów wejść i wyjść (od chwili uruchomienia procedury) powoduje jednak znaczną inercję w szybkiej reakcji takiej procedury identyfikacji na skokowe zmiany rzeczywistych parametrów procesu, występujące w przypadku awarii. Optymalnie uśredniona wartość otrzymywanych na bieżąco parametrów zagregowanych obowiązuje, bowiem dla całego przedziału identyfikacji. Lepszym algorytmem jest, więc algorytm ruchomego okna pomiarowego o zadanej i krótkiej długości. Taka procedura nie bierze pod uwagę starych pomiarów wejścia i wyjścia, a wynik uśrednienia optymalnych wartości parametrów dotyczy tylko ostatniego okna pomiarowego. Taki algorytm jest, więc bardziej czuły na fakt wystąpienia nagłych zmian w rzeczywistych parametrach procesu. Specjalna odmiana tej idei zastosowana do układów liniowych ciągłych dowolnego rzędu będzie wykorzystywana w tej pracy. Ta metoda identyfikacji zostanie omówiona szczegółowo w następnych rozdziałach. W teorii sterowania badane są też różne algorytmy obserwacji stanu. Pełny stan rzeczywisty układu xr(t) nie jest z reguły dostępny do pomiaru, stąd potrzeba jego odtworzenia na podstawie tylko dostępnej informacji o sterowaniu u(t) i mierzonym wyjściu układu y(t), czyli zależności x (t ) = f (u ( t ), y (t )) . Ponieważ modele dynamiczne procesów sterowanych są z reguły dane równaniami różniczkowymi lub różnicowymi, to dla syntezy regulatorów od stanu, najpopularniejszym rodzajem obserwatorów stanu jest obserwator Luenbergera lub filtr Kalmana. Oba obserwatory mają identyczną postać daną równaniem różniczkowym lub różnicowym. Dla rozwiązywania tego równania i estymowania stanu rzeczywistego xr(t) na bieżąco x (t ) ≈ x r (t ) , dla t>t0, obserwatory wymagają znajomości modelu procesu, podania estymaty warunku początkowego stanu xr(t0) jaki panuje w procesie rzeczywistym oraz dostarczania na bieżąco wartości sterowania u(t) i wyjścia y(t) z procesu. Te dwie ostatnie informacje są dostępne pomiarowo, jednak informacja na temat xr(t0) nie jest znana. W zależności od poziomu wiedzy, jaką dysponuje operator na ten temat, zależał będzie kształt rozwiązania estymaty i jej zgodność ze stanem rzeczywistym. Przy trafnym określeniu przez operatora estymaty początkowego stanu rzeczywistego x (t0 ) = x r (t0 ) , obserwator stanu może z dużą dokładnością estymować ten stan dla t>t0. Przy błędach w ocenie stanu początkowego, estymata stanu dla chwil późniejszych może znacznie odbiegać od stanu rzeczywistego. Różniczkowa koncepcja struktury tych obserwatorów zaproponowana w latach 60-tych, 21.

(23) 2. ZAKRES i TEZY PRACY. dostosowana do możliwości obliczeniowych ówczesnych komputerów, gwarantuje tylko ostateczną asymptotyczną zbieżność estymaty do stanu rzeczywistego. Ponieważ jednak w. żadnym momencie tego procesu nie jest znany stan rzeczywisty, to nie ma też żadnej informacji potwierdzającej jakość nadążania za stanem i brak oceny bieżącego błędu obserwacji. Jedno jest pewne, błąd estymacji zmaleje do zera, dla t dążącego do nieskończoności. Mimo tej wady ten typ obserwatorów asymptotycznych znalazł też zastosowanie w systemach diagnostyki. Literatura na ten temat obejmuje dziesiątki pozycji. Pojawia się jednak pytanie, czy omawiana cecha asymptotyczności i braku pewności, co do rzeczywistej wartości stanu nie wprowadza dodatkowej niepewności powiększającej i tak niejasną sytuację panującą w procesie sterowanym, zwłaszcza w kontekście możliwości wystąpienia awarii i błędów aparatury. Od pewnego czasu w literaturze teorii sterowania prowadzone są badania nad możliwością budowy obserwatorów dokładnych, odtwarzających dokładny stan rzeczywisty procesu. Obserwatory takie mają strukturę przesuwanego okna pomiarowego o wybranej długości T i realizujących obliczenia w oparciu o operatory całkowe. Prawy koniec okna obliczeniowego reprezentuje bieżącą chwilę. W tej też chwili odtwarzany jest dokładny stan x(t) . Aby można to było wykonać należy dysponować skończoną pamięcią pomiarową sygnałów sterowania u(t) i wyjścia y(t) z obiektu sterowanego na całym przyjętym przedziale [t-T, t]. Taki obserwator jest więc funkcjonałem przetwarzającym na tym przedziale sygnały u(t) i y(t) i po wykonaniu zaawansowanych przekształceń oblicza dokładną wartość stanu xr(t). Należy zwrócić uwagę,. że do tej operacji nie jest potrzebna wiedza na temat rzeczywistego warunku początkowego. Możliwość odzyskania dokładnego stanu daje bardzo ważną cechę, która powoduje, że znika niepewność, co do błędu estymacji. Nakład obliczeniowy jest oczywiście znacznie większy niż przy obserwatorach asymptotycznych, które korzystają tylko z bieżących wartości u(t) i y(t) i nie potrzebują pamięci historii. Dla dzisiejszego sprzętu komputerowego nie stanowi to już tak istotnych problemów i jak pokazały testy można odtwarzać na bieżąco (on-line) dokładny stan wielowymiarowych procesów wysokiego rzędu. Co więcej, można wykorzystać zaprezentowane po raz pierwszy w tej pracy, dwa sekwencyjne obserwatory tworzące podwójne ruchome okno, złożone z okna wcześniejszego i późniejszego. Oba obserwatory na granicy styku swych okien generują stan dokładny. Jedno okno dokonuje obliczeń w oparciu o pomiary z głębszej przeszłości, a drugie w oparciu o ostatnio zmierzone. W ten sposób uzyskuje się specjalne własności diagnostyczne w otoczeniu momentu awarii.. 22.

(24) 2. ZAKRES i TEZY PRACY. Celem pracy jest dogłębna analiza możliwości wydobycia maksimum informacji o procesie z użyciem najnowszych zaawansowanych metodologii identyfikacji parametrów i obserwacji stanu procesu. Obie te metodologie będą się wzajemnie uzupełniać. W zagadnieniach diagnostycznych ważnym problemem jest jednoznaczność oceny źródła błędu. W rozbudowanych strukturach połączeń procesowych, już przy szeregowym połączeniu wielu zbiorników z wieloma zaworami, lokalizacja uszkodzonego zaworu może być niejednoznaczna. W pracy zaprezentowana zostanie: a) metoda, która pozwoli na jednoczesne wyliczenie aktualnych parametrów i wskazanie miejsca awarii, dla systemu o znanej strukturze, b) metoda, która wskaże tylko zmienną procesową (stanu), na której wystąpiła awaria, dla systemów o znanej lub nieznanej strukturze. Pierwsza metoda wymaga większego nakładu obliczeniowego. Druga może służyć, jako dodatkowe, redundantne potwierdzenie awarii. Dodatkowym atutem tych metod jest łatwa możliwość zrównoleglenia procedur, co może mieć znaczenie dla zastosowań on-line i dla systemów o szybkiej dynamice (sterowanie turbiną, czy głowicą dysku twardego). Główne przetwarzanie sygnałów będzie, bowiem można przyśpieszyć, realizując go niezależnie dla sygnałów wejściowych i wyjściowych. W związku z dwoma nowymi metodami opracowanymi w pracy, poniżej przedstawione zostaną dwie tezy naukowe, uściślające zakres prezentowanych badań i otrzymanych wyników.. Dwie tezy pracy: •. W dynamicznym układzie sterowania o znanej wewnętrznej strukturze, zastosowanie i. współpraca. niestandardowych. algorytmów. identyfikacji. dla. parametrów. zagregowanych i algorytmów dokładnej obserwacji stanu rzeczywistego, opartych o zaawansowane. przetwarzanie. sygnałów. pomiarowych. wejścia. i. wyjścia,. zapamiętanych w postaci funkcji na przesuwanych oknach pomiarowych o skończonej długości (skończona pamięć pomiarowa), jak również wykorzystanie procedur. nieliniowych. transformacji. pomiędzy. parametrami. zagregowanymi. i. rzeczywistymi oraz procedur symulacji, pozwala na jednoznaczne zidentyfikowanie miejsca i wartości rzeczywistych parametrów przed i po awarii.. 23.

(25) 2. ZAKRES i TEZY PRACY. •. W dynamicznym układzie sterowania o znanej lub nieznanej strukturze, zastosowanie i współpraca. niestandardowych. algorytmów. dla. identyfikacji. parametrów. zagregowanych oraz nowego typu obserwatora o podwójnym oknie (skończona pamięć pomiarowa), odtwarzającego stan naturalny i pracującego, jako detektor awarii, pozwala na jednoznaczne zidentyfikowanie miejsca awarii, związanego przede wszystkim ze skokowymi zmianami parametrów rzeczywistych.. Komentarz: Dla znanej struktury systemu, metodologie diagnostyki użyte w pierwszej tezie wymagają wyprowadzenia dedykowanych, procedur nieliniowych transformacji parametrów zagregowanych na parametry rzeczywiste. Wyprowadzenie to, w zależności od rzędu i struktury systemu, może być mniej lub bardziej złożone. Uzyskanie za pomocą tej metody ostatecznej informacji o miejscu awarii i o nowych rzeczywistych parametrach, wymaga użycia symulatora dynamiki modelu i może wymagać przeprowadzenia pewnej ilości symulacji (oszacowanej od góry). Metodologie użyte w drugiej tezie, jakkolwiek nie dostarczają informacji o rzeczywistych parametrach awarii, są jednak bardziej uniwersalne. Wykorzystując pojęcie stanu naturalnego (tworzonego przez kolejne pochodne sygnału wyjścia), nie zależą od struktury systemu, nie wymagają, więc dedykowanych procedur dla transformacji parametrów. Mając mniejszą złożoność obliczeniową, nadają się do systemów o wyższym rzędzie i szybszej dynamice. Badany w niniejszej pracy typ awarii będzie utożsamiany ze zmianami wartości parametrów modelu. Ponieważ zmiany awaryjne, mają najczęściej postać skoków parametrów (abrupt changes) lub nagłych zmian punktów pracy (jump operating points), to właśnie do takich funkcji będą dostosowane procedury diagnostyczne, zwłaszcza dedykowane do dokładnej obserwacji stanu naturalnego i metodologii drugiej tezy tej pracy. Waga tego typu zmian skokowych, została już dostrzeżona wiele lat temu (1993 r.) [2BAS] i do dzisiaj jest aktualna - tak dla systemów dyskretnych (2005 r.) [2COS1], jak i dla systemów ciągłych (2013 r.) [2COS2]. Nie zmienia to faktu, że zbudowane przez autora procedury identyfikacji i dokładnej obserwacji stanu rzeczywistego, diagnozują również zmiany parametrów przebiegające powoli (starzenie się) i są również przydatne do metodologii użytej w pierwszej tezie tej pracy. 24.

(26) 3 3. DETEKCJA i DIAGNOSTYKA BŁĘDÓW w UKŁADACH DYNAMICZNYCH 3.1. Systemy FDD oparte o redundancję sprzętową i analityczną Tradycyjne podejście do detekcji i diagnostyki błędów oparte jest o sprzętową redundancję czujników (sensorów), przetworników, regulatorów, torów komunikacyjnych, nastawników, pomp, członów wykonawczych, a nawet wewnętrznych mikroprocesorów w urządzeniach cyfrowych. W wypadku zidentyfikowania błędów w systemach zrównoleglonych stosuje się logikę głosowania dla zadecydowania o fakcie i miejscu wystąpienia błędu. Oczywistą negatywną cechą tego podejścia jest koszt dublowania sprzętu, a w przypadkach specjalnych nawet jego zwielokrotniania oraz koszt jego instalowania, przechowywania i serwisu. Innym podejściem jest tzw. redundancja analityczna (funkcjonalna) otrzymywana poprzez dodatkowe schematy obliczeniowe, działające w oparciu o bazy wiedzy lub matematyczne modele i w oparciu o dostępną informację procesową [3FRA1] [3KOW1]. Modele pozwalają na otrzymywanie estymat mierzonych zmiennych procesowych. Z porównania tych estymat i wartości mierzonych wynika decyzja o stwierdzeniu wystąpienia błędu. Takie podejście nazywane jest diagnostyką w oparciu o model (model based approach) Rys.3.1.. Rys.3.1. Redundancja sprzętowa i analityczna. 25.

(27) 3. DETEKCJA i DIAGNOSTYKA BŁĘDÓW w UKŁADACH DYNAMICZNYCH. Metody wnioskowania oparte o modele (MBR model based resoning ) dzielą się z grubsza na wnioskowanie z użyciem analitycznych modeli matematyczno-fizycznych i wnioskowanie z użyciem modeli sztucznej inteligencji [3ISE2]. Te pierwsze zwane są wnioskowaniem z pierwszych zasad (zasady zachowania masy, pędu i energii) [3REI], [3SIM], [1DIN]. Głównym wymogiem tego podejścia jest konieczność dysponowania dokładnymi i aktualnymi modelami matematycznymi, w których szumy i zakłócenia nie odgrywają decydującej roli. Jeśli otrzymanie takich modeli dynamicznych jest zbyt czasochłonne, to podejmuje się próbę wykorzystania innych typów modeli związanych bardziej z dziedziną sztucznej inteligencji. Są to modele wykorzystujące zbiory rozmyte lub sieci neuronowe [3KOR], [3PATA]. Ciekawe porównanie między tymi dwoma podejściami można znaleźć w [3REN]. Przebadano tam na przykładzie instalacji przemysłowej dokładność diagnostyki w obu metodach, wykazując zalety i wady obu podejść. Jeszcze innym rozwiązaniem jest wykorzystanie systemów eksperckich, baz wiedzy o błędach i metod rozpoznawania wzorców błędów w oparciu o reguły [3GÓR]. W następnym rozdziale szerzej omówimy to ostatnie podejście do modelowania. 3.2. Systemy detekcji i diagnostyki błędów FDD oparte o wiedzę Jedną z metod oceny prawidłowości (nominalności) stanu procesu jest znajomość tego procesu i dostęp do informacji o jego bieżącym stanie. Doświadczony operator-technolog dysponuje wiedzą heurystyczną i do oceny sytuacji wykorzystuje wszystkie dostępne pomiary instrumentalne (np. temperatur, poziomów, ciśnień szybkości, mas), z których w stanach ustalonych natychmiast wynikają wszelkie nierówności bilansowe. Wykorzystuje on również nietypowe objawy, dla których nieraz brak czujników. Są to percypowane zmysłami objawy takie jak wibracje, hałas, kolor, zapach, dym, uszkodzenia i deformacje obudowy, stopień zużycia i nieszczelności,. Uzupełnieniem są dane statystyczne takie jak MTBF (Mean Time Between Failure), przedziały ufności, momenty procesu stochastycznego takie jak średnie i wariancje czy rozpoznanie faktu uruchomienia błędnej procedury (błąd ludzki). Symptomy mogą być prezentowane jako zmienne lingwistyczne (mały, duży, średni) czy zmienne rozmyte. Analityczne metody formalne oparte są o drzewa symptomów i błędów, logiczne reguły wnioskowania (if-then-else), testowanie hipotez statystycznych. Dla odwzorowania przestrzeni symptomów do przestrzeni miar błędów, używa się metod klasyfikacji. Symptomy (obliczane z pomiarów) są odwzorowywane w binarne wskaźniki błędu. Do metod klasyfikacji zalicza się metody statystyczne (klasyfikatory Bayesa, drzewa decyzji), metody aproksymacji wielomianowej dla brzegu zbiorów decyzji, metody sztucznej inteligencji (klasyfikatory 26.

(28) 3. DETEKCJA i DIAGNOSTYKA BŁĘDÓW w UKŁADACH DYNAMICZNYCH. rozmyte, sieci neuronowe) i metody geometrycznej oceny odległości (najbliższego sąsiada) w klasach przynależności. Budowa drzew decyzyjnych opiera się o mierzone zdarzenia dyskretne (amplitudy, przedziały czasowe lub sekwencje zdarzeń), dla których tworzy się tabele binarnych symptomów błędów (1 dla wartości nominalnych, 0 dla błędów). Dla systemów złożonych postulowane są wielopoziomowe – hierarchiczne metody diagnostyki, wykorzystujące do budowy drzewa struktury systemu, komponenty proste i złożone oraz relacje między nimi. Odpowiednie funkcje mapują atrybuty i obserwacje między poziomami. Takie podejście redukuje czas potrzebny do otrzymania diagnozy, poprzez ograniczenie obszaru poszukiwań do poszczególnych poziomów [3OLE], [3MOZ]. Pewną odmianę metodologii tworzenia hierarchiczno-poziomowej struktury diagnostyki przedstawiono w pracy [3ZHA]. Dolny poziom rozpoznawał i diagnozował błędy poprzez modelowanie jakościowe, czyli z wykorzystaniem modeli dynamicznych, górny poziom zawierał reguły wnioskowania, które w oparciu o porównanie obserwacji i efektów symulacji w wybranej liczbie próbek, decydowały o wystąpieniu błędu związanego z błędnymi modelami, błędnymi hipotezami lub błędnymi parametrami. Zastosowanie tej metodologii przedstawiono na przykładzie układu 4 zbiorników. Górne poziomy systemów diagnostycznych, mogą wykorzystywać systemy ekspertowe z bazą wiedzy zawierającą warunki powiązań między cechami procesu i wiedzę zawartą w diagramie cech z wagami określającymi poziom ufności [3PIE]. Sama baza wiedzy może mieć też reprezentację regułową. Ważną publikacją poświęconą podstawom logicznym dla systemów regułowych, metodom projektowania takich systemów jak również inżynierii wiedzy jest monografia [3LIG2]. Obszerny zestaw literatury dotyczącej diagnostyki można też znaleźć w [3KOŚ4]. Jedną z metod regułowych diagnostyki może być analiza samej sekwencji występowania symptomów uszkodzeń. Binarna macierz diagnostyczna odwzorowuje wtedy binarne residua strukturalne, czułe na dany typ uszkodzenia (wystąpienie danego uszkodzenia ustawia wartość odpowiedniego residuum na 1). W lokalizacji uszkodzenia pomagają dodatkowo residua kierunkowe (directional residual), tworzące taki zbiór residuów, że wystąpienie danego uszkodzenia cechuje się wystąpieniem charakterystycznego. zestawu. residuów w ortogonalnej przestrzeni residuów, zwanej przestrzenią parzystości [3KOŚ3], [3DZI]. Metody te również badano między innymi na przykładzie układu 3 zbiorników. Z kolei w monografii [2BLA], jej 5-ty rozdział jest poświęcony grafowej analizie strukturalnej systemu poprzez budowę abstrakcyjnych modeli powiązań miedzy zmiennymi i 27.

(29) 3. DETEKCJA i DIAGNOSTYKA BŁĘDÓW w UKŁADACH DYNAMICZNYCH. parametrami. Używa się do tego celu strukturalnych grafów skierowanych łączących zmienne, ograniczenia i pomiary. Przy pomocy grafów przedstawiono interpretację klasycznych pojęć obserwowalności i sterowalności systemu oraz diagnostyki, propagacji błędów i odporności na błędy. Podejście takie jest stosowane dla skomplikowanych strukturalnie hybrydowych systemów, w których występują zmienne ciągłe i dyskretne. Różne odmiany metod grafowych rozpoznawania przyczyn i błędów oraz diagnostyki w modelach jakościowych są przedmiotem licznych publikacji [3LIG1], [3TAG], [3OST]. W wielu przypadkach procesów produkcyjnych możliwym jest jednak synteza i identyfikacja analitycznych i deterministycznych modeli przyczynowych dla poszczególnych podsystemów instalacji. W następnym rozdziale szerzej omówimy wykorzystanie takich modeli w zagadnieniach FDD. 3.3. Modelowanie dynamiki procesu i modelowanie generatorów residuów Analiza badań naukowych w oparciu o publikacje na kongresach IFAC i sympozjach poświęconych SafeProcess pokazuje, że głównym wątkiem badawczym w dziedzinie detekcji i diagnostyki było podejście poprzez redundancję analityczną, czyli wykorzystanie modeli dynamiki procesów (model based approach MBA). Analiza prac naukowych przedstawiona w [3SIM] pokazuje, że w okresie 10 lat, w ramach podejścia MBA, główną metodą używaną do detekcji błędów było użycie obserwatorów (53 publikacje), estymacji parametrów (51 publikacji), sieci neuronowych (9 publikacji), analizy spektralnej (7 publikacji). Dla klasyfikacji błędów najczęściej używano sieci neuronowych (19 publikacji), testowanie hipotez (8 publikacji) logiki rozmyte (5 publikacji). W metodach wnioskowania najczęściej badano podejście regułowe (10 publikacji), logikę rozmytą (6 publikacji), drzewa symptomów błędów (2 publikacje). Wynika z tego, że w detekcji błędów najczęściej stosowane są analityczne metody obserwacji stanu i identyfikacji parametrów do modeli liniowych lub linearyzowanych, a w metodach wnioskowania podejście regułowe. W celu analizy problemów diagnostyki wprowadza się pojęcie wektora residuów (lub wektora reszt), który reprezentuje sygnały różnicowe pomiędzy sygnałami generowanymi przez model i system rzeczywisty. Jeśli nie ma błędów i awarii, niewielkie odchyłki residuów od zera reprezentują tylko niepewność parametrów modelu. Wystąpienie błędów i awarii powoduje wyraźne odchyłki residuów od zera. Klasyczny schemat detekcji i diagnostyki przedstawiono na Rys.3.2.. 28.

(30) 3. DETEKCJA i DIAGNOSTYKA BŁĘDÓW w UKŁADACH DYNAMICZNYCH. u. Człon wykon awczy. y. Czujniki. Proces. M odel p rocesu DD Generator residuów. Sygnał resid uów. Alarm błędu. Blok Detekcji. Blok Diagnostyki. Rys.3.2 Schemat detekcji i diagnostyki. Dla modelowania matematycznego dynamiki wykorzystuje się fakt, że wszystkie fizyczne układy spełniają trzy zasady zachowania: • • •. zasadę zachowania pędu, zasadę zachowania masy, zasadę zachowania energii. Tworząc model opisujący jednoznacznie dynamikę wybranego zachowania procesu. należy uwzględniać powyższe zasady zachowania. W wielu przypadkach wystarczy uwzględnienie jednej zasady np. przy modelowaniu szybkości zapełniania zbiornika. W niektórych przypadkach jednak trzeba uwzględnić dwie lub trzy zasady, np. przy projektowaniu parametrów analogowego układu elektronicznego R, L, C należy użyć równań Kirchhoffa, reprezentujących zasadę zachowania ładunku i uwzględnić dodatkowo zasadę zachowania energii dla wyliczenia ich zapotrzebowania na moc. Podstawowym. i. uniwersalnym. narzędziem. matematycznym. dla. zapisu. deterministycznych modeli przyczynowych z czasem ciągłym są równania różniczkowe. Najczęściej używanymi są równania liniowe zwyczajne ze stałymi parametrami opisujące zachowanie systemów stacjonarnych o parametrach skupionych. Skalarne równanie różniczkowe n-tego rzędu, reprezentujące jednowymiarowy model dynamiki wybranej zmiennej procesowej y, przedstawia liniową kombinację jej n pochodnych oraz m≤n pochodnych wybranej zmiennej sterującej u. Rząd równania różniczkowego modelu wiąże się ściśle z liczbą zbiorników (hydraulicznych, pneumatycznych) lub pojemności (elektrycznych, cieplnych), które modelowane są elementarną operacją całkowania. Jeśli zmienną niezależną jest czas, to wybierając kształt sterowania można znaleźć rozwiązanie równania różniczkowego reprezentujące kształt odpowiedzi systemu. 29.

(31) 3. DETEKCJA i DIAGNOSTYKA BŁĘDÓW w UKŁADACH DYNAMICZNYCH. Standardową normalizacją modelową w systemach dynamicznych jest zamiana układu wielu równań różniczkowych różnych rzędów w jednolity zestaw równań zwyczajnych pierwszego rzędu ze względu na wybrane zmienne stanu x i w zbiór równań algebraicznych dla zmiennych wyjściowych y. Dla jednoznaczności rozwiązania potrzebna jest informacja o stanie początkowym x(t0), przechowująca wiedzę o sterowaniach z przeszłości dla t<t0 . Wielowymiarowy system (MIMO – Muli-Input, Multi-Output) dany więc jest wektorowym zestawem równań nieliniowych: x& (t) = f 1 (t, x(t), u(t));. x(t 0 ) = x 0. y(t) = f 2 (t, x(t), u(t)),. ,. gdzie wektor stanu x(t)∈Rn, wektor sterowania u(t)∈Rr, wektor wyjścia y(t)∈Rm, dla ∀t≥t0, a wektor-funkcje f1: R ×Rn×Rr → Rn ,. f2: R ×Rn×Rr → Rm.. W wielu przypadkach można przyjąć, że modelem zlinearyzowanym obiektu MIMO w wybranym punkcie pracy, będzie zestaw równań liniowych. x& (t ) = Ax (t ) + Bu (t ), y (t ) = Cx (t ) + Du (t ). x (t0 ) = x0. ,. gdzie poszczególne zmienne oznaczają: wektor zmiennych odchyłowych stanu x(t)∈Rn, wektor zmiennych odchyłowych sterowania u(t)∈Rr, wektor zmiennych odchyłowych wyjścia y(t)∈Rm, dla ∀t≥t0, a macierze A, B, C, D reprezentują strukturę powiązań. Dla liniowych modeli dynamicznych skalarnych, czyli SISO (Single-Input, SingleOutput) z jednym wejściem u(t) i jednym wyjściem y(t) podstawową formą zapisu modelu w dziedzinie czasu jest równanie różniczkowe n-tego rzędu zmiennej wyjściowej y(t) (z niezerowymi warunkami początkowymi dla pochodnych y(i)(0)) lub jego odpowiednik w dziedzinie operatorowej z zerowymi warunkami początkowymi. W lewej stronie równania różniczkowego L występują pochodne wyjścia, a w prawej stronie P pochodne wejścia. n. ∑a y i. i =0. (i). m. ( t ) = ∑ bi u ( i ) ( t ) , i =0. n  m  Y ( s ) ∑ ai s i  = U ( s ) ∑ bi s i   i =0   i =0 . W literaturze przedmiotu wymienia się trzy główne metody generowania wektora residuów poprzez: 1. bezpośrednie wykorzystanie modelu procesu (metody równań parytetów), 2. wykorzystanie estymacji (identyfikacji) parametrów, 3. wykorzystanie obserwatorów stanu lub obserwatorów wyjścia procesu.. 30.

(32) 3. DETEKCJA i DIAGNOSTYKA BŁĘDÓW w UKŁADACH DYNAMICZNYCH. Metody pierwsze polegają na porównaniu danych modelowych M (z reguły dla modeli dyskretnych) z danymi pomiarowymi obiektu G i potwierdzaniu między nimi równości. Rozróżnia się dwa schematy porównawcze: porównanie wyjść G i M tzw. OE (Output Error) lub porównanie lewej L i prawej P stron równań modelowych, EE (Equation Error), Rys.3.3. fu u. d. fy. G -. M. +. fu y. u r. d. fy. G P. +. -. r. y. L. Rys.3.3 Generowanie wektora residuów metodą OE i EE. Wynikające z procedury porównania zależności są poddawane transformacjom liniowym dla detekcji błędów. Metody te zwane są metodą równań parytetów W literaturze angielskojęzycznej metody te zwane są parity equations lub parity space approach [3GER2], [3PAT], [3ISE3], [3KOW1]. Metody drugie polegają na estymacji (identyfikacji) parametrów układu. Residua reprezentują tu różnicę pomiędzy wartościami nominalnymi parametrów, a estymowanymi i służą do detekcji błędów [3ISE1], [3SIM]. Metody trzecie wykorzystują obserwatory stanu dla analitycznego odtworzenia stanów lub wyjść procesu. Porównanie estymat stanu lub wyjścia z pomiarami służy do generacji residuów i detekcji błędów, [3MAG], [3DIN], [3GAR].. 3.4. Generator residuów oparty o równania parytetów Jedną z metod generowania sygnałów resztowych za pomocą analitycznej redundancji jest metoda tzw. są równań parytetów lub przestrzeni parytetów. Równania ujmują zależności pomiędzy pochodnymi wejścia i wyjścia. Zwykle cytuje się tu artykuł źródłowy Chow i Willsky’ego [3CHO]. Metody te w niektórych publikacjach nazywane są też metodami przestrzeni parzystości (np. [3KOW1]). Poniżej przedstawimy wersję ciągłą tej metody dla schematu błędu równania EE z Rys.3.3. W wielu przypadkach do modelu liniowego dodaje się niemierzalne sygnały deterministyczne lub stochastyczne reprezentujące zakłócenia i szumy pomiarowe oraz inne funkcje reprezentujące sygnały błędów będące również traktowane jako zakłócenie prawidłowej pracy systemu. Te sygnały reprezentują błędy addytywne.. 31.

Cytaty

Powiązane dokumenty

SPŁYW - szybkie przemieszczanie się masy gruntowej bez wytworzenia wyraźnej powierzchni poślizgu przy współudziale wody np.. spływy

Polecenie - msdt - Narzędzie diagnostyczne pomocy technicznej firmy Microsoft.. Narzędzi można używać do zbierania informacji o problemach z

2 września na godzinę 8.00 przychodzą na zajęcia już wszystkie klasy z wyjątkiem uczniów klas II wielozawodowych branżowej szkoły I stopnia, którzy w tym czasie udają się

Zwracając się do wszystkich, Ojciec Święty raz jeszcze powtarza słowa Chrystusa: „Bóg nie posłał swego Syna na świat po to, aby świat potępił, ale po to, by

Święto Pracy zostało ustanowione w 1889 roku przez II Międzynarodówkę (Międzynarodowe Stowarzyszenie Robotników) w Paryżu, dla upamiętnienia wydarzeń, które

stawienia elementów zbioru (p+q)-elementowego, która stanowi matematyczną podstawę proponowanej

Błąd bezwzględny tego przybliżenia to moduł różnicy pomiędzy wartością dokładną a wartością przybliżoną.. W tym wypadku wynosi on

Skano- wanie ruchu kończyny górnej oraz interakcja w postaci sprzężenia siłowego umożliwia integrację interfejsu ste- rowania z ruchami kończyny