• Nie Znaleziono Wyników

4. Automatyzacja i wspomaganie człowieka w procesie sterowania

4.2. Efekty automatyzacji

4.2.1. Zjawiska zaobserwowane w systemach zautomatyzowanych Sterowanie automatyczne, przy załoŜeniu moŜności sterowania przez czło-wieka, oznacza moŜliwość zmian poziomów automatyzacji. Zwykle nie zakłada się, Ŝe samolot będzie wykonywał cały lot w trybie automatycznego sterowania i konieczne jest, aby pilot włączał się (przy klasycznym autopilocie) w proces sterowania w odpowiednich fazach lotu lub mógł przejąć sterowanie, przy w pełni automatycznej realizacji planu lotu, gdy zaistniała sytuacja wymaga odpowiedniej ingerencji. TakŜe podczas sterowania samolotami bezzałogowymi nawet przy autonomicznej realizacji misji pozostaje moŜliwość włączenia się operatora SKL w proces sterowania.

Wprowadzając systemy automatycznego sterowania, zakłada się, Ŝe przez przejęcie części zadań bądź wykonywanie określonych czynności składowych procesu sterowania nastąpi ułatwienie realizacji procesu. Niekiedy jednak z po-wodu braku wiedzy o właściwościach człowieka okazuje się, Ŝe pojawiają się nowe problemy i utrudnienia.

Stwierdzone zostały następujące efekty:

mentalne wyłączenie się człowieka przy braku czynnego zaangaŜowania w proces sterowania – OOTL (Out-Of-The-Loop) [74, 121, 131, 132, 204],

dezorientacja co do aktualnego działania systemu i utrata świadomości sytuacyjnej, będące efektem wyłączenia mentalnego,

niŜsze niŜ optymalne (prawo Yerksa–Dodsona [276, 165]) poziomy sty-mulacji i stresu w sytuacji poprawnej pracy systemu i wysokie w stanach niepoprawnych,

niewykrycie błędów w działaniu systemu automatycznego wywołane brakiem kontroli (spowodowanej: wycofaniem uwagi, aktywnym odrzu-caniem informacji sprzecznych z oczekiwaniami i przeduwagowym pro-cesem wyłączenia percepcji informacji) [166],

gorsza świadomość sytuacyjna w trybie pasywnym (tylko monitorowa-nie) niŜ w aktywnym [182],

spadek umiejętności, zanik zrozumienia znaczenia części informacji jako skutek roli pasywnej w dłuŜszej perspektywie czasowej [147, 172, 263, 328],

samozadowolenie indukowane przez automatykę, wynikające z akcepta-cji ułatwień wprowadzanych przez system sterowania i obniŜenie kryty-cyzmu w ocenie sytuacji i działania systemu [133, 149, 252],

nadmierne zaufanie do systemu wspomagającego,

gwałtowny spadek poziomu zaufania po stwierdzeniu pierwszego niepo-prawnego działania (first failure effect) [203, 252],

naduŜywanie funkcji doradczych i traktowanie wskazówek jako poleceń realizacji określonego działania [96, 203],

problem ze zrozumieniem sposobu działania, a takŜe rozbieŜność intencji i działań człowieka oraz układów automatyki [197], jak równieŜ brak sprawności w obsłudze [184] w efekcie skomplikowania modelu efek-tywnego,

po wprowadzeniu systemów FMS (flight management system [46]) zwiększenie liczby błędów polegających na przeoczeniu [247] oraz nie-uświadomione braki w wiedzy i zrozumieniu działania systemu [248],

brak świadomości trybu pracy skutkujący niepoprawną interpretacją sta-nu [58],

redukcja modelu obiektu sterowanego (np. reprezentacji zespołu napę-dowego z układem FADEC [327]) w efekcie uproszczenia modelu efek-tywnego,

dezorientacja co do trybu pracy systemu przy zmianach poziomu auto-matyzacji, zwłaszcza gdy przekazanie sterowania człowiekowi jest wy-muszane przez system [22, 25, 73, 121], niezrozumienie trybu pracy sys-temu – problem świadomości trybu [58, 197],

uniemoŜliwienie działania oraz wykonywanie niestandardowych czynno-ści celem ominięcia przeszkód generowanych przez systemy automa-tyczne (np. funkcje zabezpieczeń) [147],

nieprzewidziane przez człowieka zachowanie systemu (automation sur-prises), które moŜe wynikać z nieintuicyjnego sposobu jego działania,

zmiana sposobu zachowania się obiektu sterowanego, która w zamierze-niu ułatwia sterowanie, lecz w pewnych stanach stwarza problemy5,

doprowadzenie przez człowieka do błędnego działania systemu w wyni-ku nieświadomie wprowadzonych niepoprawnych danych bądź ustawie-nia nieprawidłowego trybu pracy,

przeoczenie błędnego działania systemu automatycznego wynikające z wykonywania innych czynności [263],

zmiany w technice pilotaŜu po wprowadzeniu systemów sterowania po-średniego [195].

Wiele z wymienionych problemów wynika z błędnego działania systemu automatycznego. Błędne działanie systemów awioniki w obecnie budowanych

5 W trakcie realizacji projektu oraz w czasie prób systemu SPS-01 [287] zastosowano sterowanie pośrednie zespołem napędowym z wykorzystaniem regulatora prędkości lotu. Taki sposób ste- rowania znakomicie sprawdzał się w locie, np. przy zwiększeniu ciągu zespołu napędowego w zakręcie oraz przy zmianach nachylenia trajektorii. Podczas lądowania w ostatniej fazie za- skoczył jednak pilota i zmusił do przerwania procedury lądowania, pilot musiał zmienić sposób działania, dostosowując się do zachowania samolotu z wprowadzonym regulatorem.

samolotach komunikacyjnych jest w znacznym stopniu zminimalizowane przez wprowadzenie redundancji oraz technik realizacji sprzętu i oprogramowania minimalizujących ryzyko wprowadzenia rozwiązań skutkujących błędnym dzia-łaniem [46, 94, 155, 289]. W lotnictwie ogólnym i bezzałogowym sytuacja jest inna. Wprowadzanie róŜnego rodzaju rozwiązań, obejmujących rozwiązania zarówno te sprawdzone w lotnictwie komunikacyjnym, jak i nowatorskie (zwłaszcza z zakresu samolotów ultralekkich), ze względu na ograniczenie, a najczęściej brak redundancji, oznacza większe prawdopodobieństwo zaistnie-nia sytuacji błędnego działazaistnie-nia.

Zwiększenie obciąŜenia w trybie automatycznym, który ma zastępować człowieka, czyli w zamyśle ułatwiać sterowanie, moŜe zaskakiwać. Jednak roz- róŜnienie składników obciąŜenia identyfikuje podstawowe źródło problemów.

Wprowadzenie autopilota zastępującego pilota na poziomie umiejętności redu-kuje wysiłek fizyczny. Konieczność zrozumienia sposobu działania tego urzą-dzenia komplikuje model efektywny sterowanego samolotu. Stąd naleŜy się spodziewać zwiększenia obciąŜenia umysłowego podczas obsługi systemu. Sys-tem FMS zastępujący człowieka w procesie sterowania na poziomie reguł (na-wigacja i określanie kolejnych odcinków trajektorii) w sytuacjach typowych eliminuje człowieka z procesu sterowania. Istniejące wymaganie nadzoru nad działaniem systemu moŜe być w tej sytuacji frustrujące, zwłaszcza dla pilota przyzwyczajonego do sterowania ręcznego.

4.2.2. Poziom zaufania

Zaufanie określa, czy uŜytkownik chce wykorzystywać system. Poziom zaufania powinien być adekwatny do rzeczywistych właściwości układów, a moŜliwe są zarówno sytuacje nadmiernego, jak i niedostatecznego zaufania.

Istnieją róŜne definicje zaufania [11, 48]. W stosunku do układów technicznych moŜna przyjąć, Ŝe poziom zaufania określa to, na ile człowiek jest wewnętrz-nie przekonany co do poprawności i uŜyteczności układu technicznego, z którym współpracuje.

WyróŜnia się trzy sposoby określania poziomu zaufania:

emocjonalny,

przez analogie,

analityczny.

Czynniki emocjonalne mogące określać poziom zaufania to subiektywne odczucia. Oczywiście niektóre z tych odczuć mogą być wywołane rzeczywisty-mi cecharzeczywisty-mi (np. frustracja na skutek błędów bądź zadowolenie wynikające z dobrej współpracy), lecz istnieje niebezpieczeństwo oddziaływania czynników marginalnych, takich jak kolorystyka, rozłoŜenie elementów czy nawet odczuć dotyczących czynników obocznych (np. zapach). W badaniu opisanym w pracy [181] stwierdzono istotne znaczenie odczucia sympatii (liking), które moŜe być wzmacniane początkowym dobrym nastawieniem.

Wykorzystanie analogii odpowiada działaniu na poziomie reguł. W odnie-sieniu do zaufania oznacza to ograniczenie się do obserwacji samych działań i zwykle porównania z pewnym wzorcem mentalnym bez wnikania w sposób realizacji działań, chociaŜ moŜe to być takŜe opinia formułowana bez kontaktu z systemem, na podstawie przekazu. Takie podejście dobrze sprawdza się w normalnych działaniach, jednak istnieje zagroŜenie utraty zaufania, ogólnie ujmując, w efekcie wystąpienia sytuacji nadzwyczajnych.

Proces analityczny najbardziej angaŜuje mentalnie. Oparcie na wiedzy i umiejętności oceniającego przy spełnieniu warunków poprawnego wnioskowa-nia i bezbłędnych danych powinien dawać najbardziej obiektywne rezultaty.

W odniesieniu do techniki lotniczej, w której czynnik bezpieczeństwa jest klu-czowy i kaŜde rozwiązanie jest dokładnie badane, dokumentowane i weryfiko-wane, stosowane procedury odpowiadają procesom analitycznym. Jednak zaufa-nie, jakie będzie miał człowiek do samolotu czy całego systemu transportu lotni-czego, podlega wszystkim wspomnianym czynnikom.

Ocena zaufania uwzględnia trzy czynniki (podane w kolejności wykorzy-stania do oceny):

przeznaczenie,

sposób działania,

spełnienie wymagań.

W zakresie zaufania do układów technicznych stwierdzono zasadniczą róŜ-nicę w porównaniu z zaufaniem pomiędzy ludźmi. Powodem są następujące róŜnice w załoŜeniach:

automatyka powinna się cechować określonym poziomem wypełniania zadań,

człowiek moŜe popełniać błędy.

Wymienione załoŜenia powodują, Ŝe utrata zaufania do układów technicznych następuje szybciej po stwierdzeniu jakichś problemów niŜ się to dzieje w sytu-acjach międzyludzkich. Na uzyskanie adekwatnego poziomu zaufania pozytyw-nie wpływa prezentacja oceny własnej wiarygodności [34].

4.2.3. Wpływ na świadomość sytuacyjną

Wiele z efektów nieprawidłowych interakcji wiąŜe się ze świadomością sytuacyjną. Na podstawie analizy efektów wspomagania zostało stwierdzone, Ŝe wspomaganie z zakresu dostarczania i przetwarzania danych poprawia świado-mość sytuacyjną, natomiast automatyzacja realizacji procesu sterowania, popra-wiając jakość realizacji zadania, skutkuje pogorszeniem świadomości [133, 252]. Przyczyny pogorszenia (wyłączenie mentalne, nadmierne zaufanie oraz skomplikowanie modelu efektywnego) stanowią wskazówkę, Ŝe człowiek w procesie sterowania musi pełnić rolę aktywną, a system powinien wspomagać proces sterowania przez człowieka.

Często stosowane rozwiązania techniczne dotyczą zakresu zdolności pery- feryjnych (czyli właściwości receptorów i efektorów), natomiast na świadomość sytuacyjną wpływają zdolności centralne (czyli procesów percepcji, podejmo-wania decyzji, analizy i syntezy). Analiza zaprezentowana w pracy [47] doty-cząca aparatów bezzałogowych wskazuje, Ŝe środki techniczne realizują stero-wanie, wykonując rozkazy operatora SKL i dostarczają informacji, które naleŜy traktować jako poszerzenie moŜliwości zmysłów. Zwiększeniu strumienia in-formacji nie towarzyszy jednak wsparcie procesów decyzyjnych, co powoduje znaczne obciąŜenie operatora i w efekcie, w istniejących systemach, obsługa jednego aparatu wymaga kilkuosobowej załogi SKL.

Oczywiste jest, Ŝe wprowadzenie dodatkowych sterowników komplikuje strukturę całości systemu. Nie jest to jednak istotne dla człowieka operatora.

Operator tworzy swój model procesu sterowanego na podstawie obserwacji i analizy efektów działania realizowanego za pośrednictwem interfejsów sterują-cych, obserwowanych przez interfejsy informacyjne. Dlatego postuluje się, aby interfejsy przekazywały stan w sposób zrozumiały, odzwierciedlając strukturę informacji, natomiast odzwierciedlenie złoŜoności strukturalnej w interfejsach informacyjnych było redukowane [127].

DostrzeŜenie znaczenia świadomości sytuacyjnej znalazło odzwierciedlenie w koncepcji automatyki wspomagającej procesy umysłowe CA (Cognitive Au-tomation) [129, 229, 250, 254]. Wspomaganie to zgodnie z modelem SRB doty-czy analizy i podejmowania decyzji na poziomach wiedzy i reguł w procesach:

interpretacji stanu,

diagnozy sytuacji,

określenia celu działania, które sprowadza się do aktywacji celu ade-kwatnego do sytuacji,

podejmowania decyzji, planowania i kolejkowania zadań.

Wysuwana jest teza, Ŝe zwiększenie efektywności coraz bardziej złoŜo-nych systemów zautomatyzowazłoŜo-nych współpracujących z człowiekiem nie jest moŜliwe bez wprowadzenia CA. Jako główną przyczynę podaje się pro-blemy ze świadomością sytuacyjną, których występowanie w klasycznych sys-temach zautomatyzowanych uniemoŜliwia efektywne wykorzystanie rozwiązań mających poprawiać efektywność i zmniejszać obciąŜenie. Poprawę świadomo-ści sytuacyjnej naleŜy odpowiednio rozumieć, gdyŜ nadmiar informacji moŜe skutkować przeciąŜeniem i pogorszeniem jakości realizacji zadania [294].

Porównanie dwóch systemów wspomagania pilotów samolotów bojowych:

Copilote Electonique zaprojektowanego z uwzględnieniem wspomagania świa-domości i Pilot's Associate, który został zaprojektowany w koncepcji wspoma-gania realizacji zadań, prowadzi do konkluzji, Ŝe dla pilota bardziej uŜyteczne jest wspomaganie świadomości sytuacyjnej niŜ wspomaganie etapu planowania oraz Ŝe przy wspomaganiu podejmowania decyzji system powinien raczej pod-dawać je krytyce niŜ proponować własne rozwiązania [272]. Innym przykładem zastosowania CA jest prototypowy system wspomagający pilota [250].

Rozwią-zanie to efektywnie redukuje wysiłek, poprawia świadomość sytuacyjną i jakość realizacji zadania. Podstawowe załoŜenia, które przyjęto w odniesieniu do współpracy człowieka z tym systemem (wzajemne monitorowanie, zapewnienie pełnej informacji i przewidywalnego działania) oznaczają, Ŝe system stał się partnerem w załodze.

Z wpływu systemów wspomagających pilota na świadomość sytuacyjną wynika następujący wniosek:

System będący partnerem w załodze musi działać w sposób zrozumiały i akceptowalny przez człowieka, a jego działania nie mogą zaskakiwać człowieka niewytłumaczalnymi bądź tak skomplikowanymi zamiarami, Ŝe do ich zrozumienia konieczne jest wykorzystanie złoŜonego modelu mental-nego.

4.3. Ostrzeganie i zabezpieczenie przed niepoprawnym