• Nie Znaleziono Wyników

METODA DETEKCJI STABILNEGO POLA JAKO ROZWINIĘCIE METODY DETEKCJI ENERGII NIEZNANYCH SYGNAŁÓW

N/A
N/A
Protected

Academic year: 2021

Share "METODA DETEKCJI STABILNEGO POLA JAKO ROZWINIĘCIE METODY DETEKCJI ENERGII NIEZNANYCH SYGNAŁÓW"

Copied!
104
0
0

Pełen tekst

(1)

POLITECHNIKA POZNAŃSKA

WYDZIAŁ ELEKTRONIKI I TELEKOMUNIKACJI

KATEDRA SYSTEMÓW TELEKOMUNIKACYJNYCH I OPTOELEKTRONIKI

METODA DETEKCJI STABILNEGO POLA JAKO ROZWINIĘCIE METODY DETEKCJI

ENERGII NIEZNANYCH SYGNAŁÓW

MGR INŻ. JAKUB NIKONOWICZ

ROZPRAWA DOKTORSKA NAPISANA POD KIERUNKIEM DR HAB. INŻ. MIECZYSŁAWA JESSY, PROF. PP

Poznań, 2018

(2)

1 Spis treści

1. Wstęp ...9

2. Ślepa detekcja sygnałów słabych ...12

2.1. Występowanie i zastosowanie sygnałów słabych ...12

2.1.1. Telekomunikacja ...13

2.1.2. Radioastronomia ...18

2.1.3. Fizyka cząstek i fal grawitacyjnych ...20

2.1.4. Nauki biomedyczne ...22

2.2. Zasadność detekcji nieznanych sygnałów ...25

3. Detekcja energii ...28

3.1. Koncepcja detekcji energii ...28

3.2. Model matematyczny ...29

3.3. Realizacja detekcji energii w formie ślepej ...33

3.4. Ograniczenia w detekcji energii nieznanych sygnałów...34

4. Estymacja mocy szumu w procesie detekcji energii ...37

4.1. Wybrane metody estymacji mocy szumu ...37

4.1.1. Estymacja mocy szumu w oparciu o maksymalizację prawdopodobieństwa ...38

4.1.2. Estymacja mocy szumu w oparciu o minimalizację wariancji ...38

4.1.3. Estymacja mocy szumu w oparciu o kryterium informacyjne Akaikego ...39

4.1.4. Estymacja mocy szumu w oparciu o własności macierzy kowariancji ...40

4.2. Wybrane metody separacji szumu ...41

4.2.1. Separacja w oparciu o kryterium minimalnej długości opisu ...41

4.2.2. Separacja w oparciu o dyskryminatora Fishera ...42

4.2.3. Separacja w oparciu o filtr erozyjny ...42

4.3. Analiza wpływu estymacji mocy szumu na proces detekcji energii ...45

4.3.1. Model symulacyjny ...45

4.3.2. Analiza porównawcza efektywności estymacji zmiennej mocy szumu ...47

5. Detekcja energii w odniesieniu do aktualnie stosowanych metod...53

5.1. Alternatywne metody ślepej detekcji sygnałów słabych ...53

5.1.1. Detekcja w oparciu o teorię informacji ...54

5.1.2. Detekcja w oparciu o wartości własne macierzy kowariancji ...55

5.1.3. Detekcja w oparciu o testy dopasowania statystycznego ...56

5.2. Ocena efektywności detekcji energii w odniesieniu do metod alternatywnych ...58

5.2.1. Model symulacyjny ...59

5.2.2. Analiza porównawcza skuteczności detekcji impulsu radiowego ...60

(3)

2

5.3. Detekcja energii w rozwiązaniach hybrydowych ... 65

5.3.1. Analiza aktualnie stosowanych rozwiązań ... 65

5.3.2. Detekcja hybrydowa w oparciu o równoległą analizę energii i entropii ... 68

6. Metoda Detekcji Stabilnego Pola ... 74

6.1. Koncepcja Detekcji Stabilnego Pola ... 74

6.2. Model matematyczny ... 76

6.3. Analiza porównawcza wydajności Detekcji Stabilnego Pola ... 80

6.3.1. Model symulacyjny ... 80

6.3.2. Analiza porównawcza skuteczności detekcji impulsu radiowego ... 85

6.3.3. Detekcja Stabilnego Pola w odniesieniu do rzeczywistego szumu ... 87

6.4. Zastosowania Detekcji Stabilnego Pola... 90

7. Podsumowanie ... 93

Bibliografia ... 95

Wykaz tabel i ilustracji ... 102

(4)

3 Wykaz ważniejszych skrótów i oznaczeń

AIC - Kryterium informacyjne Akaikego AWGN - Addytywny, biały szum Gaussowski

CFAR - Detekcja ze stałym prawdopodobieństwem fałszywego alarmu CLT - Centralne Twierdzenie Graniczne

CME - Estymator oparty na analizie wartości własnych macierzy kowariancji EEG - Elektroencefalogram

EKG - Elektrokardiogram

EME - Stosunek energii do minimalnej wartości własnej macierzy kowariancji EMG - Elektromiogram

ERP - Potencjały wywoływane FD - Dyskryminator Fishera FFT - Szybka transformata Fouriera FPP - Filtr pasmowo-przepustowy

FRB - Grupa szybkich impulsów radiowych ISM - Pasmo przemysłowe, naukowe i medyczne MAV - Średnia krocząca

MDL - Kryterium minimalnej długości opisu

ML - Estymator maksymalnego prawdopodobieństwa

MME - Stosunek maksymalnej do minimalnej wartości własnej macierzy MP - Rozkład Marchenko-Pastura

MVU - Estymator minimalnej wariancji PSR - Sygnał pulsarowy

RMSE - Pierwiastek błędu średniokwadratowego RRAT - Nieregularne, rotacyjne źródło radiowe SD - Odchylenie standardowe

SFD - Detekcja Stabilnego Pola

SNR - Stosunek mocy sygnału do szumu WIMP - Słabo oddziałujące, masywne cząstki

𝐴 - Wartość krytyczna testu Andersona-Darlinga dla poziomu ufności 𝛼 𝐴 - Amplituda sygnału informacyjnego

𝐵 - Współczynnik nadpróbkowania sygnału

𝐵 (𝑛) - Funkcja znaku różniczki uśrednionej gęstości widmowej mocy 𝐵 - Binaryzacja odchylenia 𝑅 względem odchylenia standardowego 𝑅

𝑪 - Macierz kowariancji

𝐶(𝑚) - Kowariancja dla przesunięcia wektora próbek o m pozycji 𝐷 - Sumaryczny wynik detekcji energii i entropii

𝐷 - Decyzja i-tego odbiornika

(5)

4 𝐷 , - Spadek energii sygnału

𝑒 - Entropia

𝐸 , - Energia sygnału

𝐸 - Znormalizowany wynik energii 𝐸 - Znormalizowany wynik entropii

𝐸(𝑥) - Empiryczna funkcja rozkładu próbek sygnału 𝑒𝑟𝑓(𝑎) - Funkcja błędu Gaussa

𝐹 (𝑘, 1) - Filtr erozyjny o rozmiarze 𝑘

𝐹(𝑥) - Teoretyczna funkcja rozkładu gaussowskiego

𝐻 - Stan braku obecności sygnału informacyjnego w kanale 𝐻 - Stan obecności sygnału informacyjnego w kanale

𝐻 - Wartość średnia empirycznego histogramu

𝐾 - Wartość krytyczna testu Kolmogorova-Smirnova dla poziomu ufności 𝛼 𝐿 - Zbiór stanów empirycznego histogramu

𝑚 - Indeks ramki czasowej sygnału

𝑚 - Centralny prążek gęstości widmowej mocy sygnału informacyjnego 𝑀 - Liczba ramek czasowych sygnału

𝑀 - Rozmiar średniej kroczącej 𝑛 - Indeks próbki sygnału

𝑁 - Liczba próbek odbieranego sygnału

𝑁 - Liczba próbek określająca czas trwania impulsu prostokątnego 𝑄 - Funkcja Q rozkładu ogona dla rozkładu Gaussowskiego 𝑝 - Prawdopodobieństwo wystąpienia i-tego stanu

𝑃 - Prawdopodobieństwo detekcji 𝑃 - Współczynnik detekcji

𝑃 - Prawdopodobieństwo fałszywego alarmu 𝑃 - Współczynnik fałszywych alarmów

𝑃 - Pole pod krzywą rozkładu Gaussa poza obszarem 〈−𝜎, 𝜎〉

𝑃 - Aproksymacja pola 𝑃

𝑃 ( ± ) - Pole pod krzywą rozkładu Gaussa w obszarze 〈(1 ± δ)σ, ∞〉

𝑃 (𝑛) - Gęstość widmowa mocy

𝑃 , (𝑛) - Gęstość widmowa mocy poddana filtrowaniu erozyjnemu 𝐹 (𝑘, 1) 𝑃 (𝑛) - Uśredniona gęstość widmowa mocy

𝑃 - Prawdopodobieństwo niewykrycia sygnału 𝑃 - Średnia moc sygnału dyskretnego 𝑥[𝑛]

𝑃 - Prawdopodobieństwo zdarzenia

𝑅 - Odchylenie standardowe niezależnych próbek uśrednionej gęstości wid- mowej mocy

𝑅 - Odchylenie próbek gęstości widmowej mocy od wartości średniej

(6)

5 𝑠[𝑛] - Dyskretny sygnał informacyjny

𝑆 - Zespolone współczynniki widmowe sygnału informacyjnego t [ . , ] - Wartość rozkładu t-Studenta dla 𝑁 próbek i poziomu ufności 0.9.

𝑇 - Dyskryminator Fischera

𝑇 - Wynik testu Andersona-Darlinga 𝑇 - Wynik testu Kolmogorova-Smirnova 𝑇 - Wynik testu Jarque-Bera

𝑇(𝜎 ) - Błąd dopasowania rozkładu

𝑥[𝑛] - Odbierany, dyskretny sygnał czasowy

𝑋 - Zespolone współczynniki widmowe odbieranego sygnału 𝑤[𝑛] - Addytywny, biały szum Gaussowski

𝑊 - Zespolone współczynniki widmowe szumu 𝑌 - Próbka gęstości widmowej mocy

𝑍̅ - Średnia wartość próbek gęstości widmowej mocy 𝑍 - Próbka uśrednionej gęstości widmowej mocy

α - Poziom ufności wyniku

𝛽 - Zakres niepewności definiowany jako odchylenie progu 𝛾 𝛾 - Próg decyzyjny

δ - Współczynnik relacji pomiędzy σ i σ.

𝛥 - i-ty podzbiór histogramu 𝛬(𝑥) - Statystyka testowa

𝜆 - Wektor wartości własnych macierzy kowariancji 𝜇 - Wartość średnia statystyki testowej w stanie 𝐻

𝜐 - Stała Eulera-Mascheroniego

𝜌 - Parametr kwantyfikacji niepewności szumów

𝜎 - Odchylenie standardowe statystyki testowej w stanie 𝐻 σ - Odchylenie standardowe wartości odchylenia standardowego 𝜎 σ - Odchylenie standardowe pola 𝑃

𝜎 - Wariancja szumu o rozkładzie Gaussowskim

𝜒 (2) - Wartość rozkładu chi-kwadrat o 2 stopniach swobody dla poziomu ufno- ści 𝛼

χ , - Wartość rozkładu chi-kwadrat z 𝑁 − 1 stopniami swobody dla 1 − α

współczynnika ufności

(7)

6

(8)

7 Streszczenie

Rozprawa dotyczy sposobów poprawy właściwości metody detekcji energii jako po- wszechnie stosowanej techniki wykrywania słabych sygnałów o nieznanej postaci. Wycho- dząc od opisu matematycznego metody oraz analizy jej głównych ograniczeń, tj. podatności na zmiany wariancji szumu tła i słabej skuteczności w przypadku niskiego SNR odbieranego sygnału, podjęto próbę przezwyciężenia wspomnianych wad. Dokonano przeglądu i oceny istniejących metod estymowania mocy szumu, a ponieważ jednym z podstawowych wymagań stawianych technikom estymacji jest niska złożoność procesu estymacji i wysoka dokładność zwracanej estymaty, badania rozpoczęto od poszukiwania metody estymowania mocy szumu która zaoferuje co najmniej taką samą, a najlepiej wyższą, jakość estymaty przy mniejszej złożoności czasowej w stosunku do metod stosowanych obecnie. Rezultatem jest nowa meto- da pozyskiwania próbek szumu opisana w rozprawie. Wprowadzone rozwiązanie zapewnia mniejszą niedokładność otrzymywanej estymaty oraz niższą złożoność czasową w odniesie- niu do alternatywnych metod. W przełożeniu na proces detekcji energii, usprawnienie wpływa na redukcję ograniczeń wynikających z niedokładności oszacowania mocy szumu i powoduje skrócenie całkowitego czasu trwania detekcji. W kontekście bezpośredniej poprawy skutecz- ności metody detekcji energii, porównano jakość tej metody z jakością detekcji oferowaną przez wybrane, alternatywne techniki wykrywania nieznanych sygnałów. Przeprowadzony przegląd posłużył do oceny metryk wydajności poszczególnych algorytmów. Podstawowym kryterium użyteczności metody było zapewnienie wysokiego prawdopodobieństwa detekcji dla niskich SNR sygnału wejściowego przy zachowaniu niewielkiej złożoności czasowej.

W oparciu o uzyskane rezultaty oraz analizę aktualnych kierunków rozwoju metody detekcji

energii, opracowano innowacyjny algorytm detekcji, nazwany detekcją hybrydową. Równo-

ległe połączenie detekcji energii i entropii sygnału poprawia skuteczność detekcji w stosunku

do metod stosowanych pojedynczo. Przedstawione w rozprawie usprawnienia niwelują ogra-

niczenia metody detekcji energii wynikające z zasad jej funkcjonowania. Stanowią jednak

odrębne algorytmy, rozszerzające podstawową metodę wykrywania sygnałów. Niestety zasto-

sowanie detekcji hybrydowej prowadzi do zredukowania głównej zalety detekcji energii

tj. prostej implementacji, co nie wyklucza użycia proponowanej metody w systemach o od-

powiednio dużej mocy obliczeniowej. Mając na uwadze podstawowy cel rozprawy, czyli po-

prawę właściwości detekcji energii przy jednoczesnym zachowaniu jej nieskomplikowania,

w toku dalszych badań opracowano nową technikę wykrywania nieznanych sygnałów, sta-

nowiącą modyfikację detekcji energii. Opracowana metoda całkowicie uniezależnia proces

detekcji od wariancji szumu tła. Nie wymaga zatem cyklicznego przeprowadzania estymacji

mocy szumu, a jednocześnie wykazuje poprawę metryk wydajności w stosunku do konwen-

cjonalnej metody detekcji energii. Skuteczność opracowanej metody wykazano na podstawie

serii eksperymentów z wykorzystaniem zarówno szumu pseudolosowego jak i rzeczywistego

szumu radiowego pasma ISM dla kanałów o szerokości 5 MHz i pasm ISM 868 MHz oraz

2,465 GHz.

(9)

8 Abstract

The dissertation concerns improving the properties of the energy detection method as a commonly used technique for detecting weak and unknown signals. Starting from the mathematical description of the method and an analysis of its main limitations, i.e. suscep- tibility to changes in the variance of background noise and poor performance in the case of low SNR of the received signal, an attempt to overcome these disadvantages has been made. A review and evaluation of existing noise power estimation methods has been per- formed, and because one of the basic requirements for estimation techniques is the low com- plexity of the estimation process and high accuracy of the returned estimate, the research be- gan with searching for a noise power estimation method that would offer at least the same, and preferably higher quality of the estimate with lower time complexity when compared with currently used methods. The result is a new method of obtaining noise samples, described in the dissertation. In the context of direct improvement of the effectiveness of energy detec- tion, the quality of the method has been compared with the quality of selected, alternative techniques of detecting unknown signals. The review was used to assess the performance met- rics of each detection algorithm. The basic criterion of the method's usefulness is to ensure high probability of detection for a low-SNR input signal while maintaining low time com- plexity. Based on the obtained results and an analysis of current directions of development of energy detection, an innovative hybrid detection algorithm has been developed. A parallel combination of energy and entropy detection improves the detection efficiency in relation to the methods used separately. Improvements presented in the study reduce the limitations of energy detection resulting from the principles of its functioning. However, they are sepa- rate algorithms that extend the basic detection method. Therefore, the use of hybrid detection leads to the reduction of the main advantage of energy detection, i.e., simple implementation.

Nevertheless, it does not exclude the use of the proposed method in systems with sufficiently

large computational power. Bearing in mind the purpose of the dissertation, i.e., improving

energy detection properties while maintaining its simplicity, in the course of further research

a new technique of detecting unknown signals has been developed, which is a modification

of energy detection. The developed method makes the detection process completely inde-

pendent of background noise variance. It does not require cyclical estimation of noise power,

and at the same time provides an improvement in performance metrics in comparison with

conventional energy detection. The effectiveness of the developed method has been demon-

strated on the basis of a series of experiments using both pseudorandom noise and real radio

noise of the ISM band for 5 MHz wide channels with central frequencies at 868 MHz

and 2.465 GHz.

(10)

9 1. Wstęp

Teoria wykrywania sygnałów bierze swój początek z klasycznych dzieł Bayesa [1], Gaus- sa [2], Fishera [3] czy Neymana-Pearsona [4] dotyczących wnioskowania statystycznego.

Za rozpoznawalną dyscyplinę została uznana we wczesnych latach czterdziestych XX wieku.

Kompleksowy przegląd technik stosowanych w teorii detekcji sygnałów opracowanych w ostatnich dziesięcioleciach można znaleźć m.in. w [5]. Detekcja sygnałów obejmuje bardzo szeroki zakres potencjalnych zastosowań, począwszy od systemów komunikacyjnych przez rejestrowanie słabych oddziaływań w metrologii po detekcję zdarzeń w badaniach fizycznych.

Problematyka rozprawy odnosi się do zagadnienia detekcji sygnałów o nieznanej postaci i niewielkiej mocy w stosunku do szumu tła, tj. wykrycia w szumie obecności lub braku sła- bego sygnału deterministycznego. Sygnał ten może być również określany mianem "sygnału informacyjnego" w kontekście komunikacyjnym lub "zdarzenia" w sensie fizycznym. W całej pracy "wykrywanie sygnału" odnosi się do ogólnego przypadku identyfikacji obecności sy- gnału w rejestrowanym szumie. Ważne jest, aby zauważyć, że znaczna część publikowanych prac rozważa problem wykrywania obecności znanych sygnałów, tj. opisuje próby uzyskania wydajnego detektora koherentnego. Natomiast detekcja rozpatrywana w rozprawie jest skon- centrowana na problemie wykrywania nieznanych sygnałów odnosząc się do trudności zwią- zanych z detekcją niekoherentną i dotyczy interdyscyplinarnego obszaru badań. Celem roz- prawy jest przedstawienie kompleksowej analizy działania konwencjonalnego detektora ener- gii i zaproponowanie zaawansowanej techniki detekcji w oparciu o jego rozwinięcie. Na po- trzeby rozprawy sformułowano następującą tezę:

Metodę detekcji energii można zmodyfikować w taki sposób, aby prawdopodobieństwo de- tekcji słabego i nieznanego sygnału nie zależało od estymaty mocy szumu gaussowskiego w kanale. Wprowadzenie modyfikacji nie zmniejsza prawdopodobieństwa detekcji oraz nie zwiększa prawdopodobieństwa fałszywego alarmu w porównaniu z konwencjonalnym detekto- rem energii.

W celu potwierdzenia tezy zrealizowano następujące zadania szczegółowe:

 Przeprowadzono analizę ograniczeń detektora energii.

 Dokonano implementacji i porównania wybranych technik estymacji wariancji szumu, stosowanych w procesie detekcji energii.

 Oszacowano niedokładności otrzymywanej estymaty i opracowano alternatywny algo- rytm wyznaczania mocy szumu.

 Zaimplementowano i porównano wybrane techniki detekcji słabych, nieznanych sy- gnałów w warunkach idealnego szumu oraz rzeczywistego szumu radiowego pasma ISM.

 Przeprowadzono identyfikację kierunków rozwoju metod opartych o detekcję energii

i zaproponowano nowy algorytm detekcji hybrydowej.

(11)

10

 Opracowano nowatorską technikę detekcji słabych, nieznanych sygnałów, opartą na analizie energii, lecz wykluczającą konieczność estymowania wariancji szumu.

 Przeprowadzono porównanie metryk wydajności opracowanej metody i konwencjo- nalnego detektora energii w warunkach idealnego szumu oraz rzeczywistego szumu radiowego pasma ISM.

Zakres pracy obejmuje zarówno analizę istniejących rozwiązań, jak i opracowanie no- wych algorytmów przetwarzania i klasyfikacji obecności sygnałów. Rozprawa zawiera 6 roz- działów, których układ odpowiada kolejnym etapom przeprowadzonych badań.

W rozdziale 2 przedstawione zostało występowanie i zastosowanie sygnałów słabych zgodnie z aktualnym stanem wiedzy z różnych dziedzin. Opis obejmuje obszary komunikacji bezprzewodowej, w których wykrywanie sygnałów słabych ma krytyczne znaczenie w sku- tecznej klasyfikacji zajętości zasobów radiowych. Omówione zostało wykorzystanie detekcji słabych sygnałów w radioastronomii, ze szczególnym uwzględnieniem poszukiwania nowych źródeł promieniowania elektromagnetycznego oraz wykrywania sygnałów pulsarowych.

Przedstawione zastosowania uwzględniają także zapotrzebowanie na nowe techniki detekcji sygnałów w obszarze aktualnych badań z zakresu fizyki cząstek elementarnych oraz w zakresie monitorowania aktywności elektromagnetycznej w procesie analizy biosygnałów.

Wprowadzenie w obszar występowania i zastosowań detekcji słabych sygnałów zakończone zostało uzasadnieniem stosowania detekcji ślepej w odniesieniu do wskazanych dziedzin.

W rozdziale 3 przedstawiono podstawowe informacje na temat detekcji energii jako naj- częściej stosowanej metody wykrywania słabych sygnałów w białym szumie gaussowskim.

Opis stanowi matematyczną analizę detekcji energii w kontekście stosowanej reguły decyzyj- nej. Detekcja energii w równaniu progowania odwołuje się do znajomości mocy szumu.

W związku z powyższym w rozdziale omówiono czynniki ograniczające skuteczność detekcji energii, wynikające z konieczności jej estymacji.

Rozdział 4 stanowi omówienie zasadności estymacji mocy szumu jako procesu koniecz-

nego w detekcji energii nieznanych sygnałów. Opis odnosi się do wybranych metod estymacji

mocy szumu gaussowskiego tj. estymatora maksymalizującego prawdopodobieństwo dopa-

sowania mocy, estymatora minimalizującego wariancję estymowanej mocy, wykorzystania

kryterium informacyjnego Akaikego w podziale uśrednionego periodogramu czy poszukiwa-

nia rozkładu Marchenko-Pastura o najlepszym współczynniku dopasowania do empirycznego

rozkładu wartości własnych macierzy kowariancji. Ze względu na konieczność wydzielenia

próbek szumu w niektórych algorytmach, w rozdziale opisane zostały wybrane techniki po-

działu próbek odbieranego sygnału. Obejmują one kryterium minimalizacji funkcji opisowej

oraz kryterium maksymalizacji dyskryminatora Fishera. Ponadto w rozdziale przedstawiana

jest autorska metoda prostej techniki oznaczania pasm sygnału i szumu, bazująca na analizie

spadku mocy w procesie iteracyjnej filtracji erozyjnej. Wszystkie omawiane rozwiązania zo-

stały poddane analizie porównawczej pod kątem dokładności oraz stabilności odwzorowywa-

nia mocy szumu o zmiennej wariancji. W porównaniu wykorzystano rzeczywisty szum kana-

łu 2,480 GHz pasma ISM.

(12)

11 W rozdziale 5 przedstawiono kompleksową analizę rozwiązań alternatywnych dla detek- cji energii. Badane metody obejmują wykorzystanie korelacji pomiędzy próbkami sygnału, wykorzystanie szumu jako źródła o maksymalnej entropii oraz testy dopasowania statystycz- nego względem teoretycznego rozkładu białego szumu gaussowskiego. Rozdział stanowi opis porównawczej oceny efektywności pod kątem poprawnej oraz błędnej klasyfikacji obecności impulsu radiowego w białym szumie gaussowskim. W rozdziale omówiono metody poprawy detekcji energii poprzez jej zwielokrotnienie czasowe i przestrzenne oraz połączenie w na- przemienne okresy dokładnego i szybkiego wykrywania z metodami alternatywnymi. Dalszą część rozdziału stanowi omówienie zalet i wad aktualnie stosowanych rozwiązań oraz przed- stawienie autorskiej metody detekcji hybrydowej w formie równoległego połączenia w pojedynczym odbiorniku ważonej sumy znormalizowanych energii i entropii. Proponowane rozwiązanie porównywano pod kątem skuteczności detekcji z samodzielnymi detektorami energii i entropii. W porównaniu wykorzystywano rzeczywisty szum kanału 868 MHz pasma ISM.

Rozdział 6 stanowi opis autorskiej metody detekcji słabych, nieznanych sygnałów na- zwanej Detekcją Stabilnego Pola. Proponowana metoda, będąca rozwiązaniem równoważnym detekcji energii, opisana jest pod kątem wspólnych aspektów obu metod oraz wprowadzonych nowatorskich rozwiązań pozwalających na przekształcenie detektora energii w uproszczony test dopasowania statystycznego. Omówienie matematycznych podstaw realizacji Detekcji Stabilnego Pola wykazuje niezależność proponowanej metody od zmiennej mocy szumu, przy jednoczesnym zachowaniu prostoty progowania rozkładu gaussowskiego. W dalszej części rozdziału Detekcja Stabilnego Pola została porównana z innymi metodami detekcji pod kątem teoretycznej efektywności wykrywania słabego impulsu radiowego. Badaniu podlega również skuteczność klasyfikacji zależnie od szerokości impulsu, stosunku mocy sygnału do szumu oraz przetwarzanej liczby próbek. Teoretyczna efektywność jest porównywana z wynikami osiąganymi w warunkach rzeczywistego szumu pasma ISM. Zakończenie rozdziału stanowi wykazanie potencjalnych obszarów zastosowania metody w odniesieniu do dziedzin omawia- nych w rozdziale drugim.

W podsumowaniu zawarto opis zrealizowanych celów oraz wkładu własnego autora

w poprawę ślepej detekcji słabych sygnałów wraz z wnioskami z przeprowadzonych badań.

(13)

12 2. Ślepa detekcja sygnałów słabych

2.1. Występowanie i zastosowanie sygnałów słabych

Pojęcie sygnału słabego obejmuje sygnał o znikomo małej mocy w odniesieniu do mocy zakłócającego szumu. Nie oznacza to wyłącznie niewielkiej amplitudy odbieranego sygnału informacyjnego, ale odnosi się również do sygnału silnego transmitowanego w bardzo silnym szumie. W rezultacie, w obu przypadkach, dla odbiornika sygnał jest trudno rozróżnialny od tła szumowego. Powszechnie przyjmuje się zaliczanie sygnału do grupy sygnałów słabych przy stosunku odbieranej mocy sygnału-do-szumu (SNR, ang. signal-to-noise ratio) mniejszej od 0 dB [6]. Definicja określa jedynie górny limit SNR sygnału słabego, podczas gdy opty- malny detektor powinien być dostosowany do odbioru możliwie jak najsłabszych sygnałów.

W przypadku wielu systemów użytkowych mamy do czynienia z SNR na poziomie od 0 dB do nawet –20 dB [7]. Warunkiem dalszego rozwoju w zastosowaniach sygnałów słabych jest skuteczne obniżanie wymagań na SNR sygnału wejściowego. Podstawowym wyzwaniem stawianym przed współczesną detekcją sygnałów słabych staje się zatem stworzenie definio- wanego programowo odbiornika, który sprosta narastającym potrzebom nauki i techniki.

W dalszej części rozprawy przyjmujemy, że dane wejściowe, którymi operuje odbiornik, są dyskretnymi ciągami próbek reprezentującymi sygnał w dziedzinie czasu. Założenie jest zasadne, ponieważ współcześnie większość operacji przetwarzania danych jest realizowana na próbkowanych ciągach czasowych. W przypadku odbieranego, dyskretnego sygnału cza- sowego 𝑥[𝑛], zdefiniowanego jako

𝑥[𝑛] = 𝑠[𝑛] + 𝑤[𝑛], (2.1)

gdzie 𝑠[𝑛] jest sygnałem informacyjnym (deterministycznym), natomiast 𝑤[𝑛] białym, addy- tywnym szumem Gaussowskim, sygnał 𝑥[𝑛] będzie uważany za sygnał słaby, gdy spełniony zostanie warunek

𝑆𝑁𝑅 = < 1, gdzie 𝑃 = 𝑃 − 𝑃 . (2.2)

W równaniu (2) zmienne 𝑃 , 𝑃 i 𝑃 są odpowiednio mocami sygnału odbieranego, informa- cyjnego oraz szumu. Natomiast wzór na średnią moc 𝑃 sygnału dyskretnego 𝑥[𝑛] o długości N próbek czasowych definiuje [8]

𝑃 = ∑ |𝑥[𝑛]| . (2.3)

Nieodłącznym elementem analizy sygnałów słabych jest szum w[n]. Większość opraco-

wań opisujących metody detekcji sygnałów słabych, jako źródło zakłóceń przyjmuje biały,

addytywny szum Gaussowski (AWGN, ang. additive white Gaussian noise). Oznacza to li-

niowe dodawanie do sygnału szerokopasmowego szumu o stałej gęstości widmowej i rozkła-

dzie amplitudowym Gaussa (rys. 2.1). W przypadku szumu o rozkładzie gaussowskim z ze-

rową wartością średnią oraz wariancją 𝜎 , zgodnie z centralnym twierdzeniem granicznym,

(14)

13 dla dużej liczby N próbek sygnału wejściowego, średnia moc szumu może być przybliżona rozkładem normalnym [9]

𝑤[𝑛]~𝒩(0, 𝜎 ) 𝑃 ~𝒩(𝜎 , 2𝜎 ⁄ ). 𝑁 (2.4) Powyższa własność znacząco upraszcza wykorzystanie energii szumu w detekcji sygnałów słabych, czyniąc z detektora energii jedno z najpopularniejszych definiowanych programowo rozwiązań.

Rys. 2.1. Poglądowa charakterystyka komponentów sygnału słabego

Założenie dotyczące AWGN jako źródła zniekształceń, nie jest podyktowane tylko mate- matyczną wygodą w opracowaniach statystycznego modelu odbiornika. Wynika ono z od- zwierciedlania wielu naturalnych źródeł procesów losowych oraz szerokiego zastosowania w podstawowych modelach teorii informacji. Oczywiście addytywny, biały szum Gaussowski nie w każdej sytuacji jest odpowiednim przybliżeniem. Odnosi się to chociażby do zaników selektywnych, wielodrogowości czy dyspersji. Jednakże udział szumów nieaddytywnych mo- że być uznany w wielu sytuacjach za nieistotny [10]. Rozpatrywanie AWGN jako podstawo- wego źródła zakłóceń prowadzi do prostych i praktycznych podstaw matematycznych, umoż- liwiających wgląd w zasadnicze zachowania systemu odbiorczego, zanim inne zjawiska zo- staną wzięte pod uwagę.

2.1.1. Telekomunikacja

W nowoczesnej radiokomunikacji systemy projektowane są w sposób minimalizujący prawdopodobieństwo nieuprawnionego dostępu do transmitowanych treści oraz maksymali- zujący właściwości przeciwzakłóceniowe transmitowanego sygnału. Wypełnianie powyż- szych warunków odbywa się m.in. z wykorzystaniem rozpraszania sygnału w częstotliwości.

Ponadto, nadajnik może być zaprojektowany tak, aby transmitował energię wystarczającą jedynie do przeprowadzenia detekcji opartej na informacjach uzyskanych a priori. Niewielka moc transmisji poprawia ekonomię energetyczną nadajnika oraz zwiększa prywatność nada- wanych wiadomości. Rozpraszanie i ograniczenia energetyczne, skutkują jednak powstawa- niem sygnałów słabych [11].

S YGNAŁ IMPULSOWY AWGN

(15)

14 Równie istotnym problemem, wpływającym na wzrost liczby odnotowywanych sygnałów słabych, są trudne warunki propagacji. Redukcja siły sygnału w wyniku wielokrotnych odbić oraz osłabienie podczas przenikania przez materiały konstrukcyjne złożonych środowisk tj. budynków, tuneli czy innego rodzaju zamkniętych struktur, znacząco utrudnia komunikację [12].

Wymienione czynniki, często napotykane w praktyce, skutkują słabymi warunkami pro- pagacji sygnału, a w konsekwencji słabymi warunkami odbioru. W związku z powyższym poprawa skuteczności detekcji sygnałów słabych jest zagadnieniem budzącym powszechne zainteresowanie w zakresie dalszego rozwoju komunikacji bezprzewodowej.

Detekcja sygnałów słabych, choć ma zastosowanie w kontekście całej radiokomunikacji, nabiera szczególnego znaczenia w odniesieniu do szybko ewoluującej koncepcji radia kogni- tywnego.

Spektrum elektromagnetyczne częstotliwości radiowych, w dynamicznie rozwijającej się komunikacji bezprzewodowej jest zasobem deficytowym. Dotychczasowy schemat zagospo- darowania i przydzielania kanałów radiowych nie może sprostać stale narastającym wymaga- niom na wyższe przepustowości transmisyjne. Lokalna alokacja pasm radiowych, licencjo- nowana dla poszczególnych użytkowników, skutkuje ekstremalnie niewydajnym wykorzy- stywaniem zasobów. Praca w obszarze poprawy zagospodarowania częstotliwości radiowych skupia się wokół technologii oportunistycznego dostępu do zasobów w czasie, częstotliwości i przestrzeni [13], [14], [15].

W obowiązującym modelu radia kognitywnego, użytkownik oportunistyczny, nazywany również wtórnym, nie ma dostępu do pasma aktualnie zajmowanego przez licencjonowanego użytkownika pierwotnego. W takim przypadku odbiornik radiowy użytkownika wtórnego musi zidentyfikować dostępne subpasma spektrum radiowego lub równoważnie wykryć tzw.

białe dziury, które są zasobami radiowymi niewykorzystywanymi w danym momencie i loka- lizacji (rys. 2.2).

Rys. 2.2. Poglądowa, czasowo-częstotliwościowa charakterystyka zajętości zasobów radiowych Wolne zasoby

radiowe

(16)

15 Podstawowym zadaniem radia kognitywnego jest wykrywanie sygnałów radiowych w czasie i przestrzeni, tak aby jak najskuteczniej określać obecność transmisji użytkownika pierwotnego. Wymagane jest także, aby użytkownik oportunistyczny możliwie szybko zwol- nił kanał radiowy w przypadku ponownego pojawienia się transmisji użytkownika pierwotne- go, w celu minimalizowania szkodliwej interferencji. W konsekwencji odbiornik zobligowany jest do utrzymywania zaktualizowanych informacji na temat dostępności zasobów w lokal- nym środowisku radiowym.

Biorąc pod uwagę powyższe warunki, użytkownik wtórny musi być zdolny do wykrywa- nia nawet bardzo słabych sygnałów, generowanych przez użytkownika pierwotnego. Detekcja sygnałów słabych musi się odbywać zarówno celem określenia zajętości zasobów radiowych jak i cyklicznego monitorowania potencjalnej aktywności użytkowników licencjonowanych.

Można zauważyć, że nie ma zasadniczego rozróżnienia pomiędzy wykonaniem począt- kowego wykrycia, które gwarantuje dostępność zajmowanego fragmentu widma, a procedurą monitorowania potwierdzającą, że pasmo nadal jest dostępne (rys. 2.3). Zadanie uzyskania i podtrzymywania świadomości odbiornika na temat wykorzystywania otaczającego go spek- trum, jest szczególnie istotne w celach efektywnego, oportunistycznego wykorzystania wol- nych zasobów [14], [15].

Rys. 2.3. Schemat blokowy nadajnika/odbiornika radia kognitywnego

Poprzez konieczność monitorowania zajmowanego pasma, radio kognitywne musi doko- nywać przerw w komunikacji celem wykrycia sygnału użytkownika pierwotnego (rys. 2.4).

Podczas okresów wykrywania, tzn. okresów, w których pasmo jest sprawdzane, nadajnik nie przesyła żadnych danych. W konsekwencji, jeżeli czas analizowania pasma jest zbyt długi, następuje wzrost wprowadzanych opóźnień transmisji, a przepustowość sieci drastycznie spa- da [16].

W omawianym przypadku, fundamentalnym problemem warunkującym realizację syste- mu kognitywnego, jest detekcja sygnałów słabych, która musi być szybka i rzetelna. Opty- malny detektor powinien odznaczać się prostą implementacją oraz wykonaniem procesu wy- krywania w możliwie krótkim czasie przy jak najniższych wymaganiach dla SNR sygnału wejściowego.

U KŁAD NADAWCZO - ODBIORCZY

A DAPTACJA D EMODULACJA

W YKRYWANIE

K LASYFIKOWANIE

D ETEKCJA SYGNAŁÓW

D

ANE WYJŚCIOWE

D

ANE WEJŚCIOWE

A/C

D

ECYZJA

S

TEROWANIE

O

DBIERANY SYGNAŁ

(17)

16 Rys. 2.4. Cykl działania nadajnika/odbiornika radia kognitywnego

W przypadku radia kognitywnego problem detekcji sygnałów słabych w analizie wąsko- pasmowej sprowadza się do stwierdzenia czy pasmo jest „zajęte” czy „wolne”. W podstawo- wej formie ogranicza się do prostego rozróżnienia pomiędzy dwoma hipotezami oznaczanymi H 0 i H 1

𝐻 ∶ 𝑥[𝑛] = 𝑤[𝑛]

𝐻 ∶ 𝑥[𝑛] = 𝑠[𝑛] + 𝑤[𝑛] (2.5)

gdzie 𝑥[𝑛] opisuje sygnał czasowy odbierany przez użytkownika wtórnego, 𝑠[𝑛] reprezentuje sygnał użytkownika pierwotnego docierający do użytkownika wtórnego, a 𝑤[𝑛] jest zespolo- nym, symetrycznym, addytywnym, białym szumem gaussowskim z zerową wartością średnią i wariancją 𝜎 .

Ze względu na prostotę, detekcja energii jest jedną z najpopularniejszych niekoherentnych metod, szeroko przywoływanych w literaturze. Detekcja energii nie wymaga informacji a priori na temat sygnałów użytkownika pierwotnego i zapewnia relatywnie niską złożoność obliczeniową. W praktyce, gdy dochodzi do problemu monitorowania widma, opartego w głównej mierze na analizie mocy sygnału użytkownika wtórnego, detekcja energii jest roz- wiązaniem intuicyjnym [14], [17].

Widzimy zatem, że dokonywane monitorowanie dostępności zasobów radiowych w radiu kognitywnym, w pełni koresponduje z założeniami poczynionymi na wstępie celem systema- tyzacji opisu sygnału słabego. Warto także zaznaczyć, że problem detekcji sygnałów słabych, w szczególności w oparciu o analizę energii, nie jest jedynie problemem abstrakcyjnym, roz- ważanym w sferze zagadnień teoretycznych. Jest to realny problem, powszechnie analizowa- ny w dziedzinie radia kognitywnego, warunkujący współczesny rozwój dziedziny. Koncepcja radia kognitywnego, a zatem towarzyszące mu występowanie sygnałów słabych i wyzwania dla ich efektywnego wykrywania, ujęto, miedzy innymi, w standardach IEEE 802.11af WLAN, IEEE 802.15.4m ZigBee czy EMCA-392, regulujących wykorzystanie oportuni- stycznego dostępu w białych dziurach pasma telewizyjnego [18], [19].

Komunikacja kognitywna nie jest jednak jedynym zagadnieniem, w którym detekcja sy- gnałów słabych stanowi istotne wyzwanie. Równie ważnym zagadnieniem jest unikanie inter- ferencji współkanałowej oraz regulowanie mocy nadawczej. Odnosi się to przykładowo do

Ś RODOWISKO RADIOWE

D ETEKCJA SYGNAŁÓW

T RANSMISJA DANYCH

A LOKACJA ZASOBÓW

O D B IO R N IK

N ADAJNIK

(18)

17 sieci makro-femtokomórkowych, w których występuje zabieg ponownego wykorzystania czę- stotliwości [20], [21].

Technologia „małych komórek” została stworzona, aby sprostać wyzwaniom narastającej transmisji danych, wzrostu wymagań na zasoby częstotliwościowe i żądania wyższych prze- pływności związanych z usługami multimedialnymi w ograniczonych środowiskach radio- wych. Operatorzy sieciowi preferują przypisanie tego samego łącza użytkownikom makro- komórkowym i femtokomórkowym, którzy są geograficznie oddaleni. Taki zabieg zwiększa pojemność i wydajność sieci. Niemiej jednak, ponowne wykorzystanie częstotliwości może prowadzić do współkanałowej interferencji, a w konsekwencji spadku jakości świadczonej usługi.

Aby uniknąć szkodliwej interferencji, nadajnik/odbiornik femtokomórkowy musi pozy- skiwać informacje na temat stanu współkanałowego nadajnika/odbiornika makrokomórkowe- go i odpowiednio dobrać maksymalną moc transmisyjną w obrębie femtokomórki (rys. 2.5).

Po upewnieniu się o obecności transmisji makrokomórkowej we wspólnym kanale, maksy- malna moc nadawcza odpowiadająca transmisji femtokomórkowej jest optymalizowana tak, aby uniknąć interferencji.

We współistniejącej makro-femtokomórkowej sieci, femtokomórki mają charakter usługi uzupełniającej. W zamiarze mają one wykorzystywać pozostałe, szczątkowe spektrum. Kon- cepcja usługi jest zbliżona do technologii radia kognitywnego. Szczególnie w pierwszej fazie tzw. detekcji zgrubnej, w której następuje określenie zajętości kanału. Sprowadza się to po- nownie do rozróżnienia pomiędzy hipotezą H 0 i H 1 . W przypadku „małych komórek”, w przeciwieństwie do koncepcji radia kognitywnego opisywanego we wcześniejszych akapi- tach, jeżeli wykryta zostanie istniejąca transmisja we współdzielonym kanale, nadajnik fem- tokomórkowy nie zaprzestaje transmisji, a jedynie optymalizuje moc nadawania tak, aby obie transmisje mogły być zrealizowane w tym samym czasie, przestrzeni oraz paśmie.

Rys. 2.5. Cykl działania nadajnika/odbiornika femtokomórkowego

Dobór optymalnej mocy nadawania 𝑃 odbywa się poprzez analizę mocy sygnału ma- krokomórkowego 𝑃 oraz towarzyszącej mu wariancji 𝜎 w odniesieniu do maksymalnej do- puszczalnej mocy transmisyjnej nadajnika femtokomórkowego 𝑃 [20]

𝑃 = 𝑚𝑖𝑛 𝑃 , . (2.6)

W SPÓŁDZIELONY KANAŁ RADIOWY

D ETEKCJA SYGNAŁÓW

T RANSMISJA DANYCH

O PTYMALIZACJA MOCY

O D B IO R N IK F E M T O K O M Ó R K O W Y

N ADAJNIK FEMTOKOMÓRKOWY

(19)

18 W powyższym przypadku sygnał 𝑥[𝑛] rozpatruje się jako zanurzenie sygnału informacyjnego 𝑠[𝑛] w szumie 𝑤[𝑛], który jest sumą wszystkich źródeł szumowych w kanale bezprzewodo- wym. Zgodnie z centralnym twierdzeniem granicznym, jeżeli badana wielkość jest sumą bar- dzo wielu zmiennych losowych, to niezależnie od rozkładu każdej z tych zmiennych, rozkład sumy będzie zbliżony do normalnego [21].

Omawiany proces oceny zajętości współdzielonego kanału ponownie silnie koresponduje z problemem detekcji sygnałów słabych zakłócanych szumem gaussowskim, rozpatrywanym we wprowadzeniu.

W telekomunikacji można odnaleźć wiele przykładów podobnych systemów. Niezależnie jednak od efektu końcowego, tj. oceny zajętości zasobów, unikania szkodliwej interferencji czy regulacji mocy nadawania, początkowy etap pozostaje taki sam - jest nim zastosowanie technik detekcji sygnałów słabych.

2.1.2. Radioastronomia

Od czasu odkrycia we wczesnych latach trzydziestych XX wieku, fal radiowych propagują- cych w przestrzeni międzygwiezdnej, większość obiektów astronomicznych zaczęto postrze- gać jako potencjalne źródła fal elektromagnetycznych. Na skutek dokonanego odkrycia, ob- serwacje radioastronomiczne stały się najczęściej stosowaną metodą odkrywania i badania kosmosu. Współczesna astronomia obserwacyjna, oparta na sieci radioteleskopów, polega w głównej mierze na pomiarze energii odbieranej z odległych źródeł, ze szczególnym naci- skiem na wykrywanie nieznanych i słabych sygnałów [22]. Eksploracja coraz odleglejszych obszarów wszechświata, a więc przesunięcie badań astrofizycznych w kierunku coraz słab- szych oddziaływań, skutkuje koniecznością coraz szybszego rozwoju technik wykrywania sy- gnałów niskiej jakości.

Jednym z bardzo aktywnych obszarów współczesnych badań jest poszukiwanie pozaziem- skich sygnałów w astronomicznych zbiorach danych. Praca koncentruje się na identyfikacji i klasyfikacji szczególnie rozproszonych sygnałów radiowych jakich oczekuje się od gwiazd pulsarowych (PSR, ang. pulsar), rotacyjnych nieregularnych radioźródeł (RRAT, ang. rota- ting radio transient) czy pojedynczych zdarzeń tj. grupy szybkich impulsów radiowych (FRB, ang. fast radio burst). Konwencjonalnie sygnały te są odkrywane przez weryfikację kandyda- tów sygnałowych, stanowiących potencjalne źródło periodycznych lub pojedynczych impul- sów [22], [23]. Ręczna inspekcja prowadzona przez ekspertów dziedzinowych do pewnego stopnia prawdopodobnie zawsze będzie integralną częścią procesu odkrywania pulsarów.

Jednak automatyzacja większości procesów klasyfikujących ma kluczowe znaczenie dla przy- szłości radioastronomii.

Zautomatyzowane wykrywanie i klasyfikowanie słabych sygnałów, przekładające się

na oznaczanie potencjalnych kandydatów sygnałowych, jest jedynym możliwym sposobem

radzenia sobie z dużymi zbiorami danych. Rozwiązanie oferuje jednocześnie wiele potencjal-

nych korzyści w usprawnieniu procesu wykrywania, na przykład, poprzez uruchomienie

(20)

19 szybkiego śledzenia kandydatów na wielu długościach fal, aby ograniczyć źródła pochodzenia pozostałych sygnałów.

Odnajdywanie słabych sygnałów pulsarowych w zestawach danych radiowych jest zwykle realizowane w czterech etapach tj. gromadzenia danych, dedyspersji, poszukiwania okreso- wości lub pojedynczego impulsu oraz weryfikacji. W pierwszej fazie surowe dane gromadzo- ne są w radioteleskopach jako seria napięć w czasie. Następnie wykonywana jest dedyspersja, czyli redukcja opóźnień powstających w ośrodku międzygwiezdnym, wskutek różnic w pręd- kości propagacji fal radiowych o różnej częstotliwości. Trzeci etap odnosi się bezpośrednio do detekcji sygnałów słabych i składa się z wykrywania oraz klasyfikowania potencjalnych kandydatów sygnałowych [22], [24]. Schemat blokowy algorytmu detekcji pulsarowej (rys. 2.6) w uproszczeniu można przedstawić jako składanie danych przez uśrednianie cha- rakterystyki w skończonym zbiorze okresów, przetwarzanie odpowiedzi impulsowej filtra dopasowanego i adaptacyjne wykrywanie sygnału pulsarowego.

Rys. 2.6. Schemat blokowy detektora sygnałów pulsarowych

Artykuły dotychczas opisujące zautomatyzowane techniki wyszukiwania sygnałów [25], [26], [27], [28], oparte są na metodach heurystycznych, polegających np. na przesiewaniu kandydatów za pomocą znanych progów SNR. Najnowsze prace nie koncentrują się jednak na rozwiązaniach heurystycznych, ale na tworzeniu inteligentnych klasyfikatorów. Uniwer- salne metody wykrywania słabego sygnału mają zatem ogromny potencjał dla przyszłych odkryć w radioastronomii. Szczególnie gdy teleskopy radiowe stają się większe i lepsze, a wzrost ilości danych uniemożliwia ręczne sprawdzenie każdego potencjalnego kandydata.

Inteligentne, skalowalne techniki wykrywania są jedynym realnym rozwiązaniem problemów związanych z przeszukiwaniem dużych baz danych, które pojawiają się na horyzoncie szybko rozwijających się obserwacji radioastronomicznych.

Detekcja sygnałów słabych w radioastronomii nie ogranicza się jedynie do bieżących pro- blemów detekcji słabych fal elektromagnetycznych propagowanych z odległych źródeł. Wa- runkuje również rozwój przyszłych technologii, stwarzając możliwości dalszego rozwoju tech- nik eksploracji przestrzeni kosmicznej.

F ILTR GÓRNO -

PRZEPUSTOWY

F ILTRACJA DOPASOWANA

S KŁADANIE

CHARAKTERYSTYKI

K LASYFIKOWANIE

W YKRYWANIE

D ETEKCJA SYGNAŁÓW

D

ANE WEJŚCIOWE

A/C

D

ECYZJA

O

DBIERANY SYGNAŁ

(21)

20 Aktualność problemu potwierdzają prace trwające w wielu zespołach naukowych, mające na celu rozwiązanie trudności z wykrywaniem słabych sygnałów w synchronizacji pulsarowej [29]. Futurystyczna technologia ma umożliwić autonomiczną nawigację pojazdom poruszają- cym się w przestrzeni kosmicznej. W dalszej perspektywie technologia miałaby jednak mieć zastosowanie również w nawigacji naziemnej. W teorii system oparty byłby na danych czaso- wych pulsarów, charakteryzujących się wysoką dokładnością i stabilnością, porównywalną z aktualnymi zegarami atomowymi. Warto w tym miejscu zaznaczyć, że sygnały pulsarów mają unikatowe sygnatury, które można z łatwością wykorzystać jako radioastronomiczne latarnie nawigacyjne. Główną trudnością w rozwoju systemu jest jednak zapewnienie efek- tywnego wyszukiwania źródeł, ograniczone bardzo słabym SNR odbieranych sygnałów pulsa- rowych, które zniekształcane są dużymi odległościami, dyspersją oraz zakłóceniami impulso- wymi [30].

Podobnie jak w przypadku radia kognitywnego, detekcja sygnałów słabych jest kluczowym elementem poprawnie klasyfikującym odbierane sygnały radioastronomiczne. W związku z tym poszukiwanie nowych, ulepszonych metod wykrywania słabych sygnałów jest rzeczywi- stym problemem, napotykanym w wielu niezależnych obszarach współczesnej nauki.

2.1.3. Fizyka cząstek i fal grawitacyjnych

Opisując zastosowanie sygnałów słabych w telekomunikacji czy radioastronomii, odwoły- wano się do występowania sygnałów w postaci fal elektromagnetycznych. Występowanie sy- gnałów słabych nie ogranicza się tylko do miernictwa elektrycznego. Pomiary dokonywane w niemal wszystkich obszarach nauki, opierają się obecnie na sieciach sensorowych, których zadaniem jest konwersja własności fizycznych lub chemicznych na sygnały elektryczne [31].

Również słabe oddziaływania nieelektryczne w wyniku konwersji mogą skutkować powsta- waniem sygnałów słabych w dziedzinie cyfrowego przetwarzania sygnałów. Wprowadzanie sieci sensorowych do coraz większej liczby obszarów badawczych zapewnia pełną kontrolę nad procesem pomiaru rzeczywistych wielkości nieelektrycznych. Potencjalne korzyści płyną- ce z zastosowania systemów sensorowych dotyczą w szczególności automatycznej identyfika- cji i gromadzenia danych na temat badanych obiektów [32]. Konieczność analizy słabych od- działywań w coraz większej liczbie dziedzin skutkuje potrzebą wytworzenia bardziej uniwer- salnych metod cyfrowej detekcji sygnałów o niskim SNR.

Istotną dziedziną współczesnej fizyki jest m.in. wykrywanie oraz badanie cząstek elemen- tarnych, których właściwości, często teoretyczne, nadal wymagają weryfikacji. Klasyczne po- dejście w analizie danych tzw. fizyki wysokich energii polega na przeprowadzeniu dokładnych symulacji zderzeń cząstek, określeniu reakcji detektora i symulacji interakcji wtórnych. Jednak należy zauważyć, że jeżeli poszukiwane są nowe, dotychczas nieuwidocznione zjawiska, sy- mulacja może wprowadzać w błąd. Jedynie informacje eksperymentalne mogą udowodnić istnienie teoretycznych obszarów odziaływań. Kluczem do udanej analizy jest nakreślenie po- żądanej domeny sygnału, w której możliwe jest wykrycie znacznej liczby pożądanych zdarzeń.

Biorąc pod uwagę stosunek zdarzeń istotnych, jakich można się spodziewać w zderzaczach

(22)

21 nowej generacji, do nieinteresujących zdarzeń składających się na szum tła, problem poszuki- wania zdarzeń będących w obszarze zainteresowania, uznać można za równoważny proble- mowi detekcji słabych sygnałów w silnie zaszumionym środowisku [33]. Ponadto mimo iż nazwa dziedziny mówi o „fizyce dużych energii”, w rzeczywistości są to bardzo wysokie energie jedynie w odniesieniu do pojedynczych cząstek, a badane oddziaływania rejestrowane są na poziomie keV i TeV, a więc 10 -13 do 10 -7 Joula [34].

Detekcja oddziaływań np. w detektorach jonizacyjnych, w samej podstawie przetwarzania odbieranego sygnału nie różni się znacząco od detekcji impulsu radiowego (rys. 2.7). Detekto- ry jonizacyjne są urządzeniami stosowanymi w fizyce cząstek elementarnych do wykrywania obecności cząstek jonizujących oraz przy pomiarze promieniowania. Wykorzystują one jonizu- jący efekt promieniowania na czujnik wypełniony gazem. Jeśli cząsteczka ma wystarczającą energię do jonizacji atomu lub cząsteczki gazu, powstające elektrony i jony powodują prze- pływ mierzalnego prądu lub wzrost amplitudy napięcia. Poszczególne oddziaływania reprezen- towane są przez impulsy prądowe lub napięciowe o określonych charakterystykach. Wykry- wanie słabych oddziaływań wymaga jednak odpowiedniego przetwarzania sygnałów wplecio- nych w tło szumowe [35], [36]. W weryfikację zaangażowane są zespoły detektorów, które w szumie wychwytują efekty poszukiwanych oddziaływań powstających np. na wskutek zde- rzeń rozpędzanych cząstek. Podobnie jak w przypadku detekcji zajętości pasma czy poszuki- wania sygnału pulsarowego, mamy do czynienia z detekcją słabego impulsu na tle generowa- nego przez pozostałe zdarzenia losowe szumu gaussowskiego.

Rys. 2.7. Schemat blokowy detekcji sygnałów promieniowania

Interesującym obszarem analizy słabych oddziaływań, w którym wykorzystywane są detek- tory cząstek, są eksperymentalne próby detekcji ciemnej materii. Wciąż jednak brakuje odpo- wiedzi na pytanie z czego jest wykonana ciemna materia. Przypuszczalnie składa się ona z nowych cząstek, które muszą zostać odkryte, gdyż nie ma jeszcze jednoznacznych, bezpo- średnich dowodów na ich istnienie. Teoretyczne cząsteczki ciemnej materii to tzw. słabo od- działujące, masywne cząstki (WIMP, ang. weakly interacting massive particles). Eksperymen- talne techniki bezpośredniego wykrywania WIMP za pomocą niewielkich depozytów energii rozpraszających jądra atomowe prowadzane są przy użyciu ultraczułych detektorów o niskim

K OMORA JONIZACYJNA

U ŚREDNIANIE

K LASYFIKOWANIE

W YKRYWANIE ZDARZEŃ

D ETEKCJA SYGNAŁÓW

D

ANE WEJŚCIOWE

A/C

D

ECYZJA

P

ROMIENIOWANIE

J

ONIZUJĄCE

P OMIAR

NAPIĘCIA

(23)

22 tle szumowym. W detektorze energia kinetyczna przenoszona przez jądra atomowe jest prze- kształcana w mierzalny sygnał, tj. jonizację lub światło scyntylacyjne. Aby obserwować wid- mo indukowane przez WIMP, niezbędny jest niski próg mierzalnej energii oraz bardzo niski poziom szumów tła. Minimalizacja wymogów dotyczących SNR oraz znajomości charaktery- styki szumu tła stanowią ciągłe wyzwanie w bezpośrednich eksperymentach poszukiwania ciemnej materii [37].

Podczas gdy siła oddziaływań WIMP może być wyznaczona teoretycznie, wielkości te są tylko zawężeniem pewnego przedziału poszukiwań, rozciągniętego przez mnogość teorii na wiele rzędów wielkości. Rozpatrując poszukiwanie WIMP w kategoriach detekcji sygnałów słabych mamy do czynienia z próbą wykrycia zdarzenia o nieznanej charakterystyce na tle złożonego szumu. Głównym źródłem tła szumowego jest radioaktywność otaczającego środo- wiska [38]. Ponownie odwołując się do centralnego twierdzenia granicznego oraz zakładając niezależność źródeł i losowość rejestrowanych zdarzeń radioaktywnych, ich nakładające się widma utworzą tło szumowe o rozkładzie gaussowskim. Ważne jest podkreślenie, że ilość in- formacji na każde zarejestrowane zdarzenie powinna być zmaksymalizowana, tak aby poten- cjalne źródła szumu tła nie były utożsamiane z oczekiwanym sygnałem WIMP. Zarówno pa- rametry detekcji jak i cele, tożsame są z detekcją sygnałów słabych przy zachowaniu stałego prawdopodobieństwa fałszywego alarmu (CFAR, ang. constant false alarm rate). Wspomnia- ny schemat detekcji koresponduje z założeniami spotykanymi również w wielu innych dzie- dzinach cyfrowego przetwarzania sygnałów, odwołujących się do równania (2.5).

Podobnie jak w poprzednio omawianych dziedzinach, również rozwój fizyki stawia nowe wyzwania przed detekcją sygnałów słabych. Jednym z najnowszych, poza fizyką elementarną, jest potencjalne zastosowanie cyfrowej detekcji sygnałów słabych w procesie wykrywania fal grawitacyjnych. Jednostkowy dotychczas przypadek detekcji (GW150914) pozwala przypusz- czać, że dla każdego zdarzenia obserwowanego przez zaawansowane detektory fal grawitacyj- nych, istnieje wiele innych zbyt odległych, aby być rozpoznanymi [39]. Fale grawitacyjne z tych nierozwiązywalnych zdarzeń łączą się, tworząc stochastyczne tło. Tło fali grawitacyjnej ma zatem charakter sumy losowych sygnałów wytwarzanych przez dużą liczbę słabych, nieza- leżnych i nierozpoznanych źródeł [40]. Chociaż wiadomo, że zaawansowane detektory mogą obserwować takie tło, wykrycie GW150914 sugeruje, że poziom szumu tła znajduje się znacz- nie powyżej dotychczasowych przewidywań. Tworzy to ogromne pole do rozwoju metod de- tekcji sygnałów słabych w ośrodkach o nieznanym lub zmiennym poziomie szumu tła.

W dalszej perspektywie, jeśli chodzi o detekcję nieznanych cząstek elementarnych oraz fal grawitacyjnych, podobnie jak w przypadku radioastronomii, należy się spodziewać trudności związanych z weryfikacją ogromnej liczby danych. Tym cenniejsze stają się metody preselek- cji, wskazujące nieznanych, potencjalnych kandydatów sygnałowych.

2.1.4. Nauki biomedyczne

Pojęcie biosygnałów odnosi się do sygnałów elektrycznych rejestrowanych z ludzkiego

ciała tj. elektrokardiogram (EKG), elektroencefalogram (EEG), elektromiogram (EMG). Bio-

(24)

23 sygnały są zwykle uważane za główne wskaźniki, dostarczające klinicystom i lekarzom in- formacji podczas procesów diagnostycznych i monitorujących [41]. Pozyskiwanie i przetwa- rzanie sygnałów odgrywa zatem ważną rolę w wielu procedurach klinicznych.

Jednym z najczęściej rejestrowanych i przetwarzanych sygnałów w postępowaniach kli- nicznych są tzw. potencjały wywoływane (ERP, ang. event-related potential). Mimo, że wzorce reakcji na standardowe bodźce są dobrze znane u zdrowych osób i można je łatwo wykryć w zarejestrowanym ciągu danych, kształt sygnału ERP jest klasyfikowalny i odtwa- rzalny tylko w kilku standardowych warunkach badawczych. Odpowiedzi osób chorych, jeśli w ogóle występują, z wysokim prawdopodobieństwem będą zupełnie różne od oczekiwanych.

Charakterystyki odbieranych impulsów zależą również od konkretnych warunków, które ni- gdy nie mogą być dokładnie odtworzone i zmieniają się nawet podczas pojedynczego pomia- ru.

Jeżeli cechy poszukiwanego ERP nie są znane, należy zastosować detektory niezależne od kształtu sygnału. Natomiast jeśli kształt sygnału pozostaje nieznany, istnienie sygnału można wykazać za pomocą detekcji zwiększonej energii w porównaniu do rejestrowanego poziomu szumu. Ponieważ ERP ma bardzo niskie potencjały, często wymagane jest zwięk- szenie SNR przed wykryciem. Poprawa SNR jest zwykle realizowana przez uśrednienie.

W zależności od bodźca i przeszukiwanych fal, liczba uśrednień może wynosić od 10 do na- wet 1000 [42]. W diagnostyce funkcjonalnej wysokie zlecenia uśredniania mogą jednak po- wodować niedopuszczalne czasy pomiarów. Powyższe czynniki warunkują obszar występo- wania sygnałów słabych, jakimi niewątpliwie są sygnały ERP. Tworzą one pole do rozwoju skutecznych technik detekcji sygnałów słabych, dostosowanych do wykrywania impulsów (zdarzeń) o nieznanej charakterystyce, w silnie zmiennym środowisku szumowym.

Chcąc wykorzystać teoretyczne zalety sygnałów ERP, należy upewnić się, że przed każ- dym następnym bodźcem zakończyła się reakcja na poprzedni bodziec [42]. Jest to klasyczny przypadek detekcji sygnału słabego, omawiany w poprzednich podrozdziałach, w którym dochodzi do prostego rozróżnienia pomiędzy hipotezami H 0 i H 1 (zerową i alternatywną) (rys. 2.8). Analogicznie jak w równaniu (2.5), występuje poddawany wykryciu sygnał deter- ministyczny oraz tworzony przez wiele źródeł szum gaussowski.

Rys. 2.8. Schemat blokowy detekcji potencjałów wywołanych ERP

E LEKTRODY

W YKRYWANIE U ŚREDNIANIE

S TYMULACJA

K LASYFIKOWANIE

D E T E K C JA S Y G N A Ł Ó W D

ANE WEJŚCIOWE

AKTYWNOŚĆ

A/C

BIOELEKTRYCZNA

S

YGNAŁ

ERP

D

ECYZJA

H

0

/ H

1

(25)

24 Dzięki rozwojowi współczesnej protetyki, nastąpił również dynamiczny wzrost zaintere- sowania powierzchniowym EMG, jako metodą rejestrowania informacji obecnych w poten- cjałach czynnościowych mięśni. W pomiarach powierzchniowych sygnał EMG jest uzyski- wany nieinwazyjnie z elektrod zamontowanych bezpośrednio na skórze. Rejestrowany sygnał jest złożeniem wszystkich potencjałów czynnościowych włókien mięśniowych występujących w mięśniach pod skórą. Potencjały czynnościowe występują w losowych odstępach czasu, tak więc w dowolnym momencie sygnał EMG może być dodatnim lub ujemnym impulsem napięciowym.

Podczas wykrywania i rejestrowania sygnału EMG występują dwa główne problemy, któ- re wpływają na rzetelność badanego sygnału. Pierwszy z nich to niski stosunek sygnału do szumu. Drugi natomiast to złożoność sygnału. Oznacza to, że względny udział jakiejkol- wiek składowej częstotliwościowej w sygnale EMG nie powinien być zmieniany, a znie- kształcenie rejestrowanego sygnału EMG musi być jak najmniejsze. Zastosowanie jakichkol- wiek filtrów wycinających, mogących powodować zniekształcenia wartości szczytowych sy- gnału, nie jest zalecane [43].

Sygnał EMG ma charakter losowy i modelowany jest jako filtrowany proces impulsowy, w którym motoneuron wraz ze wszystkimi włóknami mięśniowymi jest filtrem, a proces im- pulsowy odzwierciedla impulsy neuronowe. Rejestrowany zakres amplitudy impulsowego sygnału EMG wynosi do 10 mV [43]. Podczas przenikania przez różne tkanki, do sygnału dodawany jest również szum. Zniekształcenia elektryczne, które wpływają na sygnały EMG, dzielą się na: wewnętrzny szum elektronicznego układu odbiorczego, nieodłączną niestabil- ność sygnału (amplituda EMG ma charakter losowy) oraz szum otoczenia. Źródłem ostatnie- go rodzaju szumu jest m.in. promieniowanie elektromagnetyczne rozpatrywane poprzednio podczas omawiania detektorów jonizacyjnych. Powierzchnia ludzkiego ciała stale poddawana jest działaniu promieniowania elektromagnetycznego i praktycznie niemożliwe jest uniknięcie ekspozycji na nie na powierzchni Ziemi. Szum otoczenia może mieć amplitudę od jednego do nawet trzech rzędów wielkości większą niż impulsowy sygnał EMG, determinując tym sa- mym przynależność powierzchniowego EMG do grupy sygnałów słabych.

Wykrywanie chwili, w której mięsień zaczyna się aktywować na podstawie sygnału EMG, jest ważnym zadaniem w wielu badaniach biomechanicznych. Należy podkreślić, że stosowa- ne w protetyce metody detekcji muszą wykrywać zmiany sygnałów EMG na samym początku aktywności. Dopiero po wstępnym uzyskaniu informacji o regionie, w którym właśnie po- wstała aktywność mięśniowa, następuje dokładniejsze oszacowanie EMG. W tym celu anga- żuje się bardziej złożone algorytmy dokonujące decyzji na podstawie przetworzonego sygnału i informacji wygenerowanych podczas poprzednich kroków. Zgrubna ocena aktywności opie- ra się natomiast na ocenie odbieranego sygnału, dokonując jedynie rozgraniczenia stanu pa- sywnego H 0 i aktywnego H 1 , analogicznie jak w równaniu (2.5) [44]. W przypadku konkret- nych zastosowań, oprócz dokładności wykrywania, ważna jest również szybkość algorytmu.

Algorytmy o wysokim czasie obliczeń często nie są odpowiednie do przetwarzania danych

w czasie zbliżonym do rzeczywistego.

(26)

25 Najczęstszą metodą wykrywania zdarzeń motorycznych w sygnałach EMG jest metoda

"pojedynczego progu", która porównuje sygnał EMG z ustalonym progiem energii. Jest to najbardziej intuicyjna i powszechnie stosowana metoda lokalizowania w czasie początków aktywności skurczu mięśni. Technika ta opiera się na porównaniu amplitudy sygnału i rekty- fikowanych progów, których wartość zależy od średniej mocy szumów tła [43], [45]. Sku- teczność detekcji, analogicznie jak w przypadku pozostałych dziedzin, warunkowana jest kla- sycznym problem wykrycia słabego sygnału impulsowego w silnie zaszumionym środowisku.

Podobnie jak w przypadku poszukiwania nowych wzorców w fizyce oraz astronomii, również w obszarze nauk biomedycznych, rzetelna detekcja sygnałów słabych umożliwia ograniczenie analizowanych zbiorów danych jedynie do ciągów zakwalifikowanych jako po- tencjalni kandydaci sygnałowi. Zastosowanie automatycznych metod detekcji sygnałów sła- bych znacząco upraszcza niektóre problemy związane ze studium poznawczym, w którym nadal wykorzystuje się kontrolę wzrokową prowadzaną przez przeszkolonych obserwatorów.

Wzrokowa klasyfikacja sygnałów opiera się jednak na kryteriach, które są zbyt heurystyczne, a przetwarzanie dużej ilości danych jest czasochłonne.

2.2. Zasadność detekcji nieznanych sygnałów

Wykrywanie słabego sygnału w obecności szumu wymaga przetwarzania, które w głównej mierze zależy od informacji opisujących charakterystyki sygnału i szumu. Dobrze znane, ogólne podejścia do problemu wykrywania obecności znanych sygnałów w silnie zaszumio- nych obserwacjach, polegają na analizie spektralnej i poszukiwaniu zgodności z wzorcami oczekiwanych odpowiedzi detektora. Podejście to ma swoje podstawy w klasycznych dopa- sowanych technikach detekcji, obejmujących filtrację lub jej odpowiednik korelacyjny. Roz- wiązania te są optymalne dla wykrywania znanych sygnałów w addytywnym szumie Gaus- sowskim, jednak kiedy stosuje się je jako metodę wykrywania obecności nieznanych sygna- łów, znacząco tracą na efektywności. Techniki, na których się opierają, są optymalne tylko w przypadku doboru odpowiedniej charakterystyki filtra lub korelowanego przebiegu. W ta- kim przypadku postać poszukiwanego sygnału musi być znana. Natomiast jeśli sygnał ma nieznaną postać, należy go rozważać w kategorii procesu losowego. W takim przypadku, gdy znane są statystyki sygnałów, wiedza ta może być wykorzystywana do projektowania bardziej odpowiednich detektorów tj. opartych na właściwościach statystycznych sygnału.

W odniesieniu do detekcji ślepej, niewiele wiadomo o charakterystyce sygnału determini-

stycznego. Minimalizuje się zatem konieczność podejmowania jakichkolwiek założeń na jego

temat. Niechętnie podejmuje się również wszelkie słabo uzasadnione założenia na temat cha-

rakterystyki towarzyszących mu zniekształceń. Sygnał, chociaż nie jest dokładnie znany,

uznawany jest za deterministyczny. Natomiast ze względu na powszechność występowania,

zakłada się, że szum jest addytywnym procesem Gaussowskim z zerową wartością średnią

[46].

(27)

26 W odniesieniu do omawianych obszarów występowania sygnałów słabych, zasadność sto- sowania detekcji ślepej, a więc ograniczona wiedza na temat sygnałów deterministycznych, może zostać uogólniona na trzy przypadki (rys. 2.9).

Rys. 2.9. Zastosowania detekcji ślepej w odniesieniu do różnych dziedzin nauki

Brak informacji a priori na temat transmitowanego sygnału. W przypadku znanych od- działywań, cały system detekcyjny można dopasować do spodziewanej odpowiedzi detektora.

Proces detekcji znacząco się komplikuje w przypadku poszukiwania nowych oddziaływań.

Nawet przy teoretycznym zawężeniu dziedziny poszukiwań, stosowanie dopasowanych tech- nik detekcji nie pozostawia marginesu błędu dla poczynionych założeń. Bezpieczniejszym rozwiązaniem jest stosowanie ślepej detekcji zdarzeń, praktykowane m.in. w „nowej fizyce”

czy eksploracji przestrzeni kosmicznej. Wykrycie zdarzenia, oznaczenie zarejestrowanej od- powiedzi jako potencjalnego kandydata sygnałowego i dopiero weryfikacja poprzez porów- nanie z wzorcami znanych lub symulowanych oddziaływań czy obiektów, zabezpiecza przed przeoczeniem sygnałów odbiegających od teoretycznych założeń lub nieuwzględnianych w planowanych badaniach.

Duża pula sygnałów potencjalnie występujących w analizowanym paśmie. Względem zna- nych oddziaływań czy systemów zakłada się zastosowanie dopasowanego detektora. Problem

A N A LIZ A W O LN YC H ZA SO B Ó W R A D IO W YC H

W SP Ó ŁD ZI EL EN IE ZA SO B Ó W R A D IO W YC H

D ET E K CJ A S YG N A ŁÓ W P U LS A - R O W YC H

D ET E K CJ A P O T EN CJ A ŁÓ W W YW O ŁA N YC H

D ET E K CJ A A K T YW N O ŚC I N EU R O N O W EJ

K LA SY FI K O W A N IE N O W YC H O D D ZIA ŁY W A Ń

D ETEKCJA SYGNAŁÓW WĄSKOPASMOWYCH NIEZNANYCH URZĄDZEŃ D ETEKCJA SILNIE

ZNIEKSZTAŁCONEGO IMPULSU ELEKTROMAGNET . D ETEKCJA ZDARZEŃ

O NIEZNANEJ CHARAKTERYSTYCE

D ETEKCJA SŁABYCH , DETERMINISTYCZNYCH SYGNAŁÓW O NIEZNANEJ CHARAKTERYSTYCE ZNIEKSZTAŁCONYCH SILNYM SZUMEM AWGN F IZYKA

M ETROLOGIA N AUKI BIOMEDYCZNE R ADIO -

ASTRONOMIA T ELEKOMUNIKACJA

(28)

27 detekcji dopasowanej pojawia się w przypadku dużej złożoności systemu, rzutującej na silne zróżnicowanie źródeł sygnału. Restrykcyjne wymagania czasowe uniemożliwiają porówny- wanie odbieranego sygnału z każdym zdefiniowanym wzorcem. W przypadku takich syste- mów wymagane są bardziej uniwersalne metody detekcji, umożliwiające detekcję sygnału bez sprecyzowania jego parametrów. Dotyczy to m.in. złożonych systemów telekomunikacyjnych współdzielących zasoby radiowe. Poszczególne urządzenia systemów np. działających w pa- śmie ISM, wykorzystują różne standardy komunikacji, co znacząco utrudnia ich dopasowaną identyfikację. Problem dotyczy też m.in. przyszłego wykrywania źródeł w nawigacji pulsaro- wej, w której każde źródło cechuje indywidualna charakterystyka generowanego impulsu.

Duże zróżnicowanie źródeł sygnału w połączeniu z rygorystycznymi wymogami czasowymi, wymusza rezygnację z technik detekcji dopasowanej na rzecz detekcji ślepej.

Występowanie oddziaływań klasyfikowanych poza przewidzianym modelem detekcyjnym.

W przypadku detekcji sygnału złożonego widmowo, bardzo często spotykamy się ze znie- kształceniami widma na wskutek różnicy w propagacji i tłumieniu poszczególnych częstotli- wości. W wyniku wprowadzanych zniekształceń sygnał ulega dyspersji, scyntylacji czy tłu- mieniu, diametralnie zmieniając swoją charakterystykę. W przypadku sygnałów radioastro- nomicznych oraz biosygnałów, dodatkowo rozpatrywać należy niejednorodność źródeł. Sy- gnał odbierany z odległych obiektów lub stanowiący odpowiedź na pobudzenie organizmu, na wskutek trudnych i zmiennych warunków propagacyjnych, może być znacząco różny od oczekiwanego. Nie mogąc dokonać modelowania środowiska propagacyjnego w celu kompensacji wprowadzanych zniekształceń, należy zrezygnować z detekcji dopasowanej na rzecz metod detekcji ślepej, nie zakładających parametryzacji wprowadzanych zniekształ- ceń czy odbieranego sygnału.

Mając na uwadze omówione przypadki, ślepa detekcja sygnałów słabych nabiera istotnego

znaczenia wraz z poznawaniem nowych obszarów nauki jak również z rozwojem technik ko-

munikacyjnych. Odnieść ją można do współczesnych, eksperymentalnych badań, wykrywania

słabych oddziaływań w silnie zmiennym środowisku czy wysoce złożonych systemów komu-

nikacji bezprzewodowej.

Cytaty

Powiązane dokumenty

Innym podejściem jest ręczna detekcja szczelin, której przykładem jest metoda opracowana w pracy [6], gdzie granice ziarn i szczeliny były kolorowane na fotografi ach,

Napięcie odniesienia można ustawić wybierając następujące opcje OFF – napięcie podaje się z zewnątrz poprzez dołączenie napięcia odniesienia do pinów AREF

Z treści wypowiedzi wynika, że pomiędzy tymi, których Chrystus Pan określił jako błogosławionych ze względu na ich słuchanie słowa Bożego i strzeżenie go,

Na podstawie wykreślonej funkcji można określić, że w RSP w latach 1976—1981 przyrost nawożenia o 1 kg NPK przyczyniał się do wzrostu produkcji roślinnej o równowartość

W pierw- szej, w której dokonywana jest wstępna selekcja da- nych, progi wyzwalania detektora wyznaczane są w oparciu o znany rozkład prawdopodobieństwa sygna- łu {e(t)} jako

3 Wyniki symulacji modelu mQ2 dla stanu pełnej zdatności sieci wodociągowej: (a) residuum oraz wartości chwilowe progów decyzyjnych, (b). 99 dziennego i wieczornego, niższa

Używa się go również podczas oznaczania komórek mięsaka Ewin- ga, rhabdomyosarcoma (mięśniakomięsaka prążkowanokomórkowego), innych nowotworów drobnokomórkowych, czy

● Pierwsze potwierdzenie istnienia czarnych dziur ● Pierwszy wykryty układ podwójny czarnych dziur. ● Pierwsza detekcja czarnych dziur o madach ~30