POLITECHNIKA POZNAŃSKA
WYDZIAŁ ELEKTRONIKI I TELEKOMUNIKACJI
KATEDRA SYSTEMÓW TELEKOMUNIKACYJNYCH I OPTOELEKTRONIKI
METODA DETEKCJI STABILNEGO POLA JAKO ROZWINIĘCIE METODY DETEKCJI
ENERGII NIEZNANYCH SYGNAŁÓW
MGR INŻ. JAKUB NIKONOWICZ
ROZPRAWA DOKTORSKA NAPISANA POD KIERUNKIEM DR HAB. INŻ. MIECZYSŁAWA JESSY, PROF. PP
Poznań, 2018
1 Spis treści
1. Wstęp ...9
2. Ślepa detekcja sygnałów słabych ...12
2.1. Występowanie i zastosowanie sygnałów słabych ...12
2.1.1. Telekomunikacja ...13
2.1.2. Radioastronomia ...18
2.1.3. Fizyka cząstek i fal grawitacyjnych ...20
2.1.4. Nauki biomedyczne ...22
2.2. Zasadność detekcji nieznanych sygnałów ...25
3. Detekcja energii ...28
3.1. Koncepcja detekcji energii ...28
3.2. Model matematyczny ...29
3.3. Realizacja detekcji energii w formie ślepej ...33
3.4. Ograniczenia w detekcji energii nieznanych sygnałów...34
4. Estymacja mocy szumu w procesie detekcji energii ...37
4.1. Wybrane metody estymacji mocy szumu ...37
4.1.1. Estymacja mocy szumu w oparciu o maksymalizację prawdopodobieństwa ...38
4.1.2. Estymacja mocy szumu w oparciu o minimalizację wariancji ...38
4.1.3. Estymacja mocy szumu w oparciu o kryterium informacyjne Akaikego ...39
4.1.4. Estymacja mocy szumu w oparciu o własności macierzy kowariancji ...40
4.2. Wybrane metody separacji szumu ...41
4.2.1. Separacja w oparciu o kryterium minimalnej długości opisu ...41
4.2.2. Separacja w oparciu o dyskryminatora Fishera ...42
4.2.3. Separacja w oparciu o filtr erozyjny ...42
4.3. Analiza wpływu estymacji mocy szumu na proces detekcji energii ...45
4.3.1. Model symulacyjny ...45
4.3.2. Analiza porównawcza efektywności estymacji zmiennej mocy szumu ...47
5. Detekcja energii w odniesieniu do aktualnie stosowanych metod...53
5.1. Alternatywne metody ślepej detekcji sygnałów słabych ...53
5.1.1. Detekcja w oparciu o teorię informacji ...54
5.1.2. Detekcja w oparciu o wartości własne macierzy kowariancji ...55
5.1.3. Detekcja w oparciu o testy dopasowania statystycznego ...56
5.2. Ocena efektywności detekcji energii w odniesieniu do metod alternatywnych ...58
5.2.1. Model symulacyjny ...59
5.2.2. Analiza porównawcza skuteczności detekcji impulsu radiowego ...60
2
5.3. Detekcja energii w rozwiązaniach hybrydowych ... 65
5.3.1. Analiza aktualnie stosowanych rozwiązań ... 65
5.3.2. Detekcja hybrydowa w oparciu o równoległą analizę energii i entropii ... 68
6. Metoda Detekcji Stabilnego Pola ... 74
6.1. Koncepcja Detekcji Stabilnego Pola ... 74
6.2. Model matematyczny ... 76
6.3. Analiza porównawcza wydajności Detekcji Stabilnego Pola ... 80
6.3.1. Model symulacyjny ... 80
6.3.2. Analiza porównawcza skuteczności detekcji impulsu radiowego ... 85
6.3.3. Detekcja Stabilnego Pola w odniesieniu do rzeczywistego szumu ... 87
6.4. Zastosowania Detekcji Stabilnego Pola... 90
7. Podsumowanie ... 93
Bibliografia ... 95
Wykaz tabel i ilustracji ... 102
3 Wykaz ważniejszych skrótów i oznaczeń
AIC - Kryterium informacyjne Akaikego AWGN - Addytywny, biały szum Gaussowski
CFAR - Detekcja ze stałym prawdopodobieństwem fałszywego alarmu CLT - Centralne Twierdzenie Graniczne
CME - Estymator oparty na analizie wartości własnych macierzy kowariancji EEG - Elektroencefalogram
EKG - Elektrokardiogram
EME - Stosunek energii do minimalnej wartości własnej macierzy kowariancji EMG - Elektromiogram
ERP - Potencjały wywoływane FD - Dyskryminator Fishera FFT - Szybka transformata Fouriera FPP - Filtr pasmowo-przepustowy
FRB - Grupa szybkich impulsów radiowych ISM - Pasmo przemysłowe, naukowe i medyczne MAV - Średnia krocząca
MDL - Kryterium minimalnej długości opisu
ML - Estymator maksymalnego prawdopodobieństwa
MME - Stosunek maksymalnej do minimalnej wartości własnej macierzy MP - Rozkład Marchenko-Pastura
MVU - Estymator minimalnej wariancji PSR - Sygnał pulsarowy
RMSE - Pierwiastek błędu średniokwadratowego RRAT - Nieregularne, rotacyjne źródło radiowe SD - Odchylenie standardowe
SFD - Detekcja Stabilnego Pola
SNR - Stosunek mocy sygnału do szumu WIMP - Słabo oddziałujące, masywne cząstki
𝐴 - Wartość krytyczna testu Andersona-Darlinga dla poziomu ufności 𝛼 𝐴 - Amplituda sygnału informacyjnego
𝐵 - Współczynnik nadpróbkowania sygnału
𝐵 (𝑛) - Funkcja znaku różniczki uśrednionej gęstości widmowej mocy 𝐵 - Binaryzacja odchylenia 𝑅 względem odchylenia standardowego 𝑅
𝑪 - Macierz kowariancji
𝐶(𝑚) - Kowariancja dla przesunięcia wektora próbek o m pozycji 𝐷 - Sumaryczny wynik detekcji energii i entropii
𝐷 - Decyzja i-tego odbiornika
4 𝐷 , - Spadek energii sygnału
𝑒 - Entropia
𝐸 , - Energia sygnału
𝐸 - Znormalizowany wynik energii 𝐸 - Znormalizowany wynik entropii
𝐸(𝑥) - Empiryczna funkcja rozkładu próbek sygnału 𝑒𝑟𝑓(𝑎) - Funkcja błędu Gaussa
𝐹 (𝑘, 1) - Filtr erozyjny o rozmiarze 𝑘
𝐹(𝑥) - Teoretyczna funkcja rozkładu gaussowskiego
𝐻 - Stan braku obecności sygnału informacyjnego w kanale 𝐻 - Stan obecności sygnału informacyjnego w kanale
𝐻 - Wartość średnia empirycznego histogramu
𝐾 - Wartość krytyczna testu Kolmogorova-Smirnova dla poziomu ufności 𝛼 𝐿 - Zbiór stanów empirycznego histogramu
𝑚 - Indeks ramki czasowej sygnału
𝑚 - Centralny prążek gęstości widmowej mocy sygnału informacyjnego 𝑀 - Liczba ramek czasowych sygnału
𝑀 - Rozmiar średniej kroczącej 𝑛 - Indeks próbki sygnału
𝑁 - Liczba próbek odbieranego sygnału
𝑁 - Liczba próbek określająca czas trwania impulsu prostokątnego 𝑄 - Funkcja Q rozkładu ogona dla rozkładu Gaussowskiego 𝑝 - Prawdopodobieństwo wystąpienia i-tego stanu
𝑃 - Prawdopodobieństwo detekcji 𝑃 - Współczynnik detekcji
𝑃 - Prawdopodobieństwo fałszywego alarmu 𝑃 - Współczynnik fałszywych alarmów
𝑃 - Pole pod krzywą rozkładu Gaussa poza obszarem 〈−𝜎, 𝜎〉
𝑃 - Aproksymacja pola 𝑃
𝑃 ( ± ) - Pole pod krzywą rozkładu Gaussa w obszarze 〈(1 ± δ)σ, ∞〉
𝑃 (𝑛) - Gęstość widmowa mocy
𝑃 , (𝑛) - Gęstość widmowa mocy poddana filtrowaniu erozyjnemu 𝐹 (𝑘, 1) 𝑃 (𝑛) - Uśredniona gęstość widmowa mocy
𝑃 - Prawdopodobieństwo niewykrycia sygnału 𝑃 - Średnia moc sygnału dyskretnego 𝑥[𝑛]
𝑃 - Prawdopodobieństwo zdarzenia
𝑅 - Odchylenie standardowe niezależnych próbek uśrednionej gęstości wid- mowej mocy
𝑅 - Odchylenie próbek gęstości widmowej mocy od wartości średniej
5 𝑠[𝑛] - Dyskretny sygnał informacyjny
𝑆 - Zespolone współczynniki widmowe sygnału informacyjnego t [ . , ] - Wartość rozkładu t-Studenta dla 𝑁 próbek i poziomu ufności 0.9.
𝑇 - Dyskryminator Fischera
𝑇 - Wynik testu Andersona-Darlinga 𝑇 - Wynik testu Kolmogorova-Smirnova 𝑇 - Wynik testu Jarque-Bera
𝑇(𝜎 ) - Błąd dopasowania rozkładu
𝑥[𝑛] - Odbierany, dyskretny sygnał czasowy
𝑋 - Zespolone współczynniki widmowe odbieranego sygnału 𝑤[𝑛] - Addytywny, biały szum Gaussowski
𝑊 - Zespolone współczynniki widmowe szumu 𝑌 - Próbka gęstości widmowej mocy
𝑍̅ - Średnia wartość próbek gęstości widmowej mocy 𝑍 - Próbka uśrednionej gęstości widmowej mocy
α - Poziom ufności wyniku
𝛽 - Zakres niepewności definiowany jako odchylenie progu 𝛾 𝛾 - Próg decyzyjny
δ - Współczynnik relacji pomiędzy σ i σ.
𝛥 - i-ty podzbiór histogramu 𝛬(𝑥) - Statystyka testowa
𝜆 - Wektor wartości własnych macierzy kowariancji 𝜇 - Wartość średnia statystyki testowej w stanie 𝐻
𝜐 - Stała Eulera-Mascheroniego
𝜌 - Parametr kwantyfikacji niepewności szumów
𝜎 - Odchylenie standardowe statystyki testowej w stanie 𝐻 σ - Odchylenie standardowe wartości odchylenia standardowego 𝜎 σ - Odchylenie standardowe pola 𝑃
𝜎 - Wariancja szumu o rozkładzie Gaussowskim
𝜒 (2) - Wartość rozkładu chi-kwadrat o 2 stopniach swobody dla poziomu ufno- ści 𝛼
χ , - Wartość rozkładu chi-kwadrat z 𝑁 − 1 stopniami swobody dla 1 − α
współczynnika ufności
6
7 Streszczenie
Rozprawa dotyczy sposobów poprawy właściwości metody detekcji energii jako po- wszechnie stosowanej techniki wykrywania słabych sygnałów o nieznanej postaci. Wycho- dząc od opisu matematycznego metody oraz analizy jej głównych ograniczeń, tj. podatności na zmiany wariancji szumu tła i słabej skuteczności w przypadku niskiego SNR odbieranego sygnału, podjęto próbę przezwyciężenia wspomnianych wad. Dokonano przeglądu i oceny istniejących metod estymowania mocy szumu, a ponieważ jednym z podstawowych wymagań stawianych technikom estymacji jest niska złożoność procesu estymacji i wysoka dokładność zwracanej estymaty, badania rozpoczęto od poszukiwania metody estymowania mocy szumu która zaoferuje co najmniej taką samą, a najlepiej wyższą, jakość estymaty przy mniejszej złożoności czasowej w stosunku do metod stosowanych obecnie. Rezultatem jest nowa meto- da pozyskiwania próbek szumu opisana w rozprawie. Wprowadzone rozwiązanie zapewnia mniejszą niedokładność otrzymywanej estymaty oraz niższą złożoność czasową w odniesie- niu do alternatywnych metod. W przełożeniu na proces detekcji energii, usprawnienie wpływa na redukcję ograniczeń wynikających z niedokładności oszacowania mocy szumu i powoduje skrócenie całkowitego czasu trwania detekcji. W kontekście bezpośredniej poprawy skutecz- ności metody detekcji energii, porównano jakość tej metody z jakością detekcji oferowaną przez wybrane, alternatywne techniki wykrywania nieznanych sygnałów. Przeprowadzony przegląd posłużył do oceny metryk wydajności poszczególnych algorytmów. Podstawowym kryterium użyteczności metody było zapewnienie wysokiego prawdopodobieństwa detekcji dla niskich SNR sygnału wejściowego przy zachowaniu niewielkiej złożoności czasowej.
W oparciu o uzyskane rezultaty oraz analizę aktualnych kierunków rozwoju metody detekcji
energii, opracowano innowacyjny algorytm detekcji, nazwany detekcją hybrydową. Równo-
ległe połączenie detekcji energii i entropii sygnału poprawia skuteczność detekcji w stosunku
do metod stosowanych pojedynczo. Przedstawione w rozprawie usprawnienia niwelują ogra-
niczenia metody detekcji energii wynikające z zasad jej funkcjonowania. Stanowią jednak
odrębne algorytmy, rozszerzające podstawową metodę wykrywania sygnałów. Niestety zasto-
sowanie detekcji hybrydowej prowadzi do zredukowania głównej zalety detekcji energii
tj. prostej implementacji, co nie wyklucza użycia proponowanej metody w systemach o od-
powiednio dużej mocy obliczeniowej. Mając na uwadze podstawowy cel rozprawy, czyli po-
prawę właściwości detekcji energii przy jednoczesnym zachowaniu jej nieskomplikowania,
w toku dalszych badań opracowano nową technikę wykrywania nieznanych sygnałów, sta-
nowiącą modyfikację detekcji energii. Opracowana metoda całkowicie uniezależnia proces
detekcji od wariancji szumu tła. Nie wymaga zatem cyklicznego przeprowadzania estymacji
mocy szumu, a jednocześnie wykazuje poprawę metryk wydajności w stosunku do konwen-
cjonalnej metody detekcji energii. Skuteczność opracowanej metody wykazano na podstawie
serii eksperymentów z wykorzystaniem zarówno szumu pseudolosowego jak i rzeczywistego
szumu radiowego pasma ISM dla kanałów o szerokości 5 MHz i pasm ISM 868 MHz oraz
2,465 GHz.
8 Abstract
The dissertation concerns improving the properties of the energy detection method as a commonly used technique for detecting weak and unknown signals. Starting from the mathematical description of the method and an analysis of its main limitations, i.e. suscep- tibility to changes in the variance of background noise and poor performance in the case of low SNR of the received signal, an attempt to overcome these disadvantages has been made. A review and evaluation of existing noise power estimation methods has been per- formed, and because one of the basic requirements for estimation techniques is the low com- plexity of the estimation process and high accuracy of the returned estimate, the research be- gan with searching for a noise power estimation method that would offer at least the same, and preferably higher quality of the estimate with lower time complexity when compared with currently used methods. The result is a new method of obtaining noise samples, described in the dissertation. In the context of direct improvement of the effectiveness of energy detec- tion, the quality of the method has been compared with the quality of selected, alternative techniques of detecting unknown signals. The review was used to assess the performance met- rics of each detection algorithm. The basic criterion of the method's usefulness is to ensure high probability of detection for a low-SNR input signal while maintaining low time com- plexity. Based on the obtained results and an analysis of current directions of development of energy detection, an innovative hybrid detection algorithm has been developed. A parallel combination of energy and entropy detection improves the detection efficiency in relation to the methods used separately. Improvements presented in the study reduce the limitations of energy detection resulting from the principles of its functioning. However, they are sepa- rate algorithms that extend the basic detection method. Therefore, the use of hybrid detection leads to the reduction of the main advantage of energy detection, i.e., simple implementation.
Nevertheless, it does not exclude the use of the proposed method in systems with sufficiently
large computational power. Bearing in mind the purpose of the dissertation, i.e., improving
energy detection properties while maintaining its simplicity, in the course of further research
a new technique of detecting unknown signals has been developed, which is a modification
of energy detection. The developed method makes the detection process completely inde-
pendent of background noise variance. It does not require cyclical estimation of noise power,
and at the same time provides an improvement in performance metrics in comparison with
conventional energy detection. The effectiveness of the developed method has been demon-
strated on the basis of a series of experiments using both pseudorandom noise and real radio
noise of the ISM band for 5 MHz wide channels with central frequencies at 868 MHz
and 2.465 GHz.
9 1. Wstęp
Teoria wykrywania sygnałów bierze swój początek z klasycznych dzieł Bayesa [1], Gaus- sa [2], Fishera [3] czy Neymana-Pearsona [4] dotyczących wnioskowania statystycznego.
Za rozpoznawalną dyscyplinę została uznana we wczesnych latach czterdziestych XX wieku.
Kompleksowy przegląd technik stosowanych w teorii detekcji sygnałów opracowanych w ostatnich dziesięcioleciach można znaleźć m.in. w [5]. Detekcja sygnałów obejmuje bardzo szeroki zakres potencjalnych zastosowań, począwszy od systemów komunikacyjnych przez rejestrowanie słabych oddziaływań w metrologii po detekcję zdarzeń w badaniach fizycznych.
Problematyka rozprawy odnosi się do zagadnienia detekcji sygnałów o nieznanej postaci i niewielkiej mocy w stosunku do szumu tła, tj. wykrycia w szumie obecności lub braku sła- bego sygnału deterministycznego. Sygnał ten może być również określany mianem "sygnału informacyjnego" w kontekście komunikacyjnym lub "zdarzenia" w sensie fizycznym. W całej pracy "wykrywanie sygnału" odnosi się do ogólnego przypadku identyfikacji obecności sy- gnału w rejestrowanym szumie. Ważne jest, aby zauważyć, że znaczna część publikowanych prac rozważa problem wykrywania obecności znanych sygnałów, tj. opisuje próby uzyskania wydajnego detektora koherentnego. Natomiast detekcja rozpatrywana w rozprawie jest skon- centrowana na problemie wykrywania nieznanych sygnałów odnosząc się do trudności zwią- zanych z detekcją niekoherentną i dotyczy interdyscyplinarnego obszaru badań. Celem roz- prawy jest przedstawienie kompleksowej analizy działania konwencjonalnego detektora ener- gii i zaproponowanie zaawansowanej techniki detekcji w oparciu o jego rozwinięcie. Na po- trzeby rozprawy sformułowano następującą tezę:
Metodę detekcji energii można zmodyfikować w taki sposób, aby prawdopodobieństwo de- tekcji słabego i nieznanego sygnału nie zależało od estymaty mocy szumu gaussowskiego w kanale. Wprowadzenie modyfikacji nie zmniejsza prawdopodobieństwa detekcji oraz nie zwiększa prawdopodobieństwa fałszywego alarmu w porównaniu z konwencjonalnym detekto- rem energii.
W celu potwierdzenia tezy zrealizowano następujące zadania szczegółowe:
Przeprowadzono analizę ograniczeń detektora energii.
Dokonano implementacji i porównania wybranych technik estymacji wariancji szumu, stosowanych w procesie detekcji energii.
Oszacowano niedokładności otrzymywanej estymaty i opracowano alternatywny algo- rytm wyznaczania mocy szumu.
Zaimplementowano i porównano wybrane techniki detekcji słabych, nieznanych sy- gnałów w warunkach idealnego szumu oraz rzeczywistego szumu radiowego pasma ISM.
Przeprowadzono identyfikację kierunków rozwoju metod opartych o detekcję energii
i zaproponowano nowy algorytm detekcji hybrydowej.
10
Opracowano nowatorską technikę detekcji słabych, nieznanych sygnałów, opartą na analizie energii, lecz wykluczającą konieczność estymowania wariancji szumu.
Przeprowadzono porównanie metryk wydajności opracowanej metody i konwencjo- nalnego detektora energii w warunkach idealnego szumu oraz rzeczywistego szumu radiowego pasma ISM.
Zakres pracy obejmuje zarówno analizę istniejących rozwiązań, jak i opracowanie no- wych algorytmów przetwarzania i klasyfikacji obecności sygnałów. Rozprawa zawiera 6 roz- działów, których układ odpowiada kolejnym etapom przeprowadzonych badań.
W rozdziale 2 przedstawione zostało występowanie i zastosowanie sygnałów słabych zgodnie z aktualnym stanem wiedzy z różnych dziedzin. Opis obejmuje obszary komunikacji bezprzewodowej, w których wykrywanie sygnałów słabych ma krytyczne znaczenie w sku- tecznej klasyfikacji zajętości zasobów radiowych. Omówione zostało wykorzystanie detekcji słabych sygnałów w radioastronomii, ze szczególnym uwzględnieniem poszukiwania nowych źródeł promieniowania elektromagnetycznego oraz wykrywania sygnałów pulsarowych.
Przedstawione zastosowania uwzględniają także zapotrzebowanie na nowe techniki detekcji sygnałów w obszarze aktualnych badań z zakresu fizyki cząstek elementarnych oraz w zakresie monitorowania aktywności elektromagnetycznej w procesie analizy biosygnałów.
Wprowadzenie w obszar występowania i zastosowań detekcji słabych sygnałów zakończone zostało uzasadnieniem stosowania detekcji ślepej w odniesieniu do wskazanych dziedzin.
W rozdziale 3 przedstawiono podstawowe informacje na temat detekcji energii jako naj- częściej stosowanej metody wykrywania słabych sygnałów w białym szumie gaussowskim.
Opis stanowi matematyczną analizę detekcji energii w kontekście stosowanej reguły decyzyj- nej. Detekcja energii w równaniu progowania odwołuje się do znajomości mocy szumu.
W związku z powyższym w rozdziale omówiono czynniki ograniczające skuteczność detekcji energii, wynikające z konieczności jej estymacji.
Rozdział 4 stanowi omówienie zasadności estymacji mocy szumu jako procesu koniecz-
nego w detekcji energii nieznanych sygnałów. Opis odnosi się do wybranych metod estymacji
mocy szumu gaussowskiego tj. estymatora maksymalizującego prawdopodobieństwo dopa-
sowania mocy, estymatora minimalizującego wariancję estymowanej mocy, wykorzystania
kryterium informacyjnego Akaikego w podziale uśrednionego periodogramu czy poszukiwa-
nia rozkładu Marchenko-Pastura o najlepszym współczynniku dopasowania do empirycznego
rozkładu wartości własnych macierzy kowariancji. Ze względu na konieczność wydzielenia
próbek szumu w niektórych algorytmach, w rozdziale opisane zostały wybrane techniki po-
działu próbek odbieranego sygnału. Obejmują one kryterium minimalizacji funkcji opisowej
oraz kryterium maksymalizacji dyskryminatora Fishera. Ponadto w rozdziale przedstawiana
jest autorska metoda prostej techniki oznaczania pasm sygnału i szumu, bazująca na analizie
spadku mocy w procesie iteracyjnej filtracji erozyjnej. Wszystkie omawiane rozwiązania zo-
stały poddane analizie porównawczej pod kątem dokładności oraz stabilności odwzorowywa-
nia mocy szumu o zmiennej wariancji. W porównaniu wykorzystano rzeczywisty szum kana-
łu 2,480 GHz pasma ISM.
11 W rozdziale 5 przedstawiono kompleksową analizę rozwiązań alternatywnych dla detek- cji energii. Badane metody obejmują wykorzystanie korelacji pomiędzy próbkami sygnału, wykorzystanie szumu jako źródła o maksymalnej entropii oraz testy dopasowania statystycz- nego względem teoretycznego rozkładu białego szumu gaussowskiego. Rozdział stanowi opis porównawczej oceny efektywności pod kątem poprawnej oraz błędnej klasyfikacji obecności impulsu radiowego w białym szumie gaussowskim. W rozdziale omówiono metody poprawy detekcji energii poprzez jej zwielokrotnienie czasowe i przestrzenne oraz połączenie w na- przemienne okresy dokładnego i szybkiego wykrywania z metodami alternatywnymi. Dalszą część rozdziału stanowi omówienie zalet i wad aktualnie stosowanych rozwiązań oraz przed- stawienie autorskiej metody detekcji hybrydowej w formie równoległego połączenia w pojedynczym odbiorniku ważonej sumy znormalizowanych energii i entropii. Proponowane rozwiązanie porównywano pod kątem skuteczności detekcji z samodzielnymi detektorami energii i entropii. W porównaniu wykorzystywano rzeczywisty szum kanału 868 MHz pasma ISM.
Rozdział 6 stanowi opis autorskiej metody detekcji słabych, nieznanych sygnałów na- zwanej Detekcją Stabilnego Pola. Proponowana metoda, będąca rozwiązaniem równoważnym detekcji energii, opisana jest pod kątem wspólnych aspektów obu metod oraz wprowadzonych nowatorskich rozwiązań pozwalających na przekształcenie detektora energii w uproszczony test dopasowania statystycznego. Omówienie matematycznych podstaw realizacji Detekcji Stabilnego Pola wykazuje niezależność proponowanej metody od zmiennej mocy szumu, przy jednoczesnym zachowaniu prostoty progowania rozkładu gaussowskiego. W dalszej części rozdziału Detekcja Stabilnego Pola została porównana z innymi metodami detekcji pod kątem teoretycznej efektywności wykrywania słabego impulsu radiowego. Badaniu podlega również skuteczność klasyfikacji zależnie od szerokości impulsu, stosunku mocy sygnału do szumu oraz przetwarzanej liczby próbek. Teoretyczna efektywność jest porównywana z wynikami osiąganymi w warunkach rzeczywistego szumu pasma ISM. Zakończenie rozdziału stanowi wykazanie potencjalnych obszarów zastosowania metody w odniesieniu do dziedzin omawia- nych w rozdziale drugim.
W podsumowaniu zawarto opis zrealizowanych celów oraz wkładu własnego autora
w poprawę ślepej detekcji słabych sygnałów wraz z wnioskami z przeprowadzonych badań.
12 2. Ślepa detekcja sygnałów słabych
2.1. Występowanie i zastosowanie sygnałów słabych
Pojęcie sygnału słabego obejmuje sygnał o znikomo małej mocy w odniesieniu do mocy zakłócającego szumu. Nie oznacza to wyłącznie niewielkiej amplitudy odbieranego sygnału informacyjnego, ale odnosi się również do sygnału silnego transmitowanego w bardzo silnym szumie. W rezultacie, w obu przypadkach, dla odbiornika sygnał jest trudno rozróżnialny od tła szumowego. Powszechnie przyjmuje się zaliczanie sygnału do grupy sygnałów słabych przy stosunku odbieranej mocy sygnału-do-szumu (SNR, ang. signal-to-noise ratio) mniejszej od 0 dB [6]. Definicja określa jedynie górny limit SNR sygnału słabego, podczas gdy opty- malny detektor powinien być dostosowany do odbioru możliwie jak najsłabszych sygnałów.
W przypadku wielu systemów użytkowych mamy do czynienia z SNR na poziomie od 0 dB do nawet –20 dB [7]. Warunkiem dalszego rozwoju w zastosowaniach sygnałów słabych jest skuteczne obniżanie wymagań na SNR sygnału wejściowego. Podstawowym wyzwaniem stawianym przed współczesną detekcją sygnałów słabych staje się zatem stworzenie definio- wanego programowo odbiornika, który sprosta narastającym potrzebom nauki i techniki.
W dalszej części rozprawy przyjmujemy, że dane wejściowe, którymi operuje odbiornik, są dyskretnymi ciągami próbek reprezentującymi sygnał w dziedzinie czasu. Założenie jest zasadne, ponieważ współcześnie większość operacji przetwarzania danych jest realizowana na próbkowanych ciągach czasowych. W przypadku odbieranego, dyskretnego sygnału cza- sowego 𝑥[𝑛], zdefiniowanego jako
𝑥[𝑛] = 𝑠[𝑛] + 𝑤[𝑛], (2.1)
gdzie 𝑠[𝑛] jest sygnałem informacyjnym (deterministycznym), natomiast 𝑤[𝑛] białym, addy- tywnym szumem Gaussowskim, sygnał 𝑥[𝑛] będzie uważany za sygnał słaby, gdy spełniony zostanie warunek
𝑆𝑁𝑅 = < 1, gdzie 𝑃 = 𝑃 − 𝑃 . (2.2)
W równaniu (2) zmienne 𝑃 , 𝑃 i 𝑃 są odpowiednio mocami sygnału odbieranego, informa- cyjnego oraz szumu. Natomiast wzór na średnią moc 𝑃 sygnału dyskretnego 𝑥[𝑛] o długości N próbek czasowych definiuje [8]
𝑃 = ∑ |𝑥[𝑛]| . (2.3)
Nieodłącznym elementem analizy sygnałów słabych jest szum w[n]. Większość opraco-
wań opisujących metody detekcji sygnałów słabych, jako źródło zakłóceń przyjmuje biały,
addytywny szum Gaussowski (AWGN, ang. additive white Gaussian noise). Oznacza to li-
niowe dodawanie do sygnału szerokopasmowego szumu o stałej gęstości widmowej i rozkła-
dzie amplitudowym Gaussa (rys. 2.1). W przypadku szumu o rozkładzie gaussowskim z ze-
rową wartością średnią oraz wariancją 𝜎 , zgodnie z centralnym twierdzeniem granicznym,
13 dla dużej liczby N próbek sygnału wejściowego, średnia moc szumu może być przybliżona rozkładem normalnym [9]
𝑤[𝑛]~𝒩(0, 𝜎 ) → 𝑃 ~𝒩(𝜎 , 2𝜎 ⁄ ). 𝑁 (2.4) Powyższa własność znacząco upraszcza wykorzystanie energii szumu w detekcji sygnałów słabych, czyniąc z detektora energii jedno z najpopularniejszych definiowanych programowo rozwiązań.
Rys. 2.1. Poglądowa charakterystyka komponentów sygnału słabego
Założenie dotyczące AWGN jako źródła zniekształceń, nie jest podyktowane tylko mate- matyczną wygodą w opracowaniach statystycznego modelu odbiornika. Wynika ono z od- zwierciedlania wielu naturalnych źródeł procesów losowych oraz szerokiego zastosowania w podstawowych modelach teorii informacji. Oczywiście addytywny, biały szum Gaussowski nie w każdej sytuacji jest odpowiednim przybliżeniem. Odnosi się to chociażby do zaników selektywnych, wielodrogowości czy dyspersji. Jednakże udział szumów nieaddytywnych mo- że być uznany w wielu sytuacjach za nieistotny [10]. Rozpatrywanie AWGN jako podstawo- wego źródła zakłóceń prowadzi do prostych i praktycznych podstaw matematycznych, umoż- liwiających wgląd w zasadnicze zachowania systemu odbiorczego, zanim inne zjawiska zo- staną wzięte pod uwagę.
2.1.1. Telekomunikacja
W nowoczesnej radiokomunikacji systemy projektowane są w sposób minimalizujący prawdopodobieństwo nieuprawnionego dostępu do transmitowanych treści oraz maksymali- zujący właściwości przeciwzakłóceniowe transmitowanego sygnału. Wypełnianie powyż- szych warunków odbywa się m.in. z wykorzystaniem rozpraszania sygnału w częstotliwości.
Ponadto, nadajnik może być zaprojektowany tak, aby transmitował energię wystarczającą jedynie do przeprowadzenia detekcji opartej na informacjach uzyskanych a priori. Niewielka moc transmisji poprawia ekonomię energetyczną nadajnika oraz zwiększa prywatność nada- wanych wiadomości. Rozpraszanie i ograniczenia energetyczne, skutkują jednak powstawa- niem sygnałów słabych [11].
S YGNAŁ IMPULSOWY AWGN
14 Równie istotnym problemem, wpływającym na wzrost liczby odnotowywanych sygnałów słabych, są trudne warunki propagacji. Redukcja siły sygnału w wyniku wielokrotnych odbić oraz osłabienie podczas przenikania przez materiały konstrukcyjne złożonych środowisk tj. budynków, tuneli czy innego rodzaju zamkniętych struktur, znacząco utrudnia komunikację [12].
Wymienione czynniki, często napotykane w praktyce, skutkują słabymi warunkami pro- pagacji sygnału, a w konsekwencji słabymi warunkami odbioru. W związku z powyższym poprawa skuteczności detekcji sygnałów słabych jest zagadnieniem budzącym powszechne zainteresowanie w zakresie dalszego rozwoju komunikacji bezprzewodowej.
Detekcja sygnałów słabych, choć ma zastosowanie w kontekście całej radiokomunikacji, nabiera szczególnego znaczenia w odniesieniu do szybko ewoluującej koncepcji radia kogni- tywnego.
Spektrum elektromagnetyczne częstotliwości radiowych, w dynamicznie rozwijającej się komunikacji bezprzewodowej jest zasobem deficytowym. Dotychczasowy schemat zagospo- darowania i przydzielania kanałów radiowych nie może sprostać stale narastającym wymaga- niom na wyższe przepustowości transmisyjne. Lokalna alokacja pasm radiowych, licencjo- nowana dla poszczególnych użytkowników, skutkuje ekstremalnie niewydajnym wykorzy- stywaniem zasobów. Praca w obszarze poprawy zagospodarowania częstotliwości radiowych skupia się wokół technologii oportunistycznego dostępu do zasobów w czasie, częstotliwości i przestrzeni [13], [14], [15].
W obowiązującym modelu radia kognitywnego, użytkownik oportunistyczny, nazywany również wtórnym, nie ma dostępu do pasma aktualnie zajmowanego przez licencjonowanego użytkownika pierwotnego. W takim przypadku odbiornik radiowy użytkownika wtórnego musi zidentyfikować dostępne subpasma spektrum radiowego lub równoważnie wykryć tzw.
białe dziury, które są zasobami radiowymi niewykorzystywanymi w danym momencie i loka- lizacji (rys. 2.2).
Rys. 2.2. Poglądowa, czasowo-częstotliwościowa charakterystyka zajętości zasobów radiowych Wolne zasoby
radiowe
15 Podstawowym zadaniem radia kognitywnego jest wykrywanie sygnałów radiowych w czasie i przestrzeni, tak aby jak najskuteczniej określać obecność transmisji użytkownika pierwotnego. Wymagane jest także, aby użytkownik oportunistyczny możliwie szybko zwol- nił kanał radiowy w przypadku ponownego pojawienia się transmisji użytkownika pierwotne- go, w celu minimalizowania szkodliwej interferencji. W konsekwencji odbiornik zobligowany jest do utrzymywania zaktualizowanych informacji na temat dostępności zasobów w lokal- nym środowisku radiowym.
Biorąc pod uwagę powyższe warunki, użytkownik wtórny musi być zdolny do wykrywa- nia nawet bardzo słabych sygnałów, generowanych przez użytkownika pierwotnego. Detekcja sygnałów słabych musi się odbywać zarówno celem określenia zajętości zasobów radiowych jak i cyklicznego monitorowania potencjalnej aktywności użytkowników licencjonowanych.
Można zauważyć, że nie ma zasadniczego rozróżnienia pomiędzy wykonaniem począt- kowego wykrycia, które gwarantuje dostępność zajmowanego fragmentu widma, a procedurą monitorowania potwierdzającą, że pasmo nadal jest dostępne (rys. 2.3). Zadanie uzyskania i podtrzymywania świadomości odbiornika na temat wykorzystywania otaczającego go spek- trum, jest szczególnie istotne w celach efektywnego, oportunistycznego wykorzystania wol- nych zasobów [14], [15].
Rys. 2.3. Schemat blokowy nadajnika/odbiornika radia kognitywnego
Poprzez konieczność monitorowania zajmowanego pasma, radio kognitywne musi doko- nywać przerw w komunikacji celem wykrycia sygnału użytkownika pierwotnego (rys. 2.4).
Podczas okresów wykrywania, tzn. okresów, w których pasmo jest sprawdzane, nadajnik nie przesyła żadnych danych. W konsekwencji, jeżeli czas analizowania pasma jest zbyt długi, następuje wzrost wprowadzanych opóźnień transmisji, a przepustowość sieci drastycznie spa- da [16].
W omawianym przypadku, fundamentalnym problemem warunkującym realizację syste- mu kognitywnego, jest detekcja sygnałów słabych, która musi być szybka i rzetelna. Opty- malny detektor powinien odznaczać się prostą implementacją oraz wykonaniem procesu wy- krywania w możliwie krótkim czasie przy jak najniższych wymaganiach dla SNR sygnału wejściowego.
U KŁAD NADAWCZO - ODBIORCZY
A DAPTACJA D EMODULACJA
W YKRYWANIE
K LASYFIKOWANIE
D ETEKCJA SYGNAŁÓW
D
ANE WYJŚCIOWED
ANE WEJŚCIOWEA/C
D
ECYZJAS
TEROWANIEO
DBIERANY SYGNAŁ16 Rys. 2.4. Cykl działania nadajnika/odbiornika radia kognitywnego
W przypadku radia kognitywnego problem detekcji sygnałów słabych w analizie wąsko- pasmowej sprowadza się do stwierdzenia czy pasmo jest „zajęte” czy „wolne”. W podstawo- wej formie ogranicza się do prostego rozróżnienia pomiędzy dwoma hipotezami oznaczanymi H 0 i H 1
𝐻 ∶ 𝑥[𝑛] = 𝑤[𝑛]
𝐻 ∶ 𝑥[𝑛] = 𝑠[𝑛] + 𝑤[𝑛] (2.5)
gdzie 𝑥[𝑛] opisuje sygnał czasowy odbierany przez użytkownika wtórnego, 𝑠[𝑛] reprezentuje sygnał użytkownika pierwotnego docierający do użytkownika wtórnego, a 𝑤[𝑛] jest zespolo- nym, symetrycznym, addytywnym, białym szumem gaussowskim z zerową wartością średnią i wariancją 𝜎 .
Ze względu na prostotę, detekcja energii jest jedną z najpopularniejszych niekoherentnych metod, szeroko przywoływanych w literaturze. Detekcja energii nie wymaga informacji a priori na temat sygnałów użytkownika pierwotnego i zapewnia relatywnie niską złożoność obliczeniową. W praktyce, gdy dochodzi do problemu monitorowania widma, opartego w głównej mierze na analizie mocy sygnału użytkownika wtórnego, detekcja energii jest roz- wiązaniem intuicyjnym [14], [17].
Widzimy zatem, że dokonywane monitorowanie dostępności zasobów radiowych w radiu kognitywnym, w pełni koresponduje z założeniami poczynionymi na wstępie celem systema- tyzacji opisu sygnału słabego. Warto także zaznaczyć, że problem detekcji sygnałów słabych, w szczególności w oparciu o analizę energii, nie jest jedynie problemem abstrakcyjnym, roz- ważanym w sferze zagadnień teoretycznych. Jest to realny problem, powszechnie analizowa- ny w dziedzinie radia kognitywnego, warunkujący współczesny rozwój dziedziny. Koncepcja radia kognitywnego, a zatem towarzyszące mu występowanie sygnałów słabych i wyzwania dla ich efektywnego wykrywania, ujęto, miedzy innymi, w standardach IEEE 802.11af WLAN, IEEE 802.15.4m ZigBee czy EMCA-392, regulujących wykorzystanie oportuni- stycznego dostępu w białych dziurach pasma telewizyjnego [18], [19].
Komunikacja kognitywna nie jest jednak jedynym zagadnieniem, w którym detekcja sy- gnałów słabych stanowi istotne wyzwanie. Równie ważnym zagadnieniem jest unikanie inter- ferencji współkanałowej oraz regulowanie mocy nadawczej. Odnosi się to przykładowo do
Ś RODOWISKO RADIOWE
D ETEKCJA SYGNAŁÓW
T RANSMISJA DANYCH
A LOKACJA ZASOBÓW
O D B IO R N IK
N ADAJNIK
17 sieci makro-femtokomórkowych, w których występuje zabieg ponownego wykorzystania czę- stotliwości [20], [21].
Technologia „małych komórek” została stworzona, aby sprostać wyzwaniom narastającej transmisji danych, wzrostu wymagań na zasoby częstotliwościowe i żądania wyższych prze- pływności związanych z usługami multimedialnymi w ograniczonych środowiskach radio- wych. Operatorzy sieciowi preferują przypisanie tego samego łącza użytkownikom makro- komórkowym i femtokomórkowym, którzy są geograficznie oddaleni. Taki zabieg zwiększa pojemność i wydajność sieci. Niemiej jednak, ponowne wykorzystanie częstotliwości może prowadzić do współkanałowej interferencji, a w konsekwencji spadku jakości świadczonej usługi.
Aby uniknąć szkodliwej interferencji, nadajnik/odbiornik femtokomórkowy musi pozy- skiwać informacje na temat stanu współkanałowego nadajnika/odbiornika makrokomórkowe- go i odpowiednio dobrać maksymalną moc transmisyjną w obrębie femtokomórki (rys. 2.5).
Po upewnieniu się o obecności transmisji makrokomórkowej we wspólnym kanale, maksy- malna moc nadawcza odpowiadająca transmisji femtokomórkowej jest optymalizowana tak, aby uniknąć interferencji.
We współistniejącej makro-femtokomórkowej sieci, femtokomórki mają charakter usługi uzupełniającej. W zamiarze mają one wykorzystywać pozostałe, szczątkowe spektrum. Kon- cepcja usługi jest zbliżona do technologii radia kognitywnego. Szczególnie w pierwszej fazie tzw. detekcji zgrubnej, w której następuje określenie zajętości kanału. Sprowadza się to po- nownie do rozróżnienia pomiędzy hipotezą H 0 i H 1 . W przypadku „małych komórek”, w przeciwieństwie do koncepcji radia kognitywnego opisywanego we wcześniejszych akapi- tach, jeżeli wykryta zostanie istniejąca transmisja we współdzielonym kanale, nadajnik fem- tokomórkowy nie zaprzestaje transmisji, a jedynie optymalizuje moc nadawania tak, aby obie transmisje mogły być zrealizowane w tym samym czasie, przestrzeni oraz paśmie.
Rys. 2.5. Cykl działania nadajnika/odbiornika femtokomórkowego
Dobór optymalnej mocy nadawania 𝑃 odbywa się poprzez analizę mocy sygnału ma- krokomórkowego 𝑃 oraz towarzyszącej mu wariancji 𝜎 w odniesieniu do maksymalnej do- puszczalnej mocy transmisyjnej nadajnika femtokomórkowego 𝑃 [20]
𝑃 = 𝑚𝑖𝑛 𝑃 , . (2.6)
W SPÓŁDZIELONY KANAŁ RADIOWY
D ETEKCJA SYGNAŁÓW
T RANSMISJA DANYCH
O PTYMALIZACJA MOCY
O D B IO R N IK F E M T O K O M Ó R K O W Y
N ADAJNIK FEMTOKOMÓRKOWY
18 W powyższym przypadku sygnał 𝑥[𝑛] rozpatruje się jako zanurzenie sygnału informacyjnego 𝑠[𝑛] w szumie 𝑤[𝑛], który jest sumą wszystkich źródeł szumowych w kanale bezprzewodo- wym. Zgodnie z centralnym twierdzeniem granicznym, jeżeli badana wielkość jest sumą bar- dzo wielu zmiennych losowych, to niezależnie od rozkładu każdej z tych zmiennych, rozkład sumy będzie zbliżony do normalnego [21].
Omawiany proces oceny zajętości współdzielonego kanału ponownie silnie koresponduje z problemem detekcji sygnałów słabych zakłócanych szumem gaussowskim, rozpatrywanym we wprowadzeniu.
W telekomunikacji można odnaleźć wiele przykładów podobnych systemów. Niezależnie jednak od efektu końcowego, tj. oceny zajętości zasobów, unikania szkodliwej interferencji czy regulacji mocy nadawania, początkowy etap pozostaje taki sam - jest nim zastosowanie technik detekcji sygnałów słabych.
2.1.2. Radioastronomia
Od czasu odkrycia we wczesnych latach trzydziestych XX wieku, fal radiowych propagują- cych w przestrzeni międzygwiezdnej, większość obiektów astronomicznych zaczęto postrze- gać jako potencjalne źródła fal elektromagnetycznych. Na skutek dokonanego odkrycia, ob- serwacje radioastronomiczne stały się najczęściej stosowaną metodą odkrywania i badania kosmosu. Współczesna astronomia obserwacyjna, oparta na sieci radioteleskopów, polega w głównej mierze na pomiarze energii odbieranej z odległych źródeł, ze szczególnym naci- skiem na wykrywanie nieznanych i słabych sygnałów [22]. Eksploracja coraz odleglejszych obszarów wszechświata, a więc przesunięcie badań astrofizycznych w kierunku coraz słab- szych oddziaływań, skutkuje koniecznością coraz szybszego rozwoju technik wykrywania sy- gnałów niskiej jakości.
Jednym z bardzo aktywnych obszarów współczesnych badań jest poszukiwanie pozaziem- skich sygnałów w astronomicznych zbiorach danych. Praca koncentruje się na identyfikacji i klasyfikacji szczególnie rozproszonych sygnałów radiowych jakich oczekuje się od gwiazd pulsarowych (PSR, ang. pulsar), rotacyjnych nieregularnych radioźródeł (RRAT, ang. rota- ting radio transient) czy pojedynczych zdarzeń tj. grupy szybkich impulsów radiowych (FRB, ang. fast radio burst). Konwencjonalnie sygnały te są odkrywane przez weryfikację kandyda- tów sygnałowych, stanowiących potencjalne źródło periodycznych lub pojedynczych impul- sów [22], [23]. Ręczna inspekcja prowadzona przez ekspertów dziedzinowych do pewnego stopnia prawdopodobnie zawsze będzie integralną częścią procesu odkrywania pulsarów.
Jednak automatyzacja większości procesów klasyfikujących ma kluczowe znaczenie dla przy- szłości radioastronomii.
Zautomatyzowane wykrywanie i klasyfikowanie słabych sygnałów, przekładające się
na oznaczanie potencjalnych kandydatów sygnałowych, jest jedynym możliwym sposobem
radzenia sobie z dużymi zbiorami danych. Rozwiązanie oferuje jednocześnie wiele potencjal-
nych korzyści w usprawnieniu procesu wykrywania, na przykład, poprzez uruchomienie
19 szybkiego śledzenia kandydatów na wielu długościach fal, aby ograniczyć źródła pochodzenia pozostałych sygnałów.
Odnajdywanie słabych sygnałów pulsarowych w zestawach danych radiowych jest zwykle realizowane w czterech etapach tj. gromadzenia danych, dedyspersji, poszukiwania okreso- wości lub pojedynczego impulsu oraz weryfikacji. W pierwszej fazie surowe dane gromadzo- ne są w radioteleskopach jako seria napięć w czasie. Następnie wykonywana jest dedyspersja, czyli redukcja opóźnień powstających w ośrodku międzygwiezdnym, wskutek różnic w pręd- kości propagacji fal radiowych o różnej częstotliwości. Trzeci etap odnosi się bezpośrednio do detekcji sygnałów słabych i składa się z wykrywania oraz klasyfikowania potencjalnych kandydatów sygnałowych [22], [24]. Schemat blokowy algorytmu detekcji pulsarowej (rys. 2.6) w uproszczeniu można przedstawić jako składanie danych przez uśrednianie cha- rakterystyki w skończonym zbiorze okresów, przetwarzanie odpowiedzi impulsowej filtra dopasowanego i adaptacyjne wykrywanie sygnału pulsarowego.
Rys. 2.6. Schemat blokowy detektora sygnałów pulsarowych
Artykuły dotychczas opisujące zautomatyzowane techniki wyszukiwania sygnałów [25], [26], [27], [28], oparte są na metodach heurystycznych, polegających np. na przesiewaniu kandydatów za pomocą znanych progów SNR. Najnowsze prace nie koncentrują się jednak na rozwiązaniach heurystycznych, ale na tworzeniu inteligentnych klasyfikatorów. Uniwer- salne metody wykrywania słabego sygnału mają zatem ogromny potencjał dla przyszłych odkryć w radioastronomii. Szczególnie gdy teleskopy radiowe stają się większe i lepsze, a wzrost ilości danych uniemożliwia ręczne sprawdzenie każdego potencjalnego kandydata.
Inteligentne, skalowalne techniki wykrywania są jedynym realnym rozwiązaniem problemów związanych z przeszukiwaniem dużych baz danych, które pojawiają się na horyzoncie szybko rozwijających się obserwacji radioastronomicznych.
Detekcja sygnałów słabych w radioastronomii nie ogranicza się jedynie do bieżących pro- blemów detekcji słabych fal elektromagnetycznych propagowanych z odległych źródeł. Wa- runkuje również rozwój przyszłych technologii, stwarzając możliwości dalszego rozwoju tech- nik eksploracji przestrzeni kosmicznej.
F ILTR GÓRNO -
PRZEPUSTOWY
F ILTRACJA DOPASOWANA
S KŁADANIE
CHARAKTERYSTYKI
K LASYFIKOWANIE
W YKRYWANIE
D ETEKCJA SYGNAŁÓW
D
ANE WEJŚCIOWEA/C
D
ECYZJAO
DBIERANY SYGNAŁ20 Aktualność problemu potwierdzają prace trwające w wielu zespołach naukowych, mające na celu rozwiązanie trudności z wykrywaniem słabych sygnałów w synchronizacji pulsarowej [29]. Futurystyczna technologia ma umożliwić autonomiczną nawigację pojazdom poruszają- cym się w przestrzeni kosmicznej. W dalszej perspektywie technologia miałaby jednak mieć zastosowanie również w nawigacji naziemnej. W teorii system oparty byłby na danych czaso- wych pulsarów, charakteryzujących się wysoką dokładnością i stabilnością, porównywalną z aktualnymi zegarami atomowymi. Warto w tym miejscu zaznaczyć, że sygnały pulsarów mają unikatowe sygnatury, które można z łatwością wykorzystać jako radioastronomiczne latarnie nawigacyjne. Główną trudnością w rozwoju systemu jest jednak zapewnienie efek- tywnego wyszukiwania źródeł, ograniczone bardzo słabym SNR odbieranych sygnałów pulsa- rowych, które zniekształcane są dużymi odległościami, dyspersją oraz zakłóceniami impulso- wymi [30].
Podobnie jak w przypadku radia kognitywnego, detekcja sygnałów słabych jest kluczowym elementem poprawnie klasyfikującym odbierane sygnały radioastronomiczne. W związku z tym poszukiwanie nowych, ulepszonych metod wykrywania słabych sygnałów jest rzeczywi- stym problemem, napotykanym w wielu niezależnych obszarach współczesnej nauki.
2.1.3. Fizyka cząstek i fal grawitacyjnych
Opisując zastosowanie sygnałów słabych w telekomunikacji czy radioastronomii, odwoły- wano się do występowania sygnałów w postaci fal elektromagnetycznych. Występowanie sy- gnałów słabych nie ogranicza się tylko do miernictwa elektrycznego. Pomiary dokonywane w niemal wszystkich obszarach nauki, opierają się obecnie na sieciach sensorowych, których zadaniem jest konwersja własności fizycznych lub chemicznych na sygnały elektryczne [31].
Również słabe oddziaływania nieelektryczne w wyniku konwersji mogą skutkować powsta- waniem sygnałów słabych w dziedzinie cyfrowego przetwarzania sygnałów. Wprowadzanie sieci sensorowych do coraz większej liczby obszarów badawczych zapewnia pełną kontrolę nad procesem pomiaru rzeczywistych wielkości nieelektrycznych. Potencjalne korzyści płyną- ce z zastosowania systemów sensorowych dotyczą w szczególności automatycznej identyfika- cji i gromadzenia danych na temat badanych obiektów [32]. Konieczność analizy słabych od- działywań w coraz większej liczbie dziedzin skutkuje potrzebą wytworzenia bardziej uniwer- salnych metod cyfrowej detekcji sygnałów o niskim SNR.
Istotną dziedziną współczesnej fizyki jest m.in. wykrywanie oraz badanie cząstek elemen- tarnych, których właściwości, często teoretyczne, nadal wymagają weryfikacji. Klasyczne po- dejście w analizie danych tzw. fizyki wysokich energii polega na przeprowadzeniu dokładnych symulacji zderzeń cząstek, określeniu reakcji detektora i symulacji interakcji wtórnych. Jednak należy zauważyć, że jeżeli poszukiwane są nowe, dotychczas nieuwidocznione zjawiska, sy- mulacja może wprowadzać w błąd. Jedynie informacje eksperymentalne mogą udowodnić istnienie teoretycznych obszarów odziaływań. Kluczem do udanej analizy jest nakreślenie po- żądanej domeny sygnału, w której możliwe jest wykrycie znacznej liczby pożądanych zdarzeń.
Biorąc pod uwagę stosunek zdarzeń istotnych, jakich można się spodziewać w zderzaczach
21 nowej generacji, do nieinteresujących zdarzeń składających się na szum tła, problem poszuki- wania zdarzeń będących w obszarze zainteresowania, uznać można za równoważny proble- mowi detekcji słabych sygnałów w silnie zaszumionym środowisku [33]. Ponadto mimo iż nazwa dziedziny mówi o „fizyce dużych energii”, w rzeczywistości są to bardzo wysokie energie jedynie w odniesieniu do pojedynczych cząstek, a badane oddziaływania rejestrowane są na poziomie keV i TeV, a więc 10 -13 do 10 -7 Joula [34].
Detekcja oddziaływań np. w detektorach jonizacyjnych, w samej podstawie przetwarzania odbieranego sygnału nie różni się znacząco od detekcji impulsu radiowego (rys. 2.7). Detekto- ry jonizacyjne są urządzeniami stosowanymi w fizyce cząstek elementarnych do wykrywania obecności cząstek jonizujących oraz przy pomiarze promieniowania. Wykorzystują one jonizu- jący efekt promieniowania na czujnik wypełniony gazem. Jeśli cząsteczka ma wystarczającą energię do jonizacji atomu lub cząsteczki gazu, powstające elektrony i jony powodują prze- pływ mierzalnego prądu lub wzrost amplitudy napięcia. Poszczególne oddziaływania reprezen- towane są przez impulsy prądowe lub napięciowe o określonych charakterystykach. Wykry- wanie słabych oddziaływań wymaga jednak odpowiedniego przetwarzania sygnałów wplecio- nych w tło szumowe [35], [36]. W weryfikację zaangażowane są zespoły detektorów, które w szumie wychwytują efekty poszukiwanych oddziaływań powstających np. na wskutek zde- rzeń rozpędzanych cząstek. Podobnie jak w przypadku detekcji zajętości pasma czy poszuki- wania sygnału pulsarowego, mamy do czynienia z detekcją słabego impulsu na tle generowa- nego przez pozostałe zdarzenia losowe szumu gaussowskiego.
Rys. 2.7. Schemat blokowy detekcji sygnałów promieniowania
Interesującym obszarem analizy słabych oddziaływań, w którym wykorzystywane są detek- tory cząstek, są eksperymentalne próby detekcji ciemnej materii. Wciąż jednak brakuje odpo- wiedzi na pytanie z czego jest wykonana ciemna materia. Przypuszczalnie składa się ona z nowych cząstek, które muszą zostać odkryte, gdyż nie ma jeszcze jednoznacznych, bezpo- średnich dowodów na ich istnienie. Teoretyczne cząsteczki ciemnej materii to tzw. słabo od- działujące, masywne cząstki (WIMP, ang. weakly interacting massive particles). Eksperymen- talne techniki bezpośredniego wykrywania WIMP za pomocą niewielkich depozytów energii rozpraszających jądra atomowe prowadzane są przy użyciu ultraczułych detektorów o niskim
K OMORA JONIZACYJNA
U ŚREDNIANIE
K LASYFIKOWANIE
W YKRYWANIE ZDARZEŃ
D ETEKCJA SYGNAŁÓW
D
ANE WEJŚCIOWEA/C
D
ECYZJAP
ROMIENIOWANIEJ
ONIZUJĄCEP OMIAR
NAPIĘCIA
22 tle szumowym. W detektorze energia kinetyczna przenoszona przez jądra atomowe jest prze- kształcana w mierzalny sygnał, tj. jonizację lub światło scyntylacyjne. Aby obserwować wid- mo indukowane przez WIMP, niezbędny jest niski próg mierzalnej energii oraz bardzo niski poziom szumów tła. Minimalizacja wymogów dotyczących SNR oraz znajomości charaktery- styki szumu tła stanowią ciągłe wyzwanie w bezpośrednich eksperymentach poszukiwania ciemnej materii [37].
Podczas gdy siła oddziaływań WIMP może być wyznaczona teoretycznie, wielkości te są tylko zawężeniem pewnego przedziału poszukiwań, rozciągniętego przez mnogość teorii na wiele rzędów wielkości. Rozpatrując poszukiwanie WIMP w kategoriach detekcji sygnałów słabych mamy do czynienia z próbą wykrycia zdarzenia o nieznanej charakterystyce na tle złożonego szumu. Głównym źródłem tła szumowego jest radioaktywność otaczającego środo- wiska [38]. Ponownie odwołując się do centralnego twierdzenia granicznego oraz zakładając niezależność źródeł i losowość rejestrowanych zdarzeń radioaktywnych, ich nakładające się widma utworzą tło szumowe o rozkładzie gaussowskim. Ważne jest podkreślenie, że ilość in- formacji na każde zarejestrowane zdarzenie powinna być zmaksymalizowana, tak aby poten- cjalne źródła szumu tła nie były utożsamiane z oczekiwanym sygnałem WIMP. Zarówno pa- rametry detekcji jak i cele, tożsame są z detekcją sygnałów słabych przy zachowaniu stałego prawdopodobieństwa fałszywego alarmu (CFAR, ang. constant false alarm rate). Wspomnia- ny schemat detekcji koresponduje z założeniami spotykanymi również w wielu innych dzie- dzinach cyfrowego przetwarzania sygnałów, odwołujących się do równania (2.5).
Podobnie jak w poprzednio omawianych dziedzinach, również rozwój fizyki stawia nowe wyzwania przed detekcją sygnałów słabych. Jednym z najnowszych, poza fizyką elementarną, jest potencjalne zastosowanie cyfrowej detekcji sygnałów słabych w procesie wykrywania fal grawitacyjnych. Jednostkowy dotychczas przypadek detekcji (GW150914) pozwala przypusz- czać, że dla każdego zdarzenia obserwowanego przez zaawansowane detektory fal grawitacyj- nych, istnieje wiele innych zbyt odległych, aby być rozpoznanymi [39]. Fale grawitacyjne z tych nierozwiązywalnych zdarzeń łączą się, tworząc stochastyczne tło. Tło fali grawitacyjnej ma zatem charakter sumy losowych sygnałów wytwarzanych przez dużą liczbę słabych, nieza- leżnych i nierozpoznanych źródeł [40]. Chociaż wiadomo, że zaawansowane detektory mogą obserwować takie tło, wykrycie GW150914 sugeruje, że poziom szumu tła znajduje się znacz- nie powyżej dotychczasowych przewidywań. Tworzy to ogromne pole do rozwoju metod de- tekcji sygnałów słabych w ośrodkach o nieznanym lub zmiennym poziomie szumu tła.
W dalszej perspektywie, jeśli chodzi o detekcję nieznanych cząstek elementarnych oraz fal grawitacyjnych, podobnie jak w przypadku radioastronomii, należy się spodziewać trudności związanych z weryfikacją ogromnej liczby danych. Tym cenniejsze stają się metody preselek- cji, wskazujące nieznanych, potencjalnych kandydatów sygnałowych.
2.1.4. Nauki biomedyczne
Pojęcie biosygnałów odnosi się do sygnałów elektrycznych rejestrowanych z ludzkiego
ciała tj. elektrokardiogram (EKG), elektroencefalogram (EEG), elektromiogram (EMG). Bio-
23 sygnały są zwykle uważane za główne wskaźniki, dostarczające klinicystom i lekarzom in- formacji podczas procesów diagnostycznych i monitorujących [41]. Pozyskiwanie i przetwa- rzanie sygnałów odgrywa zatem ważną rolę w wielu procedurach klinicznych.
Jednym z najczęściej rejestrowanych i przetwarzanych sygnałów w postępowaniach kli- nicznych są tzw. potencjały wywoływane (ERP, ang. event-related potential). Mimo, że wzorce reakcji na standardowe bodźce są dobrze znane u zdrowych osób i można je łatwo wykryć w zarejestrowanym ciągu danych, kształt sygnału ERP jest klasyfikowalny i odtwa- rzalny tylko w kilku standardowych warunkach badawczych. Odpowiedzi osób chorych, jeśli w ogóle występują, z wysokim prawdopodobieństwem będą zupełnie różne od oczekiwanych.
Charakterystyki odbieranych impulsów zależą również od konkretnych warunków, które ni- gdy nie mogą być dokładnie odtworzone i zmieniają się nawet podczas pojedynczego pomia- ru.
Jeżeli cechy poszukiwanego ERP nie są znane, należy zastosować detektory niezależne od kształtu sygnału. Natomiast jeśli kształt sygnału pozostaje nieznany, istnienie sygnału można wykazać za pomocą detekcji zwiększonej energii w porównaniu do rejestrowanego poziomu szumu. Ponieważ ERP ma bardzo niskie potencjały, często wymagane jest zwięk- szenie SNR przed wykryciem. Poprawa SNR jest zwykle realizowana przez uśrednienie.
W zależności od bodźca i przeszukiwanych fal, liczba uśrednień może wynosić od 10 do na- wet 1000 [42]. W diagnostyce funkcjonalnej wysokie zlecenia uśredniania mogą jednak po- wodować niedopuszczalne czasy pomiarów. Powyższe czynniki warunkują obszar występo- wania sygnałów słabych, jakimi niewątpliwie są sygnały ERP. Tworzą one pole do rozwoju skutecznych technik detekcji sygnałów słabych, dostosowanych do wykrywania impulsów (zdarzeń) o nieznanej charakterystyce, w silnie zmiennym środowisku szumowym.
Chcąc wykorzystać teoretyczne zalety sygnałów ERP, należy upewnić się, że przed każ- dym następnym bodźcem zakończyła się reakcja na poprzedni bodziec [42]. Jest to klasyczny przypadek detekcji sygnału słabego, omawiany w poprzednich podrozdziałach, w którym dochodzi do prostego rozróżnienia pomiędzy hipotezami H 0 i H 1 (zerową i alternatywną) (rys. 2.8). Analogicznie jak w równaniu (2.5), występuje poddawany wykryciu sygnał deter- ministyczny oraz tworzony przez wiele źródeł szum gaussowski.
Rys. 2.8. Schemat blokowy detekcji potencjałów wywołanych ERP
E LEKTRODY
W YKRYWANIE U ŚREDNIANIE
S TYMULACJA
K LASYFIKOWANIE
D E T E K C JA S Y G N A Ł Ó W D
ANE WEJŚCIOWEAKTYWNOŚĆ
A/C
BIOELEKTRYCZNA