Twierdzenie Karhunena-Loève'a - Karhunen–Loève theorem

W teorii procesów stochastycznych The twierdzenie Karhunen-Loeve (nazwane Kari Karhunen i Michel Loeve ), znany również jako Kosambi-Karhunen-Loeve twierdzenie jest przedstawieniem stochastycznego procesu jako nieskończona kombinacji liniowej funkcji ortogonalnych , analogicznie do szereg Fouriera reprezentacja funkcji w ograniczonym przedziale. Transformacja ta jest również znana jako transformata Hotellinga i transformata wektora własnego i jest ściśle związana z techniką analizy głównych składowych (PCA) szeroko stosowaną w przetwarzaniu obrazów i analizie danych w wielu dziedzinach.

Procesy stochastyczne podane przez nieskończone serie tej formy zostały po raz pierwszy rozważone przez Damodara Dharmanandę Kosambi . Istnieje wiele takich ekspansją stochastycznego procesu: gdy proces jest indeksowany przez [ a , b ] każdy ortonormalną podstawę z L 2 ([ , b ]) otrzymuje się jego ekspansję w tej formie. Znaczenie twierdzenia Karhunena-Loève'a polega na tym, że daje ono najlepszą taką podstawę w tym sensie, że minimalizuje całkowity błąd średniokwadratowy .

W przeciwieństwie do szeregu Fouriera, w którym współczynniki są liczbami stałymi, a podstawa rozwinięcia składa się z funkcji sinusoidalnych (czyli funkcji sinusoidalnych i cosinusoidalnych ), współczynniki w twierdzeniu Karhunena-Loève'a są zmiennymi losowymi, a podstawa rozwinięcia zależy od procesu. W rzeczywistości ortogonalne funkcje bazowe używane w tej reprezentacji są określone przez funkcję kowariancji procesu. Można sądzić, że transformacja Karhunena-Loève'a dostosowuje się do procesu, aby stworzyć jak najlepszą podstawę dla swojej ekspansji.

W przypadku wycentrowanego procesu stochastycznego { X t } t ∈ [ a , b ] ( wycentrowane średnie E [ X t ] = 0 dla wszystkich t ∈ [ a , b ] ) spełniających warunek ciągłości technicznej, X t dopuszcza rozkład

gdzie Z k są parami nieskorelowanymi zmiennymi losowymi, a funkcje e k są ciągłymi funkcjami o wartościach rzeczywistych na [ a , b ] , które są parami ortogonalne w L 2 ( [ a , b ] ) . Dlatego czasami mówi się, że rozwinięcie jest bi-ortogonalne, ponieważ współczynniki losowe Z k są ortogonalne w przestrzeni prawdopodobieństwa, podczas gdy funkcje deterministyczne e k są ortogonalne w dziedzinie czasu. Ogólny przypadek procesu X t, który nie jest wyśrodkowany, można sprowadzić z powrotem do przypadku procesu wyśrodkowanego, biorąc pod uwagę X t - E [ X t ], który jest procesem wyśrodkowanym.

Ponadto, jeśli proces jest gaussowski , to zmienne losowe Z k są gaussowskie i stochastycznie niezależne . Wynik ten uogólnia transformatę Karhunena-Loève'a . Ważnym przykładem wyśrodkowanego rzeczywistego procesu stochastycznego na [0, 1] jest proces Wienera ; twierdzenie Karhunena-Loève'a może być użyte do zapewnienia kanonicznej reprezentacji ortogonalnej dla niego. W tym przypadku rozwinięcie składa się z funkcji sinusoidalnych.

Powyższy Ekspansja nieskorelowanych zmiennych losowych są znane również jako rozszerzenie Karhunen-Loeve lub rozkładu Karhunen-Loeve . Wersja empiryczna (tj. ze współczynnikami obliczonymi z próbki) jest znana jako transformata Karhunena-Loève'a (KLT), analiza głównych składowych , właściwa dekompozycja ortogonalna (POD) , empiryczne funkcje ortogonalne (termin używany w meteorologii i geofizyce ), lub przekształcenie Hotellinga .

Sformułowanie

Ponieważ T K X jest operatorem liniowym, sensowne jest mówienie o jego wartościach własnych λ k i funkcjach własnych e k , które znajdują się rozwiązując jednorodne równanie całkowe Fredholma drugiego rodzaju

Stwierdzenie twierdzenia

Twierdzenie . Niech X t będzie procesem stochastycznym całkowalnym ze średnią kwadratową zdefiniowanym w przestrzeni prawdopodobieństwa (Ω, F , P ) i indeksowanym w przedziale zamkniętym i ograniczonym [ ab ], z ciągłą funkcją kowariancji K X ( s , t ) .

Następnie K X ( s, t ) jest Mercer jądra i pozwalając e k być podstawą ortonormalną na L 2 ([ , b ]), utworzony przez funkcyj T K X o odpowiednich wartości własnych X K X T przyjmuje następującą reprezentację

gdzie zbieżność jest w L 2 , jednostajna w t i

Ponadto zmienne losowe Z k mają zerową średnią, są nieskorelowane i mają wariancję λ k

Zauważmy, że przez uogólnienia twierdzenia Mercera możemy zastąpić przedział [ a , b ] innymi zwartymi przestrzeniami C , a miarę Lebesgue'a na [ a , b ] miarą borelowską, której oparciem jest C .

Dowód

  • Funkcja kowariancji K X spełnia definicję jądra Mercera. O tw Mercer , to w związku z tym istnieje zestaw X k , e k ( t ) o wartości i funkcyj T K X stanowiące podstawę ortonormalną z L 2 ([ , b ]) , i K X można wyrazić
  • Proces X t można rozszerzyć pod względem funkcji własnych e k jako:
gdzie współczynniki (zmienne losowe) Z k są podane przez rzut X t na odpowiednie funkcje własne
  • Możemy wtedy wyprowadzić
gdzie użyliśmy fakt, że e k są funkcjami własnymi T K X i są ortonormalna.
  • Pokażmy teraz, że zbieżność zachodzi w L 2 . Pozwolić
Następnie:
co idzie do 0 przez twierdzenie Mercera.

Właściwości transformaty Karhunena-Loève'a

Przypadek szczególny: rozkład Gaussa

Ponieważ granica średniej łącznie gaussowskich zmiennych losowych jest łącznie gaussowska, a łącznie gaussowskie zmienne losowe (centrowane) są niezależne wtedy i tylko wtedy, gdy są ortogonalne, możemy również stwierdzić:

Twierdzenie . Zmienne Z i mają wspólny rozkład Gaussa i są stochastycznie niezależne, jeśli pierwotny proces { X t } t jest gaussowski.

W przypadku Gaussa, ponieważ zmienne Z i są niezależne, możemy powiedzieć więcej:

prawie na pewno.

Transformacja Karhunena-Loève'a dekorelacji procesu

Jest to konsekwencją niezależności Z k .

Rozszerzenie Karhunena-Loève'a minimalizuje całkowity błąd średniokwadratowy

We wstępie wspomnieliśmy, że obcięte rozwinięcie Karhunena-Loeve'a było najlepszym przybliżeniem pierwotnego procesu w tym sensie, że zmniejsza całkowity błąd średniokwadratowy wynikający z jego obcięcia. Ze względu na tę właściwość często mówi się, że transformata KL optymalnie kompaktuje energię.

Dokładniej, mając dowolną bazę ortonormalną { f k } z L 2 ([ a , b ] ) , możemy rozłożyć proces X t jako:

gdzie

i możemy przybliżyć X t przez skończoną sumę

dla jakiejś liczby całkowitej N .

Roszczenie . Ze wszystkich takich przybliżeń przybliżenie KL jest tym, które minimalizuje całkowity błąd średniokwadratowy (pod warunkiem, że ułożyliśmy wartości własne w porządku malejącym).

Dowód  —

Rozważ błąd wynikający z obcięcia przy N-tym członie w następującym rozwinięciu ortonormalnym:

Błąd średniokwadratowy ε N 2 ( t ) można zapisać jako:

Następnie integrujemy tę ostatnią równość nad [ a , b ]. Ortonormalność f k daje:

Problem minimalizacji całkowitego błędu średniokwadratowego sprowadza się zatem do minimalizacji prawej strony tej równości z zastrzeżeniem, że f k jest znormalizowane. Wprowadzamy zatem mnożniki Lagrange'a związane z tymi ograniczeniami β k i dążymy do zminimalizowania następującej funkcji:

Różniczkowanie względem f i ( t ) (jest to pochodna funkcjonalna ) i ustawienie pochodnej na 0 daje:

który jest spełniony w szczególności, gdy

Innymi słowy, gdy K K są wybrane funkcje własne z T K X , a więc w wyniku ekspansji KL.

Wyjaśniona wariancja

Ważnym spostrzeżeniem jest to, że skoro współczynniki losowe Z k rozwinięcia KL są nieskorelowane, wzór Bienaymé zakłada, że wariancja X t jest po prostu sumą wariancji poszczególnych składników sumy:

Integracja przez [ , b ], a następnie za pomocą ortonormalność z e k , otrzymujemy że całkowita wariancja procesu jest:

W szczególności całkowita wariancja przybliżenia obciętego przez N wynosi

W rezultacie rozwinięcie obcięte przez N wyjaśnia

wariancji; a jeśli zadowala nas przybliżenie, które wyjaśnia, powiedzmy, 95% wariancji, to musimy po prostu wyznaczyć takie, że

Rozszerzenie Karhunen-Loève ma minimalną właściwość entropii reprezentacji

Mając reprezentację , dla pewnej bazy ortonormalnej i losowej , pozwalamy , aby . Możemy wtedy zdefiniować entropię reprezentacji jako . Następnie mamy dla wszystkich wyborów . Oznacza to, że rozszerzenie KL ma minimalną entropię reprezentacji.

Dowód:

Oznacz otrzymane współczynniki dla bazy jako , oraz dla jako .

Wybierz . Zauważ, że ponieważ minimalizuje błąd średniokwadratowy, mamy to

Rozszerzając rozmiar prawej dłoni otrzymujemy:

Korzystanie z ortonormalność się i rozwija w oparciu, otrzymamy, że odpowiedni rozmiar strony jest równy:

Możemy przeprowadzić identyczną analizę dla , a więc przepisać powyższą nierówność jako:

Odejmując wspólny pierwszy wyraz i dzieląc przez , otrzymujemy, że:

To daje do zrozumienia ze:

Liniowe przybliżenia Karhunena-Loève'a

Rozważ całą klasę sygnałów, które chcemy aproksymować na pierwszych M wektorach bazy. Sygnały te są modelowane jako realizacje losowego wektora Y [ n ] o rozmiarze N . Aby zoptymalizować aproksymację, projektujemy bazę, która minimalizuje średni błąd aproksymacji. Ta sekcja dowodzi, że optymalnymi bazami są bazy Karhunena-Loeve'a, które diagonalizują macierz kowariancji Y . Losowy wektor Y można rozłożyć w bazie ortogonalnej

następująco:

gdzie każdy?

jest zmienną losową. Aproksymacja z pierwszych MN wektorów bazy to

Zachowanie energii w bazie ortogonalnej implikuje

Ten błąd jest związany z kowariancją Y zdefiniowaną przez

Dla dowolnego wektora x [ n ] oznaczamy przez K operator kowariancji reprezentowany przez tę macierz,

Błąd ε [ M ] jest więc sumą ostatnich NM współczynników operatora kowariancji

Operator kowariancji K jest hermitowski i dodatni, a zatem jest diagonalizowany w ortogonalnej bazie zwanej bazą Karhunena-Loève'a. Poniższe twierdzenie stwierdza, że ​​baza Karhunena-Loève'a jest optymalna dla przybliżeń liniowych.

Twierdzenie (Optymalność bazy Karhunena-Loève'a). Niech K będzie operatorem kowariancji. Dla wszystkich M ≥ 1 błąd aproksymacji

jest minimalny wtedy i tylko wtedy, gdy

jest bazą Karhunena-Loeve'a uporządkowaną według malejących wartości własnych.

Przybliżenie nieliniowe w bazach

Przybliżenia liniowe rzutują sygnał na wektory M a priori. Aproksymacja może być bardziej precyzyjna, wybierając wektory ortogonalne M w zależności od właściwości sygnału. Ta sekcja analizuje ogólną wydajność tych nieliniowych przybliżeń. Sygnał jest aproksymowany M wektorami wybranymi adaptacyjnie w bazie ortonormalnej dla

Niech będzie rzutem f na wektory M, których indeksy znajdują się w I M :

Błąd aproksymacji to suma pozostałych współczynników

Aby zminimalizować ten błąd, indeksy w I M muszą odpowiadać wektorom M o największej amplitudzie iloczynu skalarnego

Są to wektory, które najlepiej korelują f. Można je zatem interpretować jako główne cechy f. Wynikający z tego błąd jest z konieczności mniejszy niż błąd aproksymacji liniowej, która wybiera wektory aproksymacji M niezależnie od f. Posortujmy

w porządku malejącym

Najlepsze nieliniowe przybliżenie to

Można go również zapisać jako progowanie produktu wewnętrznego:

z

Błąd nieliniowy to

ten błąd szybko spada do zera wraz ze wzrostem M, jeśli posortowane wartości mają szybki spadek wraz ze wzrostem k. Zanik ten jest określany ilościowo przez obliczenie normy iloczynów wewnętrznych sygnału w B:

Poniższe twierdzenie wiąże rozpad ε [ M ] z

Twierdzenie (rozpad błędu). Jeśli przy p < 2 to

oraz

I odwrotnie, jeśli wtedy

dla dowolnego q > p .

Nieoptymalność zasad Karhunena-Loève

Aby dodatkowo zilustrować różnice między przybliżeniami liniowymi i nieliniowymi, badamy rozkład prostego niegaussowskiego wektora losowego w bazie Karhunena-Loève'a. Procesy, których realizacje mają losowe tłumaczenie są stacjonarne. Podstawa Karhunena-Loève'a jest wtedy podstawą Fouriera i badamy jej działanie. Aby uprościć analizę, rozważ losowy wektor Y [ n ] o rozmiarze N, który jest losowym przesunięciem modulo N sygnału deterministycznego f [ n ] o zerowej średniej

Losowe przesunięcie P jest równomiernie rozłożone na [0,  N  − 1]:

Wyraźnie

oraz

Stąd

Ponieważ R Y jest okresem N, Y jest kołowym stacjonarnym wektorem losowym. Operator kowariancji jest splotem kołowym z R Y i dlatego jest diagonalizowany w dyskretnej bazie Fouriera Karhunena-Loève'a

Widmo mocy to transformata Fouriera R Y :

Przykład: Rozważmy skrajny przypadek, w którym . Twierdzenie przedstawione powyżej gwarantuje, że baza Fouriera Karhunena-Loève'a daje mniejszy oczekiwany błąd aproksymacji niż kanoniczna baza Diracsa . Rzeczywiście, nie znamy a priori odciętej niezerowych współczynników Y , więc nie ma konkretnego Diraca, który byłby lepiej przystosowany do przeprowadzenia aproksymacji. Ale wektory Fouriera pokrywają całe wsparcie Y, a tym samym pochłaniają część energii sygnału.

Wybranie współczynników Fouriera o wyższej częstotliwości daje lepsze przybliżenie średniokwadratowe niż wybranie a priori kilku wektorów Diraca do przeprowadzenia przybliżenia. Zupełnie inaczej wygląda sytuacja w przypadku przybliżeń nieliniowych. Jeśli wtedy dyskretna baza Fouriera jest wyjątkowo nieefektywna, ponieważ f, a więc i Y mają energię, która jest prawie równomiernie rozłożona na wszystkie wektory Fouriera. W przeciwieństwie do tego, ponieważ f ma tylko dwa niezerowe współczynniki w bazie Diraca, nieliniowe przybliżenie Y z M ≥ 2 daje błąd zerowy.

Analiza głównych składowych

Ustaliliśmy twierdzenie Karhunena-Loève'a i wyprowadziliśmy z niego kilka własności. Zauważyliśmy również, że przeszkodą w jego zastosowaniu był liczbowy koszt wyznaczenia wartości własnych i funkcji własnych operatora kowariancji za pomocą równania całkowego Fredholma drugiego rodzaju

Jednak w przypadku zastosowania do procesu dyskretnego i skończonego , problem przybiera znacznie prostszą postać i do przeprowadzenia obliczeń można użyć standardowej algebry.

Należy zauważyć, że ciągły proces można również próbkować w N punktach w czasie, aby zredukować problem do skończonej wersji.

Odtąd rozważamy losowy N- wymiarowy wektor . Jak wspomniano powyżej, X może zawierać N próbek sygnału, ale może zawierać o wiele więcej reprezentacji w zależności od dziedziny zastosowania. Na przykład mogą to być odpowiedzi na ankietę lub dane ekonomiczne w analizie ekonometrycznej.

Podobnie jak w wersji ciągłej, zakładamy, że X jest wyśrodkowany, w przeciwnym razie możemy pozwolić (gdzie jest średni wektor z X ), który jest wyśrodkowany.

Dostosujmy procedurę do dyskretnego przypadku.

Macierz kowariancji

Przypomnijmy, że główną implikacją i trudnością transformacji KL jest obliczenie wektorów własnych operatora liniowego związanego z funkcją kowariancji, które dają rozwiązania opisanego powyżej równania całkowego.

Zdefiniuj Σ, macierz kowariancji X , jako macierz N × N , której elementy są podane przez:

Przepisując powyższe równanie całkowe, aby pasowało do przypadku dyskretnego, obserwujemy, że zmienia się ono w:

gdzie jest N- wymiarowym wektorem.

W ten sposób równanie całkowe redukuje się do prostego macierzowego problemu wartości własnej, co wyjaśnia, dlaczego PCA ma tak szeroką dziedzinę zastosowań.

Ponieważ Σ jest dodatnio określoną macierzą symetryczną, posiada zbiór ortonormalnych wektorów własnych tworzących bazę , i zapisujemy ten zbiór wartości własnych i odpowiadających im wektorów własnych, wymienionych w malejących wartościach λ i . Niech również Φ będzie macierzą ortonormalną składającą się z tych wektorów własnych:

Przekształcenie składowej głównej

Pozostaje do wykonania rzeczywista transformacja KL, nazywana w tym przypadku transformacją głównych składowych . Przypomnijmy, że transformacja została znaleziona poprzez rozszerzenie procesu w odniesieniu do bazy rozpiętej przez wektory własne funkcji kowariancji. W tym przypadku mamy więc:

W bardziej zwartej formie główna transformata składowa X jest zdefiniowana przez:

I -ty element Y jest , rzut X o a odwrotna transformata X = Φ Y otrzymuje się rozszerzenie X w przestrzeni objętej przez :

Podobnie jak w przypadku ciągłym, możemy zmniejszyć wymiarowość problemu, obcinając sumę w taki sposób, że

gdzie α jest wyjaśnionym progiem wariancji, który chcemy ustawić.

Możemy również zredukować wymiarowość poprzez zastosowanie wielopoziomowej dominującej estymacji wektora własnego (MDEE).

Przykłady

Proces Wienera

Istnieje wiele równoważnych charakteryzacji procesu Wienera, który jest matematyczną formalizacją ruchów Browna . Tutaj uważamy go za wyśrodkowany standardowy proces Gaussa W t z funkcją kowariancji

Ograniczamy dziedzinę czasu do [ a , b ]=[0,1] bez utraty ogólności.

Wektory własne jądra kowariancji są łatwe do wyznaczenia. To są

a odpowiadające im wartości własne to

Dowód  —

Aby znaleźć wartości własne i wektory własne, musimy rozwiązać równanie całkowe:

jednokrotne różnicowanie względem plonów t :

drugie zróżnicowanie daje następujące równanie różniczkowe:

Ogólne rozwiązanie, które ma postać:

gdzie A i B to dwie stałe, które należy określić za pomocą warunków brzegowych. Ustawienie t  = 0 w początkowym równaniu całkowym daje e (0) = 0, co oznacza, że B  = 0 i podobnie, ustawienie t  = 1 w pierwszym zróżnicowaniu daje e' (1) = 0, skąd:

co z kolei implikuje, że wartości własne T K X to:

Odpowiednie funkcje własne mają zatem postać:

Następnie dobiera się tak, aby znormalizować e k :

Daje to następującą reprezentację procesu Wienera:

Twierdzenie . Istnieje ciąg { Z i } i niezależnych gaussowskich zmiennych losowych o średniej zerowej i wariancji 1 taki, że

Należy zauważyć, że ta reprezentacja jest ważna tylko dla większych interwałów przyrosty nie są niezależne. Jak stwierdzono w twierdzeniu, zbieżność jest w normie L 2 i jednolita w  t .

Most Browna

Podobnie most Browna, który jest procesem stochastycznym z funkcją kowariancji

można przedstawić jako szereg

Aplikacje

Systemy optyki adaptacyjnej czasami wykorzystują funkcje K–L do rekonstrukcji informacji o fazie czoła fali (Dai 1996, JOSA A). Ekspansja Karhunena-Loève'a jest ściśle związana z dekompozycją według wartości osobliwych . Ten ostatni ma niezliczone zastosowania w przetwarzaniu obrazu, radarze, sejsmologii i tym podobnych. Jeśli mamy niezależne obserwacje wektorowe z procesu stochastycznego o wartościach wektorowych, to lewe wektory osobliwe są estymatami największej prawdopodobieństwa rozwinięcia zespołu KL.

Zastosowania w estymacji i detekcji sygnału

Wykrywanie znanego ciągłego sygnału S ( t )

W komunikacji zwykle musimy zdecydować, czy sygnał z zaszumionego kanału zawiera cenne informacje. Poniższe testowanie hipotez służy do wykrywania ciągłego sygnału s ( t ) z wyjścia kanału X ( t ), N ( t ) jest szumem kanału, który zwykle przyjmuje się zerową średnią procesu Gaussa z funkcją korelacji

Wykrywanie sygnału w białym szumie

Gdy szum kanału jest biały, jego funkcją korelacji jest

i ma stałą gęstość widma mocy. W fizycznie praktycznym kanale moc szumów jest skończona, więc:

Wtedy funkcja korelacji szumu jest funkcją sinc z zerami w Ponieważ są nieskorelowane i gaussowskie, są niezależne. W ten sposób możemy pobrać próbki z X ( t ) z odstępem czasowym

Niech . Mamy w sumie obserwacje iid, aby opracować test ilorazu wiarygodności. Zdefiniuj sygnał , problem staje się,

Logarytmiczny współczynnik prawdopodobieństwa

Jako t → 0 , niech:

Wtedy G jest statystyką testu, a optymalny detektor Neymana-Pearsona to

Ponieważ G jest Gaussa, możemy go scharakteryzować, znajdując jego średnią i wariancje. Wtedy dostajemy

gdzie

to energia sygnału.

Błąd fałszywego alarmu

A prawdopodobieństwo wykrycia:

gdzie Φ jest cdf zmiennej standardowej lub Gaussa.

Wykrywanie sygnału w kolorowym szumie

Gdy N(t) jest kolorowym (skorelowanym w czasie) szumem gaussowskim z zerową średnią i funkcją kowariancji, nie możemy próbkować niezależnych dyskretnych obserwacji przez równomierne rozłożenie czasu. Zamiast tego możemy użyć rozwinięcia K–L, aby usunąć korelację procesu szumu i uzyskać niezależne „próbki” obserwacji Gaussa. Rozszerzenie K–L N ( t ):

gdzie i bazy ortonormalne są generowane przez jądro , czyli rozwiązanie do

Wykonaj ekspansję:

gdzie , to

pod H i pod K. Niech , mamy

są niezależnymi rv Gaussa z wariancją
pod H: są niezależnymi r.v. Gaussa.
pod K: są niezależnymi gaussowskimi r.v.

Stąd log-LR jest dany przez

a optymalnym detektorem jest

Definiować

następnie

Jak znaleźć k ( t )

Odkąd

k(t) jest rozwiązaniem

Jeśli N ( t ) jest stacjonarny o szerokim znaczeniu,

który jest znany jako równanie Wienera-Hopfa . Równanie można rozwiązać, przyjmując transformatę Fouriera, ale nie jest to praktycznie możliwe do zrealizowania, ponieważ nieskończone widmo wymaga faktoryzacji przestrzennej. Szczególnym przypadkiem, który łatwo obliczyć k ( t ) jest biały szum Gaussa.

Odpowiednia odpowiedź impulsowa to h ( t ) = k ( T  −  t ) = CS ( T  −  t ). Niech C  = 1, to jest właśnie wynik, do którego doszliśmy w poprzednim rozdziale dotyczącym wykrywania sygnału w białym szumie.

Próg testowy dla detektora Neymana-Pearsona

Ponieważ X(t) jest procesem Gaussa,

jest zmienną losową Gaussa, którą można scharakteryzować za pomocą średniej i wariancji.

Stąd otrzymujemy rozkłady H i K :

Błąd fałszywego alarmu to

Zatem próg testowy dla optymalnego detektora Neymana-Pearsona wynosi

Jego moc wykrywania to:

Gdy szum jest białym procesem Gaussa, moc sygnału wynosi

Wybielanie wstępne

W przypadku niektórych rodzajów szumu kolorowego typową praktyką jest dodanie filtra wstępnego wybielającego przed filtrem dopasowanym, aby przekształcić szum kolorowy w szum biały. Na przykład, N(t) jest szeroko rozumianym stacjonarnym szumem kolorowym z funkcją korelacji

Funkcja przenoszenia filtra wstępnego wybielania jest

Wykrywanie losowego sygnału gaussowskiego w addytywnym białym szumie gaussowskim (AWGN)

Gdy sygnał, który chcemy wykryć z zaszumionego kanału, jest również losowy, na przykład biały proces Gaussa X ( t ), nadal możemy zaimplementować rozwinięcie K–L, aby uzyskać niezależną sekwencję obserwacji. W takim przypadku problem z wykryciem jest opisany w następujący sposób:

X ( t ) jest procesem losowym z funkcją korelacji

Rozszerzenie K–L X ( t ) to

gdzie

i są rozwiązaniami dla

Tak „s są niezależne sekwencja RV o zerowej średniej i wariancji . Rozszerzając Y ( t ) i N ( t ) przez , otrzymujemy

gdzie

Ponieważ N ( t ) jest białym szumem Gaussa, to sekwencja iid rv o zerowej średniej i wariancji , to problem jest uproszczony w następujący sposób:

Optymalny test Neymana-Pearsona:

więc logarytmiczny stosunek prawdopodobieństwa wynosi

Odkąd

jest tylko minimalną średnią kwadratową oszacowaniem danego 's,

Rozszerzenie K–L ma następującą właściwość: If

gdzie

następnie

Więc pozwól

Filtr nieprzyczynowy Q ( t , s ) może być użyty do uzyskania oszacowania przez

Przez zasadę ortogonalności , P ( t , s ) spełnia

Jednak ze względów praktycznych konieczne jest dalsze wyprowadzenie filtra przyczynowego h ( t , s ), gdzie h ( t , s ) = 0 dla s > t , aby uzyskać oszacowanie . Konkretnie,

Zobacz też

Uwagi

Bibliografia

  • Stark, Henry; Woods, John W. (1986). Prawdopodobieństwo, procesy losowe i teoria estymacji dla inżynierów . Prentice-Hall, Inc. ISBN 978-0-13-711706-2. OL  21138080M .
  • Ghanem, Roger; Spanos, Pol (1991). Stochastyczne elementy skończone: podejście spektralne . Springer-Verlag. Numer ISBN 978-0-387-97456-9. OL  1865197M .
  • Guikhman, I.; Skorokhod, A. (1977). Wprowadzenie a la Théorie des Processus Aléatoires . Wydania MIR.
  • Szymona B. (1979). Integracja funkcjonalna i fizyka kwantowa . Prasa akademicka.
  • Karhunen, Kari (1947). „Über lineare Methoden in der Wahrscheinlichkeitsrechnung”. Anny. Acad. Nauka. Fennice. Ser. AI Matematyka-Fizyka . 37 : 1-79.
  • Loève, M. (1978). Teoria prawdopodobieństwa. Tom. II, wyd . Teksty magisterskie z matematyki. 46 . Springer-Verlag. Numer ISBN 978-0-387-90262-3.
  • Dai, G. (1996). „Modalna rekonstrukcja czoła fali z wielomianami Zernike i funkcjami Karhunena-Loeve”. JOSA A . 13 (6): 1218. Kod Bib : 1996JOSAA..13.1218D . doi : 10.1364/JOSAA.13.001218 .
  • Wu B., Zhu J., Najm F. (2005) „Podejście nieparametryczne do szacowania zakresu dynamicznego systemów nieliniowych”. W materiałach konferencyjnych Design Automation Conference(841-844) 2005
  • Wu B., Zhu J., Najm F. (2006) "Oszacowanie zakresu dynamicznego". Transakcje IEEE dotyczące projektowania wspomaganego komputerowo układów i systemów scalonych, tom. 25 Wydanie:9 (1618-1636) 2006
  • Jorgensen, Palle ET; Pieśń, Myung-Sin (2007). „Kodowanie entropii, Hilbert Space i Karhunen-Loeve Transforms”. Czasopismo Fizyki Matematycznej . 48 (10): 103503. arXiv : math-ph/0701056 . Kod Bibcode : 2007JMP....48j3503J . doi : 10.1063/1.2793569 . S2CID  17039075 .

Zewnętrzne linki