Przewidywanie liniowe - Linear prediction

Predykcja liniowa to operacja matematyczna, w której przyszłe wartości sygnału dyskretnego są szacowane jako liniowa funkcja poprzednich próbek.

W cyfrowym przetwarzaniu sygnałów predykcja liniowa jest często nazywana liniowym kodowaniem predykcyjnym (LPC) i dlatego może być postrzegana jako podzbiór teorii filtrów . W analizie systemowej , poddziedzina matematyki , predykcja liniowa może być postrzegana jako część modelowania matematycznego lub optymalizacji .

Model predykcyjny

Najczęstszą reprezentacją jest

gdzie jest przewidywaną wartością sygnału, poprzednimi obserwowanymi wartościami z , oraz współczynnikami predykcyjnymi. Błąd wygenerowany przez to oszacowanie to

gdzie jest prawdziwa wartość sygnału.

Te równania są ważne dla wszystkich typów (jednowymiarowych) predykcji liniowych. Różnice znajdują się w sposobie doboru współczynników predykcyjnych .

W przypadku sygnałów wielowymiarowych metryka błędu jest często definiowana jako

gdzie jest odpowiednią wybraną normą wektorową . Prognozy, takie jak są rutynowo używane w filtrach Kalmana i wygładzaczach, aby oszacować odpowiednio bieżące i przeszłe wartości sygnału.

Szacowanie parametrów

Najpopularniejszym wyborem w optymalizacji parametrów jest kryterium pierwiastka średniokwadratowego, zwane również kryterium autokorelacji . W tej metodzie minimalizujemy oczekiwaną wartość kwadratu błędu , co daje równanie

dla 1 ≤ jp , gdzie R jest autokorelacją sygnału x n , zdefiniowaną jako

,

a E jest wartością oczekiwaną . W wielowymiarowej przypadku odpowiada minimalizując L 2 normę .

Powyższe równania nazywane są równaniami normalnymi lub równaniami Yule-Walkera . W postaci macierzowej równania można równoważnie zapisać jako

gdzie macierz autokorelacji jest symetryczną macierzą Toeplitza z elementami , wektor jest wektorem autokorelacji , a wektor parametrów.

Innym, bardziej ogólnym podejściem jest minimalizacja sumy kwadratów błędów zdefiniowanych w formularzu

gdzie problem optymalizacji przeszukiwania wszystkich musi być teraz ograniczony do .

Z drugiej strony, jeśli średni kwadratowy błąd predykcji jest ograniczony do jedności, a równanie błędu predykcji jest zawarte na górze równań normalnych, rozszerzony zestaw równań otrzymuje się jako

gdzie indeks mieści się w zakresie od 0 do , i jest macierzą.

Specyfikacja parametrów predyktora liniowego jest szerokim tematem i zaproponowano wiele innych podejść. W rzeczywistości metoda autokorelacji jest najbardziej powszechna i jest wykorzystywana np. do kodowania mowy w standardzie GSM .

Rozwiązanie równania macierzowego jest obliczeniowo stosunkowo kosztownym procesem. Eliminacja Gaussa dla odwrócenia macierzy jest prawdopodobnie najstarszym rozwiązaniem, ale to podejście nie wykorzystuje efektywnie symetrii . Szybszym algorytmem jest rekurencja Levinsona zaproponowana przez Normana Levinsona w 1947 r., która rekurencyjnie oblicza rozwiązanie. W szczególności powyższe równania autokorelacji można skuteczniej rozwiązać za pomocą algorytmu Durbina.

W 1986 roku Philippe Delsarte i YV Genin zaproponowali ulepszenie tego algorytmu, nazwane podzieloną rekurencją Levinsona, która wymaga około połowy liczby mnożenia i dzielenia. Wykorzystuje specjalną symetryczną właściwość wektorów parametrów na kolejnych poziomach rekurencji. Oznacza to, że obliczenia dla predyktora optymalnego zawierającego terminy wykorzystują podobne obliczenia dla predyktora optymalnego zawierającego terminy.

Innym sposobem identyfikacji parametrów modelu jest iteracyjne obliczenie oszacowań stanu przy użyciu filtrów Kalmana i uzyskanie oszacowań maksymalnego prawdopodobieństwa w ramach algorytmów maksymalizacji oczekiwań .

W przypadku wartości o równych odstępach interpolacja wielomianowa jest kombinacją liniową znanych wartości. Jeżeli oszacowano, że dyskretny sygnał czasu jest zgodny z wielomianem stopnia, wówczas współczynniki predykcyjne są podane przez odpowiedni rząd trójkąta dwumianowych współczynników transformacji. Ta ocena może być odpowiednia dla wolno zmieniającego się sygnału o niskim poziomie szumów. Prognozy dla kilku pierwszych wartości are

Zobacz też

Bibliografia

Dalsza lektura

Linki zewnętrzne