Rozkład własny macierzy - Eigendecomposition of a matrix

W liniowym Algebra , eigendecomposition jest na czynniki o osnowie w postaci kanonicznej , przy czym matryca jest przedstawiony w odniesieniu do jego wartości i wektory własne . Tylko macierze diagonalizowalne mogą być faktoryzowane w ten sposób. Gdy macierz podlegająca faktoryzacji jest normalną lub rzeczywistą macierzą symetryczną , dekompozycja nazywana jest „dekompozycją widmową”, wyprowadzoną z twierdzenia Spectral .

Podstawowa teoria macierzy wektorów własnych i wartości własnych

(niezerowy) wektor v wymiaru N jest wektorem własnym kwadratowej macierzy A N × N , jeżeli spełnia równanie liniowe postaci

dla niektórych skalarnych λ . Wtedy λ jest nazywana wartością własną odpowiadającą v . Mówiąc geometrycznie, wektory własne A są wektorami, które A jedynie wydłużają lub kurczą, a wielkość, o którą się wydłużają/skurczają, jest wartością własną. Powyższe równanie nazywa się równaniem wartości własnej lub problemem wartości własnej.

Daje to równanie dla wartości własnych

Wzywamy p ( X ) z wielomian charakterystyczny oraz równanie, zwane równanie charakterystyczne, to N -tego rzędu równania wielomianu w nieznanym Î . To równanie będzie miało N λ różnych rozwiązań, gdzie 1 ≤ N λN . Zbiorem rozwiązań, to znaczy, że wartości własnych jest nazywany widmo z A .

Jeżeli ciało skalarów jest algebraicznie domknięte , to możemy rozłożyć p as

Liczba całkowita n i nazywana jest algebraiczną krotnością wartości własnej λ i . Wielokrotności algebraiczne sumują się do N : :

Dla każdej wartości własnej λ i , mamy określone równanie wartości własnej

Będzie 1 ≤ m in i liniowo niezależne rozwiązania dla każdego równania wartości własnej. Liniowe kombinacje rozwiązań m i (z wyjątkiem tego, które daje wektor zerowy) to wektory własne związane z wartością własną λ i . Liczba całkowita m i jest określany jako geometryczne wielość z λ I . Należy pamiętać, że krotność algebraiczna n i oraz krotność geometryczna m i mogą być równe lub nie, ale zawsze mamy mi in i . Najprostszym przypadkiem jest oczywiście sytuacja, w której m i = n i = 1 . Całkowitą liczbę liniowo niezależnych wektorów własnych, N v , można obliczyć, sumując krotności geometryczne

Wektory własne mogą być indeksowane przez wartości własne, wykorzystując podwójne indeksu, z v ij będąc j th wektor własny dla osób i th wartością własną. Wektory własne mogą być również indeksowane przy użyciu prostszego zapisu pojedynczego indeksu v k , przy k = 1, 2, ..., N v .

Rozkład własny macierzy

Niech A będzie macierzą kwadratową n × n z n liniowo niezależnymi wektorami własnymi q i (gdzie i = 1, ..., n ). Wtedy A można rozłożyć na czynniki jako

gdzie Q jest kwadratem n x n macierzy, którego I tej kolumny jest wektor własny q i o A i Λ jest macierzą diagonalną , której elementy przekątnej są odpowiednie wartości własne Λ II = λ I . Zauważ, że tylko macierze diagonalizowalne mogą być faktoryzowane w ten sposób. Na przykład wadliwa macierz (która jest macierzą ścinania ) nie może być diagonalizowana.

N wektory P i są zwykle znormalizowane, ale nie musi. Nieznormalizowaną zestaw n wektorów własnych, V i mogą być również użyte jako kolumny Q . Można to zrozumieć, zauważając, że wielkość wektorów własnych w Q zostaje anulowana w dekompozycji przez obecność Q -1 .

Rozkład można wyprowadzić z podstawowej własności wektorów własnych:

Przykład

Rzeczywista macierz 2 × 2 A

można rozłożyć na macierz diagonalną poprzez mnożenie macierzy nieosobliwej B

Następnie

dla jakiejś prawdziwej macierzy diagonalnej .

Mnożąc obie strony równania po lewej przez B :

Powyższe równanie można rozłożyć na dwa równoczesne równania :

Obliczanie wartości własnych x i y :

Wpuszczanie

to daje nam dwa równania wektorowe:

I może być reprezentowane przez jedno równanie wektorowe obejmujące dwa rozwiązania jako wartości własne:

gdzie λ reprezentuje dwie wartości własne x i y , a u reprezentuje wektory a i b .

Przesunięcia λ u na lewym skrzydle i faktoringu u out

Ponieważ B nie jest liczbą pojedynczą, ważne jest, aby u było niezerowe. W związku z tym,

Zatem

dając nam rozwiązania wartości własnych dla macierzy A jako λ = 1 lub λ = 3 , a wynikowa macierz diagonalna z rozkładu własnego A jest w ten sposób .

Umieszczenie rozwiązań z powrotem w powyższych równoczesnych równaniach

Rozwiązując równania, mamy

Zatem macierz B wymagana do rozkładu własnego A to

to jest:

Odwrotność macierzy przez dekompozycję własną

Jeśli macierz A może być zdekomponowana i żadna z jej wartości własnych nie wynosi zero, to A jest odwracalna i jej odwrotność jest dana przez

Jeśli jest macierzą symetryczną, ponieważ jest utworzona z jej wektorów własnych, na pewno jest macierzą ortogonalną , a zatem . Ponadto, ponieważ Λ jest macierzą diagonalną , jej odwrotność jest łatwa do obliczenia:

praktyczne implikacje

Gdy rozkład własnych jest używany na macierzy zmierzonych, rzeczywistych danych , odwrotność może być mniej ważna, gdy wszystkie wartości własne są używane w postaci niezmodyfikowanej w powyższej postaci. Dzieje się tak, ponieważ gdy wartości własne stają się stosunkowo małe, ich wkład w inwersję jest duży. Te bliskie zeru lub przy „szumie” systemu pomiarowego będą miały nadmierny wpływ i mogą utrudniać rozwiązania (wykrywanie) przy użyciu odwrotności.

Zaproponowano dwa rozwiązania łagodzące: obcięcie małych lub zerowych wartości własnych i rozszerzenie najniższej wiarygodnej wartości własnej na wartości poniżej niej.

Pierwsza metoda łagodzenia jest podobna do rzadkiej próbki oryginalnej matrycy, usuwając składniki, które nie są uważane za wartościowe. Jeśli jednak rozwiązanie lub proces wykrywania jest zbliżony do poziomu szumu, obcinanie może spowodować usunięcie składników, które wpływają na pożądane rozwiązanie.

Drugie łagodzenie rozszerza wartość własną tak, że niższe wartości mają znacznie mniejszy wpływ na inwersję, ale nadal przyczyniają się do tego, że rozwiązania w pobliżu szumu nadal będą znalezione.

Wiarygodną wartość własną można znaleźć zakładając, że wartości własne o skrajnie podobnej i niskiej wartości są dobrą reprezentacją szumu pomiarowego (który jest zakładany jako niski dla większości systemów).

Jeśli wartości własne są posortowane według wartości, to wiarygodną wartość własną można znaleźć poprzez minimalizację Laplace'a posortowanych wartości własnych:

gdzie wartości własne są indeksowane przez s oznaczające sortowanie. Pozycja minimalizacji jest najniższą wiarygodną wartością własną. W systemach pomiarowych pierwiastek kwadratowy z tej wiarygodnej wartości własnej jest średnim szumem na elementach systemu.

Rachunek funkcjonalny

Rozkład własnych pozwala na znacznie łatwiejsze obliczanie szeregów potęgowych macierzy. Jeśli f  ( x ) jest dane przez

wtedy wiemy, że

Ponieważ Λ jest macierzą diagonalną , funkcje Λ są bardzo łatwe do obliczenia:

Niediagonalne elementy f  ( Λ ) wynoszą zero; czyli f  ( Λ ) jest również macierzą diagonalną. Dlatego obliczenie f  ( A ) sprowadza się do obliczenia funkcji na każdej z wartości własnych.

Podobna technika działa ogólniej z holomorficznym rachunkiem funkcjonalnym , używając

z góry . Po raz kolejny stwierdzamy, że

Przykłady

które są przykładami funkcji . Ponadto, jest wykładnicza matrycy .

Rozkład na macierze specjalne

Gdy A jest normalną lub rzeczywistą macierzą symetryczną , dekompozycja nazywana jest „dekompozycją spektralną”, wyprowadzoną z twierdzenia Spectral .

Macierze normalne

Macierz kwadratowa A o wartościach zespolonych jest normalna (co oznacza A * A = AA * , gdzie A * jest sprzężoną transpozycją ) wtedy i tylko wtedy, gdy można ją rozłożyć jako

gdzie U jest macierzą unitarną (co oznacza U * = U −1 ) a Λ = diag( λ 1 , ..., λ n ) jest macierzą diagonalną . Kolumny u 1 , ..., u n z U tworzą bazę ortonormalną i są wektorami własnymi A z odpowiednimi wartościami własnymi λ 1 , ..., λ n .

Jeśli A jest ograniczone do macierzy hermitowskiej ( A = A * ), to Λ ma tylko wpisy o wartościach rzeczywistych. Jeśli A jest ograniczone do macierzy unitarnej, to Λ przyjmuje wszystkie swoje wartości na złożonym okręgu jednostkowym, czyli | λ i | = 1 .

Prawdziwe macierze symetryczne

W szczególnym przypadku, dla każdej n × n rzeczywistej macierzy symetrycznej , wartości własne są rzeczywiste i można wybrać wektory własne rzeczywiste i ortonormalne . Zatem rzeczywistą symetryczną macierz A można rozłożyć jako

gdzie Q jest macierzą ortogonalną, której kolumny są (wybranymi powyżej, rzeczywistymi i ortonormalnymi) wektorami własnymi A , a Λ jest macierzą diagonalną, której wpisy są wartościami własnymi A .

Przydatne fakty

Przydatne fakty dotyczące wartości własnych

  • Produkt o wartości własnych jest równa determinantę z A
    Zauważ, że każda wartość własna jest podnoszona do potęgi n i , krotności algebraicznej .
  • Suma wartości własnych jest równa śladu z A
    Zauważ, że każda wartość własna jest mnożona przez n i , krotność algebraiczną .
  • Jeśli wartości własne A to λ i , a A jest odwracalne, to wartości własne A- 1 to po prostu λ-1
    i
    .
  • Jeśli wartości własne A wynoszą λ i , to wartości własne f  ( A ) są po prostu f  ( λ i ) , dla dowolnej funkcji holomorficznej f .

Przydatne fakty dotyczące wektorów własnych

  • Jeśli A jest hermitowskim i pełnym szeregiem, podstawa wektorów własnych może być wybrana tak, aby była wzajemnie ortogonalna . Wartości własne są rzeczywiste.
  • Wektory własne A- 1 są takie same jak wektory własne A .
  • Wektory własne są zdefiniowane tylko do stałej multiplikatywnej. Oznacza to, że jeśli Av = λ v to c v jest również wektorem własnym dla dowolnego skalarnego c ≠ 0 . W szczególności v i e v (dla dowolnego θ ) są również wektorami własnymi.
  • W przypadku zdegenerowanych wartości własnych (wartość własna występująca więcej niż jeden raz), wektory własne mają dodatkową swobodę obrotu, to znaczy każda liniowa (ortonormalna) kombinacja wektorów własnych dzielących wartość własną (w zdegenerowanej podprzestrzeni), sama jest wektorami własnymi ( w podprzestrzeni).

Przydatne fakty dotyczące dekompozycji własnej

  • A może być zdekomponowane przez siebie wtedy i tylko wtedy, gdy liczba liniowo niezależnych wektorów własnych, N v , jest równa wymiarowi wektora własnego: N v = N
  • Jeśli pole skalarów algebraicznie zamknięte, jeżeli P ( λ ) nie jest powtarzany korzenie, to znaczy, jeśli następnie można eigendecomposed.
  • Stwierdzenie „ A może być zdekomponowane przez siebie” nie oznacza, że A ma odwrotność.
  • Stwierdzenie „ A ma odwrotność” nie implikuje, że A może być zdekomponowane przez siebie. Kontrprzykładem jest odwracalna wadliwa matryca .

Przydatne fakty dotyczące odwrotności macierzy

  • A można odwrócić wtedy i tylko wtedy, gdy wszystkie wartości własne są niezerowe:
  • Jeśli λ i ≠ 0 oraz N v = N , odwrotność dana jest wzorem

Obliczenia numeryczne

Obliczanie numeryczne wartości własnych

Załóżmy, że chcemy obliczyć wartości własne danej macierzy. Jeśli macierz jest mała, możemy je obliczyć symbolicznie za pomocą wielomianu charakterystycznego . Jednak często jest to niemożliwe w przypadku większych macierzy, w takim przypadku musimy użyć metody numerycznej .

W praktyce wartości własne dużych macierzy nie są obliczane przy użyciu wielomianu charakterystycznego. Obliczanie wielomianu staje się samo w sobie kosztowne, a dokładne (symboliczne) pierwiastki wielomianu wysokiego stopnia mogą być trudne do obliczenia i wyrażenia: twierdzenie Abela-Ruffiniego oznacza, że ​​pierwiastki wielomianów wysokiego stopnia (5 lub więcej) nie mogą w ogóle być wyrażone po prostu za pomocą n- tego pierwiastka. Dlatego ogólne algorytmy znajdowania wektorów własnych i wartości własnych są iteracyjne .

Istnieją iteracyjne algorytmy numeryczne aproksymacji pierwiastków wielomianów, takie jak metoda Newtona , ale generalnie niepraktyczne jest obliczenie wielomianu charakterystycznego, a następnie zastosowanie tych metod. Jednym z powodów jest to, że małe błędy zaokrągleń we współczynnikach wielomianu charakterystycznego mogą prowadzić do dużych błędów w wartościach własnych i wektorach własnych: pierwiastki są bardzo źle uwarunkowaną funkcją współczynników.

Prostą i dokładną metodą iteracyjną jest metoda potęgowa : wybierany jest losowy wektor v i sekwencja wektorów jednostkowych jest obliczana jako

Ta sekwencja prawie zawsze będzie zbieżna do wektora własnego odpowiadającego wartości własnej o największej wartości, pod warunkiem, że v ma niezerową składową tego wektora własnego w bazie wektora własnego (a także pod warunkiem, że istnieje tylko jedna wartość własna o największej wartości). Ten prosty algorytm jest przydatny w niektórych praktycznych zastosowaniach; na przykład Google używa go do obliczania page rank dokumentów w swojej wyszukiwarce. Również metoda potęgowa jest punktem wyjścia dla wielu bardziej wyrafinowanych algorytmów. Na przykład, poprzez utrzymywanie nie tylko ostatni wektor w kolejności, lecz patrząc na rozpiętości od wszystkich wektorów w sekwencji, można uzyskać lepsze (szybsze zbieżny) Przybliżony wektor własny, i ten pomysł jest podstawą Arnoldi iteracja . Alternatywnie ważny algorytm QR opiera się również na subtelnej transformacji metody potęgowej.

Obliczanie numeryczne wektorów własnych

Po obliczeniu wartości własnych wektory własne można obliczyć, rozwiązując równanie

przy użyciu eliminacji Gaussa lub dowolnej innej metody rozwiązywania równań macierzowych .

Jednak w praktycznych metodach wartości własnych na dużą skalę wektory własne są zwykle obliczane w inny sposób, jako produkt uboczny obliczania wartości własnej. Na przykład w iteracji potęgowej wektor własny jest w rzeczywistości obliczany przed wartością własną (która jest zwykle obliczana przez iloraz Rayleigha wektora własnego). W algorytmie QR dla macierzy hermitowskiej (lub dowolnej macierzy normalnej ) wektory ortonormalne są otrzymywane jako iloczyn macierzy Q z kroków algorytmu. (W przypadku bardziej ogólnym, matryca algorytm QR daje rozkład SCHUR pierwsze, z których wektory mogą być otrzymane w backsubstitution procedurę). Dla hermitowskich, matryca dziel i przejęcie wartością własną algorytm jest bardziej wydajny niż QR algorytm, jeśli oba wektory własne i wartości własne są pożądane.

Dodatkowe tematy

Uogólnione przestrzenie własne

Przypomnijmy, że geometryczny wielokrotność wartości własnej, można opisać jako wymiar powiązanego eigenspace, w nullspace z Î I - A . Wielość algebraiczna może być również traktowana jako wymiar: jest to wymiar powiązanej uogólnionej przestrzeni własnej (pierwszy sens), która jest przestrzenią zerową macierzy ( λ IA ) k dla dowolnej wystarczająco dużej k . Oznacza to, że jest to przestrzeń uogólnionych wektorów własnych (pierwszy sens), gdzie uogólnionym wektorem własnym jest dowolny wektor, który ostatecznie staje się 0, jeśli λ IA zostanie do niego przyłożony wystarczająco wiele razy. Każdy wektor własny jest uogólnionym wektorem własnym, a więc każda przestrzeń własna jest zawarta w powiązanej uogólnionej przestrzeni własnej. Daje to łatwy dowód, że krotność geometryczna jest zawsze mniejsza lub równa krotności algebraicznej.

Tego zastosowania nie należy mylić z uogólnionym problemem wartości własnej opisanym poniżej.

Sprzężony wektor własny

Koniugat wektor własny lub coneigenvector jest wektorem wysyłane po transformacji do skalarnych wielokrotności jej koniugatu, gdzie skalarne nazywa się koniugat wartością własną lub coneigenvalue transformacji liniowej. Wektory stożkowe i wartości własne reprezentują zasadniczo te same informacje i znaczenie, co zwykłe wektory własne i wartości własne, ale powstają, gdy używany jest alternatywny układ współrzędnych. Odpowiednie równanie to

Na przykład w teorii koherentnego rozpraszania elektromagnetycznego transformacja liniowa A reprezentuje działanie wykonywane przez obiekt rozpraszający, a wektory własne reprezentują stany polaryzacji fali elektromagnetycznej. W optyce układ współrzędnych jest definiowany z punktu widzenia fali, znanego jako Forward Scattering Alignment (FSA) i daje początek regularnemu równaniu wartości własnej, podczas gdy w radarze układ współrzędnych jest definiowany z punktu widzenia radaru, znanego jako Back Scattering Alignment (BSA) i daje początek równaniu wartości stożkowej.

Uogólniony problem z wartością własną

Uogólnione zagadnienie własne (drugi sens) jest problem ze znalezieniem wektor v , że przestrzega

gdzie A i B to macierze. Jeżeli przeciwko posłuszny tym równaniu z pewnym Î , a następnie nazywamy v wektor główny z A i B (w drugim znaczeniu), a λ jest nazywany uogólnioną wartość własna z A i B (w drugim znaczeniu), która odpowiada uogólniona wektor własny v . Możliwe wartości λ muszą być zgodne z następującym równaniem

Jeżeli można znaleźć n liniowo niezależnych wektorów { v 1 , …, v n } takich, że dla każdego i ∈ {1, …, n } , Av i = λ i Bv i , to definiujemy macierze P i D takie, że

Wtedy obowiązuje następująca równość

A dowodem jest…

A ponieważ P jest odwracalne, mnożymy równanie od prawej przez jego odwrotność, kończąc dowód.

Zbiór macierzy postaci Aλ B , gdzie λ jest liczbą zespoloną, nazywamy ołówkiem ; termin ołówek matrycowy może również odnosić się do pary ( A , B ) matryc.

Jeśli B jest odwracalne, to pierwotny problem można zapisać w postaci

co jest standardowym problemem wartości własnej. Jednak w większości sytuacji lepiej jest nie wykonywać inwersji, ale raczej rozwiązać uogólniony problem wartości własnej, jak podano pierwotnie. Jest to szczególnie ważne, jeśli A i Bmacierzami hermitowskimi , ponieważ w tym przypadku B- 1 A nie jest generalnie hermitowskie i ważne właściwości roztworu nie są już widoczne.

Jeśli A i B są symetryczne lub hermitowskie, a B jest również macierzą dodatnio określoną , wartości własne λ i są rzeczywiste, a wektory własne v 1 i v 2 z różnymi wartościami własnymi są B -ortogonalne ( v 1 * Bv 2 = 0 ). W tym przypadku wektory własne mogą być wybrane tak, aby macierz P zdefiniowana powyżej spełniała

lub ,

i istnieje podstawa uogólnionych wektorów własnych (nie jest to wadliwy problem). Ten przypadek jest czasami nazywany hermitowskim określonym ołówkiem lub określonym ołówkiem .

Zobacz też

Uwagi

Bibliografia

Zewnętrzne linki