Spektralsatsen

Spektralsatsen är en samling satser inom linjär algebra. Satserna anger vilka linjära avbildningar som har en bas av ortonormerade egenvektorer och alltså kan diagonaliseras i denna bas, det vill säga huruvida matrisen A kan uttryckas som

A = U D U {\displaystyle A=UDU^{*}}

där D är en diagonalmatris och U är en unitär matris.

Satsen anger dels att vissa matriser är diagonaliserbara, dels att det inte är nödvändigt att beräkna en invers, vilket är fallet vid allmänna diagonaliseringar, då matrisen skrivs

A = T D T 1 {\displaystyle A=TDT^{-1}} .

Spektralsatser

Spektralsatsen finns i flera utföranden. Spektralsatsen för symmetriska avbildningar är oftast den enda som lärs ut i en grundkurs i linjär algebra.

Symmetriska avbildningar

Om V {\displaystyle V} är ett ändligt-dimensionellt reellt inre produktrum gäller följande:

F : V V {\displaystyle F:V\rightarrow V} är en symmetrisk linjär avbildning F {\displaystyle \iff F} har en ortonormerad bas av egenvektorer till V {\displaystyle V} .

Hermitska avbildningar

Om V {\displaystyle V} är ett ändligt-dimensionellt komplext inre produktrum gäller följande:

F : V V {\displaystyle F:V\rightarrow V} är en hermitsk linjär avbildning F {\displaystyle \implies F} har en ortonormerad bas av egenvektorer till V {\displaystyle V} och egenvärdena är reella.

Normala avbildningar

Om V {\displaystyle V} är ett ändligt-dimensionellt komplext inre produktrum gäller följande:

F : V V {\displaystyle F:V\rightarrow V} är en normal linjär avbildning F {\displaystyle \iff F} har en ortonormerad bas av egenvektorer till V {\displaystyle V} (men egenvärdena är i allmänhet inte reella).

Notera ekvivalensen[särskiljning behövs]: Normala linjära avbildningar är alltså exakt de avbildningar som kan diagonaliseras med en bas av ortonormerade egenvektorer.

Bevis

Symmetriska avbildningar

Spektralsatsen bevisas för en reell symmetrisk avbildning F genom matematisk induktion över dimensionen p för vektorrummet E p {\displaystyle \mathbb {E} ^{p}} som F verkar på.

  • Visa att satsen gäller för p = 1.
Låt vektorn f {\displaystyle \mathbf {f} } vara talet 1. Eftersom avbildningsmatrisen har dimensionen 1x1 och är reell avbildas f {\displaystyle \mathbf {f} } på en reell multipel av sig själv, så egenvärdet är reellt.
f {\displaystyle \mathbf {f} } är alltså en normerad egenvektor till F {\displaystyle F} och därmed den sökta basen till E 1 {\displaystyle \mathbb {E} ^{1}} .
  • Anta vidare att satsen är sann för rum av dimensionen p. Visa då att satsen även är sann för rum av dimensionen p + 1.
Symmetriska matriser är hermitska, och hermitska matriser har endast reella egenvärden. Välj ett (reellt) egenvärde λ 1 {\displaystyle \lambda _{1}} för F {\displaystyle F} i rummet E p + 1 {\displaystyle \mathbb {E} ^{p+1}} och låt vektorn f 1 {\displaystyle \mathbf {f} _{1}} vara en normerad egenvektor till denna.
Bilda mängden V {\displaystyle V} som innehåller alla vektorer i E {\displaystyle \mathbb {E} } som är ortogonala mot f 1 {\displaystyle \mathbf {f} _{1}} . Dimensionen för V {\displaystyle V} blir alltså p {\displaystyle p} . Låt V {\displaystyle V} ha ortonormala basvektorer f 2 , f 3 , f p + 1 {\displaystyle \mathbf {f} '_{2},\mathbf {f} '_{3}\dots ,\mathbf {f} '_{p+1}} . Notera att dessa inte nödvändigtvis är egenvektorer till F {\displaystyle F} .
Fyll ut med f 1 {\displaystyle \mathbf {f} _{1}} till en ON-bas för E p + 1 {\displaystyle \mathbb {E} ^{p+1}} .
Transformationsmatrisen T {\displaystyle T} blir då ortonormal, så T 1 = T T {\displaystyle T^{-1}=T^{T}} . Avbildningsmatrisen i den nya basen, A f = T A T T {\displaystyle A_{f}=TAT^{T}} , blir då symmetrisk eftersom A f T = ( T A T T ) T = T A T T T = T A T T = A f . {\displaystyle A_{f}^{T}=(TAT^{T})^{T}=TA^{T}T^{T}=TAT^{T}=A_{f}.} . Den får då formen ( λ 1 0 0 0 a b 0 a b c ) {\displaystyle {\begin{pmatrix}\lambda _{1}&0&\cdots &0\\0&\ddots &\cdots &a\\\vdots &\vdots &\ddots &b\\0&a&b&c\end{pmatrix}}} .
V har dimension p och är symmetrisk existerar ortonormala egenvektorer f 2 , f 3 , , f p + 1 {\displaystyle \mathbf {f} _{2},\mathbf {f} _{3},\dots ,\mathbf {f} _{p+1}} till F begränsat till rummet V enligt induktionsantagandet.
Det betyder i sin tur att f 1 , f 2 , , f p , f p + 1 {\displaystyle \mathbf {f} _{1},\mathbf {f} _{2},\dots ,\mathbf {f} _{p},\mathbf {f} _{p+1}} är en ortonormerad bas bestående av egenvektorer till F {\displaystyle F}
  • Eftersom satsen är sann för dimensionen p = 1 {\displaystyle p=1} och om den är sann för ett rum av dimensionen p {\displaystyle p} så är den även sann för rum av dimensionen p + 1 {\displaystyle p+1} , är satsen sann för alla heltalsdimensioner.

Normala avbildningar

Schurs sats kan användas för att bevisa att en normal matris kan diagonaliseras med en unitär matris.

Låt A vara en normal matris. Det finns då, enligt Schurs sats, en unitär matris U så att A = UTUH, där T är en uppåt triangulär matris med A:s egenvärden på diagonalen. Man får då att:

A A H = U T T H U H       A H A = U T H T U H {\displaystyle AA^{H}=UTT^{H}U^{H}~~~A^{H}A=UT^{H}TU^{H}} .

A är normal och U inverterbar ger detta att TTH = THT. T är uppåt triangulär och TH är nedåt triangulär, så för att produkterna TTH och THT ska vara lika måste T vara diagonal.

Historia

Spektralsatsen utformades under början av 1800-talet av Augustin-Louis Cauchy.

Tillämpningar

Kvadratiska former

En kvadratisk form kan skrivas som en symmetrisk matris och kan därför diagonaliseras med en ortonormerad bas. Den blir då mer lätthanterlig. Spektralsatsen kan i vissa fall vara formulerad som att en kvadratisk form i ett euklidiskt rum har en kanonisk ortonormerad bas. Detta gör att spektralsatsen kan användas för att bestämma olika andragradsytors huvudaxlar.

Exempelvis kan den kvadratiska formen

k ( x 1 , x 2 , x 3 ) = x 1 2 + 4 x 1 x 2 + x 2 2 + 6 x 2 x 3 + x 3 2 {\displaystyle k(x_{1},x_{2},x_{3})=x_{1}^{2}+4x_{1}x_{2}+x_{2}^{2}+6x_{2}x_{3}+x_{3}^{2}}

skrivas på matrisform som

k ( x ) = ( x 1 x 2 x 3 ) ( 1 2 0 2 1 3 0 3 1 ) ( x 1 x 2 x 3 ) {\displaystyle k(\mathbf {x} )={\begin{pmatrix}x_{1}&x_{2}&x_{3}\end{pmatrix}}{\begin{pmatrix}1&2&0\\2&1&3\\0&3&1\\\end{pmatrix}}{\begin{pmatrix}x_{1}\\x_{2}\\x_{3}\end{pmatrix}}}

och där egenvärdena är

1 , 1 13 , 1 + 13 {\displaystyle 1,1-{\sqrt {13}},1+{\sqrt {13}}} ,

så att k i den nya basen kan skrivas

k ( x 1 , x 2 , x 3 ) = x 1 2 + ( 1 13 ) x 2 2 + ( 1 + 13 ) x 3 2 {\displaystyle k'(x_{1},x_{2},x_{3})=x_{1}^{2}+(1-{\sqrt {13}})x_{2}^{2}+(1+{\sqrt {13}})x_{3}^{2}} .

Referenser

  • Janfalk, Ulf, Linjär Algebra, 2007, MAI (Linköpings Universitet)
  • Thompson, Jan, Matematiklexikon, 2005, Wahlström & Widstrand
  • Treil, Sergei, Linear Algebra Done Wrong, 2004, elektroniskt tillgänglig http://www.math.brown.edu/%7Etreil/papers/LADW/LADW.html
  • Horn, Roger; Charles Johnson (1985). Matrix Analysis. Cambridge University Press. ISBN 978-0-521-38632-6