Egenvektor

I matematikk er en egenvektor til en lineær transformasjon T: VV et element i vektorrommet V som ikke endrer retning når den avbildes av transformasjonen. Egenverdien er et uttrykk for hvor mye egenvektoren strekkes av den lineære transformasjonen. En egenverdi og en egenvektor opptrer i samhørende par, og en gitt lineær transformasjon kan ha ingen eller mange slike par av egenverdier/egenvektorer.

Begrepet egenløsning blir brukt til å referere til både egenverdi og egenvektor. Dersom vektorrommet V er et rom av funksjoner brukes også navnet egenfunksjon synonymt med egenvektor. Retninger bestemt av egenvektorer kalles av og til egenretninger. Å finne sammenhørende verdier for egenverdi og egenvektor kalles å løse et egenverdiproblem.

Egenverdier og egenvektorer spiller en svært viktig rolle i studiet av lineære transformasjoner, blant annet for å kartlegge hvilke egenskaper til transformasjonen som er uavhengig av valg av basis i definisjonsmengden og verdimengden. Mange problemstillinger i anvendt matematikk og fysikk kan formuleres som egenverdiproblem, for eksempel beskrivelse av svingninger i en membran.

Formell definisjon

Egenverdi og egenvektor

En egenverdi og egenvektor til en lineær transformasjon T: VV er et samhørende par av en skalar verdi λ {\displaystyle \lambda } og et ikkenull-element x i vektorrommet V som oppfyller ligningen

T ( x ) = λ x {\displaystyle T(x)=\lambda x\,}

Dersom x er en egenvektor, så vil også kx være det, der k er en skalar. Egenvektoren med lengde 1 er en enhetsegenvektor.

Absoluttverdien til den største egenverdien, dersom en slik verdi eksisterer, kalles spektralradien til transformasjonen.

Egenrom

Til en og samme egenverdi λ {\displaystyle \lambda } kan det eksisterer flere egenvektorer. Rommet utspent av egenvektorene til en gitt egenverdi kalles for egenrommet svarende til egenverdien. Dimensjonen til dette rommet kalles for den geometriske multiplisiteten til egenverdien.

Egenrommet svarende til egenverdien λ {\displaystyle \lambda } er lik nullrommet til transformasjonen (T λ {\displaystyle \lambda } I).

Lineære transformasjoner på endeligdimensjonale rom

Dersom vektorrommet V har endelig dimensjon, så har den lineære transformasjonen en matriserepresentasjon, og definisjonen av egenløsning for en lineær transformasjon og for en matrise er sammenfallende.

For en kvadratisk matrise A er egenverdiene en løsning av det såkalte karakteristiske polynomet, definert ved

p A ( λ ) = det ( A λ I ) {\displaystyle p_{A}(\lambda )=\det(A-\lambda I)\,} .

Her er I enhetsmatrisen med samme dimensjon n som A. Polynomet i λ {\displaystyle \lambda } har grad n, og tar en multiplisiteten med i betraktning vil alltid matrisen ha n komplekse egenverdier. Faktorisert kan det karakteristiske polynomet skrives som

p A ( λ ) = ( λ λ 1 ) d 1 ( λ λ 2 ) d 2 ( λ λ k ) d k {\displaystyle p_{A}(\lambda )=(\lambda -\lambda _{1})^{d_{1}}(\lambda -\lambda _{2})^{d_{2}}\dots (\lambda -\lambda _{k})^{d_{k}}\,} .

Her er λ i {\displaystyle \lambda _{i}} en egenverdi, og di kalles den algebraiske multiplisiteten til denne. Sammenhengen mellom den algebraiske om den geometriske multiplisiteten til en egenverdi er komplisert, men den geometriske multiplisiteten er alltid mindre eller lik den algebraiske.

Eksempel på egenløsninger

Eksempel for endelig-dimensjonale rom

Gitt en transformasjon T: R2R2 definert ved den følgende matrisen

A = [ 1 2 3 0 ] {\displaystyle A={\begin{bmatrix}1&2\\3&0\end{bmatrix}}}

Transformasjonen har egenverdier lik 3 og -2, med tilhørende egenvektorer (1,1) og (2,-3). For det første paret gjelder altså at

[ 1 2 3 0 ] [ 1 1 ] = 3 [ 1 1 ] {\displaystyle {\begin{bmatrix}1&2\\3&0\end{bmatrix}}{\begin{bmatrix}1\\1\end{bmatrix}}=3{\begin{bmatrix}1\\1\end{bmatrix}}}

Eksempel for uendelig-dimensjonale rom

Gitt en transformasjon T definert på mengden av reelle funksjoner på intervallet [0,2π] som er to ganger deriverbare, og som har egenskapen f(0) = f(2π) = 0. La T avbilde enhver funksjon på den andrederiverte av seg selv, det vil si

T ( f ) = f {\displaystyle T(f)=f''\,}

Transformasjonen har egenverdier lik k = 1/n (n = 1,2,...) og egenfunksjoner f(x) = sin kx.

Eksempel på ikke-eksistens av egenløsninger

Det er ikke gitt at en lineær transformasjon har egenløsninger. Et eksempel på en transformasjon som ikke har egenløsning er gitt ved den følgende:

La V være vektorrommet av alle polynomfunksjoner. Definer transformasjonen T på dette rommet ved

T ( p ) = p ( t ) d t {\displaystyle T(p)=\int p(t)dt\,}

Siden integrasjon av et polynom øker graden til polynomet med én eksisterer det ingen egenløsninger til denne transformasjonen.

Eksempel på eksistens / ikke-eksistens

Gitt en transformasjon T definert ved matrisen

A = [ 0 1 1 0 ] {\displaystyle A={\begin{bmatrix}0&-1\\1&0\end{bmatrix}}}

Dersom T er definert som en transformasjon på mengden av reelle vektorer R2, så eksisterer det ingen egenløsninger. Definert som en transformasjon på mengden av komplekse vektorer C2 så eksisterer egenverdiene i og (-i) med de tilhørende egenvektorene (-1,i) og (1,i). Her er i den imaginære enheten.

Egenskaper

I det følgende, la λ {\displaystyle \lambda } og x være samhørende egenverdi og egenvektor til transformasjonen T: VV.

  • Egenverdiene er uavhengige av valg av basis i vektorrommet V.
  • Dersom inversen T -1 eksisterer, så har denne en egenvektor lik x og egenverdien (1/ λ {\displaystyle \lambda } ).
  • Transformasjonen T 2 har en egenvektor lik x og egenverdien λ {\displaystyle \lambda } 2.
  • En Hermitsk matrise har kun reelle egenverdier. Det samme gjelder for en reell symmetrisk matrise. Egenvektorene er parvis ortogonale.
  • En idempotent matrise er en kvadratisk matrise der A 2 {\displaystyle ^{2}} = A, og for en slik matrise er alle egenverdiene lik 0 eller 1.
  • En nilpotent matrise er en kvadratisk matrise der A k {\displaystyle ^{k}} = 0 for et heltall k, og en slik matrise har alle egenverdier lik 0.
  • For en reell ortogonal matrise er alle egenverdiene lik -1 eller 1.
  • For en n × n matrise er determinanten lik produktet av de n egenverdiene, og sporet er lik summen av egenverdiene.

Egenverdier til similære matriser

To matriser A og B er similære dersom de representerer den samme lineære transformasjon T: VV med hensyn på to ulike basis-sett for V. Det eksisterer da en ikke-singulær matrise M slik at

A = M 1 B M {\displaystyle A=M^{-1}BM\,}

Similære matriser har samme sett av egenverdier.

Diagonalisering

Et viktig problem i Lineær Algebra er det såkalt diagonaliseringsproblemet, gitt en lineær transformasjon T på et endeligdimensjonalt vektorrom V, kan vi finne en basis β for V slik at den tilhørende matrisa til T i basisen β er en diagonalmatrise? Siden regning med diagonalmatriser er enkelt vil en slik basis gi innsikt i transformasjonen, og gi en enkel løsning på mange praktiske problemer som involverer matriseregning. Løsningen på problemet, dersom den finnes, er å velge en basis av egenvektorene til T. For at dette skal være mulig må egenvektorene utspenne det n- dimensjonale vektorrommet V, og dette fører oss til en generell test for diagonaliserbarhet[1]:

  1. Det karakteristiske polynomet til T har n reelle røtter.
  2. For hver egenverdi λ {\displaystyle \lambda } til T er den algebraiske multiplisiteten lik den geometriske multiplisiteten.

Dersom disse kriteriene er oppfylt kan vi finne en basis for V bestående av egenvektorer, slik at matrisa til T i denne basisen er en diagonal matrise med de n reelle egenverdiene på diagonalen. Anta A {\displaystyle A} er matrisa til T i en gitt basis, om T er diagonaliserbar finnes det altså en matrise Q {\displaystyle Q} bestående av egenvektorer til T slik at A = Q D Q 1 {\displaystyle A=QDQ^{-1}} for en diagonal matrise D {\displaystyle D} .

En reell symmetrisk matrise er alltid diagonaliserbar, og vil ha n distinkte reelle egenverdier. Da er det også alltid mulig å finne en ortonormal basis for V bestående av egenvektorer. Anta B {\displaystyle B} er en symmetrisk matrise, og M {\displaystyle M} er en ortogonal matrise bestående av (de ortonormale) egenvektorene til B {\displaystyle B} . Da er B = M D M 1 = M D M T {\displaystyle B=MDM^{-1}=MDM^{T}} der D {\displaystyle D} er den diagonale matrise bestående av egenverdiene.

Generaliseringer

Singulærverdier

For ikke-rektangulære matriser representerer singulærverdiene en generalisering av egenverdi-konseptet. For en vilkårlig matrise kan en vise at det alltid vil eksistere to unitære matriser U = Unn og V = Vmm slik at

U T A V = diag ( σ 1 , σ 2 , . . . . . , σ p ) {\displaystyle U^{T}AV=\operatorname {diag} (\sigma _{1},\sigma _{2},.....,\sigma _{p})\,}

der p er lik den minste av verdiene m og n. Diagonalelementene σ {\displaystyle \sigma } i kalles singulærverdiene til matrisen. Singulærverdiene er alltid ikke-negative.

Singulærverdiene for en matrise A = Anm er lik kvadratrøttene til egenverdiene til matriseproduktet (AHA) dersom m er større eller lik n og ellers lik egenverdiene til (AAH). Her er bokstaven H brukt for å markere konjungert transponering av en matrise.

Spektralteori

Spekteret til en lineær transformasjon er mengden av skalarer λ {\displaystyle \lambda } som gjør at inversen

( T λ I ) 1 {\displaystyle (T-\lambda I)^{-1}\,}

ikke eksisterer eller ikke er begrenset. Skalarene inneholdt i spekteret kalles spektralverdier . Mengden av egenverdier til T er inneholdt i spekteret til T og blir i denne sammenhengen kalt for punktspekteret til T.

Studiet av spektralverdiene til en lineær transformasjon og egenskapene til disse blir kalt spektralteori.

Generelt kan en transformasjon ha spektralverdier som ikke er egenverdier. For en matrise er spekteret identisk med mengden av egenverdier.

Referanser

  1. ^ Friedberg; Insel; Spence (2014). Linear Algebra. Pearson Education Limited. ISBN 1-292-02650-2. 

Litteratur

  • Fr Fabricius-Bjerre (1974). Lærebog i geometri. I: Analytisk geometri, lineær algebra (6 utg.). Lyngby: Polyteknisk forlag. ISBN 87-502-0440-8. 
  • Ronald Douglas Milne (1980). Applied functional analysis, an introductory treatment. London: Pitman Publishing Limited. ISBN 0-273-08404-6. 
  • Helmut Lütkepohl (1996). Handbook of Matrices. Chichester: John Wiley and Sons. ISBN 0-471-97015-8. 
  • Gene Golub, Charles van Loan (1996). Matrix computations. Baltimore: Johns Hopkins University Press. ISBN 0-8018-5414-8. 

Eksterne lenker

  • EISPACK – Fortran-bibliotek for løsning av egenverdiproblem. Besøkt 24. april 2010.
  • LAPACK – Fortran90-bibliotek med rutiner for løsning av egenverdiproblem. Besøkt 24. april 2010
  • v
  • d
  • r
Hovedområder i lineær algebra
Affin transformasjon · Basis · Determinant · Egenvektor · Lineært ligningssystem · Lineær transformasjon · Matrise · Norm · Skalar · Vektor · Vektorrom
Oppslagsverk/autoritetsdata
Encyclopædia Britannica · MathWorld · GND