Lineární zobrazení

Pojmem lineární zobrazení (někdy též lineární transformace, angl. linear map, linear mapping, popř. linear transformation) se v matematice označuje takové zobrazení mezi vektorovými prostory X a Y, které zachovává vektorové operace sčítání a násobení skalárem. Název lineární je odvozen z faktu, že grafem lineárního zobrazení z reálných čísel do reálných čísel je přímka, latinsky linea.

Důležitými zástupci lineárních operací jsou například derivování a integrování funkcí. Pomocí lineárních zobrazení lze popisovat i rotace a jednoduché deformace objektů ve vektorových prostorech. Oblast, kde lineární zobrazení nacházejí uplatnění je kvantová mechanika, kde je každý vývoj systému a každé měření popsáno právě pomocí lineárních zobrazení. Kvantová mechanika je sama o sobě natolik významná teorie, že studovat vlastnosti lineárních zobrazení je důležité už pro ni samotnou. Lineární zobrazení obecně zaujímají v matematice a ve fyzice velmi důležité postavení. Jedním z hlavních důvodů je relativní snadnost manipulace s takovýmito zobrazeními. Máme-li nějaké nelineární zobrazení, s nímž se pro jeho příliš složitou strukturu obtížně pracuje, můžeme si v některých případech vypomoci jeho jednodušší linearizovanou variantou. Tento postup se používá ve fyzice, kde rovnice popisující fyzikální děj často nabývají tvaru, který je těžko řešitelný. Po zjednodušení takové rovnice lze problém vyřešit. Ovšem za cenu toho, že dané řešení nepopisuje probíhající fyzikální děj zcela přesně. Podobná metoda nahrazování složitých funkcí jejich lineárními protějšky je používána i v matematice, kde je důvodem opět snazší nakládání s výslednými matematickými výrazy.

Motivace

Příklad grafů dvou lineárních funkcí. Funkce g na obrázku prochází počátkem souřadnic.

Než přikročíme k definici je vhodné si uvést příklad jednoduchých funkcí, abstrakcí jejichž vlastností dospějeme právě k obecné definici lineárního zobrazení. Mezi nejjednodušší funkce, které si lze představit, jsou funkce tvaru

f ( x ) = a x + b , {\displaystyle f(x)=ax+b,}

kde a a b jsou parametry. Jedná se tedy o funkce f : R R {\displaystyle \scriptstyle f:\mathbb {R} \to \mathbb {R} } na reálných číslech tvaru výše s reálnými parametry a a b, konkrétně např. f ( x ) = 2 x + 3 {\displaystyle \scriptstyle f(x)=2x+3} či f ( x ) = 1 14 x + 3 4 {\displaystyle \scriptstyle f(x)=-{\frac {1}{14}}x+{\frac {3}{4}}} . Když se tyto funkce vyjádří graficky, je vidět, že jejich grafem je přímka, viz obrázek. Neboť latinské slovo pro přímku zní linea (další významy zahrnují i "čára", "provázek" či "lněná nit"), označují se funkce tohoto tvaru jako lineární. Pokud je parametr b roven nule, tak tato přímka prochází počátkem souřadnic, viz funkci g na obrázku.

Prostudujme nyní v krátkosti základní vlastnosti lineárních funkcí. Uvažujme přitom jen takové lineární funkce, které mají parametr b = 0 {\displaystyle \scriptstyle b=0} , tj. jsou tvaru f ( x ) = a x {\displaystyle \scriptstyle f(x)=ax} . Pokud necháme takovéto funkce působit na součet x + y {\displaystyle \scriptstyle x+y} a na násobek α x {\displaystyle \scriptstyle \alpha x} , tak obdržíme

f ( x + y ) = a ( x + y ) = a x + a y = f ( x ) + f ( y ) , f ( α x ) = a ( α x ) = α ( a x ) = α f ( x ) . {\displaystyle f(x+y)=a(x+y)=ax+ay=f(x)+f(y),\qquad f(\alpha x)=a(\alpha x)=\alpha (ax)=\alpha f(x).}

Z řádku výše tedy vidíme obecnou vlastnost funkcí s b = 0 {\displaystyle \scriptstyle b=0} :

f ( x + y ) = f ( x ) + f ( y ) , f ( α x ) = α f ( x ) {\displaystyle f(x+y)=f(x)+f(y),\qquad f(\alpha x)=\alpha f(x)} .

Jedná se o dvě vlastnosti, první se nazývá aditivita, druhá pak homogenita. První říká, že je jedno, zda nejdříve čísla sečteme a pak na ně aplikujeme funkci, nebo naopak. Druhá vlastnost tvrdí totéž o násobení číslem. Pro matematika to znamená, že úprava matematických vzorců s těmito funkcemi bude z uvedených důvodů velmi snadná. Právě tyto dvě vlastnosti slouží k definici obecného lineární zobrazení tak, jak je podána v následujícím oddíle. Zobrazení splňujících tyto vlastnosti je překvapivě velké množství, viz oddíl Příklady níže.

Uveďme si ještě dvě další zajímavé vlastnosti lineárních funkcí. Když sečteme funkce f a g tvaru f ( x ) = a x + b {\displaystyle \scriptstyle f(x)=ax+b} a g ( x ) = c x + d {\displaystyle \scriptstyle g(x)=cx+d} , dostaneme funkci h 1 {\displaystyle \scriptstyle h_{1}} téhož tvaru:

h 1 ( x ) = f ( x ) + g ( x ) = ( a + c ) x + ( b + d ) = a ~ x + b ~ {\displaystyle h_{1}(x)=f(x)+g(x)=(a+c)x+(b+d)={\tilde {a}}x+{\tilde {b}}} ,

kde v roli parametrů nyní vystupují čísla a ~ = a + c {\displaystyle \scriptstyle {\tilde {a}}=a+c} a b ~ = b + d {\displaystyle \scriptstyle {\tilde {b}}=b+d} . Když funkci f vynásobíme číslem α {\displaystyle \scriptstyle \alpha } , obdržíme funkci h 2 {\displaystyle \scriptstyle h_{2}} , jež je opět lineární, neboť

h 2 ( x ) = α f ( x ) = ( α a ) x + ( α b ) . {\displaystyle h_{2}(x)=\alpha f(x)=(\alpha a)x+(\alpha b).}

Vidíme tedy, že součtem dvou lineárních funkcí či jejich vynásobením číslem dostaneme opět lineární funkci. Matematicky řečeno je množina lineárních funkcí uzavřená na součet a násobení číslem. Zdůrazněme, že v předchozím odstavci jsme zjišťovali chování jednotlivých funkcí tvaru f ( x ) = a x {\displaystyle \scriptstyle f(x)=ax} . O každé takové funkci jsme věděli, že splňuje dvě vlastnosti, aditivitu a homogenitu. Tyto vlastnosti se týkají součtu a násobení argumentu funkce, čísla. V tomto odstavci jsme naproti tomu zjišťovali, co dostaneme součtem či vynásobením dvou takových funkcí.

Definice

Lineární zobrazení

Nechť X a Y jsou vektorové prostory nad týmž tělesem T {\displaystyle \scriptstyle \mathbb {T} } . Zobrazení L {\displaystyle \scriptstyle L} z prostoru X do prostoru Y, tj. L : X Y {\displaystyle \scriptstyle L:X\to Y} , se nazývá lineární zobrazení, právě když pro libovolné vektory x , y X {\displaystyle \scriptstyle {\vec {x}},{\vec {y}}\in X} a pro libovolný prvek α {\displaystyle \scriptstyle \alpha } z tělesa T {\displaystyle \scriptstyle \mathbb {T} } toto zobrazení splňuje následující dvě podmínky:

  • aditivita: L ( x + y ) = L ( x ) + L ( y ) {\displaystyle L({\vec {x}}+{\vec {y}})=L({\vec {x}})+L({\vec {y}})} ,
  • homogenita: L ( α x ) = α L ( x ) {\displaystyle L(\alpha {\vec {x}})=\alpha L({\vec {x}})} .

Obraz vektoru x X {\displaystyle \scriptstyle {\vec {x}}\in X} při lineárním zobrazení L {\displaystyle \scriptstyle L} se značí L ( x ) {\displaystyle \scriptstyle L({\vec {x}})} . Často se ale pro jednoduchost závorky vypouští a píše se jen L x {\displaystyle \scriptstyle L{\vec {x}}} . Podobně obraz množiny P X {\displaystyle \scriptstyle P\subset X} se značí L ( P ) {\displaystyle \scriptstyle L(P)} .

Lineární struktura zobrazení i vektorového prostoru, na kterém je definováno, umožňuje velmi zjednodušit zápis, jakým toto zobrazení působí na libovolný vektor. Tato vlastnost tím spíše vyplyne na konečně rozměrných prostorech. Mějme vektorový prostor X n {\displaystyle \scriptstyle X_{n}} konečné dimenze n. Existuje v něm tedy n-členná báze x 1 , , x n {\displaystyle \scriptstyle {\vec {x}}_{1},\ldots ,{\vec {x}}_{n}} a každý vektor x {\displaystyle \scriptstyle {\vec {x}}} tohoto prostoru lze vyjádřit jako vhodnou lineární kombinaci x = i = 1 n α i x i {\displaystyle \scriptstyle {\vec {x}}=\sum _{i=1}^{n}\alpha _{i}{\vec {x}}_{i}} . Využijeme-li nyní linearity zobrazení A, dostáváme

y = A ( x ) = A ( i = 1 n α i x i ) = i = 1 n α i A ( x i ) . {\displaystyle {\vec {y}}=A({\vec {x}})=A\left(\sum _{i=1}^{n}\alpha _{i}{\vec {x}}_{i}\right)=\sum _{i=1}^{n}\alpha _{i}A({\vec {x}}_{i}).}

Obraz každého vektoru y {\displaystyle \scriptstyle {\vec {y}}} lze tedy vyjádřit jako nějakou lineární kombinaci vektorů A ( x i ) {\displaystyle \scriptstyle A({\vec {x}}_{i})} , kde koeficienty jsou totožné s koeficienty u vzoru x {\displaystyle \scriptstyle {\vec {x}}} . Celou informaci o struktuře zobrazení A lze tak získat pouze ze znalosti toho, jak působí na bazické vektory. Rozvinutím právě uvedené myšlenky pak dospíváme k definici matice lineárního zobrazení, jak je uvedeno níže.

Příbuzné pojmy

Lineární zobrazení se nazývá lineární operátor, právě když ve výše uvedené definici je prostor Y totožný s prostorem X. Neboli zobrazení L je lineární operátor, právě když je lineární podle definice výše a platí L : X X {\displaystyle \scriptstyle L:X\to X} . Často se ale pojem zobrazení a operátor zaměňuje a lze se setkat i s lineárními zobrazeními, pro něž X Y {\displaystyle \scriptstyle X\neq Y} a která jsou přitom i přesto označována jako operátory.

Dalším zajímavým typem lineárního zobrazení je lineární funkcionál. Lineární funkcionál je lineární zobrazení z prostoru X do tělesa T {\displaystyle \scriptstyle \mathbb {T} } , nad nímž je prostor X definován. Každému vektoru z X tak přiřazuje skalár z T {\displaystyle \scriptstyle \mathbb {T} } .

Při klasifikaci různých druhů lineárních zobrazení, resp. operátorů, se používá následující názvosloví. Řekneme, že lineární zobrazení L : X Y {\displaystyle \scriptstyle L:X\to Y} , které zobrazuje prostor X do prostoru Y je

  • monomorfní, právě když je prosté,
  • epimorfní, právě když je na,
  • izomorfní, právě když je prosté a na, tj. je to bijekce,
  • regulární operátor, právě když je prosté a je to lineární operátor, tj. X = Y.

Antilineární zobrazení

Jako dvojník lineárnímu zobrazení se definuje i antilineární zobrazení, které se od lineárního liší pouze v tom, že při vytýkání skaláru tento komplexně sdružíme. Přesně tedy nechť X a Y jsou vektorové prostory nad týmž číselným tělesem T {\displaystyle \scriptstyle \mathbb {T} } . Zobrazení L {\displaystyle \scriptstyle L} z prostoru X do prostoru Y, tj. L : X Y {\displaystyle \scriptstyle L:X\to Y} , se nazývá antilineární zobrazení, právě když pro libovolné vektory x , y X {\displaystyle \scriptstyle {\vec {x}},{\vec {y}}\in X} a pro libovolné číslo α {\displaystyle \scriptstyle \alpha } z tělesa T {\displaystyle \scriptstyle \mathbb {T} } toto zobrazení splňuje následující dvě podmínky:

  • aditivita: L ( x + y ) = L ( x ) + L ( y ) , {\displaystyle L({\vec {x}}+{\vec {y}})=L({\vec {x}})+L({\vec {y}}),}
  • antihomogenita: L ( α x ) = α ¯ L ( x ) , {\displaystyle L(\alpha {\vec {x}})={\overline {\alpha }}L({\vec {x}}),}

kde α ¯ {\displaystyle \scriptstyle {\overline {\alpha }}} značí komplexní sdružení čísla α {\displaystyle \scriptstyle \alpha } .

Multilineární, bilineární, seskvilineární zobrazení

Podrobnější informace naleznete v článcích lineární forma a tenzor.

Pojem linearity lze zobecnit i na zobrazení více proměnných. Mějme zobrazení L z konečného kartézského součinu vektorových prostorů do jistého vektorového prostoru, tj. L : X 1 × X 2 × × X k Y {\displaystyle \scriptstyle L:X_{1}\times X_{2}\times \cdots \times X_{k}\to Y} . Pak L {\displaystyle \scriptstyle L} nazýváme multilineární zobrazení právě, když je lineární v každé své proměnné. Neboli, mějme libovolné vektory x 1 , y 1 X 1 , , x k , y k X k {\displaystyle \scriptstyle {\vec {x}}_{1},{\vec {y}}_{1}\in X_{1},\ldots ,{\vec {x}}_{k},{\vec {y}}_{k}\in X_{k}} a skaláry α 1 , , α k T {\displaystyle \scriptstyle \alpha _{1},\ldots ,\alpha _{k}\in \mathbb {T} } , kde T {\displaystyle \scriptstyle \mathbb {T} } je těleso společné všem vektorovým prostorům X 1 , , X k , Y {\displaystyle \scriptstyle X_{1},\ldots ,X_{k},Y} . Pak L je multilineární právě, když

  • aditivita:
L ( x 1 + y 1 , x 2 , , x k ) = L ( x 1 , x 2 , , x k ) + L ( y 1 , x 2 , , x k ) , L ( x 1 , x 2 + y 2 , , x k ) = L ( x 1 , x 2 , , x k ) + L ( x 1 , y 2 , , x k ) , L ( x 1 , x 2 , , x k + y k ) = L ( x 1 , x 2 , , x k ) + L ( x 1 , x 2 , , y k ) . {\displaystyle {\begin{aligned}L({\vec {x}}_{1}+{\vec {y}}_{1},{\vec {x}}_{2},\ldots ,{\vec {x}}_{k})&=&L({\vec {x}}_{1},{\vec {x}}_{2},\ldots ,{\vec {x}}_{k})+L({\vec {y}}_{1},{\vec {x}}_{2},\ldots ,{\vec {x}}_{k}),\\L({\vec {x}}_{1},{\vec {x}}_{2}+{\vec {y}}_{2},\ldots ,{\vec {x}}_{k})&=&L({\vec {x}}_{1},{\vec {x}}_{2},\ldots ,{\vec {x}}_{k})+L({\vec {x}}_{1},{\vec {y}}_{2},\ldots ,{\vec {x}}_{k}),\\&\vdots &\\L({\vec {x}}_{1},{\vec {x}}_{2},\ldots ,{\vec {x}}_{k}+{\vec {y}}_{k})&=&L({\vec {x}}_{1},{\vec {x}}_{2},\ldots ,{\vec {x}}_{k})+L({\vec {x}}_{1},{\vec {x}}_{2},\ldots ,{\vec {y}}_{k}).\end{aligned}}}
  • homogenita: L ( α 1 x 1 , , α k x k ) = α 1 α k L ( x 1 , , x k ) . {\displaystyle L(\alpha _{1}{\vec {x}}_{1},\ldots ,\alpha _{k}{\vec {x}}_{k})=\alpha _{1}\cdot \ldots \cdot \alpha _{k}\,L({\vec {x}}_{1},\ldots ,{\vec {x}}_{k}).}

Mezi multilineární zobrazení patří například tenzory, k-formy či diferenciální formy. Velmi často se lze setkat s multilineárními zobrazeními dvou proměnných, tj. k = 2 {\displaystyle \scriptstyle k=2} v definici výše. Taková zobrazení se nazývají bilineární. Zobrazení L : X 1 × X 2 Y {\displaystyle \scriptstyle L:X_{1}\times X_{2}\to Y} je tedy bilineární právě, když

L ( x 1 + y 1 , x 2 + y 2 ) = L ( x 1 , x 2 ) + L ( x 1 , y 2 ) + L ( y 1 , x 2 ) + L ( y 1 , y 2 ) a současně L ( α 1 x 1 , α 2 x 2 ) = α 1 α 2 L ( x 1 , x 2 ) . {\displaystyle L({\vec {x}}_{1}+{\vec {y}}_{1},{\vec {x}}_{2}+{\vec {y}}_{2})=L({\vec {x}}_{1},{\vec {x}}_{2})+L({\vec {x}}_{1},{\vec {y}}_{2})+L({\vec {y}}_{1},{\vec {x}}_{2})+L({\vec {y}}_{1},{\vec {y}}_{2})\quad {\text{a současně}}\quad L(\alpha _{1}{\vec {x}}_{1},\alpha _{2}{\vec {x}}_{2})=\alpha _{1}\,\alpha _{2}\,L({\vec {x}}_{1},{\vec {x}}_{2}).}

Podobné zobrazení k bilineárnímu je seskvilineární zobrazení (latinská předpona sesqui- znamená "jeden a půl(krát)"). Přísně vzato zde již vybočujeme z lineárních zobrazení, protože seskvilineární zobrazení je zobrazení dvou proměnných, přičemž v jedné z nich je lineární a ve druhé je antilineární. Velmi důležitým příkladem seskvilineárního zobrazení je skalární součin. Matematici a fyzikové přitom nejsou zajedno, ve které proměnné je zobrazení antilineární a uplatňují se tak dvě různé konvence. Zde uvedeme definici, v níž je zobrazení antilineární ve druhé proměnné. Zobrazení L : X 1 × X 2 Y {\displaystyle \scriptstyle L:X_{1}\times X_{2}\to Y} je seskvilineární právě, když

L ( x 1 + y 1 , x 2 + y 2 ) = L ( x 1 , x 2 ) + L ( x 1 , y 2 ) + L ( y 1 , x 2 ) + L ( y 1 , y 2 ) a současně L ( α 1 x 1 , α 2 x 2 ) = α 1 α 2 ¯ L ( x 1 , x 2 ) , {\displaystyle L({\vec {x}}_{1}+{\vec {y}}_{1},{\vec {x}}_{2}+{\vec {y}}_{2})=L({\vec {x}}_{1},{\vec {x}}_{2})+L({\vec {x}}_{1},{\vec {y}}_{2})+L({\vec {y}}_{1},{\vec {x}}_{2})+L({\vec {y}}_{1},{\vec {y}}_{2})\quad {\text{a současně}}\quad L(\alpha _{1}{\vec {x}}_{1},\alpha _{2}{\vec {x}}_{2})=\alpha _{1}\,{\overline {\alpha _{2}}}\,L({\vec {x}}_{1},{\vec {x}}_{2}),}

kde α ¯ {\displaystyle \scriptstyle {\overline {\alpha }}} značí komplexní sdružení čísla α 2 {\displaystyle \scriptstyle \alpha _{2}} (za T {\displaystyle \scriptstyle \mathbb {T} } bereme číselné těleso). Jediný rozdíl oproti bilineárnímu zobrazení je tedy ten, že vytknutí čísla z druhé proměnné způsobí, že se toto číslo komplexně sdruží.

Prostory lineárních zobrazení

Množina všech lineárních zobrazení z prostoru X do prostoru Y se obvykle označuje symbolem L ( X , Y ) {\displaystyle \scriptstyle {\mathcal {L}}(X,Y)} , podobně množina všech lineárních operátorů na prostoru X se značí L ( X ) {\displaystyle \scriptstyle {\mathcal {L}}(X)} . Tyto množiny jsou uzavřené na sčítání dvou zobrazení a na jejich násobení skalárem, definujeme-li obě operace následujícím způsobem:

Součet zobrazení A , B L ( X , Y ) {\displaystyle \scriptstyle A,B\in {\mathcal {L}}(X,Y)} je zobrazení ( A + B ) L ( X , Y ) {\displaystyle \scriptstyle (A+B)\in {\mathcal {L}}(X,Y)} , které pro každý vektor x X {\displaystyle \scriptstyle {\vec {x}}\in X} splňuje

( A + B ) ( x ) = A ( x ) + B ( x ) {\displaystyle (A+B)({\vec {x}})=A({\vec {x}})+B({\vec {x}})} .

Násobek zobrazení A L ( X , Y ) {\displaystyle \scriptstyle A\in {\mathcal {L}}(X,Y)} prvkem α T {\displaystyle \scriptstyle \alpha \in \mathbb {T} } je zobrazení ( α A ) L ( X , Y ) {\displaystyle \scriptstyle (\alpha A)\in {\mathcal {L}}(X,Y)} , které pro každý vektor x X {\displaystyle \scriptstyle {\vec {x}}\in X} splňuje

( α A ) ( x ) = α A ( x ) {\displaystyle (\alpha A)({\vec {x}})=\alpha A({\vec {x}})} .

Uzavřenost je snadno nahlédnutelná v případě lineárních funkcí tak, jak je to ukázáno v druhé části oddílu Motivace výše. Lze dokonce ukázat, že samotná

množina lineárních zobrazení L ( X , Y ) {\displaystyle \scriptstyle {\mathcal {L}}(X,Y)} je vektorový prostor.

Nastiňme nyní důkaz. Pro existenci vektorového prostoru potřebujeme čtyři věci. Neprázdnou množinu V {\displaystyle \scriptstyle V} , těleso T {\displaystyle \scriptstyle \mathbb {T} } , operaci sčítání vektorů a operaci násobení vektoru prvkem z tělesa, skalárem. Jako vektory nyní vystupují samotná lineární zobrazení, sčítání a násobení jsme si výše právě definovali. V definici lineárního zobrazení z prostoru X do prostoru Y jsme požadovali, aby tyto prostory byly nad stejným tělesem T {\displaystyle \scriptstyle \mathbb {T} } . Toto těleso použijeme i jako těleso pro náš právě budovaný vektorový prostor lineárních zobrazení. Konečně jako množinu V {\displaystyle \scriptstyle V} vezmeme množinu L ( X , Y ) {\displaystyle \scriptstyle {\mathcal {L}}(X,Y)} , která je jistě neprázdná. Pro libovolné vektorové prostory X a Y zde totiž jistě leží nulové lineární zobrazení, které každému vektoru z X přiřazuje nulový vektor z Y. Je množina L ( X , Y ) {\displaystyle \scriptstyle {\mathcal {L}}(X,Y)} uzavřená na sčítání a násobení lineárních zobrazení? Neboli, je součet či násobek lineárních zobrazení opět lineární zobrazení? Pro libovolná A , B L ( X , Y ) {\displaystyle \scriptstyle A,B\in {\mathcal {L}}(X,Y)} platí

( A + B ) ( x + y ) = A ( x ) + A ( y ) + B ( x ) + B ( y ) = ( A + B ) ( x ) + ( A + B ) ( y ) , {\displaystyle (A+B)({\vec {x}}+{\vec {y}})=A({\vec {x}})+A({\vec {y}})+B({\vec {x}})+B({\vec {y}})=(A+B)({\vec {x}})+(A+B)({\vec {y}}),}

kde jsme v první rovnosti využili definici sčítání zobrazení a jejich linearitu. Ve druhé rovnosti jsme pak přeskupili členy coby vektory v Y a tyto přeskupené členy jsme opět dali dohromady využívajíce definice součtu zobrazení. Máme tak ověřenu aditivitu zobrazení A+B. Podobně ověříme i homogenitu:

( A + B ) ( α x ) = α A ( x ) + α B ( x ) = α ( A ( x ) + B ( x ) ) = α ( A + B ) ( x ) . {\displaystyle (A+B)(\alpha {\vec {x}})=\alpha A({\vec {x}})+\alpha B({\vec {x}})=\alpha (A({\vec {x}})+B({\vec {x}}))=\alpha (A+B)({\vec {x}}).}

Nyní víme, že součet lineárních zobrazení je opět lineární zobrazení. Analogicky bychom ověřili, že násobek lineárního zobrazení je lineární zobrazení.

Zbývá nám tedy ještě dokázat axiomy vektorového prostoru, abychom mohli shrnout, že L ( X , Y ) {\displaystyle \scriptstyle {\mathcal {L}}(X,Y)} je vektorový prostor:

  1. komutativita sčítání lineárních zobrazení: ( A + B ) ( x ) = A ( x ) + B ( x ) = B ( x ) + A ( x ) = ( B + A ) ( x ) {\displaystyle \scriptstyle (A+B)({\vec {x}})=A({\vec {x}})+B({\vec {x}})=B({\vec {x}})+A({\vec {x}})=(B+A)({\vec {x}})} , kde první a poslední rovnost plyne z definice sčítání zobrazení a druhá rovnost plyne z toho, že vektory v prostoru Y komutují,
  2. asociativita sčítání lineárních zobrazení: ověřila by se naprosto analogicky jako komutativita,
  3. nulovým prvkem je nulové lineární zobrazení zmíněné výše,
  4. opačným vektorem k zobrazení A je zjevně (-1) A, kde -1 je prvek tělesa T {\displaystyle \scriptstyle \mathbb {T} } opačný k jednotkovému prvku,
  5. ostatní vlastnosti zmíněné v definici vektorového prostoru by se ověřili analogicky prvnímu bodu s komutativitou.

Související pojmy

Jádro zobrazení

Jádro lineárního zobrazení A je taková podmnožina definičního oboru A, kterou A zobrazuje na nulový vektor. Jádro zobrazení A značíme symbolem ker A {\displaystyle \scriptstyle \ker A} (jedná se o zkratku ze slova kernel, anglického označení pro jádro). Přesněji: Mějme dva vektorové prostory X a Y nad stejným tělesem T {\displaystyle \scriptstyle \mathbb {T} } . Dále nechť A je lineární zobrazení z X do Y, tj. A L ( X , Y ) {\displaystyle \scriptstyle A\in {\mathcal {L}}(X,Y)} . Pak jádro zobrazení A je množina

ker A = { x X | A ( x ) = 0 Y } , {\displaystyle \ker A=\{{\vec {x}}\in X|A({\vec {x}})={\vec {0}}_{Y}\},}

kde 0 Y {\displaystyle \scriptstyle {\vec {0}}_{Y}} označuje nulový vektor v prostoru Y. Dimenze jádra zobrazení A, tj. dim ker A {\displaystyle \scriptstyle \dim \ker A} , se občas označuje jako defekt zobrazení A. Z vlastností v oddíle Nulový vektor je vidět, že nulový vektor leží v jádře každého lineárního zobrazení. Dokonce lze dokázat následující tvrzení: Lineární zobrazení je prosté právě tehdy, když v jeho jádru leží pouze nulový vektor (důkaz viz Prostota zobrazení). Neboť množina { 0 Y } {\displaystyle \scriptstyle \{{\vec {0}}_{Y}\}} je také vektorový (pod)prostor, tak lze využít tvrzení z oddílu Obrazy a vzory vektorů a jejich podprostorů o vzoru podprostoru abychom uviděli, že jádro zobrazení je vektorový podprostor, tj.

( A L ( X , Y ) ) ( ker A ⊂⊂ X ) . {\displaystyle (\forall A\in {\mathcal {L}}(X,Y))(\ker A\subset \subset X).}

Hodnost zobrazení

Jako hodnost zobrazení A, ozn. h(A), se občas označuje dimenze oboru hodnot lineárního zobrazení A, tj. h ( A ) = dim A ( X ) {\displaystyle \scriptstyle h(A)=\dim A(X)} . Platí, že hodnost zobrazení A L ( X , Y ) {\displaystyle \scriptstyle A\in {\mathcal {L}}(X,Y)} splňuje nerovnosti:

h ( A ) dim X , h ( A ) dim Y . {\displaystyle h(A)\leq \dim X,\quad h(A)\leq \dim Y.}
Důkaz: Druhá nerovnost plyne přímo z toho, že obor hodnot A(X) je podprostorem prostoru Y. První nerovnost zjevně platí pro případy dim X = 0 {\displaystyle \scriptstyle \dim X=0} nebo dim X = {\displaystyle \scriptstyle \dim X=\infty } . Pro konečnou nenulovou dimenzi dim X = k {\displaystyle \scriptstyle \dim X=k} vezměme bázi prostoru X, kterou si označme x 1 , , x k {\displaystyle \scriptstyle {\vec {x}}_{1},\ldots ,{\vec {x}}_{k}} . Pak obraz prostoru X při zobrazení A je lineární obal { A ( x 1 ) , , A ( x k ) } lin {\displaystyle \scriptstyle \{A({\vec {x}}_{1}),\ldots ,A({\vec {x}}_{k})\}_{\text{lin}}} a tedy dim A ( X ) k {\displaystyle \scriptstyle \dim A(X)\leq k} .

Matice zobrazení

Linearita nějakého zobrazení je natolik omezující vlastnost, že pro charakterizaci takovéhoto zobrazení stačí uvést jeho hodnoty jen v (relativně) malém počtu bodů. Tato vlastnost tím více vyplyne na konečněrozměrných vektorových prostorech. Pro konkrétnost tedy mějme lineární zobrazení A L ( X n , Y m ) {\displaystyle \scriptstyle A\in {\mathcal {L}}(X_{n},Y_{m})} , kde oba vektorové prostory jsou konečných dimenzí, dim X n = n , dim Y m = m {\displaystyle \scriptstyle \dim X_{n}=n,\dim Y_{m}=m} . V obou prostorech tedy existuje jejich báze, označme bazické vektory prostoru X jako x 1 , , x n {\displaystyle \scriptstyle {\vec {x}}_{1},\ldots ,{\vec {x}}_{n}} a podobně nechť y 1 , , y m {\displaystyle \scriptstyle {\vec {y}}_{1},\ldots ,{\vec {y}}_{m}} je báze prostoru Y. Libovolný vektor x {\displaystyle \scriptstyle {\vec {x}}} z prostoru X lze tedy zapsat jako lineární kombinaci bazických vektorů

x = i = 1 n α i x i . {\displaystyle {\vec {x}}=\sum _{i=1}^{n}\alpha _{i}{\vec {x}}_{i}.}

Pak působením zobrazení A na takovýto vektor x {\displaystyle \scriptstyle {\vec {x}}} dostáváme vektor A ( x ) = y {\displaystyle \scriptstyle A({\vec {x}})={\vec {y}}} , pro nějž platí

y = A ( x ) = A ( i = 1 n α i x i ) = i = 1 n α i A ( x i ) . {\displaystyle {\vec {y}}=A({\vec {x}})=A\left(\sum _{i=1}^{n}\alpha _{i}{\vec {x}}_{i}\right)=\sum _{i=1}^{n}\alpha _{i}A({\vec {x}}_{i}).}

Dále, vektory A ( x 1 ) , , A ( x n ) {\displaystyle \scriptstyle A({\vec {x}}_{1}),\ldots ,A({\vec {x}}_{n})} leží v prostoru Y, takže je lze vyjádřit jako lineární kombinace bazických vektorů y j {\displaystyle \scriptstyle {\vec {y}}_{j}} ve tvaru

A ( x i ) = j = 1 m β j i y j . {\displaystyle A({\vec {x}}_{i})=\sum _{j=1}^{m}\beta _{ji}{\vec {y}}_{j}.}

Například pro vektor A ( x 1 ) {\displaystyle \scriptstyle A({\vec {x}}_{1})} tak máme A ( x 1 ) = j = 1 m β j 1 y j {\displaystyle \scriptstyle A({\vec {x}}_{1})=\sum _{j=1}^{m}\beta _{j1}{\vec {y}}_{j}} , pro vektor A ( x 2 ) {\displaystyle \scriptstyle A({\vec {x}}_{2})} máme A ( x 2 ) = j = 1 m β j 2 y j {\displaystyle \scriptstyle A({\vec {x}}_{2})=\sum _{j=1}^{m}\beta _{j2}{\vec {y}}_{j}} , pro vektor A ( x 3 ) {\displaystyle \scriptstyle A({\vec {x}}_{3})} máme A ( x 3 ) = j = 1 m β j 3 y j {\displaystyle \scriptstyle A({\vec {x}}_{3})=\sum _{j=1}^{m}\beta _{j3}{\vec {y}}_{j}} atd. Celkově tedy

y = i = 1 n α i A ( x i ) = i = 1 n α i ( j = 1 m β j i y j ) = i = 1 n j = 1 m α i β j i y j . {\displaystyle {\vec {y}}=\sum _{i=1}^{n}\alpha _{i}A({\vec {x}}_{i})=\sum _{i=1}^{n}\alpha _{i}\left(\sum _{j=1}^{m}\beta _{ji}{\vec {y}}_{j}\right)=\sum _{i=1}^{n}\sum _{j=1}^{m}\alpha _{i}\beta _{ji}{\vec {y}}_{j}.}

Rozeberme nyní právě obdržený výraz. Koeficienty α i {\displaystyle \scriptstyle \alpha _{i}} v tomto výrazu pocházejí z lineární kombinace pro vstupní vektor x {\displaystyle \scriptstyle {\vec {x}}} a vektory y j {\displaystyle \scriptstyle {\vec {y}}_{j}} jsou předem zadaná báze prostoru Y. Jediné, co tedy charakterizuje zobrazení A samotné jsou tak prvky β j i {\displaystyle \scriptstyle \beta _{ji}} . Tyto si můžeme uspořádat do matice tvaru

( β 11 β 12 β 13 β 1 n β 21 β 22 β 23 β 2 n β 31 β 32 β 33 β 3 n β m 1 β m 2 β m 3 β m n ) . {\displaystyle {\begin{pmatrix}\beta _{11}&\beta _{12}&\beta _{13}&\dots &\beta _{1n}\\\beta _{21}&\beta _{22}&\beta _{23}&\dots &\beta _{2n}\\\beta _{31}&\beta _{32}&\beta _{33}&\dots &\beta _{3n}\\\vdots &\vdots &\vdots &\ddots &\vdots \\\beta _{m1}&\beta _{m2}&\beta _{m3}&\dots &\beta _{mn}\end{pmatrix}}.}

Této matici se říká matice zobrazení A v bázích X {\displaystyle \scriptstyle {\mathcal {X}}} a Y {\displaystyle \scriptstyle {\mathcal {Y}}} , kde jsme označili bázi prostoru X jako X = { x 1 , , x n } {\displaystyle \scriptstyle {\mathcal {X}}=\{{\vec {x}}_{1},\ldots ,{\vec {x}}_{n}\}} a bázi prostoru Y jako Y = { y 1 , , y m } {\displaystyle \scriptstyle {\mathcal {Y}}=\{{\vec {y}}_{1},\ldots ,{\vec {y}}_{m}\}} . Tato matice plně popisuje strukturu lineárního zobrazení A. Značí se symbolem

X A Y {\displaystyle {}^{\mathcal {X}}A^{\mathcal {Y}}} .

Konkrétní tvar matice zobrazení záleží na bázích jednotlivých prostorů, v nichž je vyjádřena. Pro jedno lineární zobrazení tak máme více matic zobrazení, neboť báze prostorů nejsou určeny jednoznačně a my si je můžeme volit různými způsoby. Vždy je tedy nutno uvést, v jakých bázích je daná matice zobrazení vyjádřena. Naproti tomu, všechny takové matice zobrazení jsou svázány převodními pravidly. Tato pravidla jsou shrnuta v matici přechodu. Mějme matici zobrazení A v bázích X {\displaystyle \scriptstyle {\mathcal {X}}} a Y {\displaystyle \scriptstyle {\mathcal {Y}}} , jež označíme X A Y {\displaystyle \scriptstyle {}^{\mathcal {X}}A^{\mathcal {Y}}} . Mějme dále matici téhož zobrazení v bázích X ~ {\displaystyle \scriptstyle {\mathcal {\tilde {X}}}} a Y ~ {\displaystyle \scriptstyle {\mathcal {\tilde {Y}}}} , kterou si označíme jako X ~ A Y ~ {\displaystyle \scriptstyle {}^{\mathcal {\tilde {X}}}A^{\mathcal {\tilde {Y}}}} . Tyto dvě matice jsou pak v následujícím vztahu:

X ~ A Y ~ = Y ~ P Y X A Y X P X ~ , {\displaystyle {}^{\mathcal {\tilde {X}}}A^{\mathcal {\tilde {Y}}}={}_{\mathcal {\tilde {Y}}}P_{\mathcal {Y}}\,\cdot \,{}^{\mathcal {X}}A^{\mathcal {Y}}\,\cdot \,{}_{\mathcal {X}}P_{\mathcal {\tilde {X}}},}

kde X P X ~ {\displaystyle \scriptstyle {}_{\mathcal {X}}P_{\mathcal {\tilde {X}}}} je matice přechodu od báze X {\displaystyle \scriptstyle {\mathcal {X}}} k bázi X ~ {\displaystyle \scriptstyle {\mathcal {\tilde {X}}}} a podobně Y ~ P Y {\displaystyle \scriptstyle {}_{\mathcal {\tilde {Y}}}P_{\mathcal {Y}}} je matice přechodu od báze Y ~ {\displaystyle \scriptstyle {\mathcal {\tilde {Y}}}} k bázi Y {\displaystyle \scriptstyle {\mathcal {Y}}} a symbol {\displaystyle \scriptstyle \cdot } značí maticové násobení.

Matice zobrazení tak představuje přechod od lineárních operátorů k maticím. Skládání lineárních zobrazení se tak redukuje na násobení matic, podobně působení lineárního zobrazení na vektor je nyní představováno násobením vektoru maticí. Práce se zobrazeními se tak zjednodušuje.

Spektrum zobrazení, vlastní čísla

Podrobnější informace naleznete v článcích Spektrum lineárního zobrazení a Vlastní číslo.

V mnoha případech je vhodné zjišťovat, zda v daném vektorovém prostoru neexistuje vektor, na nějž působí dané lineární zobrazení zvlášť jednoduchým způsobem. Takové vektory určují množinu prvků z tělesa, skalárů, které jsou jistým způsobem význačné. Této množině se říká spektrum lineárního operátoru. Spektrum je definováno pro lineární zobrazení jak na konečněrozměrných, tak i nekonečněrozměrných, prostorech. Na těch konečněrozměrných pak spektrum nabývá zvlášť jednoduché podoby, kterou si nyní představíme. Mějme lineární zobrazení A L ( X , Y ) {\displaystyle \scriptstyle A\in {\mathcal {L}}(X,Y)} vektorového prostoru X do vektorového prostoru Y. Nechť jsou tyto prostory definovány nad číselným tělesem T {\displaystyle \scriptstyle \mathbb {T} } . Pak každé číslo λ T {\displaystyle \scriptstyle \lambda \in \mathbb {T} } , pro něž existuje nějaký nenulový vektor x X {\displaystyle \scriptstyle {\vec {x}}\in X} tak, že

A x = λ x , {\displaystyle A{\vec {x}}=\lambda {\vec {x}},}

nazveme vlastní číslo zobrazení A a patřičný vektor x {\displaystyle \scriptstyle {\vec {x}}} nazveme vlastní vektor zobrazení A příslušný vlastnímu číslu λ {\displaystyle \scriptstyle \lambda } . Množině všech vlastních čísel daného lineárního zobrazení říkáme spektrum. Vlastní vektory jsou tedy takové vektory, na které působí zobrazení A jen jako násobení nějakým číslem. Tomuto číslu pak říkáme vlastní číslo.

S vlastními vektory a vlastními čísly se úzce pojí pojem diagonalizovatelnosti lineárních operátorů. Zhruba řečeno, existuje-li v daném vektorovém prostoru báze z vlastních vektorů daného lineárního operátoru, pak je matice tohoto operátoru v takové bázi diagonální.

Lineární zobrazení vs. skalární součin

Podrobnější informace naleznete v článku Sdružený operátor.

Pokud jsou vektorové prostory, mezi kterýmiž lineární zobrazení zobrazuje, vybaveny skalárním součinem, lze studovat vlastnosti takovéhoto lineárního zobrazení do větší hloubky. Můžeme totiž nyní navíc zjišťovat, jak se dané zobrazení chová ve vztahu ke skalárnímu součinu. Následující pojmy lze zavést opět pro lineární zobrazení působící jak na nekonečněrozměrných, tak i konečněrozměrných prostorech. Pro jednoduchost budeme uvažovat jen prostory konečněrozměrné. Nekonečněrozměrné případy lze nalézt pod jednotlivými hesly pro konkrétní druhy zobrazení.

Pro jednoduchost budeme tedy uvažovat lineární zobrazení na konečněrozměrném prostoru A L ( X , Y ) {\displaystyle \scriptstyle A\in {\mathcal {L}}(X,Y)} , kde navíc X = Y {\displaystyle \scriptstyle X=Y} , tj. A je lineární operátor na X. Nechť je vektorový prostor X, definovaný nad číselným tělesem T {\displaystyle \scriptstyle \mathbb {T} } , vybaven skalárním součinem ( , ) : X × X T {\displaystyle \scriptstyle (\cdot ,\cdot ):X\times X\to \mathbb {T} } . Z Rieszovy věty lze dokázat, že pro takový operátor A existuje právě jeden lineární operátor B splňující pro každou dvojici vektorů x , y X {\displaystyle \scriptstyle {\vec {x}},{\vec {y}}\in X} vztah

( A x , y ) = ( x , B y ) . {\displaystyle (A{\vec {x}},{\vec {y}})=({\vec {x}},B{\vec {y}}).}

Operátoru B se říká operátor sdružený k operátoru A a značí se B = A {\displaystyle \scriptstyle B=A^{\dagger }} , popř. B = A {\displaystyle \scriptstyle B=A^{\star }} . Jedná se o tak důležitý pojem, že se zavádí následující názvosloví. Lineární operátor A se nazývá:

  • Normální operátor, právě když komutuje se svým sdružením, tj.
A A = A A . {\displaystyle A^{\dagger }\,A=A\,A^{\dagger }.}
A = A . {\displaystyle A=A^{\dagger }.}

V této souvislosti se ještě rozlišují další pojmy podle toho, zda je těleso reálné či komplexní. Operátor A se nazývá

  • Izometrický operátor právě, když je jeho sdružení rovno jeho inverzi, tj.
A A = I = A A , {\displaystyle A\,A^{\dagger }=I=A^{\dagger }\,A,}

kde I značí identické zobrazení. Podobně jako u samosdružených operátorů se dále operátor A nazývá

    • Ortogonální operátor právě, když je A izometrický a těleso je tvořeno reálnými čísly, tj. T = R . {\displaystyle \scriptstyle \mathbb {T} =\mathbb {R} .}
    • Unitární operátor právě, když je A izometrický a těleso je tvořeno komplexními čísly, tj. T = C . {\displaystyle \scriptstyle \mathbb {T} =\mathbb {C} .}

Obecné vlastnosti

V následujícím uvažujeme lineární zobrazení nějakého vektorového prostoru X do nějakého obecně jiného vektorového prostoru Y. Předpokládáme tedy, že lineární zobrazení je definované na celém prostoru, ze kterého zobrazuje.

Aritmetické operace

Pro lineární zobrazení A, B a C s patřičnými definičními obory platí následující zjevné vztahy:

  • A ( B + C ) = A B + A C , {\displaystyle A(B+C)=AB+AC,} tj. skládání zleva je distributivní,
  • ( A + B ) C = A C + B C , {\displaystyle (A+B)C=AC+BC,} tj. skládání zprava je distributivní,
  • α ( A B ) = ( α A ) B = A ( α B ) = ( α A B ) , {\displaystyle \alpha (AB)=(\alpha A)B=A(\alpha B)=(\alpha AB),} tj. násobení skalárem je asociativní,
  • A ( B C ) = ( A B ) C , {\displaystyle A(BC)=(AB)C,} tj. skládání je asociativní,
  • obecně A B B A {\displaystyle AB\neq BA} , tj. skládání není obecně komutativní.

Nulový vektor

  • Obraz nulového vektoru při libovolném lineárním zobrazení je opět nulový vektor, neboli
( A L ( X , Y ) ) ( A ( 0 X ) = 0 Y ) , {\displaystyle (\forall A\in {\mathcal {L}}(X,Y))(A({\vec {0}}_{X})={\vec {0}}_{Y}),}

kde 0 X {\displaystyle \scriptstyle {\vec {0}}_{X}} označuje nulový vektor v prostoru X, zatímco 0 Y {\displaystyle \scriptstyle {\vec {0}}_{Y}} označuje nulový vektor v prostoru Y.

Důkaz: A ( 0 X ) = A ( x + x ) = A ( x ) + A ( x ) = 0 Y {\displaystyle \scriptstyle A({\vec {0}}_{X})=A(-{\vec {x}}+{\vec {x}})=-A({\vec {x}})+A({\vec {x}})={\vec {0}}_{Y}} , kde vektor x X {\displaystyle \scriptstyle {\vec {x}}\in X} je volen libovolně.

Podmínky linearity

  • Nechť A je nějaké zobrazení z vektorového prostoru X do vektorového prostoru Y, pak následující tři tvrzení jsou ekvivalentní:
  1. A L ( X , Y ) {\displaystyle A\in {\mathcal {L}}(X,Y)} , tj. A je lineární,
  2. ( α T ) ( x , y X ) ( A ( α x + y ) = α A ( x ) + A ( y ) ) {\displaystyle (\forall \alpha \in \mathbb {T} )(\forall {\vec {x}},{\vec {y}}\in X)(A(\alpha {\vec {x}}+{\vec {y}})=\alpha A({\vec {x}})+A({\vec {y}}))} , tj. není třeba ověřovat aditivitu a homogenitu zvlášť, ale stačí je ověřovat dohromady,
  3. ( n N ) ( ( α 1 , , α n ) T n ) ( x 1 , , x n X ) ( A ( i = 1 n α i x i ) = i = 1 n α i A ( x i ) ) {\displaystyle (\forall n\in \mathbb {N} )(\forall (\alpha _{1},\ldots ,\alpha _{n})\in \mathbb {T} ^{n})(\forall {\vec {x}}_{1},\ldots ,{\vec {x}}_{n}\in X)(A\left(\sum _{i=1}^{n}\alpha _{i}{\vec {x}}_{i}\right)=\sum _{i=1}^{n}\alpha _{i}A({\vec {x}}_{i}))} .
Důkaz: Implikace z 1 do 2 plyne ihned. Implikace z 3 do 1 plyne taky ihned, stačí položit n=2 a α 1 = α 2 = 1 {\displaystyle \scriptstyle \alpha _{1}=\alpha _{2}=1} pro ověření aditivity a n=1 pro důkaz homogenity. Pokud nyní dokážeme implikaci z 2 do 3, uzavřeme tak kruh implikací a věta bude dokázána. Dokažme matematickou indukcí nyní tedy implikaci z 2 do 3. Z tvrzení výše o nulových vektorech již víme A ( 0 X ) = 0 Y {\displaystyle \scriptstyle A({\vec {0}}_{X})={\vec {0}}_{Y}} , což jsme dokázali způsobem, který je kompatibilní s bodem 2, ze kterého nyní vycházíme. Jako počáteční krok indukce uvažme n=1. Pak A ( α 1 x 1 ) = A ( α 1 x 1 + 0 X ) = α 1 A ( x 1 ) + A ( 0 X ) = α 1 A ( x 1 ) + 0 Y = α 1 A ( x 1 ) {\displaystyle \scriptstyle A(\alpha _{1}{\vec {x}}_{1})=A(\alpha _{1}{\vec {x}}_{1}+{\vec {0}}_{X})=\alpha _{1}A({\vec {x}}_{1})+A({\vec {0}}_{X})=\alpha _{1}A({\vec {x}}_{1})+{\vec {0}}_{Y}=\alpha _{1}A({\vec {x}}_{1})} . Pro indukční krok nyní předpokládáme platnost pro n a dokazujeme platnost pro n+1, označme si libovolnou lineární kombinaci n vektorů x 1 , , x n {\displaystyle \scriptstyle {\vec {x}}_{1},\ldots ,{\vec {x}}_{n}} jako y {\displaystyle \scriptstyle {\vec {y}}} , pak z bodu 2 plyne A ( α n + 1 x n + 1 + y ) = α n + 1 A ( x n + 1 ) + A ( y ) {\displaystyle \scriptstyle A(\alpha _{n+1}{\vec {x}}_{n+1}+{\vec {y}})=\alpha _{n+1}A({\vec {x}}_{n+1})+A({\vec {y}})} . Z indukčního předpokladu lze A ( y ) {\displaystyle \scriptstyle A({\vec {y}})} napsat ve chtěném tvaru a důkaz je tedy dokončen.

Zúžení zobrazení

  • Zúžení lineárního zobrazení na podprostor je opět lineární zobrazení, tj.
( A L ( X , Y ) ) ( P ⊂⊂ X ) ( A | P L ( P , Y ) ) , {\displaystyle (\forall A\in {\mathcal {L}}(X,Y))(\forall P\subset \subset X)(A|_{P}\in {\mathcal {L}}(P,Y)),}

kde A | P {\displaystyle \scriptstyle A|_{P}} značí zúžení zobrazení A na podprostor P.

Důkaz: Podprostor je uzavřen na sčítání vektorů a jejich násobení skalárem. Můžeme tak použít postupu podobného tomu výše k ověření homogenity a aditivity zobrazení A na vektorech ležících jen v daném podprostoru P.

Inverzní a složené zobrazení

  • Inverze k lineárnímu zobrazení je opět lineární zobrazení. Přesněji, nechť je A L ( X , Y ) {\displaystyle \scriptstyle A\,\in {\mathcal {L}}(X,Y)} izomorfní zobrazení (tj. lineární bijekce definovaná na celém X), pak existuje inverzní zobrazení A 1 {\displaystyle \scriptstyle A^{-1}} , které je též izomorfní.
Důkaz: Neboť je z předpokladů A bijekce, tak určitě existuje její inverze A 1 {\displaystyle \scriptstyle A^{-1}} , zbývá ověřit její linearitu. Označme si x = A 1 ( u ) {\displaystyle \scriptstyle {\vec {x}}=A^{-1}({\vec {u}})} , y = A 1 ( v ) {\displaystyle \scriptstyle {\vec {y}}=A^{-1}({\vec {v}})} , kde vektory u , v Y {\displaystyle \scriptstyle {\vec {u}},{\vec {v}}\in Y} jsme si vybrali libovolně. Z linearity zobrazení A plyne A ( α x + y ) = α A ( x ) + A ( y ) = α u + v {\displaystyle \scriptstyle A(\alpha {\vec {x}}+{\vec {y}})=\alpha A({\vec {x}})+A({\vec {y}})=\alpha {\vec {u}}+{\vec {v}}} . Zobrazení A tedy vektoru α x + y {\displaystyle \scriptstyle \alpha {\vec {x}}+{\vec {y}}} přiřadilo vektor α u + v {\displaystyle \scriptstyle \alpha {\vec {u}}+{\vec {v}}} . Jeho inverze tedy učiní opak dostávajíc A 1 ( α u + v ) = α x + y {\displaystyle \scriptstyle A^{-1}(\alpha {\vec {u}}+{\vec {v}})=\alpha {\vec {x}}+{\vec {y}}} . Když si rozepíšeme, jak vznikly vektory x {\displaystyle \scriptstyle {\vec {x}}} a y {\displaystyle \scriptstyle {\vec {y}}} dospíváme k výrazu A 1 ( α u + v ) = α A 1 ( u ) + A 1 ( v ) {\displaystyle \scriptstyle A^{-1}(\alpha {\vec {u}}+{\vec {v}})=\alpha A^{-1}({\vec {u}})+A^{-1}({\vec {v}})} , což je ekvivalentní s linearitou zobrazení A 1 {\displaystyle \scriptstyle A^{-1}} .
  • Složené zobrazení z lineárních zobrazení je opět lineární. Přesněji, nechť A L ( X , Y ) {\displaystyle \scriptstyle A\in {\mathcal {L}}(X,Y)} a B L ( Y , Z ) {\displaystyle \scriptstyle B\in {\mathcal {L}}(Y,Z)} . Pak složené zobrazení BA definované vztahem
( B A ) ( x ) = B ( A ( x ) ) {\displaystyle (BA)({\vec {x}})=B(A({\vec {x}}))}

pro všechna x X {\displaystyle \scriptstyle {\vec {x}}\in X} je lineární, tj. B A L ( X , Z ) {\displaystyle \scriptstyle BA\in {\mathcal {L}}(X,Z)} .

Důkaz: Vezměme libovolné α T {\displaystyle \scriptstyle \alpha \in \mathbb {T} } a libovolné vektory x , y X {\displaystyle \scriptstyle {\vec {x}},{\vec {y}}\in X} . Pak ( B A ) ( α x + y ) = B ( α A ( x ) + A ( y ) ) = α B ( A ( x ) ) + B ( A ( y ) ) = α ( B A ) ( x ) + ( B A ) ( y ) {\displaystyle \scriptstyle (BA)(\alpha {\vec {x}}+{\vec {y}})=B(\alpha A({\vec {x}})+A({\vec {y}}))=\alpha B(A({\vec {x}}))+B(A({\vec {y}}))=\alpha (BA)({\vec {x}})+(BA)({\vec {y}})} , což je ekvivalentní linearitě složeného zobrazení.

Obrazy a vzory vektorů a jejich podprostorů

  • Obraz, resp. vzor, podprostoru podle lineárního zobrazení je opět podprostor. V symbolech
( A L ( X , Y ) ) ( P ⊂⊂ X ) ( A ( P ) ⊂⊂ Y ) , {\displaystyle (\forall A\in {\mathcal {L}}(X,Y))(\forall P\subset \subset X)(A(P)\subset \subset Y),}
( A L ( X , Y ) ) ( Q ⊂⊂ Y ) ( A ( 1 ) ( Q ) ⊂⊂ X ) , {\displaystyle (\forall A\in {\mathcal {L}}(X,Y))(\forall Q\subset \subset Y)(A^{(-1)}(Q)\subset \subset X),}

kde A ( 1 ) ( Q ) {\displaystyle \scriptstyle A^{(-1)}(Q)} označuje vzor množiny Q při zobrazení A.

Důkaz: Uvažujme nejprve obraz podprostoru P při zobrazení A. O tomto zobrazení předpokládejme, že P leží v jeho definičním oboru. Množina A(P), tj. obraz podprostoru P, je podmnožinou prostoru Y. Chceme ukázat, že pro libovolné dva vektory u , v A ( P ) {\displaystyle \scriptstyle {\vec {u}},{\vec {v}}\in A(P)} a libovolné α T {\displaystyle \scriptstyle \alpha \in \mathbb {T} } platí, že kombinace α u + v {\displaystyle \scriptstyle \alpha {\vec {u}}+{\vec {v}}} leží opět v množině A(P). Pro vektory u , v A ( P ) {\displaystyle \scriptstyle {\vec {u}},{\vec {v}}\in A(P)} máme určitě nějaké vektory x , y P {\displaystyle \scriptstyle {\vec {x}},{\vec {y}}\in P} tak, že A ( x ) = u {\displaystyle \scriptstyle A({\vec {x}})={\vec {u}}} a A ( y ) = v {\displaystyle \scriptstyle A({\vec {y}})={\vec {v}}} . Úpravou α u + v = α A x + A y = A ( α x + y ) {\displaystyle \scriptstyle \alpha {\vec {u}}+{\vec {v}}=\alpha A{\vec {x}}+A{\vec {y}}=A(\alpha {\vec {x}}+{\vec {y}})} tak zjišťujeme, že je tento výraz roven obrazu vektoru α x + y P {\displaystyle \scriptstyle \alpha {\vec {x}}+{\vec {y}}\in P} . Neboli, našli jsme vektor, konkrétně α x + y {\displaystyle \scriptstyle \alpha {\vec {x}}+{\vec {y}}} , ležící v P, jehož obrazem je právě naše původní kombinace α u + v {\displaystyle \scriptstyle \alpha {\vec {u}}+{\vec {v}}} a tato kombinace tak skutečně patří do A(P). Obdobně pro vzor podprostoru Q při zobrazení A. Označme si tento vzor jako A ( 1 ) ( Q ) {\displaystyle \scriptstyle A^{(-1)}(Q)} . Máme-li x , y A ( 1 ) ( Q ) {\displaystyle \scriptstyle {\vec {x}},{\vec {y}}\in A^{(-1)}(Q)} a nějaké α T {\displaystyle \scriptstyle \alpha \in \mathbb {T} } , tak chceme ukázat, že i kombinace α x + y {\displaystyle \scriptstyle \alpha {\vec {x}}+{\vec {y}}} leží v množině A ( 1 ) ( Q ) {\displaystyle \scriptstyle A^{(-1)}(Q)} . Z předpokladů existují nějaké vektory u , v Q {\displaystyle \scriptstyle {\vec {u}},{\vec {v}}\in Q} tak, že A ( x ) = u {\displaystyle \scriptstyle A({\vec {x}})={\vec {u}}} a A ( y ) = v {\displaystyle \scriptstyle A({\vec {y}})={\vec {v}}} . Z linearity zobrazení A ale opět A ( α x + y ) = α A ( x ) + A ( y ) = α u + v {\displaystyle \scriptstyle A(\alpha {\vec {x}}+{\vec {y}})=\alpha A({\vec {x}})+A({\vec {y}})=\alpha {\vec {u}}+{\vec {v}}} . Neboť je Q vektorový podprostor, tak kombinace α u + v {\displaystyle \scriptstyle \alpha {\vec {u}}+{\vec {v}}} leží v tomto podprostoru. Vektor α x + y {\displaystyle \scriptstyle \alpha {\vec {x}}+{\vec {y}}} je tak vzorem nějakého vektoru z Q a patří tedy do A ( 1 ) ( Q ) {\displaystyle \scriptstyle A^{(-1)}(Q)} , což jsme chtěli dokázat.

Následuje čtveřice podobných tvrzení vztahujících se k lineární nezávislosti vzoru a obrazu množiny vektorů:

  • Obraz lineárně závislé množiny vektorů podle lineárního zobrazení je opět lineárně závislá množina.
  • Vzor lineárně závislé množiny vektorů podle monomorfního zobrazení je opět lineárně závislá množina.
  • Vzor lineárně nezávislé množiny vektorů podle lineárního zobrazení je opět lineárně nezávislá množina.
  • Obraz lineárně nezávislé množiny vektorů podle monomorfního zobrazení je opět lineárně nezávislá množina.
Důkaz: Důkaz prvního tvrzení: Mějme lineárně závislou (konečnou) množinu vektorů x 1 , , x k {\displaystyle \scriptstyle {\vec {x}}_{1},\ldots ,{\vec {x}}_{k}} , tj. existují koeficienty α 1 , , α k T {\displaystyle \scriptstyle \alpha _{1},\ldots ,\alpha _{k}\in \mathbb {T} } tak, že i = 1 k α i x i = 0 X {\displaystyle \scriptstyle \sum _{i=1}^{k}\alpha _{i}{\vec {x}}_{i}={\vec {0}}_{X}} a přitom existuje koeficient, který je nenulový. Neboť obraz nulového vektoru je opět nulový vektor, tak když na obě strany rovnosti zapůsobíme zobrazením A, dostaneme i = 1 k α i A ( x i ) = 0 Y {\displaystyle \scriptstyle \sum _{i=1}^{k}\alpha _{i}A({\vec {x}}_{i})={\vec {0}}_{Y}} . Neboť se koeficienty nezměnili, tak soubor vektorů A ( x 1 ) , , A ( x k ) {\displaystyle \scriptstyle A({\vec {x}}_{1}),\ldots ,A({\vec {x}}_{k})} je opět lineárně závislý. Důkaz druhého tvrzení: Nechť x 1 , , x k {\displaystyle \scriptstyle {\vec {x}}_{1},\ldots ,{\vec {x}}_{k}} jsou vzory lineárně závislých vektorů y 1 , , y k {\displaystyle \scriptstyle {\vec {y}}_{1},\ldots ,{\vec {y}}_{k}} , tj. A ( x 1 ) = y 1 , , A ( x k ) = y k {\displaystyle \scriptstyle A({\vec {x}}_{1})={\vec {y}}_{1},\ldots ,A({\vec {x}}_{k})={\vec {y}}_{k}} . Existuje tedy lineární kombinace i = 1 k α i y i = 0 Y {\displaystyle \scriptstyle \sum _{i=1}^{k}\alpha _{i}{\vec {y}}_{i}={\vec {0}}_{Y}} , kde je alespoň jeden koeficient nenulový. Jenže 0 Y = i = 1 k α i y i = i = 1 k α i A ( x i ) = A ( i = 1 k α i x i ) {\displaystyle \scriptstyle {\vec {0}}_{Y}=\sum _{i=1}^{k}\alpha _{i}{\vec {y}}_{i}=\sum _{i=1}^{k}\alpha _{i}A({\vec {x}}_{i})=A\left(\sum _{i=1}^{k}\alpha _{i}{\vec {x}}_{i}\right)} . Obraz vektoru v závorkách je tedy nulový vektor. Vektor v závorkách tedy leží v jádře zobrazení A. Protože se bavíme o monomorfním, tzn. prostém, zobrazení, tak z vlastnosti v oddílu Nulový vektor plyne, že kombinace i = 1 k α i x i {\displaystyle \scriptstyle \sum _{i=1}^{k}\alpha _{i}{\vec {x}}_{i}} , tj. vektor ležící v jádře A, je nutně roven nulovému vektoru. Máme tedy i = 1 k α i x i = 0 X {\displaystyle \scriptstyle \sum _{i=1}^{k}\alpha _{i}{\vec {x}}_{i}={\vec {0}}_{X}} s alespoň jedním nenulovým koeficientem. Vektory x 1 , , x k {\displaystyle \scriptstyle {\vec {x}}_{1},\ldots ,{\vec {x}}_{k}} jsou tedy lineárně závislé. Důkaz třetího tvrzení – sporem: Nechť je vzor lineárně nezávislé množiny lineárně závislá množina. Pak z prvního tvrzení plyne, že obraz této množiny je lineárně závislá, což je spor. Důkaz čtvrtého tvrzení – sporem: Nechť je monomorfní obraz lineárně nezávislé množiny množina lineárně závislá. Pak z druhého tvrzení plyne, že vzor této množiny je lineárně závislý, což je spor.
( A L ( X , Y ) ) ( A ( { x 1 , , x n } lin ) = { A ( x 1 ) , , A ( x n ) } lin ) . {\displaystyle (\forall A\in {\mathcal {L}}(X,Y))(A(\{{\vec {x}}_{1},\ldots ,{\vec {x}}_{n}\}_{\text{lin}})=\{A({\vec {x}}_{1}),\ldots ,A({\vec {x}}_{n})\}_{\text{lin}}).}
Důkaz: Ukažme nejprve inkluzi zleva doprava. Máme tedy nějaký vektor y {\displaystyle \scriptstyle {\vec {y}}} , který je obrazem vektoru x {\displaystyle \scriptstyle {\vec {x}}} tvaru x = i = 1 n α i x i {\displaystyle \scriptstyle {\vec {x}}=\sum _{i=1}^{n}\alpha _{i}{\vec {x}}_{i}} , tj. y = A ( x ) {\displaystyle \scriptstyle {\vec {y}}=A({\vec {x}})} . Pak vektor y {\displaystyle \scriptstyle {\vec {y}}} lze vyjádřit jako lineární kombinaci obrazů A ( x i ) {\displaystyle \scriptstyle A({\vec {x}}_{i})} způsobem y = i = 1 n α i A ( x i ) {\displaystyle \scriptstyle {\vec {y}}=\sum _{i=1}^{n}\alpha _{i}A({\vec {x}}_{i})} a leží tak v lineárním obalu obrazů. Pro důkaz opačné inkluze postupujeme naprosto analogicky předchozímu postupu, kde opět využíváme linearity zobrazení A.
  • Vztah pro vzor vektoru při lineárním zobrazení: Nechť A L ( X , Y ) {\displaystyle \scriptstyle A\in {\mathcal {L}}(X,Y)} je lineární zobrazení a b A ( X ) {\displaystyle \scriptstyle {\vec {b}}\in A(X)} je vektor z jeho oboru hodnot. Dále nechť vektor a A ( 1 ) ( b ) {\displaystyle \scriptstyle {\vec {a}}\in A^{(-1)}({\vec {b}})} leží ve vzoru vektoru b {\displaystyle \scriptstyle {\vec {b}}} (pokud A není prosté, tak ve vzoru leží více vektorů), tj. A ( a ) = b {\displaystyle \scriptstyle A({\vec {a}})={\vec {b}}} . Pak pro vzor A ( 1 ) ( b ) {\displaystyle \scriptstyle A^{(-1)}({\vec {b}})} platí
A ( 1 ) ( b ) = a + ker A , {\displaystyle A^{(-1)}({\vec {b}})={\vec {a}}+\ker A,}

kde ker A {\displaystyle \scriptstyle \ker A} značí jádro zobrazení A.

Důkaz: Dokažme nejprve inkluzi zprava doleva. Mějme libovolný vektor x ker A {\displaystyle \scriptstyle {\vec {x}}\in \ker A} z jádra, pak A ( a + x ) = A ( a ) + A ( x ) = b + 0 = b {\displaystyle \scriptstyle A({\vec {a}}+{\vec {x}})=A({\vec {a}})+A({\vec {x}})={\vec {b}}+{\vec {0}}={\vec {b}}} . Vektor a + x {\displaystyle \scriptstyle {\vec {a}}+{\vec {x}}} tak leží ve vzoru a inkluze je dokázána. Pro důkaz opačné inkluze mějme vektor x A ( 1 ) ( b ) {\displaystyle \scriptstyle {\vec {x}}\in A^{(-1)}({\vec {b}})} ze vzoru, platí tedy A ( x ) = b {\displaystyle \scriptstyle A({\vec {x}})={\vec {b}}} . Současně A ( a ) = b {\displaystyle \scriptstyle A({\vec {a}})={\vec {b}}} a vektor a x {\displaystyle \scriptstyle {\vec {a}}-{\vec {x}}} tedy leží v jádře, neboť A ( a x ) = A ( a ) A ( x ) = b b = 0 {\displaystyle \scriptstyle A({\vec {a}}-{\vec {x}})=A({\vec {a}})-A({\vec {x}})={\vec {b}}-{\vec {b}}={\vec {0}}} . Libovolný vektor x {\displaystyle \scriptstyle {\vec {x}}} ze vzoru A ( 1 ) ( b ) {\displaystyle \scriptstyle A^{(-1)}({\vec {b}})} tak lze zapsat jako součet vektoru a {\displaystyle \scriptstyle {\vec {a}}} a vektoru ( x a ) {\displaystyle \scriptstyle ({\vec {x}}-{\vec {a}})} , kde ( x a ) {\displaystyle \scriptstyle ({\vec {x}}-{\vec {a}})} leží v jádře. Druhá inkluze je tak dokázána.

Prostota zobrazení

  • Lineární zobrazení je prosté tehdy a jen tehdy, leží-li v jeho jádru pouze nulový vektor. V matematické notaci tedy
( A L ( X , Y ) ) ( A  je prosté ker A = { 0 Y } ) . {\displaystyle (\forall A\in {\mathcal {L}}(X,Y))(A{\text{ je prosté}}\Leftrightarrow \ker A=\{{\vec {0}}_{Y}\}).}
Důkaz: Dokažme nejprve implikaci zleva, tj. mějme prosté lineární zobrazení. Neboli pro každé dva vektory x 1 , x 2 X {\displaystyle \scriptstyle {\vec {x}}_{1},{\vec {x}}_{2}\in X} platí A x 1 = A x 2     x 1 = x 2 {\displaystyle \scriptstyle A{\vec {x}}_{1}=A{\vec {x}}_{2}\ \Rightarrow \ {\vec {x}}_{1}={\vec {x}}_{2}} . Přepsáním předchozího tvrzení s využitím linearity A tedy: A ( x 1 x 2 ) = 0 Y     x 1 x 2 = 0 Y {\displaystyle \scriptstyle A({\vec {x}}_{1}-{\vec {x}}_{2})={\vec {0}}_{Y}\ \Rightarrow \ {\vec {x}}_{1}-{\vec {x}}_{2}={\vec {0}}_{Y}} . Když si označíme x x 1 x 2 {\displaystyle \scriptstyle {\vec {x}}\equiv {\vec {x}}_{1}-{\vec {x}}_{2}} , tak tedy A ( x ) = 0 Y     x = 0 Y {\displaystyle \scriptstyle A({\vec {x}})={\vec {0}}_{Y}\ \Rightarrow \ {\vec {x}}={\vec {0}}_{Y}} . Neboli, když nějaký vektor leží v jádru, tak už je nulový. Dokažme nyní opačnou implikaci, tedy nechť v jádru leží jen nulový vektor. Uvažme pak dva vektory x 1 , x 2 X {\displaystyle \scriptstyle {\vec {x}}_{1},{\vec {x}}_{2}\in X} takové, že A x 1 = A x 2 {\displaystyle \scriptstyle A{\vec {x}}_{1}=A{\vec {x}}_{2}} , tj. A ( x 1 x 2 ) = 0 Y {\displaystyle \scriptstyle A({\vec {x}}_{1}-{\vec {x}}_{2})={\vec {0}}_{Y}} . Vektor x 1 x 2 {\displaystyle \scriptstyle {\vec {x}}_{1}-{\vec {x}}_{2}} tedy leží v jádru A. Z předpokladů je ale takový vektor nutně nulový tj. x 1 x 2 = 0 Y {\displaystyle \scriptstyle {\vec {x}}_{1}-{\vec {x}}_{2}={\vec {0}}_{Y}} . Celkově tedy máme A x 1 = A x 2     x 1 = x 2 {\displaystyle \scriptstyle A{\vec {x}}_{1}=A{\vec {x}}_{2}\ \Rightarrow \ {\vec {x}}_{1}={\vec {x}}_{2}} , což jsme chtěli dokázat.
  • Lineární zobrazení konečněrozměrných prostorů stejné dimenze je bijekcí právě, když je prosté nebo když je na. Neboli, máme-li zobrazení A L ( X n , Y n ) {\displaystyle \scriptstyle A\in {\mathcal {L}}(X_{n},Y_{n})} , tak abychom ověřili jeho bijektivnost stačí, abychom ověřili buď jen to, že je prosté, anebo jen to, že je na. V notaci
( X n , Y n , dim X n = dim Y n = n < ) ( A L ( X n , Y n ) ) ( A  je bijekce  ( A  je prosté    A  je na ) ) . {\displaystyle (\forall X_{n},Y_{n},\dim X_{n}=\dim Y_{n}=n<\infty )(\forall A\in {\mathcal {L}}(X_{n},Y_{n}))(A{\text{ je bijekce }}\Leftrightarrow (A{\text{ je prosté }}\lor \ A{\text{ je na}})).}
Důkaz: Implikace zleva doprava vyplývá přímo z definice. Zaměřme se tedy na opačnou implikaci a uvažujme nejprve lineární zobrazení A, o němž víme pouze to, že je prosté. Mějme dále bázi prostoru X, kterou si označíme x 1 , , x n {\displaystyle \scriptstyle {\vec {x}}_{1},\ldots ,{\vec {x}}_{n}} . Pak množina obrazů A ( x 1 ) , , A ( x n ) {\displaystyle \scriptstyle A({\vec {x}}_{1}),\ldots ,A({\vec {x}}_{n})} je z vlastnosti v oddíle Obrazy a vzory vektorů a jejich podprostorů lineárně nezávislá. Jedná se o n-prvkovou podmnožinu lineárně nezávislých vektorů v n-rozměrném prostoru Y, je to tedy báze v Y. Z linearity zobrazení A dokážu každý vektor y Y {\displaystyle \scriptstyle {\vec {y}}\in Y} vyjádřit v bázi A ( x 1 ) , , A ( x n ) {\displaystyle \scriptstyle A({\vec {x}}_{1}),\ldots ,A({\vec {x}}_{n})} jako y = i = 1 n α i A ( x i ) = A ( i = 1 n α i x i ) {\displaystyle \scriptstyle {\vec {y}}=\sum _{i=1}^{n}\alpha _{i}A({\vec {x}}_{i})=A\left(\sum _{i=1}^{n}\alpha _{i}{\vec {x}}_{i}\right)} . K vektoru y Y {\displaystyle \scriptstyle {\vec {y}}\in Y} jsem tak našli jeho vzor i = 1 n α i x i {\displaystyle \scriptstyle \sum _{i=1}^{n}\alpha _{i}{\vec {x}}_{i}} z prostoru X a tedy y A ( X ) {\displaystyle \scriptstyle {\vec {y}}\in A(X)} . Protože jsme volili y {\displaystyle \scriptstyle {\vec {y}}} libovolně, můžeme shrnout, že A ( X ) = Y {\displaystyle \scriptstyle A(X)=Y} . Uvažujme nyní zobrazení A, o němž víme jistě jen to, že je na, tj. pro každý vektor y Y {\displaystyle \scriptstyle {\vec {y}}\in Y} existuje x X {\displaystyle \scriptstyle {\vec {x}}\in X} tak, že A ( x ) = y . {\displaystyle \scriptstyle A({\vec {x}})={\vec {y}}.} Takže i pro bazické vektory y 1 , , y n {\displaystyle \scriptstyle {\vec {y}}_{1},\ldots ,{\vec {y}}_{n}} prostoru Y najdeme takové vektory x 1 , , x n {\displaystyle \scriptstyle {\vec {x}}_{1},\ldots ,{\vec {x}}_{n}} , že A ( x 1 ) = y 1 , , A ( x n ) = y n {\displaystyle \scriptstyle A({\vec {x}}_{1})={\vec {y}}_{1},\ldots ,A({\vec {x}}_{n})={\vec {y}}_{n}} . Protože z vlastností v oddíle Obrazy a vzory vektorů a jejich podprostorů plyne, že vzor lineárně nezávislých vektorů je opět lineárně nezávislý, tak vektory x 1 , , x n {\displaystyle \scriptstyle {\vec {x}}_{1},\ldots ,{\vec {x}}_{n}} tvoří bázi prostoru X. Abychom dokázali, že je A prosté, musíme ukázat, že v jeho jádru leží jen nulový vektor, viz předchozí tvrzení v tomto oddíle. Kdyby v jeho jádře existoval nějaký nenulový vektor obecného tvaru x = i = 1 n α i x i {\displaystyle \scriptstyle {\vec {x}}=\sum _{i=1}^{n}\alpha _{i}{\vec {x}}_{i}} , tak musí platit 0 = A ( x ) = i = 1 n α i A ( x i ) {\displaystyle \scriptstyle {\vec {0}}=A({\vec {x}})=\sum _{i=1}^{n}\alpha _{i}A({\vec {x}}_{i})} . Vektory A ( x i ) {\displaystyle \scriptstyle A({\vec {x}}_{i})} jsme ale na počátku zvolili jako lineárně nezávislé. Jediná lineární kombinace dávající nulový vektor je tedy pouze ta mající všechny koeficienty nulové, tj. α i = 0 {\displaystyle \scriptstyle \alpha _{i}=0} . Neboli vektor x {\displaystyle \scriptstyle {\vec {x}}} je nutně nulový, což je spor s předpokladem.

Věta o dimenzi jádra a obrazu

  • Součet hodnosti a defektu lineárního zobrazení je roven dimenzi definičního oboru. Neboli, mějme lineární zobrazení A L ( X , Y ) {\displaystyle \scriptstyle A\in {\mathcal {L}}(X,Y)} definované na celém X, které je konečné dimenze, tj. dim X < {\displaystyle \scriptstyle \dim X<\infty } . Pak
dim ker A + dim ran  A = dim X , {\displaystyle \dim \ker A+\dim {\text{ran }}A=\dim X,}

kde ker A značí jádro zobrazení A a ran A označuje jeho obor hodnot.

Důkaz: Viz oddíl druhá věta o dimenzi v článku Věty o dimenzi.

Grafická interpretace

Obrázek 1: V levé části obrázku vidíme modrou šipku x m {\displaystyle \scriptstyle {\vec {x}}_{m}} a červenou šipku x c {\displaystyle \scriptstyle {\vec {x}}_{c}} . Když na tyto dvě šipky zapůsobíme identickým operátorem I, tak tyto dvě šipky zůstanou na místě, nezměněny. V následujících obrázcích budeme tyto dvě šipky vykreslovat slabě. V pravé části obrázku pak vidíme malůvku, která bude v následujících obrázcích různě pozměňována vlivem působícího operátoru.

Některým třídám lineárních zobrazení se dá dát přímá grafická interpretace. Lineární zobrazení umožňuje popsat rotace, zvětšování, zmenšování, natahování, zrcadlení podle počátku či zrcadlení podle osy. Pro jednoduchost a snadnou nahlédnutelnost uvažujme vektorový prostor R 2 {\displaystyle \scriptstyle \mathbb {R} ^{2}} , který lze geometricky chápat jako rovinu. Vektory v tomto prostoru si lze představovat jako šipky v rovině, první složku šipky si označme jako x, její druhou složku pak jako y. Šipku samotnou pak označujme symbolem x {\displaystyle \scriptstyle {\vec {x}}} . Na takovémto vektorovém prostoru šipek pak definujme následující lineární operátory, jejichž maticové vyjádření ve standardní bázi zní

I = ( 1 0 0 1 ) , Z = ( 1 0 0 1 ) , O = ( 1 0 0 1 ) , V = ( 2 0 0 2 ) , M = ( 1 2 0 0 1 2 ) , {\displaystyle I={\begin{pmatrix}1&0\\0&1\end{pmatrix}},\quad Z={\begin{pmatrix}-1&0\\0&1\end{pmatrix}},\quad O={\begin{pmatrix}-1&0\\0&-1\end{pmatrix}},\quad V={\begin{pmatrix}2&0\\0&2\end{pmatrix}},\quad M={\begin{pmatrix}{\frac {1}{2}}&0\\0&{\frac {1}{2}}\end{pmatrix}},}
D = ( 2 0 0 1 2 ) , R = ( 1 2 1 2 1 2 1 2 ) . {\displaystyle D={\begin{pmatrix}2&0\\0&{\frac {1}{2}}\end{pmatrix}},\quad R={\begin{pmatrix}{\frac {1}{\sqrt {2}}}&-{\frac {1}{\sqrt {2}}}\\{\frac {1}{\sqrt {2}}}&{\frac {1}{\sqrt {2}}}\end{pmatrix}}.}

Všem těmto operátorům dáme v následujícím jejich geometrickou interpretaci. První operátor I je představován identickou maticí. Očekáváme tedy, že s vektory "nic neudělá". Skutečně,

I ( x ) = ( 1 0 0 1 ) ( x y ) = ( x y ) . {\displaystyle I({\vec {x}})={\begin{pmatrix}1&0\\0&1\end{pmatrix}}\cdot {\begin{pmatrix}x\\y\end{pmatrix}}={\begin{pmatrix}x\\y\end{pmatrix}}.}

Představme si celou věc na šipkách. Mějme tedy šipky x m {\displaystyle \scriptstyle {\vec {x}}_{m}} a x c {\displaystyle \scriptstyle {\vec {x}}_{c}} tak, jak je ukázáno na obrázku 1. Nechť x m {\displaystyle \scriptstyle {\vec {x}}_{m}} je modrá šipka a x c {\displaystyle \scriptstyle {\vec {x}}_{c}} nechť je červená šipka. Pak předchozí rovnice nevyjadřuje nic jiného, než to, že tyto dvě šipky se po působení operátoru I nezmění. Zachovají si svou velikost i směr. Abychom i pro další operátory viděli, jak působí na daném vektorovém prostoru, je účelné si jejich působení představit nejen na šipkách, ale i na výtvarných obrázcích. Pro konkrétnost zde za obrázek vezmeme malůvku vyobrazenou v pravé části obrázku 1. Každý výtvarný obrázek je složen z mnoha různě barevných bodů. Každý bod je přitom jednoznačně popsán svými dvěma souřadnicemi, x-ová souřadnice udává jeho polohu ve vodorovném směru, y-ová souřadnice pak udává jeho polohu ve svislém směru. Podobně i každá šipka alias vektor je jednoznačně popsána svými dvěma souřadnicemi. Každý bod malůvky tedy můžeme ztotožnit se šipkou, která v daném bodě končí. Pro identický operátor I tak platí, že nechává obrázek nezměněn, neboť nemění žádnou šipku, jak jsme výše viděli.

V případě ostatních operátorů je ale situace zajímavější. Šipky budou obecně měnit velikost i směr a malůvka se tak bude různě deformovat, jak vzápětí uvidíme. Na obrázcích 2 až 7 ponecháváme v jejich levé části jak původní dvě šipky, x m {\displaystyle \scriptstyle {\vec {x}}_{m}} a x c {\displaystyle \scriptstyle {\vec {x}}_{c}} , tak i jejich obrazy při daném zobrazení. Původní šipky jsou přitom vykresleny slabě. Pravé části obrázků 2 až 7 pak ukazují, jak se mění malůvka při působení daného zobrazení.

Co obdržíme pro operátor Z? Jeho působení na libovolný vektor zní

Z ( x ) = ( 1 0 0 1 ) ( x y ) = ( x y ) . {\displaystyle Z({\vec {x}})={\begin{pmatrix}-1&0\\0&1\end{pmatrix}}\cdot {\begin{pmatrix}x\\y\end{pmatrix}}={\begin{pmatrix}-x\\y\end{pmatrix}}.}

První složka vektoru je tedy ominusována. Graficky lze působení operátoru Z ukázat na obrázku 2. Z něho je patrné, že operátor Z představuje zrcadlení roviny podle osy y. Dále, pro operátor O dostáváme

O ( x ) = ( 1 0 0 1 ) ( x y ) = ( x y ) . {\displaystyle O({\vec {x}})={\begin{pmatrix}-1&0\\0&-1\end{pmatrix}}\cdot {\begin{pmatrix}x\\y\end{pmatrix}}={\begin{pmatrix}-x\\-y\end{pmatrix}}.}

V tomto případě tedy dochází k ominusování obou složek vektoru. Na obrázku 3 je vidět, jak se tato změna projeví graficky. Vidíme, že operátor O představuje zrcadlení roviny podle počátku souřadnic.

  • Obrázek 2: Při působení operátoru Z se pouze ominusuje x-ová složka šipky, což způsobí, že se šipka překlopí kolem osy y. To odpovídá zrcadlení podle osy y. Na malůvce je tento jev jasně zřetelný, pokud ho porovnáme s původní verzí vyobrazenou na obrázku 1.
    Obrázek 2: Při působení operátoru Z se pouze ominusuje x-ová složka šipky, což způsobí, že se šipka překlopí kolem osy y. To odpovídá zrcadlení podle osy y. Na malůvce je tento jev jasně zřetelný, pokud ho porovnáme s původní verzí vyobrazenou na obrázku 1.
  • Obrázek 3: Působení operátoru O ominusuje obě složky vektoru. Jak vidno z levé strany obrázku, toto odpovídá inverzi souřadnic. Všechny šipky převrátí svůj směr, ale zachovají si svou velikost. Porovnáním malůvky vpravo s tou původní vidíme, že působením operátoru O dochází ke zrcadlení podle počátku souřadnic.
    Obrázek 3: Působení operátoru O ominusuje obě složky vektoru. Jak vidno z levé strany obrázku, toto odpovídá inverzi souřadnic. Všechny šipky převrátí svůj směr, ale zachovají si svou velikost. Porovnáním malůvky vpravo s tou původní vidíme, že působením operátoru O dochází ke zrcadlení podle počátku souřadnic.

Pro operátor V máme

V ( x ) = ( 2 0 0 2 ) ( x y ) = ( 2 x 2 y ) . {\displaystyle V({\vec {x}})={\begin{pmatrix}2&0\\0&2\end{pmatrix}}\cdot {\begin{pmatrix}x\\y\end{pmatrix}}={\begin{pmatrix}2x\\2y\end{pmatrix}}.}

Obě složky výsledného vektoru jsou tedy dvakrát větší, než složky vektoru původního. Graficky tato situace odpovídá dvojnásobnému zvětšení šipky, resp. obrázku, jak je možno nahlédnout na obrázku 4. Naprosto analogicky pak operátor M představuje dvojnásobné zmenšení šipky, jak lze vidět na obrázku 5. Obecně operátor tvaru

α I = ( α 0 0 α ) {\displaystyle \alpha I={\begin{pmatrix}\alpha &0\\0&\alpha \end{pmatrix}}}

odpovídá α {\displaystyle \scriptstyle \alpha } -násobnému prodloužení, resp. zkrácení, šipky. Pokud je α > 1 {\displaystyle \scriptstyle \alpha >1} , pak se jedná o prodloužení, pokud 0 < α < 1 {\displaystyle \scriptstyle 0<\alpha <1} , pak se jedná o zkrácení. Pokud je α {\displaystyle \scriptstyle \alpha } záporné, tak se do hry vkládá i zrcadlení podle počátku souřadnic. Pro α = 1 {\displaystyle \scriptstyle \alpha =-1} dostáváme operátor O z obrázku 3. Pro α < 1 {\displaystyle \scriptstyle \alpha <-1} dochází k současnému zrcadlení podle počátku a navíc prodloužení šipek. Podobně pro 1 < α < 0 {\displaystyle \scriptstyle -1<\alpha <0} dochází k současnému zrcadlení podle počátku a navíc zkrácení šipek. Nakonec pro α = 0 {\displaystyle \scriptstyle \alpha =0} dostáváme nulové zobrazení, které každému vektoru přiřadí nulový vektor, a pro α = 1 {\displaystyle \scriptstyle \alpha =1} získáme identický operátor I.

  • Obrázek 4: Při zobrazení V se každá složka šipky dvakrát zvětší. Šipka si tak zachová svůj směr, ale dvakrát se prodlouží. V souhlase s tím je malůvka vpravo oproti své původní verzi dvakrát větší.
    Obrázek 4: Při zobrazení V se každá složka šipky dvakrát zvětší. Šipka si tak zachová svůj směr, ale dvakrát se prodlouží. V souhlase s tím je malůvka vpravo oproti své původní verzi dvakrát větší.
  • Obrázek 5: Zobrazení M působí podobně jako zobrazení V, pouze místo dvojnásobného zvětšení dochází k dvojnásobnému zmenšení. To můžeme opět lehce nahlédnout jak z tvaru výsledných šipek vlevo, tak z podoby malůvky napravo.
    Obrázek 5: Zobrazení M působí podobně jako zobrazení V, pouze místo dvojnásobného zvětšení dochází k dvojnásobnému zmenšení. To můžeme opět lehce nahlédnout jak z tvaru výsledných šipek vlevo, tak z podoby malůvky napravo.

Operátor V šipky dvakrát prodlužoval, operátor M je naopak dvakrát zkracoval. Šipky lze však i v jedné složce prodlužovat a ve druhé zkracovat. To má na svědomí například operátor D, který x-ovou složku dvakrát zvětší a y-ovou složku naopak dvakrát zmenší, neboť

D ( x ) = ( 2 0 0 1 2 ) ( x y ) = ( 2 x 1 2 y ) . {\displaystyle D({\vec {x}})={\begin{pmatrix}2&0\\0&{\frac {1}{2}}\end{pmatrix}}\cdot {\begin{pmatrix}x\\y\end{pmatrix}}={\begin{pmatrix}2x\\{\frac {1}{2}}y\end{pmatrix}}.}

Na obrázku 6 vidíme, jak toto zobrazení působí. Obraz se roztáhne do šířky a navíc se ve svislém směru "zplácne".

Jako poslední příklad lineárního zobrazení jsme si uvedli operátor R, jenž na libovolný vektor působí jako

R ( x ) = ( 1 2 1 2 1 2 1 2 ) ( x y ) = ( 1 2 x 1 2 y 1 2 x + 1 2 y ) . {\displaystyle R({\vec {x}})={\begin{pmatrix}{\frac {1}{\sqrt {2}}}&-{\frac {1}{\sqrt {2}}}\\{\frac {1}{\sqrt {2}}}&{\frac {1}{\sqrt {2}}}\end{pmatrix}}\cdot {\begin{pmatrix}x\\y\end{pmatrix}}={\begin{pmatrix}{\frac {1}{\sqrt {2}}}x-{\frac {1}{\sqrt {2}}}y\\{\frac {1}{\sqrt {2}}}x+{\frac {1}{\sqrt {2}}}y\end{pmatrix}}.}

Na první pohled není zcela jasné, co toto zobrazení provádí. Nejjednodušší je rovnou pohlédnout na obrázek 7, z něhož zjistíme, že operátor R odpovídá rotaci! Jedná se o otočení vektoru kolem počátku o 45° proti směru hodinových ručiček. Operátor R je příkladem velmi důležitých lineárních operátorů, operátorů rotace. Ve dvou rozměrech mají obecný tvar

( cos ( φ ) sin ( φ ) sin ( φ ) cos ( φ ) ) , {\displaystyle {\begin{pmatrix}\cos(\varphi )&-\sin(\varphi )\\\sin(\varphi )&\cos(\varphi )\end{pmatrix}},}

kde φ R {\displaystyle \scriptstyle \varphi \in \mathbb {R} } je úhel otočení. Skutečně, dosadíme-li za φ {\displaystyle \scriptstyle \varphi } hodnotu π 4 {\displaystyle \scriptstyle {\frac {\pi }{4}}} , tj. 45°, tak se tento obecný tvar matice rotace redukuje na operátor R (neboť sin ( π 4 ) = cos ( π 4 ) = 1 2 {\displaystyle \scriptstyle \sin({\frac {\pi }{4}})=\cos({\frac {\pi }{4}})={\frac {1}{\sqrt {2}}}} ). Naprosto obecně, tj. i ve vyšších dimenzích, jsou rotace vyjadřovány pomocí ortogonálních operátorů, viz oddíl Lineární zobrazení vs. skalární součin.

Nakonec ještě poznamenejme, že ne všechny geometrické operace lze představovat pomocí lineárního zobrazení. Jednou z takovýchto jednoduchých geometrických operací je obyčejné posunutí vektorů. Pro posunutí musíme využít služeb obecnějších zobrazení, než jsou ta lineární. Konkrétně je nutno sáhnout k afinním zobrazením.

  • Obrázek 6: Oproti předcházejícím případům, kdy se vektory jen různě obracely či měnily svou velikost, nyní se dostáváme do zajímavější situace. Operátor D totiž svislou složku šipky dvakrát zmenší a vodorovnou složku dvakrát zvětší. Celkově to vypadá, jako by si šipky "lehaly". Lépe je působení operátoru D viditelné v pravé části, kde je vyobrazeno jeho působení na malůvku. Jak vidíme, malůvka se zplošťuje ve svislém směru a natahuje do šířky.
    Obrázek 6: Oproti předcházejícím případům, kdy se vektory jen různě obracely či měnily svou velikost, nyní se dostáváme do zajímavější situace. Operátor D totiž svislou složku šipky dvakrát zmenší a vodorovnou složku dvakrát zvětší. Celkově to vypadá, jako by si šipky "lehaly". Lépe je působení operátoru D viditelné v pravé části, kde je vyobrazeno jeho působení na malůvku. Jak vidíme, malůvka se zplošťuje ve svislém směru a natahuje do šířky.
  • Obrázek 7: Z levé části obrázku by se dalo uhodnout, že operátor R otáčí šipky proti směru hodinových ručiček o jistý úhel. Opět zřetelněji je působení tohoto operátoru viditelné na malůvce vpravo. Skutečně se jedná o otočení vektorů proti směru hodinových ručiček a to o 45 stupňů.
    Obrázek 7: Z levé části obrázku by se dalo uhodnout, že operátor R otáčí šipky proti směru hodinových ručiček o jistý úhel. Opět zřetelněji je působení tohoto operátoru viditelné na malůvce vpravo. Skutečně se jedná o otočení vektorů proti směru hodinových ručiček a to o 45 stupňů.

Nekonečněrozměrné prostory

Podrobnější informace naleznete v článku Omezené lineární zobrazení.

Vlastnosti lineárních zobrazení definovaných na konečněrozměrných vektorových prostorech jsou pěkné a snadno se s takovýmito zobrazeními pracuje. Každé takové zobrazení lze představovat jeho maticí v nějaké bázi a veškerá práce s tímto zobrazením se redukuje na úpravu matic. V případě zobrazení definovaných na nekonečněrozměrných vektorových prostorech je ale situace složitější. Zde nelze matici zobrazení, tak jak byla definována výše, použít a celá věc se komplikuje. Příkladem lineárního zobrazení, které působí na nekonečněrozměrném vektorovém prostoru, je například derivace či integrál, viz Příklad 3. Množina lineárních zobrazení na nekonečněrozměrných prostorech je mnohem bohatší než v případě konečněrozměrných prostorů. Matematici se tak v této ohromné množině zaměřují na její jisté podmnožiny, které jsou tvořeny dostatečně pěknými zobrazeními. Cílem je vždy seskupit do jedné podmnožiny ta zobrazení, která mají společnou nějakou vlastnost, jež umožňuje, že se s těmito zobrazeními snáze pracuje.

Jednou z takových podmnožin je podmmožina tvořená omezenými lineárními zobrazeními, kterou si nyní definujeme. Uvažujme nejprve normované vektorové prostory X, Y nad týmž číselným tělesem, kde X {\displaystyle \scriptstyle \|\cdot \|_{X}} nechť je norma na prostoru X a Y {\displaystyle \scriptstyle \|\cdot \|_{Y}} nechť je norma na prostoru Y. Pak říkáme, že lineární zobrazení B : X Y {\displaystyle \scriptstyle B:X\to Y} je omezené, jestliže existuje kladná konstanta c > 0 {\displaystyle \scriptstyle c>0} taková, že pro všechny vektory x X {\displaystyle \scriptstyle {\vec {x}}\in X} platí

B ( x ) Y c x X . {\displaystyle \|B({\vec {x}})\|_{Y}\leq c\|{\vec {x}}\|_{X}.}

Pokud X=Y, nazývá se odpovídající zobrazení omezený (lineární) operátor.

Podobně jako v případě klasických lineárních zobrazení i na množině všech omezených lineárních zobrazení lze definovat jejich součet a násobení číslem. Lze dokonce ukázat, že množina všech takovýchto zobrazení tvoří vektorový prostor. Na tomto vektorovém prostoru lze navíc zavést normu {\displaystyle \scriptstyle \|\cdot \|} omezeného lineárního zobrazení B {\displaystyle \scriptstyle B} následovně

B sup x X , x X = 1 B ( x ) Y . {\displaystyle \|B\|\equiv \sup _{{\vec {x}}\in X,\|{\vec {x}}\|_{X}=1}\|B({\vec {x}})\|_{Y}.}

Jinými slovy je norma omezeného lineárního zobrazení rovna nejmenšímu číslu c > 0 {\displaystyle \scriptstyle c>0} vystupujícímu v definici tohoto zobrazení, jak je podána výše.

Dále lze ukázat, že množina omezených lineárních zobrazení splývá s množinou spojitých lineárních zobrazení. Všechna ostatní lineární zobrazení, která nejsou omezená, tj. nejsou spojitá, se nazývají neomezená. Pokud použijeme výše uvedenou definici omezeného lineárního zobrazení na konečněrozměrné prostory zjistíme, že každé lineární zobrazení definované na konečněrozměrném prostoru je omezené. Na konečněrozměrných prostorech zavádět omezená zobrazení tedy nemá smysl. Na nekonečněrozměrných prostorech však tvoří omezená zobrazení malou podmnožinu všech lineárních zobrazení. Omezené operátory jsou natolik pěkná zobrazení, že pro ně platí mnoho tvrzení z případu konečněrozměrných prostorů.

Kromě omezených zobrazení a operátorů se vydělují i další speciální třídy lineárních zobrazení a operátorů definovaných na nekonečněrozměrných prostorech, jako třeba:

  • uzavřené operátory
  • kompaktní operátory
  • jaderné operátory
  • statistické operátory

a další. Pro podrobnější informace viz odpovídající hesla.

Příklad omezeného operátoru

Jako velmi triviální příklad omezeného zobrazení si uveďme operátor na prostoru kvadraticky integrabilních funkcí definovaných na intervalu ( 0 , 1 ) R {\displaystyle \scriptstyle (0,1)\subset \mathbb {R} } . Konkrétně nechť T : L 2 ( 0 , 1 ) L 2 ( 0 , 1 ) {\displaystyle \scriptstyle T:L^{2}(0,1)\to L^{2}(0,1)} s funkčním vztahem

T ( f ) ( x ) = x 0 1 f ( t ) d t , {\displaystyle T(f)(x)=x\int _{0}^{1}f(t)\,dt,}

kde f L 2 ( 0 , 1 ) {\displaystyle \scriptstyle f\in L^{2}(0,1)} . Jedná se tedy o zobrazení, které vezme funkci, tu zintegruje od nuly do jedničky, čímž dostane číslo, a tímto číslem pak násobí nezávisle proměnnou x. Pro konkrétní funkci f je výraz T ( f ) {\displaystyle \scriptstyle T(f)} tedy lineární funkce, která je tvaru

T ( f ) ( x ) = K x , {\displaystyle \scriptstyle T(f)(x)=Kx,}

kde K = 0 1 f ( t ) d t {\displaystyle \scriptstyle K=\int _{0}^{1}f(t)dt} je číslo závisející na funkci f. Ukažme nyní, že T je skutečně lineární omezené zobrazení. Linearita je zjevná, neboť

T ( α f + g ) ( x ) = x 0 1 ( α f ( t ) + g ( x ) ) d t = x ( α 0 1 f ( t ) d t + 0 1 g ( t ) d t ) = α x 0 1 f ( t ) d t + x 0 1 g ( t ) d t = α T ( f ) ( x ) + T ( g ) ( x ) , {\displaystyle T(\alpha f+g)(x)=x\int _{0}^{1}(\alpha f(t)+g(x))dt=x\left(\alpha \int _{0}^{1}f(t)dt+\int _{0}^{1}g(t)dt\right)=\alpha x\int _{0}^{1}f(t)dt+x\int _{0}^{1}g(t)dt=\alpha T(f)(x)+T(g)(x),}

kde jsme využili linearity integrálu, viz Příklad 3. Ukažme nyní omezenost:

T ( f ) 0 1 | T ( f ) ( x ) | 2 d x = 0 1 | x 0 1 f ( t ) d t | 2 d x = 0 1 | x | 2 d x | 0 1 f ( t ) d t | 2 = 1 3 | 0 1 f ( t ) d t | , {\displaystyle \|T(f)\|\equiv {\sqrt {\int _{0}^{1}|T(f)(x)|^{2}dx}}={\sqrt {\int _{0}^{1}\left|x\int _{0}^{1}f(t)dt\right|^{2}dx}}={\sqrt {\int _{0}^{1}|x|^{2}dx\left|\int _{0}^{1}f(t)dt\right|^{2}}}={\frac {1}{\sqrt {3}}}\left|\int _{0}^{1}f(t)dt\right|,}

kde jsme využili rovnosti 0 1 | x | 2 d x = [ x 3 / 3 ] 0 1 = 1 / 3 {\displaystyle \scriptstyle \int _{0}^{1}|x|^{2}dx=[x^{3}/3]_{0}^{1}=1/3} . Nyní můžeme absolutní hodnotu odhadnout pomocí známého vztahu z teorie integrálu jako

1 3 | 0 1 f ( t ) d t | 1 3 0 1 | f ( t ) | d t . {\displaystyle {\frac {1}{\sqrt {3}}}\left|\int _{0}^{1}f(t)dt\right|\leq {\frac {1}{\sqrt {3}}}\int _{0}^{1}|f(t)|dt.}

Nakonec můžeme využít Hölderovy nerovnosti (resp. Schwarzovy nerovnosti), kde položíme g ( t ) = 1 {\displaystyle \scriptstyle g(t)=1} , abychom obdrželi vztah

1 3 0 1 | f ( t ) | d t = 1 3 0 1 | f ( t ) | | g ( t ) | d t 1 3 0 1 | f ( t ) | 2 d t 0 1 | g ( t ) | 2 d t = 1 3 0 1 | f ( t ) | 2 d t , {\displaystyle {\frac {1}{\sqrt {3}}}\int _{0}^{1}|f(t)|dt={\frac {1}{\sqrt {3}}}\int _{0}^{1}|f(t)||g(t)|dt\leq {\frac {1}{\sqrt {3}}}{\sqrt {\int _{0}^{1}|f(t)|^{2}dt}}{\sqrt {\int _{0}^{1}|g(t)|^{2}dt}}={\frac {1}{\sqrt {3}}}{\sqrt {\int _{0}^{1}|f(t)|^{2}dt}},}

kde jsme využili rovnosti 0 1 | g ( t ) | 2 d t = 0 1 1 d t = 1 {\displaystyle \scriptstyle \int _{0}^{1}|g(t)|^{2}dt=\int _{0}^{1}1dt=1} . Poslední výraz je ale až na konstantu roven normě funkce f, to jest

1 3 0 1 | f ( t ) | 2 d t = 1 3 f . {\displaystyle {\frac {1}{\sqrt {3}}}{\sqrt {\int _{0}^{1}|f(t)|^{2}dt}}={\frac {1}{\sqrt {3}}}\|f\|.}

Celkem tedy máme nerovnost

T ( f ) 1 3 f {\displaystyle \|T(f)\|\leq {\frac {1}{\sqrt {3}}}\|f\|}

a z definice omezeného zobrazení tedy plyne, že operátor T je omezený.

Příklady

Příklad 1 – Lineární funkce

V oddíle Motivace výše jsme si uvedli lineární funkce jako patrně nejjednodušší příklad lineárních zobrazení. V této souvislosti je však nutno upozornit na poněkud matoucí názvosloví. Obecná lineární funkce totiž není lineární zobrazení. Jak bylo uvedeno v Motivaci, lineární funkce je lineární zobrazení právě, když má nulový absolutní člen. Neboli funkce

f ( x ) = a x + b , {\displaystyle f(x)=ax+b,}

kde a , b R {\displaystyle \scriptstyle a,b\in \mathbb {R} } , je lineární právě, když b = 0 {\displaystyle \scriptstyle b=0} . Z toho plyne, že přímá úměrnost je vlastně lineární zobrazení. Pokud je b 0 {\displaystyle \scriptstyle b\neq 0} , tak je funkce f výše příkladem afinního zobrazení.

Příklad 2 – Matice zobrazení

Na konečněrozměrných prostorech lze každé lineární zobrazení představovat pomocí jeho matice zobrazení. Jedná se o natolik výhodný způsob zápisu, že se při praktických výpočtech v podstatě nepracuje s ničím jiným. (Na nekonečněrozměrných prostorech je situace složitější, viz oddíl výše.) Matice daného zobrazení mění svůj tvar v závislosti na zvolené bázi. Uvažujme pro konkrétnost lineární operátor A na prostoru R 3 {\displaystyle \scriptstyle \mathbb {R} ^{3}} , jehož matice vyjádřená ve standardní bázi má tvar

( 1 2 4 0 3 9 5 3 1 ) . {\displaystyle {\begin{pmatrix}1&2&-4\\0&-3&9\\5&3&1\end{pmatrix}}.}

Když máme vektor x {\displaystyle \scriptstyle {\vec {x}}} a chceme zjistit, jak vypadá jeho obraz při zobrazení A (tj. jak vypadá A ( x ) {\displaystyle \scriptstyle A({\vec {x}})} ), tak jím stačí přenásobit matici zobrazení A. Pro konkrétnost například obraz vektoru x 0 {\displaystyle \scriptstyle {\vec {x}}_{0}} , kde

x 0 = ( 1 2 0 ) , {\displaystyle {\vec {x}}_{0}={\begin{pmatrix}1\\2\\0\end{pmatrix}},}

při zobrazení A vypadá následovně

A ( x 0 ) = ( 1 2 4 0 3 9 5 3 1 ) ( 1 2 0 ) = ( 5 6 11 ) . {\displaystyle A({\vec {x}}_{0})={\begin{pmatrix}1&2&-4\\0&-3&9\\5&3&1\end{pmatrix}}\cdot {\begin{pmatrix}1\\2\\0\end{pmatrix}}={\begin{pmatrix}5\\-6\\11\end{pmatrix}}.}

Ke stejnému výsledku bychom ale dospěli i tehdy, měli-li bychom matici i vektor x 0 {\displaystyle \scriptstyle {\vec {x}}_{0}} vyjádřeny v jiné bázi. V takovém případě je nutno místo vektoru samotného brát jeho jednotlivé souřadnice v dané bázi a těmi teprve přenásobit odpovídající matici zobrazení. Pro názornost nyní místo standardní báze uvažujme bázi tvaru

b 1 = ( 1 1 0 ) , b 2 = ( 1 1 0 ) , b 1 = ( 0 0 1 ) . {\displaystyle {\vec {b}}_{1}={\begin{pmatrix}1\\-1\\0\end{pmatrix}},\quad {\vec {b}}_{2}={\begin{pmatrix}1\\1\\0\end{pmatrix}},\quad {\vec {b}}_{1}={\begin{pmatrix}0\\0\\1\end{pmatrix}}.}

Vektor x 0 {\displaystyle \scriptstyle {\vec {x}}_{0}} zmíněný výše lze v této bázi vyjádřit následovně:

x 0 = ( 1 2 0 ) = 1 2 ( 1 1 0 ) + 3 2 ( 1 1 0 ) + 0 ( 0 0 1 ) = 1 2 b 1 + 3 2 b 2 + 0 b 3 . {\displaystyle {\vec {x}}_{0}={\begin{pmatrix}1\\2\\0\end{pmatrix}}=-{\frac {1}{2}}\cdot {\begin{pmatrix}1\\-1\\0\end{pmatrix}}+{\frac {3}{2}}\cdot {\begin{pmatrix}1\\1\\0\end{pmatrix}}+0\cdot {\begin{pmatrix}0\\0\\1\end{pmatrix}}=-{\frac {1}{2}}{\vec {b}}_{1}+{\frac {3}{2}}{\vec {b}}_{2}+0{\vec {b}}_{3}.}

Souřadnice vektoru x 0 {\displaystyle \scriptstyle {\vec {x}}_{0}} v naší nové bázi jsou tedy ( 1 2 , 3 2 , 0 ) {\displaystyle \scriptstyle (-{\frac {1}{2}},{\frac {3}{2}},0)} . Pokud bychom podobně vyjádřili matici zobrazení A v této nové bázi, obdrželi bychom matici ve tvaru

( 2 3 13 2 1 0 5 2 2 8 1 ) . {\displaystyle {\begin{pmatrix}-2&3&-{\frac {13}{2}}\\1&0&{\frac {5}{2}}\\2&8&1\end{pmatrix}}.}

O tom, jak se převádí matice zobrazení mezi bázemi, viz oddíl Matice zobrazení výše a oddíl Přechod mezi bázemi v článku Báze (lineární algebra). Zapůsobíme-li touto maticí na souřadnice vektoru x 0 {\displaystyle \scriptstyle {\vec {x}}_{0}} , dostaneme

( 2 3 13 2 1 0 5 2 2 8 1 ) ( 1 2 3 2 0 ) = ( 11 2 1 2 11 ) . {\displaystyle {\begin{pmatrix}-2&3&-{\frac {13}{2}}\\1&0&{\frac {5}{2}}\\2&8&1\end{pmatrix}}\cdot {\begin{pmatrix}-{\frac {1}{2}}\\{\frac {3}{2}}\\0\end{pmatrix}}={\begin{pmatrix}{\frac {11}{2}}\\-{\frac {1}{2}}\\11\end{pmatrix}}.}

Sloupek za poslední rovností určuje souřadnice vektoru A ( x 0 ) {\displaystyle \scriptstyle A({\vec {x}}_{0})} v bázi { b 1 , b 2 , b 3 } {\displaystyle \scriptstyle \{{\vec {b}}_{1},{\vec {b}}_{2},{\vec {b}}_{3}\}} . Platí tedy

A ( x 0 ) = 11 2 b 1 1 2 b 2 + 11 b 3 = 11 2 ( 1 1 0 ) 1 2 ( 1 1 0 ) + 11 ( 0 0 1 ) = ( 5 6 11 ) {\displaystyle A({\vec {x}}_{0})={\frac {11}{2}}{\vec {b}}_{1}-{\frac {1}{2}}{\vec {b}}_{2}+11{\vec {b}}_{3}={\frac {11}{2}}\cdot {\begin{pmatrix}1\\-1\\0\end{pmatrix}}-{\frac {1}{2}}\cdot {\begin{pmatrix}1\\1\\0\end{pmatrix}}+11\cdot {\begin{pmatrix}0\\0\\1\end{pmatrix}}={\begin{pmatrix}5\\-6\\11\end{pmatrix}}} .

Výsledný vektor je tedy tentýž jako když jsme počítali ve standardní bázi. Ukázali jsme tak, že ačkoli se tvar matice téhož zobrazení v různých bázích mění, výsledky jsou vždy stejné. Výběr báze tak neovlivní tvar výsledných vektorů vzniklých působením zobrazení A. V tuto chvíli si osvětleme, proč můžeme ve standardní bázi brát místo souřadnic vektoru rovnou jeho složky. Ve standardní bázi totiž platí, že souřadnice je totéž co složka vektoru. Standardní báze vektorového prostoru R 3 {\displaystyle \scriptstyle \mathbb {R} ^{3}} je tvořena následujícími třemi vektory:

e 1 = ( 1 0 0 ) , e 2 = ( 0 1 0 ) , e 1 = ( 0 0 1 ) . {\displaystyle {\vec {e}}_{1}={\begin{pmatrix}1\\0\\0\end{pmatrix}},\quad {\vec {e}}_{2}={\begin{pmatrix}0\\1\\0\end{pmatrix}},\quad {\vec {e}}_{1}={\begin{pmatrix}0\\0\\1\end{pmatrix}}.}

Standardní báze má tu význačnou vlastnost, že souřadnice daného vektoru v této bázi je rovna jeho odpovídající složce. To lze snadno vidět, rozepíšeme-li si libovolný vektor x R 3 {\displaystyle \scriptstyle {\vec {x}}\in \mathbb {R} ^{3}} do tvaru

x = ( x 1 x 2 x 3 ) = x 1 ( 1 0 0 ) + x 2 ( 0 1 0 ) + x 3 ( 0 0 1 ) = x 1 e 1 + x 2 e 2 + x 3 e 3 . {\displaystyle {\vec {x}}={\begin{pmatrix}x_{1}\\x_{2}\\x_{3}\end{pmatrix}}=x_{1}{\begin{pmatrix}1\\0\\0\end{pmatrix}}+x_{2}{\begin{pmatrix}0\\1\\0\end{pmatrix}}+x_{3}{\begin{pmatrix}0\\0\\1\end{pmatrix}}=x_{1}{\vec {e}}_{1}+x_{2}{\vec {e}}_{2}+x_{3}{\vec {e}}_{3}.}

Jak vidno, tak platí, že první souřadnice vektoru x {\displaystyle \scriptstyle {\vec {x}}} ve standardní bázi je rovna x 1 {\displaystyle \scriptstyle x_{1}} , jeho druhá souřadnice ve standardní bázi je rovna x 2 {\displaystyle \scriptstyle x_{2}} a konečně jeho třetí souřadnice ve standardní bázi je rovna x 3 {\displaystyle \scriptstyle x_{3}} . To v jiných bázích obecně neplatí. Když tedy chceme zjistit tvar vektoru A ( x ) {\displaystyle \scriptstyle A({\vec {x}})} , stačí vektorem x {\displaystyle \scriptstyle {\vec {x}}} přenásobit matici zobrazení uvedenou výše.

Příklad 3 – Derivace a integrál

Derivování a integrování jsou velmi důležitými příklady lineárních zobrazení. V matematické analýze lze totiž dokázat, že platí následující vztahy

d d x ( α f ( x ) + g ( x ) ) = α d d x ( f ( x ) ) + d d x ( g ( x ) ) a a b ( α f ( x ) + g ( x ) ) d x = α a b ( f ( x ) ) d x + a b ( g ( x ) ) d x , {\displaystyle {\frac {d}{dx}}(\alpha f(x)+g(x))=\alpha {\frac {d}{dx}}(f(x))+{\frac {d}{dx}}(g(x))\quad {\text{a}}\quad \int _{a}^{b}(\alpha f(x)+g(x))dx=\alpha \int _{a}^{b}(f(x))dx+\int _{a}^{b}(g(x))dx,}

kde α R {\displaystyle \scriptstyle \alpha \in \mathbb {R} } je nějaká konstanta a čísla a , b R {\displaystyle \scriptstyle a,b\in \mathbb {R} } jsou meze integrování. Pokud si označíme

D e r ( f ) ( x ) = d d x f ( x ) a I n t ( f ) = a b f ( x ) d x , {\displaystyle \mathrm {Der} (f)(x)={\frac {d}{dx}}f(x)\quad {\text{a}}\quad \mathrm {Int} (f)=\int _{a}^{b}f(x)dx,}

tak se nám výše uvedené rovnosti redukují do tvaru

D e r ( α f + g ) = α D e r ( f ) + D e r ( g ) a I n t ( α f + g ) = α I n t ( f ) + I n t ( g ) . {\displaystyle \mathrm {Der} (\alpha f+g)=\alpha \,\mathrm {Der} (f)+\mathrm {Der} (g)\quad {\text{a}}\quad \mathrm {Int} (\alpha f+g)=\alpha \,\mathrm {Int} (f)+\mathrm {Int} (g).}

Vidíme tedy, že derivace a integrál jsou skutečně lineární zobrazení. Formálněji řečeno, derivaci lze chápat jako lineární zobrazení definované na vektorovém prostoru diferencovatelných funkcí. Uvažujme tedy množinu všech reálných funkcí reálné proměnné, které jsou diferencovatelné, tj. mají derivaci. Tuto množinu si označme M {\displaystyle \scriptstyle M} , tedy

M = { f : R R | f  je diferencovatelná } . {\displaystyle M=\{f:\mathbb {R} \to \mathbb {R} |f{\text{ je diferencovatelná}}\}.}

O této množině lze snadno ukázat, že tvoří vektorový prostor. Podobně lze i o množině všech reálných funkcí reálné proměnné ukázat, že je též vektorový prostor. Označme si množinu všech takovýchto funkcí jako V {\displaystyle \scriptstyle V} . Množina M {\displaystyle \scriptstyle M} je tedy podprostorem množiny všech funkcí V {\displaystyle \scriptstyle V} . Derivace je pak zobrazení, které zobrazuje z vektorového prostoru M {\displaystyle \scriptstyle M} do vektorového prostoru V {\displaystyle \scriptstyle V} a je přitom lineární. Neboli

D e r L ( M , V ) . {\displaystyle \mathrm {Der} \in {\mathcal {L}}(M,V).}

Podobné úvahy lze provézt i pro integrál. V takovém případě bereme za množinu M {\displaystyle \scriptstyle M} množinu všech integrabilních funkcí. Vše ostatní je pak analogické případu pro derivaci. Derivace a integrál jsou současně i příkladem lineárních zobrazení na nekonečněrozměrných prostorech. Vektorový prostor M {\displaystyle \scriptstyle M} je totiž nekonečné dimenze.


Příklad 4 – Jádro zobrazení

V tomto příkladu si ukážeme, jak hledat jádro jednoduchých lineárních zobrazení na konečněrozměrných prostorech. Tato zobrazení lze elegantně zapisovat pomocí jejich matice. Pro konkrétnost mějme nejprve lineární operátor A na prostoru trojic čísel R 3 {\displaystyle \scriptstyle \mathbb {R} ^{3}} , jehož matice vypadá následovně (viz Příklad 2 výše)

( 1 2 4 0 3 9 5 3 1 ) . {\displaystyle {\begin{pmatrix}1&2&-4\\0&-3&9\\5&3&1\end{pmatrix}}.}

U každé matice zobrazení je vždy nutno uvést, v jakých je vyjádřena bázích. Matice výše je vyjádřena ve standardní bázi, což je typická volba při naprosté většině aplikací. Naším úkolem je najít jádro operátoru A. Hledáme tedy takové vektory x R 3 {\displaystyle \scriptstyle {\vec {x}}\in \mathbb {R} ^{3}} , které splňují vlastnost

A ( x ) = 0 . {\displaystyle A({\vec {x}})={\vec {0}}.}

Vyjádřeno ve standardní bázi:

( 1 2 4 0 3 9 5 3 1 ) ( x 1 x 2 x 3 ) = ( 0 0 0 ) . {\displaystyle {\begin{pmatrix}1&2&-4\\0&-3&9\\5&3&1\end{pmatrix}}\,{\begin{pmatrix}x_{1}\\x_{2}\\x_{3}\end{pmatrix}}={\begin{pmatrix}0\\0\\0\end{pmatrix}}.}

Máme tak maticovou rovnici, jež je ekvivalentní následující soustavě rovnic:

x 1 + 2 x 2 4 x 3 = 0 , 3 x 2 + 9 x 3 = 0 , 5 x 1 + 3 x 2 + x 3 = 0. {\displaystyle x_{1}+2x_{2}-4x_{3}=0,\quad -3x_{2}+9x_{3}=0,\quad 5x_{1}+3x_{2}+x_{3}=0.}

Soustava lineárních rovnic se dá lehce vyřešit úpravou matice výše. Dostáváme

( 1 2 4 0 3 9 5 3 1 ) ( 1 2 4 0 3 9 0 7 21 ) ( 1 2 4 0 1 3 0 1 3 ) ( 1 2 4 0 1 3 0 0 0 ) ( 1 0 2 0 1 3 0 0 0 ) . {\displaystyle {\begin{pmatrix}1&2&-4\\0&-3&9\\5&3&1\end{pmatrix}}\sim {\begin{pmatrix}1&2&-4\\0&-3&9\\0&-7&21\end{pmatrix}}\sim {\begin{pmatrix}1&2&-4\\0&-1&3\\0&-1&3\end{pmatrix}}\sim {\begin{pmatrix}1&2&-4\\0&-1&3\\0&0&0\end{pmatrix}}\sim {\begin{pmatrix}1&0&2\\0&-1&3\\0&0&0\end{pmatrix}}.}

V prvním kroku jsme od třetího řádku odečetli pětinásobek prvního řádku. Ve druhém kroku jsme druhý řádek vydělili trojkou a třetí řádek vydělili sedmičkou a ve třetím kroku jsme od třetího řádku odečetli řádek druhý. V posledním kroku jsme k prvnímu řádku přičetli dvojnásobek druhého řádku. Máme tak matici vyjádřenou v horním trojúhelníkovém tvaru, ze kterého lze řešení vyčíst velmi rychle. Protože vyšel třetí řádek ze samých nul, bude jádro našeho operátoru obsahovat nenulový vektor, jak uvidíme vzápětí. Naši maticovou rovnici jsme si tak upravili do tvaru

( 1 0 2 0 1 3 0 0 0 ) ( x 1 x 2 x 3 ) = ( 0 0 0 ) . {\displaystyle {\begin{pmatrix}1&0&2\\0&-1&3\\0&0&0\end{pmatrix}}\,{\begin{pmatrix}x_{1}\\x_{2}\\x_{3}\end{pmatrix}}={\begin{pmatrix}0\\0\\0\end{pmatrix}}.}

Nulovost třetího řádku nám dovoluje zvolit složku x 3 {\displaystyle \scriptstyle x_{3}} libovolně. Z druhého řádku pak plyne x 2 = 3 x 3 {\displaystyle \scriptstyle x_{2}=3x_{3}} a z prvního x 1 = 2 x 3 {\displaystyle \scriptstyle x_{1}=-2x_{3}} . Celkem vzato, vektor x {\displaystyle \scriptstyle {\vec {x}}} leží v jádře operátoru A právě, když je tvaru

x = ( 2 x 3 3 x 3 x 3 ) . {\displaystyle {\vec {x}}={\begin{pmatrix}-2x_{3}\\3x_{3}\\x_{3}\end{pmatrix}}.}

Jádro operátoru A je tedy množina, která je rovna lineárnímu obalu tohoto vektoru

ker A = { ( 2 3 1 ) } lin . {\displaystyle \ker A=\left\{{\begin{pmatrix}-2\\3\\1\end{pmatrix}}\right\}_{\text{lin}}.}

Nakonec můžeme ověřit, že na vektory daného tvaru dá zobrazení A skutečně nulový vektor. Vezmeme-li původní vyjádření matice A ve standardní bázi, máme

( 1 2 4 0 3 9 5 3 1 ) ( 2 3 1 ) = ( 1 ( 2 ) + 2 3 4 1 0 ( 2 ) 3 3 + 9 1 5 ( 2 ) + 3 3 + 1 1 ) = ( 0 0 0 ) . {\displaystyle {\begin{pmatrix}1&2&-4\\0&-3&9\\5&3&1\end{pmatrix}}\,{\begin{pmatrix}-2\\3\\1\end{pmatrix}}={\begin{pmatrix}1\cdot (-2)+2\cdot 3-4\cdot 1\\0\cdot (-2)-3\cdot 3+9\cdot 1\\5\cdot (-2)+3\cdot 3+1\cdot 1\end{pmatrix}}={\begin{pmatrix}0\\0\\0\end{pmatrix}}.}

Skutečně tedy dostáváme nulový vektor, jak jsme chtěli.

Příklad 5 – Vlastní čísla

Na příkladu lineárního operátoru A z předchozího příkladu si ukažme hledání jeho vlastních čísel. Zde si ukážeme jen postup, jak taková čísla najít, pro podrobnosti o námi použité metodě viz článek o vlastních číslech. Mějme tedy opět operátor A, jehož matice ve standardní bázi vypadá jako

( 1 2 4 0 3 9 5 3 1 ) . {\displaystyle {\begin{pmatrix}1&2&-4\\0&-3&9\\5&3&1\end{pmatrix}}.}

Chceme najít všechna čísla λ R {\displaystyle \scriptstyle \lambda \in \mathbb {R} } splňující vztah

A ( x ) = λ x , {\displaystyle A({\vec {x}})=\lambda {\vec {x}},}

pro nějaký vektor x R 3 {\displaystyle \scriptstyle {\vec {x}}\in \mathbb {R} ^{3}} . Pravou stranu uvedené rovnice si můžeme představit jako zobrazení λ I {\displaystyle \scriptstyle \lambda \cdot I} působící na vektor x {\displaystyle \scriptstyle {\vec {x}}} , kde I {\displaystyle \scriptstyle I} značí identitu. Výše uvedenou rovnici lze tedy přepsat do tvaru

( A λ I ) ( x ) = 0 . {\displaystyle (A-\lambda I)({\vec {x}})={\vec {0}}.}

Neboli číslo λ {\displaystyle \scriptstyle \lambda } je vlastním číslem právě, když v jádře zobrazení ( A λ I ) {\displaystyle \scriptstyle (A-\lambda I)} leží nenulový vektor. V předchozím příkladě jsme hledali jádro zobrazení A, nyní chceme najít jádro zobrazení ( A λ I ) {\displaystyle \scriptstyle (A-\lambda I)} , kde λ {\displaystyle \scriptstyle \lambda } vystupuje jako neznámý parametr. Můžeme tedy postupovat podobným způsobem jako v předchozím příkladě, kde nyní pracujeme s maticí pro zobrazení ( A λ I ) {\displaystyle \scriptstyle (A-\lambda I)} , jež vypadá následovně

( 1 λ 2 4 0 3 λ 9 5 3 1 λ ) . {\displaystyle {\begin{pmatrix}1-\lambda &2&-4\\0&-3-\lambda &9\\5&3&1-\lambda \end{pmatrix}}.}

Na konci bychom obdrželi nějaké vektory parametrizované pomocí čísla λ {\displaystyle \scriptstyle \lambda } a museli bychom zjišťovat, pro které hodnoty λ {\displaystyle \scriptstyle \lambda } tyto vektory skutečně leží v jádře. Existuje ale mnohem jednodušší metoda hledání vlastních čísel. V lineární algebře se dokazuje, že v jádru matice leží nenulový vektor právě, když její determinant je roven nule. Stačí tedy zjistit, pro které hodnoty čísla λ {\displaystyle \scriptstyle \lambda } je det ( A λ I ) = 0 {\displaystyle \scriptstyle \det(A-\lambda I)=0} . V našem případě je determinant matice pro ( A λ I ) {\displaystyle \scriptstyle (A-\lambda I)} roven

det ( A λ I ) = λ ( λ + 4 ) ( λ 3 ) . {\displaystyle \det(A-\lambda I)=-\lambda (\lambda +4)(\lambda -3).}

Aby byl tedy determinant nulový, tak stačí položit λ = 0 {\displaystyle \scriptstyle \lambda =0} , λ = 4 {\displaystyle \scriptstyle \lambda =-4} nebo λ = 3 {\displaystyle \scriptstyle \lambda =3} . Vlastní čísla operátoru A jsou tedy

λ 1 = 0 ,   λ 2 = 4 ,   λ 3 = 3. {\displaystyle \lambda _{1}=0,\ \lambda _{2}=-4,\ \lambda _{3}=3.}

Příklad 6 – Linearizace

Obr.: Kyvadlo – závaží o hmotnosti m na závěsu délky l, které se volně kýve v gravitačním poli o gravitačním zrychlení g. Zelená přerušovaná šipka naznačuje trajektorii kyvů, šedá zdůrazňuje závěs, modrá představuje tíhovou sílu. Červená přerušovaná šipka označuje tečnu kyvů. Fialové šipky pak představují dvě složky tíhové síly, jedna složka míří ve směru závěsu a na pohybu kyvadla se neprojeví. Naproti tomu druhá složka ve směru tečny se projeví a její velikost je rovna m g sin ( θ ) {\displaystyle \scriptstyle m\,g\,\sin(\theta )} . Zde je vyznačena pouze velikost síly, není vyznačen její směr. Ve vzorci v textu je bráno minus, které zohledňuje i směr síly.

Jak bylo předestřeno v úvodu článku, lineární zobrazení jsou velmi důležitá mimo jiné pro svou relativní jednoduchost. Někdy lze složité zobrazení nahradit jeho jednodušší lineární variantou. Tomuto nahrazení se říká linearizace. Typicky se tohoto postupu používá ve fyzice. Uvažujme jistou rovnici, která popisuje chování nějakého fyzikálního systému. Řešení této rovnice udává předpis, jakým se tento fyzikální systém vyvíjí. Často dochází k situaci, kdy sice známe takovou rovnici, ale nejsme ji schopni vyřešit. Důvodem mohou být funkce vystupující v rovnici, které mají příliš složitý tvar a nejsou lineární. Někdy je taková situace bezvýchodná, v jistých případech ale lze tuto složitou funkci nahradit lineární funkcí, která je té původní v jistém smyslu podobná. Dostaneme tak rovnici, v níž roli původní složité funkce nyní hraje její lineární dvojče. Tuto rovnici už můžeme vyřešit. Co nám ale řešení naší upravené rovnice přináší? Jestliže jsou dodrženy jisté podmínky, tak řešení upravené rovnice je podobné řešení původní složité rovnice. Pokud nám tedy postačí popsat daný fyzikální systém ne přesně, ale jen přibližně, tak se lze při popisu fyzikálního systému omezit na jednodušší variantu rovnice a počítat jen s ní.

Jako konkrétní případ si můžeme uvést kyvadlo. Máme závaží o hmotnosti m zavěšené na lanku délky l a zajímá nás, jak se budou kmity tohoto závaží vyvíjet s časem, zanedbáme-li tření vzduchu a další rušivé vlivy. Situaci je možno nahlédnout na obrázku vpravo. Na závaží působí tíhová síla F G = m g {\displaystyle \scriptstyle {\vec {F_{G}}}=m{\vec {g}}} , kde g {\displaystyle \scriptstyle {\vec {g}}} je tíhové zrychlení. Tuto sílu lze rozložit do dvou složek, viz fialové šipky na obrázku, jedna složka působí ve směru závěsu, tlačí tedy jen na závěs a na pohybu závaží se neprojeví. Druhá složka pak působí ve směru pohybu zavěšeného závaží. Z obrázku je vidět, že tato složka F θ {\displaystyle \scriptstyle F_{\theta }} je rovna

F θ = m ( g ) sin ( θ ) , {\displaystyle F_{\theta }=m\,(-g)\sin(\theta ),}

kde θ {\displaystyle \scriptstyle \theta } je úhel mezi závěsem a svislicí, viz obrázek. Minus se v předchozím vztahu vyskytuje proto, že gravitační zrychlení g {\displaystyle \scriptstyle {\vec {g}}} musí mířit "dolů". (Pokud dosadíme θ = π 2 {\displaystyle \scriptstyle \theta ={\frac {\pi }{2}}} , tak dostáváme F θ = m g {\displaystyle \scriptstyle F_{\theta }=-m\,g} . Kdyby tam žádné minus nebylo, tak by síla hnala závaží neustále nahoru. Ze zkušenosti ale víme, že "vše padá dolů".) Dále platí, že zrychlení závaží (ve směru jeho pohybu) je rovno

a θ = l d 2 θ d t 2 {\displaystyle a_{\theta }=l{\frac {d^{2}\theta }{dt^{2}}}} ,

je to tedy druhá derivace úhlu θ {\displaystyle \scriptstyle \theta } podle času násobená délkou závěsu l {\displaystyle \scriptstyle l} . Jak se odvodí tento vztah pro zrychlení není v tuto chvíli důležité, zajímat nás bude především následující sestavování pohybových rovnic. Newtonova pohybová rovnice zní

m a θ = F θ {\displaystyle m\,a_{\theta }=F_{\theta }} ,

neboli

m l d 2 θ d t 2 = m g sin ( θ ) . {\displaystyle m\,l\,{\frac {d^{2}\theta }{dt^{2}}}=m\,g\sin(\theta ).}

Jedná se o obyčejnou diferenciální rovnici druhého řádu s konstantními koeficienty. Kvůli výskytu funkce sinus ale není lineární. Nelineární diferenciální rovnice se špatně řeší. Zjednodušme si tedy počítání tím, že místo funkce sin ( θ ) {\displaystyle \scriptstyle \sin(\theta )} vezmeme jen funkci θ {\displaystyle \scriptstyle \theta } . To lze udělat pro malé kmity, neboť pro malé hodnoty úhlu θ {\displaystyle \scriptstyle \theta } platí

sin ( θ ) θ {\displaystyle \sin(\theta )\approx \theta }

a obě funkce si jsou v takovém případě dost podobné. Funkce f ( θ ) = θ {\displaystyle \scriptstyle f(\theta )=\theta } je navíc lineární. Pohybová rovnice tedy přejde do tvaru

m l d 2 θ d t 2 = m g θ , {\displaystyle -m\,l\,{\frac {d^{2}\theta }{dt^{2}}}=-m\,g\,\theta ,}

což lze upravit na tvar

d 2 θ d t 2 + g l θ = 0. {\displaystyle {\frac {d^{2}\theta }{dt^{2}}}+{\frac {g}{l}}\theta =0.}

Toto je již lineární diferenciální rovnice, kterou lze vyřešit klasickým způsobem. Tato rovnice vyjadřuje, jak se úhel mezi závěsem a svislou rovinou vyvíjí v čase. Řešení této závislosti zní

θ ( t ) = A 0 cos ( ω t + θ 0 ) , {\displaystyle \theta (t)=A_{0}\cos(\omega t+\theta _{0}),}

kde θ 0 {\displaystyle \scriptstyle \theta _{0}} je počáteční úhel vychýlení kyvadla, A 0 {\displaystyle \scriptstyle A_{0}} je amplituda kmitů a ω {\displaystyle \scriptstyle \omega } je jejich úhlová frekvence.

Relativně složitou funkci sinus jsme tak v příkladu výše nahradili lineární funkcí. Pro malé úhly dávají obě funkce prakticky stejné hodnoty, pro větší úhly to už ale neplatí a náš výše vypočtený výsledek pro chování kmitů se pro velké kmity nedá použít. Spočetli jsme tak pohyb kyvadla jen v případech, kdy je amplituda kmitů A 0 {\displaystyle \scriptstyle A_{0}} malá. To je omezení, které musíme platit za to, že jsme si ulehčili práci nahrazením funkce sinus jejím lineárním dvojčetem.

Odkazy

Literatura

  • PYTLÍČEK, Jiří. Lineární algebra a geometrie. Praha: Česká technika - nakladatelství ČVUT, 2008. ISBN 978-80-01-04063-8.  – skripta FJFI ČVUT
  • BALKOVÁ, Ľubomíra. Lineární algebra 1. Praha: Česká technika - nakladatelství ČVUT, 2013. ISBN 978-80-01-05346-1.  – skripta FJFI ČVUT
  • BLANK, Jiří; EXNER, Pavel; HAVLÍČEK, Miloslav. Lineární operátory v kvantové fyzice. Praha: Karolinum, 1993. ISBN 80-7066-586-6. 

Související články

Externí odkazy

Autoritní data Editovat na Wikidatech
  • PSH: 7276
  • BNF: cb11944511p (data)
  • GND: 4167700-6
  • LCCN: sh85077178
  • NLI: 987007529341405171