- Mátrixok, vektorok, vektorterek
- Lineáris egyenletrendszerek, mátrixok inverze
- Determináns, sajátérték, sajátvektor
- Vektorok, koordináták, térelemek
- Komplex számok
- Függvények és a függvények ábrázolása
- Összetett függvény és inverz függvény
- Sorozatok
- Küszöbindex és monotonitás
- Sorok
- Függvények határértéke és folytonossága
- A függvényhatárérték precíz definíciója
- Deriválás
- Differenciálhatóság vizsgálata és az érintő egyenlete
- L’Hospital szabály, Taylor sor, Taylor polinom
- Szélsőértékfeladatok, könnyű függvényvizsgálatok
- Függvényvizsgálat, gazdasági feladatok
- Határozatlan integrálás
- Határozott integrálás
- Kétváltozós függvények
Determináns, sajátérték, sajátvektor
Determináns definíciója
Ha az $A$ egy $n \; x \; n$-es mátrix, akkor determinánsa
\( det(A)=\sum_{\forall p} (-1)^{I(p)} \cdot \prod_{i=1}^{n} a_{ip(i)} \)
ahol $p$ az oszlopindexek permutációi, $I(p)$ pedig ezen permutációk inverziószáma.
Determináns 2x2-es mátrixra
Egy 2x2-es mátrix determinánsa:
\( A = \begin{pmatrix} a & b \\ c & d \end{pmatrix} \quad \det(A)=\det \begin{pmatrix} a& b \\ c &d \end{pmatrix}=a\cdot d - b\cdot c \)
Sarrus-szabály
A 3x3-as mátrixok determinánsának kiszámolására van egy szabály, ami szarrusz szabály néven ismert. A szabály lényege, hogy fogjuk a mátrixot és leírjuk saját maga mögé még egyszer, majd vesszük a főátlókat és a mellékátlókat, így
\( \det(A)=-a_{13}a_{22}a_{31}-a_{11}a_{23}a_{32}-a_{12}a_{21}a_{33}+a_{11}a_{22}a_{33}+a_{12}a_{23}a_{31}+a_{13}a_{21}a_{32} \)
Kifejtési tétel
Ha az $A$ egy nxn-es mátrix, akkor determinánsa
\( A = \begin{pmatrix} a_{11} & a_{12} & \dots & a_{1n} \\ a_{21} & a_{22} & \dots & a_{2n} \\ \dots & \dots & \dots & \dots \\ a_{n1} & a_{n2} & \dots & a_{nn} \end{pmatrix}\)
\( \det(A)=\sum_{j=1}^{n} (-1)^{i+j} a_{ij} \cdot \det(A_{ij}) \)
Itt $\det(A_{ij})$ az $a_{ij}$ elemhez tartozó aldetermináns.
Determinánsok tulajdonságai
Az $A$ mátrix determinánsa nulla, ha
- van csupa nulla sora
- van két azonos sora
- egyik sora a másik sor számszorosa
- egyik sora más sorok lineáris kombinációja
- mindez sor helyett oszlopra is elmondható
Determinánsok szorzási tétele:
\( \det(A\cdot B) = \det(A) \cdot \det(B) \)
\( \det(A^k) = \det(A)^k \)
Szinguláris mátrix
Azokat a mátrixokat nevezzük szingulárisnak, amelyek determinánsa nulla.
Az $A$ mátrix szinguláris:
- \( \det(A) = 0 \)
- Nem létezik $A^{-1}$ inverz mátrix
- RANG<n
- Az $A$ mátrix oszlopvektoraiból álló vektorrendszer lineárisan összefüggő
- Az $A\cdot \underline{x} = \underline{b}$ egyenletrendszernek vagy végtelen sok megoldása van vagy nincs megoldása
- Az $A \cdot \underline{x} = \underline{0}$ homogén lineáris egyenletrendszernek végtelen sok megoldása van
Reguláris mátrix
Azokat a mátrixokat nevezzük regulárisnak, amelyek determinánsa nem nulla.
Az $A$ mátrix reguláris:
- \( \det(A) \neq 0 \)
- Létezik $A^{-1}$ inverz mátrix
- RANG=n
- Az $A$ mátrix oszlopvektoraiból álló vektorrendszer lineárisan független
- Az $A\cdot \underline{x} = \underline{b}$ egyenletrendszernek csak egy megoldása van
- Az $A \cdot \underline{x} = \underline{0}$ homogén lineáris egyenletrendszernek csak egy megoldása van (a triviális megoldás)
Cramer szabály
A Cramer szabály szerint az $A\cdot \underline{x} = \underline{b}$ egyenletrendszer megoldásai a következőképp állnak elő:
\( x_k = \frac{ \det(A_k)}{ \det(A)} \)
ahol $\det(A_k)$ annak a mátrixnak a determinánsát jelenti, hogy az $A$ mátrix k-adik oszlopát kicseréljük a $\underline{b}$ vektorral.
Mátrixok diagonális alakja
Ha egy nxn-es mátrixnak van n darab független sajátvektora, akkor létezik a mátrixnak egy úgynevezett diagonális alakja.
A diagonális alak így néz ki:
\( \text{diag}(A)=\begin{pmatrix} \lambda_1 & 0 & \dots & 0 \\ 0 & \lambda_2 & \dots & 0 \\ \dots & \dots & \dots & \dots \\ 0 & 0 & \dots & \lambda_n \end{pmatrix} \)
a főatlóban vannak a sajátértékek és az összes többi elem nulla.
A diagonális alakot a következő módon állítjuk elő:
\( \text{diag}(A) =X^{-1} \cdot A \cdot X \)
itt $X= \begin{pmatrix} \underline{v}_1 & \underline{v}_2 & \dots \underline{v}_n \end{pmatrix} $
Diagonális alak, mátrixok diagonalizálása
Ha egy nxn-es mátrixnak van n darab független sajátvektora, akkor létezik a mátrixnak egy úgynevezett diagonális alakja.
A diagonális alak így néz ki:
\( \text{diag}(A)=\begin{pmatrix} \lambda_1 & 0 & \dots & 0 \\ 0 & \lambda_2 & \dots & 0 \\ \dots & \dots & \dots & \dots \\ 0 & 0 & \dots & \lambda_n \end{pmatrix} \)
a főatlóban vannak a sajátértékek és az összes többi elem nulla.
A diagonális alakot a következő módon állítjuk elő:
\( \text{diag}(A) =X^{-1} \cdot A \cdot X \)
itt $X= \begin{pmatrix} \underline{v}_1 & \underline{v}_2 & \dots \underline{v}_n \end{pmatrix} $
Diagonalizálás
Ha egy nxn-es mátrixnak van n darab független sajátvektora, akkor létezik a mátrixnak egy úgynevezett diagonális alakja.
A diagonális alak így néz ki:
\( \text{diag}(A)=\begin{pmatrix} \lambda_1 & 0 & \dots & 0 \\ 0 & \lambda_2 & \dots & 0 \\ \dots & \dots & \dots & \dots \\ 0 & 0 & \dots & \lambda_n \end{pmatrix} \)
a főatlóban vannak a sajátértékek és az összes többi elem nulla.
A diagonális alakot a következő módon állítjuk elő:
\( \text{diag}(A) =X^{-1} \cdot A \cdot X \)
itt $X= \begin{pmatrix} \underline{v}_1 & \underline{v}_2 & \dots \underline{v}_n \end{pmatrix} $
Sajátfelbontás
Ha az $A$ mátrix egy $n$ x $n$-es diagonalizálható mátrix, akkor a sajátfelbontása:
\( A = X \cdot diag(A) \cdot X^{-1} \)
Itt $X = \begin{pmatrix} \underline{v}_1 & \underline{v}_2 & \dots & \underline{v}_n \end{pmatrix}$ vagyis egyszerűen úgy keletkezi, hogy a sajátvektorokat fogjuk, és leírjuk egymás mellé és
\( diag(A) = \begin{pmatrix} \lambda_1 & 0 & \dots & 0 \\ 0 & \lambda_2 & \dots & 0 \\ \dots & \dots & \dots & \dots \\ 0 & 0 & \dots & \lambda_n \end{pmatrix} \)
Hatványozás a sajátfelbontás segítségével
A spektrálfelbontás segítségével könnyebben hatványozhatunk:
\( A^n = X \cdot \left( diag(A) \right)^n \cdot X^{-1} \)
Sarok főminor
Egy mátrix sarok főminor mátrixai a mátrix bal felső sarkától kezdődő sarok mátrixok determinánsai.
Pl.: $A = \begin{pmatrix} 2 & 3 & 5 & 1 \\ 4 & 7 & 2 & 1 \\ 2 & 1 & 1 4 \\ 3 & 5 & 1 & 7 \end{pmatrix}$
első sarokfőminora a 2-es
második sarokfőminora a bal felső 2x2-es determináns
\( \det \begin{pmatrix} 2 & 3 \\ 4 & 7 \end{pmatrix} = 2\cdot 7 - 3\cdot 4 = 2 \)
és így tovább
Főminor
Egy mátrix főminor mátrixai a mátrix bal felső sarkától kezdődő sarok mátrixok determinánsai.
Pl.: $A = \begin{pmatrix} 2 & 3 & 5 & 1 \\ 4 & 7 & 2 & 1 \\ 2 & 1 & 1 4 \\ 3 & 5 & 1 & 7 \end{pmatrix}$
első főminora a 2-es
második főminora a bal felső 2x2-es determináns
\( \det \begin{pmatrix} 2 & 3 \\ 4 & 7 \end{pmatrix} = 2\cdot 7 - 3\cdot 4 = 2 \)
és így tovább
Pozitív definit mátrix
Az $A$ nxn-es mátrix pozitív definit, ha minden $\lambda$ sajátérték: $ \lambda > 0$.
Vagy ha minden sarokfőminor pozitív.
Negatív definit mátrix
Az $A$ nxn-es mátrix negatív definit, ha minden $\lambda$ sajátérték: $ \lambda < 0$.
Vagy ha a sarokfőminorok váltakozva $- + - +$ de mínusszal indul.
Pozitív szemidefinit mátrix
Az $A$ nxn-es mátrix pozitív szemidefinit, ha minden $\lambda$ sajátérték: $ \lambda \geq 0$.
2x2-es mátrixoknál, ha az első sarokfőminor pozitív, a második nulla.
Negatív szemidefinit mátrix
Az $A$ nxn-es mátrix negatív szemidefinit, ha minden $\lambda$ sajátérték: $ \lambda \leq 0$.
2x2-es mátrixoknál, ha az első sarokfőminor negatív, a második nulla.
Indefinit mátrix
Az $A$ nxn-es mátrix indefinit, ha van $\lambda_1$ és $\lambda_2$ sajátérték, hogy $ \lambda_1 > 0$ és $\lambda_2<0$.
Ha $\det(A) \neq 0$ és nem pozitív vagy negatív definit, akkor indefinit.
Kvadratikus alakok
Ha $A$ nxn-es szimmetrikus mátrix és $\underline{x}$ egy vektor $R^n$-ben, akkor a
\( Q(x)=\underline{x}^{*} \cdot A \cdot \underline{x} \)
kifejezést kvadratikus alaknak nevezzük.
Azért hívjuk kvadratikusnak vagyis négyzetesnek, mert ez mindig egy homogén másodfokú kifejezés.
Kvadratikus alakok definitsége
A $Q(\underline{x}) = \underline{x}^{*} \cdot A \cdot \underline{x} $ kvadratikus alak
pozitív definit, ha minden $\underline{x} \neq \underline{0} $ vektorra $Q(\underline{x})>0$
negatív definit, ha minden $\underline{x} \neq \underline{0} $ vektorra $Q(\underline{x})<0$
pozitív szemidefinit, ha minden $\underline{x} \neq \underline{0} $ vektorra $Q(\underline{x})\geq0$
negatív szemidefinit, ha minden $\underline{x} \neq \underline{0} $ vektorra $Q(\underline{x})\leq0$
indefinit, ha van olyan $\underline{x}\neq \underline{0}$ és $\underline{y}\neq \underline{0}$, hogy $Q(\underline{x}) < 0 $ és $Q(\underline{y}) > 0 $
Lineáris leképezés definíciója
A $\varphi$ leképezést lineáris leképezésnek nevezzük, ha bármely $\underline{v}_1, \underline{v}_2 \in V_1$ vektorokra és $\lambda \in R$ számra teljesül, hogy
\( \varphi( \underline{v}_1+\underline{v}_2) = \varphi( \underline{v}_1) + \varphi( \underline{v}_2) \)
\( \varphi(\lambda \cdot \underline{v}) = \lambda \cdot \varphi(\underline{v}) \)
Képtér
A $V_1 \rightarrow V_2$ lineáris leképezésnél $V_2$-nek azt a részét, amely a leképezés során előáll, a leképezés képterének nevezzük és $Im\varphi$-vel jelöljük.
Magtér
A nullvektorból minden lineáris leképezés nullvektort csinál, vagyis $\underline{0}$ képe mindig $\underline{0}$, de előfordulhat, hogy más $V_1$-beli vektorok képe is nullvektor lesz. Ezen vektorok halmazát nevezzük a leképezés magterének és $Ker\varphi$-vel jelöljük.
Dimenziótétel
A képtér és a magtér dimenziója összesen éppen kiadja $V_1$ dimenzióját.
Ezt az összefüggést dimenziótételnek nevezzük:
\( \dim(Ker\varphi) + \dim(Im\varphi) = \dim(V_1) \)
Lineáris leképezés mátrixa
Minden lineáris leképezést jellemezhetünk egy mátrixszal. Valójában mindegyiket végtelen sok mátrixszal jellemezhetjük, ezek a mátrixok pedig úgy keletkeznek, hogy veszünk egy tetszőleges bázist $V_1$-ben és a bázisvektorok képeit egymás mellé írjuk.
Új bázisra áttérés mátrixa
A $\varphi$ leképezésben minden vektor képét így kapjuk:
\( \varphi(\underline{v})=( \varphi)_b \cdot \underline{v} \)
Lineáris leképezés inverzének mátrixa
Egy leképezésnek pontosan akkor létezik inverze, ha a $(\varphi)_b$ mátrixnak létezik inverze, és az inverz leképezés mátrixa:
$\varphi^{-1}$ mátrixa $(\varphi)^{-1}_b$
Lineáris leképezések kompozíciója
A $\varphi \circ \mu$ leképezés mátrixa:
\( ( \varphi \circ \mu)_b = (\varphi)_b \cdot (\mu)_b \)
Mátrixok diagonális alakja
Ha egy nxn-es mátrixnak van n darab független sajátvektora, akkor létezik a mátrixnak egy úgynevezett diagonális alakja.
A diagonális alak így néz ki:
\( \text{diag}(A)=\begin{pmatrix} \lambda_1 & 0 & \dots & 0 \\ 0 & \lambda_2 & \dots & 0 \\ \dots & \dots & \dots & \dots \\ 0 & 0 & \dots & \lambda_n \end{pmatrix} \)
a főatlóban vannak a sajátértékek és az összes többi elem nulla.
A diagonális alakot a következő módon állítjuk elő:
\( \text{diag}(A) =X^{-1} \cdot A \cdot X \)
itt $X= \begin{pmatrix} \underline{v}_1 & \underline{v}_2 & \dots \underline{v}_n \end{pmatrix} $
Sajátbázis
A $\varphi$ lineáris leképezésnek a $\underline{b}_1 \; \underline{b}_2 \; \dots \; \underline{b}_n$ bázisban felírt mátrixát úgy kapjuk meg, hogy a bázisvektorok képeit egymás mellé írjuk:
\( (\varphi)_b = \left( \varphi(\underline{b}_1) \; \varphi(\underline{b}_2) \; \varphi(\underline{b}_3) \; \dots \; \varphi(\underline{b}_n) \right) \)
Bármilyen bázist is választunk is $V_1$-ben, a leképezés mátrixa mindig egy nxn-es mátrix lesz. Ha ennek a mátrixnak van n darab független sajátvektora, akkor ezek a sajátvektorok szintén egy bázist alkotnak $V_1$-ben, amit sajátbázisnak nevezünk.
Hom (V1,V2)
A $V_1 \rightarrow V_2$ lineáris leképezést másnéven homomorfizmusnak is nevezzük. Ezek a homomorfizmusok és azok mátrixai maguk is egy vektorteret alkotnak, ezt a vektorteret $Hom(V_1, V_2)$-nek nevezzük.
Hasonló mátrixok
Ha $A$ és $B$ olyan mátrixok, hogy létezik egy $C$ mátrix úgy, hogy
\( A = C^{-1} \cdot B \cdot C \)
akkor a két mátrix egymáshoz hasonló.
Számítsuk ki az alábbi mátrixok determinánsait.
a) \( A= \begin{pmatrix} 3 & 5 \\ 2 & 7 \end{pmatrix} \)
b) \( A= \begin{pmatrix} 2 & 5 & 4 \\ 3 & 1 & 7 \\ 4 & 1 & 1 \end{pmatrix} \)
Számítsuk ki az alábbi mátrix determinánsát.
\( A= \begin{pmatrix} 2 & 3 & 5 & 1 \\ 4 & 3 & -2 & -5 \\ -4 & -1 & 5 & 7 \\ 6 & 6 & 3 & -4 \end{pmatrix} \)
Számítsuk ki az alábbi mátrixok determinánsait.
a) \( A= \begin{pmatrix} 1 & 3 & 2 & 1 \\ 0 & 0 & 0 & 0 \\ 1 & 3 & 2 & 1 \\ 6 & 5 & 5 & 8 \end{pmatrix} \)
b) \( A= \begin{pmatrix} 1 & 3 & 2 & 1 \\ 4 & 6 & 9 & 2 \\ 1 & 3 & 2 & 1 \\ 6 & 5 & 5 & 8 \end{pmatrix} \)
c) \( A= \begin{pmatrix} 1 & 3 & 2 & 1 \\ 4 & 6 & 9 & 2 \\ 2 & 6 & 4 & 2 \\ 6 & 5 & 5 & 8 \end{pmatrix} \)
Az alábbi mátrixnak milyen $p$ paraméter esetén létezik inverze, milyen $p$ paraméterre lesz a determinánsa éppen 0, illetve milyen $p$ paraméterre lesz az $A \cdot \underline{x}=\underline{0} $ egyenletrendszernek végtelen sok megoldása.
\( A = \begin{pmatrix} 1 & 3 & 1 \\ 2 & 1 & 1 \\ 3 & 4 & p \end{pmatrix} \)
Oldjuk meg az alábbi egyenletrendszert a Cramer-szabály segítségével.
\( 3x_1+2x_2-x_3=4 \)
\( x_1+x_2+x_3=7 \)
\( 2x_1+x_2+2x_3=10 \)
a) Adott az $A$ 2x2-es mátrix, és nézzük meg, hogy sajátvektora-e ennek az $\underline{u}$, és a $\underline{v}$ vektor.
\( A = \begin{pmatrix} 1 & 2 \\ 8 & 1 \end{pmatrix} \quad \underline{u}=\begin{pmatrix} 1 \\ 1 \end{pmatrix} \quad \underline{v}=\begin{pmatrix} 1 \\ 2 \end{pmatrix} \)
b) Számoljuk ki az $A=\begin{pmatrix} 1 & 2 \\ 8 & 1 \end{pmatrix}$ mátrix sajátértékeit és sajátvektorait.
Számításaink során a bázis transzformációt használjuk.
a) Adott az $A$ 2x2-es mátrix, és nézzük meg, hogy sajátvektora-e ennek az $\underline{u}$, és a $\underline{v}$ vektor.
\( A = \begin{pmatrix} 1 & 2 \\ 8 & 1 \end{pmatrix} \quad \underline{u}=\begin{pmatrix} 1 \\ 1 \end{pmatrix} \quad \underline{v}=\begin{pmatrix} 1 \\ 2 \end{pmatrix} \)
b) Számoljuk ki az $A=\begin{pmatrix} 1 & 2 \\ 8 & 1 \end{pmatrix}$ mátrix sajátértékeit és sajátvektorait.
Számításaink során a Gauss eliminációt használjuk.
A bázis transzformáció segítségével nézzük meg ennek a 3x3-as mátrixnak a sajátértékeit és sajátvektorait.
\( A=\begin{pmatrix} 2 & 1 & 1 \\ 1 & 2 & 1 \\ 1 & 1 & 2 \end{pmatrix} \)
A bázis transzformáció segítségével állítsuk elő ennek a 3x3-as mátrixnak a diagonális alakját.
\( A=\begin{pmatrix} 2 & 0 & 0 \\ 0 & 1 & 1 \\ 0 & 4 & 1 \end{pmatrix} \)
A Gauss elimináció segítségével állítsuk elő ennek a 3x3-as mátrixnak a diagonális alakját.
\( A=\begin{pmatrix} 2 & 0 & 0 \\ 0 & 1 & 1 \\ 0 & 4 & 1 \end{pmatrix} \)
Van itt ez a mátrix.
\( A = \begin{pmatrix} 5 & -6 \\ 1 & 0 \end{pmatrix} \)
Számoljuk ki, hogy mennyi $A^{10}$.
Vannak itt ezek a mátrixok, döntsük el, hogy milyen definitek.
\( A=\begin{pmatrix} 2 & 3 & 1 \\ 1 & 2 & 2 \\ 2 & 1 & 4 \end{pmatrix} \quad B=\begin{pmatrix} -2 & 3 & 1 \\ 1 & -4 & 2 \\ 1 & -6 & 1 \end{pmatrix} \)
\( C=\begin{pmatrix} 2 & 3 & 1 \\ 1 & 1 & 2 \\ 1 & 1 & 1 \end{pmatrix} \quad D=\begin{pmatrix} 1 & 1 & 1 \\ 2 & 1 & 2 \\ 1 & 0 & 1 \end{pmatrix} \quad \)
Számoljuk ki az $A$ mátrixhoz és $\underline{x}$ vektorhoz tartozó kvadratikus alakokat.
a) \( A= \begin{pmatrix} 4 & 5 \\ 5 & 1 \end{pmatrix} \quad \underline{x}= \begin{pmatrix} x_1 \\ x_2 \end{pmatrix} \)
b) \( A= \begin{pmatrix} 2 & 4 & 7 \\ 4 & 3 & 6 \\ 7 & 6 & 5 \end{pmatrix} \quad \underline{x}= \begin{pmatrix} x_1 \\ x_2 \\ x_3 \end{pmatrix} \)
c) Adott a $Q(\underline{x})$ kvadratikus alak, határozzuk meg ebből az $A$ mátrixot.
\( Q(\underline{x})=5x^2_1 -2 x^2_2+4x^2_3+8x_1x_2+7x_1x_3-6x_2x_3 \)
Döntsük el az alábbi kvadratikus alakok definitségét.
a) \( Q(\underline{x})= 3x^2_1+4x^2_2+9x^2_3+4x_1x_2+2x_1x_3+10x_2x_3 \)
b) \( Q(\underline{x})= -5x^2_1-2x^2_2-8x^2_3+6x_1x_2-2x_1x_3+2x_2x_3 \)
Tükrözzük az x tengelyre a $\underline{v}$ vektort, ha
a) $\underline{v}= \begin{pmatrix} 2 \\ 2 \end{pmatrix}$ és a bázis vektorok: $\underline{a_1}= \begin{pmatrix} 1 \\ 0 \end{pmatrix}$ és $\underline{a_2}= \begin{pmatrix} 0 \\ 1 \end{pmatrix}$
b) $\underline{v}= \begin{pmatrix} 2 \\ 2 \end{pmatrix}$ és a bázis vektorok: $\underline{a_1}= \begin{pmatrix} 1 \\ 1 \end{pmatrix}$ és $\underline{a_2}= \begin{pmatrix} -1 \\ 1 \end{pmatrix}$
Ellenőrizzük, hogy az alábbi leképezések lineáris leképezések-e, ha igen adjuk meg a képteret, a magteret és a transzformáció mátrixát.
a) \( R^2 \to R^2 \qquad \varphi\begin{pmatrix} a \\ b \end{pmatrix} = \begin{pmatrix} a+1 \\ b \end{pmatrix} \qquad a,b \in R \)
b) \( R^2 \to R^2 \qquad \varphi\begin{pmatrix} a \\ b \end{pmatrix} = \begin{pmatrix} a-b \\ 0 \end{pmatrix} \qquad a,b \in R \)
c) \( R^3 \to R^3 \qquad \varphi\begin{pmatrix} a \\ b \\ c \end{pmatrix} = \begin{pmatrix} a+b \\ a\cdot b \\ c \end{pmatrix} \qquad a,b,c \in R \)
Ellenőrizzük, hogy az alábbi leképezések lineáris leképezések-e, ha igen adjuk meg a képteret, a magteret és a transzformáció mátrixát.
\( R^3 \to R^3 \qquad \varphi\begin{pmatrix} a \\ b \\ c \end{pmatrix} = \begin{pmatrix} a-b \\ b-a \\ c \end{pmatrix} \qquad a,b,c \in R \)
Adjuk meg a sajátértékeit, sajátvektorait, ha van, akkor a sajátbázisát és a diagonális alakját:
\( R^3 \to R^3 \qquad \varphi\begin{pmatrix} a \\ b \\ c \end{pmatrix} = \begin{pmatrix} a-b \\ b-a \\ c \end{pmatrix} \qquad a,b,c \in R \)
Ellenőrizzük, hogy az alábbi leképezések lineáris leképezések-e, ha igen adjuk meg a képteret, a magteret és a transzformáció mátrixát, adjuk meg a sajátértékeit, sajátvektorait, ha van, akkor a sajátbázisát és a diagonális alakját.
\( R^3 \to R^3 \qquad \varphi\begin{pmatrix} a \\ b \\ c \end{pmatrix} = \begin{pmatrix} a-b \\ b-c \\ c-a \end{pmatrix} \qquad a,b,c \in R \)
Adjuk meg a $R^2$-ben az x tengelyre tükrözés, az origó középpontú $\alpha$-szögű forgatás, és az origóra tükrözés mátrixait.
A sík transzformációi közül melyek dimenzió tartó transzformációk?
Döntsük el, hogy az alábbi mátrixok közül melyek hasonlóak.
\( A= \begin{pmatrix} 2 & 0 & 0 \\ 0 & 1 & 1 \\ 0 & 4 & 1 \end{pmatrix} \quad B= \begin{pmatrix} 2 & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & -1 \end{pmatrix} \)
\( C= \begin{pmatrix} 2 & 1 & -1 \\ 1 & 1 & 1 \\ -2 & 1 & 1 \end{pmatrix} \quad D=\begin{pmatrix} 1 & 3 & 1 \\ 2 &1 & 2 \\ 1 & 0 & 1 \end{pmatrix} \)
MÁTRIXOK DETERMINÁNSA, SAJÁTÉRTÉKE ÉS SAJÁTVEKTORA
DEFINÍCIÓ: Ha az egy -es mátrix, akkor determinánsa
ahol p az oszlopindexek permutációi, I(p) pedig ezen permutációk inverziószáma.
Ez egy igazán remek definíció, de egy kis magyarázatot igényel.
Valójában a mátrixok determinánsa sokkal egyszerűbb fogalom.
Arról van szó, hogy a mátrix minden sorából és oszlopából kiválasztunk egy és csak egy elemet, és ezeket az elemeket összeszorozzuk. Ezt az összes lehetséges módon
megtesszük, és a szorzatokat ellátjuk egy előjellel, végül az így kapott előjeles
szorzatokat összeadjuk.
EGY 2x2-ES MÁTRIX DETERMINÁNSA
Nézzünk erre egy példát. Itt van egy mátrix:
aminek a determinánsa
A determináns tehát azt tudja, hogy minden mátrixból csinál
egyetlen számot.
Hamarosan az is kiderül, hogy mindez mire jó, de most lássuk
mi a helyzet egy 3X3-as mátrix determinánsával!
EGY 3x3-AS MÁTRIX DETERMINÁNSA
A 3X3-as mátrixok determinánsának kiszámolására van egy szabály,
ami szarrusz szabály néven ismert.
A szabály lényege, hogy fogjuk a mátrixot
és leírjuk saját maga mögé még egyszer,
majd vesszük a főátlókat és a mellékátlókat.
A főátlók elemeit összeszorozzuk és pozitív előjellel vesszük,
aztán a mellékátlók elemeit is összeszorozzuk, de azokat negatív előjellel vesszük.
Ez a mátrix determinánsa.
A módszer sajnos csak 3x3-as mátrixokra működik és nem túl kellemes.
Sokkal több értelme van megjegyezni az úgynevezett kifejtési tételt,
ami minden nxn-es mátrixra jó és most jön.
Ha az egy -es mátrix, akkor determinánsa
Itt a elemhez tartozó aldetermináns.
Semmi ok az aggodalomra, a gyakorlatban mindez sokkal egyszerűbb.
Nézzünk egy példát!
Van itt ez a 3x3-as mátrix:
Ennek a determinánsát fogjuk kiszámolni, és mondjuk az első sora
szerint fejtjük ki.
Kifejthetjük a második sor szerint is, majd megnézzük azt is,
a végeredmény ugyanaz kell, hogy legyen.
Az első sor elemeit váltakozó előjellel kell venni, ez a bizonyos
de egyszerűbb, ha az úgynevezett sakktábla-szabályt jegyezzük meg.
Az aldeterminánst majd mindjárt megnézzük!
A sakktábla-szabály miatt a második elem mínusszal van.
A harmadik megint plusszal.
Most jönnek az aldeterminánsok, amik úgy keletkeznek,
hogy az adott elem sorát és oszlopát kihúzzuk.
Végül kiszámoljuk a 2X2-es mátrixok determinánsait.
És kész is.
Nézzük meg, hogy mi történik, ha a második sor szerint fejtünk ki!
Ha a második sor szerint fejtünk ki, akkor a sakktábla-szabályban is
a második sort kell nézni.
És kifejthetjük a harmadik sor szerint is,
de ami még ennél is izgalmasabb, hogy oszlop szerint is ki lehet fejteni.
Mondjuk nézzük meg a harmadik oszlop szerint!
A KIFEJTÉSI TÉTEL
A kifejtési tétel lényege az, hogy bármilyen nagy -es mátrix
determinánsának meglehetősen kellemetlen kiszámolását visszavezeti
-es mátrixok determinánsára, amit már könnyen ki tudunk számolni.
Maga a tétel első ránézésre kicsit barátságtalannak tűnik,
de mindjárt nézünk rá egy konkrét példát.
Nézzük a példát!
Van itt ez a 4x4-es mátrix:
Ennek a determinánsát fogjuk kiszámolni, és mondjuk fejtsük ki
a második sora szerint.
Kifejthetnénk az első sor szerint is, majd megnézzük azt is,
a végeredmény így is úgy is ugyanaz lesz.
A második sor elemeit váltakozó előjellel kell venni, ez a bizonyos
de egyszerűbb, ha az úgynevezett sakktábla-szabályt jegyezzük meg.
A sakktábla-szabály miatt a második sor első eleme mínusszal van.
Az aldeterminánst majd mindjárt megnézzük!
A sakktábla-szabály miatt a második sor első eleme mínusszal van.
A második elem plusszal van.
Aztán a harmadik elem ismét mínusszal, mellesleg ő eleve negatív.
A negyedik elem pedig megint plusszal.
Most jöhetnek az aldeterminánsok, amik úgy keletkeznek, hogy mindig
az adott elem sorát és oszlopát kihúzzuk.
És aztán mindegyik aldeterminánst egyenként kiszámoljuk. Ez eltart egy darabig.
Próbáljuk meg érdekesebbé tenni a dolgot azzal, hogy az első sor szerint fejtünk ki.
Megint jön a sakktábla.
Itt jön aztán a következő aldetermináns kiszámolása.
Ezt kifejthetjük mondjuk a harmadik sor szerint,
de ami még ennél is izgalmasabb, hogy oszlop szerint is ki lehet fejteni.
Mondjuk nézzük meg a harmadik oszlop szerint!
És kifejthetjük a harmadik sor szerint is,
de ami még ennél is izgalmasabb, hogy oszlop szerint is ki lehet fejteni.
Mondjuk nézzük meg a harmadik oszlop szerint!
Térjünk rá a következő 3x3-as determinánsra.
Kifejthetjük bármelyik sor szerint, vagy bármelyik oszlop szerint,
de alkalmazhatunk egy kis varázslást is.
Ez bevált, úgyhogy az utolsó megmaradt determinánst is így intézzük el.
Ezzel kész az eredeti 4x4-es mátrix determinánsa!
Kiszámolhattuk volna úgy is, hogy nem a második sor szerint fejtjük ki, hanem mondjuk a negyedik oszlop szerint. Nézzük meg ezt is!
számolunk…
És tényleg így is 0 jön ki!
AZ MÁTRIX DETERMINÁNSA NULLA, HA
VAN CSUPA NULLA SORA
VAN KÉT AZONOS SORA
EGYIK SORA MÁSIK SOR SZÁMSZOROSA
EGYIK SORA MÁS SOROK LINEÁRIS KOMBINÁCIÓJA
MINDEZ SOR HELYETT OSZLOPRA IS ELMONDHATÓ
HA A MÁTRIX ÚGY KELETKEZIK AZ MÁTRIXBÓL, HOGY
EGY SORÁNAK VAGY OSZLOPÁNAK MINDEN ELEMÉT -VAL SZOROZZUK,
MINDEN SORÁNAK MINDEN ELEMÉT -VAL SZOROZZUK,
KÉT SORÁT VAGY OSZLOPÁT FÖLCSERÉLJÜK
EGY SORÁHOZ VAGY OSZLOPÁHOZ MÁS SOROK VAGY OSZLOPOK LINEÁRIS KOMBINÁCIÓJÁT ADJUK
Néhány nagyon izgalmas dolog fog kiderülni a mátrixok determinánsával kapcsolatban.
Vannak olyan speciális mátrixok, amiknek a determinánsát különösebb szenvedés nélkül ki tudjuk számolni. Ilyenek például az úgynevezett alsó vagy felső háromszögmátrixok.
Ezek determinánsa a főátló elemek szorzata.
Az egységmátrix is háromszögmátrix.
Vannak aztán a determinánsoknak különböző érdekes tulajdonságaik.
Nézzük ezeket meg, egy-egy példával.
Végül itt van egy fontos tétel, a determinánsok szorzási tétele, ami szerint
Ha a tételben a mátrix helyére is az mátrixot írjuk
sőt
Ha pedig az mátrixnak létezik inverze, akkor a szorzási tétel alapján
SZINGULÁRIS ÉS REGULÁRIS MÁTRIXOK
Az -es mátrixokat két nagy csoportba sorolhatjuk. Vannak azok a mátrixok melyeknek a determinánsa nulla és vannak azok, amiknek nem.
Ez a kis eltérés valójában hatalmas szakadékot jelent a kétféle csoport között.
AZ MÁTRIX REGULÁRIS
LÉTEZIK INVERZ MÁTRIX
RANG=n
AZ MÁTRIX OSZLOPVEKTORAIBÓL ÁLLÓ
VEKTORRENDSZER LINEÁRISAN FÜGGETLEN
AZ EGYENLETRENDSZERNEK
CSAK EGY MEGOLDÁSA VAN
AZ HOMOGÉN LINEÁRIS
EGYENLETRENDSZERNEK CSAK EGY
MEGOLDÁSA VAN (A TRIVIÁLIS MEGOLDÁS)
AZ MÁTRIX SZINGULÁRIS
NEM LÉTEZIK INVERZ MÁTRIX
RANG<n
AZ MÁTRIX OSZLOPVEKTORAIBÓL ÁLLÓ
VEKTORRENDSZER LINEÁRISAN ÖSSZEFÜGGŐ
AZ EGYENLETRENDSZERNEK
VAGY VÉGTELEN SOK MEGOLDÁSA VAN
VAGY NINCS MEGOLDÁSA
AZ HOMOGÉN LINEÁRIS
EGYENLETRENDSZERNEK VÉGTELEN
SOK MEGOLDÁSA VAN
Itt van például egy mátrix.
Nézzük meg milyen paraméter esetén létezik inverze, milyen paraméterre lesz a determinánsa éppen 0, illetve milyen paraméterre lesz az
egyenletrendszernek végtelen sok megoldása.
Az összes kérdésre egyszerre megkapjuk a választ, ha kiszámoljuk a mátrix determinánsát.
Akkor létezik inverz, ha a mátrix reguláris, vagyis a determinánsa nem nulla:
Akkor lesz a determináns éppen nulla, ha
És akkor lesz az egyenletrendszernek végtelen sok megoldása, ha a mátrix szinguláris, vagyis a determinánsa nulla,
Itt van két izgalmas definíció, amik eléggé hasonlók egymáshoz és az is közös bennük, hogy első ránézésre nehéz lenne megmondani mire jók valójában.
SAJÁTÉRTÉK: Az -es mátrix sajátvektora egy olyan nem nullvektor, amelyhez van valami valós szám, hogy
SAJÁTVEKTOR: Az -es mátrix sajátértéke egy olyan valós szám, amelyhez van valami nem nullvektor, hogy
De aggodalomra semmi ok, lássunk inkább egy konkrét példát.
Van egy remek -es mátrix
és nézzük meg, hogy sajátvektora-e ennek mondjuk az és a vektor.
Elsőként az vektort nézzük meg. Akkor sajátvektor, ha létezik olyan szám, hogy
Sajnálatos módon azonban ilyen nem létezik.
Ha ugyanis , akkor a 9 nem fog kijönni, ha , akkor pedig a 3 nem jön ki.
Próbálkozhatunk persze még egyéb számokkal is, de akkor pedig se a 3, se a 9 nem jön ki. Vagyis az vektor nem sajátvektora az mátrixnak.
Lássuk mi a helyzet a vektorral. Akkor sajátvektor, ha létezik olyan szám, hogy
Ilyen létezik, mégpedig . A vektor tehát az mátrixnak sajátvektora,
és a hozzá tartozó sajátérték . A következőkben arról lesz szó, hogyan tudjuk megtalálni egy mátrix összes sajátértékét és sajátvektorát.
Egy általános módszert fogunk kifejleszteni a sajátvektorok és sajátértékek kiszámolására, aminek lényege, hogy
Rendezzük nullára.
És emeljük ki a vektort
Csakhogy van egy kis gond.
Nem sok értelme van ugyanis annak, hogy mert az egyikük egy mátrix, a másik pedig valamilyen szám, ezért a kivonás nem elvégezhető.
Szükség van tehát egy kis trükközésre.
A trükk lényege, hogy segítségül hívjuk az egységmátrixot, ami azt tudja, hogy bármilyen vektorra
odacsempésszük tehát az egységmátrixot
És így már tényleg ki lehet emelni.
Amit ezzel kaptunk, az nem más, mint egy egyenletrendszer.
Ennek biztosan megoldása az , és akkor van más megoldása is, ha .
Nekünk éppen ezek a más megoldások kellenek, azok a megoldások, amikor
tehát azt kell kiderítenünk, mikor lesz .
Vagyis most ugye
Ez egy egyenlet lesz, amit meg kell oldanunk, és az egyenlet megoldásai éppen a sajátértékek.
Az így kapott sajátértékeket visszahelyettesítjük majd ide,
és ebből lesznek a sajátvektorok.
De menjünk szépen lépésről lépésre!
Számoljuk ki az mátrix sajátértékeit és sajátvektorait.
1. A KARAKTERISZTIKUS EGYENLET
A főátló elemeiből kivonogatunk -kat, majd az így kapott determinánst egyenlővé tesszük nullával. Ez a karakterisztikus egyenlet.
2. A SAJÁTÉRTÉKEK
A karakterisztikus egyenlet megoldásai a sajátértékek.
3. A SAJÁTVEKTOROK
Az egyenletrendszer megoldásai a sajátvektorok.
Egy -es mátrixnak mindig koordinátából álló sajátvektorai
vannak, a megoldandó egyenletrendszer tehát valahogy így néz ki:
Az egyenletrendszernek mindig végtelen sok megoldása lesz.
1. A KARAKTERISZTIKUS EGYENLET
A főátló elemeiből kivonogatunk -kat,
majd az így kapott determinánst
egyenlővé tesszük nullával.
2. A SAJÁTÉRTÉKEK
A karakterisztikus egyen-
let megoldásai a sajátértékek.
3. A SAJÁTVEKTOROK
Az egyenletrendszer
megoldásai a sajátvektorok.
Egy -es mátrixnak mindig
koordinátából álló sajátvektorai vannak.
Ezt az egyenletrendszert kell megoldani:
Az egyenletrendszernek mindig végtelen sok megoldása lesz.
A főátló elemeiből kivonogatjuk a -kat
kifejtjük a determinánst:
az így kapott egyenlet a karakterisztikus egyenlet
az egyenlet megoldásai a sajátértékek:
és
Lássuk a sajátértékekhez tartozó sajátvektorokat! Mivel az mátrix -es ezért a sajátvektorok két koordinátásak lesznek:
Most pedig megkeressük a hozzájuk tartozó sajátvektorokat.
A két sajátérték már megvan: és
Most két sajátérték van, ezért két egyenletrendszerünk lesz.
Az egyik, amikor a másik, amikor
Az egyik egyenletrendszer, amikor a másik, amikor
Az egyenletrendszert bázistranszformációval oldjuk meg,
akinek ezzel kapcsolatos emlékei esetleg elhalványultak, nézze meg
az erről szóló nagyon izgalmas témakört.
A sajátvektorok:
A másik sajátvektor hasonlóan izgalmas módon:
A bázistranszformáció itt véget ér, így hát leolvassuk a megoldásokat.
A fönt maradt -et elnevezzük t-nek és s-nek.
Nézzük meg ennek a -as mátrixnak a sajátértékeit
és sajátvektorait.
A determinánst az első sora szerint fejtjük ki:
Az első sor elemeit a sakktábla-szabály alapján váltakozó előjellel kell venni.
Kifejtjük a 2x2-es determinánsokat is.
És kicsit összevonunk. Sőt nem is olyan kicsit.
Valahogyan meg kéne oldani ezt az egyenletet, hogy megkapjuk az egyenlet megoldásait, a sajátértékeket.
A karakterisztikus egyenlet megoldásai lesznek majd a sajátértékek.
Feltéve, hogy sikerül megoldanunk az egyenletet.
Íme, három hasznos megoldási ötlet ilyen típusú egyenletek megoldásához:
kiesik a konstans tag
Mindhárom esetben egy olyan szorzatot kaptunk, ami egy elsőfokú és egy másodfokú egyenlet szorzata, azokat pedig már külön-külön meg tudjuk oldani.
Vannak persze olyan harmadfokú egyenletek is, amiket nehezebb megoldani,
de szerencsére ezek általában elkerülnek bennünket.
Lássuk, a három közül melyik módszer válik be a mi egyenletünknél.
Emeljünk ki 2-t.
A kettes módszer itt nem működik,
ezért a fortélyos hármas módszert próbáljuk meg, hátha beválik.
A másodfokú részt felbontjuk,
aztán pedig megpróbáljuk szorzattá alakítani.
Van egy ilyen, hogy
emlékeztetőül:
A másodfokú izét szorzattá alakítjuk
Ez igazán remek, ugyanis most már ki lehet emelni,
aztán pedig hopp, már meg is oldottuk.
Itt összevonunk:
Három sajátérték van, ami valójában csak kettő,
mert a kétszeres sajátérték.
Jöhetnek a sajátvektorok!
Az egyenletrendszert a szokásos bázistranszformációval oldjuk meg.
Akinek esetleg elhalványultak az ezzel kapcsolatos emlékei, nézze meg a bázistranszformációról szóló témaköröket.
Belerakjuk a -et
Bázistranszformációval oldjuk meg:
Itt a bázistranszformáció elakad.
Ha két x is fönt mard,
az egyik t, a másik s
Most már itt se folytatható.
Itt csak egy x maradt fönt, de mivel a és
már foglalt, legyen .
A sajátvektor ha
ahol
És a -et
Bázistranszformációval oldjuk meg:
A sajátvektor ha
Ha egy -es mátrixnak van darab független sajátvektora, akkor létezik a mátrixnak egy úgynevezett diagonális alakja.
A diagonális alak így néz ki:
a főátlóban vannak a sajátértékek és az összes többi elem nulla.
A diagonális alakot a következő módon állítjuk elő:
itt vagyis egyszerűen úgy keletkezik, hogy a sajátvektorokat fogjuk, és leírjuk egymás mellé.
Nézzünk meg erre egy példát!
Állítsuk elő ennek a -as mátrixnak a diagonális alakját.
1. A KARAKTERISZTIKUS EGYENLET FELÍRÁSA
A főátló elemeiből kivonogatjuk a -kat, és vesszük a determinánsát:
A determinánst az első sora szerint fejtjük ki:
2. A KARAKTERISZTIKUS EGYENLET MEGOLDÁSAI A SAJÁTÉRTÉKEK
Most három sajátérték van, ; és .
Mindhárom sajátértékhez megkeressük a hozzá tartozó sajátvektort.
3. A SAJÁTÉRTÉKEKHEZ TARTOZÓ SAJÁTVEKTOROK MEGKERESÉSE
A sajátvektorokat úgy kapjuk meg, ha megoldjuk az
egyenletrendszert:
Az egyenletrendszereket bázistranszformációval oldjuk meg.
Akinek a bázistranszformációval kapcsolatos emlékei sajnálatos módon
elhalványultak, az nézze meg az erről szóló részt.
A bázistranszformáció elakadt, -et nem tudjuk lehozni, így elnevezzük –nek.
Leolvassuk a megoldást.
A sajátértékhez tartozó sajátvektor:
ahol
Most jöhet a többi sajátvektor. Megint az egyenletrendszert kell megoldanunk:
Belerakjuk a -t
Bázistranszformációval oldjuk meg:
A sajátértékhez tartozó sajátvektor:
ahol
és a -et
Bázistranszformációval oldjuk meg:
A sajátértékhez tartozó sajátvektor:
ahol
Úgy tűnik van három független sajátvektor, tehát a mátrix
diagonalizálható, a diagonalizáló mátrix pedig
A diagonális alakot az eredeti mátrixból a diagonalizáló mátrix
segítségével állítjuk elő:
A szorzásokat elvégezni azonban felesleges, mert a diagonális alak mindig úgy néz ki, hogy a főátlóban vannak a sajátértékek, az összes többi elem pedig nulla.
A sajátértékeket már régóta tudjuk
A diagonális alak tehát:
Néhány nagyon vicc es mátrixokkal kapcsolatos fogalommal fogunk megismerkedni.
Az első ilyen fogalom a sarokdetermináns vagy másnéven sarokfőminor.
Van itt egy mátrix:
Ennek a mátrixnak az első sarokfőminora ez a 2-es
A második sarokfőminor a
bal felső -es determináns
A harmadik sarokfőminor a
bal felső -as determináns
Ennek kiszámolása elég unalmas, de a kifejtési tétellel az jön ki, hogy
A negyedik sarokfőminor pedig
az egész mátrix determinánsa
Amit még az előzőnél is unalmasabb kiszámolni, de a kifejtési tétel szerint
A másik nagyon vicces fogalom a mátrixok definitsége lesz.
A definitség megállapításához pedig éppen ezek a főminorok fognak nekünk kelleni, pontosabban az, hogy milyen előjelűek.
Most éppen az első sarokfőminor pozitív, a második szintén pozitív,
a harmadik és negyedik pedig negatív.
Lássuk a definitséget.
Az -es mátrix
pozitív definit,
ha
negatív definit,
ha
pozitív szemidefinit,
ha
negatív szemidefinit,
ha
indefinit,
ha
minden sajátérték:
minden sajátérték:
minden sajátérték:
minden sajátérték:
van és sajátérték
és
-es mátrixoknál a definitség a sarokfőminorok alapján is eldönthető:
mindkét sarokfőminor
pozitív
az első negatív, a
második pozitív
az első pozitív, a
második nulla
az első negatív, a
második nulla
a többi esetben
-es mátrixoknál a definitség már nehezebben dönthető el a sarokfőminorok alapján:
minden sarokfőminor
pozitív
váltakozva - + - +
de mínusszal indul
Ha és nem az előző két esettel van dolgunk,
akkor biztosan indefinit.
Ha akkor nem tudni, ilyenkor csak
a sajátértékek kiszámolásával dönthető el.
Lássunk néhány mátrixot és állapítsuk meg a definitségüket.
Vannak itt ezek a mátrixok, döntsük el, hogy milyen definitek.
A sajátértékeket csak a legvégső esetben számoljuk ki, ha a sarokfőminorokkal szerencsétlenül járunk. Kezdjük az -val.
első sarokfőminor:
második sarokfőminor:
harmadik sarokfőminor:
Az mátrixnak minden sarokfőminora pozitív, tehát pozitív definit.
Nézzük mi van a mátrixszal.
első sarokfőminor:
második sarokfőminor:
harmadik sarokfőminor:
Itt is jön a kifejtési tétel, de nem szeretnék senkit untatni vele, az eredmény -15
A mátrix sarokfőminorai váltakozó előjellel - + - + - … ezért negatív definit.
Jöhet a .
első sarokfőminor:
második sarokfőminor:
harmadik sarokfőminor:
Már megint a kifejtési tétel, de ne húzzuk az időt, az eredmény 1
A sarokfőminorok itt is váltakozó előjelűek, de most + - +
Negatív definit csak olyankor van, ha a váltakozás mínusszal indul, tehát ez most nem lehet negatív definit.
Pozitív definit sem, mert akkor minden sarokfőminor pozitív, tehát marad a két szemidefinit és az indefinit.
A szemidefiniteknél viszont a mátrix determinánsa nulla.
Most ami nem éppen nulla, tehát indefinit.
A mátrix sarokfőminorai alapján nem lehet pozitív vagy negatív definit,
viszont miatt szemidefinit sem lehet ezért indefinit.
Végül lássuk mi van -vel.
első sarokfőminor:
második sarokfőminor:
harmadik sarokfőminor:
Hát ennél rosszabb nem is történhetett volna.
Ha a mátrix determinánsa nulla, akkor vagy valamelyik
szemidefinit vagy indefinit, de csak úgy tudjuk eldönteni,
ha kiszámoljuk a sajátértékeit.
Lássuk tehát a sajátértékeket.
A determinánst a legalsó sor szerint fejtjük ki
Ez az egész nulla, úgyhogy talán hagyjuk is.
Nem tudunk semmit kiemelni, így hát felbontjuk a zárójeleket.
és összevonunk
végül kiemelünk
A sajátértékek:
Kiemelünk 3-at
Mindhárom sajátértékre teljesül, hogy
a mátrix tehát pozitív szemidefinit.
Itt is van három különböző sajátérték, mivel pedig
különböző sajátértékekhez mindig különböző saját-
vektorok tartoznak, van három független sajátvektor.
Így hát is diagonalizálható.
Lássuk a hasonló mátrixokat!
így hát három mátrix van, amelyek ugyanannak a leképezésnek a mátrixai,
csak más-más bázisban felírva, a negyedik mátrix viszont eltérő.
Ha szimmetrikus mátrix és egy vektor -ben, akkor a
kifejezést kvadratikus alaknak nevezzük.
Ezek a kvadratikus alakok nagyon barátságosak, nézzünk is meg egy példát.
Legyen mondjuk
és
A hozzájuk tartozó kvadratikus alak
Számoljuk ki. A szorzásokat kell hozzá elvégezni, kezdjük hátulról.
Aztán még ezeket is összeszorozzuk.
És felbontjuk a zárójeleket.
Íme itt a kvadratikus alak.
Azért hívják kvadratikusnak vagyis négyzetesnek, mert ez mindig egy homogén másodfokú kifejezés. Ez azt jelenti, hogy az x-ek vagy négyzeten vannak benne,
vagy elsőfokúak, de akkor meg vannak szorozva egy másik elsőfokúval és így az is négyzetesnek számít.
Nézzünk meg egy másik kvadratikus alakot is.
és
Most az mátrix -as, így az vektornak is 3 koordinátája van.
Rettenetes lenne viszont megint elvégezni a szorzásokat, főleg, hogy most -as.
Szerencsére van itt egy trükk. Nem is olyan nagy trükk.
A kvadratikus alak valahogy úgy fog kinézni, hogy lesz benne aztán lesz és , meg lesznek vegyes tagok.
A kérdés csak az, hogy hány darab lesz ezekből. A válasz pedig éppen az mátrix.
Hát ez kész.
A dolog fordítva is működik, tehát ha van egy kvadratikus alak, akkor abból fel tudjuk írni a mátrixát.
ez például jó is:
Van itt egy kvadratikus alak:
A feladatunk az, hogy találjunk két vektort,
egy olyan vektort amire
és egy olyan vektort amire
Olyan vektort könnyű találni,
amire a kvadratikus alak pozitív.
Olyat már nehezebb, amire negatív,
de azért ilyen is van.
Aztán van itt egy másik kvadratikus alak is:
A feladatunk az, hogy találjunk két vektort,
egy olyan vektort amire
és egy olyan vektort amire
Olyat most is könnyű találni,
amire a kvadratikus alak pozitív.
próbáljuk ki ezt:
Olyat viszont nehezebb, amire negatív.
Sőt, nemhogy nehezebb, hanem lehetetlen.
Ez a kvadratikus alak tehát
tud pozitív és negatív is lenni.
Ez a kvadratikus alak viszont
csak pozitív tud lenni
A kvadratikus alakoknak ezekkel az érdekes szokásaival fogunk most foglalkozni.
A kvadratikus alak
pozitív definit, ha minden
vektorra
negatív definit, ha minden
vektorra
pozitív szemidefinit, ha minden
vektorra
negatív szemidefinit, ha minden
vektorra
indefinit, ha van olyan és ,
hogy és
A definitség eldöntésében a kvadratikus alak mátrixa segít minket.
ha a kvadratikus alak mátrixa
pozitív definit
ha a kvadratikus alak mátrixa
negatív definit
ha a kvadratikus alak mátrixa
pozitív szemidefinit
ha a kvadratikus alak mátrixa
negatív szemidefinit
ha a kvadratikus alak mátrixa
indefinit
Van itt egy kvadratikus alak, a feladatunk az, hogy döntsük el a definitségét.
Lássuk a mátrixot!
Már csak annyi dolgunk van, hogy eldöntsük, a kvadratikus alak mátrixának definitségét.
Ehhez lássuk a sarokfőminorokat.
első sarokfőminor:
3
második sarokfőminor:
harmadik sarokfőminor:
ez tutira 13
Hát úgy tűnik ez egy pozitív definit mátrix, tehát a kvadratikus alak is pozitív definit.
Nézzünk meg egy másikat is.
Van itt egy másik kvadratikus alak is, döntsük el ennek is a definitségét.
Már csak annyi dolgunk van, hogy eldöntsük, a kvadratikus alak mátrixának definitségét.
Ehhez jönnek a sarokfőminorok.
első sarokfőminor:
-5
második sarokfőminor:
harmadik sarokfőminor:
Hát úgy tűnik ez egy negatív definit mátrix, tehát a kvadratikus alak is negatív definit.
A leképezést lineáris leképezésnek nevezzük, ha bármely vektorokra és számra teljesül, hogy
Minden lineáris leképezés valahogy így néz ki:
Ha akkor a lineáris leképezést lineáris transzformációnak nevezzük.
A leképezés a vektoraihoz rendel -beli vektorokat, de egyáltalán nem biztos, hogy így az egész előáll képként. A -nek azt a részét, amely a leképezés során előáll, a leképezés képterének nevezzük és -vel jelöljük.
A nullvektorból minden lineáris leképezés nullvektort csinál, vagyis képe mindig ,
de előfordulhat, hogy más -beli vektorok képe is nullvektor lesz.
Ezen vektorok halmazát nevezzük a leképezés magterének és -vel jelöljük.
A magtér és a képtér nem csupán részhalmazok -ben és -ben, hanem alterek is. altér -ben és altér -ben.
A képtér és a magtér dimenziója összesen éppen kiadja dimenzióját.
Ezt az összefüggést dimenziótételnek nevezzük:
DIMENZIÓTÉTEL:
mateking.hu
Minden lineáris leképezést jellemezhetünk egy mátrixszal. Valójában mindegyiket végtelen sok mátrixszal jellemezhetjük, ezek a mátrixok pedig úgy keletkeznek, hogy veszünk egy tetszőleges bázist -ben és a bázisvektorok képeit egymás mellé írjuk. Nézzünk erre egy példát!
Minden lineáris leképezést jellemezhetünk egy mátrixszal. Valójában mindegyiket végtelen sok mátrixszal jellemezhetjük, ezek a mátrixok pedig úgy keletkeznek, hogy veszünk egy tetszőleges bázist -ben és a bázisvektorok képeit egymás mellé írjuk. Nézzünk erre egy példát!
Vegyük például a tengelyes tükrözést.
Ez egy lineáris leképezés.
A tükrözés mátrixát úgy kapjuk,
hogy a bázisvektorok képeit egymás mellé írjuk:
Vegyük például a tengelyes tükrözést. Ez egy lineáris leképezés.
Ez tehát a tükrözés mátrixa, legalábbis a szokásos bázisban.
Ha ugyanis egy másik bázis alapján írjuk föl ugyanennek a tükrözésnek a mátrixát, akkor egészen más mátrixot kapunk. Legyen például a másik bázis a következő:
A szokásos bázis alapján a tükrözés mátrixát úgy kapjuk, hogy a bázisvektorok képeit egymás mellé írjuk:
Ez tehát a tükrözés mátrixa, legalábbis a szokásos bázisban.
Ha ugyanis egy másik bázis alapján írjuk föl ugyanennek a tükrözésnek a mátrixát,
akkor egészen más mátrixot kapunk. Legyen például a másik bázis a következő:
A transzformáció mátrixa most is úgy keletkezik,
hogy egymás mellé írjuk a bázisvektorok képeit.
Van itt azonban egy izgalmas fordulat.
Addig minden stimmel, hogy a bázisvektorok képe:
Addig minden stimmel, hogy megkaptuk az új bázisvektorok képeit.
Csakhogy itt az új bázisvektorok képeit még mindig a régi bázisban adtuk meg.
Nekünk azonban a bázisvektorok képeit is az új bázisvektorok segítségével kell megadnunk.
Az tehát a kérdés, hogy mennyit vegyünk az és vektorokból,
hogy előálljanak és képei.
Az tehát a kérdés, hogy mennyit vegyünk az és vektorokból, hogy előálljanak és képei.
Ezúttal a szerencse megsegít bennünket, az vektor képe ugyanis
ami úgy tűnik éppen mínuszegyszerese.
Az vektor képe tehát úgy jön ki, hogy -ből 0 darab, -ből pedig -1 darab kell.
Lássuk mi a helyzet az vektor képével. Itt is szerencsénk van.
ami éppen az eredeti mínuszegyszerese, tehát -ből -1 darab, -ből 0 darab kell.
Lássuk a transzformáció mátrixát ebben az új bázisban!
A tükrözés mátrixa most is
úgy keletkezik, hogy egymás mellé
írjuk a bázisvektorok képeit.
Csakhogy új bázisvektorok képeinek
ezeket az új koordinátáit kell írnunk
a tükrözés mátrixába.
Na ezt kell írnunk a mátrix első oszlopába, ahova az vektor képe kerül.
Az új bázisvektorok képeinek ezek az új koordinátái kerülnek a transzformáció mátrixába.
Az vektor képe szintén szerencsésen előállítható, ugyanis
ami pedig éppen az eredeti mínuszegyszerese, tehát -ből -1db és -ből 0db kell.
Az új bázisvektorok képeinek ezek az új koordinátái kerülnek a transzformáció mátrixába.
Az új bázisban felírt mátrix:
Mindezt egyszerűbben is megkaphatjuk egy remek kis összefüggés segítségével.
ahol az új bázisra áttérés mátrixa a régi bázisban. Mit is jelent mindez?
Van ugye a transzformáció régi mátrixa, ez
és van ez a bizonyos , ami annak a transzformációnak a mátrixa, ami a régi bázisból új bázist csinál. Ez a bizonyos mátrix tehát
RÉGI BÁZIS
ÚJ BÁZIS
A képlet azt mondja, hogy az új mátrixot így kapjuk:
A leképezés mátrixa sokkal többet is tud annál, minthogy egyszerűen leírja magát a leképezést.
Minden vektorról megmondja, hogy mi lesz a vektor képe:
A vektor képe úgy lesz, hogy egyszerűen
megszorozzuk a vektort a leképezés mátrixával.
Nézzük meg például mi lesz a tükrözés során
ebből a remek vektorból:
A tükrözés mátrixa normál bázisban:
A vektor képe:
És tényleg!
Nézzük meg mi történik ugyanezzel a vektorral a másik bázisban.
Az új bázisban koordinátái megváltoznak.
A vektor éppen kétszerese -nek,
ezért az első koordinátája kettő,
a második koordináta pedig nulla.
A tükrözés mátrixa az új bázisban:
vagyis nulla darab -re és
–2 darab -re van szükség
Lássuk a leképezés mátrixának még néhány további izgalmas tulajdonságát.
Ha egy leképezés mátrixa akkor
a leképezés megfordításának mátrixa
A leképezés megfordítását nevezhetjük úgy,
hogy a leképezés inverze.
A leképezés megfordítását nevezhetjük úgy, hogy a leképezés inverze.
Egy leképezésnek pontosan akkor létezik inverze, ha a mátrixnak létezik inverze,
és az inverz leképezés mátrixa:
mátrixa
Ha van két leképezés, mondjuk és a leképezések mátrixa pedig és ,
akkor a leképezés mátrixa lesz.
Nézzünk meg erre egy példát.
Legyen az eddigi tükrözés az x tengelyre,
pedig mondjuk tükrözés az y tengelyre.
Ekkor a két tükrözés egymás utáni
alkalmazása.
A leképezés mátrixa:
Az x tengelyre tükrözés mátrixa:
Az y tengelyre tükrözés mátrixa:
Ez éppen az origó középpontú tükrözés mátrixa.
A leképezések egymás után alkalmazásáról szóló tétel
A leképezés mátrixa:
A leképezés a vektor
A leképezésben minden
vektor képét így kapjuk:
Ha létezik a leképezés
inverze, akkor mátrixa:
mátrixa
Ezek a tételek lehetővé teszik, hogy készítsünk egy remek kis képletet ami leírja, hogy miként változik meg egy leképezés mátrixa az új bázisra való átállásnál.
A leképezés mátrixa új bázisban felírva
ahol az új bázisra áttérés mátrixa a régi bázisban.
Lássuk, hogy mit is jelent mindez!
Van ugye a transzformáció régi mátrixa, ez
és van ez a bizonyos , ami annak a transzformációnak a mátrixa, ami a régi bázisból új bázist csinál. Ez a bizonyos mátrix tehát
és van ez a bizonyos ami annak a leképezés-
nek a mátrixa, ami a régi bázisból új bázist csinál.
Ez a bizonyos mátrix tehát egyszerűen
úgy keletkezik, hogy fogjuk az új bázis-
vektorokat és leírjuk egymás mellé.
A képlet azt mondja, hogy az új mátrixot így kapjuk:
Ez csodás, így is kijött a tükrözés új mátrixa, kevesebb gondolkodással és több számolással.
Mindezeket foglaljuk össze!
LINEÁRIS LEKÉPEZÉSEK MÁTRIXA
A lineáris leképezésnek a bázisban felírt mátrixát úgy kapjuk meg, hogy a bázisvektorok képeit egymásmellé írjuk:
Ha egy másik bázisban írjuk föl a mátrixot, akkor
A két mátrix közötti átjárást az alábbi tétel biztosítja:
Itt az új bázisra való áttérés mátrixa:
Egyszerűen úgy keletkezik, hogy az új bázisvektorokat
fogjuk és leírjuk egymás mellé.
Egyszerűen úgy keletkezik, hogy az új bázis
vektorait leírjuk egymás mellé.
Ha és olyan mátrixok, hogy létezik egy mátrix
úgy, hogy
akkor az előző tétel alapján és mindketten
ugyanannak a leképezésnek a mátrixa, csak éppen
más-más bázisban felírva.
Ezt a tényt úgy nevezzük, hogy a két mátrix egymáshoz hasonló.
Ez elvezet minket néhány nagyon izgalmas összefüggéshez, amik most fognak jönni!
és mátrixok hasonlók, tehát , ha létezik olyan mátrix, amire
Egy leképezést akkor nevezünk lineáris leképezésnek, ha bármely vektorokra és számra teljesül, hogy
A leképezés vektoraihoz rendel hozzá -ben lévő vektorokat.
A -nek ezt a részét képtérnek nevezzük és -vel jelöljük.
Vannak olyan vektorok, amikből a leképezés nullvektort csinál.
A -nek azt a részét amiben ezek a vektorok vannak magtérnek nevezzük
és -vel jelöljük.
lineáris leképezés, ha
és
Minden lineáris leképezést jellemezhetünk mátrixokkal. Ezeket a mátrixokat úgy kapjuk, hogy veszünk egy bázist -ben, és a bázisvektorok képeit egymás mellé írjuk.
Mivel végtelen sok bázis van -ben, ezért ugyanannak a lineáris leképezésnek végtelen sok mátrixa van.
A lineáris leképezésnek a bázisban felírt mátrixa
Lássunk néhány példát!
Vegyük azt a leképezést, amely és
Ellenőrizzük, hogy valóban lineáris leképezés-e, ha igen adjuk meg a képteret, a magteret és a transzformáció mátrixát.
Itt van két vektor
és vizsgáljuk meg, hogy teljesül-e:
Van itt azonban egy kis gond, ha elvégezzük az összeadást.
Úgy tűnik tehát nem teljesül, hogy ezért a másik tulajdonságot meg se nézzük, sajna nem lineáris leképezés.
Nézzünk meg egy másik leképezést is, amely és
Ellenőrizzük, hogy valóban lineáris leképezés-e, ha igen adjuk meg a képteret a magteret és a transzformáció mátrixát.
Itt vannak megint ezek a vektorok
és vizsgáljuk meg, hogy teljesül-e:
Nézzük, teljesül-e, hogy:
Mindkettő teljesül, tehát a leképezés lineáris.
Most, hogy ez kiderült, lássuk mi lesz a magtér és a képtér, illetve a leképezés mátrixa.
A magtérben olyan vektorok vannak, amelyek képe nullvektor, tehát
Ebből következik, vagyis a magtérben olyan vektorok vannak, amelyek első és második koordinátája megegyezik:
A képtérben olyan vektorok vannak, amelyek első koordinátája bármi, de második koordinátája nulla, vagyis:
A transzformáció mátrixa standard bázisban:
tehát a transzformáció mátrixa:
Ez igazán remek, úgyhogy nézzünk meg még egy leképezést is.
Vegyük azt az leképezést, hogy
Ellenőrizzük, hogy valóban lineáris leképezés-e, ha igen adjuk meg a képteret, a magteret és a transzformáció mátrixát.
Elsőként megnézzük, hogy valóban lineáris leképezés-e.
Itt van két vektor
és lássuk, hogy teljesül-e:
Ezek sajna nem egyenlők, így nem teljesül,
hogy tehát
nem lineáris leképezés.
A leképezést lineáris leképezésnek nevezzük, ha bármely vektorokra és számra teljesül, hogy
lineáris leképezés, ha
és
A lineáris leképezésnek a bázisban felírt mátrixát úgy kapjuk meg, hogy a bázisvektorok képeit egymásmellé írjuk
Ha egy másik bázisban írjuk föl a mátrixot, akkor
A két mátrix közötti átjárást az alábbi tétel biztosítja:
Itt az új bázisra való áttérés mátrixa:
Itt a sajátbázisra való áttérés mátrixa:
SAJÁTBÁZIS
Bármilyen bázist választunk is -ben, a leképezés mátrixa mindig egy -es mátrix lesz. Ha ennek a mátrixnak van n darab független sajátvektora, akkor ezek a sajátvektorok szintén egy bázist alkotnak -ben, amit sajátbázisnak nevezünk.
A leképezés sajátbázisa nagyon sok mindent tud.
Ha egy leképezésnek létezik sajátbázisa, az azt jelenti, hogy a leképezés mátrixának van n darab független sajátvektora, vagyis a mátrix diagonalizálható.
A diagonalizáló mátrix úgy keletkezik, hogy a sajátvektorokat egymás mellé írjuk.
Ez egyúttal a sajátbázisra való áttérés mátrixa is.
Ha létezik sajátbázis, akkor a leképezés mátrixa sajátbázisban felírva
mindig diagonális mátrix.
Ebben a mátrixban éppen az
sajátvektorokhoz tartozó sajátértékek.
Lássunk erre egy példát!
Van itt ez az leképezés:
Ellenőrizzük, hogy valóban lineáris leképezés-e, ha igen adjuk meg a képteret, a magteret és a transzformáció mátrixát, adjuk meg a sajátértékeit, sajátvektorait,
ha van, akkor a sajátbázisát és a diagonális alakját.
Elsőként megnézzük, hogy valóban lineáris leképezés-e.
Legyen
Nézzük meg, hogy teljesül-e:
Ez is teljesül, tehát a leképezés lineáris. Végre rátérhetünk az izgalmasabb részekre.
Nézzük mi lesz a magtér és a képtér.
A magtérben olyan vektorok vannak, amelyek képe nullvektor, tehát
A jelek szerint tehát és vagyis a magtérben olyan vektorok vannak, amelyek első és második koordinátája megegyezik, a harmadik koordinátája pedig nulla:
A magtérben olyan vektorok vannak, amelyek első és második koordinátája megegyezik, a harmadik koordinátája pedig nulla:
A képtérben olyan vektorok vannak, amelyek első koordinátája valami, a második koordináta ennek a mínuszegyszerese, a harmadik koordináta pedig bármi.
A transzformáció képtere tehát kétdimenziós:
Nézzük meg a leképezés mátrixát.
A mátrixot a standard bázisban írjuk fel:
vagyis a transzformáció mátrixa:
Lássuk van-e a leképezésnek sajátbázisa. Ehhez ki kell számolnunk a sajátértékeket
és meg kell keresni a hozzájuk tartozó sajátvektorokat.
A karakterisztikus egyenlet:
Az utolsó sor szerint fejtünk ki.
A sajátértékek:
A sajátértékekhez tartozó sajátvektorokat úgy kapjuk meg, ha megoldjuk a egyenletrendszert.
Ez három különböző egyenletrendszer lesz, amit megoldhatnánk elemi bázistranszformációval is, de most nincs kedvünk azzal megoldani.
Van 3 független sajátvektor, így létezik sajátbázis és a transzformáció mátrixa diagonalizálható.
A diagonalizáló mátrixot úgy kapjuk, hogy a sajátvektorokat egymásmellé írjuk, ami tulajdonképpen nem más, mit az új bázisra, való áttérés mátrixa.
Ez az új bázis éppen a sajátbázis.
És íme, a diagonális alak:
Nézzünk meg egy másik leképezést is!
Elérkezett az idő, hogy megnézzük néhány fontosabb lineáris leképezés mátrixát.
Olyan leképezésekét, amiket már régebbről mindenki ismer.
Az első ilyen leképezés a tengelyes tükrözés.
A mátrixot a szokásos bázis szerint írjuk fel:
x tengelyre tükrözés
Aztán itt van az leképezések közül az egyik
legfontosabb, az origó középpontú -szögű forgatás,
ami esetén éppen az origó középpontú tükrözés.
origó középpontú
-szögű forgatás
A szokásos bázisban az -szögű forgatás mátrixa:
Lássuk a koordinátákat!
Az -irányszögű egységvektor első koordinátája
második koordinátája
Az irányszög most éppen , ezért
az első koordináta
a második koordináta
Vannak itt aztán ezek a trigonometriai összefüggések,
amiket érdemes megjegyeznünk:
Az irányszög most , ezért
az első koordináta
a második koordináta
Az origó középpontú tükrözés mátrixát egyszerűen
úgy kapjuk, hogy
origóra tükrözés
A lineáris leképezések egy külön csoportját alkotják a vetítések, vagy más néven projekciók. Nézzük meg az x tengelyre való merőleges vetítést.
A szokásos bázis alapján a vetítés mátrixa:
x tengelyre vetítés
A LINEÁRIS LEKÉPEZÉSEK VEKTORTERE: HOM (V1,V2)
A lineáris leképezést másnéven homomorfizmusnak is nevezzük.
Ezek a homomorfizmusok és azok mátrixai maguk is egy vektorteret alkotnak,
ezt a vektorteret -nek nevezzük.
Injektívnek nevezzük azokat a homomorfizmusokat, ahol különböző vektorok képe is különböző:
Ha akkor
Ha tudunk mutatni olyan vektorokat amire
akkor a homomorfizmus nem injektív.
Lássuk milyen következményei vannak ennek.
Nevezzük el mondjuk valami -nek.
Viszont ugye
Tehát ami azt jelenti, hogy benne van a magtérben.
Vagyis az, hogy egy leképezés nem injektív, éppen azt jelenti, hogy -ben vannak a nullvektoron kívül más vektorok is, tehát
Az állítás megfordítása is igaz, ha akkor a magtérben kell, hogy legyen
a nullvektoron kívül valamilyen más vektor is,
aminek a képe viszont , mert ugye benne van a magtérben.
Vagyis két különböző vektor képe ugyanaz és így a leképezés nem injektív.
A homomorfizmus pontosan akkor injektív, ha
Ekkor a dimenziótétel alapján vagyis a leképezés dimenziótartó.
A sík szokásos transzformációi közül az x vagy y tengelyre tükrözés és az origó körüli forgatás dimenziótartó transzformáció, az x tengelyre vetítés nem.
Van aztán egy másik izgalmas tulajdonság is.
Egy leképezést szürjektívnek nevezünk, ha a teljes előáll képként.
Azok a homomorfizmusok, amelyek injektívek és szürjektívek is egyszerre,
a bijektív homomorfizmusok.
Ezekre külön elnevezés van forgalomban, őket nevezzük izomorfizmusoknak.
Ha izomorfizmus, akkor és a dimenziótétel miatt
Ráadásul a képtér éppen megegyezik -vel, ezért .
Ha izomorfizmus, akkor .
Az izomorfizmus tehát egy kölcsönösen egyértelmű megfeleltetés két vektortér vektorai között, az egyik vektortér minden vektorához tartozik a másik vektortérben pontosan egy bizonyos vektor, vagyis a két vektortér lényegében ugyanaz.
Ez a miatt is így kell, hogy legyen, hiszen egy vektorteret a dimenziója már jellemez.
Minden lineáris leképezést jellemezhetünk mátrixokkal.
Ezeket a mátrixokat úgy kapjuk, hogy veszünk egy bázist -ben, és a bázisvektorok képeit egymás mellé írjuk.
Mivel végtelen sok bázis van -ben, ezért ugyanannak a lineáris leképezésnek végtelen sok mátrixa van.
A lineáris leképezésnek a bázisban felírt mátrixa
Egy másik bázisban felírt mátrixa pedig
A két mátrix közötti átjárást az alábbi tétel biztosítja:
Itt az új bázisra való áttérés mátrixa:
Ez a bizonyos mátrix tehát egyszerűen úgy keletkezik,
hogy fogjuk az új bázisvektorokat és leírjuk egymás mellé.
Ha és olyan mátrixok, hogy létezik egy
mátrix, úgy, hogy
akkor az előző tétel alapján és mindketten ugyanannak a leképezésnek a mátrixa, csak más-más bázisban felírva.
Ezt a tényt úgy nevezzük, hogy a két mátrix egymáshoz hasonló.
és mátrixok hasonlók, vagyis , ha létezik olyan mátrix, amire
Ha még emlékszünk rá, az mátrix akkor diagonalizálható, ha létezik n darab független sajátvektora, vagyis sajátvektorokból álló bázisa és a diagonalizáló mátrix éppen a sajátvektorok egymásmellé írásából kaptuk.
Na ez nem más, mint az iménti új bázisra való átállás tétele:
ahol sajátvektorokból álló mátrix
Ezek szerint bármely mátrix hasonló a diagonális alakjával:
.
Ha pedig van egy másik mátrix, amelynek szintén létezik diagonális alakja és
akkor ebből következik, hogy .
Az állítás megfordítása is igaz, vagyis megállapíthatjuk, hogy ha és mindketten diagonalizálható mátrixok, akkor
Lássunk néhány példát!
Itt vannak ezek a mátrixok, a feladatunk pedig az, hogy döntsük el melyek hasonlóak közülük.
Próbáljuk meg előállítani a diagonális alakjukat, mert ha ugyanaz a diagonális alak,
akkor hasonlóak.
Előfordulhat köztük olyan mátrix is, amelyiknek nincs diagonális alakja,
de majd ott is biztosan történni fog valami. Szóval kezdjük el.
Az mátrix diagonális alakjával kezdjük. Kiszámoljuk a sajátértékeket:
Úgy tűnik van három különböző sajátérték,
mivel pedig különböző sajátértékekhez mindig
különböző sajátvektorok tartoznak, van három
független sajátvektor.
Így hát diagonalizálható.
Jöhet a diagonális alakja.
Ezzel nem lesz sok dolgunk, mert eleve diagonális mátrix.
Kiemelünk 3-at
sőt inkább legyen -3
és aztán is kiemelhető
Úgy tűnik van három különböző sajátérték, mivel pedig különböző sajátértékekhez mindig különböző sajátvektorok tartoznak, van három független sajátvektor.
Így hát diagonalizálható.
És itt van még ez a is.
A determinánst a legalsó sor szerint fejtjük ki
Ez az egész nulla, úgyhogy talán hagyjuk is.
Nem tudunk semmit kiemelni, így hát felbontjuk a zárójeleket.
és összevonunk
végül kiemelünk
A sajátértékek:
Itt is van három különböző sajátérték, mivel pedig
különböző sajátértékekhez mindig különböző saját-
vektorok tartoznak, van három független sajátvektor.
Így hát is diagonalizálható.
Lássuk a hasonló mátrixokat!
így hát három mátrix van, amelyek ugyanannak a leképezésnek a mátrixai,
csak más-más bázisban felírva, a negyedik mátrix viszont eltérő.