- Mátrixok és vektorok
- Vektorok, egyenesek és síkok egyenletei
- Vektorterek, független és összefüggő vektorok
- Lineáris egyenletrendszerek, mátrixok rangja és inverze
- Determináns, adjungált, kvadratikus alakok
- Sajátérték, sajátvektor, sajátfelbontás
- Lineáris leképezések
- Síkbeli és térbeli leképezések és mátrixaik
- Egyenletrendszerek optimális megoldása, pszeudoinverz
- Vektornorma, mátrixnorma, mátrixok kondíciószáma
- Ortogonális mátrixok, Fourier-együtthatók, Gram-Schmidt ortogonalizáció
- Mátrixok LU-felbontása és QR-felbontása
- Iterációs módszerek egyenletrendszerek megoldására
- Komplex számok
- Polinomok
- Interpolációs polinomok
- Oszthatóság
- Euklideszi algoritmus, Diofantoszi egyenletek
- Kongruenciák, Euler-Fermat tétel
- Csoportok, gyűrűk, testek
Ortogonális mátrixok, Fourier-együtthatók, Gram-Schmidt ortogonalizáció
Ortogonális vektorrendszer
Azokat a vektorokat, ahol a vektorok egymásra merőlegesek ortogonális rendszernek nevezzük.
Gram-mátrix
Az olyan mátrixot, ahol minden elem egy-egy vektorok szorzata, szorzótáblaszerűen elrendezve, Gram mátrixnak nevezzük.
Pl. a $\underline{b}_1$, $\underline{b}_2$, $\underline{b}_3$ vektorok Gram mátrixa:
\( \begin{pmatrix} \langle \underline{b}_1 \,, \underline{b}_1 \rangle & \langle \underline{b}_1 \,, \underline{b}_2 \rangle & \langle \underline{b}_1 \,, \underline{b}_3 \rangle \\ \langle \underline{b}_2 \,, \underline{b}_1 \rangle & \langle \underline{b}_2 \,, \underline{b}_2 \rangle & \langle \underline{b}_2 \,, \underline{b}_3 \rangle \\ \langle \underline{b}_3 \,, \underline{b}_1 \rangle & \langle \underline{b}_3 \,, \underline{b}_2 \rangle & \langle \underline{b}_3 \,, \underline{b}_3 \rangle \end{pmatrix} \)
Ortogonális bázis
Hogyha egy ortogonális vektorrendszer éppen annyi vektorból áll, amennyi koordinátája van a vektoroknak, akkor az a vektorrendszer egy ortogonális bázis.
Ortonormált vektorrendszer
Ha egy vektorrendszerben bármely két vektor skaláris szorzata 0, akkor az egy ortonormált vektorrendszer.
Ortonormált vektorrendszer
Ha egy vektorrendszerben bármely két vektor skaláris szorzata 0 és minden vektora egységnyi hosszú, akkor az egy ortonormált vektorrendszer.
Ortonormált bázis
Az olyan bázist, ahol bármely két vektor skaláris szorzata 0 és minden vektor egységhosszú, ortonormált bázisnak nevezzük.
Gauss-féle normálegyenlet
Hogyha a $\underline{b}_1$, $\underline{b}_2$, ..., $\underline{b}_n$ vektorok a $V$ vektortérnek egy bázisa, akkor bármely $\underline{x} \in V$ vektor előállítható a bázisvektorok lineáris kombinációjaként.
\( \lambda_1 \cdot \underline{b}_1 + \lambda_2 \cdot \underline{b}_2 + \dots + \lambda_n \cdot \underline{b}_n = \underline{x} \)
És most végre azt is megtudjuk a skaláris szorzat segítségével, hogy pontosan mik lesznek ezek a $\lambda_i$ együtthatók.
A trükk az lesz, hogy beszorozzuk az egyenletet a $\underline{b}_1$ bázisvektorral...
\( \lambda_1 \cdot \underline{b}_1 \cdot \underline{b}_1 + \lambda_2 \cdot \underline{b}_2 \cdot \underline{b}_1 + \dots + \lambda_n \cdot \underline{b}_n \cdot \underline{b}_1 = \underline{x} \cdot \underline{b}_1 \)
Aztán beszorozzuk a $\underline{b}_2$ bázisvektorral is.
\( \lambda_1 \cdot \underline{b}_1 \cdot \underline{b}_2+ \lambda_2 \cdot \underline{b}_2 \cdot \underline{b}_2 + \dots + \lambda_n \cdot \underline{b}_n \cdot \underline{b}_2= \underline{x} \cdot \underline{b}_2 \)
És így tovább az összesel.
\( \lambda_1 \cdot \underline{b}_1 \cdot \underline{b}_n + \lambda_2 \cdot \underline{b}_2 \cdot \underline{b}_n + \dots + \lambda_n \cdot \underline{b}_n \cdot \underline{b}_n= \underline{x} \cdot \underline{b}_n \)
Az így keletkező $n$ darab egyenletet Gauss-féle normálegyenletnek nevezzük.
Fourier-együttható
Hogyha a $\underline{b}_1$, $\underline{b}_2$, ..., $\underline{b}_n$ vektorok a $V$ vektortérben egy ortogonális bázis, és $\underline{x} \in V$ tetszőleges vektor, akkor az
\( \underline{x} = \lambda_1 \cdot \underline{b}_1 + \lambda_2 \cdot \underline{b}_2 + \dots + \lambda_n \cdot \underline{b}_n \)
lineáris kombináció együtthatói felírhatók skaláris szorzatok segítségével:
\( \lambda_1 = \frac{ \langle \underline{x} , \underline{b}_1 \rangle}{ \langle \underline{b}_1 , \underline{b}_1 \rangle} \)
\( \lambda_2 = \frac{ \langle \underline{x} , \underline{b}_2 \rangle}{ \langle \underline{b}_2 , \underline{b}_2 \rangle} \)
\( \vdots \)
\( \lambda_n = \frac{ \langle \underline{x} , \underline{b}_n \rangle}{ \langle \underline{b}_n , \underline{b}_n \rangle} \)
Ezeket az együtthatókat Fourier-együtthatóknak nevezzük.
Ortogonális mátrix
Az ortogonális mátrix olyan, ahol az oszlopvektorok egységnyi hosszúak.
Ortogonális mátrixok tulajdonságai
Hogyha $Q$ egy ortogonális mátrix, akkor
\( Q^{-1} = Q^T \)
$Q$ oszlopvektorai ortonormált rendszert alkotnak
$Q$ sorvektorai ortonormált rendszert alkotnak
\( Q \cdot Q^T = Q^T \cdot Q = I \)
Gram-Schmidt ortogonalizáció
A régi bázis úgy alakítható át ortogonális bázissá, hogy szépen egymás után lecseréljük a régi bázisvektorokat új bázisvektorokra. Az átalakítást Gram-Schmidt ortogonalizációnak nevezzük.
Az új ortogonális bázis legyen $\underline{q}_1$, $\underline{q}_2$ és $\underline{q}_3$
Az új bázis első vektorát akárhogy választhatjuk, legyen ez mondjuk a régi bázisból $\underline{q}_1$
\( \underline{q}_1 = \underline{b}_1 \)
Aztán lássuk mi lesz az új bázis második vektora:
\( \underline{q}_2 = \underline{b}_2 - \lambda_{21} \cdot \underline{q} \qquad \lambda_{21}=\frac{\langle \underline{q}_1 \,, \underline{b}_2 \rangle}{\langle \underline{q}_1 \,, \underline{q}_1 \rangle} \)
Itt jön aztán az új bázis harmadik vektora:
\( \underline{q}_3 = \underline{b}_3 - \lambda_{31} \cdot \underline{q}_1 - \lambda_{32} \cdot \underline{q}_2 \qquad \lambda_{31}=\frac{\langle \underline{q}_1 \,, \underline{b}_3 \rangle}{\langle \underline{q}_1 \,, \underline{q}_1 \rangle} \qquad \lambda_{32}=\frac{\langle \underline{q}_2 \,, \underline{b}_3 \rangle}{\langle \underline{q}_2 \,, \underline{q}_2 \rangle} \)
a) Itt egy ortogonális bázis:
\( \underline{b}_1 = \begin{pmatrix} 2 \\ -3 \\ 2 \end{pmatrix} \quad \underline{b}_2 = \begin{pmatrix} -1 \\ 2 \\ 4 \end{pmatrix} \quad \underline{b}_3 = \begin{pmatrix} 16 \\ 10 \\ -1 \end{pmatrix} \)
Meg itt van ez a vektor:
\( \underline{x} = \begin{pmatrix} 1 \\ -1 \\ 2 \end{pmatrix} \)
Számoljuk ki a $\underline{b}_1$, $\underline{b}_2$, $\underline{b}_3$ bázis szerinti Fourier-együtthatókat.
b) Az ortonormált bázis:
\( \underline{b}_1 = \begin{pmatrix} 2/3 \\ 2/3 \\ 1/3 \end{pmatrix} \quad \underline{b}_2 = \begin{pmatrix} -1/3 \\ 2/3 \\ -2/3 \end{pmatrix} \quad \underline{b}_3 = \begin{pmatrix} -2/3 \\ 1/3 \\ 2/3 \end{pmatrix} \)
Itt ez a vektor:
\( \underline{x} = \begin{pmatrix} 2 \\ -1 \\ 4 \end{pmatrix} \)
Számoljuk ki a Fourier-együtthatókat.
Az alábbi bázist alakítsuk át ortogonális bázissá a Gram-Schmidt-ortogonalizáció segítségével.
\( \underline{b_1}=\begin{pmatrix} 1 \\ 1 \\ 2 \end{pmatrix} \quad \underline{b_2}=\begin{pmatrix} 3 \\ 1 \\ 1 \end{pmatrix} \quad \underline{b_3}=\begin{pmatrix} 2 \\ 2 \\ 1 \end{pmatrix} \)
Azokat a vektorrendszereket, ahol a bázisvektorok egymásra merőlegesek ortogonális rendszernek nevezzük.
Annak érdekében, hogy kicsit mutatósabban nézzen ki, áttérünk a skaláris szorzatnak erre a kacsacsőrös jelölésére.
És most elkészítjük ezt a mátrixot.
Mindegyik vektort mindegyikkel összeszorozzuk.
Az eredményeket pedig beírjuk ide a mátrixba.
Mivel a skaláris szorzat kommutatív…
Ez egy szimmetrikus mátrix lesz.
Az így keletkező mátrixot Gram-mátrixnak nevezzük.
Itt jön aztán egy másik vektorrendszer is.
Ez a másik vektorrendszer egy ortogonális rendszer:
Bármely két vektort választjuk ki, a skaláris szorzatuk nulla, vagyis a vektorok egymásra merőlegesek.
Na persze, ha egy vektort önmagával szorozzuk meg…
az nem nulla.
Hogyha egy ortogonális vektorrendszer éppen annyi vektorból áll, amennyi koordinátája van a vektoroknak, akkor az a vektorrendszer bázis.
Most éppen 3 vektorunk van, és a koordináták száma is 3…
Így hát ez a vektorrendszer egy bázis.
Egy ortogonális bázis.
Az ortogonális bázisok Gram-mátrixa mindig diagonális mátrix.
Létezik egy vektor, ami minden vektorra merőleges.
Éppen itt is van.
Ez a vektor a nullvektor.
Ha egy ortogonális rendszerhez hozzávesszük a nullvektort, akkor szintén ortogonális rendszert kapunk.
Csak éppen ez már biztosan nem lesz bázis.
A nullvektor ugyanis elrontja.
Hogyha egy ortogonális rendszer minden vektora egységnyi hosszú, akkor azt ortonormált rendszernek nevezzük.
Ez most épp nem ortonormált rendszer, mert a vektorok hossza nem egységnyi.
A nullvektor hossza egészen biztosan nulla…
Így aztán egy ortonormált rendszerben semmiképp sem szerepelhet a nullvektor.
Pápá nullvektor.
A megmaradó vektorok még mindig nem egységnyi hosszúak…
Egy vektor hosszát, amit egyébként kettes normának nevezünk, a szokásos módon számoljuk ki.
A koordináták négyzetösszege a gyök alatt.
Az egyszerűség kedvéért ezt csak így fogjuk jelölni.
Egy bázisból könnyedén gyárthatunk ortonormált bázist.
Szépen egymás után kiszámoljuk a vektorok hosszát…
És aztán mindegyik vektort normáljuk.
Vagyis elosztjuk a saját hosszával.
Hát, ez megvolna.
Az ortonormált bázisok Gram-mátrixa mindig az egységmátrix.
Egy teljesen általános bázis Gram-mátrixa mindig egy szimmetrikus mátrix.
Egy pozitív definit szimmetrikus mátrix.
Hogyha egy vektorrendszer ortogonális bázis, akkor a Gram-mátrix diagonális mátrix.
És egy ortonormált bázis Gram-mátrixa az egységmátrix.
Ha a bázist elrontjuk…
Ezt a Gram-mátrix is azonnal jelzi.
Egy lineárisan összefüggő vektorrendszer Gram-mátrixa
Ez a vektorrendszer egy ortogonális rendszer.
A vektorok szépen egymásra merőlegesek, ahogyan egy ortogonális rendszerben lennie kell.
Ha az ortogonális vektorokat betesszük egy mátrixba…
Akkor logikusan hangzana, hogy egy ortogonális mátrixot kapunk.
De itt sajnos van egy kis gubanc az elnevezésekkel.
Az ortogonális vektorokat egymás mellé írva nem kapunk ortogonális mátrixot...
Egy ortogonális mátrix ugyanis olyan, ahol az oszlopvektorok egységnyi hosszúak.
Először tehát egységnyi hosszú vektorokat kell gyártanunk ezekből.
Kiszámoljuk a vektorok hosszát…
És aztán mindegyiket elosztjuk a saját hosszával.
Így kapjuk az ortonormált vektorokat:
Az ortogonális mátrixoknak néhány egészen elképesztő képessége van.
Az egyik leghasznosabb tulajdonságuk, hogy egy ortogonális mátrix inverze egyenlő a transzponáltjával.
Hogyha Q egy ortogonális mátrix, akkor:
De van itt még más is…
Q oszlopvektorai ortonormált rendszert alkotnak
Q sorvektorai ortonormált rendszert alkotnak
Itt van például ez a mátrix.
Számoljuk ki az inverzét…
Az A mátrix oszlopvektorai mind egységnyi hosszúak.
És bármely két oszlopvektor skaláris szorzata nulla.
Nem kell mást tennünk, mint normálni a bázisvektorokat.
Vagyis mindegyiket leosztani a saját hosszával.
Úgy tűnik, hogy az A mátrix ortogonális mátrix.
Egy ortogonális mátrix inverzét pedig nagyon egyszerű kiszámolni.
Csak transzponáljuk az eredeti mátrixot, és már kész is.
Most pedig nézzünk meg néhány ortogonális mátrixot.
Maga az egységmátrix nyilván ortogonális mátrix.
Szintén ortogonális mátrixok a permutációs mátrixok.
Ezeket úgy kapjuk, hogy az egységmátrix néhány sorát vagy oszlopát fölcseréljük.
Hogyha egy mátrixnak csak az oszlopvektorai alkotnak ortonormált rendszert…
Azokat a mátrixokat szemiortogonális mátrixnak nevezzük.
A síkbeli tükrözések és forgatások mátrixai ortogonális mátrixok…
Ez itt például az x tengelyre tükrözés mátrixa.
Ez a másik pedig az y tengelyre tükrözés.
Itt jön aztán az origó középpontú szögű forgatás mátrixa.
Most pedig nézzük, hogyan működik mindez térben…
Az egyenesre tükrözés térbeli megfelelője a síkra tükrözés lesz.
Az x és y tengely által kifeszített síkra tükrözés ortogonális mátrixa:
Forgatni pedig egyenesek körül tudunk.
Az x tengely körüli a szögű forgatás valahogy így néz ki…
És a mátrixa:
Persze forgathatunk a másik két tengely körüli is…
Az x, y és z tengelyek körüli forgatások mátrixai:
A forgatások mindhárom esetben egy síkban történnek.
A három tengely közül mindig az egyik tengely az, ami körül forgatunk…
és mindig a másik két tengely által kifeszített síkban.
Ezeket a koordinátasíkokban történő forgatásokat Givens forgatásnak nevezzük.
A dolog akkor válik izgalmasabbá, ha mindezt a négydimenziós térben csináljuk…