- Komplex számok
- Határozatlan integrálás, primitív függvény
- Határozott integrálás
- Mátrixok, vektorok, vektorterek
- Vektorok, egyenesek és síkok egyenletei
- Lineáris egyenletrendszerek, mátrixok inverze
- Determináns, sajátérték, sajátvektor, leképezések
- Gram-Schmidt ortogonalizáció, LU és QR felbontás, pszeudoinverz
- Parciális deriválás, iránymenti derivált, érintősík
- Kétváltozós függvények
- Kétváltozós határérték és totális differenciálhatóság
- Kettős és hármas integrál
- Differenciálegyenletek
- Izoklinák
- Sorok & hatványsorok & Taylor-sorok
- Fourier sorok
- Laplace transzformáció
- Paraméteres görbék
- Vektormezők, görbementi és felületi integrálok
- Divergencia és rotáció
- Valszám alapok, Kombinatorika
- Teljes valószínűség tétele, Bayes tétel
- Geometriai valószínűség, Binomiális tétel
- Eloszlás, eloszlásfüggvény, sűrűségfüggvény
- Várható érték és szórás
- Markov és Csebisev egyenlőtlenségek
- Nevezetes diszkrét és folytonos eloszlások
- Becslések
- Hipotézisvizsgálat
- Regressziószámítás
Gram-Schmidt ortogonalizáció, LU és QR felbontás, pszeudoinverz
Ennek a témakörnek a képletei
Letöltöm az egész kurzus összes képletét:
LetöltömLetöltöm ennek a témakörnek a képleteit:
LetöltömVálogass kedvedre a témakör képletei között:
Ortogonális vektorrendszer
Azokat a vektorokat, ahol a vektorok egymásra merőlegesek ortogonális rendszernek nevezzük.
Gram-mátrix
Az olyan mátrixot, ahol minden elem egy-egy vektorok szorzata, szorzótáblaszerűen elrendezve, Gram mátrixnak nevezzük.
Pl. a $\underline{b}_1$, $\underline{b}_2$, $\underline{b}_3$ vektorok Gram mátrixa:
\( \begin{pmatrix} \langle \underline{b}_1 \,, \underline{b}_1 \rangle & \langle \underline{b}_1 \,, \underline{b}_2 \rangle & \langle \underline{b}_1 \,, \underline{b}_3 \rangle \\ \langle \underline{b}_2 \,, \underline{b}_1 \rangle & \langle \underline{b}_2 \,, \underline{b}_2 \rangle & \langle \underline{b}_2 \,, \underline{b}_3 \rangle \\ \langle \underline{b}_3 \,, \underline{b}_1 \rangle & \langle \underline{b}_3 \,, \underline{b}_2 \rangle & \langle \underline{b}_3 \,, \underline{b}_3 \rangle \end{pmatrix} \)
Ortogonális bázis
Hogyha egy ortogonális vektorrendszer éppen annyi vektorból áll, amennyi koordinátája van a vektoroknak, akkor az a vektorrendszer egy ortogonális bázis.
Ortonormált vektorrendszer
Ha egy vektorrendszerben bármely két vektor skaláris szorzata 0, akkor az egy ortonormált vektorrendszer.
Ortonormált vektorrendszer
Ha egy vektorrendszerben bármely két vektor skaláris szorzata 0 és minden vektora egységnyi hosszú, akkor az egy ortonormált vektorrendszer.
Ortonormált bázis
Az olyan bázist, ahol bármely két vektor skaláris szorzata 0 és minden vektor egységhosszú, ortonormált bázisnak nevezzük.
Gauss-féle normálegyenlet
Hogyha a $\underline{b}_1$, $\underline{b}_2$, ..., $\underline{b}_n$ vektorok a $V$ vektortérnek egy bázisa, akkor bármely $\underline{x} \in V$ vektor előállítható a bázisvektorok lineáris kombinációjaként.
\( \lambda_1 \cdot \underline{b}_1 + \lambda_2 \cdot \underline{b}_2 + \dots + \lambda_n \cdot \underline{b}_n = \underline{x} \)
És most végre azt is megtudjuk a skaláris szorzat segítségével, hogy pontosan mik lesznek ezek a $\lambda_i$ együtthatók.
A trükk az lesz, hogy beszorozzuk az egyenletet a $\underline{b}_1$ bázisvektorral...
\( \lambda_1 \cdot \underline{b}_1 \cdot \underline{b}_1 + \lambda_2 \cdot \underline{b}_2 \cdot \underline{b}_1 + \dots + \lambda_n \cdot \underline{b}_n \cdot \underline{b}_1 = \underline{x} \cdot \underline{b}_1 \)
Aztán beszorozzuk a $\underline{b}_2$ bázisvektorral is.
\( \lambda_1 \cdot \underline{b}_1 \cdot \underline{b}_2+ \lambda_2 \cdot \underline{b}_2 \cdot \underline{b}_2 + \dots + \lambda_n \cdot \underline{b}_n \cdot \underline{b}_2= \underline{x} \cdot \underline{b}_2 \)
És így tovább az összesel.
\( \lambda_1 \cdot \underline{b}_1 \cdot \underline{b}_n + \lambda_2 \cdot \underline{b}_2 \cdot \underline{b}_n + \dots + \lambda_n \cdot \underline{b}_n \cdot \underline{b}_n= \underline{x} \cdot \underline{b}_n \)
Az így keletkező $n$ darab egyenletet Gauss-féle normálegyenletnek nevezzük.
Fourier-együttható
Hogyha a $\underline{b}_1$, $\underline{b}_2$, ..., $\underline{b}_n$ vektorok a $V$ vektortérben egy ortogonális bázis, és $\underline{x} \in V$ tetszőleges vektor, akkor az
\( \underline{x} = \lambda_1 \cdot \underline{b}_1 + \lambda_2 \cdot \underline{b}_2 + \dots + \lambda_n \cdot \underline{b}_n \)
lineáris kombináció együtthatói felírhatók skaláris szorzatok segítségével:
\( \lambda_1 = \frac{ \langle \underline{x} , \underline{b}_1 \rangle}{ \langle \underline{b}_1 , \underline{b}_1 \rangle} \)
\( \lambda_2 = \frac{ \langle \underline{x} , \underline{b}_2 \rangle}{ \langle \underline{b}_2 , \underline{b}_2 \rangle} \)
\( \vdots \)
\( \lambda_n = \frac{ \langle \underline{x} , \underline{b}_n \rangle}{ \langle \underline{b}_n , \underline{b}_n \rangle} \)
Ezeket az együtthatókat Fourier-együtthatóknak nevezzük.
Ortogonális mátrix
Az ortogonális mátrix olyan, ahol az oszlopvektorok egységnyi hosszúak.
Ortogonális mátrixok tulajdonságai
Hogyha $Q$ egy ortogonális mátrix, akkor
\( Q^{-1} = Q^T \)
$Q$ oszlopvektorai ortonormált rendszert alkotnak
$Q$ sorvektorai ortonormált rendszert alkotnak
\( Q \cdot Q^T = Q^T \cdot Q = I \)
Gram-Schmidt ortogonalizáció
A régi bázis úgy alakítható át ortogonális bázissá, hogy szépen egymás után lecseréljük a régi bázisvektorokat új bázisvektorokra. Az átalakítást Gram-Schmidt ortogonalizációnak nevezzük.
Az új ortogonális bázis legyen $\underline{q}_1$, $\underline{q}_2$ és $\underline{q}_3$
Az új bázis első vektorát akárhogy választhatjuk, legyen ez mondjuk a régi bázisból $\underline{q}_1$
\( \underline{q}_1 = \underline{b}_1 \)
Aztán lássuk mi lesz az új bázis második vektora:
\( \underline{q}_2 = \underline{b}_2 - \lambda_{21} \cdot \underline{q} \qquad \lambda_{21}=\frac{\langle \underline{q}_1 \,, \underline{b}_2 \rangle}{\langle \underline{q}_1 \,, \underline{q}_1 \rangle} \)
Itt jön aztán az új bázis harmadik vektora:
\( \underline{q}_3 = \underline{b}_3 - \lambda_{31} \cdot \underline{q}_1 - \lambda_{32} \cdot \underline{q}_2 \qquad \lambda_{31}=\frac{\langle \underline{q}_1 \,, \underline{b}_3 \rangle}{\langle \underline{q}_1 \,, \underline{q}_1 \rangle} \qquad \lambda_{32}=\frac{\langle \underline{q}_2 \,, \underline{b}_3 \rangle}{\langle \underline{q}_2 \,, \underline{q}_2 \rangle} \)
LU-felbontás
Egy mátrix LU felbontása azt jelenti, hogy a mátrixot felbontjuk egy alsó és egy felső háromszögmátrix szorzatára. Módszere a Gauss eliminációra épül.
LU-felbonthatóság feltétele
Egy nxn-es mátrixnak akkor létezik LU-felbontása, ha az első n-1 főminora nem nulla.
LU-felbontás bármely nxn-es mátrixra
Hogyha egy olyan mátrix LU felbontására van szükségünk, amelynek valamelyik (nem utolsó) főminora 0, akkor megtehetjük azt, hogy egy premutációs mátrix segítségével felcseréljük a sorait. Hiszen a sorcsere hatására a mátrix determinánsa, az egyenletrendszer megoldása stb. nem változnak.
LU-felbontás bármely mátrixra
Az LU-felbontás módszere nem négyzetes mátrixokra ugyanolyan, mint eddig, a Gauss elimináció segítségével történik. Legfeljebb az U mátrix nem lesz négyzetes, így nem lesz valódi felső háromszög mátrix.
Cholesky-felbontás
Ha az $A$ mátrix szimmetrikus és pozitív definit mátrix, akkor egyértelműen létezik olyan pozitív diagonálisú L alsó háromszögmátrix, amelyre:
\( A = L \cdot L^T \)
Ezt a felbontást Cholesky-felbontásnak nevezzük. Ez tulajdonképpen egy olyan LU-felbontás, ahol az U mátrix az L-nek a transzponáltja.
QR-felbontás
Hogyha az $A$ egy olyan nxk-as mátrix, $n \geq k$, és a mátrix teljes oszloprangú, vagyis az oszlopvektorok rangja $k$, akkor létezik olyan nxn-es $Q$ ortogonális mátrix, és olyan $R$ felső háromszögmátrix, hogy
\( A = Q \cdot R \)
Ezt a felbontást nevezzük QR-felbontásnak.
QR-felbontás Givens-forgatással
QR-felbontást kaphatunk akkor is, ha az $A$ mátrixot addig-addig szorozgatjuk Givens forgatások mátrixaival, amíg felső háromszögmátrixot nem kapunk.
QR-felbontás Householder-tükrözéssel
Az $A$ mátrixból először készítünk egy felső háromszögmátrixot a Householder-tükrözések segítségével.
Hogyha $\underline{a}$ és $\underline{b}$ különböző vektorok, és teljesül rájuk, hogy $\mid \underline{a} \mid = \mid \underline{b} \mid$ akkor létezik olyan Householder-tükrözés, ami az $\underline{a}$ vektort a $\underline{b}$ vektorba transzformálja.
\( H = I -2 \cdot \frac{ \underline{v} \cdot \underline{v}^T }{ \underline{v}^T \cdot \underline{v} } \)
ahol $ \underline{v}=\underline{a}-\underline{b} $.
Ellentmondó egyenletrendszerek optimális megoldása
Ha egy egyenletrendszernek nincs megoldása, akkor az optimális megoldás megadja a legjobb közelítést.
Az $A\underline{x}=\underline{b}$ egyenletrendszer optimális megoldásai megegyeznek az
\( A^T \cdot A\underline{x} = A^T \cdot \underline{b} \)
egyenletrendszer megoldásaival.
Gauss-féle normálegyenlet
Az $A\underline{x}=\underline{b}$ egyenletrendszer Gauss-féle normálegyenlete:
\( A^T \cdot A\underline{x} = A^T \cdot \underline{b} \)
Legjobb közelítés
Egy $\underline{b}$ vektort nem csak merőlegesen vetíthetjük, hanem ferdén is. Viszont egyedül a merőleges vetítés rendelkezik a legjobb közelítés tulajdonságával.
A $\underline{b}$ vektor legjobb közelítése a $W$ altérben egy olyan $\underline{b}'$ vektor, amire $ \mid \underline{b} - \underline{b}' \mid$ minimális.
Lineáris regresszió a lineáris algebrában
Az $x$ és $y$ változó közötti kapcsolat meghatározásához méréseket végzünk.
Az $x_1$, $x_2$, ..., és $x_n$ értékekhez...
Az $y_1$, $y_2$, ..., és $y_n$ értékek tartoznak.
Keressük az a lineáris függvényt, amely a lehető legjobban illeszkedik a mérési pontokra.
Éppen itt is van.
$y=b_1\cdot x + b_0$
A függvény garfikonja akkor illeszkedik a legjobban a mérési pontokra, ha ezek az egyenletek egyszerre teljesülnek:
\( b_1 \cdot \sum_{i=1}^{n} x_i^2 + b_0 \cdot \sum_{i=1}^{n} x_i = \sum_{i=1}^{n} x_i \cdot y_i \)
\( b_1 \cdot \sum_{i=1}^{n} x_i + b_0 \cdot n = \sum_{i=1}^{n} y_i \)
Ezeket az egyenleteket normálegyenleteknek nevezzük.
Moore-Penrose pszeudoinverz
Az $A$ mátrix Moore-Penrose-féle pszeudoinverze egy olyan $A^{*}$ mátrix, amely ezt a négy dolgot tudja:
1) $AA^{+}A=A$
2) $A^{+}AA^{+}=A^{+}$
3) $\left( AA^{+} \right)^T = A A^{+}$
4) $ \left( A^{+}A \right)^T = A^{+} A $
Ennek a témakörnek a feladatai
Letöltöm az egész kurzus összes feladatát:
LetöltömLetöltöm ennek a témakörnek a feladatait:
LetöltömVálogass kedvedre a témakör feladatai között:
a) Itt egy ortogonális bázis:
\( \underline{b}_1 = \begin{pmatrix} 2 \\ -3 \\ 2 \end{pmatrix} \quad \underline{b}_2 = \begin{pmatrix} -1 \\ 2 \\ 4 \end{pmatrix} \quad \underline{b}_3 = \begin{pmatrix} 16 \\ 10 \\ -1 \end{pmatrix} \)
Meg itt van ez a vektor:
\( \underline{x} = \begin{pmatrix} 1 \\ -1 \\ 2 \end{pmatrix} \)
Számoljuk ki a $\underline{b}_1$, $\underline{b}_2$, $\underline{b}_3$ bázis szerinti Fourier-együtthatókat.
b) Az ortonormált bázis:
\( \underline{b}_1 = \begin{pmatrix} 2/3 \\ 2/3 \\ 1/3 \end{pmatrix} \quad \underline{b}_2 = \begin{pmatrix} -1/3 \\ 2/3 \\ -2/3 \end{pmatrix} \quad \underline{b}_3 = \begin{pmatrix} -2/3 \\ 1/3 \\ 2/3 \end{pmatrix} \)
Itt ez a vektor:
\( \underline{x} = \begin{pmatrix} 2 \\ -1 \\ 4 \end{pmatrix} \)
Számoljuk ki a Fourier-együtthatókat.
Az alábbi bázist alakítsuk át ortogonális bázissá a Gram-Schmidt-ortogonalizáció segítségével.
\( \underline{b_1}=\begin{pmatrix} 1 \\ 1 \\ 2 \end{pmatrix} \quad \underline{b_2}=\begin{pmatrix} 3 \\ 1 \\ 1 \end{pmatrix} \quad \underline{b_3}=\begin{pmatrix} 2 \\ 2 \\ 1 \end{pmatrix} \)
Adjuk meg az optimális megoldásait ennek az egyenletrendszernek:
\( 2x_1+6x_2 -2x_3 = 2 \)
\( -x_1+2x_2 +x_3 = 3 \)
\( -2x_1-2x_2 +2x_3 = 5\)
a) Adjuk meg az optimális megoldásait ennek az egyenletrendszernek:
\( -2x_1+3x_2 -x_3 = 2 \)
\( x_1+3x_2 +5x_3 = 5 \)
\( -x_1+6x_2 +4x_3 = 1\)
b) Keressük meg azt a megoldást, amire teljesül, hogy \( \mid \underline{x} \mid \) minimális.
Azokat a vektorrendszereket, ahol a bázisvektorok egymásra merőlegesek ortogonális rendszernek nevezzük.
Annak érdekében, hogy kicsit mutatósabban nézzen ki, áttérünk a skaláris szorzatnak erre a kacsacsőrös jelölésére.
És most elkészítjük ezt a mátrixot.
Mindegyik vektort mindegyikkel összeszorozzuk.
Az eredményeket pedig beírjuk ide a mátrixba.
Mivel a skaláris szorzat kommutatív…
Ez egy szimmetrikus mátrix lesz.
Az így keletkező mátrixot Gram-mátrixnak nevezzük.
Itt jön aztán egy másik vektorrendszer is.
Ez a másik vektorrendszer egy ortogonális rendszer:
Bármely két vektort választjuk ki, a skaláris szorzatuk nulla, vagyis a vektorok egymásra merőlegesek.
Na persze, ha egy vektort önmagával szorozzuk meg…
az nem nulla.
Hogyha egy ortogonális vektorrendszer éppen annyi vektorból áll, amennyi koordinátája van a vektoroknak, akkor az a vektorrendszer bázis.
Most éppen 3 vektorunk van, és a koordináták száma is 3…
Így hát ez a vektorrendszer egy bázis.
Egy ortogonális bázis.
Az ortogonális bázisok Gram-mátrixa mindig diagonális mátrix.
Létezik egy vektor, ami minden vektorra merőleges.
Éppen itt is van.
Ez a vektor a nullvektor.
Ha egy ortogonális rendszerhez hozzávesszük a nullvektort, akkor szintén ortogonális rendszert kapunk.
Csak éppen ez már biztosan nem lesz bázis.
A nullvektor ugyanis elrontja.
Hogyha egy ortogonális rendszer minden vektora egységnyi hosszú, akkor azt ortonormált rendszernek nevezzük.
Ez most épp nem ortonormált rendszer, mert a vektorok hossza nem egységnyi.
A nullvektor hossza egészen biztosan nulla…
Így aztán egy ortonormált rendszerben semmiképp sem szerepelhet a nullvektor.
Pápá nullvektor.
A megmaradó vektorok még mindig nem egységnyi hosszúak…
Egy vektor hosszát, amit egyébként kettes normának nevezünk, a szokásos módon számoljuk ki.
A koordináták négyzetösszege a gyök alatt.
Az egyszerűség kedvéért ezt csak így fogjuk jelölni.
Egy bázisból könnyedén gyárthatunk ortonormált bázist.
Szépen egymás után kiszámoljuk a vektorok hosszát…
És aztán mindegyik vektort normáljuk.
Vagyis elosztjuk a saját hosszával.
Hát, ez megvolna.
Az ortonormált bázisok Gram-mátrixa mindig az egységmátrix.
Egy teljesen általános bázis Gram-mátrixa mindig egy szimmetrikus mátrix.
Egy pozitív definit szimmetrikus mátrix.
Hogyha egy vektorrendszer ortogonális bázis, akkor a Gram-mátrix diagonális mátrix.
És egy ortonormált bázis Gram-mátrixa az egységmátrix.
Ha a bázist elrontjuk…
Ezt a Gram-mátrix is azonnal jelzi.
Egy lineárisan összefüggő vektorrendszer Gram-mátrixa
Ez a vektorrendszer egy ortogonális rendszer.
A vektorok szépen egymásra merőlegesek, ahogyan egy ortogonális rendszerben lennie kell.
Ha az ortogonális vektorokat betesszük egy mátrixba…
Akkor logikusan hangzana, hogy egy ortogonális mátrixot kapunk.
De itt sajnos van egy kis gubanc az elnevezésekkel.
Az ortogonális vektorokat egymás mellé írva nem kapunk ortogonális mátrixot...
Egy ortogonális mátrix ugyanis olyan, ahol az oszlopvektorok egységnyi hosszúak.
Először tehát egységnyi hosszú vektorokat kell gyártanunk ezekből.
Kiszámoljuk a vektorok hosszát…
És aztán mindegyiket elosztjuk a saját hosszával.
Így kapjuk az ortonormált vektorokat:
Az ortogonális mátrixoknak néhány egészen elképesztő képessége van.
Az egyik leghasznosabb tulajdonságuk, hogy egy ortogonális mátrix inverze egyenlő a transzponáltjával.
Hogyha Q egy ortogonális mátrix, akkor:
De van itt még más is…
Q oszlopvektorai ortonormált rendszert alkotnak
Q sorvektorai ortonormált rendszert alkotnak
Itt van például ez a mátrix.
Számoljuk ki az inverzét…
Az A mátrix oszlopvektorai mind egységnyi hosszúak.
És bármely két oszlopvektor skaláris szorzata nulla.
Nem kell mást tennünk, mint normálni a bázisvektorokat.
Vagyis mindegyiket leosztani a saját hosszával.
Úgy tűnik, hogy az A mátrix ortogonális mátrix.
Egy ortogonális mátrix inverzét pedig nagyon egyszerű kiszámolni.
Csak transzponáljuk az eredeti mátrixot, és már kész is.
Most pedig nézzünk meg néhány ortogonális mátrixot.
Maga az egységmátrix nyilván ortogonális mátrix.
Szintén ortogonális mátrixok a permutációs mátrixok.
Ezeket úgy kapjuk, hogy az egységmátrix néhány sorát vagy oszlopát fölcseréljük.
Hogyha egy mátrixnak csak az oszlopvektorai alkotnak ortonormált rendszert…
Azokat a mátrixokat szemiortogonális mátrixnak nevezzük.
A síkbeli tükrözések és forgatások mátrixai ortogonális mátrixok…
Ez itt például az x tengelyre tükrözés mátrixa.
Ez a másik pedig az y tengelyre tükrözés.
Itt jön aztán az origó középpontú szögű forgatás mátrixa.
Most pedig nézzük, hogyan működik mindez térben…
Az egyenesre tükrözés térbeli megfelelője a síkra tükrözés lesz.
Az x és y tengely által kifeszített síkra tükrözés ortogonális mátrixa:
Forgatni pedig egyenesek körül tudunk.
Az x tengely körüli a szögű forgatás valahogy így néz ki…
És a mátrixa:
Persze forgathatunk a másik két tengely körüli is…
Az x, y és z tengelyek körüli forgatások mátrixai:
A forgatások mindhárom esetben egy síkban történnek.
A három tengely közül mindig az egyik tengely az, ami körül forgatunk…
és mindig a másik két tengely által kifeszített síkban.
Ezeket a koordinátasíkokban történő forgatásokat Givens forgatásnak nevezzük.
A dolog akkor válik izgalmasabbá, ha mindezt a négydimenziós térben csináljuk…
Van itt ez a mátrix.
És most egy őrülten jó dolgot fogunk csinálni vele…
Felbontjuk egy alsó és egy felső háromszögmátrix szorzatára.
Nem sokkal később pedig azt is megtudjuk, hogy valójában mire jó mindez.
A módszert LU-felbontásnak nevezzük, és az egész a Gauss eliminációra épül.
Egy icipicit módosított Gauss eliminációra…
Ahhoz, hogy ezt a sor elején álló 6-ost megkapjuk…
Az első sort 3-mal kell szorozni.
Ehhez a 10-eshez pedig…
Hát igen, ehhez 5-tel.
Ezeket az értékes információkat eltároljuk itt alul.
És aztán jön a kinullázás, ahogy ez a Gauss-nál lenni szokott.
A folytatás is úgy működik, ahogy a Gauss-nál…
Csak éppen nem csinálunk ebből a 3-asból 1-est.
Marad így, ahogy van.
A 3-as alatt viszont ezt a 6-ost mindjárt kinullázzuk.
Ahhoz, hogy a 6-ost megkapjuk…
A második sort 2-vel kell szorozni.
Bekönyveljük ezt is ide az alsó mátrixba.
Aztán jön a kinullázás.
Végül már csak egyetlen dolog van hátra.
Ezt a mátrixot elnevezzük felső mátrixnak…
A másikat pedig alsónak.
Ja, és a főátlójába 1-eseket írunk.
Felülre meg nullákat.
És készen is van az LU-felbontás.
Nézzünk meg egy másikat is.
Ezzel a 3-assal kezdünk…
És alatta kinullázunk.
Ezeket a szorzókat felírjuk szépen ide.
Aztán jön a kinullázás.
Most ezzel a 2-essel folytatjuk…
Legyártjuk ezt a 4-est.
Ennek érdekében a második sort 2-vel kell szorozni.
Aztán kinullázunk.
És kész is.
Most pedig lássuk mire jó ez az egész.
Azon kívül persze, hogy remek szórakozás esős, hideg délutánokon…
A lényeg az U mátrixban van.
Az U mátrix segítségével meg tudjuk mondani, hogy mekkora az eredeti mátrix rangja, mennyi a determinánsa, segít az egyenletrendszerek megoldásában és az idegenek inváziója elleni harcban.
Az utóbbi esetben a hatékonysága még nem bizonyított.
Az eredeti mátrix rangja annyi, ahány nem nulla elem van az U mátrix főátlójában.
Rang=3
Az eredeti mátrix determinánsa az U mátrix főátlójában lévő elemek szorzata.
Hogyha pedig van egy ilyen egyenletrendszer:
Itt a valamilyen vektor…
Mondjuk ez.
Akkor ennek az egyenletrendszernek a megoldása is gyorsan leolvasható.
És most lássuk, ezen kívül mit tud még az LU-felbontás…
Van itt egy kis probléma.
Itt ez a teljesen tisztességes mátrix…
Ami ráadásul egy reguláris mátrix, vagyis a determinánsa nem nulla.
Hogyha azonban megpróbáljuk elkészíteni az LU-felbontását…
Ennél a résznél elakadunk.
A Gauss eliminációnál ilyenkor egy sorcserével megoldható a probléma…
De a sorcsere sajnos megváltoztatja az eredeti A mátrixot.
Ha csak meg kell oldanunk az egyenletrendszert, akkor ez persze nem gond.
De most igen.
Ha nem változtathatjuk meg az A mátrix sorainak eredeti sorrendjét, akkor az LU-felbontást nem tudjuk megcsinálni.
A problémát ez a blokk okozza.
Ebben a blokkban ugyanis két egymással összefüggő sor van.
A második sor az első sor 3-szorosa.
Ez okozza az elakadást.
Az elakadást bármelyik bal felső blokk okozhatja.
Ezeknek a blokkoknak a determinánsát főminornak vagy másként sarokfőminornak nevezzük.
Egy -es mátrixnak akkor létezik LU-felbontása, ha az első főminora nem nulla.
Ennél az A mátrixnál tehát az első két főminornak nem kéne nullának lennie…
Hát igen, a második főminor nulla, így aztán nincs LU-felbontás.
Most nézzük, mi a helyzet ezzel.
Végülis kár előre azon aggódni, hogy létezik-e LU-felbontás.
Ez menet közben úgyis kiderül.
De most gyorsan nézzük meg, hogy kipróbáljuk ezt a főminoros módszerünket.
Remek hír, úgy néz ki, hogy most létezik LU-felbontás.
Már jön is az LU-felbontás.
Nézzünk meg még egyet.
Most nem bajlódunk itt a főminorokkal.
Lesz ami lesz, jöjjön azonnal az LU-felbontás.
A folyamat itt elakadt…
Mázli, hogy pont a végén.
Hogyha esetleg valakit érdekelnek az elméleti jellegű részletek, a B mátrix most olyan…
hogy az első főminor nem nulla…
a második főminor sem nulla…
de a harmadik igen.
Csak éppen ez már mindegy.
Kész az LU-felbontás.
És most itt az ideje megnézni, hogy mit kezdhetnénk azokkal a mátrixokkal, ahol az LU-felbontás folyamata menet közben elakad…
Most egy teljesen reménytelen vállalkozásba kezdünk bele…
Megpróbáljuk elkészíteni ennek a mátrixnak az LU-felbontását.
A dolog emiatt a 0 miatt eleve kudarcra van ítélve.
Hát, akkor ennyi volt. Azért legalább megpróbáltuk…
Az A mátrixnak nincs LU-felbontása.
Létezik viszont egy permutációs mátrix.
Ezt egy közönséges egységmátrixból kapjuk úgy, hogy néhány sorát fölcseréljük.
Hogyha most egy másik mátrixot megszorzunk ezzel a permutációs mátrixszal…
Akkor a sorcsere abban a mátrixban is megtörténik.
Nekünk itt éppen egy ilyen sorcserére van szükségünk.
Vesszük ezt a permutációs mátrixot…
És megszorozzuk vele az A mátrixot.
Csak arra vigyázzunk, hogy a sorcseréhez mindig balról kell szorozni.
És most jöhet az LU-felbontás.
Nem érdemes nagyon elkeserednünk amiatt, hogy csak ennek a sorcserés mátrixnak tudjuk megcsinálni az LU-felbontását.
Hiszen, ha belegondolunk, hogy mennyi kudarc ért már életünk során…
Nem, inkább ne ebbe gondoljunk bele.
Abba gondoljunk bele, hogy a sorcsere hatására a mátrix rangja nem változik…
az egyenletrendszer megoldásai sem változnak…
a mátrix determinánsa pedig csak előjelet vált.
Vagyis minden dolog, ami miért az LU-felbontást csináljuk ugyanúgy működik a sorcserés mátrixra is.
Végül még egy dolog.
A permutációs mátrixoknak van egy nagyon vicces tulajdonsága.
Ha megszorozzuk őket saját magukkal, akkor mindig az egységmátrixot kapjuk.
Mindezt arra tudnánk használni, hogy…
Bármely -es mátrixnak van alakú felbontása, ahol L és U a szokásos háromszögmátrixok és P egy permutációmátrix.
Számoljuk ki a rangját és a determinánsát ennek a B mátrixnak, és adjuk meg az LU-felbontását.
Az már biztos, hogy szükség lesz egy sorcserére.
És ha látjuk egy kicsit előre a jövőt…
Akkor nem ezeket a sorokat cseréljük föl.
Hanem ezeket.
Mégpedig ennek a permutációs mátrixnak a segítségével.
És most jöhet az LU-felbontás.
Végül válaszoljunk a kérdésekre.
A rang úgy tűnik 3.
A determináns pedig…
Csak éppen ezt még meg kell szorozni a permutációs mátrix determinánsával.
Ezt a felbontást hívjuk QR-felbontásnak.
És most itt jön egy újabb módszer, amivel a QR-felbontást meg tudjuk csinálni.
A módszer lényege, hogy addig-addig szorozgatjuk az A mátrixot Givens forgatások mátrixaival, amíg felső háromszögmátrixot nem kapunk.
Mindenekelőtt persze tisztázzuk, hogy mi is az a Givens forgatás.
Már jön is.
Most pedig készítsük el ennek a mátrixnak a QR-felbontását Givens forgatások segítségével.
Először ezt fogjuk kinullázni.
És ennek az szögnek azt kell tudnia, hogy…
Akkor készen is van a kinullázás.
De ezzel még nincs vége…
Most egy második Givens forgatással ezt is kinullázzuk.
A módszer ugyanaz lesz, mint az előbb.
Kiválasztjuk ezt a vektort…
Hopp, ez nem lesz jó…
Hiszen ennek a vektornak az egyik koordinátája már eleve nulla.
Kénytelenek leszünk ezt választani.
Ennek a második Givens forgatásnak a síkja tehát a jelek szerint az első és a harmadik koordinátatengelyek által kifeszített sík lesz.
A második Givens forgatás mátrixa pedig…
És most már komolyabb rajzolgatás nélkül...
Hogyha pedig még emlékszünk rá, kell ide egy transzponálás is.
Mindezt általánosítva:
Az a Givens forgatás, ami b-t inullázza…
QR-felbontás Givens forgatásokkal:
Annak a Givens forgatásnak a mátrixa, ami b-t lenullázza:
Próbáljuk is ki a legújabb képletünket.
Folytatjuk a kinullázást ezzel.
Ebben a síkban fogunk forgatni…
És a képlet szerint…
El is készült a felső háromszögmátrix.
Ezek itt mind ortogonális mátrixok…
És a szorzatuk is ortogonális mátrix lesz.
Meg is van a QR-felbontás.
Nem kell mást tennünk, mint az egészet beszorozni a G mátrix inverzével.
Hatalmas szerencse, hogy G ortogonális mátrix, így az inverze megegyezik a transzponáltjával.
Itt jön egy harmadik módszer a mátrixok QR-felbontására…
Egy jópofa kis tükrözés segítségével.
A szokásos háromdimenziós térben az origón átmenő a normálvektorú síkra tükrözést Householder-tükrözésnek nevezzük.
Ez itt a Householder-tükrözés mátrixa:
A QR-felbontáshoz készítünk belőle egy felső háromszögmátrixot a Householder-tükrözések segítségével.
Itt van a mátrix első oszlopvektora…
Kezdetnek kinullázzuk itt szépen ezeket.
Egy újabb Householder-tükrözéssel pedig…
Itt is nullát fogunk gyártani.
Közben arra azért vigyázzunk, hogy a meglévő nullákat ne rontsuk el.
Elhagyjuk a mátrix első sorát és oszlopát…
és csak az így megmaradó mátrixra alkalmazzuk az újabb Householder-tükrözést.
A korábban legyártott nulláink így biztonságban vannak.
A Householder-tükrözéssel ebből a vektorból gyártunk egy olyan vektort, aminek a második koordinátája nulla.
A két vektor hossza pedig egyforma.
Meg is van a második Householder-mátrix.
Egyetlen kis probléma vele, hogy ez nem egy 3x3-as mátrix.
De ezen könnyen lehet segíteni.
Az üres helyeket szépen feltöltjük…
Az egységmátrix megfelelő elemeivel.
A dolog általánosan így néz ki…
A QR-felbontás Householder-mátrixai:
És már meg is van a felső háromszögmátrix…
Hogyha ezt egészet beszorozzuk H inverzével, akkor meg is van a QR-felbontás.
Van egy nagyon ravasz dolog, amire a merőleges vetítéseket használhatjuk.
A vetítés működik síkban is…
És működik térben is.
Sőt, tovább általánosítható egy V vektortérben bármilyen W altérre.
Hogyha az A mátrix oszlopvektorai W-nek egy bázisát alkotják, akkor a W altérre történő merőleges vetítés mátrixa:

Itt van például ez a sík:

Ez a sík a háromdimenziós térben egy kétdimenziós altér.
És itt van a síkban két vektor.
Ez a két vektor a síknak egy bázisa.

Berakjuk most szépen őket ebbe az A mátrixba…
És egy kis számolással meg is van a merőleges vetítés mátrixa.
A ravasz dolog pedig most jön.
Itt van ez az egyenletrendszer…

Az egyenletrendszer együttható-vektorai mind ugyanabban a síkban helyezkednek el.

A jobb oldalon álló vektor viszont…
Na, az nincs benne ebben a síkban.
Így hát aztán nem meglepő, hogy az a1, a2 és a3 vektorok lineáris kombinációjával…
A b vektor nem állítható elő.
Vagyis az egyenletrendszer nem megoldható.
Az, hogy ez az egyenletrendszer nem megoldható, még nem nagy tragédia.
Gyakran vannak azonban olyan helyzetek, amikor valamilyen gazdasági vagy mérnöki probléma megoldása közben az ismeretlen mennyiségek meghatározására méréseket végzünk.
Az elkerülhetetlen mérési hibák pedig ellentmondó egyenletrendszerre vezetnek.
Vajon hogyan határozható meg a valóságban egészen biztosan létező megoldás, ezekből az ellentmondásos, tehát nem megoldható egyenletrendszerekből?
A gondot az okozza, hogy az egyenletrendszer együttható-vektorai által kifeszített altérben a b vektor nincsen benne.
Ettől ellentmondásos az egyenletrendszer és ezért nincs megoldása.
Hogyha a gondot az okozza, hogy a b vektor nincs benne az együttható-vektorok által kifeszített altérben…
Hát vetítsük bele, és minden rendbe is jön.
Ezzel a ravasz megoldással intézhetjük el azokat az egyenletrendszereket, amelyek elsőre nem megoldhatók.
Belevetítjük az együttható-vektorok síkjába a b vektort…

És most már a jobb oldalon álló vektor is ugyanabban a síkban van.
Ezt az egyenletrendszert bármelyik szokásos módszerrel megoldhatjuk.
Az elemi bázistranszformációval vagy a Gauss-eliminációval is.


Hogyha ezt a megoldást most behelyettesítjük az eredeti egyenletrendszerbe…
Akkor nem egészen fog stimmelni.

A kapott megoldás tehát nem pontosan az eredeti egyenletrendszer megoldása…
Ne feledkezzünk meg ugyanis arról az apróságról, hogy az eredeti egyenletrendszernek egyáltalán nincs is megoldása.
Amit így kaptunk nem más, mint az eredeti egyenletrendszer optimális megoldása.
Olyankor, amikor az eredeti egyenletrendszer megoldható, az optimális megoldás egybeesik a valódi megoldással.
Abban az esetben pedig, amikor egyébként nincs megoldás…
Nos, olyankor az optimális megoldás adja a megoldás legjobb közelítését.
Egyetlen kis gond van csak ezzel.
Az, hogy túl sokat kellett számolni.
De itt jön egy őrülten jó trükk, és hopp, egy pillanat alatt megkapjuk ugyanezt.

Az
egyenletrendszer optimális megoldásai megegyeznek az

egyenletrendszer megoldásaival.
Hát, ez valóban elég barátságosnak tűnik.
Próbáljuk is ki.
Nem kell mást tennünk, mint az egyenletrendszer együtthatómátrixát transzponálni…


És a transzponáltat megszorozni az A mátrixszal …
Meg a b vektorral.


Ennek a megoldásai lesznek az eredeti egyenletrendszer optimális megoldásai.
Hát igen, valóban ugyanaz jött ki így is.
Rögtön folytatjuk…
Van egy nagyon ravasz dolog, amire a merőleges vetítéseket használhatjuk.
A vetítés működik síkban is…
És működik térben is.
Sőt, tovább általánosítható egy V vektortérben bármilyen W altérre.
Hogyha az A mátrix oszlopvektorai W-nek egy bázisát alkotják, akkor a W altérre történő merőleges vetítés mátrixa:
Itt van például ez a sík:
Ez a sík a háromdimenziós térben egy kétdimenziós altér.
És itt van a síkban két vektor.
Ez a két vektor a síknak egy bázisa.
Berakjuk most szépen őket ebbe az A mátrixba…
És egy kis számolással meg is van a merőleges vetítés mátrixa.
A ravasz dolog pedig most jön.
Itt van ez az egyenletrendszer…
Az egyenletrendszer együttható-vektorai mind ugyanabban a síkban helyezkednek el.
A jobb oldalon álló vektor viszont…
Na, az nincs benne ebben a síkban.
Így hát aztán nem meglepő, hogy az a1, a2 és a3 vektorok lineáris kombinációjával…
A b vektor nem állítható elő.
Vagyis az egyenletrendszer nem megoldható.
Az, hogy ez az egyenletrendszer nem megoldható, még nem nagy tragédia.
Gyakran vannak azonban olyan helyzetek, amikor valamilyen gazdasági vagy mérnöki probléma megoldása közben az ismeretlen mennyiségek meghatározására méréseket végzünk.
Az elkerülhetetlen mérési hibák pedig ellentmondó egyenletrendszerre vezetnek.
Vajon hogyan határozható meg a valóságban egészen biztosan létező megoldás, ezekből az ellentmondásos, tehát nem megoldható egyenletrendszerekből?
A gondot az okozza, hogy az egyenletrendszer együttható-vektorai által kifeszített altérben a b vektor nincsen benne.
Ettől ellentmondásos az egyenletrendszer és ezért nincs megoldása.
Hogyha a gondot az okozza, hogy a b vektor nincs benne az együttható-vektorok által kifeszített altérben…
Hát vetítsük bele, és minden rendbe is jön.
Ezzel a ravasz megoldással intézhetjük el azokat az egyenletrendszereket, amelyek elsőre nem megoldhatók.
Belevetítjük az együttható-vektorok síkjába a b vektort…
És most már a jobb oldalon álló vektor is ugyanabban a síkban van.
Ezt az egyenletrendszert bármelyik szokásos módszerrel megoldhatjuk.
Az elemi bázistranszformációval vagy a Gauss-eliminációval is.
Hogyha ezt a megoldást most behelyettesítjük az eredeti egyenletrendszerbe…
Akkor nem egészen fog stimmelni.
A kapott megoldás tehát nem pontosan az eredeti egyenletrendszer megoldása…
Ne feledkezzünk meg ugyanis arról az apróságról, hogy az eredeti egyenletrendszernek egyáltalán nincs is megoldása.
Amit így kaptunk nem más, mint az eredeti egyenletrendszer optimális megoldása.
Olyankor, amikor az eredeti egyenletrendszer megoldható, az optimális megoldás egybeesik a valódi megoldással.
Abban az esetben pedig, amikor egyébként nincs megoldás…
Nos, olyankor az optimális megoldás adja a megoldás legjobb közelítését.
Egyetlen kis gond van csak ezzel.
Az, hogy túl sokat kellett számolni.
De itt jön egy őrülten jó trükk, és hopp, egy pillanat alatt megkapjuk ugyanezt.
Az egyenletrendszer optimális megoldásai megegyeznek az
egyenletrendszer megoldásaival.
Hát, ez valóban elég barátságosnak tűnik.
Próbáljuk is ki.
Nem kell mást tennünk, mint az egyenletrendszer együtthatómátrixát transzponálni…
És a transzponáltat megszorozni az A mátrixszal …
Meg a b vektorral.
Ennek a megoldásai lesznek az eredeti egyenletrendszer optimális megoldásai.
Hát igen, valóban ugyanaz jött ki így is.
Rögtön folytatjuk…
Az egyenletrendszereknél tartottunk…
Annyit már tudunk, hogyha van egy olyan egyenletrendszer, ami ellentmondásos…
Akkor még azért van remény a megoldásra.
Ennek az egyenletrendszernek az együttható-vektorai…
Egy síkot feszítenek ki.
Egy olyan síkot, amiben a b vektor nincsen benne…
A b vektor tehát egészen biztosan nem áll elő az a1 a2 és a3 vektorok lineáris kombinációjaként.
Így hát az egyenletrendszer nem megoldható.
De ha belevetítjük a b vektort az együttható-vektorok által kifeszített síkba…
Akkor már igen.
Nem kell mást tennünk, mint ezt a másik egyenletrendszert megoldanunk, amit egyébként Gauss-féle normálegyenletnek nevezünk.
Ez pedig már egy szokásos egyenletrendszer, amit mondjuk Gauss-eliminációval szépen megoldunk.
Bár ez a megoldás is ugyanolyan három koordinátás vektor, mint a többiek…
Így hát ez a vektor sehol sem látható az ábrán.
De van itt még egy vicces dolog.
Keressük meg azt a megoldást, amire teljesül, hogy minimális.
Ez nem akkor van, amikor t nulla.
Hanem akkor, amikor ide…
Beírjuk ezeket a koordinátákat.
És így kiszámoljuk x3 értékét.
Meg is van a legkisebb abszolútértékű megoldás.
És itt jön még egy dolog.
A b vektort nem csak merőlegesen vetíthetjük, hanem ferdén is…
Viszont egyedül a merőleges vetítés rendelkezik a legjobb közelítés tulajdonságával.
A vektor legjobb közelítése a W altérben egy olyan vektor, amire minimális.
Mindjárt ki fog derülni, hogy a legjobb közelítés mindig a merőleges vetítés.
Legyen a V vektortérből a W altérbe történő merőleges vetítés mátrixa P.
Így hát a vektor W-re eső merőleges vetülete .
A vektornak a W-re eső valamilyen ferde vetülete pedig .
Lehet ez a W altér akár százdimenziós is, és vektorok mindig egy síkot feszítenek ki.
Mivel a BC szakasz merőleges erre a síkra, így merőleges a síkban fekvő minden szakaszra is.
Tehát merőleges AC-re is.
Így aztán ACB egy derékszögű háromszög, amiben BC egy befogó, AB pedig az átfogó, vagyis
Ez pedig azt jelenti, hogy valóban a legjobb közelítés.
A vektor legjobb közelítése a W altérben egy olyan vektor, amire minimális.
Az egyenletrendszereknél tartottunk…
Annyit már tudunk, hogyha van egy olyan egyenletrendszer, ami ellentmondásos…
Nagyon sok módszer van, amivel egy fának az életkorát meg tudjuk határozni.
Az egyik ilyen módszer, hogy kivágjuk, és megszámoljuk szépen az évgyűrűket.
A módszer előnye, hogy rendkívül pontos, hátránya viszont az, hogy ártalmas a fának.
Kevésbé ártalmas, amikor egy fúróval, amit egyébként Pressler-fúrónak hívnak, átfúrják a fa törzsét és mintát vesznek belőle, amin aztán meg lehet számolni az évgyűrűket.
Valószínűleg ezért a módszerért sem rajonganak a fák, de kisebb károsodással meg lehet állapítani, hogy ez a mamutfenyő, aminek a törzskerülete 28 méter, 3210 éves.
Törzskerület (m)
Életkor (év)
Ez a másik mamutfenyő pedig 1268 éves, és a törzsének a kerülete 12 méter.
És itt van még további három.
Az öt fán végzett mérési adatokat arra fogjuk használni, hogy készítünk belőlük egy függvényt.
Egy olyan függvényt, amely bármelyik mamutfenyő törzsének kerületéből képes megmondani a fa életkorát.
Ez a függvény egy lineáris függvény...
Éppen itt is van.
Hogyha ránk tör néhány régi emlék az általános iskolából…
És épp a lineáris függvény is köztük van…
Akkor tudjuk, hogy már két pont is elegendő a koordinátarendszerben ahhoz, hogy a lineáris függvény képletét megkapjuk.
Itt van mondjuk ez a kettő…
Egy olyan lineáris függvényünk lesz, ami 12-ben 1268-at vesz föl.
És 28-ban pedig 3210-et.
A mamutfenyők életkorát leíró lineáris függvényt úgy kapjuk meg…
Hogyha megoldjuk ezt az egyenletrendszert:
És meg is van a mamutfenyők életkorát leíró függvény.
De sajnos van egy kis gond.
A függvény nem őrületes pontossággal számítja ki a mamutfenyők életkorát…
A másik három mamutfenyőnél például egyiket sem sikerül eltalálnia.
A három pont közül egyik sem illeszkedik a függvény grafikonjára.
Ezen még talán valahogy túltesszük magunkat.
A nagyobb baj az, hogy a függvényt csak két mérés adataiból alkottuk meg, a másik három fa mérési adatait nem építettük bele.
Pedig sokkal pontosabban számítaná ki a mamutfenyők életkorát a függvényünk, ha valahogyan ezt a másik három mérést is fel tudnánk használni.
Hát, akkor használjuk…
Most, hogy mind az öt mérést felhasználtuk…
Egy olyan egyenletrendszert kaptunk, amiben két ismeretlen van és öt egyenlet.
Mivel vannak benne egymásnak ellentmondó egyenleteik is, az egyenletrendszer nem megoldható.
Hát, ez nem jó hír…
De éppen az ilyen esetekre használhatjuk a Gauss-féle normálegyenletet.
Itt jön az egyenletrendszer optimális megoldása:
Ezzel a módszerrel egy olyan egyenest kaptunk, amely a lehető legközelebb halad mind az öt ponthoz.
Ezt az egyenest regressziós egyenesnek nevezzük.
A módszer általánosítható…
Az x és y változó közötti kapcsolat meghatározásához méréseket végzünk.
Az x1, x2, … és xn értékekhez…
Az y1, y2 … és yn értékek tartoznak.
Keressük azt a lineáris függvényt, amely a lehető legjobban illeszkedik a mérési pontokra.
Éppen itt is van.
A függvény grafikonja akkor illeszkedik a legjobban a mérési pontokra, ha ezek az egyenletek egyszerre teljesülnek.
Nem sok esély van arra, hogy ez az egyenletrendszer megoldható.
De nem baj, úgyis itt van nekünk a módsszer az optimális megoldás megtalálására.
Ezeket az egyenleteket normálegyenleteknek nevezzük.
A normálegyenletek által alkotott egyenletrendszer megoldásával kapjuk meg a lineáris regresszió paramétereit, b1-et és b0-t.
eket már a grafikon két pontja alapján is
Hogyha ábrázoljuk ebben a koordinátarendszerben ennek az öt mérésnek az eredményeit
Hogyha kíváncsiak vagyunk rá, hogy a többi mamutfenyő hány éves…
Akkor nem kell mindet átfúrni.
Egyszerűen csak vesszük a két mérési adatunkat…
És felírunk egy lineáris függvényt.
Egy olyan lineáris függvényt, ami 12-ben 1268-at vesz föl.
És 28-ban pedig 3210-et.
A mamutfenyők életkorát leíró lineáris függvényt úgy kapjuk meg…
Hogyha megoldjuk ezt az egyenletrendszert:
És meg is van a mamutfenyők életkorát leíró függvény.
Ha most lemérjük például ennek a mamutfenyőnek a törzskerületét…
Aztán behelyettesítjük a függvénybe…
Akkor azt kapjuk, hogy ez a fa 1754 éves.
De sajnos van itt egy kis probléma…
Hogyha pontosan megmérjük az évgyűrűk számát…
Akkor az jön ki, hogy ez a fa nem 1754, hanem csak 1476 éves.
És tulajdonképpen a másik két fánál sem stimmel a függvény.
Ami pedig még ennél is nagyobb gond, hogyha például a másik két fa mérési adatait vesszük alapul…
Akkor teljesen más függvényt kapunk.
Az világos, hogy öt fa mérési adataiból precízebben meg tudjuk adni az életkort leíró függvényt.
Csak éppen az a kérdés, hogyan írjuk fel az egyenes egyenletét.
ennek a másik három mamutfenyőnek a törzskerületét és az évgyűrűk számát…
És aztán ábrázoljuk ezeket is a koordinátarendszerben…
Akkor ezek nem illeszkednek az egyenesre.
Próbáljuk meg kiszámolni ennek a mátrixnak az inverzét.
Azért túl sok jóra ne számítsunk…
Ennek a mátrixnak biztos, hogy nincs inverze.
A gondot az okozza, hogy mátrix oszlopvektorai lineárisan összefüggők.
Na meg a sorvektorai is.
Hogyha erről a sok rossz hírről mind nem veszünk tudomást, és mégis elkezdjük kiszámolni a mátrix inverzét…
Akkor meg kell oldanunk három egyenletrendszert.
Három darab Gauss-eliminációval.
Amit csinálhatunk akár egyszerre is.
Itt sajnos elérkezünk ahhoz a ponthoz, amikor kiderül: az egyenletrendszer nem megoldható.
Ez egy ellentmondásos egyenletrendszer.
Mondjuk éppen az ilyen esetekre van ez az új módszerünk…
Megpróbáljuk valahogyan mégis megoldani a Gauss-féle normálegyenlet segítségével.
Megint jön a Gauss-elimináció…
Az első oszlop meg is van.
Hasonló izgalmak után kapjuk meg a másik két oszlopot is…
Ez a rengeteg szabad paraméter pedig bármi lehet…
De azért inkább legyen nulla.
Készen is vagyunk.
Ez ugyan nem olyan jó, mint egy valódi inverz…
De a semminél jobb.
Ahogy végignéztük itt a B mátrix keletkezésének történetét, nagyon nem kell meglepődnünk azon, hogy végtelen sok ilyen B mátrix létezik.
Van azonban közülük egyetlen egy, amely képes megfelelni négy darab kritériumnak.
Azt a mátrixot az A mátrix Moore-Penrose-féle pszeudoinverzének nevezzük.
Ez nem az…
Az A mátrix Moore-Penrose-féle pszeudoinverze egy olyan A+ mátrix, amely ezt a négy dolgot tudja:
És most lássuk, hogyan lehet ezt a pszeudoinverzet előállítani.
Egy mátrixot teljes oszloprangúnak nevezünk, hogyha az oszlopvektorai lineárisan független rendszert alkotnak.
Ez a mátrix itt, például teljes oszloprangú.
Egy mátrix teljes sorrangú, ha a sorvektorai lineárisan független rendszert alkotnak.
Hát erről a mátrixról ez most nem mondható el…
Erről a másikról viszont…
Na, erről igen.
Ha az A mátrix teljes oszloprangú, akkor a Moore-Penrose-féle pszeudoinverze:
Ha az A mátrix teljes sorrangú, akkor a Moore-Penrose-féle pszeudoinverze:
És aztán itt van nekünk ez a mátrix.
Erre egyik eset sem illik rá.
Úgyhogy egy kis cselre van szükség.
Ha egy mátrix nem invertálható, azért még nincs minden veszve…
Ilyenkor is létezik valami, ami olyasmi, mint az inverz: ezt hívjuk pszeudoinverznek.
Pszeudoinverzből sokféle van…
De csak egy olyan van közülük, amelyik teljesíti a négy darab Moore-Penrose kritériumot.
Ezt hívjuk Moore-Penrose pszeudoinverznek.
Ha az A mátrix teljes oszloprangú, akkor a Moore-Penrose-féle pszeudoinverze:
Ha az A mátrix teljes sorrangú, akkor a Moore-Penrose-féle pszeudoinverze:
Próbáljuk is ki ezeket a képleteket.
Itt van például ez a mátrix. Számoljuk ki a Moore-Penrose-féle pszeudoinverzét.
Ebben a mátrixban a két sorvektor lineárisan független.
Így hát ez egy teljes sorrangú mátrix.
És meg is van a Moore-Penrose-féle pszeudoinverz.
Van itt még egy dolog, amire a Moore-Penrose pszeudoinverz használható.
Itt ez az egyenletrendszer…
Aminek sajnos nincsen megoldása.
Túl sok ugyanis benne az egyenlet, és az egyenletrendszer ellentmondásos.
Az ilyen ellentmondásos egyenletrendszerekre már volt egy megoldási módszerünk, a Gauss-féle normálegyenlet segítségével.
Most ugyanazt a megoldást kapjuk a Moore-Penrose inverzzel is.
Olyankor, amikor az A mátrixnak létezik valódi inverze, az egyenletrendszer biztosan megoldható.
A pszeudoinverzzel pedig ez mindig működik.
Hiszen pszeudoinverze minden mátrixnak van.
Nem kell mást tennünk, mint kiszámolni az együtthatómátrix Moore-Penrose-féle pszeudoinverzét…
És az egyenletrendszer megoldása:
A Gauss-féle normálegyenlettel pontosan ugyanezt a megoldást kaptuk volna.
Végül itt jön még egy mátrix.
Ennek a mátrixnak két független oszlopvektora van.
És két független sorvektora.
Tehát nem teljes oszloprangú…
És nem is teljes sorrangú.
Így hát egyik képlet sem használható a Moore-Penrose inverz kiszámolására.
Szerencsére bármelyik mátrixot fel lehet bontani két olyan mátrix szorzatára…
Amelyek közül az egyik teljes oszloprangú, a másik pedig teljes sorrangú.
Ezt bázisfelbontásnak hívják, és egy kis Gauss-eliminációval tudjuk elkészíteni.
Pontosabban egy Gauss-Jordan eliminációval.
Ez egy apró módosítása a Gauss-eliminációnak, és mindössze arról van szó, hogy a vezéregyesek felett is ki kell nulláznunk.
Meg is van.
És most jöhet a bázisfelbontás.
Íme, a bázisfelbontás.
És még egy dolog…
Két mátrix szorzatának pszeudoinverze: