Barion Pixel Műszaki matematika 2 | mateking
 
29 témakör, 603 rövid és szuper érthető epizód
Ezt a nagyon laza Műszaki matematika 2 kurzust úgy terveztük meg, hogy egy csapásra megértsd a lényeget. Tudásszinttől függetlenül, teljesen az alapoktól magyarázzuk el a tananyagot, a saját ritmusodban lépésről lépésre. Így tudjuk a legbonyolultabb dolgokat is elképesztően egyszerűen elmagyarázni.
4 980 Ft / 180 nap
Ez mindössze 857 Ft / hó

Tartalomjegyzék: 

A kurzus 29 szekcióból áll: Komplex számok, Határozatlan integrálás, primitív függvény, Határozott integrálás, Mátrixok, vektorok, vektorterek, Vektorok, egyenesek és síkok egyenletei, Lineáris egyenletrendszerek, mátrixok inverze, Determináns, sajátérték, sajátvektor, leképezések, Gram-Schmidt ortogonalizáció, LU és QR felbontás, pszeudoinverz, Kétváltozós függvények, Kétváltozós határérték és totális differenciálhatóság, Kettős és hármas integrál, Differenciálegyenletek, Izoklinák, Sorok & hatványsorok & Taylor-sorok, Fourier sorok, Laplace transzformáció, Paraméteres görbék, Vektormezők, görbementi és felületi integrálok, Divergencia és rotáció, Valszám alapok, Kombinatorika, Teljes valószínűség tétele, Bayes tétel, Geometriai valószínűség, Binomiális tétel, Eloszlás, eloszlásfüggvény, sűrűségfüggvény, Várható érték és szórás, Markov és Csebisev egyenlőtlenségek, Nevezetes diszkrét és folytonos eloszlások, Becslések, Hipotézisvizsgálat, Regressziószámítás

Komplex számok

Határozatlan integrálás, primitív függvény

Határozott integrálás

  • -

    A Newton-Leibniz formula egy egyszerűen használható képlet a határozott integrál kiszámításához. Ez a tétel az egész matematika történetének egyik legfontosabb tétele. Egy Newton nevű angol fizikus és egy Leibniz nevű német filozófus egyszerre találta ki az 1600-as évek végén.

  • -

    Egy zárt intervallumon értelmezett függvény akkor Riemann integrálható, ha egyetlen olyan szám létezik, amely bármely alsó közelítő összegénél nagyobb egyenlő, és bármely felső közelítő összegénél kisebb egyenlő.

  • -

    Végtelenbe nyúló tartományok területének kiszámolása egy fontos függvénnyel.

  • -

    Forgástestek térfogatának és felszínének képletei határozott integrálással.

Mátrixok, vektorok, vektorterek

  • -

    mátrixok rendkívül barátságosak. Egy nXk-as mátrix tulajdonképpen nem más, mint egy táblázat, aminek n darab sora és k darab oszlopa van.

  • -

    Ha egy mátrixot egy számmal szorzunk, akkor a mátrix összes elemét meg kell szorozni a számmal.

  • -

    Ha egy mátrixot osztunk egy számmal, akkor a mátrix minden elemét osztani kell a számmal.

  • -

    Két mátrix összeadásakor összeadjuk az ugyanazon pozícióban lévő elemeket. Két mátrixot csak akkor lehet összeadni, ha ugyanannyi soruk és oszlopuk van.

  • -

    Két mátrix kivonásakor kivonjuk az ugyanazon pozícióban lévő elemeket. Két mátrixot csak akkor lehet kivonni egymásból, ha ugyanannyi soruk és oszlopuk van.

  • -

    Két mátrix szorzata akkor létezik, ha a bal oldali mátrix oszlopainak száma megegyezik a jobb oldali mátrix sorainak számával. Az eredménymátrix i-edik sorának j-edik elemét úgy kapjuk, hogy a bal oldali mátrix i-edik sorát skalárisan szorozzuk a jobb oldali mátrix j-edik oszlopával. (Tehát az első elemet az elsővel, a másodikat a másodikkal stb. szorozzuk, majd összeadjuk)

  • -

    A mátrix összeadás kommutatív és asszociatív.

  • -

    A mátrixszorzás nem kommutattív, de asszociatív.

  • -

    A kvadratikus mátrix négyzetes mátrix vagyis ugyanannyi sora van, mint oszlopa.

  • -

    A diagonális mátrix olyan kvadratikus mátrix, aminek a főátlóján kívüli elemek nullák.

  • -

    Az egységmátrixok olyan diagonális mátrixok, aminek minden főátló-eleme egy.

  • -

    Az inverz mátrix egy olyan mátrix, hogy ha azzal szorozzuk az eredeti mátrixot, akkor egységmátrixot kapunk. Ha balról szorozva kapunk egységmátrixot, akkor bal inverz, ha jobbról szorozva, akkor jobb inverz mátrix.

  • -

    A transzponált a mátrix sorainak és oszlopainak felcserélése.

  • -

    Azokat a mátrixokat, melyek transzponáltjuk önmaga, szimmetrikus mátrixnak nevezzük.

  • -

    Vektort egy számmal úgy szorzunk, hogy a vektor minden koordinátáját megszorozzuk a számmal.

  • -

    Vektort egy számmal úgy osztunk, hogy a vektor minden koordinátáját leosztjuk a számmal.

  • -

    Két vektort úgy adunk össze, hogy minden egyes koordinátájukat külön-külön össze adjuk.

  • -

    Két vektort úgy vonunk ki egymásból, hogy minden egyes koordinátájukat külön-külön kivonjuk egymásból.

  • -

    skaláris szorzat két vektor közti művelet, ami csinál belőlük egy számot.

  • -

    Két vektor diadikus szorzata egy mátrix. Lássuk milyen.

  • -

    Egy olyan vektor, amivel beszorozva a mátrixunkat, összeadja annak sorait.

  • -

    Egy olyan vektor, amivel beszorozva a mátrixunkat, összeadja annak egy oszlopában lévő elemeit.

  • -

    Ha egy mátrixot megszorzunk jobbról egy $\underline{e}_i$ egységvektorral, akkor megkapjuk a mátrix i-edik oszlopát.

  • -

    Ha egy mátrixot megszorzunk balról egy $\underline{e}_i$ egységvektorral, akkor megkapjuk a mátrix i-edik sorát.

  • -

    Az egyenes egyenletének felírásához kell egy pontja és egy normálvektora.

  • -

    A sík egyenletének felírásához kell egy pontja és egy normálvektora.

  • -

    Két pont közti vektort a vektorok koordinátáinak különbségével írhatunk fel.

  • -

    Két pont távolsága gyök alatt a koordináták különbségeinek négyzetösszege.

  • -

    Az egyenes egyenletének felírásához a síkban szükségünk van az egyenes egy pontjára és a normálvektorára.

  • -

    A sík egyenletének felírásához kell a sík egy pontja és a normálvektora.

  • -

    Két vektor vektoriális szorzatát egy 3x3-as mátrix determinánsával számíthatjuk ki, ahol a mátrix első sora egységvektorok, a második és harmadik sora pedig az a és b vektorok.

  • -

    Két vektor vektoriális szorzata egy olyan harmadik vektort ad, ami merőleges a két vektor által kifeszített síkra.

  • -

    A vektorösszeadás kommutatív, asszociatív, létezik nullelem és létezik ellentett. A skalárszoros asszociatív, disztributív a vektorokra és a skalárokra is, és létezik egységszeres.

  • -

    Egy vektorrendszer akkor lineárisan független, ha a vektorok lineáris kombinációjaként a nullvektor csak úgy áll elő, ha minden szorzótényező 0.

  • -

    Egy vektorrendszer akkor lineárisan összefüggő, ha a vektorok lineáris kombinációjaként a nullvektor úgy is elő tud állni, hogy nem minden szorzótényező 0.

  • -

    Vektorok generátor-rendszert alkotnak, ha minden vektortérbeli vektor elő áll az ő lineáris kombinációjuként.

  • -

    Egy vektorrendszer akkor alkot független rendszert, ha a vektorok lineáris kombinációjaként a nullvektor csak úgy áll elő, ha minden szorzótényező 0.

  • -

    A bázis független generátorrendszer.

  • -

    Egy vektorrendszer rangja a benne lévő független vektorok maximális száma

  • -

    W altér V-ben, ha részhalmaza és maga is vektortér a V-beli műveletekre. Nos ez remek, de nézzük meg, mit is jelet mindez.

  • -

    Egy vektor akkor állítható egy vektorrendszerrel, ha előáll azon vektorok lineáris kombinációjaként.

Vektorok, egyenesek és síkok egyenletei

  • -

    Vektorok összeadásakor összeadjuk az x koordinátákat és összeadjuk az y koordinátákat. Kivonáskor vesszük az x koordináták különbségét és az y koordináták különbségét.

  • -

    Egy vektor hosszát megkapjuk, ha vesszük a koordinátái négyzetösszegének a gyökét. Két pont távolsága az őket összekötő vektor hossza.

  • -

    Két pont közti vektor a végpontba mutató helyvektor minusz a kezdőpontba mutató helyvektor.

  • -

    Két vektor skaláris szorzata a vektorok hosszának szorzata a közbezárt szögük koszinuszával.

  • -

    Egy vektor 90°-os elforgatásához megcseréljük a két koordinátáját és az egyik előjelét megváltoztatjuk.

  • -

    Két vektor skalárisszorzatát kiszámolhatjuk a vektorok hosszának és hajlásszögének segítségével, illetve a vektorok koordinátáival is.

  • -

    Két vektor merőleges egymásra, ha skaláris szorzatuk 0.

  • -

    Az egyenes egyenletének felírásához kell egy pontja és egy normálvektora.

  • -

    A sík egyenletének felírásához kell egy pontja és egy normálvektora.

  • -

    Két pont közti vektort a vektorok koordinátáinak különbségével írhatunk fel.

  • -

    Két pont távolsága gyök alatt a koordináták különbségeinek négyzetösszege.

  • -

    Az egyenes egyenletének felírásához a síkban szükségünk van az egyenes egy pontjára és a normálvektorára.

  • -

    A sík egyenletének felírásához kell a sík egy pontja és a normálvektora.

  • -

    Két vektor vektoriális szorzatát egy 3x3-as mátrix determinánsával számíthatjuk ki, ahol a mátrix első sora egységvektorok, a második és harmadik sora pedig az a és b vektorok.

  • -

    Két vektor vektoriális szorzata egy olyan harmadik vektort ad, ami merőleges a két vektor által kifeszített síkra.

Lineáris egyenletrendszerek, mátrixok inverze

Determináns, sajátérték, sajátvektor, leképezések

  • -

    A determináns úgy működik, hogy minden négyzetes mátrixból csinál egy valós számot. Hogy miért, és, hogy hogyan, az mindjárt kiderül.

  • -

    Egy 2x2-es mátrix determinánsát úgy kapjuk, hogy a bal átló elemeinek szorzatából kivonjuk a jobb átló elemeinek szorzatát.

  • -

    Egy nem túl jó módszer a determináns kiszámolására.

  • -

    Egy túl jó módszer a determináns kiszámolására.

  • -

    Példák mikor nulla egy mátrix determinánsa. Két mátrix szorzatának determinánsa.

  • -

    Azokat a mátrixokat nevezzük szingulárisnak, amelyek determinánsa nulla.

  • -

    Azokat a mátrixokat nevezzük regulárisnak, amelyek determinánsa nem nulla.

  • -

    A Cramer szabály egy újabb módszer az egyenletrendszerek megoldására.

  • -

    Egy mátrix sajátértéke egy valós szám, amely azt mondja meg, hogy a sajátvektor hányszorosát kapjuk akkor, ha azt a mátrixszal szorozzuk.

  • -

    Egy mátrix sajátvektora egy olyan nem nullvektor, ami azt tudja, hogy megszorozva a mátrixszal az eredeti vektor skalárszorosát kapjuk. Ez igazán remek, de, hogy pontosan miért, nos ez mindjárt kiderül.

  • -

    A sajátértékek kiszámolásához szükséges egyenlet.

  • -

    A mátrix főátló elemeiből kivonunk $\lambda$-kat, majd ennek vesszük a determinánsát.

  • -

    Ha egy nxn-es mátrixnak van n darab független sajátvektora, akkor képesek vagyunk előállítani a mátrix diagonális alakját. Lássuk ez miért ilyen roppant fontos.

  • -

    Ha egy nxn-es mátrixnak van n darab független sajátvektora, akkor képesek vagyunk előállítani a mátrix spektrálfelbontását.

  • -

    Ha egy nxn-es mátrixnak van n darab független sajátvektora, akkor a mátrix diagonizálható.

  • -

    A sajátfelbontás egy olyan, kizárólag diagonalizálható mátrixokkal végezhető felbontás, ami megkönnyíti a hatványozást.

  • -

    A spektrálfelbontás segítségével könnyebben hatványozhatunk.

  • -

    Egy mátrix sarok főminor mátrixai a mátrix bal felső sarkától kezdődő sarok mátrixok determinánsai.

  • -

    Egy mátrix főminor mátrixai a mátrix bal felső sarkától kezdődő sarok mátrixok determinánsai.

  • -

    Egy nxn-es mátrix pozitív definit, ha minden sajátértéke pozitív.

  • -

    Egy nxn-es mátrix negatív definit, ha minden sajátértéke negatív.

  • -

    Egy nxn-es mátrix pozitív szemidefinit, ha minden sajátértéke nagyobb vagy egyenlő 0.

  • -

    Egy nxn-es mátrix negatív szemidefinit, ha minden sajátértéke kisebb vagy egyenlő 0.

  • -

    Egy nxn-es mátrix indefinit, ha van nullánál nagyobb és nullánál kisebb sajátértéke is..

  • -

    Éjszaka nem ajánlatos összefutni velük az utcán...

  • -

    A kvadratikus alakok mátrixa segít eldönteni a definitséget.

  • -

    A lineáris leképezés egy test feletti vektorterek között ható művelettartó függvény.

  • -

    A képtér egy olyan altér $V_2$-ben, amely azokból a vektorokból áll, amiket a $V_1$-beli vektorokból csinál a leképezés.

  • -

    A magtér egy olyan altér $V_1$-ben, amelyek képe a leképezés során nullvektor.

  • -

    A képtér és a magtér dimenzióinak összege éppen $V_1$ dimenziója.

  • -

    Minden lineáris leképezést jellemezhetünk egy mátrixszal.

  • -

    Egy leképezésnek akkor létezik inverze, ha a leképezés mátrixának létezik inverze.

  • -

    Két leképezés kompozíciója a mátrixaik szorzata.

  • -

    Ha egy nxn-es mátrixnak van n darab független sajátvektora, akkor képesek vagyunk előállítani a mátrix diagonális alakját. Lássuk ez miért ilyen roppant fontos.

  • -

    Ha a mátrixnak létezik diagonális alakja, akkor van sajátbázisa, ami fantasztikus dolgokra képes.

  • -

    A lineáris leképezések másnéven homomorfizmusok. Ezek a homomorfizmusok és azok mátrixai maguk is egy vektorteret alkotnak, ezt a vektorteret $Hom(V_1, V_2)$-nek nevezzük.

  • -

    Az A és B mátrixok hasonlók, ha létezik egy C mátrix, amivel ha jobbról szorozzuk a B-t, balról pedig a C inverzével szorozzuk, akkor ennek eredménye A.

Gram-Schmidt ortogonalizáció, LU és QR felbontás, pszeudoinverz

  • -

     Azokat a vektorokat, ahol a vektorok egymásra merőlegesek ortogonális rendszernek nevezzük.

  • -

    Az olyan mátrixot, ahol minden elem egy-egy vektorok szorzata, szorzótáblaszerűen elrendezve, Gram mátrixnak nevezzük.

  • -

    Hogyha egy ortogonális vektorrendszer éppen annyi vektorból áll, amennyi koordinátája van a vektoroknak, akkor az a vektorrendszer egy ortogonális bázis.

  • -

    Ha egy vektorrendszerben bármely két vektor szorzata 0, akkor az egy ortonormált vektorrendszer.

  • -

    Ha egy vektorrendszerben bármely két vektor skaláris szorzata 0 és minden vektora egységnyi hosszú, akkor az egy ortonormált vektorrendszer.

  • -

    Az olyan bázist, ahol bármely két vektor skaláris szorzata 0 és minden vektor egységhosszú, ortonormált bázisnak nevezzük.

  • -

    A Gauss-féle normálegyenletek segítségével vektorok helyett már csak skaláris szorzatokkal kell foglalkoznunk.

  • -

    Ha egy lineáris kombináció együtthatói felírhatóak skaláris szorzatok segítségével, akkor azok a Fourier-együtthatók.

  • -

    Az ortogonális mátrix olyan, ahol az oszlopvektorok egységnyi hosszúak.

  • -

    Az ortogonális mátrixok néhány hasznos tulajdonsága.

  • -

    A régi bázis úgy alakítható át ortogonális bázissá, hogy szépen egymás után lecseréljük a régi bázisvektorokat új bázisvektorokra. Az átalakítást Gram-Schmidt ortogonalizációnak nevezzük.

  • -

    Egy mátrix LU felbontása azt jelenti, hogy a mátrixot felbontjuk egy alsó és egy felső háromszögmátrix szorzatára.

  • -

    Egy nxn-es mátrixnak akkor létezik LU-felbontása, ha az első n-1 főminora nem nulla.

  • -

    Hogyha egy olyan mátrix LU felbontására van szükségünk, amelynek valamelyik (nem utolsó) főminora 0, akkor megtehetjük azt, hogy egy premutációs mátrix segítségével felcseréljük a sorait.

  • -

    Az LU-felbontás módszere nem négyzetes mátrixokra ugyanolyan, mint eddig, a Gauss elimináció segítségével történik.

  • -

    Ez tulajdonképpen egy olyan LU-felbontás, ahol az U mátrix az L-nek a transzponáltja.

  • -

    A QR-felbontás azt jelenti, hogy egy mátrixot egy ortogonális és egy felsőháromszögmátrix szorzatára bontjuk.

  • -

    QR-felbontást kaphatunk akkor is, ha az $A$ mátrixot addig-addig szorozgatjuk Givens forgatások mátrixaival, amíg felső háromszögmátrixot nem kapunk.

  • -

    Az $A$ mátrixból először készítünk egy felső háromszögmátrixot a Householder-tükrözések segítségével.

  • -

    Ha egy egyenletrendszernek nincs megoldása, akkor az optimális megoldás megadja a legjobb közelítést.

  • -

    A Gauss-féle normálegyenlet egyenletrendszerek megoldásainak közelítéséhez használható módszer.

  • -

    Egy $\underline{b}$ vektort nem csak merőlegesen vetíthetjük, hanem ferdén is. Viszont egyedül a merőleges vetítés rendelkezik a legjobb közelítés tulajdonságával.

  • -

    Keressük az a lineáris függvényt, amely a lehető legjobban illeszkedik a mérési pontokra.

  • -

    Ha egy mátrixnak nem létezik inverze, de közelíteni szeretnénk azt, akkor használható a Moore-Penrose pszeudoinverz.

Kétváltozós függvények

  • -

    A kétváltozós függvények úgy működnek, hogy két valós számhoz rendelnek hozzá egy harmadik valós számot.

  • -

    A vegyes másodrendű deriváltak mindig egyenlők, ha a függvény kétszer folytonosan deriválható.

  • -

    A kétváltozós függvényeket x és y szerint is tudjuk deriválni. Ezeket a különböző változók szerinti deriváltakat parciális deriváltaknak nevezzük.

  • -

    Egy általános módszer, amivel kétváltozós függvények szélsőértékeit és nyeregpontjait lehet meghatározni

  • -

    Az elsőrendű parciális deriváltakat nullával egyenlővé téve egy egyenletrendszert kapunk. Ennek az egyenletrendszernek a megoldásai a stacionárius pontok.

  • -

    Az elsőrendű parciális deriváltakat nullával egyenlővé téve egy egyenletrendszert kapunk. Ennek az egyenletrendszernek a megoldásai a stacionárius pontok.

  • -

     másodrendű deriváltakból képzett mátrix, amely segít eldönteni, hogy a függvénynek a stacionárius pontokban minimuma, maximuma, vagy éppen nyeregpontja van-e.

  • -

    A sík azon pontjainak összességét, amelyekben az $f$ függvény ugyanazt a konstans értéket veszi fel, az $f$ függvény szintvonalának nevezzük.

  • -

    Az egyváltozós függvények mintájára bevezetjük az érintő fogalmát. Ez esetben most egy sík lesz az érintő.

  • -

    A parciális deriváltakból keletkező vektort gradiensnek vagy másként deriváltvektornak neveznek.

  • -

    Azt mondja meg, hogy egy adott irányban haladva milyen meredeken emelkedik a felület. Nagyon érdekes. Az iránymenti derivált nagyon érdekes.

  • -

    Egy függvény akkor implicit, ha $y$ nincs kifejezve, vagyis nem $y=\dots$ alakú.

  • -

    Megismerkedünk az implicit függvényekkel, és ha már megismerkedtünk, nézzük meg, hogyan lehet deriválni őket.

Kétváltozós határérték és totális differenciálhatóság

  • -

    Az egyváltozós függvények határértékének epszilon-deltás definícióját átültetjük a kétváltozós esetre.

  • -

    Hogyan vihető át a deriválás szemléletes jelentése egyváltozós függvényekről kétváltozós függvényekre?

  • -

    A kétváltozós függvényeket x és y szerint is tudjuk deriválni. Ezeket a különböző változók szerinti deriváltakat parciális deriváltaknak nevezzük.

Kettős és hármas integrál

Differenciálegyenletek

Izoklinák

  • -

    Azon pontok halmazát, melyekben a megoldásfüggvények meredeksége egy adott számmal egyenlő, a differenciálegyenlet izoklinájának nevezzük.

Sorok & hatványsorok & Taylor-sorok

Fourier sorok

Laplace transzformáció

Paraméteres görbék

  • -

    A ciklois egy olyan görbe, amelyet egy irányított görbén csúszás nélkül legördülő kör egy meghatározott pontja ír le.

  • -

    A paraméteres görbe egyenlete a görbén mozgó pont pillanatnyi koordinátáit írja le. A paraméteres görbe deriválásával kapjuk a $v(t)$ sebességvektort, ami minden időpillanatban megadja a görbén mozgó $P$ pont sebességének irányát és nagyságát.

  • -

    A görbe ívhossza egy differencálható görbe szakaszának a hossza.

  • -

    Az $r(t)$ paraméteres görbe első deriváltja a görbe érintővektora vagy más néven sebességvektora.

  • -

    Az $r(t)$ paraméteres görbe második deriváltja a görbe gyorsulásvektora. Ha ezt elosztjuk a saját hosszával, az így keletkező egységnyi hosszú vektor a görbe főnormálisvektora.

  • -

    Binormálisvektornak nevezzük a görbe sebességvektorával és gyorsulásvektorával alkotott szorzatot.

  • -

    A $\underline{T}(t)$, $\underline{N}(t)$ és $\underline{B}(t)$ vektorok együttes elnevezése kísérő triéder.

  • -

    Az $r(t)$ paraméteres görbe második deriváltja a gyorsulást írja le. Ezek a vektorok egy síkot feszítenek ki, ezt a síkot a görbe simulósíkjának nevezzük.

  • -

    A görbület azt írja le, hogy a simulósíkon belül milyen erősen kanyarodik a görbe. A térgörbék azonban nem csak a simulósíkon belül kanyarodnak, hanem közben ki is csavarodnak abból. Azt, hogy egy térgörbe éppen milyen ütemben csavarodik ki a simulósíkjából, a torzió írja le.

  • -

    A paraméteres görbe görbülete a görbe egyenestől való eltérését jellemző számérték.

  • -

    Hogyha a görbének egy $P$ pontjában létezik nem nulla görbülete, akkor azt a kört, amel a $P$-ben érinti a görbét és a görbülete megegyezik a görbe $P$-beli görbületével és a középpontja a görbe konkáv részében található, a görbe $P$ pontbeli simulókörének nevezzük.

  • -

    A simulókörök középpontjai által kirajzolt alakzatot evolutának hívjuk.

  • -

    Az ellipszis egy olyan görbe, amely azon pontok mértani helye egy síkon, ahol a pontok két rögzített ponttól mért távolságának összege a két pont távolságánál nagyobb állandó.

  • -

    A hiperbola azon pontok halmaza, melyeknek két rögzített ponttól való távolságának különbségének abszolút értéke állandó.

Vektormezők, görbementi és felületi integrálok

Divergencia és rotáció

  • -

    A vektormező divergenciája egy olyan függvény, amely a vektormező minden pontjában megméri, hogy ott mennyi anyag áramlik a rendszerbe vagy épp mennyi tűnik el.

  • -

    A rotáció a vektormező örvénylését írja le.

  • -

    Egy vektormező akkor forrásmentes, ha nincs benne forrás, vagyis nincs benne olyan pont, amelynek pozitív a divergenciája.

  • -

    Egy vektormező akkor örvénymentes, ha a vektormező rotációja mindenütt nulla.

  • -

    A konzervatív vektormezőre több különböző definíció van forgalomban attól függően, hogy fizikusok vagy matematikusok alkották-e meg magát a definíciót.

  • -

    A vektormező akkor konzervatív, ha létezik $F$ primitív függvénye. Ez az $F$ függvény a vektormező potenciál-függvénye.

  • -

    Az első Green-tétel azt írja le a rotáció segítségével, hogy mekkora egy vektormező örvénylése a zárt görbén. A második Green-tétel pedig azt írja le a divergencia segítségével, hogy mekkora egy vektormező fluxusa a zárt görbén.

  • -

    A második Green-tétel térbeli változata azt mondja, hogy egy vektormező integrálja az $S$ kifelé irányított zárt felületen egyenlő a divergencia integráljával a felület által határolt $D$ tartományon.

  • -

    Az első Green-tétel térbeli változatát Stokes-tételnek nevezzük.

Valszám alapok, Kombinatorika

Teljes valószínűség tétele, Bayes tétel

Geometriai valószínűség, Binomiális tétel

Eloszlás, eloszlásfüggvény, sűrűségfüggvény

Várható érték és szórás

Markov és Csebisev egyenlőtlenségek

Nevezetes diszkrét és folytonos eloszlások

Becslések

Hipotézisvizsgálat

  • -

    Az elfogadási tartomány az a tartomány, ahová ha a próba értéke kerül, akkor a nullhipotézist elfogadjuk.

  • -

    A kritikus tartomány az a tartomány, ahová ha a próba értéke kerül, akkor a nullhipotézist elvetjük.

  • -

    A szignifikanciaszint a hibás döntés valószínűsége.

  • -

    A hipotézis megfogalmazása. A próbafüggvény kiválasztása. Szignifikanciaszint és kritikus tartomány. Mintavétel és döntés.

  • -

    A sokaság normális eloszlású, szórása $\sigma$, $H_0$ a sokaság átlagára vonatkozik, a minta elemszáma $n$.

  • -

    A sokaság normális eloszlású, szórása nem ismert, $H_0$ a sokaság átlagára vonatkozik, a minta elemszáma $n$

  • -

    A sokaság tetszőleges eloszlású, szórása nem ismert, $H_0$ a sokaság átlagára vonatkozik, a minta $n$ elemű, elemszáma nagy.

  • -

    A sokaság tetszőleges eloszlású, $H_0$ a sokasági arányra vonatkozik, a minta $n$ elemű, elemszáma nagy

  • -

    A sokaság normális eloszlású, $H_0$ a sokasági szórásra vonatkozik, a minta $n$ elemű.

  • -

    A sokaság eloszlására irányuló vizsgálat.

  • -

    A sokaságon belül két ismérv függetlenségére irányuló vizsgálat. $H_0$: a két ismérv független, az ellenhipotézis pedig, $H_1$: a két ismérv közti kapcsolat sztochasztikus vagy függvényszerű.

  • -

    Két sokaságban valamely változó eloszlásának egyezőségére irányuló vizsgálat. $H_0$: a két sokaságban az eloszlás egyező, az ellenhipotézis pedig, $H_1$: a két eloszlás nem egyező.

  • -

    Mindkét sokaság normális eloszlású, szórásaik $\sigma_X$ és $\sigma_Y$.

  • -

    A két sokaság normális eloszlású és szórásaik egyformák.

  • -

    A két sokaság eloszlása és szórása nem ismert, mindkettő szórása véges, és mindkét minta elemszáma elég nagy.

  • -

    Két sokaság szórásának összehasonlítására irányuló próba, ha mindkét sokaság normális eloszlású. A nullhipotézis $H_0$: $\sigma_1^2 = \sigma_2^2$

  • -

    Több sokaság várható értékének összehasonlítására vonatkozó próba, ha mindegyik sokaság normális eloszlású és azonos szórású.

  • -

    A Bartlett-próba több sokaság szórásának összehasonlítására vonatkozó próba, ha mindegyik sokaság normális eloszlású.

Regressziószámítás

  • -

    A regressziószámítás lényege annak vizsgálata, hogy egy bizonyos változó, amit eredményváltozónak hívunk, hogyan függ más változók, az úgynevezett magyarázó változók alakulásától.

  • -

    A regressziós egyenes egy lineáris függvény, ami mindegyik x-hez hozzárendel valamilyen y-t. Ezek általánan eltérnek a valódi y-októl. Ezeket az eltéréseket reziduumoknak nevezzük.

  • -

    A reziduumokból képzett mutató az úgynevezett SSE, jelentése sum of squares of the errors vagyis eltérés-négyzetösszeg.

  • -

    Ha az SSE értékeit elosztjuk a megfigyelt pontok számával és a kapott eredménynek vesszük a gyökét, akkor kapjuk a reziduális szórást.

  • -

    A lineáris korrelációs együttható azt méri, hogy x és y között milyen szoros lineáris kapcsolat van.

  • -

    A magyarázóerőt méri az úgynevezett determinációs együttható.

  • -

    A hatványkitevős modellben y helyett lg y, x helyett lg x van, $\hat{b}_1$ viszont marad $\hat{b}_1$

  • -

    Az exponenciális modellben y helyett lg y van, az x viszont marad x, $\hat{b}_1$ helyett pedig $\lg{ \hat{b}_1}$ van.

  • -

    Az elaszticitás két összefüggő jelenség közti kapcsolat.

  • -

    5 feltétel standard lineáris modellhez.

  • -

    A paraméterek és a regresszió becslése standard lineáris modellben.

  • -

    A többváltozós regressziós modelleket olyankor alkalmazzuk, amikor az eredményváltozó alakulását több magyarázó változó tükrében vizsgáljuk.

  • -

    A kétváltozós esethez hasonlóan a korreláció itt is a változók közti kapcsolat szorosságát írja le, csakhogy itt egy fokkal rosszabb a helyzet, ugyanis most bármely két változó korrelációját vizsgálhatjuk. Ezt tartalmazza a korrelációmátrix.

  • -

    A tesztelés úgy zajlik, hogy nullhipotézisnek tekintjük a $H_0 :  b_i = 0$ feltevést, ellenhipotézisnek pedig azt, hogy $H_1  :  b_i \neq 0$.

  • -

    Négyzetösszeg, szabadságfok, átlagos négyzetösszeg, F.

  • -

    A multikollinearitás röviden összefoglalva azt jelenti, hogy két vagy több magyarázó változó között túl szoros korrelációs kapcsolat van, és ez zavarja a becslést.

  • -

    Az autokorreláció a regresszió maradéktagjának a saját későbbi értékeivel való korrelációját jelenti, vagyis egyfajta szabályszerűséget a maradékváltozóban.

  • -

    A Durbin-Wattson-teszt lényegében egy hipotizésvizsgálat.