Egyenletek, melyek a világot működtetik

1628 nyarán indult első útjára a svéd flotta legújabb büszkesége, az akkori idők legnagyobb hadihajói közé tartozó II. Gusztáv Adolf király megrendelésére épített Vasa. A hajó egy derűs délutánon kezdte meg útját a stockholmi kikötőből, küldetése a királyi flotta zászlós hajójaként az lett volna, hogy támogassa a svéd király 30 éves háborúban vívott hadműveleteit. Ám alighogy elhajózott a kikötő bejáratát övező sziklák mellett, egy hirtelen feltámadó kisebb széllökés megbillentette, majd egy újabb fuvallat az oldalára borította. A Vasa, melynek tűzereje a teljes ellenséges lengyel flotta tűzerejével felért volna, mindössze 1300 métert tett meg, amikor felborult és elsüllyedt.

Noha ezzel a negatív rekordnak számító útjával és az 1960-as években történő sikeres kiemelésével beírta magát a hajózás történetébe, korántsem olyan rendkívüli, ami a Vasa-val történt. Az 1600-as évek nagy vitorlás hadihajói egytől egyig meglehetősen borulékonyak voltak. A hajóépítő mesterek nem nagyon használtak terveket munkáik során, és pláne nem voltak képesek olyan matematikai számítások elvégzésére, ami egy hajó borulékonyságát még idejében fölfedhette volna.

A különböző mértani arányok és építési fortélyok apáról fiúra szálltak a hajóépítő dinasztiákban és szigorú üzleti titoknak számítottak. A több száz évre visszanyúló tapasztalatokat így aztán meglehetősen intuitív úton ültették át az újabb és újabb hajótípusok tervezésekor, ami nem mindig jelentett garanciát a tökéletes működésre. A Vasa esetében közrejátszott az a sajnálatos módosítás is, amit a király személyesen rendelt el, hogy a hajó tűzerejét még jobban megnövelje. Természetesen ezt a döntést semmilyen statikai számítás nem kísérte, vagyis a hajó építésének amúgy is jócskán intuitív menete ettől a beavatkozástól végképp a kísérletezés útjára sodródott.

Nem volt mentes az improvizációtól a római katolikus egyház első számú szentélye a Vatikánban található Szent Péter bazilika építése sem. Az építkezést a 16. század elején kezdték meg II. Gyula pápa megbízásából, aki a régi szentély rekonstrukciójával vagy új templom építésével egy bizonyos Donato Bramante építészt bízott meg. Az építkezés kisebb nagyobb szünetekkel 120 éven át tartott, a terveket először Raffaello majd Michelangelo is a megépíthetőség irányába módosította. A kupolát tartó négy hatalmas pillért az építkezés során több alkalommal is meg kellett erősíteni, hogy azok képesek legyenek elbírni a rájuk nehezedő súlyt. Maga a kupola – Michelangelo mesterműve, amelyet az eredeti tervekhez képest jóval monumentálisabbra épített – szintén menet közbeni többszörös megerősítéseknek köszönheti, hogy még jelenleg is áll. Ezek az építkezési módszerek azonban nem kedveztek olyan szerkezetek megépítésének, mint például a függőhidak vagy a felhőkarcolók. Ilyen szerkezetek tervezéséhez és megépítéséhez ugyanis szükség lett volna egyfajta jövőbelátásra, ami már a tervezéskor képes előre jelezni az összes problémát, ami az építés során fölmerülhet. Ehhez azonban kellett két zseniális tudós.

Skizofrén nullák és a fluxió elmélet

Fizikai ismereteink egyik általános iskolából megőrzött biztos pontja az s=vt képlet. Ha egy lövedék 100 m/s sebességgel halad, vagyis másodpercenként 100 métert tesz meg, akkor 20 másodperc múlva a megtett út 2000 méter. Az eredményt megkapjuk egy egyszerű szorzás segítségével. Csakhogy a világ ennél bonyolultabban működik, a lövedékre ugyanis közegellenállás hat, ami a sebességének a négyzetével arányos. Vagyis minél gyorsabb a lövedék, annál nagyobb fékezőerő hat rá, így 20 másodperc elteltével nem 2000 méter lesz a megtett útja, hanem fogalmunk sincs, hogy mennyi. A problémát önmagában nem a közegellenállás fékezőereje okozza, hanem annak az a kellemetlen tulajdonsága, hogy a körülményektől függően folyamatosan változik. Vagyis elkezdi fékezni a lövedéket, ami lassul, emiatt csökken a sebessége és emiatt csökken a fékezőerő, ami már kevésbé lassítja a lövedéket. Vagyis egy bonyolult ok-okozati visszacsatolási folyamat alakul ki még egy ilyen rendkívül egyszerű példában is, ahol semmi mást nem veszünk figyelembe, mint a lövedék sebességét és a közegellenállást. Egy hajó megtervezése vagy egy katedrális megépítése ennél milliószor bonyolultabb rendszer, ahol száz meg száz tényező hat egymásra, és ezek változó hatásai elképzelhetetlenül bonyolult kölcsönhatásba kerülnek egymással. Nem csoda hát, hogy az 1600-as években nem kezdtek statikai számításokba egy hajó vagy éppen egy katedrális építésénél, hanem a több száz éves hagyományokat a józan ésszel és a mindennapi tapasztalatokkal vegyítve próbáltak valamilyen megoldást találni a problémára.

Az igény ugyanakkor egyre nagyobb volt arra, hogy a bonyolult fizikai folyamatokat képesek legyenek leírni, csak éppen az nem volt világos, hogyan. Az 1700-as évek elejéig kellett várni erre, amikor nyilvánosan is megjelent egy angol fizikus-matematikus fluxió elmélete, amely alapjaiban változtatta meg a fizika és a matematika működését. Az illetőt Isaac Newtonnak hívták és elméletét már az 1660-as években kidolgozta, de akkor még nem érezte teljesen késznek a megjelentetésre, ugyanis voltak benne bizonyos definiálásból eredő pontatlanságok. Nos, ezeket a kisebb pontatlanságokat csak 100 évvel később, az 1800-as évek elejére sikerült kiiktatnia Augustin Louis Cauchy francia mérnök-matematikusnak, így aztán utólag megállapíthatjuk, Newton akár azon nyomban is előállhatott volna elméletével, ezzel megkímélve magát egy felesleges hiúsági versenytől, amelyet a kor másik hatalmas gondolkodójával Gottfried Wilhelm Leibniz-cel vívott.

A dolog ugyanis úgy áll, hogy Newton és Leibniz lényegében egyszerre jött rá egymástól függetlenül és más-más okok által motiválva ugyanarra a dologra. Míg Newtont a fizikai világ matematikai leírása vezérelte, addig Leibniz – aki inkább volt filozófus, mint matematikus – egészen más irányból közelített a problémához. Newton egy módszert fejlesztett ki, amely képessé tette az emberiséget arra, hogy leírhassa a minket körülvevő világ fizikai folyamatait. Leírhassa, hogy ezáltal lehetőség nyíljon a problémák megoldására. Amint az később számos alkalommal kiderült, a probléma leírását egyáltalán nem követi azonnal a megoldás megtalálása, de ha leírni sem vagyunk képesek a problémát, akkor egészen biztosan nem tudjuk megoldani. Ezzel szemben Leibniz arra érzett rá, hogy az 1600-as évek matematikusai rátaláltak valamire, de „mintha bekötött szemmel jártak volna” nem voltak képesek ezt egy kerek egységes elméletté kidolgozni. Leibniz megtette azt a sorsdöntő lépést, hogy egységes és nagyon okos jelölést vezetett be és ezen jelölésének köszönhetően képes volt olyan új összefüggéseket is meglátni, melyeket maga Newton sem látott.

A Newton és Leibniz közötti prioritási vita voltaképpen azért volt igazán tragikus, mert ha nem egymással szemben, hanem egymás mellett dolgoztak volna, közösen talán képesek lettek volna betömni azokat a réseket, amelyeknek a betömésére még több mint 100 évet kellett várni.

No de lássuk, hogy mi is volt ez a bizonyos elmélet, amire Newton és Leibniz egyszerre jött rá. Nem kell hozzá sok matematika, csak néhány alapvető matematikai összefüggés. De azért a biztonság kedvéért ez egy külön PDF-ben olvasható itt, nehogy elriasszunk bárkit is:)

Ma már léteznek olyan mérnöki tudományokban alkalmazott numerikus programok, amelyben például egy-egy épület körüli áramlást a határfelület mentén akár cm-es felbontással is képesek megadni. Ezek a modellek nagyon fontosak az épületek úgynevezett dinamikus terhelésének vizsgálata szempontjából. Magas toronyépületek vagy éppen függőhidak a szokásos statikai terhelésen kívül ugyanis jelentős dinamikus terhelésnek is ki vannak téve. 1940. november 7-e óta nem kell építőmérnöknek lennünk ahhoz, hogy megértsük ennek jelentőségét. Ekkor történt ugyanis a Washington állambeli Tacoma híd híressé vált összeomlása. A híd tervezése során nem vették kellőképpen figyelembe a szél okozta dinamikus terhelés jelentőségét és a híd az oldalirányú széllökések hatására hullámozni kezdett. A hullámzás egyre jobban felerősödött, míg végül másfél óra elteltével a hídpálya már 45 fokos szögben kilengett, majd leomlott. A híd összeomlásáról készült felvételeket azóta a világ minden egyetemén minden évben levetítik az építőmérnök hallgatóknak, hogy örökre az eszükbe véssék: hidat nem csak statikus, hanem dinamikus terhelésre is méretezni kell.

A legtöbb differenciálegyenletet azonban a meteorológusoknak kell megoldani. Természetesen nem papíron ceruzával, hanem numerikus módszerekkel nagy teljesítményű szuperszámítógépeken. Az utóbbi évtizedekben egyre pontosabbá váló rövidtávú előrejelzések készítése hihetetlenül nagy számítási kapacitást igényelnek, és a nagyon bonyolult légköri folyamatokat nem kevésbé bonyolult egyenletek, az úgynevezett kormányzó egyenletek írják le. Ezeknek az egyenleteknek és néhány ügyes trükknek a segítségével pedig már nem csak a világ aktuális működését vagyunk képesek leírni, hanem azt is, miként fog működni 48 óra múlva.

Az 1853-ban kezdődő és a Fekete-tenger stratégiai jelentőségű partvidéki területeiért vívott Krími háború kulcsfontosságú helyszíne az Orosz Birodalom egyik legfontosabb kikötője Szevasztopol és környéke volt. Itt semmisült meg az Orosz Birodalommal szemben álló angol-francia szövetség hajóflottájának jelentős része a vezérhajóval együtt 1854. november 14.-én a balaklavai öbölben. A csapást azonban nem az Orosz Birodalom mérte a szövetségesek flottájára, hanem egy egész Európán végigsöprő pusztító erejű szélvihar. A jelentős veszteséggel járó incidens arra sarkallta a Franciaországot éppen akkor vezető III. Napóleont, hogy vizsgálatot rendeljen el, nem lehetett-e volna valamiképpen előre tudni a szélvihar érkezéséről és így jelezni azt a flotta parancsnokának, aki biztonságos vizekre tudta volna vezényelni hajóit. A vizsgálat lefolytatásával a Neptunusz felfedezésében is közreműködő francia csillagászt Le Verriert bízta meg, aki megállapította, hogy az Európában akkor már szép számmal működő meteorológiai állomások mind észlelték azt a ciklont, amely a pusztító vihart okozta. Le Verrier ezeket a megfigyeléseket egy térképre berajzolva pontos képet kapott a ciklon mozgásáról, amelynek érkezését így képes lett volna előre jelezni. Persze azért ez a módszer az előrejelzésnek egy meglehetősen kezdetleges formája, hiszen egy már megtörtént időjárási eseményt „jelez előre” olyan területekre ahol számítani lehet az érkezésére. Mégis Le Verrier felismerése kulcsfontosságú volt az időjárás előrejelzés történetében. Azon túl, hogy megteremtette magát az elképzelést, hogy lehetséges előre jelezni az időjárási eseményeket, felismerte az adatgyűjtés és az adatok rendszerezésének a fontosságát. Ez utóbbi, vagyis a mérések és az adatok rendszerezése a mai modernkori előrejelzés során is roppant fontos. Nem is gondolnánk, hogy mennyire.

A valódi értelemben vett előrejelzéshez és általában a légköri folyamatok leírásához vezető út a dinamika és a termodinamika 1800-as években történő kifejlődésével indult. Ekkor írták fel a termodinamika főtételeit, melyeket a dinamikai, hidrodinamikai és termodinamikai ismeretekkel ötvözve lehetőség nyílt az időjárás nagy rendszerét mozgató differenciálegyenletek megalkotására. 1904-ben publikálta híressé vált cikkében Vilhelm Bjerknes norvég fizikus-matematikus azt a hét parciális differenciálegyenletet, amely a légköri folyamatok rendszerét írja le. A kormányzó egyenleteknek nevezett rendszer három mozgásegyenletből, a termodinamikai egyenletből, a kontinuitási vagy másként tömeg megmaradási egyenletből, a nedvességszállítási egyenletből és az állapotegyenletből áll. A Bjerknes által megalkotott és máig használt parciális differenciálegyenlet-rendszer analitikusan nem megoldható.

Bjerknes az időjárás numerikus előrejelzésének jövőjét az egyenletek grafikus, illetve vegyes numerikus-grafikus megoldásában látta. A kormányzó egyenletek alapján Lewis Fry Richardson angol matematikus készített először számszerű előrejelzést, az ehhez szükséges számítások azonban abban az időben még meglehetősen keservessé tették a munkát. A nagy áttörést csak jóval később, egy matematikus látásmóddal megáldott meteorológus, Edward Norton Lorenz hozta meg. A számítógépek fejlődése lehetővé tette számára, hogy 1960-ra elkészítse bolygónk meteorológiai rendszerének egy végtelenül leegyszerűsített modelljét. A modell a kormányzó egyenletek numerikus megoldásával készített előrejelzéseket. Lorenz betáplálta a számítógépbe egy adott nap mérési adatait (hőmérséklet, légnyomás, nedvességtartalom, szélerősség, stb.) és a kapott adatokból a modell megjósolta a várható időjárást. A tesztek elvégzése során azonban felfigyelt egy érdekes jelenségre. Ha a kezdeti adatokon csak egy nagyon minimális változtatást hajtott végre, az gyakran drasztikus eltéréseket okozott a végeredményben. Kiderült, a meteorológiai modellek nagyon érzékenyek a kezdeti értékek apró változásaira. Ezt a jelenséget pillangó-hatásnak nevezte el arra utalva, hogy egy parányi pillangó képes előidézni a kezdeti adatokban olyan apró változásokat, amelyek aztán döntően megváltoztathatják a modell lefutását és így a kapott végeredményt.

Ezzel egyértelművé vált, hogy a pontos előrejelzéshez nem elegendő a Bjerknes által megalkotott kormányzó egyenletek rendszere és ennek számítógépre fejlesztett megoldási algoritmusa. Szükséges hozzá egy rendkívül pontos mérési hálózat is, mert a nem megfelelő kezdeti értékek a teljes előrejelzést nagyon könnyen tévútra vihetik. A modern meteorológia fejlődéséhez tehát elengedhetetlenné vált egy rendkívül pontos és minél több elemből álló mérési hálózat kialakítása. Létrehoztak egy képzeletbeli háromdimenziós rácsot, ami az egész Földet körbeöleli és a légkört kocka alakú dobozokra osztja fel. Ezeknek a dobozoknak a csúcsai az úgynevezett rácspontok és lehetőség szerint minden egyes ilyen rácspontban végezni kell méréseket a hőmérsékletre, szélerősségre, nedvességtartalomra és még számos további fontos paraméterre. Ezek az értékek az úgynevezett kezdeti értékek, amelyek alapján az előrejelzési modelleket futtatják. Minél sűrűbb a rács, annál pontosabbá válnak az előrejelzések. A rácspontok közti távolság a mérőeszközök számának növekedésével egyre jobban csökkenthető. Mivel azonban a rács háromdimenziós, vagyis a levegőben is vannak rácspontok, nyilvánvalóan lehetetlen minden pontba mérőállomást telepíteni. Ez a probléma többféleképpen is megoldható. Az egyik lehetőség, hogy egy megfigyelő repülőt küldenek az adott rácsponthoz, vagy egy éppen amúgy is arra járó repülőgéptől kérdezik le az általuk megtapasztalt adatokat. Egy másik lehetőség, hogy meteorológiai műholdaktól kérik le az adott rácspontra vonatkozó adatok közül azokat, amelyeket a műhold képes megállapítani. Végül egy harmadik lehetőség az úgynevezett interpoláció. Ennek lényege, hogy a rácsponthoz legközelebb eső valódi mérőállomás adataiból próbálnak következtetni a rácspontra vonatkozó értékekre. Amikor az adatok így vagy úgy, de minden egyes rácspontra megvannak, azokat betáplálják egy számítógépbe és elkezdik a modellt futtatni. A modell a rácspontok „időjárását” általában 5 perces időlépcsőben és 48 órás időtartamban adja meg. Ez azt jelenti, hogy minden egyes rácspont esetében kiszámítja a várható hőmérsékletet, légnyomást és az összes többi paramétert, a következő 48 óra minden egyes 5 percére. Egy adott terület előrejelzése az arra a területre eső rácspontok külön-külön előrejelzéseinek összegzése alapján születik.

A végfelhasználó számára legfontosabb információk - mondjuk az, hogy sütni fog-e a nap vagy esni fog-e az eső - azonban sajnos nem olyan jellegű adatok, amelyeket a kormányzó egyenletek által nyújtott matematikai modell lefutatásával csak úgy egyszerűen megkapunk. A felhőképződés és ezzel összefüggésben a napsütés vagy éppen a csapadék ugyanis nagyrészt a levegő függőleges, vagyis vertikális mozgásaival van összefüggésben, míg a kormányzó egyenletek jórészt a horizontális irányban történő változásokat képesek leírni. Ezért aztán a modellt olyan tapasztalatokon alapuló összefüggésekkel kell kiegészíteni, amelyek figyelembe veszik az előrejelzés szempontjából roppant fontos vertikális folyamatokat is. Ezt a meteorológusok paraméterezésnek nevezik, és ilyen paraméterezéssel kapcsolható be a modellbe a felhőképződés, vagy éppen a napsugárzás elnyelődéséből és visszaverődéséből eredő hatások. Az előrejelzés sikeressége tehát nagyban múlik ezen, így fontos, hogy megtalálják az adott modell számára legmegfelelőbb paraméterezést. Ennek egyik bevett módja, hogy előrejelzéseket készítenek - a múltra.

Az ötlet lényege, hogy pontosan tudjuk milyen idő volt két nappal ezelőtt és azt is pontosan tudjuk, hogy milyen idő van ma. A paraméterezéssel kiegészített modelleket úgy lehet egymással versenyeztetni, ha mindegyikbe betápláljuk a rácspontokon mért két nappal ezelőtti kezdeti értékeket, és megnézzük, melyik jósolja meg legjobban a mai napon mért valódi értékeket. Amelyik a legjobban megtippeli a két nappal ezelőtti adatok alapján a mai nap időjárását, az a győztes. Persze a modellek versenyeztetését több különböző időjárási helyzetre és jópár napra el kell végezni ahhoz, hogy igazi győztest lehessen hirdetni. Ezzel a módszerrel, vagyis a modell és a paraméterezés hibáinak ilyen szisztematikus javításával már kezdünk egészen közel kerülni ahhoz, hogy valóban megbízható előrejelzések készüljenek. De sajnos még mindig van itt egy kis gond.

Hiába tökéletesednek a modellek akár a végtelenségig, a légkör kaotikus tulajdonságából eredő problémák ettől még továbbra is megmaradnak. A pillangóhatás miatt ugyanis hiába rendelkezünk nagyon finom ráccsal és egy nagyon megbízható modellel, az egyes rácspontokban megadott kezdeti értékek apró hibái is drasztikus változást okozhatnak a modell lefutása során, ami pontatlanná teszi az előrejelzést. Márpedig rengeteg olyan rácspont van ahol nincsenek a közelben mérőállomások és ezekben a pontokban csak a korábban említett módszerekre, legtöbbször az interpolációra hagyatkozhatunk,amely azért, ami azt illeti nem tekinthető tévedhetetlennek. De egy zseniális ötlettel ez a probléma is megoldható. A módszer neve valószínűségi, vagy másként Ensemble előrejelzés és az alapötlet nagyon leegyszerűsítve a következő. Ha egyszer az okozza a problémát, hogy a rácspontok kezdeti értékei picit eltérhetnek a valóságostól, akkor futtassunk le egymással párhuzamosan több modellt, mindegyikben egy picikét változtatva a kezdeti értékeken és nézzük meg, mi jön ki. Ha az egymással párhuzamosan lefutó modellek többé-kevésbé ugyanazt az előrejelzést adják, akkor a kapott eredményben kellőképpen megbízhatunk, vagyis jó eséllyel tényleg olyan idő lesz. Ha viszont jelentősen eltérő eredmények születnek, akkor az előrejelzés megbízhatósága kisebb. Nézzük meg, hogyan működik ez például a hőmérséklet esetében. Egy adott rácspontban a mérés szerint jelen pillanatban 0 °C van, de a rácspont mondjuk éppen egy hegycsúcs tetejére esik, és pont most nem jár arra senki, ezért a mért 0 °C egy közeli mérőállomás interpolációja alapján jön ki. Így aztán nem lehetünk halálosan biztosak ebben a 0 °C-ban. De itt jön az Ensemble előrejelzés lényege, hogy a modellt nem csak az 0 °C értékkel, hanem ahhoz közel eső további értékekkel is lefuttatják, és megnézik, hogy mi jön ki. A kapott eredményeket egy grafikonon ábrázolva nagyon szemléletes képet kapunk a várható fejleményekről. Ezt a képet fáklya diagramnak nevezik. Ha a fáklya alsó és felső széle nem távolodik el túlzottan egymástól, akkor a párhuzamosan lefutott modellek többé-kevésbé ugyanarra az eredményre jutottak, így viszonylag pontosan meg tudjuk mondani, hogy hány fok lesz az adott rácspontban. Ha viszont a fáklya széttartó, akkor az adott rácspontban csak meglehetősen nagy bizonytalansággal mondható meg, hogy hány fok lesz. Ez pedig nem csak annak a hegymászónak lesz probléma, aki a következő napokban a hegycsúcsra igyekszik, ugyanis egy adott régió előrejelzésének elkészítéséhez az összes környező rácspont adatai szükségesek. Ha az adott rácspont az előrejelzés szempontjából kulcsfontosságú, de a fáklya diagram nagyon széttartó, akkor utólagos mérésekkel lehet ezen javítani. Például egy repülőgépet küldenek az adott ponthoz részletesebb méréseket végezni és ezek alapján a mérések alapján az újra lefuttatott modell már megbízhatóbb eredményeket fog adni.

A fáklya diagram az EPS előrejelzések szemléltetésére. A fenti ábrán a szombati hőmérséklet viszonylag megbízhatóan, míg a lenti ábrán kevésbé megbízhatóan jelezhető előre. A kék vonal a valós adatok alapján lefuttatott modell (determinisztikus) eredményeit jelöli, míg valós adatok kis módosításaival létrejövő többi (kb. 20 másik) lefutás a sárgával jelölt tartományban szóródik. Ezek eredményeit pontonként átlagolva jön ki az EPS átlag

Az Ensemble előrejelzések meglehetősen pazarlóan bánnak a számítási kapacitásokkal, hiszen egyetlen előrejelzés elkészítéséhez 20-szor vagy akár 50-szer is le kell futtatni az adott modellt. Egy olyan modellt, amely például Európán belül jelenleg már 8 km-es felbontással, 49 függőleges szinttel és körülbelül 5 millió rácspont összes adatával fut. 1960-ban Lorenz nem is álmodhatott ilyesmiről, az akkori számítási kapacitásokkal egy ilyen modell egyetlen lefutása a világ összes számítógépét felhasználva is lényegesen lassabb lett volna, mint ténylegesen kivárni, hogy milyen idő is lesz másnap valójában. Az Intel egyik alapítója, Gordon Moore által megfogalmazott, és azóta Moore-törvényként elhíresült állítás szerint azonban a világ számítógépeinek számítási kapacitása 18 havonta megduplázódik, így mostanra lehetségessé vált olyan modellek futtatása is, amelyek viszonylag jó pontossággal havi, sőt féléves előrejelzéseket is képesek készíteni.

1979 óta működik Angliában az Európai Középtávú Előrejelző Központ (ECMWF) amely kezdetben determinisztikus majd 1992-től Ensemble (Ensemble Prediction Systems; EPS) előrejelzéseket is készít a Föld egész területére, 2004-óta pedig már hetente készülnek egy teljes hónapra kiterjedő EPS előrejelzések. A modellek továbbfejlesztésével és bizonyos statisztikai módszertanok bevonásával pedig már lehetőség nyílik egy jóval nagyobb léptékre: több tíz éves éghajlat előrejelzések készítésére is.

MÉG TÖBB ILYEN

Visszajelzés