wetter.net

Wussten Sie…?

…dass die erste Wettervorhersage der Geschichte so lange berechnet werden musste, dass der „vorhergesagte" Zeitpunkt schließlich 6 Wochen zurücklag?

Verständlich, denn jede einzelne der tausenden, sehr komplizierten Differentialgleichungen musste 1922 noch von Hand mühsam ausgerechnet werden. Als Lewis Fry Richardson schließlich fertig war, war sein Ergebnis auch noch katastrophal falsch. Aber dennoch! Zum ersten Mal hatte ein Mensch das Wetter nur durch Beobachtungen und Rechnungen vorhersagen können. Das Prinzip funktionierte also. Nur leider konnte man die Gleichungen nicht schnell genug lösen und das Ergebnis war sehr ungenau.

Heute übernehmen Supercomputer für uns das Lösen der Gleichungen und Messwerte von Satelliten werden in die Wettermodelle eingelesen, doch das grundlegende Prinzip hat sich seit damals kaum verändert.

Vielleicht fragen Sie sich an dieser Stelle, wie dieses Prinzip nun aussieht. Keine Sorge, dabei möchte ich auch gar nicht zu sehr in die Tiefe gehen… Das Grundkonzept ist, dass man über physikalische Gleichungen verfügt, welche Aussagen über den Luftdruck, die Windstärke, die Temperatur, die Luftfeuchte etc. treffen. Diese Gleichungen sagen allerdings nur etwas über den momentanen Zustand der Atmosphäre aus. Man möchte aber Ergebnisse haben, welche einem etwas über den zukünftigen Zustand verraten. Dazu muss man die Gleichungen integrieren, denn es handelt sich bei diesen um Differentialgleichungen. Allerdings um die komplizierteste Art dieser Gleichungen, welche analytisch (exakt) teilweise unlösbar sind. Numerisch (Ableitungen, welche die Differentialgleichungen unlösbar machen, werden approximiert) hingegen kann man die Gleichungen lösen. Man hat dann zwar kein exaktes Ergebnis mehr, jedoch immerhin eine gute Näherung und kann einen Computer das Rechnen übernehmen lassen.

Zusätzlich dazu teilt man die Erde in ein Gitternetz ein, an dessen Eckpunkten die Gleichungen gelöst werden. Da das Lösen mit dem Computer sehr viel Rechenkapazität benötigt, kann man dieses Gitter nicht unendlich engmaschig machen. Für globale Wettermodelle ist heute ein Gitterpunktabstand von ca. 40km üblich.

In die Modelle werden konstant Messdaten eingelesen, welche von festen Messstationen, Satelliten, Wetterballons usw. aufgenommen wurden.

Dass die Wettermodelle häufig schon nach wenigen Tagen falsch liegen hat verschiedene Gründe. Einer der Gründe ist, dass man in der Mathematik hinter der Vorhersage lediglich numerische Ergebnisse nutzt. Außerdem ist die Meteorologie noch keine sehr alte Wissenschaft. Viele Prozesse in der Atmosphäre sind noch gar nicht erforscht. Zudem können die Messwerte, die in das Modell geladen werden fehlerhaft sein. Doch auch der unglaubliche Rechenaufwand, der für das Lösen der Gleichungen von Nöten ist und die technischen Grenzen der Computer lassen auch heute noch die ein oder andere Vorhersage falsch sein.