Da einige nicht genau zu wissen scheinen wie die Modelle funktionieren und wieso sie manchmal richtig schlecht sind:
1. Die Modelle werden automotaisch von Großrechnern ausgeführt. Sie stammen NICHT von Meteorologischer (menschlicher) Hand. 2. Die Modelle werden mit Daten aus Satelliten, Wetterballons, Flugzeugen usw. gefüttert. Das ist halt auch nur rudimentär und alles dazwischen wird interpoliert oder berechnet / geschätzt. Also keine so guten Startwerte, wie man es gerne hätte. Es ist uns eben nicht möglich 100% genaue Messwerte für die Modelle zu liefern. Es sei denn man will 5 Quintillairden Wetterballons starten... 3. Selbst wenn es bald Modelle gibt, die auf Quantenrechnern laufen und auch AI verwendet wird... Die Vorhersagen sind immer noch nur so gut wie die Ist-Werte, die die Modelle gefüttert bekommen, sowie so gut wie der Programmierer.
Fazit: Aus sicht eines Programmierers mit 10 Jahren Berufserfahrung (eigentlich sogar 13) ist eine 100% genaue Vorhersage uns Menschen wohl in den nächsten 100 Jahren nicht möglich. Selbst nicht für die nächsten 24 Stunden.
Hinzu kommt auch die räumliche Auflösung der Modelle. Zum Beispiel die 2D-Auflösung auf dem Boden (T2m). Die lässt bei den meisten Modellen wirklich zu wünschen übrig. Und da müssen GFS und ECMWF noch mal ordentlich nachlegen, finde ich. Dies verursacht auch große Temperaturunterschiede zwischen Vorhersage und Wetterstationsmesswerten. Gerade im Bereich einer Luftmassengrenze, die oft bei uns in NRW liegt.
!!EDIT!! Und wie Jojo2009 auch noch angemerkt hatte (danke für den Tipp!): Die Modelle kommen mit der sich schnell voranschreitenden Klimakatastrophendynamik nicht hinterher. Die Programmierer bauen neue Parameter und Szenarienerkennungsmuster ein: Schon kommen wieder neue auf. Es ist somit ein Katz- und Mausspiel. !!EDIT_END!!
Zudem ist wichtig zu verstehen: Das, was die Modelle ausgeben und die Stationen unserer Orte messen sind meteorolgische Kontrollwerte. Sie stellen eine gute Vergleichbarkeit mit anderen Stationen die den folgenden Standards folgen und soweit ich weiß ist das international gleich:
Die Lufttemperatur wird auf 2 Metern über dem Boden (vgl. Ortshöhe über dem Meeres spiegel + 2 Meter), auf einem freien Feld mit einem Sensor, der in einem weißen Rohr steckt und ein Lüfter mit kontrolliert konstanter Luftgeschwindigkeit Luft durch bläst, gemessen.
In Realität sind die Werte daher oft sogar noch viel höher, besonders bei Knallsonne. Daher werden es oft heißere Temperaturen als vorhergesagt. Besonders wenn man auf dem Balkon misst bei Knallsonne. Oder halt auch in der Innenstadt, wo sich die Hitze staut.
Vielen Dank für die Erklärung. Also wird eigentlich die Wettervorhersage immer schwierier, als einfacher, trotz Technik. Im Grunde genommen gibt es 2 grundsätzliche Parameter, die in der heutigen Zeit des Klimawandels zutreffen: 1. Warm/heiß gewinnt immer und 2. Der flächige Niederschlag verliert immer.
So, nun gebe ich auch noch meinen Senf dazu. ;-) Zuerst einmal vielen Dank für die Ausführungen Ken, dem gibt es nichts weiter hinzuzufügen.
Es handelt sich, wie wir alle wissen bei GFS, ECMWF um sogenannte Globalmodelle. Diese Globalmodelle haben eine recht große Berechnungsauflösung (Gittergrößen zwischen 13 und 40 km) und simulieren grob gesagt alle wesentlichen Entwicklungen und Prozesse in der Atmosphäre. Konkretes Wetter kann man daraus aber noch nicht ableiten. Dazu bedarf es sog Interpretationsmodelle, die höher auflösend sind und konkrete Wetterzustände für die einzelnen Regionen abzubilden. Im Falle des DWD gibt es drei ICON Modelle, einmal das globale ICON Modell, als nächste Interpretationsstufe ICON-EU und danach die feinauflösende Variante ICON-D2. ICON-EU und ICON-D2 sind Regionalmodelle, die alle aufeinander basieren. ICON Global (Auslösung 13 km) simuliert 7 Tage, ICON-EU ist der Europaausschnitt und deckt 5 Tage ab während ICON-D2 die hochauflösende Variante (2,1 km Auflösung) für Deutschland, Österreich und die Schweiz darstellt und nur knapp 2 Tage berechnet, das dafür dann aber 8 mal am Tag.
Kommen wir jetzt zu den ganzen Wetter-Apps. Die kann man getrost in die Tonne kloppen, denn die bilden in ihrer 14 Tages Prognose in der Regel 1:1 den GFS Hauptlauf ab und errechnen daraus irgendwelche mehr oder weniger brauchbaren Wetterszenarien, was auch erklärt, dass dieser Unfug teilweise für den aktuellen Tag hinten und vorne nicht stimmt. Denn um eine halbwegs präzise Nowcast Prognose treffen zu können, ist etwas mehr Aufwand nötig, wie wir im ersten Absatz gelernt haben.
Die einzige Wetter-App, die wirklich brauchbar ist, ist die DWD Warnapp, in der kostenpflichtigen Version mit Wettervorhersage. Natürlich "schwankt" auch die manchmal hinten raus wie ein einzelner Baum im Wind, was aber in der Natur der Sache liegt, wie man bei den weitreichenden Schwankungen der Globalmodelle hinten raus immer wieder beobachten kann. Immerhin macht die DWD Vorhersage nicht jeden Bocksprung irgendwelcher Hauptläufe im UGKB mit, wie es die meisten GFS basierten Wetter-Apps tun. Und auch Kachelmann nimmt für seine Vorhersageübersicht 1:1 den ECMWF Hauptlauf, bietet graphisch aber immerhin eine mögliche Bandbreite an. Die DWD App nutzt dagegen hauptsächlich die drei ICON Modelle und das ECMWF Globalmodel, so weit ich es weiß und zeigt visuell ebenso immer eine Bandbreite der möglichen Temperaturen an. Weiterhin bietet der DWD immer nur Prognosen für eine tatsächliche Wetterstation an, was auch sinnvoll ist, denn hier sind Lage, geographische Eigenschaften usw. bekannt und werden so bei der Berechnung der Prognose entsprechend berücksichtig.
Ich habe nun in der Vergangenheit die Präzision aller möglichen Modelle beobachte und bin zu dem Schluss gekommen, dass für einige Tage im Voraus ICON-EU die zutreffendste Prognose abgibt, was die Temperaturen angeht. Das mit Abstand am besten funktionierende Prognosemodell für heute und den kommenden Tag ist allerdings ICON-D2. Das legt bei mir in der Region regelmäßig eine Punktlandung hin, vor allem was den Niederschlag angeht. Nutzer der DWD App kennen bestimmt die animierte Radarvorhersage. Sobald die in den hochauflösenden Modus geht, handelt es sich um die Daten von ICON-D2 und das ist verdammt präzise. So hat die DWD App, also ICON-D2, den Zug des Regengebietes am letzten Montag bereits knapp 2 Tage zuvor absolut genau vorhergesagt, während andere Modelle noch am Sonntag Abend der Meinung waren, bei mir würde es in der Nacht schütten, was dann nicht passierte.
Zudem habe ich die ICON-D2 Vorhersagen in der Vergangenheit und auch in den letzten Tagen mit den Messwerten meiner Wetterstation vergleichen. ICON-EU und ICON-D2 haben z. B. den gestrigen Tag mit den ca. 15 Grad am Nachmittag hier exakt getroffen. Andere Modelle prognostizierten 22-23 Grad. Und auch heute legt ICON-D2 bis jetzt eine Punktlandung hin. Aktuell sind es bei mir 21,2 Grad, die Prognose für 13 Uhr waren laut ICON-D2 20,8 Grad. ^^
Ich habe die Modelle ICON-EU und ICON-D2 mal verlinkt, bei Herrn Kachelmann ist ja alles zu haben. :-)
----------------- "I've always been mad, I know I've been mad, like the most of us...very hard to explain why you're mad, even if you're not mad..." (Pink Floyd)
Danke Regenwetter👍👍👍 Also ist der DWD doch recht gut. Und dass ICON D2 besonders präzise ist, hab ich auch vor kurzem irgendwo gelesenr.Leider geht das nur 2 Tage. Aber besser noch, als wenn mal sich von anderen Modellen irgendwas vorgaukeln lässt, was dann genau anders rum eintritt und man zutiefst enttäuscht ist.
Zitat von Winterfan im Beitrag #8Ich verstehe nicht, warum Kachelmann eine Vielzahl von Modellen anbietet, wie z. B. ein Australisches, Russisches, Kanadisches usw.
Weil Kachelmann auch Wetter weltweit anbietet und man auch so vergleichen kann.
Zitat von Winterfan im Beitrag #10Danke Ken. Würde mich mal interessieren, ob außer DACH, viele andere Länder diese Seite anschauen.
Sicherlich, sonst würde Kachelmann das nicht mehr machen, weil sich der ganze Aufwand die Lizenzen und Partnerschaften mit den Ländern und deren Modelle nicht lohnen würde.
Ich habe mal etwas recherchiert um die häufige Unterschätzung der prognostizierten Temperatur auf 2m besser zu verstehen, rspkt warum die Modelle die Temperatur von Lauf zu Lauf häufig nach oben anpassen. Eine klare Antwort ist schwierig zu geben und die Wetterdienste arbeiten offenbar an diesem Problem ;-)
Das Problem liegt offenbar nicht an einem einzelnen Parameter, sondern ist oftmals die Summe von mehreren Faktoren die nur näherungsweise berechnet werden können. Die T2m ist abhängig von Advektion, Luftmassenmischung, Rückkopplung zwischen Land-Atmosphäre, Strahlungsbilanz, Bodenfeuchte und Vegetationstyp, Schnee, Topographie. ECMWF berechnet die T2m als Interpolation zwischen der tiefsten Modellschicht und der Bodenoberfläche. Die vier tiefsten Modellschichten bei HRes (Hauptlauf), Ensembles und dem extended ECMWF sind 10m, 31m, 54m, 79m (https://confluence.ecmwf.int/display/FUG...oint+Resolution). Für die T2m erfolgt also eine Interpolation der berechneten Temperatur von 10m bis zum Boden, welche aber nicht-linear ist und sich im Temperaturprofil - je nach Mikroklima in dieser bodennahen Grenzschicht - unterscheidet.
Einfluss auf die Temperatur am Boden, rspkt auf das Temperaturprofil innerhalb dieser 10m Grenzschicht, gibt es eben viele: Luftmassenadvektion von ausserhalb, die Luftmassenmischung durch Thermik/kleinskalige sogenannte eddy fluxes die den kleinräumigen Energieaustausch in dieser Schicht bestimmen oder auch die Strahlungsbilanz. Letztere hängt auch ab vom vertikalen Wolkenprofil - welches immer noch eine grosse Herausforderung in der Modellwelt bleibt - und dann spielt auch der fühlbare Wärmefluss und die Verdunstung eine Rolle, und diese beiden sind auch abhängig von der Vegetation oder der Landnutzung. Vegetation, vor allem in landwirtschaftlichen Gebieten, ändert sich auch häufig immer wieder, bpsw ein Maisfeld führt zu anderen Verdunstungsraten als eine Wiese. Beispielsweise wird beim Icon-EU "die Bodenfeuchte dort so getrimmt, dass die Temperaturen passen... Im Gegensatz zu den anderen Modellen wird im ICON die Bodenfeuchte geopfert, um die Temperaturen zu treffen". https://twitter.com/JZ_Lpz/status/1539538449157476352 Ein anderer Typ von Vegetation ist das urbane Gebiet, so dass für zubetonierte Flächen andere Modellparametrisierungen genommen werden.
Sprich: Es gibt unzählige Unsicherheiten in den Modellen.
Nun zu den häufigen T2m-Sprüngen der Modelle beim nächsten Lauf. Nebst der systematischen Unterschätzung der T2m-Amplitude ist das Einzige was sich von Lauf zu Lauf ändert, die Initialisierungswerte. Wenn also der nächste Lauf mit den aktuellsten Startwerten (welche immer vom Vorlauf übernommen werden und für den Startzeitpunkt teilweise korrigiert werden) übernommen wird und dann höhere T2m berechnet werden dann bedeutet dass der im Vorlauf berechnete Zustand als zu kühl berechnet oder eben die "Aufheizung" am Tag unterschätzt wurde. Das kann durch eine Unterschätzung der T2m am Boden bei den Messstationen durch einen Bias der oben genannten Faktoren sein: Beispielsweise überschätzte Bodenfeuchte, unterschätztes Land-Atmosphäre-Feedback oder in der Höhe unterschätzte Warmluftadvektion, falsche Wolkenverteilung u.ä. vom Vorlauf oder dergleichen. Und mit der nächsten Modellinitialisierung wird das dann wieder angepasst und die T2m in die Höhe korrigiert. Es muss irgendwas in dieser Art sein. Wäre es den Wetterdiensten bekannt dann hätte man es schon längstens korrigiert :-)
Hinzu kommen dann auch noch die bekannten Korrekturen der Grosswetterlage von einem Lauf zum nächsten: Hatte das Modell bei einer Blockade im Vorlauf noch ein Abkippen eines blockierenden Hochdruckkeils gesehen, so kann sich beim nächsten Lauf der Hochdruckkeil doch wieder halten und damit steigen die prognostizierten Temperaturen mit dem nächsten Wärmebuckel. Bestes Beispiel dafür die Modellsprünge vor zwei Wochen. Der DWD beschrieb vor ca 2 Wochen für die mögliche Konstellation vom 16. Juni mit 4 Tiefs - je eines bei den Azoren, bei Griechenland, bei Grönland und bei Skandinavien - die strukturellen Probleme von numerischen Wettermodellen bei solchen Grosswetterlagen:
"Zudem führt die beschriebene Druck- bzw. Geopotenzialkonstellation (fast schon ein klassisches Viererdruckfeld) zu starken Deformationen an der Frontalzone mit hohen Windgeschwindigkeiten in der mittleren und oberen Troposphäre (gemäß thermischem Windgleichgewicht). Hier kommen wir auch zu den vermuteten Problemen der Globalmodelle mit quasi-geostrophischem Modellansatz. Durch die Deformationen in der mittleren und oberen Troposphäre entstehen kleinräumige Vergenzen des Horizontalwindes (und damit auch mögliche lokale Querzirkulationen), die somit vermehrt auch ageostrophische Windkomponenten enthalten. Diese sind streng genommen bei der quasi-Divergenzfreiheit des Horizontalwindes bei den Globalmodellen nicht komplett erfasst und können zu Modellunsicherheiten, teilweise auch zu Modellsprüngen führen."
Ja, klar :-) Aber mit zunehmendem Fortschritt der Klimaänderung treten solche blockierende Konstellationen auch zunehmend auf und die Modelle haben ihre liebe Mühe damit.
Ein anderer Punkt der Modelle - nebst dem Problem der Initialisierung und räumlicher Diskretisierung der Modellzellen - ist auch der sich ändernde Zeitschritt der Modellsimulationen. Vor allem die Globalmodelle rechnen bis T+10 Tage wie der Hauptlauf von ECMWF nicht mit dem gleichen Zeitschritt wie es die Karten jeweils suggerieren. Beispielsweise rechnet der Hauptlauf von ECWMF bis Stunde 90 mit einem Forecast Schritt 1 (ich glaube das ist etwas um die 40 Minuten oder so), von Stunde 93-144 verlängert sich der Zeitschritt um Faktor 3, und von Stunde 150-240 um Faktor 6:
Forecast Runs (00 UTC base time): ------------------------------------------ Forecast step frequency 0 to 90 by 1 93 to 144 by 3 150 to 240 by 6
Sprich, ab ca Tag 6 sind die Modellzeitschritte 6x grösser als bis Tag 4. Dies wird gemacht um Rechenleistung zu sparen weil die Genauigkeit der Prognosen durch das Anfangwert-Problem und der zunehmenden Komponente des Wetterchaos gegen hinten hinaus den Aufwand mit hoch aufgelösten Zeitschritten gegen Ende des Prognosezeitraums nicht lohnt. Also auch hier kann es durchaus sein dass durch den grösseren Zeitschritt schon mal gewisse "Strukturen" in der zukünftigen Grosswetterlage übersehen werden und erst im Bereich des nowcasts erfasst werden.
Modelle sind halt nichts anderes als eine Näherung an die Natur - wie Eisbär in seinem sehr guten Beitrag schrieb :-)