Europa sucht den Supercomputer!

Extreme Wetterereignisse wie Stürme, Starkregen oder Hitzewellen langfristig vorhersagen, das soll durch Supercomputer und neue Satelliten in den nächsten zehn Jahren möglich werden. Europas oberste Meteorologin war dieser Tage zu Besuch in Wien, um die neue Strategie zu präsentieren, mit der auch Prognosen für Österreich noch genauer werden sollen.

So lautet der heutige Teaser für den Kurzbeitrag im Ö1-Mittagjournal (gehört am 27. Oktober 2016, 12.00).

Sturmtiefs sollen künftig zehn Tage im Voraus bekannt sein. Hochwasserlagen eine Woche im Voraus. Artikel dazu im Kurier (abgerufen am 27.10.16, 12.45)

Dazu soll die Gitterweite des Vorhersagesystems von derzeit 18 auf fünf Kilometer verkleinert werden

schreibt DerStandard (abgerufen am 27.10.16, 12.49), was unrichtig ist, denn aktuell beträgt die Gitterweite bereits 9 km (davor 16).

Wenn man andere Quellen hinzuzieht, zeigt sich, dass die Pressemitteilung nicht richtig gelesen wurde, denn soll nicht das Vorhersagesystem eine bessere Auflösung erhalten, sondern das Ensemble-Vorhersage-System.

Die weltweite so genannte Ensemble-Prognosen-Auflösung soll dafür um mehr als das Dreifache steigen, mit einer Rastergrößen-Verringerung von derzeit 18 auf 5 km

Denn:

„Derzeit haben wir zwei Mal am Tag 52 verschiedene Vorhersagen, und das gibt uns eine größere Zahl an Wahrscheinlichkeiten, wie sich das Wetter entwickeln wird.“ (DerStandard)

Diese 52 Prognosen entstehen, wenn die Ist-Zustände, die ins Modell einfließen („initial conditions“) geringfügig verändert werden. Bisher wurden sie auch mit einer geringeren Gitterpunktsweite gerechnet, das spart Rechenzeit. Immerhin erscheinen diese Ensemble-Prognosen mit Verzögerung nach dem Erscheinen des Hauptlaufs (ohne Veränderung, aber mit der vollen Modellauflösung), und diese Verzögerung kann im operationellen Betrieb hinderlich sein (Vorhersage-Deadlines, kurzfristige Extrementwicklungen).

Früher galten Modelle mit 12 km Gitterweite als Lokalmodelle, EZMWF fungiert also jetzt bereits als Lokalmodell. Das britische Globalmodell UKMO hatte etwa ein Lokalmodell mit 12 km Gitterweite (NAE), das auf 4 km heruntergeschraubt wurde (Euro4).  Das amerikanische GFS-Modell hat zuvor seine Auflösung von 27 auf 13 km verbessert.

Neben den staatlich entwickelten Wettermodellen, von denen es eine Fülle gibt, sind GFS (vor allem in den USA) und EZWMF (vor allem in Europa) derzeit die führenden Wettermodelle („model guidance“). Im Unterschied zu EZMWF sind die Daten von GFS frei zugänglich und daher für private Wetterdienste mit wenig finanziellem Spielraum lukrativ.

EZMWF hat gegenüber GFS einige Vorteile, wobei die höheren Modellauflösung nicht zwingend dazu gehört. Denn es ist keineswegs so, dass sich die Gitterpunktsweite beliebig verringern lässt, immerhin steigt damit auch die erforderliche Rechenkapazität – und was nützt eine perfekte Vorhersage, wenn sie erst zwei Tage nach dem Eintreten des Ist-Zustands verfügbar ist?

Ob es Grenzen der Vorhersagbarkeit des Wetters gebe, „wissen wir nicht“, sagte Rabier. „Je weiter wir in die Zukunft schauen, desto größere Systeme können wir vorhersagen, vielleicht sogar bis zu einem Jahr“

Interpretation

Was derzeit in den Medien kursiert, ist keine Hexerei! Lokalmodelle und Analysemodelle (wie z.B. VERA oder INCA), die speziell für schwierig prognostizierbares Gelände (Alpen) entwickelt wurden, gibt es schon länger. Die Auflösung der Wettermodelle wird weiter verbessert, von allen Wettermodellen.

Ein paar wichtige Einschränkungen, die auch in den Artikeln durchklingen:

  • Eine Verbesserung der Prognose soll vor allem bei großräumigen Phänomenen wie Hitzewellen, El-Nino oder Hochwasserlagen (wie 2002, 2005, 2013) erreicht werden. Je größer die Systeme, desto leichter sind langfristige Prognosen. Wobei etwa das Alpenhochwasser 2005 damals von GFS von den Regenmengen bereits relativ nahe an der Realität weiter im Voraus erfasst wurde. Seit jeher haben die Modelle jedoch größere Probleme mit sogenannten Vb-Zugbahnen („Adriatief“).
  • Die kleinräumig maximierten Extremniederschläge von Ende Mai bis Mitte Juni 2016 sind dagegen auf ein stationäres Höhentief mit vielen kleinen Nebenwirbeln zurückzuführen, die selbst 1-2 Tage im voraus nur schwer in Intensität und Örtlichkeit vorhergesagt werden können. Weder hier noch bei Gewitterzugbahnen oder gar lokalen Wirbeln wie Tornados sollte man sich große Sprünge in den nächsten Jahren erwarten. Auch lokale Sturzfluten lassen sich höchstens wenige Stunden vorher abschätzen. Im gebirgigen Terrain bleibt dies immer schwieriger als im Flachland.
  • Großräumige Sturmtiefs wie Kyrill (18.1.2007) oder Emma (1.3.2008) waren damals bereits eine Woche im Voraus in Intensität und Zugbahn sehr gut erfasst. In den vergangenen Jahren ist die Frontalzone etwas nach Süden gewandert, wodurch es häufiger zu Shapiro-Keyser-Zyklonen gekommen ist (oben genannte Sturmtiefs sind klassische Norwegerzyklonen). Shapiro-Keyser-Stürme entwickeln manchmal sehr kleinräumige und hochgradig schadensträchtigte Starkwindbänder ohne Niederschlag, sting jets genannt. Spitzenböen bis 190 km/h bei Orkan Christian (28.10.2013) gingen auf einen solchen sting jet zurück. Diese sind wesentlich schwieriger vorherzusagen als die maximalen Windböen bei Norwegerzyklonen, die fast immer in Zusammenhang mit heftigen Schauern oder Gewitterlinien auftreten (ausgenommen Höhenlagen im Warmsektorbereich).
  • Die Automatisierung der Wetterbeobachtung schreitet voran, besonders kritische Übergänge von Regen in Schnee bzw. Regen zu gefrierendem Regen drohen dabei leichter übersehen zu werden, wenn keine händische Überprüfung mehr stattfindet. So hat der Deutsche Wetterdienst in den vergangenen Jahren zahlreiche Wetterbeobachtungen durch Vollautomatische Wetterstationen ersetzt bzw. wurden langjährige Messreihen ganz aufgelassen. (Quelle). Die Güte eines Modells lässt sich aber nur dann nachvollziehen, wenn man ein dichtes Messnetz hat. Interpolation aus verfügbaren Daten, Radarwerten und Berücksichtigung der Topographie können Extremwerte nicht erfassen, sondern höchstens annähern. Es sind aber ebenjene Extremwerte, die zu Schäden führen können.

Was ist realistisch?

Im operationellen Betrieb ist es weder vom Personal noch vom Zeitaufwand her möglich, sich alles anzuschauen, was für eine Vorhersage verfügbar ist. Die Grenzen der Wettervorhersage setzen nicht nur die Wettermodelle, sondern auch die Menge an Wetterdaten, die ein Meteorologe bei der Vorhersageerstellung noch verarbeiten kann. Hochaufgelöste Wettermodelle liefern manchmal hervorragende Trefferquoten, was kleinräumige Ereignisse betrifft, sagen sie an anderen Tagen in der richtigen Stärke an völlig falschen Orten vor oder sagen überhaupt etwas vorher, was nirgends eintrifft. Eine Vollautomatisierung der Wetterprognose (wie z.B. durch Wetter-Apps) ist also nicht möglich – sie mag ausreichend bei Schönwetter sein oder bei durchschnittlichen Wetterereignissen ohne Schadenspotential.

Sobald wir uns jedoch in Größenordnungen bewegen, wo vor allem kleinräumige Ereignisse große Schäden anrichten können, wird die Erfahrung des Meteorologen bedeutsam, der bewerten muss, wie realistisch etwas ist. Hier können vor allem Ensemble-Prognosen, die für kürzere Zeiträume (also 24-48h) gerechnet werden, hilfreich sein.

Selbst wenn es uns künftig gelänge, großräumige Unwetterphänomene wie 2013er Hochwasserlagen oder Kyrill-Stürme noch weiter im Voraus vorherzusagen, wissen wir nicht, ob mit dem Klimawandel nicht die kleinräumigen und damit unberechenbareren Ereignisse noch häufiger werden. Gewisse Schäden sind auch unvermeidlich, denn es lassen sich Ortschaften in Hochwasserrisikogebieten nicht verlegen und auch den Wald kann man nicht mit einer Betonhülle schützen, wenn eine Gewitterlinie mit 200 km/h alles plattmacht.

Ich behaupte vorsichtig, mit 14 Jahre Modelle schauen und 6 Jahre Berufserfahrung, dass sich in der Arbeit des Meteorologen relativ wenig ändern wird. Es wird gut prognostizierbare Stürme und Hochwasser geben, aber weiter auch die kleinräumigen Phänomene mit unvermeidbar kurzen Vorwarnzeiten.Gerade die letzten Jahre haben meiner Ansicht nach gezeigt, dass trotz verbesserter Modellleistungen Extremereignisse gleich schwer prognostizierbar bleiben, siehe auch einen früheren Beitrag von mir.

Wenn man sich die jüngste Performance der Wettermodelle bei Hurrikan MATTHEW anschaut, dann war diese nicht schlecht (Zugbahn gut erfasst, Intensität gut angedeutet). Die USA kamen weit glimpflicher davon als Haiti. Auch eine dreiwöchige Im-Voraus-Prognose hätte aus Elendshäusern in Haiti keine stabilen Villen gemacht. Bei Hurrikan NICOLE hingegen und auch dem möglichen Wechselspiel mit MATTHEW durch den Fujiwhara-Effekt waren die Modelle weniger gut. Die Bermuda-Inseln kamen glimpflich davon, ansonsten blieb NICOLE ein Fischsturm.

Rechtzeitige Wetterprognosen nützen nur dann etwas, wenn ein solides Vorsorgemanagement existiert, das ist sowohl eine finanzielle Frage bei armen Ländern als auch eine Bewusstseinsfrage, wie man sich richtig verhält. Ältere Menschen trinken zu wenig und sind bei Hitzewellen anfälliger für Dehydrierung. Ebenso sollte man nicht unbedingt in potentiellen Überschwemmungsregionen sein Haus bauen. Gegen lokale Sturzflutereignisse wie z.B. in Afritz nützt auch die beste Vorsorge nichts, wenn es Orte trifft, die noch nie etwas Vergleichbares erlebt haben. Die Vorwarnzeit hat hier jedoch Grenzen, die sich auch in den kommenden 10 Jahren wahrscheinlich nur wenig verbessern  werden.

Advertisements

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s