Dzień: 14 czerwca 2019

Temperatury w normie? Nie. #2

Temperatury w normie? Nie. #2

Dla pokazania różnic w analizie GFS między nową wersją a wersją 14.0 wykonaliśmy poniższe mapy. Ujemne wartości średnie oznaczają, że analiza modelu w nowej wersji jest zaniżona względem starej.

Średnia z 7 prognoz:

Polska:

Temperatury globalne w normie? Nie.

Temperatury globalne w normie? Nie.

Wiele osób ze zdziwieniem odnotowało fakt, że na wielu mapach przedstawiających analizę anomalii temperatur globalnych pojawiły się wartości zbliżone do 0.0K. Czy klimat wrócił do normy? Niestety nie. Powód takiego stanu rzeczy jest bardzo prozaiczny, a jest nim aktualizacja modelu GFS do wersji 15.1 (FV3).

Wszystkie tego typu analizy opierają się na danych z modeli numerycznych. Najczęściej stosowaną praktyką jest używanie reanalizy CFSR jako bazy klimatologicznej – na tej podstawie wyliczane są normy termiczne dla danego przedziału czasu (np. dnia). Później brana jest analiza tradycyjnego modelu numerycznego (np. GFS) i odejmowana jest od niej średnia historyczna (z CFSR). W ten sposób otrzymujemy mapę anomalii.

Oczywiście nie jest to takie proste. Każdy model ma inaczej rozwiązaną kwestię oszacowania temperatury w warstwie przyziemniej i wynika to z charakterystyki samego modelu, jego fizyki, modelu powierzchni itd. Już wcześniej między starym modelem GFS a reanalizą CFSR były pewne różnice w tej kwestii, ale mimo wszystko modele te były do siebie bardzo zbliżone. Tak było do 12 czerwca 2019, 12UTC, kiedy EMC/NCEP dokonało aktualizacji modelu do wersji 15.1. Zasadniczo jest to największa modyfikacja tego modelu od lat, bowiem zmianie uległ jego cały rdzeń dynamiczny na FV3 (Finite Volume Cubed-Sphere). Jak czytamy w oficjalnym dokumencie, wśród zastosowanych zmian jest m.in.:

Update the Near Sea Surface Temperature scheme to apply Sea Surface Temperature climatology tendency to the foundation temperature and reduce background error correlation length from 450~800 km down to 100 km.

Wprowadzone dodatki i usprawnienia w asymilacji danych oraz zmiany w analizie temperatury powierzchni są zapewne poprawne – tj. w skali globalnej lepiej odzwierciedlają rzeczywisty rozkład temperatury. Problem polega na tym, że dane historyczne takich usprawnień nie mają, a to wprowadza niejednorodność w danych. To trochę tak, jak byśmy po 20 latach odkryli, że nasz termometr wskazuje temperaturę o 0.5°C za wysoką i go skalibrowali. Teraz będzie pokazywał temperaturę poprawną, ale odniesienie obecnych pomiarów do kontekstu historycznego (gdzie pomiary były o 0.5°C za wysokie) spowoduje powstanie błędu o tej właśnie wielkości.

Zdaje sobie z tego sprawę np. Karsten Haustein, na którego stronie można zobaczyć taką adnotację:

Obawiamy się, że taki stan rzeczy zostanie wykorzystany przez różnej maści wątpliwej jakości i wiedzy „sceptyków”, którzy zaczną w tym szukać spisku i dowodu na to, że temperatura globalna wróciła do normy. Istnieje również ryzyko, że również nasze prognozy dotyczące Polski mocno ucierpią. Być może pierwszy sygnał mieliśmy już dzisiaj – błąd oszacowania anomalii dobowej w prognozie osiągnął wczoraj aż -1.3K.

Póki co proponujemy nie patrzeć również na nasze mapy rozkładu anomalii. Równolegle dostępna jest stara wersja modelu (prawdopodobnie przez najbliższe 3 miesiące). Być może pozwoli to dokonać niezbędnych porównań i korekt dla wersji FV3.