Temperatury globalne w normie? Nie.

Temperatury globalne w normie? Nie.

Wiele osób ze zdziwieniem odnotowało fakt, że na wielu mapach przedstawiających analizę anomalii temperatur globalnych pojawiły się wartości zbliżone do 0.0K. Czy klimat wrócił do normy? Niestety nie. Powód takiego stanu rzeczy jest bardzo prozaiczny, a jest nim aktualizacja modelu GFS do wersji 15.1 (FV3).

Wszystkie tego typu analizy opierają się na danych z modeli numerycznych. Najczęściej stosowaną praktyką jest używanie reanalizy CFSR jako bazy klimatologicznej – na tej podstawie wyliczane są normy termiczne dla danego przedziału czasu (np. dnia). Później brana jest analiza tradycyjnego modelu numerycznego (np. GFS) i odejmowana jest od niej średnia historyczna (z CFSR). W ten sposób otrzymujemy mapę anomalii.

Oczywiście nie jest to takie proste. Każdy model ma inaczej rozwiązaną kwestię oszacowania temperatury w warstwie przyziemniej i wynika to z charakterystyki samego modelu, jego fizyki, modelu powierzchni itd. Już wcześniej między starym modelem GFS a reanalizą CFSR były pewne różnice w tej kwestii, ale mimo wszystko modele te były do siebie bardzo zbliżone. Tak było do 12 czerwca 2019, 12UTC, kiedy EMC/NCEP dokonało aktualizacji modelu do wersji 15.1. Zasadniczo jest to największa modyfikacja tego modelu od lat, bowiem zmianie uległ jego cały rdzeń dynamiczny na FV3 (Finite Volume Cubed-Sphere). Jak czytamy w oficjalnym dokumencie, wśród zastosowanych zmian jest m.in.:

Update the Near Sea Surface Temperature scheme to apply Sea Surface Temperature climatology tendency to the foundation temperature and reduce background error correlation length from 450~800 km down to 100 km.

Wprowadzone dodatki i usprawnienia w asymilacji danych oraz zmiany w analizie temperatury powierzchni są zapewne poprawne – tj. w skali globalnej lepiej odzwierciedlają rzeczywisty rozkład temperatury. Problem polega na tym, że dane historyczne takich usprawnień nie mają, a to wprowadza niejednorodność w danych. To trochę tak, jak byśmy po 20 latach odkryli, że nasz termometr wskazuje temperaturę o 0.5°C za wysoką i go skalibrowali. Teraz będzie pokazywał temperaturę poprawną, ale odniesienie obecnych pomiarów do kontekstu historycznego (gdzie pomiary były o 0.5°C za wysokie) spowoduje powstanie błędu o tej właśnie wielkości.

Zdaje sobie z tego sprawę np. Karsten Haustein, na którego stronie można zobaczyć taką adnotację:

Obawiamy się, że taki stan rzeczy zostanie wykorzystany przez różnej maści wątpliwej jakości i wiedzy „sceptyków”, którzy zaczną w tym szukać spisku i dowodu na to, że temperatura globalna wróciła do normy. Istnieje również ryzyko, że również nasze prognozy dotyczące Polski mocno ucierpią. Być może pierwszy sygnał mieliśmy już dzisiaj – błąd oszacowania anomalii dobowej w prognozie osiągnął wczoraj aż -1.3K.

Póki co proponujemy nie patrzeć również na nasze mapy rozkładu anomalii. Równolegle dostępna jest stara wersja modelu (prawdopodobnie przez najbliższe 3 miesiące). Być może pozwoli to dokonać niezbędnych porównań i korekt dla wersji FV3.

Print Friendly, PDF & Email

16 Replies to “Temperatury globalne w normie? Nie.”

  1. Wniosek: w obecnym stanie jest sens oceniać jedynie zmienność/różnice anomalii między różnymi obszarami, np. gdzie będzie chłodniej, a gdzie cieplej i (z grubsza) jakie to będą dysproporcje. Natomiast same wartości będą przekłamane z „obciążeniem” w kierunku ujemnym.

    Już nawet przed 12.06, tylko w prognozach dla Polski, było widać jak GFS w realizacji głównej zaniża wartości – względem innych realizacji/modeli, a docelowo rzeczywistości. Przykładowo, wg GFS sprzed ok. tygodnia średnia 10-dniowa anomalia w Polsce miała być rzędu +4/+5K (ref. 1981-2010), podczas gdy będzie średnio o 1-2 st. wyższa. Teraz to „przekłamywanie” może być jeszcze (nieco) większe. Przynajmniej ja na to zwracam uwagę i koryguję swoje oceny (podobnie jak ma to miejsce np. w przypadku UM’a w prognozach krótkoczasowych).
    Poza tym aktualna sugestia: zwracajmy bardziej uwagę na zapowiedzi ECMWF – choć i on też potrafi się „mylić” to na pewno nie aż w takim stopniu jak GFS (zwłaszcza ostatnio).

  2. To wszystko jasne wiedziałem , że może być coś nie tak ale miałem cichą nadzieję , że choc na chwile temperatura globalna spadła a tu lipa szkoda 😟

  3. Tak czy inaczej dziękujemy za wyjaśnienie ale to będzie pożywka dla sceptyków klimatycznych niestety . Np dziś na Climate reanalizer dziś temperatura globalna to -01 st co dla sceptyków oznaczona brak ocieplenia klimatycznego.

    1. Już jest. Właśnie na stronie Arktyczny Lód widziałem dyskusję o tym i argumenty jednego użytkownika że klimat wraca do normy i się ochładza itd…

        1. Mi czasem brakuje słów już. Czasem zaczynam robić jakiś wpis na TP i kasuję w połowie bo już mi się odechciewa i i tak wiem że to nie trafi do nikogo… :(

        2. @Lucas wawa właśnie to mi nie pasowało trochę nagle z anomali 0,6 mniej więcej na normę nagle , a nie mamy przecież anomalii La Ninia itd inaczej co by mogło tak schłodzić anomalie? I to tak w krótkim czasie ? Właśnie mi to nie pasowało bo jeśli by była bardzo silna La Ninia to może na chwilę kto wie ale to i tak przy wzrastającym co2 efekt by był chwilowy o ile by to miało miejsce . Co do wpisów na innych forach każdy ma prawo mieć zdanie ja nie staram się nie krytykować tych co się nie dali przekonać do tej pory to i tak nie przekonam ani jak ani Ty Cóż .

        3. @lucas wawa – „Trzeba być nie wiem jakim “ograniczonym umysłowo”, aby tak to oceniać…” – niestety to dość często spotykana przypadłość. Wielu moich znajomych (a nawet niektórzy członkowie rodziny) podtrzymują, że GO to bujda na resorach, a niektórzy z nich wychwalają denializm… Przykre to, że wraz z postępem naukowym i technologicznym, nie idzie (u niektórych) postęp umysłowy…

    1. Z tego co widzę trochę lepiej przewiduje rozwój sytuacji barycznej, ale już wartości temperatury/anomalii (a może i innych parametrów również) – niekoniecznie…
      Z tym, że na razie mamy za krótki okres na bardziej jednoznaczne oceny z tym związane (może poza właśnie tą kwestią zaniżania temperatur/anomalii).

  4. „Problem polega na tym, że dane historyczne takich usprawnień nie mają, a to wprowadza niejednorodność w danych.”

    To jak zostaną teraz te nowe dane skorygowane, skoro stare wersje tych danych nie mają? Teraz te nowe dane nie mają przecież punktu odniesienia czy źle to zrozumiałem?

    1. Jak ktoś zrobi reanalizę historycznej pogody nową wersją modelu to dane historyczne ulegna korekcie – uspójnieniu z tym co mamy z nowej wersji modelu. Ale taka reanaliza to skomplikowany, długotrwaly i kosztowny proces.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

This site uses Akismet to reduce spam. Learn how your comment data is processed.