Kategoria: Ogólne

Ciepły koniec sierpnia?

Ciepły koniec sierpnia?

Wszystko wskazuje na to, że po krótkim ochłodzeniu, pod koniec tygodnia wrócą wysokie temperatury, być może przekraczające nawet 30°C. Wg najnowszych odsłon modelu GFS ciepło miałoby być do końca miesiąca, co znacząco podwyższyłoby średnią anomalię miesięczną. Obecnie prognozy mówią nawet o wartościach rzędu +1.5K względem normy z lat 1981-2010. Ponieważ (niemal) ostateczne oszacowanie anomalii czerwca to +5.35K, a wstępne oszacowanie anomalii lipca to +0.10K, sierpniowa anomalia rzędu +1.5K dałaby przeciętną anomalię lata 2019 równą +2.32K, wyraźnie powyżej dotychczasowego rekordu (+2.11K 1811, 2018). Fakt, że najwyższe anomalie panowały w zasadzie w czerwcu, przed sezonem urlopowym, a najcieplejszy przeciętnie miesiąc lata, czyli lipiec charakteryzował się temperaturami znacznie niższymi, włącznie z dwutygodniową falą chłodu z pewnością spowoduje, że pojawi się wiele głosów sceptycznych. Z pewnością lato ponownie największymi anomaliami odznaczy się w południowej części kraju. Lipiec i sierpień w części północnej i północno-wschodniej miały najniższe wartości anomalii temperatury, co w połączeniu z faktem, że i tak przeciętnie jest tam najchłodniej spowoduje, że mieszkańcy tych regionów mogą nie uznać tych miesięcy za najbardziej udane.

W południowej części kraju było zgoła inaczej. We Wrocławiu lipcowy chłód trwał zaledwie 10 dni, a i tak w wielu z tych dni temperatura maksymalna znacznie przekraczała 20°C. Średnia temperatura miesięczna czerwca osiągnęła tu 22.7°C, w lipcu było to 20.3°C. Najwyższa średnia miesięcy czerwiec-sierpień wystąpiła w roku 2018 i wyniosła 20.8°C. Sierpień 2019 póki co charakteryzuje się we Wrocławiu średnią temperaturą równą 20.6°C i wszystko wskazuje na to, że istnieje spora szansa, że do końca miesiąca nie spadnie poniżej 20°C, będzie to zatem rekordowo ciepłe lato w tej części kraju.

Niższe temperatury w końcu prognozy pokazuje model ECMWF, jednak na podstawie całej serii ECMWF-EPS należy póki co traktować ten przebieg jako outlier i poczekać do kolejnych odsłon. Póki co możemy spodziewać się ocieplenia od piątku, przy czym temperatury przekraczające 30°C miałyby się pojawić raczej tylko w zachodniej i południowo-zachodniej części kraju i to dopiero w niedzielę 25 sierpnia.

Poniżej: prognoza zmian średniej anomalii miesięcznej temperatury (okres referencyjny 1981-2010) sierpnia 2019 w Polsce.

Nietrafione prognozy „klimatystów”

Nietrafione prognozy „klimatystów”

Bardzo spodobało mi się określenie „klimatyści” wymyślone bodajże przez pana Rafała Ziemkiewicza (tego od riserczu). W odróżnieniu jednak do autora tego określenia, osobiście uważam za „klimatystów” tę stronę sporu, której stwierdzenia, delikatnie rzecz ujmując, stoją w sprzeczności z ustaleniom nauki na temat globalnego ocieplenia. Wśród takich „klimatystów” są nie tylko publicyści w postaci panów Łukasza Warzechy, czy Rafała Ziemkiewicza, którzy w nader wygodny sposób potrafią sobie dobierać fakty do stawianej tezy, ale też tacy, którzy swoją wizje na temat zmian klimatycznych przekuwają na prognozy. Ponieważ nawet najszybsze zmiany klimatu z punktu widzenia człowieka wydają się przebiegać stosunkowo powoli, przypomnimy prognozy sprzed co najmniej 10 lat.

Wydaje się dość zabawne, że negacjonistycznie nastawiona  do zdobyczny nauki w dziedzinach klimatologii, czy fizyki atmosfery strona sporu nazywa swych oponentów „alarmistami”, jednocześnie bardzo ochoczo strasząc silnym ochłodzeniem klimatu, które czyhać ma na nas tuż za rogiem. Wystarczy wspomnieć niesławny artykuł prof. Zbigniewa Jaworowskiego („Idzie zimno”, Polityka kwiecień 2008), gdzie czytamy:

Tegoroczna polska zima była lekka. Średnia temperatura stycznia mierzona na Okęciu była o 4.8°C wyższa od długoterminowej wynoszącej -1.1°C (informacja od prof. H. Lorenc z IMGW). Dzięki temu mniej zapłaciliśmy za gaz i węgiel, ale w skali całego globu nie było tak różowo. Cztery główne systemy monitorowania temperatury Ziemi (angielski Hadley-CRUT i amerykańskie GISS, UAH i RSfS) stwierdziły, że nad lądami i morzem oraz w dolnej troposferze styczeń 2008 r. był wyjątkowo zimny, według GISS aż o 0,75oC chłodniejszy niż rok temu. Również stratosfera była chłodniejsza o 0,5°C.

Po tej „szokującej” informacji przechodzimy stwierdzeń typowych dla tamtych czasów: że od 1998 temperatura nie rośnie i w końcu do straszenia niską aktywnością słoneczną i mającą z niej wynikać Małą Epoką Lodową. Oczywiście nie było ani słowa o tym, że aktywność słoneczna spadała już od końca lat 50. XX w., ani o tym że „płaski” trend temperatury od 1998 wynikał tylko i wyłącznie z dobrania takiego okresu, by na jego początku znalazł się rekordowo ciepły rok 1998 (czemu pomogło nie tylko globalne ocieplenie, ale i El Niño), a na końcu lata zimne. Nie tylko prof. Jaworowski uderzał w te tony.

 

Girma Orssengo

Pan podpisujący się jako „BTech, MASc, PhD, Engineering, Perth, Western Australia, Australia” wymyślił w 2010, że całą obserwowaną zmianę klimatu możemy wyjaśnić jednym cosinusem połączonym z trendem liniowym. Wzór, który zastosował wyglądał następująco:

0.0059*(Rok-1880)-0.52+0.3*cos(((Rok-1880)/60)*2*pi)

 

Rozumiecie jak genialne to odkrycie? Ośrodki naukowe na całym świecie używają skomplikowanych modeli mających policzyć zmiany klimatu związane ze wzrostem wymuszenia radiacyjnego wynikającym z emisją gazów cieplarnianych, podczas gdy wystarczy zwykły arkusz kalkulacyjny! Oryginalny wykres Orssengo możemy zobaczyć poniżej.

 

Sprawdźmy najpierw, czy uda nam się zreplikować jego model, możemy do R wprowadzić np. taki kod:

Rok <- seq(1880,2040,1)
model <- 0.0059*(Rok-1880)-0.52+0.3*cos(((Rok-1880)/60)*2*pi)
df <- data.frame(yr=Rok, m=model )
plot(df$m ~ df$yr, type='l', xaxt='n', yaxt='n', lwd=3, xlab="Rok", ylab="Anomalia temperatury")
axis(1, at=seq(1880,2040,10))
axis(2, at=seq(-2,2,0.2))
abline(h=seq(-2,2,0.2), lty=3, col="black")
abline(v=seq(1880,2040,10), lty=3, col="black")

W wyniku otrzymamy wykres:

Wygląda na to, że się zgadza. Dodajmy jeszcze dane HadCRUT (obecnie w wersji 4):

Otrzymujemy stan na rok 2009, dokładnie taki, jakim dysponował G. Orssengo. Oczywiście od tego czasu minęła niemal dekada i możemy sprawdzić, jak się ma owa prognoza do rzeczywistości. A ma się tak:

W tym momencie wiemy (a co mądrzejsi wiedzieli to od początku), to co pan Orssengo powinien wiedzieć w momencie tworzenia owej prognozy: że do cosinusa można sobie „dopasować” bardzo dużo rzeczy, nie koniecznie z sensem. Warto zwrócić uwagę, że model pana Orssengo zakłada, że w czasie narodzin Chrystusa średnia globalna anomalia temperatury wynosić by miała niemal -12K. Jesteśmy również pewni, że Orssengo coś se jeszcze dopasuje. Wystarczy przecież zmienić okres z 60 na 65 lat i znowu wykres będzie „mniej więcej” pasować do danych pomiarowych. Dołek temperatury przesunie się z okolic 2028 na okolice 2040, ale nadal  wizualnie będzie wyglądało to dobrze. I nadal nie będzie miało to żadnego sensu. Zresztą – już zaprezentowany model mocno się nie zgadzał, ponieważ funkcja aproksymująca zmiany temperatury została dopasowana do szczytu z lat 1998-2009. Minima funkcji są za nisko względem obserwacji. Można to było „poprawić” zmniejszając amplitudę postulowanego cyklu, niestety wówczas uciekały już dane bieżące (a jeszcze gorzej byłoby, gdyby na to nałożyć dane do 2018):

Ale to można było poprawić zwiększając nieco trend liniowy. Już rozumiecie? W ten sposób można sobie dopasować wszystko. Za około 10 lat tak prosty zabieg nie będzie już możliwy przy użyciu jednej funkcji sin/cos. Fabrykacja takiej prognozy, mającej sprawiać wrażenie sensownej będzie wymagała zastosowania nieco bardziej skomplikowanego (ale nadal mieszczącego się w podpisie wykresu) wzoru.

 

Don J. Easterbrook

D. Eastrbrook to professor emeritus geologii na Western Washington University. I jednocześnie jedna z mroczniejszych klimatystycznych postaci w tym zestawieniu. Mroczniejszych, bo manipulujących seriami danych w celu uzyskania potwierdzenia swoich tez.

Podobnie jak G. Orssengo, Easterbrook postuluje istnienie cykli, w które wpisywać się ma obecnie obserwowane ocieplenie. Cykle te mają być wywołane zmianami aktywności słonecznej oraz PDO.  W 2006 r. Easterbrook twierdził, że bieżące ocieplenie ma się ku końcowi i jeśli cykl ten będzie kontynuowany, to należy się spodziewać ochłodzenia z minimum w okolicy roku 2035.

If the cycles continue as in the past, the current warm cycle should end soon and global temperatures should cool slightly until about 2035, then warm about 0.5°C from ~2035 to ~2065, and cool slightly until 2100.

Źródło.

Teza ta była podparta taką „projekcją”:

 

Samo w sobie to stwierdzenie nie było jeszcze niczym złym. Co prawda pozbawione było podstaw naukowych, ale nie miało w sobie znamion manipulacji danymi. Gorzej było parę lat później, gdy prof. Easterbrook zaprezentował taki oto, zaktualizowany wykres.

Na wykresie tym mamy już wyraźnie oznaczone okresy chłodne i ciepłe. Co więcej, mamy naniesioną prognozę IPCC i dane rzeczywiste, które mocno się z tą prognozą rozjeżdżają. Pik temperatury następuje w 1998 (pamiętacie, że prof. Jaworowski pisał o braku wzrostu temperatury po 1998?), następnie mamy spadek do poziomu z 1977/1978 i wzrost temperatury, ale do poziomu niższego, niż w latach 90. XX w. Problem polega na tym, że zaprezentowane „dane pomiarowe” po 1998 nie zgadzają się z żadną serią pomiarową. Żadną. Ani GISTEMP od NASA GISS. Ani z HadCRUT od CRU, ani z seriami satelitarnymi UAH i RSS.

Poniżej: dane GISTEMP.

Poniżej: satelitarna seria UAH:

W żadnej z tych serii okres po 2001 nie jest chłodniejszy od lat 90. XX w. Najmniejsze ocieplenie wskazuje satelitarna seria UAH, co akurat nie jest zaskoczeniem, jako że nie mierzy ona nawet temperatury przy powierzchni Ziemi, tylko jest oszacowaniem tejże temperatury w dolnej troposferze1. Smutna prawda jest więc taka, że dane te zostały „poprawione” na rzecz prognozy prof. Easterbrooka. I nie jest to tylko obserwacja ludzi uznających naukę związaną z globalnym ociepleniem. Problem dostrzegł również Bob Tisdale, negacjonista, na negacjonistycznym blogu „Watts Up With That”, gdzie prof. Easterbrook opublikował w 2014 wpis na temat swoich „odkryć” i prognoz. W komentarzu Bob Tisdale pyta:

And what kind of magical dataset did you present in your Figure 4?

Istotnie, trudno się nie zgodzić – seria danych prezentowana na fig. 4 rzeczywiście musi być „magiczna”. Przepychanki między negacjonistami trochę trwały, ostatecznie jednak prof. Easterbrook nie potrafił wskazać, w jaki sposób uzyskał serię danych niezgodną z jakąkolwiek opublikowaną serią anomalii temperatury globalnej. Prawdopodobnie Bob Tisdale był bliski prawdy, że jest ona efektem połączenia ze sobą dwóch zupełnie różnych serii: HadCRUT i UAH. Nikt poważnie zajmujący się tą tematyką czegoś takiego by nie zrobił. Dodatkowo Tisdale wprost zarzuca Easterbrookowi „tworzenie globalnego ochłodzenia w okresie, gdy takowego nie było”:

I raised a few eyebrows a couple of weeks ago by complaining loudly about a graph of global surface temperature anomalies (among other things) that was apparently created to show global cooling over a period when no global cooling existed.

W odpowiedzi na zarzuty kolegi Easterbrook oskarżył go o „werbalny atak” i… nie wyjaśnił skąd się bierze różnica między seriami danych a jego wykresem.

Warto wskazać, że sami pisaliśmy o tym oszustwie cztery lata wcześniej, niż wpadł na nie Bob Tisdale. Co więcej, wskazaliśmy dokładnie ten sam mechanizm oszustwa. Jeżeli chodzi zaś o sprawdzalność prognozy Easterbrooka, to wg niej powinniśmy już być w zaawansowanej fazie ochłodzenia. Żadna seria pomiarowa nie wskazuje, by miałaby to być prawda. Dla porządku jednak porównajmy owe prognozy z danymi rzeczywistymi.

Oprzemy się tu na „projekcji” prof. Easterbrooka opublikowanej w 2008 r. i zaprezentowanej na WUWT. Wygląda ona następująco:

W części historycznej projekcji prof. Easterbrooka wykres temperatur globalnych jest mocno wygładzony. Charakterystyczne jest tu ocieplenie z okolic 1940 (z anomalią ok. +0.1K) oraz prognozowany szczyt temperatury w okolicy 2000, po którym miałoby następować ochłodzenie wg trzech różnych scenariuszy. Pierwszy scenariusz to łagodne ochłodzenie, które jest replikacją ochłodzenia z lat 1945-1977, drugi scenariusz replikować ma silniejsze ochłodzenie z lat 1880-1915 (choć w rzeczywistości ochłodzenie z tamtych lat było ok. dwukrotnie słabsze, niż zaprezentował tu Easterbrook) oraz trzeci, będący opcją skrajną, w którym następuje wyjątkowo silne globalne ochłodzenie o ok. 1K do 2022 r.  Jak czytamy we wpisie na WUWT (podkreślenia nasze):

The IPCC predicted global warming of 0.6° C (1° F) by 2011 and 1.2° C (2° F) by 2038, whereas Easterbrook (2001) predicted the beginning of global cooling by 2007 (± 3-5 yrs) and cooling of about 0.3-0.5° C until ~2035. The predicted cooling seems to have already begun. Recent measurements of global temperatures suggest a gradual cooling trend since 1998 and 2007-2008 was a year of sharp global cooling.

Na podstawie tego opisu odtworzyliśmy prognozę Easterbrooka – ochłodzenie rozpoczyna się w roku 2003 (a zarazem projekcja Easterbrooka, na co wskazuje powyższy wykres) i trwa do roku 2035. Temperatura spada o nieco ponad 0.3°C, co również jest spójne z tekstem prognozy. Wygląda to następująco:

Jak widać, wszystkie wartości na wykresie są o około 0.5°C niższe, niż w oryginalnej prognozie, co wynika ze zmiany okresu referencyjnego na 1981-2010, dzięku czemu można było pokazać serie satelitarne. Wykres jest 5-letnią średnią ruchomą (centrowaną), zatem ostatni punkt danych to średnia za lata 1998-2002. Oczywiście minęło już sporo czasu, możemy zatem pokazać jak w istocie zmieniały się anomalie temperatury aż do 2018 (a dokładniej 2014-2018). Okazuje się (co nie jest jakieś szczególnie zaskakujące), że prognoza prof. Easterbrooka kompletnie rozmija się z rzeczywistością:

Nawet seria satelitarna UAH, która po szeregu modyfikacji1 wskazuje najmniejszy trend ocieplenia mocno rozjeżdża się z prognozą Easterbrooka. Seria RSS, również oparta o dane satelitarne, wskazuje na zdecydowanie silniejsze ocieplenie i jest zbliżona do pomiarów naziemnych. Rozjazd między prognozami a rzeczywistością sięga już ok 0.4°C. Zdecydowanie lepiej sprawdziły się prognozy IPCC. Co prawda obserwowany trend jest nieco niższy, niż prognozowany w scenariuszu RCP 8.5 (co wynika z nieco innych wartości wymuszenia radiacyjnego, niż prognozowano, a także nieco innych metod obliczania średniej globalnej), jednakże znacznie bliższy rzeczywistości, niż prognozy Easterbrooka.

Podsumowując – prof. Easterbrook nie tylko dopuścił się bardzo brzydkich działań mających na celu nagięcie danych z serii pomiarowych do własnych prognoz, dodatkowo jego prognozy zupełnie się nie sprawdziły.

 

David C. Archibald

Ochłodzenie klimatu prognozowane przez D. Easterbrooka wydaje się niczym nieznaczącym epizodem przy prognozach Davida Archibalda. David C. Archibald to geolog, członek powołanej w 2000 r. tzw „Grupy Lavoisiera„, której głównym celem jest szerzenie negacjonizmu względem globalnego ocieplenia. Związany jest również ściśle z przemysłem naftowym, np. jako dyrektor zarządzający Yeeda Oil Ltd. Swego czasu wraz z dwoma bliżej niezidentyfikowanymi profesorami z Purdue University opracował tabletki mające leczyć raka prostaty zrobione z warzyw – brokułów i chili. Barwna postać.

Na samym początku roku 2006 David Archibald opracował prognozę gwałtownego ochłodzenia, jakie miało być związane z malejącą aktywnością słoneczną. Prognoza opierała się na powiązaniu średniej temperatury rocznej w wybranych punktach i długości cyklu słonecznego. Na tej podstawie Archibald stwierdził, że:

Projections of weak solar maxima for solar cycles 24 and 25 are correlated with the terrestrial climate response to solar cycles over the last three hundred years, derived from a review of the literature. Based on solar maxima of approximately 50 for solar cycles 24 and 25, a global temperature decline of 1.5°C is predicted to 2020, equating to the experience of the Dalton Minimum. To provide a baseline for projecting temperature to the projected maximum of solar cycle 25, data from five rural, continental US stations with data from 1905 to 2003 was averaged and smoothed. The profile indicates that temperatures remain below the average over the first half of the twentieth century.

Dobrze czytacie. Na podstawie danych z pięciu wybranych stacji, David Archibald prognozował, że w ciągu 17 lat od 2003 roku do roku 2020 średnia globalna temperatura spadnie o 1.5°C! Możemy wykorzystać poprzednie wykresy do pokazania tej prognozy.

Warto zauważyć, że przy gigantycznym ochłodzeniu prognozowanym przez D. C. Archibalda, ochłodzenie prognozowane pierwotnie przez Easterbrooka wydaje się kompletnie nieistotne, wręcz niezauważalne. I oczywiście wiemy też, że w serii pomiarowej nie ma nawet śladu ochłodzenia.

Podobnie, jak gigantyczne było prognozowane ochłodzenie, gigantyczny jest też błąd owej prognozy. Sięga on obecnie 1.3 – 1.4°C. I o ile o prognozach prof. Easterbrooka możemy zwyczajnie powiedzieć, że się „nie sprawdziły”, to w przypadku prognoz Davida Archibalda byłoby to dużym eufemizmem. Błąd tej prognozy możemy chyba jedynie porównać do przypadku, w którym ktoś prognozuje falę mrozu, a otrzymuje falę upałów. Staje się powoli jasne, że prognozy klimatycznych negacjonistów wysuwane na początku bieżącego wieku nie miały nic wspólnego z rzeczywistością, co więcej nie miały podstaw naukowych. Wyciąganie wniosków z pięciu wybranych stacji (przy czym istnieje wysokie ryzyko, że wybrane były one specjalnie pod tezę) musiało się skończyć tak, jak na powyższym wykresie.

Richard Lindzen

Lindzen to jeden z nielicznych fizyków podważających antropogeniczne przyczyny globalnego ocieplenia. W 1989 r. stwierdził on, iż „osobiście uważa, że prawdopodobieństwo że w nadchodzącym stuleciu ocieplenie związane z gazami cieplarnianymi osiągnie wartości porównywalne z naturalną zmiennością klimatu jest małe„. Oznacza to, że ocieplenie związane z emisją tychże gazów nie powinno wg Lindzena przekroczyć 0.3°C/100 lat. Oczywiście, jak widzimy na zaprezentowanych wyżej wykresach, jest ono sporo większe.

Porównanie prognozy Hansena (1988) i rzeczywistych danych pomiarowych. Dodano prognozę opartą o twierdzenia R. Lindzena. Źródło: Skeptical Science.

 

John McLean

W okolicach roku 2010 ów pan zasugerował, iż w związku z ujemną fazą ENSO (La Niña) średnia temperatura globalna spadnie do poziomu najniższego od 1956, a być może i wcześniej. Oczywiście jak wiemy, nic takiego nie miało miejsca. Prognoza oparta była o pracę „Influence of the Southern Oscillation on tropospheric temperature” (McLean, Freitas, Carter 2009) w której co prawda słusznie wskazano związek ENSO ze zmiennością temperatury globalnej w krótkich skalach czasowych, ale jednocześnie wysunięto wniosek,  który absolutnie z tej pracy nie wynikał:

Finally, this study has shown that natural climate forcing associated with ENSO is a major contributor to variability and perhaps recent trends in global temperature, a relationship that is not included in current global climate models.

Ponieważ wskaźniki związane z ENSO (np. wzmiankowane w pracy SOI) spadły w 2011 do bardzo niskich poziomów, na tej podstawie i na podstawie błędnych wniosków McLean wysunął prognozę, która się nie sprawdziła, bo się sprawdzić nie mogła.

To tylko parę przykładów z prognozowanych „globalnych ochłodzeń”, które ostatecznie nie doszły do skutku. Cechą charakterystyczną jest tutaj późniejsze przesuwanie prognozowanego startu ochłodzenia w czasie – w sytuacji gdy w sposób oczywisty do ochłodzenia nie doszło (nie wskazuje na to żadna seria pomiarowa). Można na przykład odnaleźć prezentację prof. Easterbrooka z 2017,  w której opowiada on dokładnie te same historie, co 10 lat wcześniej i całkowicie „przypadkowo” na wykresach nie widać ostatnich najcieplejszych lat, urywają się one w bardzo wygodnym dla Easterbrooka miejscu. Dokładnie te same wykresy możemy znaleźć w prezentacji trzy lata starszej, co jednoznacznie wskazuje, że nowsze dane były dla prof. Easterbrooka zwyczajnie niewygodne.

Powyżej: zrzut z prezentacji prof. Easterbrooka z 2014 r. Mimo, że mieliśmy już dodatkowe 13 lat danych, Easterbrook nadal ucina je w roku 2000, prezentując „prognozę” po tym roku.

 

Powyżej: kolejny zrzut z tej samej prezentacji. Ćwiczenie: na poniższym wykresie satelitarnej serii UAH wskaż rok 2012 i wyjaśnij, dlaczego w prezentacji z 2014 prof. Easterbrook uciął wykres właśnie na początku 2012.

 

 

1 Satelitarne serie pomiarowe w istocie nie mierzą temperatury przy powierzchni ziemi, tak jak termometry w seriach „naziemnych”. Zamiast tego oszacowują temperaturę dolnej troposfery w oparciu o pomiary (wykonywane za pomocą MSU/AMSU) strumienia promieniowania w różnych długościach fali. Wynik, czyli szacowana anomalia temperatury zależy od tego, w jaki sposób różne grupy zajmujące się tym tematem ją wyliczą. Problemem jest tu nie tylko dryf satelitów (które powinny się znajdować nad danym miejscem dokładnie o tej samej porze, ale z uwagi na zmiany parametrów orbity ta pora się zmienia), ale i fakt, że seria składa się z danych pochodzących z wielu różnych satelitów na których znajdują się instrumenty różnego rodzaju, przez co cała seria jest niejednorodna i wymaga wielu korekt. Parę lat temu satelitarna seria UAH została zaktualizowana do wersji 6.0, w której znacząco obniżono anomalie temperatury w stosunku do wersji 5.6. Po tym zabiegu seria ta charakteryzuje się najniższym trendem temperatury ze wszystkich serii pomiarowych, również innych serii satelitarnych. Nie radzimy przywiązywać się do tych danych, nie wiadomo bowiem jak będą wyglądać w kolejnych wersjach ;)

 

 

 

 

 

Ulewa w Katowicach

Ulewa w Katowicach

Nad Katowicami przeszła dziś wyjątkowo silna burza z obfitymi opadami deszczu, których intensywność dochodziła miejscami do 18 mm/10 minut. W ciągu godziny spadło od 74  mm opadu, a wg systemu telemetrii IMGW-PIB całkowity opad osiągnął 82.7 mm. Jeśli dane te zostaną potwierdzone w depeszy z 18UTC, będzie to oznaczać największy opad dobowy w historii pomiarów na tej stacji.


Tak duża suma opadów w krótkim czasie doprowadziła do licznych podtopień oraz wezbrania mniejszych cieków i rzek. Drogowcy byli zmuszeni zamknąć tunel pod rondem, jak donosi Radio ZET:

Po potężnej burzy i ulewie nieprzejezdna jest część dróg w Katowicach i okolicznych miastach. „Tunel i wszystkie drogi wyjazdowe z Katowic zalane” – alarmuje słuchaczka Radia ZET. Jak dodaje, podobnie jest m.in. w Sosnowcu. Tam pod wodą jest hipermarket Auchan, a klienci są uwięzieni w sklepie i na zalanym parkingu.

 



 

Źródło: Twitter.

Rekordy

Rekordy

Niemcy trzeci dzień z rzędu biją swój dotychczasowy rekord sprzed 2019. Wczorajsza wartość 42.6°C została uznana. MetOffice zgłasza rekord absolutny (Cambridge, 38.7°C), będzie on weryfikowany.

Ostatecznie rekord holenderski wynosi 40.7°C.

 

Kolejne rekordy (Aktualizacja: Lingen, Niemcy 42.6°C, wartość będzie sprawdzana pod kątem poprawności)

Kolejne rekordy (Aktualizacja: Lingen, Niemcy 42.6°C, wartość będzie sprawdzana pod kątem poprawności)

Do 41.6°C wzrosła już temperatura w Niemczech (Lingen), 40.6°C było w Gilze Rijen w Holandii. Również w Belgii temperatury zbliżają się do 41°C. Na stacji Paryż-Montsouris temperatura wzrosła do 42.4°C, bijąc dotychczasowy rekord o 2°C. Absolutny rekord Holandii sprzed 2019 został również już pobity o 2.0°C.

Źródło: Twitter @meteociel

Niemcy jeszcze nigdy nie mieli okazji oglądać takiej mapy obserwowanych temperatur. Wczorajszy rekord został już tam pobity o 1.1°C, a rekord sprzed 2019 o 1.3°C.

Źródło: https://meteologix.com

Blisko rekordu absolutnego jest nawet w Wielkiej Brytanii.

 

Maksymalne temperatury w Niemczech (Źródło: DWD).

 

Absolutny rekord temperatury w Niemczech

Absolutny rekord temperatury w Niemczech

W Geilenkirchen notowano 40.5°C, rekord został już oficjalnie potwierdzony przez DWD. Tym samym Niemcy są trzecim krajem w którym  padł dziś rekord absolutny. Istnieje wysoka szansa, że we wszystkich tych krajach rekordy absolutne zostaną poprawione jutro. Absolutny rekord Francji padł w czerwcu.

 

Absolutne rekordy ciepła w Belgii i Holandii

Absolutne rekordy ciepła w Belgii i Holandii

Zgodnie z przypuszczeniami historyczne rekordy ciepła Belgii i Holandii nie oparły się niezwykłej fali upałów, która dziś, jutro i pojutrze panować będzie nad Francją, krajami Beneluksu oraz zachodnią częścią Niemiec. Na tę chwilę w Belgii notowano maksymalnie 40.3°C (dotychczasowy rekord 38.8°C z 1947 i 2015), a w Holandii 39.2°C (dotychczasowy rekord 38.6°C z 1944). Wszystko wskazuje na to, że ponownie model ICON nie zawiódł, a to może oznaczać, że jutro czeka nas dzień historyczny, gdy rekordy pobite zostaną ponownie, także i w Niemczech. Rekordowo ciepło ma być również w stolicy Francji.

Rekordowo ciepły czwartek w krajach Beneluksu?

Rekordowo ciepły czwartek w krajach Beneluksu?

Od paru dni model ICON sugeruje skrajnie wysokie temperatury mające panować w czwartek na obszarze Francji, Belgii, Holandii i w na zachodnich krańcach Niemiec. Maksymalne temperatury powietrza osiągnąć by miały aż 42°C. Rekord absolutny dla Belgii cytowany przez źródła to 38.8°C notowany 27 czerwca 1947 w Uccle i również 38.8°C w Liege (2015), jednak pierwszy z nich jest najprawdopodobniej zawyżony poprzez używanie w tamtych czasach klatek półotwartych. Rekord Holandii to 38.6°C z 23 sierpnia 1944.

Tradycyjnie nieco niższe temperatury prognozuje model GFS, jednak i w tym modelu temperatura w Belgii osiąga 40°C, 39°C miałoby być wg ECMWF. O ile więc najprawdopodobniej model ICON tym razem przesadza, o tyle atak na rekordy absolutne w tych krajach będzie bardzo prawdopodobny.

Co dalej z tym klimatem?

Co dalej z tym klimatem?

Ostatnio przez część prasy skojarzoną raczej z poglądami stricte prawicowymi przetoczyła się fala artykułów podważających nie tylko antropogeniczność globalnego ocieplenia, ale też w ogóle samo ocieplenie klimatu. Z tym drugim trudno w ogóle polemizować – fakt ocieplenia klimatu wskazują wszystkie serie pomiarowe, zarówno te wykorzystujące pomiary na stacjach meteorologicznych, jak i serie wykorzystujące pomiary satelitarne. Co do tezy pierwszej istnieje przytłaczająca ilość dowodów na to, że obserwowane ocieplenie ma przyczyny antropogeniczne: od stwierdzenia, że CO2 jest gazem cieplarnianym (co wiemy od ponad 100 lat), przez potwierdzenie że wzrost jego stężenia ma swoje źródła w antropogenicznych jego emisjach (co wiemy od nieco krótszego czasu dzięki pomiarom stosunku izotopów węgla 13C do 12C), stwierdzenie spadku pH oceanów, co wskazuje na silniejsze pochłanianie CO2 (co też wyklucza, że są one źródłem jego przyrostu w atmosferze), stwierdzenie że spadająca od końca lat 50. XX w. aktywność słoneczna nie mogła odpowiadać za obserwowany głównie od lat 70. wzrost temperatury globalnej, aż po pomiary promieniowania podczerwonego uciekającego w przestrzeń kosmiczną (którego ucieka coraz mniej). Jest tego zresztą  więcej.

Najlepszą znaną nam obecnie metodą sprawdzenia, jak zachowa się klimat w świetle cały czas rosnącego stężenia gazów cieplarnianych jest modelowanie klimatu naszej planety. Modele klimatyczne różnią się od znanych nam modeli prognozujących pogodę na tydzień w przód – w tych chodzi nam o dość dokładne symulowanie zmian stanu atmosfery w danej chwili. Wychodzimy z punktu początkowego – powiedzmy piątek 00UTC, a model ma za zadanie policzyć jaki dokładnie stan atmosfery otrzymamy we wtorek o 18UTC, bo akurat planujemy grilla. Oczywiście takie układy jak nasza atmosfera są mocno chaotyczne i prędzej, czy później model mający za zadanie policzyć jej stan w danej chwili zacznie mocno rozmijać się z rzeczywistością. Można sobie z tym trochę radzić sprawdzając spójność prognozy modelu – tworzy się serię prognoz (ensembles), z której każda ma nieco zaburzony stan początkowy, dzięki czemu symulujemy niepewność zarówno obserwacji asymilowanych do modelu, jak i samej asymilacji. Efekt tych zaburzeń będzie rósł w czasie, dzięki czemu prognozy zaczną się po pewnym czasie mocno rozjeżdżać. Punkt w którym się to dzieje stanowi granicę pewności prognozy (co nie znaczy, że prognoza poniżej tego punktu z pewnością się sprawdzi). Taki wykres ensembles mamy poniżej:

Wiązka (ensembles) prognozy temperatury na wysokości izobarycznej 850hPa dla Wrocławia (źródło: wetterzentrale.de)

Jak widzimy na powyższej prognozie z 19 lipca, 06UTC do 23 lipca wiązka jest spójna – prognoza (przynajmniej tego parametru) jest pewna. 24 lipca zaczyna się rozjazd poszczególnych realizacji tej wiązki i 26 lipca jest on już dość spory (de facto mówi o temperaturach maksymalnych powiedzmy od 25 do 33°C). Dalej jest coraz bardziej chaotycznie, chociaż jest to i tak przykład dość spójnej wiązki. Widzimy w niej, że temperatury będą raczej powyżej normy do 29 lipca, gdzie zaczyna się większa niepewność w tej materii. Z przebiegu średniej z tej wiązki można by zaryzykować stwierdzenie o możliwym (ale bynajmniej nie pewnym) ochłodzeniu na początku sierpnia.

Zarówno cel, jak i skale czasowe modeli klimatycznych są zupełnie inne. Modele takie liczone są na okres 100 (i więcej) lat. I bynajmniej nie interesuje nas tu konkretny stan atmosfery 23 czerwca 2051 roku. Jak sama nazwa wskazuje – interesują nas zmiany klimatu. Modele te dostają jako dane wejściowe nie tylko stan atmosfery w danej chwili – to jest akurat sprawa drugorzędna, bo z punktu widzenia klimatu nie ma kompletnie znaczenia czy 24 maja 2019 było akurat ciepło, czy zimno. Za to interesuje nas to co wpływa na klimat, czyli przede wszystkim zmiany tzw. wymuszenia radiacyjnego co oznacza tak naprawdę zmiany w bilansie energetycznym naszej planety. Zmiany te mogą być zarówno naturalne (np. zmiany aktywności słonecznej), jak i sztuczne (emisja aerozoli, czy w końcu gazów cieplarnianych – GHG). Model dostaje na wejście zarówno stan obecny (i historyczny, jeśli akurat symulacja ma za zadanie sprawdzić jak model radzi sobie z odwzorowaniem klimatu ubiegłego wieku) tych wymuszeń, jak i prognozowany stan przyszły. Oczywiście tu jest pierwsze źródło niepewności: nie wiemy, jaka będzie dokładnie aktywność słoneczna w następnych dekadach, ani nie wiemy jak dużo gazów cieplarnianych wyemitujemy. Z tym drugim problemem możemy poradzić sobie tworząc odpowiednie scenariusze. I tak w przypadku eksperymentów CMIP5 mieliśmy różne scenariusze emisji gazów cieplarnianych: skrajny RCP 8.5, w którym wymuszenie radiacyjne związane z emisją GHG sięga 8.5 W/m2, czy skrajny z drugiej strony RCP 2.6, w którym ludzkość zdecydowała się mocno ograniczyć emisje. Mamy również prognozy przyszłej słonecznej irradiancji – możemy je znaleźć na stronie Climate Explorer w odnośniku CMIP6 (dotyczącego modeli, których wyniki będą omówione w kolejnym raporcie IPCC). Wygląda ona tak:

Jak widzimy prognoza raczej nie wskazuje na powrót wysokiej aktywności słonecznej z XX w., ale ta ma być średnio wyższa, niż w wieku XIX. Jest to jednak sprawa drugorzędna – poprzednie analizy wskazały, że nawet pojawienie się skrajnie niskiej aktywności słonecznej (takiej jak w minimum Maundera) nie wpłyną znacząco na ocieplenie związane z emisją GHG.

Biorąc pod uwagę wszystkie te przyszłe wymuszenia model klimatyczny ma za zadanie przedstawić odpowiedź systemu klimatycznego na ich zmianę. A te odpowiedzi pojawiają się w wieloletnich, wręcz dekadowych skalach czasowych, nie zaś w perspektywie tygodnia. Nonsensem jest więc wątpienie w wyniki modeli klimatycznych opierając się tylko i wyłącznie na ograniczeniach modeli prognozujących pogodę. Można się tu posłużyć następującą analogią: mamy kostkę do gry. Symulujemy sześć tysięcy rzutów i sprawdzamy rozkład wyników. Jeśli kostka jest uczciwa, to przy tej liczbie losowań rozkład wyników będzie równy. Nie co do pojedynczych wartości oczywiście, ale spodziewamy się na przykład 991 jedynek, 1009 dwójek, 986 trójek, 1010 czwórek i tak dalej. Jeśli wykonamy kolejne 6000 rzutów tą samą kostką, tym razem wypadnie 1005 jedynek, 995 dwójek i tak dalej. Zasadniczo wyniki będą podobne. Możemy wykonać jeszcze dziesiątki takich eksperymentów i otrzymamy to samo. Ale będzie pewna różnica – o ile wynik statystyczny będzie ten sam, to poszczególne wyniki rzutu w każdym eksperymencie będą zupełnie odmienne. W eksperymencie 34 między rzutami 100 a 110 mogą nam wypaść 1,5,4,1,1,3,5,6,6,2. W eksperymencie 154 w tym samych numerach rzutów wypadnie 3,3,4,2,2,1,5,6,5,2. Kolejność wyników zupełnie inna, ale efekt statystyczny ten sam.

A teraz oszukajmy kostkę w ten sposób, że szóstka będzie wypadała 20% częściej niż pozostałe liczby. Oczywiście, jeśli teraz powtórzymy eksperyment, otrzymamy zupełnie inny rozkład wyników, wynik statystyczny każdego eksperymentu będzie z wyraźną (20%) korzyścią dla szóstki. Ale i tym razem poszczególne wyniki w każdym eksperymencie będą się różnić, tyle że nie ma to dla nas żadnego znaczenia – liczy się wynik ostateczny. Podobnie jest w modelach klimatycznych – wynik pojedynczego rzutu kostką to pogoda. Oszukanie kostki to zmiana wymuszenia radiacyjnego. Wynik eksperymentu to odpowiedź systemu na zmianę wymuszenia. I tak samo, jak w przypadku rzutów kostką, nie interesują nas kolejne wyniki tego eksperymentu. Interesuje nas wynik, jakim jest docelowa odpowiedź systemu klimatycznego na sumę zmian wszystkich wymuszeń radiacyjnych. Nie istotne jest więc pytanie, czy maj 2065 będzie ciepły, czy zimny, a raczej: jak zmieni się klimat  w latach 2050-2080. I podobnie, jak przy rzutach kostką, każdy model odpowie na to pytanie, ale też każdy model poda w wyniku inną anomalię maja 2065, nawet jeśli odpowiedź na pytanie o zmianę klimatu będzie identyczna.

A nie będzie. Klimat jest (jak się pewnie  domyślacie) o wiele bardziej skomplikowany, niż kostka do gry. Zmiany wymuszeń radiacyjnych w tak skomplikowanym systemie prowadzą do wielu złożonych interakcji. Jak się zachowa ocean, ile dodatkowych gazów cieplarnianych zostanie wyemitowane z topniejącej wiecznej zmarzliny? Co się stanie, gdy lasy zaczną przesuwać się na północ? Co się stanie z Prądem Zatokowym w wyniku zmian zasolenia północnej części Atlantyku? Pytań jest o wiele więcej. Nowoczesne modele klimatu muszą uwzględniać wszystkie te aspekty i każdy radzi sobie z tym inaczej. I tu dochodzimy do jedynego podobieństwa między prognozowaniem pogody a modelowaniem przyszłych zmian klimatu: również tutaj wykonuje się wiele symulacji w ramach zadanych zmian wymuszeń radiacyjnych. Tym razem nie chodzi tylko o perturbacje w ramach samego modelu (chociaż też), ale pokazanie jak sobie z tym radzą różne modele. I w wyniku również otrzymujemy wiązkę prognozy, tym razem dotyczącą zmian klimatu. Ponieważ liczba tych symulacji w ramach założonego scenariusza zmian wymuszenia radiacyjnego jest spora, możemy z dużą pewnością powiedzieć, że ostateczny wynik będzie się zawierał między realizacjami skrajnymi, a najpewniej będzie zbliżony do średniej z nich.

I tu dochodzimy do pytania tytułowego: co dalej? Mieliśmy tu na myśli nie klimat globalny, lecz raczej  nasze podwórko. W tym celu prześledziliśmy zmiany temperatury prognozowane w Polsce wg wyników projektu EURO-CORDEX. Wyniki te można pobrać w postaci plików NetCDF na przykład ze strony Climate Explorer. Obejmują one zarówno część historyczną (symulacje przy zadanym poziomie wymuszeń radiacyjnych od 1951), jak i projekcje do roku 2099. Na początek weźmiemy scenariusz, w którym emisje gazów cieplarnianych nie tylko pozostają na obecnym poziomie, ale i rosną, czyli RCP 8.5. Nie robimy żadnych ograniczeń w emisjach, hulaj dusza. Wygląda to tak:

Na szczęście, o ile do 2014 szliśmy ewidentnie ścieżką RCP8.5, o tyle w latach 2015-2017 wzrost ten został nieco ograniczony. Wygląda na to, że przy zastosowaniu obecnej polityki, skończymy gdzieś między RCP6.0 a RCP8.5. W obecnej sytuacji nie jesteśmy chyba w stanie liczyć na nic więcej, niż RCP4.5.

Ograniczymy się tu (początkowo) też do czasu, do którego pewnie większość z nas powinna statystycznie dożyć, czyli połowa tego wieku. Wyniki EURO-CORDEX dla tego scenariusza emisyjnego i dla tego przedziału czasowego dla Polski wyglądają następująco:

Wykres przedstawia 11. letnią średnią ruchomą anomalię temperatury. Pogrubiona czerwona linia to obserwacje (Poltemp 1.0H6). Jasny szary obszar to zakres między 5 a 95 percentylem wszystkich realizacji w ramach tego eksperymentu (jest ich 18, numerowane od 0 do 17). Ciemniejszy obszar to 50% wszystkich realizacji wokół średniej (25 – 75 percentyl). Wyróżniliśmy tu trzy ciekawe przebiegi: Ensemble 8, który wydaje się najbardziej zbliżony do rzeczywistości, Ensemble 3, który prognozuje w najbliższym czasie dalsze szybkie ocieplenie i Ensemble 15, który sugeruje ochłodzenie klimatu w Polsce, będące tuż za rogiem. Niezależnie od przebiegu, każda z tych realizacji wskazuje na postępujące (wolniej, lub szybciej) ocieplenie klimatu. Ensemble 15 jest tu jedną z najchłodniejszych realizacji, przy czym wydaje się że najbardziej kluczowe dla tego „chłodu” jest właśnie nadchodzące wg niej ochłodzenie w kolejnej dekadzie.

Ensemble 8, RCP 8.5

Ta realizacja najlepiej odzwierciedla dotychczasowy przebieg temperatur w latach 1951-2019. Do okolic 2065 roku nie jest to też realizacja skrajna.

Wadą tej realizacji jest mniejsza wariancja anomalii miesięcznych, niż miało to miejsce w rzeczywistości w latach 1951-2018. Oznacza to, że symulowane anomalie miesięczne są bardziej zbliżone do średniej, brakuje anomalii skrajnych, co widać na poniższym rozkładzie:

Mamy więc przykład realizacji, która chociaż doskonała pod względem przebiegu wartości średnich, nieco rozbiega się z rozkładem anomalii poszczególnych miesięcy w stosunku do sytuacji rzeczywistej. A jak te anomalie wyglądają? Poniżej przykład roku 2019.

Widzimy tu chłodny styczeń (ale w granicach rozsądku, taki styczeń jak najbardziej ma prawo się zdarzyć), chłodny maj i gorący czerwiec (zbieżność z rzeczywistością przypadkowa). Ostatecznie rok 2019 w tej realizacji kończy się anomalią +0.90K – również jak najbardziej normalną dla naszych czasów. Mamy tu jeszcze wiele zbieżności i wiele różnic. Lata 2002-2006 są chłodne (wszystkie). Istotnie w tym okresie mieliśmy parę chłodnych zim i był to czas ochłodzenia po ekstremalnie (wówczas) ciepłym roku 2000. Rozkład symulowanych anomalii jest jednak nieco inny – mroźnych zim tu mało, za to pojawiają się chłodne lata i wiosny. Udaje się natomiast ocieplenie w latach 2007-2009 i częściowo chłodniejszy okres 2010-2013. Rok 2012 jest tu ostatnim z anomalią roczną poniżej średniej z lat 1981-2010. Rekord ciepła pojawia się w 2015 i znowu przypadkowo tak było. Różnica polega na tym, że o ile w rzeczywistości ciepło rozłożyło się wówczas na lata 2014 i 2015, o tyle tutaj mamy pojedynczy wyskok roku 2015 z anomalią równą +2.21K. Najbardziej anomalna jest tu wiosna: marzec i maj powyżej +5K. W kolejnych latach anomalie roczne zawierają się w zakresie 0.1 – 1.7K. Rekord z 2015 bity jest dopiero w roku 2040: +3.1K. Można sobie zadać pytanie, czy jeśli taki przebieg anomalii zdarzyłby się istotnie, to w 2039 ktoś podważałby fakt ocieplenia, skoro ostatni rekordowo ciepły rok zdarzył się 24 lata temu. Zapewne tak.

Rok 2040 jest w tej serii bardzo smutnym rokiem. O ile do tej pory sezony letnie nie odbiegały znacząco od tego, do czego jesteśmy przyzwyczajeni, o tyle pod koniec lat 30. XXI w. pojawia się w tej realizacji duże ocieplenie. Pojawiają się miesiące letnie z anomaliami, które dla nas są obecnie nie do wyobrażenia.

O ile takie wartości anomalii dodatnich w okresie letnim do tej pory się nie pojawiały, nagle zaczynają pojawiać się stosunkowo często – kolejna podobna anomalia pojawia się w sierpniu 2049, w lipcu 2053 anomalia przekracza +6K, a sierpnia +5K. W 2058 czerwiec przekracza +5K, a lipiec +7K. W 2064 lipiec osiąga +8.4K. jest to zmiana nagła, wręcz skokowa. Sytuacje, które do tej pory nie miały miejsca, pojawiają się raz, a potem – jakby ktoś odkręcił jakiś kurek – już nas nie opuszczają. Niepokojąco przypomina to to, z czym mamy do czynienia obecnie, w znacznie jednak mniejszej skali, na przykład w przypadku średnich temperatur rocznych wyższych od 10.0°C, które przed rokiem 2000 w zasadzie nie występowały (poza wyjątkowym 1934). W tej realizacji koniec lat 30. XX w. (mniej więcej za 20 lat) jest przełomowy.

Końcówka wieku w tej realizacji to nieustający letni horror. Anomalie przyjmują wartości wręcz absurdalne, ale nie niemożliwe. W Europie zdarzył się już przypadek anomalii letniej zbliżonej do +10.0K w okresie 30-dniowym. Było to w 2010 r. w Moskwie, gdy średnia ruchoma temperatura za 30 dni osiągnęła na przełomie lipca i sierpnia 27.7°C. W tej realizacji jest jednak gorzej, znacznie gorzej. Pierwsza anomalia letnia > 10.0K występuje w 2086 i skacze od razu na +12.5K, co przekłada się na średnie temperatury miesięczne w okolicy 30.0°C, a to oznacza przeciętną średnią temperaturę maksymalną na poziomie 37°C (skaczącą od 30°C w chłodniejszych dniach do 42 – 43°C w najgorętszych). Tak wygląda w tej realizacji lato, jeśli podążymy scenariuszem RCP8.5.

Zima nie jest tak ekstremalna. Przede wszystkim nie pojawiają się tak wysokie anomalie dodatnie, co wynika najpewniej z faktu, że aby styczeń miał anomalię +10.0K, musielibyśmy mieć trwającą cały miesiąc cyrkulację z kierunków W/SW. Pojawienie się nad nami jakiejkolwiek blokady wyżowej zimą automatycznie prowadzi do ochłodzenia. Jeszcze w połowie wieku i później pojawiają się miesiące mroźne, a nawet bardzo mroźne:

Wygląda więc na to, że łzawe historie niektórych portali o tym, że nasze dzieci czy wnuki nie będą już lepić bałwanów, można włożyć między bajki. Śnieg i mróz nie opuszczą nas całkowicie w zasadzie do końca wieku, zima będzie jednak najczęściej przypominać bardziej dość ciepły marzec, niż to, co mamy obecnie.

Poniżej: zmiana rozkładu częstości anomalii miesięcznych w tej realizacji.

Ensemble 3, RCP 8.5

Ta realizacja charakteryzuje się bardziej zbliżonym rozkładem częstości anomalii w stosunku do obserwacji, jednakże pokazuje też mało prawdopodobne anomalie ujemne w okresie letnim przed rokiem 2015.

Tak niska anomalia temperatury lipca nie pojawiła się w całej serii historycznej od 1781 r. Wymagałaby średniej temperatury lipca spadającej w południowo-wschodniej Polsce poniżej 12.0°C, taka sytuacja wydaje się mało prawdopodobna. Dużo zdradza rozkład anomalii ograniczony do lipca:

Podobnie ma się rzecz od maja do sierpnia i należy mieć to na uwadze. Realizacja ta dodatkowo pokazuje, że w najbliższym czasie miałoby dojść do silniejszego ocieplenia – anomalia roczna już w 2024 sięga +3.2K względem okresu referencyjnego 1981-2010. Pierwsze ekstremalnie ciepłe lato pojawia się tu również w 2024 – należy jednak pamiętać co model ten robi z wariancją miesięcy letnich.

Gwałtowne ocieplenie lata pojawia się i w tej realizacji, następuje to jednak 9 lat później, niż w Ensemble 8.

Nawiasem mówiąc, ciekawy zwrot akcji na Suwalszczyźnie.
Również i tutaj pod koniec okresu pojawiają się absurdalnie ciepłe miesiące letnie, przy czym ich zmienność jest olbrzymia i raczej nierealistyczna.

Rozkład anomalii w poszczególnych okresach:

Ensemble 15, RCP 8.5

Ten przebieg jest ciekawy o tyle, że zapowiada czające się tuż za rogiem ochłodzenie klimatu naszego kraju. Uznajemy to jednak za mało prawdopodobne, gdyż już jedno podobne ochłodzenie między latami 80. XX w. (które w tej realizacji są ciepłe) a latami 90. XX w. nie doszło do skutku. Rozkład wszystkich anomalii miesięcznych w stosunku do rzeczywistości jest spójny z obserwacjami, jednakże przebieg średniej anomalii mocno odbiega od rzeczywistego.

Nadchodzące ochłodzenie miałoby być wynikiem serii bardzo zimnych zim w latach 2021-2025. Anomalia każdej z nich spada poniżej -2K, a najzimniejszą jest zima 2022/23. Nie jest to takie nieprawdopodobne, jak mogłoby się wydawać, jednakże model ten sugerował już ciekawsze rzeczy, które ostatecznie do skutku nie doszły:

Zima 2022/23 wygląda tu następująco:

Najchłodniejszy rok to 2024 z anomalią -1.42K względem okresu referencyjnego 1981-2010. Kończy on jednocześnie 4. letni okres zimny – po nim anomalie ponownie pną się do góry i już rok 2025 jest bardzo ciepły. Zwracamy uwagę na te wyniki, bo taka sytuacja w ocieplającym się klimacie jak najbardziej ma prawo się zdarzyć. Ostatecznie i ta realizacja pokazuje silne (choć słabsze, niż realizacje inne) ocieplenie klimatu. Ostatni chłodny rok wypada tu w 2031 roku.

Na powyższym rozkładzie widzimy, że już obecnie wyniki tej realizacji trochę odstają od rzeczywistości.

Wygląda na to, że najbardziej spójna z obserwacjami (mimo zaniżonej wariancji) jest realizacja 8, omówiona na początku. Niestety jest to też realizacja, w której pod koniec lat 30. XXI w. następuje silne ocieplenie klimatu.

Szansa na lato gorące będzie rosnąć. Poniżej przypadki lata ze średnią anomalią > 3.0K (obecny rekord ok. 2.1K) we wszystkich realizacjach.

Jak widzimy w wielu realizacjach (opis na osi Y jest przesunięty – „nasza” realizacja 8 jest tu opisana jako 9) od dekady 2041-2050 takie sytuacje są częste. Tylko parę realizacji jest znacznie łagodniejszych. Poniżej to samo dla anomalii > 4.0K.

Tu również liczba przypadków rośnie. Takie lata należy już uznać za skrajnie upalne. Poniżej lata > 5.0K.

Na szczęście żaden z modeli nie prognozuje wystąpienia takiego lata przed rokiem 2050, jednak w niektórych przypadkach stają się one „nową normą” po 2080. Lato takie prędzej, czy później pojawia się w każdej realizacji.

W ponad połowie realizacji zimne lato (<= -1.0K) nie pojawia się już w ogóle. Jednak część z nich dopuszcza taką możliwość.

Jak widać jedna z nich wrzuca takie lato nawet pod koniec lat 50. XXI w, mamy też dwa przypadki z latem wyjątkowo zimnym na początku lat 40.

Poniżej: średnie anomalie sezonu zimowego (określonego jako styczeń-marzec).

Poniżej: średnie anomalie sezonu wiosennego (marzec-maj):

Poniżej: średnie anomalie sezonu letniego (czerwiec-sierpień):

Poniżej: średnie anomalie sezonu jesiennego (wrzesień-listopad)

Poniżej: średnie anomalie roczne:

Wygląda więc na to, że jeżeli będziemy dalej podążać tą ścieżką emisji GHG, to:

  • Mimo ocieplenia klimatu nadal będą zdarzać się okresy chłodniejsze – zarówno zimą, jak i latem. Z biegiem lat będą one rzadsze
  • Niewykluczone, że zdarzy się kilka chłodniejszych lat z rzędu, najprawdopodobniej będzie to związane z ochłodzeniem w sezonie zimowym
  • Niektóre realizacje (niestety również ta najbardziej zbliżona do obserwacji) wskazują na możliwość gwałtownego ocieplenia pod koniec lat 30. XX w
  • Niektóre realizacje (niestety również ta najbardziej zbliżona do obserwacji) wskazują na możliwość pojawienia się skrajnych i niebezpiecznych fal upałów już za 20 lat
  • Najprawdopodobniej lata 20. XXI w. będą ostatnimi w których pojawią się ujemne anomalie roczne
  • W latach 2021-2030 liczba anomalii rocznych < 0.0K względem okresu referencyjnego 1981-2010 (z wszystkich realizacji) wynosi 26 (14.4%), co oznacza, że powinniśmy spodziewać się co najmniej jednego roku poniżej średniej
  • W latach 2031-2040 liczba anomalii rocznych < 0.0K względem okresu referencyjnego 1981-2010 (z wszystkich realizacji) wynosi 12 (6.7%), co oznacza, że istnieje duża szansa, że w tej dekadzie taki rok się nie pojawi
  • W latach 2041-2050 liczba anomalii rocznych < 0.0K względem okresu referencyjnego 1981-2010 (z wszystkich realizacji) wynosi 2 (1.1%)
  • W latach 2051-2060 liczba anomalii rocznych < 0.0K względem okresu referencyjnego 1981-2010 (z wszystkich realizacji) wynosi 3 (1.7%). To ostatnia dekada w której takie lata pojawiają się w którejkolwiek realizacji.

 

 

Cieplej

Cieplej

Niestety nie możemy już więcej ignorować faktów i musimy przyznać, że chłodny okres tego lipca ma się ku końcowi.  Temperatury w III dekadzie lipca najprawdopodobniej wzrosną powyżej 30°C. Już jutro na znacznym obszarze Polski będzie ciepło, z temperaturami sięgającymi miejscami 25°C, w piątek ponad 26°C, a już w sobotę temperatury zbliżą się do 30°C. Przejściowo chłodniej ma się zrobić w poniedziałek (ale nadal ponad 25°C w południowej części kraju), od wtorku ponownie cieplej a wg modelu ECMWF w środę już ponad 32°C na zachodzie. Wg 10-dniowej prognozy tego modelu upały ograniczą się do zachodniej połowy kraju, gdzie spodziewać się można nawet 34°C. Oczywiście trzeba być ostrożnym w prognozach na tak daleki termin – rozrzut poszczególnych realizacji wiązki modelu ECMWF w terminie na 10 dni do przodu jest olbrzymi. Jak różnią się te prognozy można zobaczyć na poniższych przykładach:

Źródło: meteologix.com

Wszystkie mapy dotyczą tego samego terminu (piątek, 26 lipca) i jak widać są skrajnie różne, a każda poszczególna realizacja ma dokładnie taką samą szansę sprawdzenia (tak, nawet ta pierwsza, która jest realizacją #07). Na szczęście szansa sprawdzenia się ekstremum z pierwszej mapy wynosi na chwilę obecną jakieś 1-2%. Nie wykluczone, że około 25 lipca czeka nas przynajmniej kilkudniowe ochłodzenie (tutaj w grę wchodzą dwie ostatnie zaprezentowane mapy), tak przynajmniej można sądzić po rozjechanych realizacjach modelu GFS.

Tak, czy siak niska do tej pory anomalia temperatury lipca wzrośnie do 24.07.2019 do około -0.7K, a kraj zostanie podzielony na cześć południową, gdzie będzie to już lipiec powyżej normy termicznej dla tego miesiąca i północno-wschodnią, gdzie obecnie jest najchłodniej. Tam będzie to nadal lipiec chłodny. Warto przy tym zwrócić uwagę, że po raz kolejny GFS jest chłodniejszy od innych modeli. Wg modelu ICON, 24 lipca anomalia miesięczna wzrośnie do okolic -0.4K.