Kategoria: Zmiany klimatyczne

Lipiec 2019 globalnie najcieplejszy w historii pomiarów instrumentalnych

Lipiec 2019 globalnie najcieplejszy w historii pomiarów instrumentalnych

Wg serii GISTEMP globalna anomalia temperatury względem okresu referencyjnego 1951-1980 osiągnęła w lipcu +0.92 – +0.93K i była najwyższa dla lipca w całej historii pomiarów. Poprzedni najcieplejszy lipiec wystąpił w 2016 (+0.85K).

Jak widać względem tego okresu referencyjnego lipiec w Polsce był ciepły – inaczej jest względem nowszego okresu referencyjnego 1991-2019.

 

Lipiec najcieplejszy był również w analizie Berkeley Earth – przypomnijmy, Berkeley Earth to założona w 2010 r. m.in. przez Richarda A. Mullera grupa, mająca pierwotnie na celu zweryfikowanie dotychczas używanych analiz anomalii temperatur globalnych. Analiza ta brała pod uwagę wpływ Miejskich Wysp Ciepła i obejmowała znacznie więcej stacji pomiarowych niż GISTEMP. Była to wielka nadzieja osób sceptycznych wobec ustaleń naukowych odnośnie globalnego ocieplenia, zespół Berkeley Earth był nawet przez takie środowiska dotowany. Ostatecznie wyniki analizy Berkeley Earth potwierdziły dotychczasowe ustalenia na temat wzrostu temperatur.

Wg analizy Berkeley Earth istnieje około 90% szans, że globalnie rok 2019 zapisze się jako drugi najcieplejszy rok w historii pomiarów instrumentalnych.

Również w analizie NOAA/NCEI lipiec był globalnie rekordowo ciepły.

Nietrafione prognozy „klimatystów”

Nietrafione prognozy „klimatystów”

Bardzo spodobało mi się określenie „klimatyści” wymyślone bodajże przez pana Rafała Ziemkiewicza (tego od riserczu). W odróżnieniu jednak do autora tego określenia, osobiście uważam za „klimatystów” tę stronę sporu, której stwierdzenia, delikatnie rzecz ujmując, stoją w sprzeczności z ustaleniom nauki na temat globalnego ocieplenia. Wśród takich „klimatystów” są nie tylko publicyści w postaci panów Łukasza Warzechy, czy Rafała Ziemkiewicza, którzy w nader wygodny sposób potrafią sobie dobierać fakty do stawianej tezy, ale też tacy, którzy swoją wizje na temat zmian klimatycznych przekuwają na prognozy. Ponieważ nawet najszybsze zmiany klimatu z punktu widzenia człowieka wydają się przebiegać stosunkowo powoli, przypomnimy prognozy sprzed co najmniej 10 lat.

Wydaje się dość zabawne, że negacjonistycznie nastawiona  do zdobyczny nauki w dziedzinach klimatologii, czy fizyki atmosfery strona sporu nazywa swych oponentów „alarmistami”, jednocześnie bardzo ochoczo strasząc silnym ochłodzeniem klimatu, które czyhać ma na nas tuż za rogiem. Wystarczy wspomnieć niesławny artykuł prof. Zbigniewa Jaworowskiego („Idzie zimno”, Polityka kwiecień 2008), gdzie czytamy:

Tegoroczna polska zima była lekka. Średnia temperatura stycznia mierzona na Okęciu była o 4.8°C wyższa od długoterminowej wynoszącej -1.1°C (informacja od prof. H. Lorenc z IMGW). Dzięki temu mniej zapłaciliśmy za gaz i węgiel, ale w skali całego globu nie było tak różowo. Cztery główne systemy monitorowania temperatury Ziemi (angielski Hadley-CRUT i amerykańskie GISS, UAH i RSfS) stwierdziły, że nad lądami i morzem oraz w dolnej troposferze styczeń 2008 r. był wyjątkowo zimny, według GISS aż o 0,75oC chłodniejszy niż rok temu. Również stratosfera była chłodniejsza o 0,5°C.

Po tej „szokującej” informacji przechodzimy stwierdzeń typowych dla tamtych czasów: że od 1998 temperatura nie rośnie i w końcu do straszenia niską aktywnością słoneczną i mającą z niej wynikać Małą Epoką Lodową. Oczywiście nie było ani słowa o tym, że aktywność słoneczna spadała już od końca lat 50. XX w., ani o tym że „płaski” trend temperatury od 1998 wynikał tylko i wyłącznie z dobrania takiego okresu, by na jego początku znalazł się rekordowo ciepły rok 1998 (czemu pomogło nie tylko globalne ocieplenie, ale i El Niño), a na końcu lata zimne. Nie tylko prof. Jaworowski uderzał w te tony.

 

Girma Orssengo

Pan podpisujący się jako „BTech, MASc, PhD, Engineering, Perth, Western Australia, Australia” wymyślił w 2010, że całą obserwowaną zmianę klimatu możemy wyjaśnić jednym cosinusem połączonym z trendem liniowym. Wzór, który zastosował wyglądał następująco:

0.0059*(Rok-1880)-0.52+0.3*cos(((Rok-1880)/60)*2*pi)

 

Rozumiecie jak genialne to odkrycie? Ośrodki naukowe na całym świecie używają skomplikowanych modeli mających policzyć zmiany klimatu związane ze wzrostem wymuszenia radiacyjnego wynikającym z emisją gazów cieplarnianych, podczas gdy wystarczy zwykły arkusz kalkulacyjny! Oryginalny wykres Orssengo możemy zobaczyć poniżej.

 

Sprawdźmy najpierw, czy uda nam się zreplikować jego model, możemy do R wprowadzić np. taki kod:

Rok <- seq(1880,2040,1)
model <- 0.0059*(Rok-1880)-0.52+0.3*cos(((Rok-1880)/60)*2*pi)
df <- data.frame(yr=Rok, m=model )
plot(df$m ~ df$yr, type='l', xaxt='n', yaxt='n', lwd=3, xlab="Rok", ylab="Anomalia temperatury")
axis(1, at=seq(1880,2040,10))
axis(2, at=seq(-2,2,0.2))
abline(h=seq(-2,2,0.2), lty=3, col="black")
abline(v=seq(1880,2040,10), lty=3, col="black")

W wyniku otrzymamy wykres:

Wygląda na to, że się zgadza. Dodajmy jeszcze dane HadCRUT (obecnie w wersji 4):

Otrzymujemy stan na rok 2009, dokładnie taki, jakim dysponował G. Orssengo. Oczywiście od tego czasu minęła niemal dekada i możemy sprawdzić, jak się ma owa prognoza do rzeczywistości. A ma się tak:

W tym momencie wiemy (a co mądrzejsi wiedzieli to od początku), to co pan Orssengo powinien wiedzieć w momencie tworzenia owej prognozy: że do cosinusa można sobie „dopasować” bardzo dużo rzeczy, nie koniecznie z sensem. Warto zwrócić uwagę, że model pana Orssengo zakłada, że w czasie narodzin Chrystusa średnia globalna anomalia temperatury wynosić by miała niemal -12K. Jesteśmy również pewni, że Orssengo coś se jeszcze dopasuje. Wystarczy przecież zmienić okres z 60 na 65 lat i znowu wykres będzie „mniej więcej” pasować do danych pomiarowych. Dołek temperatury przesunie się z okolic 2028 na okolice 2040, ale nadal  wizualnie będzie wyglądało to dobrze. I nadal nie będzie miało to żadnego sensu. Zresztą – już zaprezentowany model mocno się nie zgadzał, ponieważ funkcja aproksymująca zmiany temperatury została dopasowana do szczytu z lat 1998-2009. Minima funkcji są za nisko względem obserwacji. Można to było „poprawić” zmniejszając amplitudę postulowanego cyklu, niestety wówczas uciekały już dane bieżące (a jeszcze gorzej byłoby, gdyby na to nałożyć dane do 2018):

Ale to można było poprawić zwiększając nieco trend liniowy. Już rozumiecie? W ten sposób można sobie dopasować wszystko. Za około 10 lat tak prosty zabieg nie będzie już możliwy przy użyciu jednej funkcji sin/cos. Fabrykacja takiej prognozy, mającej sprawiać wrażenie sensownej będzie wymagała zastosowania nieco bardziej skomplikowanego (ale nadal mieszczącego się w podpisie wykresu) wzoru.

 

Don J. Easterbrook

D. Eastrbrook to professor emeritus geologii na Western Washington University. I jednocześnie jedna z mroczniejszych klimatystycznych postaci w tym zestawieniu. Mroczniejszych, bo manipulujących seriami danych w celu uzyskania potwierdzenia swoich tez.

Podobnie jak G. Orssengo, Easterbrook postuluje istnienie cykli, w które wpisywać się ma obecnie obserwowane ocieplenie. Cykle te mają być wywołane zmianami aktywności słonecznej oraz PDO.  W 2006 r. Easterbrook twierdził, że bieżące ocieplenie ma się ku końcowi i jeśli cykl ten będzie kontynuowany, to należy się spodziewać ochłodzenia z minimum w okolicy roku 2035.

If the cycles continue as in the past, the current warm cycle should end soon and global temperatures should cool slightly until about 2035, then warm about 0.5°C from ~2035 to ~2065, and cool slightly until 2100.

Źródło.

Teza ta była podparta taką „projekcją”:

 

Samo w sobie to stwierdzenie nie było jeszcze niczym złym. Co prawda pozbawione było podstaw naukowych, ale nie miało w sobie znamion manipulacji danymi. Gorzej było parę lat później, gdy prof. Easterbrook zaprezentował taki oto, zaktualizowany wykres.

Na wykresie tym mamy już wyraźnie oznaczone okresy chłodne i ciepłe. Co więcej, mamy naniesioną prognozę IPCC i dane rzeczywiste, które mocno się z tą prognozą rozjeżdżają. Pik temperatury następuje w 1998 (pamiętacie, że prof. Jaworowski pisał o braku wzrostu temperatury po 1998?), następnie mamy spadek do poziomu z 1977/1978 i wzrost temperatury, ale do poziomu niższego, niż w latach 90. XX w. Problem polega na tym, że zaprezentowane „dane pomiarowe” po 1998 nie zgadzają się z żadną serią pomiarową. Żadną. Ani GISTEMP od NASA GISS. Ani z HadCRUT od CRU, ani z seriami satelitarnymi UAH i RSS.

Poniżej: dane GISTEMP.

Poniżej: satelitarna seria UAH:

W żadnej z tych serii okres po 2001 nie jest chłodniejszy od lat 90. XX w. Najmniejsze ocieplenie wskazuje satelitarna seria UAH, co akurat nie jest zaskoczeniem, jako że nie mierzy ona nawet temperatury przy powierzchni Ziemi, tylko jest oszacowaniem tejże temperatury w dolnej troposferze1. Smutna prawda jest więc taka, że dane te zostały „poprawione” na rzecz prognozy prof. Easterbrooka. I nie jest to tylko obserwacja ludzi uznających naukę związaną z globalnym ociepleniem. Problem dostrzegł również Bob Tisdale, negacjonista, na negacjonistycznym blogu „Watts Up With That”, gdzie prof. Easterbrook opublikował w 2014 wpis na temat swoich „odkryć” i prognoz. W komentarzu Bob Tisdale pyta:

And what kind of magical dataset did you present in your Figure 4?

Istotnie, trudno się nie zgodzić – seria danych prezentowana na fig. 4 rzeczywiście musi być „magiczna”. Przepychanki między negacjonistami trochę trwały, ostatecznie jednak prof. Easterbrook nie potrafił wskazać, w jaki sposób uzyskał serię danych niezgodną z jakąkolwiek opublikowaną serią anomalii temperatury globalnej. Prawdopodobnie Bob Tisdale był bliski prawdy, że jest ona efektem połączenia ze sobą dwóch zupełnie różnych serii: HadCRUT i UAH. Nikt poważnie zajmujący się tą tematyką czegoś takiego by nie zrobił. Dodatkowo Tisdale wprost zarzuca Easterbrookowi „tworzenie globalnego ochłodzenia w okresie, gdy takowego nie było”:

I raised a few eyebrows a couple of weeks ago by complaining loudly about a graph of global surface temperature anomalies (among other things) that was apparently created to show global cooling over a period when no global cooling existed.

W odpowiedzi na zarzuty kolegi Easterbrook oskarżył go o „werbalny atak” i… nie wyjaśnił skąd się bierze różnica między seriami danych a jego wykresem.

Warto wskazać, że sami pisaliśmy o tym oszustwie cztery lata wcześniej, niż wpadł na nie Bob Tisdale. Co więcej, wskazaliśmy dokładnie ten sam mechanizm oszustwa. Jeżeli chodzi zaś o sprawdzalność prognozy Easterbrooka, to wg niej powinniśmy już być w zaawansowanej fazie ochłodzenia. Żadna seria pomiarowa nie wskazuje, by miałaby to być prawda. Dla porządku jednak porównajmy owe prognozy z danymi rzeczywistymi.

Oprzemy się tu na „projekcji” prof. Easterbrooka opublikowanej w 2008 r. i zaprezentowanej na WUWT. Wygląda ona następująco:

W części historycznej projekcji prof. Easterbrooka wykres temperatur globalnych jest mocno wygładzony. Charakterystyczne jest tu ocieplenie z okolic 1940 (z anomalią ok. +0.1K) oraz prognozowany szczyt temperatury w okolicy 2000, po którym miałoby następować ochłodzenie wg trzech różnych scenariuszy. Pierwszy scenariusz to łagodne ochłodzenie, które jest replikacją ochłodzenia z lat 1945-1977, drugi scenariusz replikować ma silniejsze ochłodzenie z lat 1880-1915 (choć w rzeczywistości ochłodzenie z tamtych lat było ok. dwukrotnie słabsze, niż zaprezentował tu Easterbrook) oraz trzeci, będący opcją skrajną, w którym następuje wyjątkowo silne globalne ochłodzenie o ok. 1K do 2022 r.  Jak czytamy we wpisie na WUWT (podkreślenia nasze):

The IPCC predicted global warming of 0.6° C (1° F) by 2011 and 1.2° C (2° F) by 2038, whereas Easterbrook (2001) predicted the beginning of global cooling by 2007 (± 3-5 yrs) and cooling of about 0.3-0.5° C until ~2035. The predicted cooling seems to have already begun. Recent measurements of global temperatures suggest a gradual cooling trend since 1998 and 2007-2008 was a year of sharp global cooling.

Na podstawie tego opisu odtworzyliśmy prognozę Easterbrooka – ochłodzenie rozpoczyna się w roku 2003 (a zarazem projekcja Easterbrooka, na co wskazuje powyższy wykres) i trwa do roku 2035. Temperatura spada o nieco ponad 0.3°C, co również jest spójne z tekstem prognozy. Wygląda to następująco:

Jak widać, wszystkie wartości na wykresie są o około 0.5°C niższe, niż w oryginalnej prognozie, co wynika ze zmiany okresu referencyjnego na 1981-2010, dzięku czemu można było pokazać serie satelitarne. Wykres jest 5-letnią średnią ruchomą (centrowaną), zatem ostatni punkt danych to średnia za lata 1998-2002. Oczywiście minęło już sporo czasu, możemy zatem pokazać jak w istocie zmieniały się anomalie temperatury aż do 2018 (a dokładniej 2014-2018). Okazuje się (co nie jest jakieś szczególnie zaskakujące), że prognoza prof. Easterbrooka kompletnie rozmija się z rzeczywistością:

Nawet seria satelitarna UAH, która po szeregu modyfikacji1 wskazuje najmniejszy trend ocieplenia mocno rozjeżdża się z prognozą Easterbrooka. Seria RSS, również oparta o dane satelitarne, wskazuje na zdecydowanie silniejsze ocieplenie i jest zbliżona do pomiarów naziemnych. Rozjazd między prognozami a rzeczywistością sięga już ok 0.4°C. Zdecydowanie lepiej sprawdziły się prognozy IPCC. Co prawda obserwowany trend jest nieco niższy, niż prognozowany w scenariuszu RCP 8.5 (co wynika z nieco innych wartości wymuszenia radiacyjnego, niż prognozowano, a także nieco innych metod obliczania średniej globalnej), jednakże znacznie bliższy rzeczywistości, niż prognozy Easterbrooka.

Podsumowując – prof. Easterbrook nie tylko dopuścił się bardzo brzydkich działań mających na celu nagięcie danych z serii pomiarowych do własnych prognoz, dodatkowo jego prognozy zupełnie się nie sprawdziły.

 

David C. Archibald

Ochłodzenie klimatu prognozowane przez D. Easterbrooka wydaje się niczym nieznaczącym epizodem przy prognozach Davida Archibalda. David C. Archibald to geolog, członek powołanej w 2000 r. tzw „Grupy Lavoisiera„, której głównym celem jest szerzenie negacjonizmu względem globalnego ocieplenia. Związany jest również ściśle z przemysłem naftowym, np. jako dyrektor zarządzający Yeeda Oil Ltd. Swego czasu wraz z dwoma bliżej niezidentyfikowanymi profesorami z Purdue University opracował tabletki mające leczyć raka prostaty zrobione z warzyw – brokułów i chili. Barwna postać.

Na samym początku roku 2006 David Archibald opracował prognozę gwałtownego ochłodzenia, jakie miało być związane z malejącą aktywnością słoneczną. Prognoza opierała się na powiązaniu średniej temperatury rocznej w wybranych punktach i długości cyklu słonecznego. Na tej podstawie Archibald stwierdził, że:

Projections of weak solar maxima for solar cycles 24 and 25 are correlated with the terrestrial climate response to solar cycles over the last three hundred years, derived from a review of the literature. Based on solar maxima of approximately 50 for solar cycles 24 and 25, a global temperature decline of 1.5°C is predicted to 2020, equating to the experience of the Dalton Minimum. To provide a baseline for projecting temperature to the projected maximum of solar cycle 25, data from five rural, continental US stations with data from 1905 to 2003 was averaged and smoothed. The profile indicates that temperatures remain below the average over the first half of the twentieth century.

Dobrze czytacie. Na podstawie danych z pięciu wybranych stacji, David Archibald prognozował, że w ciągu 17 lat od 2003 roku do roku 2020 średnia globalna temperatura spadnie o 1.5°C! Możemy wykorzystać poprzednie wykresy do pokazania tej prognozy.

Warto zauważyć, że przy gigantycznym ochłodzeniu prognozowanym przez D. C. Archibalda, ochłodzenie prognozowane pierwotnie przez Easterbrooka wydaje się kompletnie nieistotne, wręcz niezauważalne. I oczywiście wiemy też, że w serii pomiarowej nie ma nawet śladu ochłodzenia.

Podobnie, jak gigantyczne było prognozowane ochłodzenie, gigantyczny jest też błąd owej prognozy. Sięga on obecnie 1.3 – 1.4°C. I o ile o prognozach prof. Easterbrooka możemy zwyczajnie powiedzieć, że się „nie sprawdziły”, to w przypadku prognoz Davida Archibalda byłoby to dużym eufemizmem. Błąd tej prognozy możemy chyba jedynie porównać do przypadku, w którym ktoś prognozuje falę mrozu, a otrzymuje falę upałów. Staje się powoli jasne, że prognozy klimatycznych negacjonistów wysuwane na początku bieżącego wieku nie miały nic wspólnego z rzeczywistością, co więcej nie miały podstaw naukowych. Wyciąganie wniosków z pięciu wybranych stacji (przy czym istnieje wysokie ryzyko, że wybrane były one specjalnie pod tezę) musiało się skończyć tak, jak na powyższym wykresie.

Richard Lindzen

Lindzen to jeden z nielicznych fizyków podważających antropogeniczne przyczyny globalnego ocieplenia. W 1989 r. stwierdził on, iż „osobiście uważa, że prawdopodobieństwo że w nadchodzącym stuleciu ocieplenie związane z gazami cieplarnianymi osiągnie wartości porównywalne z naturalną zmiennością klimatu jest małe„. Oznacza to, że ocieplenie związane z emisją tychże gazów nie powinno wg Lindzena przekroczyć 0.3°C/100 lat. Oczywiście, jak widzimy na zaprezentowanych wyżej wykresach, jest ono sporo większe.

Porównanie prognozy Hansena (1988) i rzeczywistych danych pomiarowych. Dodano prognozę opartą o twierdzenia R. Lindzena. Źródło: Skeptical Science.

 

John McLean

W okolicach roku 2010 ów pan zasugerował, iż w związku z ujemną fazą ENSO (La Niña) średnia temperatura globalna spadnie do poziomu najniższego od 1956, a być może i wcześniej. Oczywiście jak wiemy, nic takiego nie miało miejsca. Prognoza oparta była o pracę „Influence of the Southern Oscillation on tropospheric temperature” (McLean, Freitas, Carter 2009) w której co prawda słusznie wskazano związek ENSO ze zmiennością temperatury globalnej w krótkich skalach czasowych, ale jednocześnie wysunięto wniosek,  który absolutnie z tej pracy nie wynikał:

Finally, this study has shown that natural climate forcing associated with ENSO is a major contributor to variability and perhaps recent trends in global temperature, a relationship that is not included in current global climate models.

Ponieważ wskaźniki związane z ENSO (np. wzmiankowane w pracy SOI) spadły w 2011 do bardzo niskich poziomów, na tej podstawie i na podstawie błędnych wniosków McLean wysunął prognozę, która się nie sprawdziła, bo się sprawdzić nie mogła.

To tylko parę przykładów z prognozowanych „globalnych ochłodzeń”, które ostatecznie nie doszły do skutku. Cechą charakterystyczną jest tutaj późniejsze przesuwanie prognozowanego startu ochłodzenia w czasie – w sytuacji gdy w sposób oczywisty do ochłodzenia nie doszło (nie wskazuje na to żadna seria pomiarowa). Można na przykład odnaleźć prezentację prof. Easterbrooka z 2017,  w której opowiada on dokładnie te same historie, co 10 lat wcześniej i całkowicie „przypadkowo” na wykresach nie widać ostatnich najcieplejszych lat, urywają się one w bardzo wygodnym dla Easterbrooka miejscu. Dokładnie te same wykresy możemy znaleźć w prezentacji trzy lata starszej, co jednoznacznie wskazuje, że nowsze dane były dla prof. Easterbrooka zwyczajnie niewygodne.

Powyżej: zrzut z prezentacji prof. Easterbrooka z 2014 r. Mimo, że mieliśmy już dodatkowe 13 lat danych, Easterbrook nadal ucina je w roku 2000, prezentując „prognozę” po tym roku.

 

Powyżej: kolejny zrzut z tej samej prezentacji. Ćwiczenie: na poniższym wykresie satelitarnej serii UAH wskaż rok 2012 i wyjaśnij, dlaczego w prezentacji z 2014 prof. Easterbrook uciął wykres właśnie na początku 2012.

 

 

1 Satelitarne serie pomiarowe w istocie nie mierzą temperatury przy powierzchni ziemi, tak jak termometry w seriach „naziemnych”. Zamiast tego oszacowują temperaturę dolnej troposfery w oparciu o pomiary (wykonywane za pomocą MSU/AMSU) strumienia promieniowania w różnych długościach fali. Wynik, czyli szacowana anomalia temperatury zależy od tego, w jaki sposób różne grupy zajmujące się tym tematem ją wyliczą. Problemem jest tu nie tylko dryf satelitów (które powinny się znajdować nad danym miejscem dokładnie o tej samej porze, ale z uwagi na zmiany parametrów orbity ta pora się zmienia), ale i fakt, że seria składa się z danych pochodzących z wielu różnych satelitów na których znajdują się instrumenty różnego rodzaju, przez co cała seria jest niejednorodna i wymaga wielu korekt. Parę lat temu satelitarna seria UAH została zaktualizowana do wersji 6.0, w której znacząco obniżono anomalie temperatury w stosunku do wersji 5.6. Po tym zabiegu seria ta charakteryzuje się najniższym trendem temperatury ze wszystkich serii pomiarowych, również innych serii satelitarnych. Nie radzimy przywiązywać się do tych danych, nie wiadomo bowiem jak będą wyglądać w kolejnych wersjach ;)

 

 

 

 

 

Co dalej z tym klimatem?

Co dalej z tym klimatem?

Ostatnio przez część prasy skojarzoną raczej z poglądami stricte prawicowymi przetoczyła się fala artykułów podważających nie tylko antropogeniczność globalnego ocieplenia, ale też w ogóle samo ocieplenie klimatu. Z tym drugim trudno w ogóle polemizować – fakt ocieplenia klimatu wskazują wszystkie serie pomiarowe, zarówno te wykorzystujące pomiary na stacjach meteorologicznych, jak i serie wykorzystujące pomiary satelitarne. Co do tezy pierwszej istnieje przytłaczająca ilość dowodów na to, że obserwowane ocieplenie ma przyczyny antropogeniczne: od stwierdzenia, że CO2 jest gazem cieplarnianym (co wiemy od ponad 100 lat), przez potwierdzenie że wzrost jego stężenia ma swoje źródła w antropogenicznych jego emisjach (co wiemy od nieco krótszego czasu dzięki pomiarom stosunku izotopów węgla 13C do 12C), stwierdzenie spadku pH oceanów, co wskazuje na silniejsze pochłanianie CO2 (co też wyklucza, że są one źródłem jego przyrostu w atmosferze), stwierdzenie że spadająca od końca lat 50. XX w. aktywność słoneczna nie mogła odpowiadać za obserwowany głównie od lat 70. wzrost temperatury globalnej, aż po pomiary promieniowania podczerwonego uciekającego w przestrzeń kosmiczną (którego ucieka coraz mniej). Jest tego zresztą  więcej.

Najlepszą znaną nam obecnie metodą sprawdzenia, jak zachowa się klimat w świetle cały czas rosnącego stężenia gazów cieplarnianych jest modelowanie klimatu naszej planety. Modele klimatyczne różnią się od znanych nam modeli prognozujących pogodę na tydzień w przód – w tych chodzi nam o dość dokładne symulowanie zmian stanu atmosfery w danej chwili. Wychodzimy z punktu początkowego – powiedzmy piątek 00UTC, a model ma za zadanie policzyć jaki dokładnie stan atmosfery otrzymamy we wtorek o 18UTC, bo akurat planujemy grilla. Oczywiście takie układy jak nasza atmosfera są mocno chaotyczne i prędzej, czy później model mający za zadanie policzyć jej stan w danej chwili zacznie mocno rozmijać się z rzeczywistością. Można sobie z tym trochę radzić sprawdzając spójność prognozy modelu – tworzy się serię prognoz (ensembles), z której każda ma nieco zaburzony stan początkowy, dzięki czemu symulujemy niepewność zarówno obserwacji asymilowanych do modelu, jak i samej asymilacji. Efekt tych zaburzeń będzie rósł w czasie, dzięki czemu prognozy zaczną się po pewnym czasie mocno rozjeżdżać. Punkt w którym się to dzieje stanowi granicę pewności prognozy (co nie znaczy, że prognoza poniżej tego punktu z pewnością się sprawdzi). Taki wykres ensembles mamy poniżej:

Wiązka (ensembles) prognozy temperatury na wysokości izobarycznej 850hPa dla Wrocławia (źródło: wetterzentrale.de)

Jak widzimy na powyższej prognozie z 19 lipca, 06UTC do 23 lipca wiązka jest spójna – prognoza (przynajmniej tego parametru) jest pewna. 24 lipca zaczyna się rozjazd poszczególnych realizacji tej wiązki i 26 lipca jest on już dość spory (de facto mówi o temperaturach maksymalnych powiedzmy od 25 do 33°C). Dalej jest coraz bardziej chaotycznie, chociaż jest to i tak przykład dość spójnej wiązki. Widzimy w niej, że temperatury będą raczej powyżej normy do 29 lipca, gdzie zaczyna się większa niepewność w tej materii. Z przebiegu średniej z tej wiązki można by zaryzykować stwierdzenie o możliwym (ale bynajmniej nie pewnym) ochłodzeniu na początku sierpnia.

Zarówno cel, jak i skale czasowe modeli klimatycznych są zupełnie inne. Modele takie liczone są na okres 100 (i więcej) lat. I bynajmniej nie interesuje nas tu konkretny stan atmosfery 23 czerwca 2051 roku. Jak sama nazwa wskazuje – interesują nas zmiany klimatu. Modele te dostają jako dane wejściowe nie tylko stan atmosfery w danej chwili – to jest akurat sprawa drugorzędna, bo z punktu widzenia klimatu nie ma kompletnie znaczenia czy 24 maja 2019 było akurat ciepło, czy zimno. Za to interesuje nas to co wpływa na klimat, czyli przede wszystkim zmiany tzw. wymuszenia radiacyjnego co oznacza tak naprawdę zmiany w bilansie energetycznym naszej planety. Zmiany te mogą być zarówno naturalne (np. zmiany aktywności słonecznej), jak i sztuczne (emisja aerozoli, czy w końcu gazów cieplarnianych – GHG). Model dostaje na wejście zarówno stan obecny (i historyczny, jeśli akurat symulacja ma za zadanie sprawdzić jak model radzi sobie z odwzorowaniem klimatu ubiegłego wieku) tych wymuszeń, jak i prognozowany stan przyszły. Oczywiście tu jest pierwsze źródło niepewności: nie wiemy, jaka będzie dokładnie aktywność słoneczna w następnych dekadach, ani nie wiemy jak dużo gazów cieplarnianych wyemitujemy. Z tym drugim problemem możemy poradzić sobie tworząc odpowiednie scenariusze. I tak w przypadku eksperymentów CMIP5 mieliśmy różne scenariusze emisji gazów cieplarnianych: skrajny RCP 8.5, w którym wymuszenie radiacyjne związane z emisją GHG sięga 8.5 W/m2, czy skrajny z drugiej strony RCP 2.6, w którym ludzkość zdecydowała się mocno ograniczyć emisje. Mamy również prognozy przyszłej słonecznej irradiancji – możemy je znaleźć na stronie Climate Explorer w odnośniku CMIP6 (dotyczącego modeli, których wyniki będą omówione w kolejnym raporcie IPCC). Wygląda ona tak:

Jak widzimy prognoza raczej nie wskazuje na powrót wysokiej aktywności słonecznej z XX w., ale ta ma być średnio wyższa, niż w wieku XIX. Jest to jednak sprawa drugorzędna – poprzednie analizy wskazały, że nawet pojawienie się skrajnie niskiej aktywności słonecznej (takiej jak w minimum Maundera) nie wpłyną znacząco na ocieplenie związane z emisją GHG.

Biorąc pod uwagę wszystkie te przyszłe wymuszenia model klimatyczny ma za zadanie przedstawić odpowiedź systemu klimatycznego na ich zmianę. A te odpowiedzi pojawiają się w wieloletnich, wręcz dekadowych skalach czasowych, nie zaś w perspektywie tygodnia. Nonsensem jest więc wątpienie w wyniki modeli klimatycznych opierając się tylko i wyłącznie na ograniczeniach modeli prognozujących pogodę. Można się tu posłużyć następującą analogią: mamy kostkę do gry. Symulujemy sześć tysięcy rzutów i sprawdzamy rozkład wyników. Jeśli kostka jest uczciwa, to przy tej liczbie losowań rozkład wyników będzie równy. Nie co do pojedynczych wartości oczywiście, ale spodziewamy się na przykład 991 jedynek, 1009 dwójek, 986 trójek, 1010 czwórek i tak dalej. Jeśli wykonamy kolejne 6000 rzutów tą samą kostką, tym razem wypadnie 1005 jedynek, 995 dwójek i tak dalej. Zasadniczo wyniki będą podobne. Możemy wykonać jeszcze dziesiątki takich eksperymentów i otrzymamy to samo. Ale będzie pewna różnica – o ile wynik statystyczny będzie ten sam, to poszczególne wyniki rzutu w każdym eksperymencie będą zupełnie odmienne. W eksperymencie 34 między rzutami 100 a 110 mogą nam wypaść 1,5,4,1,1,3,5,6,6,2. W eksperymencie 154 w tym samych numerach rzutów wypadnie 3,3,4,2,2,1,5,6,5,2. Kolejność wyników zupełnie inna, ale efekt statystyczny ten sam.

A teraz oszukajmy kostkę w ten sposób, że szóstka będzie wypadała 20% częściej niż pozostałe liczby. Oczywiście, jeśli teraz powtórzymy eksperyment, otrzymamy zupełnie inny rozkład wyników, wynik statystyczny każdego eksperymentu będzie z wyraźną (20%) korzyścią dla szóstki. Ale i tym razem poszczególne wyniki w każdym eksperymencie będą się różnić, tyle że nie ma to dla nas żadnego znaczenia – liczy się wynik ostateczny. Podobnie jest w modelach klimatycznych – wynik pojedynczego rzutu kostką to pogoda. Oszukanie kostki to zmiana wymuszenia radiacyjnego. Wynik eksperymentu to odpowiedź systemu na zmianę wymuszenia. I tak samo, jak w przypadku rzutów kostką, nie interesują nas kolejne wyniki tego eksperymentu. Interesuje nas wynik, jakim jest docelowa odpowiedź systemu klimatycznego na sumę zmian wszystkich wymuszeń radiacyjnych. Nie istotne jest więc pytanie, czy maj 2065 będzie ciepły, czy zimny, a raczej: jak zmieni się klimat  w latach 2050-2080. I podobnie, jak przy rzutach kostką, każdy model odpowie na to pytanie, ale też każdy model poda w wyniku inną anomalię maja 2065, nawet jeśli odpowiedź na pytanie o zmianę klimatu będzie identyczna.

A nie będzie. Klimat jest (jak się pewnie  domyślacie) o wiele bardziej skomplikowany, niż kostka do gry. Zmiany wymuszeń radiacyjnych w tak skomplikowanym systemie prowadzą do wielu złożonych interakcji. Jak się zachowa ocean, ile dodatkowych gazów cieplarnianych zostanie wyemitowane z topniejącej wiecznej zmarzliny? Co się stanie, gdy lasy zaczną przesuwać się na północ? Co się stanie z Prądem Zatokowym w wyniku zmian zasolenia północnej części Atlantyku? Pytań jest o wiele więcej. Nowoczesne modele klimatu muszą uwzględniać wszystkie te aspekty i każdy radzi sobie z tym inaczej. I tu dochodzimy do jedynego podobieństwa między prognozowaniem pogody a modelowaniem przyszłych zmian klimatu: również tutaj wykonuje się wiele symulacji w ramach zadanych zmian wymuszeń radiacyjnych. Tym razem nie chodzi tylko o perturbacje w ramach samego modelu (chociaż też), ale pokazanie jak sobie z tym radzą różne modele. I w wyniku również otrzymujemy wiązkę prognozy, tym razem dotyczącą zmian klimatu. Ponieważ liczba tych symulacji w ramach założonego scenariusza zmian wymuszenia radiacyjnego jest spora, możemy z dużą pewnością powiedzieć, że ostateczny wynik będzie się zawierał między realizacjami skrajnymi, a najpewniej będzie zbliżony do średniej z nich.

I tu dochodzimy do pytania tytułowego: co dalej? Mieliśmy tu na myśli nie klimat globalny, lecz raczej  nasze podwórko. W tym celu prześledziliśmy zmiany temperatury prognozowane w Polsce wg wyników projektu EURO-CORDEX. Wyniki te można pobrać w postaci plików NetCDF na przykład ze strony Climate Explorer. Obejmują one zarówno część historyczną (symulacje przy zadanym poziomie wymuszeń radiacyjnych od 1951), jak i projekcje do roku 2099. Na początek weźmiemy scenariusz, w którym emisje gazów cieplarnianych nie tylko pozostają na obecnym poziomie, ale i rosną, czyli RCP 8.5. Nie robimy żadnych ograniczeń w emisjach, hulaj dusza. Wygląda to tak:

Na szczęście, o ile do 2014 szliśmy ewidentnie ścieżką RCP8.5, o tyle w latach 2015-2017 wzrost ten został nieco ograniczony. Wygląda na to, że przy zastosowaniu obecnej polityki, skończymy gdzieś między RCP6.0 a RCP8.5. W obecnej sytuacji nie jesteśmy chyba w stanie liczyć na nic więcej, niż RCP4.5.

Ograniczymy się tu (początkowo) też do czasu, do którego pewnie większość z nas powinna statystycznie dożyć, czyli połowa tego wieku. Wyniki EURO-CORDEX dla tego scenariusza emisyjnego i dla tego przedziału czasowego dla Polski wyglądają następująco:

Wykres przedstawia 11. letnią średnią ruchomą anomalię temperatury. Pogrubiona czerwona linia to obserwacje (Poltemp 1.0H6). Jasny szary obszar to zakres między 5 a 95 percentylem wszystkich realizacji w ramach tego eksperymentu (jest ich 18, numerowane od 0 do 17). Ciemniejszy obszar to 50% wszystkich realizacji wokół średniej (25 – 75 percentyl). Wyróżniliśmy tu trzy ciekawe przebiegi: Ensemble 8, który wydaje się najbardziej zbliżony do rzeczywistości, Ensemble 3, który prognozuje w najbliższym czasie dalsze szybkie ocieplenie i Ensemble 15, który sugeruje ochłodzenie klimatu w Polsce, będące tuż za rogiem. Niezależnie od przebiegu, każda z tych realizacji wskazuje na postępujące (wolniej, lub szybciej) ocieplenie klimatu. Ensemble 15 jest tu jedną z najchłodniejszych realizacji, przy czym wydaje się że najbardziej kluczowe dla tego „chłodu” jest właśnie nadchodzące wg niej ochłodzenie w kolejnej dekadzie.

Ensemble 8, RCP 8.5

Ta realizacja najlepiej odzwierciedla dotychczasowy przebieg temperatur w latach 1951-2019. Do okolic 2065 roku nie jest to też realizacja skrajna.

Wadą tej realizacji jest mniejsza wariancja anomalii miesięcznych, niż miało to miejsce w rzeczywistości w latach 1951-2018. Oznacza to, że symulowane anomalie miesięczne są bardziej zbliżone do średniej, brakuje anomalii skrajnych, co widać na poniższym rozkładzie:

Mamy więc przykład realizacji, która chociaż doskonała pod względem przebiegu wartości średnich, nieco rozbiega się z rozkładem anomalii poszczególnych miesięcy w stosunku do sytuacji rzeczywistej. A jak te anomalie wyglądają? Poniżej przykład roku 2019.

Widzimy tu chłodny styczeń (ale w granicach rozsądku, taki styczeń jak najbardziej ma prawo się zdarzyć), chłodny maj i gorący czerwiec (zbieżność z rzeczywistością przypadkowa). Ostatecznie rok 2019 w tej realizacji kończy się anomalią +0.90K – również jak najbardziej normalną dla naszych czasów. Mamy tu jeszcze wiele zbieżności i wiele różnic. Lata 2002-2006 są chłodne (wszystkie). Istotnie w tym okresie mieliśmy parę chłodnych zim i był to czas ochłodzenia po ekstremalnie (wówczas) ciepłym roku 2000. Rozkład symulowanych anomalii jest jednak nieco inny – mroźnych zim tu mało, za to pojawiają się chłodne lata i wiosny. Udaje się natomiast ocieplenie w latach 2007-2009 i częściowo chłodniejszy okres 2010-2013. Rok 2012 jest tu ostatnim z anomalią roczną poniżej średniej z lat 1981-2010. Rekord ciepła pojawia się w 2015 i znowu przypadkowo tak było. Różnica polega na tym, że o ile w rzeczywistości ciepło rozłożyło się wówczas na lata 2014 i 2015, o tyle tutaj mamy pojedynczy wyskok roku 2015 z anomalią równą +2.21K. Najbardziej anomalna jest tu wiosna: marzec i maj powyżej +5K. W kolejnych latach anomalie roczne zawierają się w zakresie 0.1 – 1.7K. Rekord z 2015 bity jest dopiero w roku 2040: +3.1K. Można sobie zadać pytanie, czy jeśli taki przebieg anomalii zdarzyłby się istotnie, to w 2039 ktoś podważałby fakt ocieplenia, skoro ostatni rekordowo ciepły rok zdarzył się 24 lata temu. Zapewne tak.

Rok 2040 jest w tej serii bardzo smutnym rokiem. O ile do tej pory sezony letnie nie odbiegały znacząco od tego, do czego jesteśmy przyzwyczajeni, o tyle pod koniec lat 30. XXI w. pojawia się w tej realizacji duże ocieplenie. Pojawiają się miesiące letnie z anomaliami, które dla nas są obecnie nie do wyobrażenia.

O ile takie wartości anomalii dodatnich w okresie letnim do tej pory się nie pojawiały, nagle zaczynają pojawiać się stosunkowo często – kolejna podobna anomalia pojawia się w sierpniu 2049, w lipcu 2053 anomalia przekracza +6K, a sierpnia +5K. W 2058 czerwiec przekracza +5K, a lipiec +7K. W 2064 lipiec osiąga +8.4K. jest to zmiana nagła, wręcz skokowa. Sytuacje, które do tej pory nie miały miejsca, pojawiają się raz, a potem – jakby ktoś odkręcił jakiś kurek – już nas nie opuszczają. Niepokojąco przypomina to to, z czym mamy do czynienia obecnie, w znacznie jednak mniejszej skali, na przykład w przypadku średnich temperatur rocznych wyższych od 10.0°C, które przed rokiem 2000 w zasadzie nie występowały (poza wyjątkowym 1934). W tej realizacji koniec lat 30. XX w. (mniej więcej za 20 lat) jest przełomowy.

Końcówka wieku w tej realizacji to nieustający letni horror. Anomalie przyjmują wartości wręcz absurdalne, ale nie niemożliwe. W Europie zdarzył się już przypadek anomalii letniej zbliżonej do +10.0K w okresie 30-dniowym. Było to w 2010 r. w Moskwie, gdy średnia ruchoma temperatura za 30 dni osiągnęła na przełomie lipca i sierpnia 27.7°C. W tej realizacji jest jednak gorzej, znacznie gorzej. Pierwsza anomalia letnia > 10.0K występuje w 2086 i skacze od razu na +12.5K, co przekłada się na średnie temperatury miesięczne w okolicy 30.0°C, a to oznacza przeciętną średnią temperaturę maksymalną na poziomie 37°C (skaczącą od 30°C w chłodniejszych dniach do 42 – 43°C w najgorętszych). Tak wygląda w tej realizacji lato, jeśli podążymy scenariuszem RCP8.5.

Zima nie jest tak ekstremalna. Przede wszystkim nie pojawiają się tak wysokie anomalie dodatnie, co wynika najpewniej z faktu, że aby styczeń miał anomalię +10.0K, musielibyśmy mieć trwającą cały miesiąc cyrkulację z kierunków W/SW. Pojawienie się nad nami jakiejkolwiek blokady wyżowej zimą automatycznie prowadzi do ochłodzenia. Jeszcze w połowie wieku i później pojawiają się miesiące mroźne, a nawet bardzo mroźne:

Wygląda więc na to, że łzawe historie niektórych portali o tym, że nasze dzieci czy wnuki nie będą już lepić bałwanów, można włożyć między bajki. Śnieg i mróz nie opuszczą nas całkowicie w zasadzie do końca wieku, zima będzie jednak najczęściej przypominać bardziej dość ciepły marzec, niż to, co mamy obecnie.

Poniżej: zmiana rozkładu częstości anomalii miesięcznych w tej realizacji.

Ensemble 3, RCP 8.5

Ta realizacja charakteryzuje się bardziej zbliżonym rozkładem częstości anomalii w stosunku do obserwacji, jednakże pokazuje też mało prawdopodobne anomalie ujemne w okresie letnim przed rokiem 2015.

Tak niska anomalia temperatury lipca nie pojawiła się w całej serii historycznej od 1781 r. Wymagałaby średniej temperatury lipca spadającej w południowo-wschodniej Polsce poniżej 12.0°C, taka sytuacja wydaje się mało prawdopodobna. Dużo zdradza rozkład anomalii ograniczony do lipca:

Podobnie ma się rzecz od maja do sierpnia i należy mieć to na uwadze. Realizacja ta dodatkowo pokazuje, że w najbliższym czasie miałoby dojść do silniejszego ocieplenia – anomalia roczna już w 2024 sięga +3.2K względem okresu referencyjnego 1981-2010. Pierwsze ekstremalnie ciepłe lato pojawia się tu również w 2024 – należy jednak pamiętać co model ten robi z wariancją miesięcy letnich.

Gwałtowne ocieplenie lata pojawia się i w tej realizacji, następuje to jednak 9 lat później, niż w Ensemble 8.

Nawiasem mówiąc, ciekawy zwrot akcji na Suwalszczyźnie.
Również i tutaj pod koniec okresu pojawiają się absurdalnie ciepłe miesiące letnie, przy czym ich zmienność jest olbrzymia i raczej nierealistyczna.

Rozkład anomalii w poszczególnych okresach:

Ensemble 15, RCP 8.5

Ten przebieg jest ciekawy o tyle, że zapowiada czające się tuż za rogiem ochłodzenie klimatu naszego kraju. Uznajemy to jednak za mało prawdopodobne, gdyż już jedno podobne ochłodzenie między latami 80. XX w. (które w tej realizacji są ciepłe) a latami 90. XX w. nie doszło do skutku. Rozkład wszystkich anomalii miesięcznych w stosunku do rzeczywistości jest spójny z obserwacjami, jednakże przebieg średniej anomalii mocno odbiega od rzeczywistego.

Nadchodzące ochłodzenie miałoby być wynikiem serii bardzo zimnych zim w latach 2021-2025. Anomalia każdej z nich spada poniżej -2K, a najzimniejszą jest zima 2022/23. Nie jest to takie nieprawdopodobne, jak mogłoby się wydawać, jednakże model ten sugerował już ciekawsze rzeczy, które ostatecznie do skutku nie doszły:

Zima 2022/23 wygląda tu następująco:

Najchłodniejszy rok to 2024 z anomalią -1.42K względem okresu referencyjnego 1981-2010. Kończy on jednocześnie 4. letni okres zimny – po nim anomalie ponownie pną się do góry i już rok 2025 jest bardzo ciepły. Zwracamy uwagę na te wyniki, bo taka sytuacja w ocieplającym się klimacie jak najbardziej ma prawo się zdarzyć. Ostatecznie i ta realizacja pokazuje silne (choć słabsze, niż realizacje inne) ocieplenie klimatu. Ostatni chłodny rok wypada tu w 2031 roku.

Na powyższym rozkładzie widzimy, że już obecnie wyniki tej realizacji trochę odstają od rzeczywistości.

Wygląda na to, że najbardziej spójna z obserwacjami (mimo zaniżonej wariancji) jest realizacja 8, omówiona na początku. Niestety jest to też realizacja, w której pod koniec lat 30. XXI w. następuje silne ocieplenie klimatu.

Szansa na lato gorące będzie rosnąć. Poniżej przypadki lata ze średnią anomalią > 3.0K (obecny rekord ok. 2.1K) we wszystkich realizacjach.

Jak widzimy w wielu realizacjach (opis na osi Y jest przesunięty – „nasza” realizacja 8 jest tu opisana jako 9) od dekady 2041-2050 takie sytuacje są częste. Tylko parę realizacji jest znacznie łagodniejszych. Poniżej to samo dla anomalii > 4.0K.

Tu również liczba przypadków rośnie. Takie lata należy już uznać za skrajnie upalne. Poniżej lata > 5.0K.

Na szczęście żaden z modeli nie prognozuje wystąpienia takiego lata przed rokiem 2050, jednak w niektórych przypadkach stają się one „nową normą” po 2080. Lato takie prędzej, czy później pojawia się w każdej realizacji.

W ponad połowie realizacji zimne lato (<= -1.0K) nie pojawia się już w ogóle. Jednak część z nich dopuszcza taką możliwość.

Jak widać jedna z nich wrzuca takie lato nawet pod koniec lat 50. XXI w, mamy też dwa przypadki z latem wyjątkowo zimnym na początku lat 40.

Poniżej: średnie anomalie sezonu zimowego (określonego jako styczeń-marzec).

Poniżej: średnie anomalie sezonu wiosennego (marzec-maj):

Poniżej: średnie anomalie sezonu letniego (czerwiec-sierpień):

Poniżej: średnie anomalie sezonu jesiennego (wrzesień-listopad)

Poniżej: średnie anomalie roczne:

Wygląda więc na to, że jeżeli będziemy dalej podążać tą ścieżką emisji GHG, to:

  • Mimo ocieplenia klimatu nadal będą zdarzać się okresy chłodniejsze – zarówno zimą, jak i latem. Z biegiem lat będą one rzadsze
  • Niewykluczone, że zdarzy się kilka chłodniejszych lat z rzędu, najprawdopodobniej będzie to związane z ochłodzeniem w sezonie zimowym
  • Niektóre realizacje (niestety również ta najbardziej zbliżona do obserwacji) wskazują na możliwość gwałtownego ocieplenia pod koniec lat 30. XX w
  • Niektóre realizacje (niestety również ta najbardziej zbliżona do obserwacji) wskazują na możliwość pojawienia się skrajnych i niebezpiecznych fal upałów już za 20 lat
  • Najprawdopodobniej lata 20. XXI w. będą ostatnimi w których pojawią się ujemne anomalie roczne
  • W latach 2021-2030 liczba anomalii rocznych < 0.0K względem okresu referencyjnego 1981-2010 (z wszystkich realizacji) wynosi 26 (14.4%), co oznacza, że powinniśmy spodziewać się co najmniej jednego roku poniżej średniej
  • W latach 2031-2040 liczba anomalii rocznych < 0.0K względem okresu referencyjnego 1981-2010 (z wszystkich realizacji) wynosi 12 (6.7%), co oznacza, że istnieje duża szansa, że w tej dekadzie taki rok się nie pojawi
  • W latach 2041-2050 liczba anomalii rocznych < 0.0K względem okresu referencyjnego 1981-2010 (z wszystkich realizacji) wynosi 2 (1.1%)
  • W latach 2051-2060 liczba anomalii rocznych < 0.0K względem okresu referencyjnego 1981-2010 (z wszystkich realizacji) wynosi 3 (1.7%). To ostatnia dekada w której takie lata pojawiają się w którejkolwiek realizacji.

 

 

Idzie zimno #662.607004E-2

Idzie zimno #662.607004E-2

Zimne wiatry z północy i innych równie parszywych kierunków przyniosły do naszego kraju ochłodzenie. Po czerwcowej spiekocie wielu odetchnęło z ulgą, część z niesmakiem zauważyła, że zamiast normalnego lata teraz wraca jesień. Najbardziej jednak podekscytowani przebudową sytuacji barycznej nad Europą byli tzw. „sceptycy globalnego ocieplenia”1. Otóż po czerwcowych rekordowych upałach, które wymusiły na nich zwiększenie aktywności w portalach społecznościowych (ktoś musiał prostemu ludowi wytłumaczyć, że rekordy nie mają nic wspólnego z globalnym ociepleniem i kiedyś też było ciepło), nadarzyła się doskonała sytuacja, aby się odegrać: zrobiło się zimno. Szczególnie na północy, gdzie temperatury w ciągu dnia spadały grubo poniżej 15°C. Nieco inaczej było na południu, gdzie przedwczoraj notowano nawet 30°C, średnio zimno bym powiedział.

Tak, czy siak, nastąpiła wśród „sceptyków” szybka zmiana narracji z „to nic nie znaczy” na „za oknem zimno, gdzie globalne ocieplenie!”. Pozwoliło to również na nabijanie się z Ingi Zasowskiej, która prowadzi wakacyjny strajk klimatyczny. Jeszcze zmarznie dziewczyna. Pan Tomasz Sommer, redaktor strony „Najwyższy Czas!” (dziennikarz, redaktor, pisarz, historyk, 12 napisanych książek, jeden film) z pewnym opóźnieniem reaguje na kwestie rekordów zapytując o to, kto i gdzie mierzył w czasie rozbiorów, skoro wówczas nie było Polski? Oczywiste jest przecież dla pana Tomasza to, że skoro Polski nie było, to i Polacy i wszystkie większe polskie miasta gdzieś magicznie zniknęli:

Bardziej bystra była niejaka Katarzyna Treter-Sierpińska, która w trosce o zdrowie psychiczne dziecka zabroniła nam informować Ingę Zasowską o tym, że jest zimno². Doceniamy.

 

Po odpowiedziach pani Katarzyna najwyraźniej poczuła się zwiedziona. W sukurs idzie tu, mając za broń swoją doskonałą narrację, prof. dr hab Grzegorz Gładyszewski z UMCS (mamy tu generalnie wszystko: sekta, której nie da się zwalczyć, bo promotorzy i beneficjenci grantów i tak dalej).

Brawo profesorze Gładyszewski, zarówno Uniwersytet Marii Curie-Skłodowskiej w Lublinie, jak i sama Skłodowska z pewnością są z pana dumni :)

Aktualizacja:
Niniejszym prostujemy: prof. Gładyszewski nie jest pracownikiem UMCS, ino Politechniki Lubelskiej. Tym samym ani UMCS, ani Skłodowska już nie muszą być dumni :)

Ale kwestię ciągłości polskiego narodu i wątpliwości w ową ciągłość, którą najwyraźniej prezentuje tu nam pan Tomasz „Koniec świata z godzinę zobacz video!” Sommer3, pozostawmy może osobom w tej materii kompetentnym (chociaż osobiście uważam, że ks. Jowin Fryderyk Alojzy Bystrzycki herbu Bończa, który mierzył temperatury w Warszawie pod koniec XVIII w. jak najbardziej Polakiem był4). Nas bardziej interesuje: dlaczego jest zimno, skoro globalne ocieplenie. I co ma ze sobą zrobić Inga Zasowska5.

Rozważmy ten problem. „Klimatystyczne fakty” (dziękujemy panie Tomaszu :* ) mówią nam, że średnia globalna temperatura wzrosła w ciągu ostatnich 100 lat o ok. 1.0°C. Dla jednych sporo, dla innych nie wiele. W tej skali czasowej jest to jednak wzrost gigantyczny. Te same „klimatystyczne fakty” mówią nam, że na lądach temperatura rośnie szybciej, niż nad oceanami. Pewnie z uwagi na jakąś tam pojemność cieplną oceanów, ale kto by klimatystów słuchał. Kolejnym oczywistym faktem jest, że Polska leży na lądzie6, więc powinno się tu ocieplać nieco szybciej, niż wynika to z trendu globalnego. I rzeczywiście: polskie klimatystyczne fakty7 dokładnie na to wskazują. No więc, skoro się ociepla, dlaczego jest zimno?

Cofnijmy się ponad 40 lat. Jest rok 1975, który ma to szczęście być najcieplejszym rokiem w latach 1951-1980. Średnie temperatury obszarowe w Polsce wyglądają tak:

Wyjątkowo ciepła zima (szczególnie styczeń), 206 dni ciepłych (w stosunku do normy 1981-2010) , 159 dni zimnych. Całkiem niezły rok dla lubiących ciepłe zimy i zwykłe lato (z bonusem w postaci zimnego przełomu maja i czerwca). Widzimy tu, jak kiedyś wyglądał przebieg temperatur w najcieplejszym roku. Można się pokusić o pokazanie tego roku w klimacie trochę cieplejszym, powiedzmy o 1.3°C. Dodajmy więc do wszystkich temperatur z 1975 1.3°C8.

Jak widać jest zdecydowanie cieplej. Liczba dni ciepłych wzrosła do 260, zimnych spadła do 1059. Mimo to widzimy, że mimo iż temperatura jest ewidentnie o 1.3°C wyższa, niż w oryginalnym roku 1975, nadal mamy dni zimne. A nawet rekordowo zimne. Widoczne zmiany temperatury dobowej w roku 1975 powinny osobie myślącej w sposób racjonalny uzmysłowić, że ich zmienność jest znacznie większa, niż tempo ocieplenia się klimatu. W najzimniejszych dniach było nawet 10°C chłodniej, niż wynosi obecna norma, w jaki niby sposób ocieplenie klimatu o 1.3°C miałoby je wyeliminować?

Tak zaś wyglądał rok 2018. Rekordowo ciepły rok w całej serii pomiarowej i (być może) w serii 1991-2020.

Jak widzimy, najcieplejszy rok ostatnich 30 lat jest zbliżony do najcieplejszego roku z lat 1951-1980, ale tylko pod warunkiem, że do tego ostatniego dodamy ponad jeden stopień10. I tak, jak należałoby się tego spodziewać, nadal mimo ocieplenia klimatu mamy dość długie okresy chłodne, dokładnie tak jak w sztucznie ocieplonym o 1.3°C roku 1975. Już te wykresy powinny uświadomić nam, że mimo postępującego ocieplenia klimatu możemy (a nawet powinniśmy) obserwować wiele chłodniejszych okresów, szczególnie jeśli używamy zmiennego okresu referencyjnego. Zmienny okres referencyjny w jakiś sposób odzwierciedla ludzką percepcję klimatu – na początku lat 80. XX w. Polacy byli przyzwyczajeni do klimatu panującego w ostatnich 10-20 latach. Wówczas, jako odniesienia do panujących temperatur używano okresu referencyjnego 1951-1980. Obecnie mało kto pamięta jak przeciętnie wyglądało lato w latach 70. XX w (no ale jeśli już pamięta, to z pewnością tylko te okresy, które były miłe)12, natomiast dość dobrze orientuje się w temperaturach panujących w ostatnich 10 latach. Obecnie używamy okresu referencyjnego 1981-2010, a za dwa lata zmienimy go na 1991-2020. Tym samym taki zmienny okres referencyjny gwarantuje, że zawsze będziemy mieli dni zimne – zwyczajnie okres referencyjny będzie nam się przesuwał wraz z postępującym ociepleniem.

Ale przecież 1975 nie był przeciętnym rokiem dla okresu 1951-198013. Był to rok najcieplejszy w tym 30. leciu. Bardziej zbliżony do normy tamtych lat był rok 1972 – rok urodzin Tomasza Sommera14. Wyglądał on względem normy 1961-1990 tak:

Klasyczny normalny (może lekko powyżej średniej) rok dla tego okresu. 191 dni powyżej normy, 174 poniżej. Mocniej zarysowane ekstrema ujemne, niż dodatnie, dzięki czemu więcej jest rekordów zimna, niż ciepła.

Najbardziej pesymistyczny scenariusz RCP15 sugeruje, że średnie temperatury w Polsce pod koniec XXI w. będą o ok. 6°C wyższe16, niż w latach 1961-1990. Jak będzie zatem wyglądał wykres z roku 1972 w klimacie w którym wszystkie temperatury notowane w 1972 będą dokładnie 6°C wyższe? Otóż tak:

Może to być dla niektórych szokujące, ale nawet w klimacie cieplejszym o 6°C pojawia się okres zimny.  Średnie dobowe temperatury spadają poniżej -10°C. Notujemy 11 dni zimnych względem normy 1961-1990. Ale czy sama obecność chłodnych okresów oznacza, że klimat się nie ocieplił? Oczywiście nie. Okazuje się, że jeśli sprawdzą się najczarniejsze scenariusze sugerujące wzrost temperatury ponad 5°C, to i tak w naszym kraju będą się pojawiać epizody z temperaturami poniżej norm z XX w.

Nie bardzo wobec tego wiadomo, co mają dowodzić entuzjastyczne komentarze tzw. „sceptyków” globalnego ocieplenia względem ostatnich, chłodniejszych dni. Możemy tu zacytować Rafała Ziemkiewicza:

Prawdopodobnie tylko tyle, że pan Rafał Ziemkiewicz (i inni pytający dokładnie o to samo) niezbyt się orientuje w przebiegu i rozkładzie dobowych anomalii temperatury w Polsce. Nie bardzo wiemy w jaki sposób pan Rafał dochodzi do wniosku, że skoro obecnie jest zimno, to klimat się nie ociepla. Dla nas koncepcja ta niebezpiecznie przypomina tok myślenia, w którym jeśli 12 marca jest chłodniej, niż 12 lutego, to lato najpewniej nie nadejdzie17.

P.S.

Jeśli kiedykolwiek przyjdzie wam do głowy studiowanie na UMCS w Lublinie Politechnice Lubelskiej, miejcie na uwadze fakt, że pracuje tam człowiek uznający za warte podania dalej takie oto tweety.

 

1 Zwani również „sceptykami globalnego czegokolwiek”.

2 Dzieci w tych czasach są tak zepsute przez granie na konsolach, że widzimy tego efekty. Tylko #pcmasterrace.

3 Ta konkluzja Sommera doprowadziła nas do szokującego odkrycia, że urodzony w 1901 prymas Wyszyński nie jest Polakiem.

4 Jako i prymas Wyszyński.

5 Prawdopodobnie nic, chociaż sugerowałbym zatrudnienie adwokata. Jak donoszą środowiska zbliżone do prawicowych, jej protest może być plagiatem protestu Grety Thunberg.

6 Przeważnie.

7 Żródło: PIHM 1945-1972, IMGW 1973-2019.

8 No jasne, że tempo ocieplenia nie jest takie samo w każdej porze roku. Ale trzeba sobie jakoś życie ułatwiać, prawda?

9 No czy dla was to wygląda na ocieplenie klimatu? No fakt, dodaliśmy jakieś 1.3 stopnia do każdej temperatury dobowej, więc no tak jakby klimat się ocieplił o te 1.3 stopnia. No ale heloł – 105 dni zimnych? Nie wygląda to dla was trochę jak bullshit? I w ogóle czy można poznać nazwisko tego, co te temperatury dodawał, bo nie wydaje mi się żeby to było polskie nazwisko.

10 Wyjaśnienie dla Tomasza Sommera, Rafała Ziemkiewicz i Łukasza Warzechy11: to oznacza, że najcieplejszy rok w latach 1951-1980 był przeciętnie 1°C chłodniejszy, niż 2018. Słowo „przeciętnie” odnośnie klimatu i pogody11 wyjaśnimy na następnej lekcji.

11 Przykro nam, że z uwagi na strajk nauczycieli nie wyjaśniono ww. osobom różnicy między pogodą a klimatem.

12 Tu dość zabawne spostrzeżenie: najwyraźniej najbardziej te lata pamiętają ci, którzy wówczas się jeszcze nie urodzili.

13 Jak to nie był, przecież jest niemal dokładnie w środku! Mediana, heloł?

14 A był to dziwny rok, w którym rozmaite znaki na niebie i ziemi zwiastowały jakoweś klęski i nadzwyczajne zdarzenia.

15 Scenariusze RCP to tzw. Representative Concentration Pathways, czyli scenariusze tego ile gazów cieplarnianych wyemitujemy w przyszłości.

16 Co oznacza, że jeśli kiedyś w styczniu było +15°C to może być +21°C. Może i fajnie. Ale jednocześnie oznacza, że jeśli kiedyś w lipcu było +38°C, to może być +44°C. Chyba nie fajnie.

17 https://blog.meteomodel.pl/spisek/

 

Koniec czerwca

Koniec czerwca

Wiemy już, że końcowa anomalia temperatury powietrza w stosunku do okresu referencyjnego 1981-2010 zakończy się najprawdopodobniej wartością między +5.39 a +5.43K i będzie to zdecydowanie najcieplejszy czerwiec w historii pomiarów instrumentalnych (czyli od 1781 r). Nie ulega żadnej wątpliwości, że będzie on znacznie cieplejszy od czerwca 1811 – poprzedni rekord zostanie pobity o ponad 1.3K. Niektórzy o rekordzie przebąkiwali już na samym początku miesiąca, ale z pewnością nikomu nie śniło się, że zostanie on pobity z tak dużym zapasem.

Wg analizy Poltemp 1.0H6 przeciętny czerwiec (1981-2010) charakteryzuje się średnią temperaturą obszarową równą 15.95°C. Oznacza to, że w tym roku osiągnęła ona wartość około 21.35°C i była nieco wyższa, niż w sierpniu 2015 (21.17°C) i niższa od średniej lipca 2006 równej 21.79°C. Tegoroczny czerwiec ustawił się więc na drugim miejscu wśród najcieplejszych pod względem średniej temperatury obszarowej miesięcy w powojennej Polsce.

Dzisiaj kolejny (oczywiście ostatni) dzień upalny w czerwcu. Temperatury (model ICON) mogą osiągać 37°C (model GFS daje „zaledwie” 35°C), a nawet lokalnie 38°C i będą prawdopodobnie nieco niższe od tych notowanych w środę, 26 czerwca. W Słubicach notujemy obecnie 30.7°C – o około 0.7°C mniej, niż w środę w Poznaniu o tej samej porze (notowano tam maksymalnie 38.0°C).

 

 

POLTEMP 1.0H6

POLTEMP 1.0H6

Dzisiaj pojawi się nowa wersja serii Poltemp, oznaczona jako 1.0H6. Zmiany w stosunku do wersji poprzedniej:

  • Dodano dane ze stacji w Pułtusku. Z uwagi na silną niehomogeniczność usunięto dane sprzed 1961.
  • Dodano dane ze stacji w Lgocie Górnej
  • Przeprowadzono homogenizację danych ze stacji w Kłodzku (zmiana lokalizacji stacji w latach 70. XX w.)
  • Uzupełniono dane ze stacji Gdańsk-Rębiechowo (klimatologiczna) danymi ze stacji synoptycznej z tej samej lokalizacji (01.04.1993 – 31.12.1999). Oczywiście z zachowaniem metody wyliczania średniej dobowej charakterystycznej dla stacji klimatologicznych
  • Poprawiono dane ze stacji Szepietowo z dni 18-31 grudnia 1995 (regr. lin. z Białystok) i innych dni z lat 1991-1998
  • Poprawione dane ze stacji Borusowa z dni:
    6 – 13 maja 1998 (błędne dane z terminu wieczornego, np: https://meteomodel.pl/dane/historyczne-dane-pomiarowe/?data=1998-05-09&rodzaj=te&imgwid=250200230&dni=01&ord=desc )
    9 – 13 czerwca 1998
    7 – 8 września 1991
  • Nowa funkcja agregacji danych (skrypt R)
  • Nowa metoda krigingu: wynik agregacji danych (df1) jest poddawany interpolacji IDW (na bardzo rzadkiej siatce):grd <- as.data.frame(spsample(df1, „regular”, n=300))
    P.idw <- gstat::idw(VALUE ~ 1, df1, newdata=grd, idp=3.0)

    wynik idw jest zapisywany jako dodatkowe dane wejściowe do krigingu, które są później łączone z zagregowanymi danymi ze stacji:

    data_idw <- read.csv(dataf_idw,sep=”\t”, header=T)
    data <- read.csv(dataf,sep=”\t”, header=T)
    df <- rbind(data,data_idw)

    Kriging liczony jest na połączonych danych.

  • Z uwagi na zmienioną metodę krigingu (idw + kriging blokowy [DEM]) wyniki są nieco bardziej zbliżone do IDW, chyba że istnieje silna zależność wartości
    anomalii od wysokości.
  • Obliczenia dokonywane są na siatce kilometrowej
  • Rozdzielczość 4×4 km

Źródło danych administracyjnych:

Granice administracyjne


Data pobrania z CODGiK: 18-01-2019

Z uwagi na zmiany w liczbie stacji wchodzących do agregacji, zmieniły się  również szacowane wartości normalne dla średnich dobowych temperatur powietrza. Wartości te zostały policzone tylko dla okresu referencyjnego 1981-2010 i nie są liczone na bieżąco. Bieżące oszacowanie obszarowej średniej dobowej temperatury powietrza wynika z dodania obliczonej dla konkretnego dnia (np. 28 czerwca 2019) anomalii obszarowej (która wyliczona jest na podstawie danych ze stacji pomiarowych) do wyliczonej wcześniej średniej temperatury tego dnia w okresie referencyjnym. Przykładowo: wyliczono, że średnia obszarowa temperatura dobowa w dniu 28 czerwca  w latach 1981-2010 wynosi 17.18°C. Z danych ze stacji z dnia 28 czerwca 2019 wynika średnia anomalia obszarowa tej doby równa +0.29°C, a więc oszacowana obszarowa średnia dobowa temperatura powietrza w tym dniu to 17.18 + 0.29 = 17.47°C. Wartość ta nie jest więc wyliczona, jako średnia obszarowa z średnich temperatur dobowych ze stacji. Wynika to z faktu, że oszacowanie średniej temperatury obszarowej mocno zależy od doboru stacji. Brak danych ze Śnieżki w danym dniu może spowodować znaczne różnice w tym oszacowaniu. Z kolei anomalie temperatury są zwykle mocno skorelowane na dużym obszarze – ciepły dzień we Wrocławiu zwykle jest również ciepłym dniem w Poznaniu. Braki w danych znacznie mniej wpływają na wartości wyliczonej średniej obszarowej anomalii temperatury.

Powyżej: norma temperatury powietrza dla 28 czerwca.

Część danych w serii jest homogenizowana. Szczególnie dotyczy to takich stacji, jak Elbląg-Milejewo, Wrocław, Warszawa, Białystok. Dane ze stacji klimatologicznych w latach 1971-1995 zostały przeliczone ponownie przy użyciu obecnej metody wyliczania średniej dobowej temperatury powietrza w celu zachowania jednorodności.

Dane z serii 1.0H6 można znaleźć pod poniższym adresem:

https://meteomodel.pl/klimat/poltemp/1.0H6/

Obecnie są tam dostępne katalogi:

  • agg: zawiera agregację danych miesięcznych – pliki wejściowe do interpolacji danych miesięcznych
  • daily: zawiera wyliczone dobowe anomalie temperatury powietrza jako pliki png i rastry (tif)
  • monthly: zawiera wyliczone średnie miesięczne anomalie temperatury powietrza jako pliki png i rastry (tif) – będzie uzupełniony wieczorem
  • normals: zawiera wyliczone wartości normalne dla danych dni w okresie referencyjnym jako pliki png i rastry (tif)
  • trends: zawiera wyliczone średnie roczne dla kilkudziesięciu stacji wraz z trendem

Oraz pliki:

  • tseries-daily.txt: seria czasowa anomalii dobowych
  • tseries-normals.txt: wartości średnie w okresie referencyjnym 1981-2010

Dodatkowo później pojawią się pliki połączone z serią historyczną.

Poniżej: porównanie anomalii dobowej z 11 marca 2019 wg wstępnej analizy (po lewej) i ostatecznej.

Poniżej: porównanie anomalii dobowej z 16 kwietnia 2019 wg wstępnej analizy (po lewej) i ostatecznej.

 

Przykładowy skrypt R do czytania rastrów:

 

library(raster)
library(httr)

url <- "https://meteomodel.pl/klimat/poltemp/1.0H6/daily/tif/2019/04/anom.2019-04-30.tif"
tif <- tempfile(fileext='.tif')
httr::GET(url,httr::write_disk(path=tif))
r <- raster(tif)

pal<-c("#FFA0FF","#FE77FE","#E059FF","#C63DAF","#B51EA0","#8C0096","#7700B5","#4400D1","#0000FE","#0063FF","#00B5FF","#00D6FF","#CBFEFE","#FDFDFD","#30FF70","#4FFE4F","#B5EF1E","#DAFE00","#FEFE00","#FEDA00","#FFC600","#FFAA00","#FF7F00","#FF3F00","#FF0000","#D10033","#B50077","#CC00A0","#FF00B5","#FF8CB5","#FFA0FF")
pal <- colorRampPalette(pal)(24)
brk <- seq(-12,12,1)
levs=c(seq(from=-20, to=20, by=0.5))
labs <- sprintf("%.1f", levs)

plot(r, main=paste("Anomalia dobowa"),cex.main=1, xaxt='n', yaxt='n', col=pal,breaks=brk)
contour(r, levels=levs, labcex=1, labels=labs, add=T, drawlabels=T)

 

UWAGA! Dane zapisane w układzie lat-lon (epsg:4326) i nie przycięte do granic. Aby prawidłowo policzyć średnią obszarową należy zrobić reprojekcję rastra do siatki kilometrowej i przyciąć do granic Polski.

 

Podsumowanie wczorajszego dnia

Podsumowanie wczorajszego dnia

Oczywiście wszyscy doskonale już wiedzą, że najwyższą temperaturę maksymalną zanotowano na posterunku pomiarowym w Radzyniu (woj. lubuskie), gdzie wzrosła ona do 38.2°C i była najwyższa w czerwcu w historii obserwacji pomiarowych w Polsce.

Posterunek pomiarowy IMGW-PIB w Radzyniu

 

Informację też potwierdziło oficjalnie IMGW-PIB (zapraszamy do śledzenia profilu) za pomocą Twittera.

Okazuje się jednak, że polskie miasta położone nad samą granicą z Niemcami, mogły doświadczyć temperatury jeszcze wyższej, sięgającej nawet 39°C! Stacja Coschen, położona zaledwie 500 metrów od granicy z Polską odnotowała 38.6°C. Jeszcze goręcej było w Gubinie, gdzie niemiecka stacja położona ok. 350 metrów od Nysy odnotowała aż 39.2°C. Oczywiste jest, że temperatury notowane w odległym o około 400 metrów Gubinie nie mogły być znacząco różne. Niestety nie mamy tam stacji.

Proszę jednak pamiętać, że cytowane dane IMGW-PIB są nieostateczne. Pochodzą one z danych 10-minutowych, a nie z absolutnych Tmax stacji. Nie jest wykluczone, że absolutna temperatura maksymalna na stacji Radzyń była jeszcze o 0.1 – 0.3°C wyższa. Tak było w przypadku innych miesięcy na tej stacji. Nie mamy też jeszcze żadnych informacji ze stacji Ceber.

Ekstremalnie wysokie były też średnie dobowe temperatury powietrza. Wczoraj zamieściliśmy mapę z najwyższymi średnimi dobowymi odnotowanymi w czerwcu w naszym kraju, dziś już wiemy, że wiele z tych rekordów na obszarze Wielkopolski, Ziemi Lubuskiej, Dolnego Śląska, Kujaw, Mazowsza, Opolszczyzny i Śląska zostało pobitych, a niektóre wręcz – trudno znaleźć inne słowo – zmiecionych.

I tak, dotychczasowa najwyższa średnia temperatura dobowa w czerwcu w Zielonej Górze wynosiła 29.4°C, wczoraj osiągnęła ona 30.3°C – była to jednocześnie… najwyższa średnia dobowa temperatura w historii pomiarów na tej stacji! Wcześniejszy rekord wynosił 30.2°C i został odnotowany w 1994. Dotychczasowy rekord Wrocławia wynoszący 26.9°C (2016) został zmieciony z powierzchni ziemi – wczoraj odnotowano tu średnią temperaturę dobową równą 29.2°C. Mało brakowało, a i tu zostałby pobity rekord absolutny, ten należy do sierpnia 2015, kiedy średnia temperatura dobowa osiągnęła 29.4°C. Ta sztuka udała się za to w Poznaniu, gdzie średnia temperatura dobowa wyniosła wczoraj 30.0°C, zmiatając poprzedni rekord czerwca równy 27.5°C (i ten ustanowiony już w tym roku, równy 28.6°C). Była to jednocześnie najwyższa średnia dobowa temperatura notowana w całej historii pomiarów – pobity został dotychczasowy rekord równy 29.7°C z sierpnia 1992. Podobnie było w Słubicach, gdzie najwyższa średnia temperatura dobowa wynosiła dotychczas 29.4°C (1994). Wczoraj wzrosła ona aż do 29.8°C (poprzedni rekord czerwca 27.7°C). Rekord czerwca padł w Warszawie: 28.7°C. Do rekordu absolutnego zabrakło 0.6°C.

Zapewne można by podać jeszcze parę takich przykładów, pozostawiamy to jednak wam. Poniżej mapa wczorajszych średnich dobowych temperatur powietrza, ale uwaga! Są to średnie wyciągnięte wg metody synoptycznej, z ośmiu pomiarów w ciągu doby. Oficjalne dane ze stacji klimatologicznych będą się więc od tego różnić (przykładowo średnia temperatura dobowa w Zielonej Górze obliczona metodą synoptyczną to 30.3°C, metodą stosowaną na stacjach klimatologicznych to 30.1°C). Radzimy więc nie porównywać bezpośrednio średnich dobowych na stacjach klimatologicznych z mapą zamieszczoną wcześniej.

Tak wysokie średnie temperatury dobowe (przeciętna w Polsce 27.0°C!), jedne z najwyższych w historii obserwacji, przełożyły się oczywiście na skrajnie wysokie anomalie dobowe. Te przekraczały miejscami 12.0K, a najwyższą notowano w Zielonej Górze (12.9K).

Przeciętna anomalia obszarowa osiągnęła +10.55K i była jedną z najwyższych notowanych w sezonie letnim. Tylko raz notowano anomalię wyższą: 29 sierpnia 1992 było to +10.57K. Należy jednak pamiętać, że wartość wczorajszej anomalii dobowej obliczona została tylko z udziałem stacji synoptycznych. Po dodaniu stacji klimatologicznych ulegnie ona zmianie.

Poniższy wykres pokazuje, jak bardzo przestrzeliliśmy wczoraj dotychczasowe wartości maksymalne czerwca w latach 1951-2018.

Wiemy też już, że zdecydowanie lepiej poradził sobie z tymi warunkami model ICON, a kompletnie poległy modele UMPL4km (ICM) i model GFS. Dość zaskakująco, nawet model ECMWF nieco niedoszacował wczorajsze warunki termiczne. Ta obserwacja istotna może być  w stosunku do prognozowanego drugiego uderzenia upału. Wszystko wskazuje na to, że przyniesie on również bardzo wysokie temperatury, jednakże o około 1°C niższe od wczorajszych.

Dość niespodziewanie mamy więc do czynienia z czerwcem wręcz absurdalnie ciepłym. Nie dość, że pobije on dotychczasowy rekord średniej anomalii miesięcznej (żeby stało się inaczej, anomalie dobowe pozostałych czterech dni czerwca, włącznie z dzisiejszym musiały by spaść do -6.58K), dodatkowo pobił absolutny rekord temperatury maksymalnej i absolutne rekordy temperatury średniej dobowej. Obecna prognoza mówi nam, że ostatecznie czerwiec zakończy się anomalią równą ok. +5.3 – +5.4K (dajemy tu większą wiarę modelowi ICON).

Jeśli tak będzie, to ostateczny przebieg anomalii miesięcznych czerwca w latach 1781-2019 wyglądać będzie następująco.

Maksymalne temperatury na stacjach synoptycznych

Maksymalne temperatury na stacjach synoptycznych

  • Poznań-Ławica: 38.0°C (rekord czerwca, zabrakło 0.2°C do wyrównania rekordu absolutnego)
  • Leszno: 37.4°C (rekord czerwca, zabrakło 0.4°C do absolutnego)
  • Zielona Góra: 36.9°C, rekord absolutny (po 1951) pobity o 0.1°C
  • Wrocław: 36.9°C, powojenny rekord czerwca pobity o 1.8°C
  • Warszawa: 35.3°C, rekord czerwca pobity o 0.2°C

 

Z pewnością znajdziecie jeszcze coś ciekawego :)

Prognozy z 26 czerwca

Prognozy z 26 czerwca

Wczorajsza anomalia średniej dobowej temperatury powietrza osiągnęła +7.9K i ponownie była wyższa od prognozowanej. Wczorajsze prognozy mówiły o +6.2K (z zakresem +5.2 do +7.3K) w przypadku starej wersji prognozy i +6.7K (z zakresem +6.7 do +7.7K) w przypadku nowej wersji prognozy.

Średnia anomalia temperatury czerwca nieco wzrosła i wyniosła do 25 czerwca włącznie +5.52K, o 1.4K powyżej dotychczasowego rekordu. Aby wyrównać rekord, pozostałe dni muszą się charakteryzować anomalią temperatury dobowej równą -3.15K. Wiemy już, że to niemożliwe.

Prognoza operacyjna podniosła szacunkową anomalię końcową do +5.06K.

Nowa, bardziej sprawdzalna wersja prognozy daje +5.16K, przy czym wg modelu ICON będzie to +5.36K. Nasza prognoza: między +5.2 a +5.3K.

Warto też zwrócić uwagę na prognozę anomalii dzisiejszej: waha się ona od +9.3K do nawet +10.9K.

Prognozy z 25 czerwca

Prognozy z 25 czerwca

Wczorajsza anomalia średniej dobowej temperatury powietrza (okres referencyjny 1981-2010) osiągnęła +4.86K i ponownie była wyższa, niż to sugerowały prognozy wczorajsze. Wg nich miało to być +3.3K, z zakresem ±2σ równym +2.3 – +4.4K (stara wersja prognozy) lub +4.0K z zakresem  +3.7 – +4.6K. Aby czerwiec był rekordowo ciepły, średnia anomalia pozostałych dni nie może być niższa niż -1.31K.

Wg starej wersji prognozy dzisiejsza anomalia średniej dobowej temperatury powietrza osiągnie wartość +6.21K z zakresem niepewności +5.2 – +7.3K. Model w związku z zaniżeniem ostatnich anomalii dobowych systematycznie podnosi swoją prognozę na końcową anomalię czerwca, obecnie wskazuje on na wartość +4.89K z zakresem ±1σ zawierającym się miedzy +4.72 a +5.06K. Naszym zdaniem bardziej prawdopodobna jest ta druga wartość.

Warto zwrócić uwagę, że powyższa wersja prognozy nie daje już szans na miesiąc „nie rekordowy”.

Tak samo nowa wersja prognozy, która jest zasadniczo cieplejsza od tej wyżej. Wg niej miesiąc zakończy się odchyleniem równym +5.0K (mediana), przy czym operacyjna prognoza GFS wskazuje również na +5.0K. Cieplejszy jest model ICON, który przede wszystkim pokazuje wyjątkowo duże odchylenie jutrzejszej doby (+10.8K) i w odróżnieniu od modelu GFS nie wskazuje na ujemne odchylenia dobowe pod koniec miesiąca.

Ponieważ koniec miesiąca leży już w zasięgu skilli każdego z modeli, a najzimniejszy wariant wskazuje na anomalię miesięczną równą aż +4.8K, naszym zdaniem szansa na rekordowo ciepły czerwiec wynosi już 100%, zamknie się on ostatecznie anomalią rzędu +5.1 – +5.2K.