Autor: admin

Koniec sierpnia

Koniec sierpnia

Wczorajszy dzień był jak na końcówkę sierpnia wyjątkowo ciepły – średnia anomalia dobowa osiągnęła ok. +8.2K względem okresu referencyjnego 1981-2010. Anomalia dzisiejsza może być zbliżona, a nawet wyższa, zbliżona do +9K. Bardzo wysokich anomalii dobowych (> +7K) spodziewamy się również w pozostałych dwóch dniach miesiąca. Prognozy te wskazują na ostateczną anomalię sierpnia równą ok. +2.2K względem okresu referencyjnego 1981-2010, ostatecznie więc sierpień zapisze się jako bardzo ciepły.

Poniżej: prognoza modeli GFS/ICON

Będzie to jednocześnie oznaczać, że całe lato 2019 zapisze się (głównie dzięki czerwcowi) jako rekordowo ciepłe. Nawet obniżając prognozowaną średnią anomalię sierpnia i oszacowaną anomalię lipca o 0.05K (korekta na dodanie danych ze stacji klimatologicznych), otrzymamy wartości anomalii: czerwiec: +5.35K, lipiec +0.05K i sierpień +2.15K, co ostatecznie da anomalię całego lata równą +2.52K, o 0.41K powyżej rekordów z lat 1811 i 2018 (+2.11K).  Rekord lata jest już generalnie pewny.

Usłonecznienie – EUMETSAT i pomiary

Usłonecznienie – EUMETSAT i pomiary

Porównywaliśmy sobie właśnie dane EUMETSAT z pomiarami na stacjach synoptycznych. Dane usłonecznienia EUMETSAT (zbiór SARAH 2.1) są pozyskiwane z danych satelitarnych na podstawie algorytmów opisanych tutaj. Oczywiście, jak każdy taki algorytm, również ten nie jest doskonały i przed rokiem 1990 (a w szczególności w pierwszych latach) dane te potrafią być dosyć wątpliwe. Przede wszystkim w latach 1983-1987 usłonecznienie pozyskane z danych satelitarnych potrafi być znacznie wyższe, niż to mierzone na stacjach synoptycznych.

Z grubsza efekt takich porównań może wyglądać następująco:

Jak widać dane satelitarne nie odzwierciedlają idealnie pomiarów naziemnych (co zresztą nie jest zaskakujące). Średnia obszarowa suma usłonecznienia różni się o ok. 13% od tej uzyskanej z interpolacji IDW z nieco ponad 50 stacji synoptycznych. Jednakże taki rozkład różnic możemy z powodzeniem zrzucić na niedoskonałości oszacowania usłonecznienia z pomiarów satelitarnych. Problem pojawia się w przypadkach różnic stałych. Takie różnice pojawiają się na przykład w pierwszej połowie lat 90. XX w. w Mławie, głównie w sezonie wiosenno-letnim:

Dodatkowo dane z Mławy odstają tu nie tylko od danych satelitarnych, ale i od danych ze stacji okolicznych. Przyczyną może tu być na przykład przysłonięcie części horyzontu (nie jest tajemnicą, że pomimo stosownych zasad i umów często okolice stacji były zabudowywane). W przypadku Mławy problem pojawia się w roku 1988 i trwa do 1994 włącznie. Być może w roku 1995 stacja została przeniesiona, chociaż nie wskazuje na to średnia różnica ciśnienia zredukowanego i tego na poziomie stacji (zmiana ta wskazuje na zmianę wysokości położenia barometru i widać, że stacja w Mławie najprawdopodobniej była przeniesiona w 1968 r.).

Innym (znanym zresztą) są problemy ze stacją w Warszawie. Zasadniczo do 1994 r. nie budzą one jakichś większych wątpliwości, a potem zaczynają się dziać rzeczy dziwne. Od marca 1995 do sierpnia 1995 usłonecznienie w Warszawie jest znacząco niższe od tła:

Rok później sytuacja odwraca się o 180° i Warszawa stanowi teraz lokalne maksimum, co jest wyraźnie widoczne latem.

Sytuacja ta jest widoczna jeszcze w marcu 1997, natomiast od lipca do września 1997 dane są nieznacznie niższe od tła. W 1998 następuje kolejna zmiana i tym razem usłonecznienie w Warszawie jest od tła znacząco wyższe, przy czym dotyczy to miesięcy z wysokim usłonecznieniem. Od listopada do lutego różnice są niewielkie, lub żadne. W miesiącach letnich, w przypadkach skrajnych, potrafią znacznie przekraczać 120h w stosunku do oszacowania satelitarnego.

W 2003 podobny problem pojawia się w Rzeszowie. Jak wynika z „Biuletynu PSHM” usłonecznienie na tych stacjach pochodziło z lotniskowego systemu Vaisala wykorzystującego czujniki DSU12. W Rzeszowie problem przestaje być widoczny w roku 2009, zaś w Warszawie w roku 2015 – w tym roku dane zgadzają się wyjątkowo dobrze. W 2016 różnice – tym razem na minus w stosunku do tła mamy w Warszawie i ponownie w Mławie.

Znacznie większe różnice pomiędzy danymi satelitarnymi a usłonecznieniem ze stacji pomiarowych mamy w skali roku. Szczególnie duże są one przed 1993, kiedy w uśrednieniu do całego kraju przekraczają 200 godzin. Przyczyny takiego stanu rzeczy mogą być różne. Pierwsza, podstawowa, to różny próg heliograficzny. Dane satelitarne są dostosowane do progu 120 W/m2, a więc próg ten jest niższy, niż w przypadku stosowanego dawniej heliografu Campbella-Stokesa. Inną przyczyną może być częściowe zasłonięcie horyzontu przez przeszkody (czy to sztuczne, czy naturalne). Jeśli taka przeszkoda będzie częściowo przysłaniać horyzont i przez to zasłaniać Słońce przez 10 minut dziennie, usłonecznienie będzie zaniżone o 60 godzin w skali roku. Dodatkowo w latach 80. i na początku lat 90. XX w. znacznie większe było zapylenie atmosfery związane z antropogenicznymi emisjami aerozoli. To mogło nieco zaniżać mierzone usłonecznienie, szczególnie w okolicy wschodów i zachodów Słońca. Analiza satelitarna dodatkowo może niedostatecznie uwzględniać rzeźbę terenu, a stacje położone w obniżeniach terenu mogą doświadczać częstych zamgleń, które nie będą wychwycone na obrazach satelitarnych.

Poniżej: usłonecznienie roczne w 1984 wg danych satelitarnych i synoptycznych.

Dość interesujące jest, że po początkowym spadku różnic na przełomie lat 80. i 90., w 1991 ponownie one wzrosły: z -68h (średnia roczna różnica dla Polski) w 1990 do -128h w 1991 do aż 222h w 1992. W 1993 natomiast ponownie spadły do bardzo niskiego poziomu:  23.6h, przy czym byłyby jeszcze niższe, gdyby nie różnice w Mławie. Teoretycznie można by było próbować zrzucić część tych różnic na zapylenie atmosfery po wybuchu Pinatubo, jednakże jest to mocno naciągane: w 1991 połowa różnicy za ten rok wystąpiła w lutym i marcu, czyli jeszcze przed wybuchem wulkanu. Od 1993 różnice są nieznaczne. Po roku 2000 zasadniczo średnie różnice usłonecznienia rocznego między analizą satelitarną i pomiarami na stacjach nie były duże, poza wspomnianymi przypadkami Rzeszowa i Warszawy:

W 2015 problem przestaje dotykać Warszawę, ale niższa od tła jest Mława.

W 2017 do Mławy dołączyła Warszawa. Problem ten stał się widoczny szczególnie w roku 2018.

W sposób oczywisty mamy więc zerwanie jednorodności przynajmniej kilku serii pomiarowych. W Mławie zerwanie to dotyczy okresu od 1988 do 1994 i najprawdopodobniej po 2016. W Rzeszowie od 2003 do 2008 i w Warszawie od 1995 do 2014 oraz od 2017. Dodatkowo od momentu automatyzacji stacji synoptycznych sporadycznie niektóre z nich potrafiły raportować błędne usłonecznienie, jest to jednak temat na inny wpis. Dane satelitarne przynajmniej od roku 1993 wydają się wiarygodnym i stosunkowo jednorodnym źródłem informacji o usłonecznieniu w Polsce. Do tematu jeszcze z pewnością wrócimy.

Anomalia temperatury globalnej

Anomalia temperatury globalnej

Wg wyliczeń wykonanych na podstawie analizy T2M z modelu GFS oraz reanalizy CFSR po raz ostatni ujemna dobowa globalna anomalia temperatury powietrza (okres referencyjny 1981-2010) wystąpiła ponad 5 lat temu, na początku lutego 2014. Nawet po zakończeniu El Niño 2015/6 temperatury nie zdołały obniżyć się do poziomów wielokrotnie widywanych w latach wcześniejszych. Największe szanse na to są gdy na półkuli północnej panuje zima – wówczas przy odpowiednich warunkach kontynenty mogą się mocno wychłodzić – tak było na przykład w roku 2012. Być może tej zimy, po około 6. letniej przerwie zdarzy się to ponownie. W roku 2012 anomalia spadła do -0.3K, więc nadal są na to szanse.

Źródło: http://www.karstenhaustein.com/climate.php

Wg analizy NASA GISTEMPv3 styczeń 2012 był ostatnim miesiącem z ujemną globalną anomalią temperatury powietrza względem okresu referencyjnego 1981-2010. Wg nowszej wersji GISTEMP-a, używającej znacznie więcej stacji pomiarowych, był to luty 2011.

Tragedia w Tatrach

Tragedia w Tatrach

Kilka osób zginęło dziś w Tatrach w wyniku rażenia piorunem. Jak zwykle w takich przypadkach pojawiają się pytania to, czy były jakieś ostrzeżenia, tymczasem smutna prawda jest taka, że burza ta w żadnym razie do ostrzeżeń się nie kwalifikowała. Nie było ani skrajnie ulewnych opadów, ani silnych porywów wiatru. Co więcej, kiepska pogoda nie pojawiła się znikąd – oznaki nadchodzącej burzy były widoczne już wcześniej. Trzeba pamiętać, że każda burza może być groźna i w przypadku tak niepewnej pogody należy unikać wychodzenia w góry.

W tej sprawie biuro prasowe IMGW wydało komunikat.

 

 

 

Ciepły koniec sierpnia?

Ciepły koniec sierpnia?

Wszystko wskazuje na to, że po krótkim ochłodzeniu, pod koniec tygodnia wrócą wysokie temperatury, być może przekraczające nawet 30°C. Wg najnowszych odsłon modelu GFS ciepło miałoby być do końca miesiąca, co znacząco podwyższyłoby średnią anomalię miesięczną. Obecnie prognozy mówią nawet o wartościach rzędu +1.5K względem normy z lat 1981-2010. Ponieważ (niemal) ostateczne oszacowanie anomalii czerwca to +5.35K, a wstępne oszacowanie anomalii lipca to +0.10K, sierpniowa anomalia rzędu +1.5K dałaby przeciętną anomalię lata 2019 równą +2.32K, wyraźnie powyżej dotychczasowego rekordu (+2.11K 1811, 2018). Fakt, że najwyższe anomalie panowały w zasadzie w czerwcu, przed sezonem urlopowym, a najcieplejszy przeciętnie miesiąc lata, czyli lipiec charakteryzował się temperaturami znacznie niższymi, włącznie z dwutygodniową falą chłodu z pewnością spowoduje, że pojawi się wiele głosów sceptycznych. Z pewnością lato ponownie największymi anomaliami odznaczy się w południowej części kraju. Lipiec i sierpień w części północnej i północno-wschodniej miały najniższe wartości anomalii temperatury, co w połączeniu z faktem, że i tak przeciętnie jest tam najchłodniej spowoduje, że mieszkańcy tych regionów mogą nie uznać tych miesięcy za najbardziej udane.

W południowej części kraju było zgoła inaczej. We Wrocławiu lipcowy chłód trwał zaledwie 10 dni, a i tak w wielu z tych dni temperatura maksymalna znacznie przekraczała 20°C. Średnia temperatura miesięczna czerwca osiągnęła tu 22.7°C, w lipcu było to 20.3°C. Najwyższa średnia miesięcy czerwiec-sierpień wystąpiła w roku 2018 i wyniosła 20.8°C. Sierpień 2019 póki co charakteryzuje się we Wrocławiu średnią temperaturą równą 20.6°C i wszystko wskazuje na to, że istnieje spora szansa, że do końca miesiąca nie spadnie poniżej 20°C, będzie to zatem rekordowo ciepłe lato w tej części kraju.

Niższe temperatury w końcu prognozy pokazuje model ECMWF, jednak na podstawie całej serii ECMWF-EPS należy póki co traktować ten przebieg jako outlier i poczekać do kolejnych odsłon. Póki co możemy spodziewać się ocieplenia od piątku, przy czym temperatury przekraczające 30°C miałyby się pojawić raczej tylko w zachodniej i południowo-zachodniej części kraju i to dopiero w niedzielę 25 sierpnia.

Poniżej: prognoza zmian średniej anomalii miesięcznej temperatury (okres referencyjny 1981-2010) sierpnia 2019 w Polsce.

Lipiec 2019 globalnie najcieplejszy w historii pomiarów instrumentalnych

Lipiec 2019 globalnie najcieplejszy w historii pomiarów instrumentalnych

Wg serii GISTEMP globalna anomalia temperatury względem okresu referencyjnego 1951-1980 osiągnęła w lipcu +0.92 – +0.93K i była najwyższa dla lipca w całej historii pomiarów. Poprzedni najcieplejszy lipiec wystąpił w 2016 (+0.85K).

Jak widać względem tego okresu referencyjnego lipiec w Polsce był ciepły – inaczej jest względem nowszego okresu referencyjnego 1991-2019.

 

Lipiec najcieplejszy był również w analizie Berkeley Earth – przypomnijmy, Berkeley Earth to założona w 2010 r. m.in. przez Richarda A. Mullera grupa, mająca pierwotnie na celu zweryfikowanie dotychczas używanych analiz anomalii temperatur globalnych. Analiza ta brała pod uwagę wpływ Miejskich Wysp Ciepła i obejmowała znacznie więcej stacji pomiarowych niż GISTEMP. Była to wielka nadzieja osób sceptycznych wobec ustaleń naukowych odnośnie globalnego ocieplenia, zespół Berkeley Earth był nawet przez takie środowiska dotowany. Ostatecznie wyniki analizy Berkeley Earth potwierdziły dotychczasowe ustalenia na temat wzrostu temperatur.

Wg analizy Berkeley Earth istnieje około 90% szans, że globalnie rok 2019 zapisze się jako drugi najcieplejszy rok w historii pomiarów instrumentalnych.

Również w analizie NOAA/NCEI lipiec był globalnie rekordowo ciepły.

Nietrafione prognozy „klimatystów”

Nietrafione prognozy „klimatystów”

Bardzo spodobało mi się określenie „klimatyści” wymyślone bodajże przez pana Rafała Ziemkiewicza (tego od riserczu). W odróżnieniu jednak do autora tego określenia, osobiście uważam za „klimatystów” tę stronę sporu, której stwierdzenia, delikatnie rzecz ujmując, stoją w sprzeczności z ustaleniom nauki na temat globalnego ocieplenia. Wśród takich „klimatystów” są nie tylko publicyści w postaci panów Łukasza Warzechy, czy Rafała Ziemkiewicza, którzy w nader wygodny sposób potrafią sobie dobierać fakty do stawianej tezy, ale też tacy, którzy swoją wizje na temat zmian klimatycznych przekuwają na prognozy. Ponieważ nawet najszybsze zmiany klimatu z punktu widzenia człowieka wydają się przebiegać stosunkowo powoli, przypomnimy prognozy sprzed co najmniej 10 lat.

Wydaje się dość zabawne, że negacjonistycznie nastawiona  do zdobyczny nauki w dziedzinach klimatologii, czy fizyki atmosfery strona sporu nazywa swych oponentów „alarmistami”, jednocześnie bardzo ochoczo strasząc silnym ochłodzeniem klimatu, które czyhać ma na nas tuż za rogiem. Wystarczy wspomnieć niesławny artykuł prof. Zbigniewa Jaworowskiego („Idzie zimno”, Polityka kwiecień 2008), gdzie czytamy:

Tegoroczna polska zima była lekka. Średnia temperatura stycznia mierzona na Okęciu była o 4.8°C wyższa od długoterminowej wynoszącej -1.1°C (informacja od prof. H. Lorenc z IMGW). Dzięki temu mniej zapłaciliśmy za gaz i węgiel, ale w skali całego globu nie było tak różowo. Cztery główne systemy monitorowania temperatury Ziemi (angielski Hadley-CRUT i amerykańskie GISS, UAH i RSfS) stwierdziły, że nad lądami i morzem oraz w dolnej troposferze styczeń 2008 r. był wyjątkowo zimny, według GISS aż o 0,75oC chłodniejszy niż rok temu. Również stratosfera była chłodniejsza o 0,5°C.

Po tej „szokującej” informacji przechodzimy stwierdzeń typowych dla tamtych czasów: że od 1998 temperatura nie rośnie i w końcu do straszenia niską aktywnością słoneczną i mającą z niej wynikać Małą Epoką Lodową. Oczywiście nie było ani słowa o tym, że aktywność słoneczna spadała już od końca lat 50. XX w., ani o tym że „płaski” trend temperatury od 1998 wynikał tylko i wyłącznie z dobrania takiego okresu, by na jego początku znalazł się rekordowo ciepły rok 1998 (czemu pomogło nie tylko globalne ocieplenie, ale i El Niño), a na końcu lata zimne. Nie tylko prof. Jaworowski uderzał w te tony.

 

Girma Orssengo

Pan podpisujący się jako „BTech, MASc, PhD, Engineering, Perth, Western Australia, Australia” wymyślił w 2010, że całą obserwowaną zmianę klimatu możemy wyjaśnić jednym cosinusem połączonym z trendem liniowym. Wzór, który zastosował wyglądał następująco:

0.0059*(Rok-1880)-0.52+0.3*cos(((Rok-1880)/60)*2*pi)

 

Rozumiecie jak genialne to odkrycie? Ośrodki naukowe na całym świecie używają skomplikowanych modeli mających policzyć zmiany klimatu związane ze wzrostem wymuszenia radiacyjnego wynikającym z emisją gazów cieplarnianych, podczas gdy wystarczy zwykły arkusz kalkulacyjny! Oryginalny wykres Orssengo możemy zobaczyć poniżej.

 

Sprawdźmy najpierw, czy uda nam się zreplikować jego model, możemy do R wprowadzić np. taki kod:

Rok <- seq(1880,2040,1)
model <- 0.0059*(Rok-1880)-0.52+0.3*cos(((Rok-1880)/60)*2*pi)
df <- data.frame(yr=Rok, m=model )
plot(df$m ~ df$yr, type='l', xaxt='n', yaxt='n', lwd=3, xlab="Rok", ylab="Anomalia temperatury")
axis(1, at=seq(1880,2040,10))
axis(2, at=seq(-2,2,0.2))
abline(h=seq(-2,2,0.2), lty=3, col="black")
abline(v=seq(1880,2040,10), lty=3, col="black")

W wyniku otrzymamy wykres:

Wygląda na to, że się zgadza. Dodajmy jeszcze dane HadCRUT (obecnie w wersji 4):

Otrzymujemy stan na rok 2009, dokładnie taki, jakim dysponował G. Orssengo. Oczywiście od tego czasu minęła niemal dekada i możemy sprawdzić, jak się ma owa prognoza do rzeczywistości. A ma się tak:

W tym momencie wiemy (a co mądrzejsi wiedzieli to od początku), to co pan Orssengo powinien wiedzieć w momencie tworzenia owej prognozy: że do cosinusa można sobie „dopasować” bardzo dużo rzeczy, nie koniecznie z sensem. Warto zwrócić uwagę, że model pana Orssengo zakłada, że w czasie narodzin Chrystusa średnia globalna anomalia temperatury wynosić by miała niemal -12K. Jesteśmy również pewni, że Orssengo coś se jeszcze dopasuje. Wystarczy przecież zmienić okres z 60 na 65 lat i znowu wykres będzie „mniej więcej” pasować do danych pomiarowych. Dołek temperatury przesunie się z okolic 2028 na okolice 2040, ale nadal  wizualnie będzie wyglądało to dobrze. I nadal nie będzie miało to żadnego sensu. Zresztą – już zaprezentowany model mocno się nie zgadzał, ponieważ funkcja aproksymująca zmiany temperatury została dopasowana do szczytu z lat 1998-2009. Minima funkcji są za nisko względem obserwacji. Można to było „poprawić” zmniejszając amplitudę postulowanego cyklu, niestety wówczas uciekały już dane bieżące (a jeszcze gorzej byłoby, gdyby na to nałożyć dane do 2018):

Ale to można było poprawić zwiększając nieco trend liniowy. Już rozumiecie? W ten sposób można sobie dopasować wszystko. Za około 10 lat tak prosty zabieg nie będzie już możliwy przy użyciu jednej funkcji sin/cos. Fabrykacja takiej prognozy, mającej sprawiać wrażenie sensownej będzie wymagała zastosowania nieco bardziej skomplikowanego (ale nadal mieszczącego się w podpisie wykresu) wzoru.

 

Don J. Easterbrook

D. Eastrbrook to professor emeritus geologii na Western Washington University. I jednocześnie jedna z mroczniejszych klimatystycznych postaci w tym zestawieniu. Mroczniejszych, bo manipulujących seriami danych w celu uzyskania potwierdzenia swoich tez.

Podobnie jak G. Orssengo, Easterbrook postuluje istnienie cykli, w które wpisywać się ma obecnie obserwowane ocieplenie. Cykle te mają być wywołane zmianami aktywności słonecznej oraz PDO.  W 2006 r. Easterbrook twierdził, że bieżące ocieplenie ma się ku końcowi i jeśli cykl ten będzie kontynuowany, to należy się spodziewać ochłodzenia z minimum w okolicy roku 2035.

If the cycles continue as in the past, the current warm cycle should end soon and global temperatures should cool slightly until about 2035, then warm about 0.5°C from ~2035 to ~2065, and cool slightly until 2100.

Źródło.

Teza ta była podparta taką „projekcją”:

 

Samo w sobie to stwierdzenie nie było jeszcze niczym złym. Co prawda pozbawione było podstaw naukowych, ale nie miało w sobie znamion manipulacji danymi. Gorzej było parę lat później, gdy prof. Easterbrook zaprezentował taki oto, zaktualizowany wykres.

Na wykresie tym mamy już wyraźnie oznaczone okresy chłodne i ciepłe. Co więcej, mamy naniesioną prognozę IPCC i dane rzeczywiste, które mocno się z tą prognozą rozjeżdżają. Pik temperatury następuje w 1998 (pamiętacie, że prof. Jaworowski pisał o braku wzrostu temperatury po 1998?), następnie mamy spadek do poziomu z 1977/1978 i wzrost temperatury, ale do poziomu niższego, niż w latach 90. XX w. Problem polega na tym, że zaprezentowane „dane pomiarowe” po 1998 nie zgadzają się z żadną serią pomiarową. Żadną. Ani GISTEMP od NASA GISS. Ani z HadCRUT od CRU, ani z seriami satelitarnymi UAH i RSS.

Poniżej: dane GISTEMP.

Poniżej: satelitarna seria UAH:

W żadnej z tych serii okres po 2001 nie jest chłodniejszy od lat 90. XX w. Najmniejsze ocieplenie wskazuje satelitarna seria UAH, co akurat nie jest zaskoczeniem, jako że nie mierzy ona nawet temperatury przy powierzchni Ziemi, tylko jest oszacowaniem tejże temperatury w dolnej troposferze1. Smutna prawda jest więc taka, że dane te zostały „poprawione” na rzecz prognozy prof. Easterbrooka. I nie jest to tylko obserwacja ludzi uznających naukę związaną z globalnym ociepleniem. Problem dostrzegł również Bob Tisdale, negacjonista, na negacjonistycznym blogu „Watts Up With That”, gdzie prof. Easterbrook opublikował w 2014 wpis na temat swoich „odkryć” i prognoz. W komentarzu Bob Tisdale pyta:

And what kind of magical dataset did you present in your Figure 4?

Istotnie, trudno się nie zgodzić – seria danych prezentowana na fig. 4 rzeczywiście musi być „magiczna”. Przepychanki między negacjonistami trochę trwały, ostatecznie jednak prof. Easterbrook nie potrafił wskazać, w jaki sposób uzyskał serię danych niezgodną z jakąkolwiek opublikowaną serią anomalii temperatury globalnej. Prawdopodobnie Bob Tisdale był bliski prawdy, że jest ona efektem połączenia ze sobą dwóch zupełnie różnych serii: HadCRUT i UAH. Nikt poważnie zajmujący się tą tematyką czegoś takiego by nie zrobił. Dodatkowo Tisdale wprost zarzuca Easterbrookowi „tworzenie globalnego ochłodzenia w okresie, gdy takowego nie było”:

I raised a few eyebrows a couple of weeks ago by complaining loudly about a graph of global surface temperature anomalies (among other things) that was apparently created to show global cooling over a period when no global cooling existed.

W odpowiedzi na zarzuty kolegi Easterbrook oskarżył go o „werbalny atak” i… nie wyjaśnił skąd się bierze różnica między seriami danych a jego wykresem.

Warto wskazać, że sami pisaliśmy o tym oszustwie cztery lata wcześniej, niż wpadł na nie Bob Tisdale. Co więcej, wskazaliśmy dokładnie ten sam mechanizm oszustwa. Jeżeli chodzi zaś o sprawdzalność prognozy Easterbrooka, to wg niej powinniśmy już być w zaawansowanej fazie ochłodzenia. Żadna seria pomiarowa nie wskazuje, by miałaby to być prawda. Dla porządku jednak porównajmy owe prognozy z danymi rzeczywistymi.

Oprzemy się tu na „projekcji” prof. Easterbrooka opublikowanej w 2008 r. i zaprezentowanej na WUWT. Wygląda ona następująco:

W części historycznej projekcji prof. Easterbrooka wykres temperatur globalnych jest mocno wygładzony. Charakterystyczne jest tu ocieplenie z okolic 1940 (z anomalią ok. +0.1K) oraz prognozowany szczyt temperatury w okolicy 2000, po którym miałoby następować ochłodzenie wg trzech różnych scenariuszy. Pierwszy scenariusz to łagodne ochłodzenie, które jest replikacją ochłodzenia z lat 1945-1977, drugi scenariusz replikować ma silniejsze ochłodzenie z lat 1880-1915 (choć w rzeczywistości ochłodzenie z tamtych lat było ok. dwukrotnie słabsze, niż zaprezentował tu Easterbrook) oraz trzeci, będący opcją skrajną, w którym następuje wyjątkowo silne globalne ochłodzenie o ok. 1K do 2022 r.  Jak czytamy we wpisie na WUWT (podkreślenia nasze):

The IPCC predicted global warming of 0.6° C (1° F) by 2011 and 1.2° C (2° F) by 2038, whereas Easterbrook (2001) predicted the beginning of global cooling by 2007 (± 3-5 yrs) and cooling of about 0.3-0.5° C until ~2035. The predicted cooling seems to have already begun. Recent measurements of global temperatures suggest a gradual cooling trend since 1998 and 2007-2008 was a year of sharp global cooling.

Na podstawie tego opisu odtworzyliśmy prognozę Easterbrooka – ochłodzenie rozpoczyna się w roku 2003 (a zarazem projekcja Easterbrooka, na co wskazuje powyższy wykres) i trwa do roku 2035. Temperatura spada o nieco ponad 0.3°C, co również jest spójne z tekstem prognozy. Wygląda to następująco:

Jak widać, wszystkie wartości na wykresie są o około 0.5°C niższe, niż w oryginalnej prognozie, co wynika ze zmiany okresu referencyjnego na 1981-2010, dzięku czemu można było pokazać serie satelitarne. Wykres jest 5-letnią średnią ruchomą (centrowaną), zatem ostatni punkt danych to średnia za lata 1998-2002. Oczywiście minęło już sporo czasu, możemy zatem pokazać jak w istocie zmieniały się anomalie temperatury aż do 2018 (a dokładniej 2014-2018). Okazuje się (co nie jest jakieś szczególnie zaskakujące), że prognoza prof. Easterbrooka kompletnie rozmija się z rzeczywistością:

Nawet seria satelitarna UAH, która po szeregu modyfikacji1 wskazuje najmniejszy trend ocieplenia mocno rozjeżdża się z prognozą Easterbrooka. Seria RSS, również oparta o dane satelitarne, wskazuje na zdecydowanie silniejsze ocieplenie i jest zbliżona do pomiarów naziemnych. Rozjazd między prognozami a rzeczywistością sięga już ok 0.4°C. Zdecydowanie lepiej sprawdziły się prognozy IPCC. Co prawda obserwowany trend jest nieco niższy, niż prognozowany w scenariuszu RCP 8.5 (co wynika z nieco innych wartości wymuszenia radiacyjnego, niż prognozowano, a także nieco innych metod obliczania średniej globalnej), jednakże znacznie bliższy rzeczywistości, niż prognozy Easterbrooka.

Podsumowując – prof. Easterbrook nie tylko dopuścił się bardzo brzydkich działań mających na celu nagięcie danych z serii pomiarowych do własnych prognoz, dodatkowo jego prognozy zupełnie się nie sprawdziły.

 

David C. Archibald

Ochłodzenie klimatu prognozowane przez D. Easterbrooka wydaje się niczym nieznaczącym epizodem przy prognozach Davida Archibalda. David C. Archibald to geolog, członek powołanej w 2000 r. tzw „Grupy Lavoisiera„, której głównym celem jest szerzenie negacjonizmu względem globalnego ocieplenia. Związany jest również ściśle z przemysłem naftowym, np. jako dyrektor zarządzający Yeeda Oil Ltd. Swego czasu wraz z dwoma bliżej niezidentyfikowanymi profesorami z Purdue University opracował tabletki mające leczyć raka prostaty zrobione z warzyw – brokułów i chili. Barwna postać.

Na samym początku roku 2006 David Archibald opracował prognozę gwałtownego ochłodzenia, jakie miało być związane z malejącą aktywnością słoneczną. Prognoza opierała się na powiązaniu średniej temperatury rocznej w wybranych punktach i długości cyklu słonecznego. Na tej podstawie Archibald stwierdził, że:

Projections of weak solar maxima for solar cycles 24 and 25 are correlated with the terrestrial climate response to solar cycles over the last three hundred years, derived from a review of the literature. Based on solar maxima of approximately 50 for solar cycles 24 and 25, a global temperature decline of 1.5°C is predicted to 2020, equating to the experience of the Dalton Minimum. To provide a baseline for projecting temperature to the projected maximum of solar cycle 25, data from five rural, continental US stations with data from 1905 to 2003 was averaged and smoothed. The profile indicates that temperatures remain below the average over the first half of the twentieth century.

Dobrze czytacie. Na podstawie danych z pięciu wybranych stacji, David Archibald prognozował, że w ciągu 17 lat od 2003 roku do roku 2020 średnia globalna temperatura spadnie o 1.5°C! Możemy wykorzystać poprzednie wykresy do pokazania tej prognozy.

Warto zauważyć, że przy gigantycznym ochłodzeniu prognozowanym przez D. C. Archibalda, ochłodzenie prognozowane pierwotnie przez Easterbrooka wydaje się kompletnie nieistotne, wręcz niezauważalne. I oczywiście wiemy też, że w serii pomiarowej nie ma nawet śladu ochłodzenia.

Podobnie, jak gigantyczne było prognozowane ochłodzenie, gigantyczny jest też błąd owej prognozy. Sięga on obecnie 1.3 – 1.4°C. I o ile o prognozach prof. Easterbrooka możemy zwyczajnie powiedzieć, że się „nie sprawdziły”, to w przypadku prognoz Davida Archibalda byłoby to dużym eufemizmem. Błąd tej prognozy możemy chyba jedynie porównać do przypadku, w którym ktoś prognozuje falę mrozu, a otrzymuje falę upałów. Staje się powoli jasne, że prognozy klimatycznych negacjonistów wysuwane na początku bieżącego wieku nie miały nic wspólnego z rzeczywistością, co więcej nie miały podstaw naukowych. Wyciąganie wniosków z pięciu wybranych stacji (przy czym istnieje wysokie ryzyko, że wybrane były one specjalnie pod tezę) musiało się skończyć tak, jak na powyższym wykresie.

Richard Lindzen

Lindzen to jeden z nielicznych fizyków podważających antropogeniczne przyczyny globalnego ocieplenia. W 1989 r. stwierdził on, iż „osobiście uważa, że prawdopodobieństwo że w nadchodzącym stuleciu ocieplenie związane z gazami cieplarnianymi osiągnie wartości porównywalne z naturalną zmiennością klimatu jest małe„. Oznacza to, że ocieplenie związane z emisją tychże gazów nie powinno wg Lindzena przekroczyć 0.3°C/100 lat. Oczywiście, jak widzimy na zaprezentowanych wyżej wykresach, jest ono sporo większe.

Porównanie prognozy Hansena (1988) i rzeczywistych danych pomiarowych. Dodano prognozę opartą o twierdzenia R. Lindzena. Źródło: Skeptical Science.

 

John McLean

W okolicach roku 2010 ów pan zasugerował, iż w związku z ujemną fazą ENSO (La Niña) średnia temperatura globalna spadnie do poziomu najniższego od 1956, a być może i wcześniej. Oczywiście jak wiemy, nic takiego nie miało miejsca. Prognoza oparta była o pracę „Influence of the Southern Oscillation on tropospheric temperature” (McLean, Freitas, Carter 2009) w której co prawda słusznie wskazano związek ENSO ze zmiennością temperatury globalnej w krótkich skalach czasowych, ale jednocześnie wysunięto wniosek,  który absolutnie z tej pracy nie wynikał:

Finally, this study has shown that natural climate forcing associated with ENSO is a major contributor to variability and perhaps recent trends in global temperature, a relationship that is not included in current global climate models.

Ponieważ wskaźniki związane z ENSO (np. wzmiankowane w pracy SOI) spadły w 2011 do bardzo niskich poziomów, na tej podstawie i na podstawie błędnych wniosków McLean wysunął prognozę, która się nie sprawdziła, bo się sprawdzić nie mogła.

To tylko parę przykładów z prognozowanych „globalnych ochłodzeń”, które ostatecznie nie doszły do skutku. Cechą charakterystyczną jest tutaj późniejsze przesuwanie prognozowanego startu ochłodzenia w czasie – w sytuacji gdy w sposób oczywisty do ochłodzenia nie doszło (nie wskazuje na to żadna seria pomiarowa). Można na przykład odnaleźć prezentację prof. Easterbrooka z 2017,  w której opowiada on dokładnie te same historie, co 10 lat wcześniej i całkowicie „przypadkowo” na wykresach nie widać ostatnich najcieplejszych lat, urywają się one w bardzo wygodnym dla Easterbrooka miejscu. Dokładnie te same wykresy możemy znaleźć w prezentacji trzy lata starszej, co jednoznacznie wskazuje, że nowsze dane były dla prof. Easterbrooka zwyczajnie niewygodne.

Powyżej: zrzut z prezentacji prof. Easterbrooka z 2014 r. Mimo, że mieliśmy już dodatkowe 13 lat danych, Easterbrook nadal ucina je w roku 2000, prezentując „prognozę” po tym roku.

 

Powyżej: kolejny zrzut z tej samej prezentacji. Ćwiczenie: na poniższym wykresie satelitarnej serii UAH wskaż rok 2012 i wyjaśnij, dlaczego w prezentacji z 2014 prof. Easterbrook uciął wykres właśnie na początku 2012.

 

 

1 Satelitarne serie pomiarowe w istocie nie mierzą temperatury przy powierzchni ziemi, tak jak termometry w seriach „naziemnych”. Zamiast tego oszacowują temperaturę dolnej troposfery w oparciu o pomiary (wykonywane za pomocą MSU/AMSU) strumienia promieniowania w różnych długościach fali. Wynik, czyli szacowana anomalia temperatury zależy od tego, w jaki sposób różne grupy zajmujące się tym tematem ją wyliczą. Problemem jest tu nie tylko dryf satelitów (które powinny się znajdować nad danym miejscem dokładnie o tej samej porze, ale z uwagi na zmiany parametrów orbity ta pora się zmienia), ale i fakt, że seria składa się z danych pochodzących z wielu różnych satelitów na których znajdują się instrumenty różnego rodzaju, przez co cała seria jest niejednorodna i wymaga wielu korekt. Parę lat temu satelitarna seria UAH została zaktualizowana do wersji 6.0, w której znacząco obniżono anomalie temperatury w stosunku do wersji 5.6. Po tym zabiegu seria ta charakteryzuje się najniższym trendem temperatury ze wszystkich serii pomiarowych, również innych serii satelitarnych. Nie radzimy przywiązywać się do tych danych, nie wiadomo bowiem jak będą wyglądać w kolejnych wersjach ;)

 

 

 

 

 

Ulewa w Katowicach

Ulewa w Katowicach

Nad Katowicami przeszła dziś wyjątkowo silna burza z obfitymi opadami deszczu, których intensywność dochodziła miejscami do 18 mm/10 minut. W ciągu godziny spadło od 74  mm opadu, a wg systemu telemetrii IMGW-PIB całkowity opad osiągnął 82.7 mm. Jeśli dane te zostaną potwierdzone w depeszy z 18UTC, będzie to oznaczać największy opad dobowy w historii pomiarów na tej stacji.


Tak duża suma opadów w krótkim czasie doprowadziła do licznych podtopień oraz wezbrania mniejszych cieków i rzek. Drogowcy byli zmuszeni zamknąć tunel pod rondem, jak donosi Radio ZET:

Po potężnej burzy i ulewie nieprzejezdna jest część dróg w Katowicach i okolicznych miastach. „Tunel i wszystkie drogi wyjazdowe z Katowic zalane” – alarmuje słuchaczka Radia ZET. Jak dodaje, podobnie jest m.in. w Sosnowcu. Tam pod wodą jest hipermarket Auchan, a klienci są uwięzieni w sklepie i na zalanym parkingu.

 



 

Źródło: Twitter.

Rekordy

Rekordy

Niemcy trzeci dzień z rzędu biją swój dotychczasowy rekord sprzed 2019. Wczorajsza wartość 42.6°C została uznana. MetOffice zgłasza rekord absolutny (Cambridge, 38.7°C), będzie on weryfikowany.

Ostatecznie rekord holenderski wynosi 40.7°C.

 

Kolejne rekordy (Aktualizacja: Lingen, Niemcy 42.6°C, wartość będzie sprawdzana pod kątem poprawności)

Kolejne rekordy (Aktualizacja: Lingen, Niemcy 42.6°C, wartość będzie sprawdzana pod kątem poprawności)

Do 41.6°C wzrosła już temperatura w Niemczech (Lingen), 40.6°C było w Gilze Rijen w Holandii. Również w Belgii temperatury zbliżają się do 41°C. Na stacji Paryż-Montsouris temperatura wzrosła do 42.4°C, bijąc dotychczasowy rekord o 2°C. Absolutny rekord Holandii sprzed 2019 został również już pobity o 2.0°C.

Źródło: Twitter @meteociel

Niemcy jeszcze nigdy nie mieli okazji oglądać takiej mapy obserwowanych temperatur. Wczorajszy rekord został już tam pobity o 1.1°C, a rekord sprzed 2019 o 1.3°C.

Źródło: https://meteologix.com

Blisko rekordu absolutnego jest nawet w Wielkiej Brytanii.

 

Maksymalne temperatury w Niemczech (Źródło: DWD).