Kategoria: Ogólne

Ocieplenie

Ocieplenie

Po kilku chłodniejszych dniach, które przyniosły dość silne przymrozki na znacznym obszarze naszego kraju, od dzisiaj temperatura będzie powoli rosnąć i wiele wskazuje na to, że już od weekendu przynajmniej miejscami temperatura przekroczy 20°C. Wg porannej odsłony modelu ECMWF w piątek w południowo-zachodniej części kraju miałoby być +17°C, w sobotę do 22°C lokalnie na Dolnym Śląsku, w niedzielę nawet do 23°C. Chłodniej miałby się zrobić dopiero w środę, przy czym nie jest jasne czy byłby to już ochłodzenie trwałe, czy takowe miałoby nastąpić jeszcze później. Wg EPS (Ensemble Prediction System, ECMWF) znaczny spadek średniej wartości Tmax w wiązce (na Dolnym Śląsku do ok. 15°C) nastąpić ma w okolicy 18-19 października.

Wysokie anomalie dobowe temperatury powietrza miałyby podnieść średnią anomalię miesięczną z obecnie bardzo niskich wartości w pobliże normy termicznej, przy czym znaczną niewiadomą będą tu nocne spadki temperatury, które mogą być niedoszacowywane przez modele.  To może skutkować przeszacowaniem wartości dobowych anomalii temperatury.

Wstępne porównanie…

Wstępne porównanie…

…homogenizowanej (CLIMATOL 3.1.1) serii temperatury w Polsce z danymi surowymi.

Dane z poszczególnych stacji:

Anomalie są wyliczone względem okresu referencyjnego 1961-1990 z uwagi na fakt, że niektóre serie pomiarowe kończą się w latach 90. XX w. (np. Gdańsk).

Prognoza anomalii rocznej w roku 2019

Prognoza anomalii rocznej w roku 2019

Do końca roku pozostały już tylko cztery miesiące (z wrześniem włącznie), można się więc pokusić o statystyczną prognozę rocznej anomalii temperatury powietrza (okres referencyjny 1981-2010) dla całego roku. Prognoza została wykonana w oparciu o wszystkie średnie czterech ostatnich miesięcy, jakie wystąpiły w latach 1951-2018, założono że najprawdopodobniej średnia tegorocznych czterech ostatnich miesięcy będzie się zawierała w zakresie minimum-maksimum z ostatnich 68 lat.

Mediana prognozowanej średniej temperatury rocznej wynosi +1.25K. Minimum to +0.70K i taka średnia roczna wystąpi, gdy pozostałe cztery miesiące roku 2019 będą identyczne, jak w 1998 (najchłodniejszy przypadek).  Maksimum to +2.22K, co odpowiada rekordowo ciepłej końcówce roku z 2006.Wg tej prognozy szanse na rok rekordowo ciepły wynoszą obecnie jakieś 15%.

Ponieważ znaczna część września jest już za nami, można się pokusić o oszacowanie jego średniej anomalii. Wg obecnych prognoz bieżące ochłodzenie zrzuci średnią anomalię miesięczną do około +0.75K, po czym w III dekadzie miesiąca nastąpi znaczne ocieplenie. Bardzo prawdopodobną wartością końcową dla września jest anomalia rzędu +1.5 – +2.0K. Uznajmy, że będzie to ok. +1.7K. Wtedy prognoza (tym razem oparta o trzy pozostałe miesiące) wygląda następująco:

Zgodnie z przypuszczeniami zakres min/max spadł z 1.52K do 1.31K. Wzrosła wartość minimalna (z 0.7 do 0.84K), spadła też jednak prognozowana wartość maksymalna (z 2.22 do 2.15K). Mocno podniosła się mediana prognozy z 1.25 do 1.39K. Szanse na rok rekordowo ciepły są nadal mizerne i wynoszą ok 22%. Jako ciekawostkę można podać fakt, że po chłodnym maju (gdy nieznana była jeszcze średnia aż 7 pozostałych miesięcy roku) mediana takiej prognozy była na poziomie roku 2011, a szanse na rekord ciepła wynosiły ok. 3%.

Na koniec mała uwaga: nie jest wykluczone, że pozostałe miesiące będą albo rekordowo ciepłe, albo rekordowo zimne na tle ostatnich 68 lat. Jest to bardzo mało prawdopodobne, ale niewykluczone. Ostatnie cztery miesiące bliskie rekordowo zimnym z 1998 wystąpiły w 2010 r. – zawinił tu głównie bardzo chłodny grudzień, choć chłodne były również wrzesień i październik. Chłodny wrzesień nam raczej nie grozi, ale rekordu zimna ostatnich czterech miesięcy wykluczyć nie można, szczególnie że nie jest to wartość jakaś szczególnie niska: -1.6K. Nie mniej jednak jest to bardzo mało prawdopodobne.

 

Aktualizacja: poniżej prognozy w oparciu o dane do wcześniejszych miesięcy (od kwietnia do lipca).

Jak na złość…

Jak na złość…

…2 godziny po ostatnim wpisie MetOffice uaktualniło swoje prognozy sezonowe. Wg nich zima w Europie Środkowej (w tym i w Polsce) ma być raczej ciepła. Szansa na przekroczenie mediany wynosi wg tej prognozy ponad 80% w zachodniej Polsce. Model sezonowy, którym posługują się Brytyjczycy wskazuje raczej na NAO dodatnie.


Pamiętajmy, że wysoka temperatura średnia całej zimy nie wyklucza pojedynczego chłodniejszego miesiąca. Wszak i tegoroczne lato mieliśmy w Polsce rekordowo ciepłe, co nie przeszkodziło w całkiem sporej adwekcji chłodu w lipcu.

Źródło: MetOffice.

Poltemp – dane historyczne #1

Poltemp – dane historyczne #1

Od ostatniej analizy historycznej serii Poltemp minęło już ładnych parę lat. W tym czasie pojawiły się nowe rekonstrukcje serii historycznych: poznańskiej, toruńskiej. Dzięki uprzejmości prof. dr. Egidijusa Rimkusa udało sie pozyskać surową (niehomogenizowaną) oryginalną serię wileńską. Znaleziono też kilka błędów i serii ewidentnie niejednorodnych. Niestety wczęsniej, mimo starań mających na celu zachowanie jednorodności całej serii (analizy za pomocą HOMER i CLIMATOL) błędów nie udało się całkowicie wyeliminować.  Pojawienie się nowych serii powoduje, że powoli konieczne staje się ponowne przeliczenie serii historycznej 1781-1950. Jednocześnie pojawił się dodatkowy materiał, który może pomóc w analizie porównawczej niektórych stacji (np. Zielona Góra, Gorzów).

Poniżej: 11. letnie średnie ruchome części danych historycznych. Z uwagi na to, że niektóre serie kończą się w latach 90. XX w., anomalie wyliczone są względem 1961-1990.

Jak widzimy na powyższych wykresach, poza serią kopenhaską, która szoruje po dnie wykresu aż do okolic 1930, dane po 1860 są raczej ze sobą zbieżne (niejednorodna jest jeszcze seria berlińska). Im dalej wstecz, tym po pierwsze zmniejsza się liczba dostępnych danych, po drugie zaczynają się one coraz bardziej rozjeżdżać. Niektórzy mogą się zapytać: po co nam seria kopenhaska? Niestety, przed 1800 r. liczba stacji w pobliżu Polski jest wyjątkowo mizerna. Seria kopenhaska (podobnie jak seria z Stockholmu i Uppsali) pozwala na oszacowanie rozkładu anomalii danego miesiąca w danym regionie. Problem polega na tym, że o ile klimat Uppsali i Stockholmu może się zmieniać inaczej, niż klimat stacji w regionie Europy Środkowej, o tyle seria kopenhaska powinna już być znaczne bardziej zbliżona. Tymczasem przebieg temperatury wskazuje na znaczą niejednorodność danych. Są to dane pobrane bezpośrednio z DMI, zakładamy więc, że Duńczycy uznają tę serię za jednorodną. Naszym zdaniem guzik prawda. Na szczęście problem dotyczy okresu, kiedy stacja ta jest nam niepotrzebna.
Na tle polskich rekonstrukcji (Warszawa, Lorenc 2000, Wrocław, Bryś 2010) problematyczne wydają się też dane z Pragi (nie pokazane na wykresie) – te z kolei są za ciepłe, a oryginalna seria Praga-Klementinum jest w oczywisty sposób niehomogeniczna. Można to stwierdzić nie tylko w oparciu o rekonstrukcję wrocławską (Bryś 2010), ale i dane austriackie (HISTALP).

Do wykrywania zerwania jednorodności serii i ich homogenizacji używamy CLIMATOL 3.1.2 (biblioteka R).

Usłonecznienie – EUMETSAT i pomiary

Usłonecznienie – EUMETSAT i pomiary

Porównywaliśmy sobie właśnie dane EUMETSAT z pomiarami na stacjach synoptycznych. Dane usłonecznienia EUMETSAT (zbiór SARAH 2.1) są pozyskiwane z danych satelitarnych na podstawie algorytmów opisanych tutaj. Oczywiście, jak każdy taki algorytm, również ten nie jest doskonały i przed rokiem 1990 (a w szczególności w pierwszych latach) dane te potrafią być dosyć wątpliwe. Przede wszystkim w latach 1983-1987 usłonecznienie pozyskane z danych satelitarnych potrafi być znacznie wyższe, niż to mierzone na stacjach synoptycznych.

Z grubsza efekt takich porównań może wyglądać następująco:

Jak widać dane satelitarne nie odzwierciedlają idealnie pomiarów naziemnych (co zresztą nie jest zaskakujące). Średnia obszarowa suma usłonecznienia różni się o ok. 13% od tej uzyskanej z interpolacji IDW z nieco ponad 50 stacji synoptycznych. Jednakże taki rozkład różnic możemy z powodzeniem zrzucić na niedoskonałości oszacowania usłonecznienia z pomiarów satelitarnych. Problem pojawia się w przypadkach różnic stałych. Takie różnice pojawiają się na przykład w pierwszej połowie lat 90. XX w. w Mławie, głównie w sezonie wiosenno-letnim:

Dodatkowo dane z Mławy odstają tu nie tylko od danych satelitarnych, ale i od danych ze stacji okolicznych. Przyczyną może tu być na przykład przysłonięcie części horyzontu (nie jest tajemnicą, że pomimo stosownych zasad i umów często okolice stacji były zabudowywane). W przypadku Mławy problem pojawia się w roku 1988 i trwa do 1994 włącznie. Być może w roku 1995 stacja została przeniesiona, chociaż nie wskazuje na to średnia różnica ciśnienia zredukowanego i tego na poziomie stacji (zmiana ta wskazuje na zmianę wysokości położenia barometru i widać, że stacja w Mławie najprawdopodobniej była przeniesiona w 1968 r.).

Innym (znanym zresztą) są problemy ze stacją w Warszawie. Zasadniczo do 1994 r. nie budzą one jakichś większych wątpliwości, a potem zaczynają się dziać rzeczy dziwne. Od marca 1995 do sierpnia 1995 usłonecznienie w Warszawie jest znacząco niższe od tła:

Rok później sytuacja odwraca się o 180° i Warszawa stanowi teraz lokalne maksimum, co jest wyraźnie widoczne latem.

Sytuacja ta jest widoczna jeszcze w marcu 1997, natomiast od lipca do września 1997 dane są nieznacznie niższe od tła. W 1998 następuje kolejna zmiana i tym razem usłonecznienie w Warszawie jest od tła znacząco wyższe, przy czym dotyczy to miesięcy z wysokim usłonecznieniem. Od listopada do lutego różnice są niewielkie, lub żadne. W miesiącach letnich, w przypadkach skrajnych, potrafią znacznie przekraczać 120h w stosunku do oszacowania satelitarnego.

W 2003 podobny problem pojawia się w Rzeszowie. Jak wynika z „Biuletynu PSHM” usłonecznienie na tych stacjach pochodziło z lotniskowego systemu Vaisala wykorzystującego czujniki DSU12. W Rzeszowie problem przestaje być widoczny w roku 2009, zaś w Warszawie w roku 2015 – w tym roku dane zgadzają się wyjątkowo dobrze. W 2016 różnice – tym razem na minus w stosunku do tła mamy w Warszawie i ponownie w Mławie.

Znacznie większe różnice pomiędzy danymi satelitarnymi a usłonecznieniem ze stacji pomiarowych mamy w skali roku. Szczególnie duże są one przed 1993, kiedy w uśrednieniu do całego kraju przekraczają 200 godzin. Przyczyny takiego stanu rzeczy mogą być różne. Pierwsza, podstawowa, to różny próg heliograficzny. Dane satelitarne są dostosowane do progu 120 W/m2, a więc próg ten jest niższy, niż w przypadku stosowanego dawniej heliografu Campbella-Stokesa. Inną przyczyną może być częściowe zasłonięcie horyzontu przez przeszkody (czy to sztuczne, czy naturalne). Jeśli taka przeszkoda będzie częściowo przysłaniać horyzont i przez to zasłaniać Słońce przez 10 minut dziennie, usłonecznienie będzie zaniżone o 60 godzin w skali roku. Dodatkowo w latach 80. i na początku lat 90. XX w. znacznie większe było zapylenie atmosfery związane z antropogenicznymi emisjami aerozoli. To mogło nieco zaniżać mierzone usłonecznienie, szczególnie w okolicy wschodów i zachodów Słońca. Analiza satelitarna dodatkowo może niedostatecznie uwzględniać rzeźbę terenu, a stacje położone w obniżeniach terenu mogą doświadczać częstych zamgleń, które nie będą wychwycone na obrazach satelitarnych.

Poniżej: usłonecznienie roczne w 1984 wg danych satelitarnych i synoptycznych.

Dość interesujące jest, że po początkowym spadku różnic na przełomie lat 80. i 90., w 1991 ponownie one wzrosły: z -68h (średnia roczna różnica dla Polski) w 1990 do -128h w 1991 do aż 222h w 1992. W 1993 natomiast ponownie spadły do bardzo niskiego poziomu:  23.6h, przy czym byłyby jeszcze niższe, gdyby nie różnice w Mławie. Teoretycznie można by było próbować zrzucić część tych różnic na zapylenie atmosfery po wybuchu Pinatubo, jednakże jest to mocno naciągane: w 1991 połowa różnicy za ten rok wystąpiła w lutym i marcu, czyli jeszcze przed wybuchem wulkanu. Od 1993 różnice są nieznaczne. Po roku 2000 zasadniczo średnie różnice usłonecznienia rocznego między analizą satelitarną i pomiarami na stacjach nie były duże, poza wspomnianymi przypadkami Rzeszowa i Warszawy:

W 2015 problem przestaje dotykać Warszawę, ale niższa od tła jest Mława.

W 2017 do Mławy dołączyła Warszawa. Problem ten stał się widoczny szczególnie w roku 2018.

W sposób oczywisty mamy więc zerwanie jednorodności przynajmniej kilku serii pomiarowych. W Mławie zerwanie to dotyczy okresu od 1988 do 1994 i najprawdopodobniej po 2016. W Rzeszowie od 2003 do 2008 i w Warszawie od 1995 do 2014 oraz od 2017. Dodatkowo od momentu automatyzacji stacji synoptycznych sporadycznie niektóre z nich potrafiły raportować błędne usłonecznienie, jest to jednak temat na inny wpis. Dane satelitarne przynajmniej od roku 1993 wydają się wiarygodnym i stosunkowo jednorodnym źródłem informacji o usłonecznieniu w Polsce. Do tematu jeszcze z pewnością wrócimy.

Tragedia w Tatrach

Tragedia w Tatrach

Kilka osób zginęło dziś w Tatrach w wyniku rażenia piorunem. Jak zwykle w takich przypadkach pojawiają się pytania to, czy były jakieś ostrzeżenia, tymczasem smutna prawda jest taka, że burza ta w żadnym razie do ostrzeżeń się nie kwalifikowała. Nie było ani skrajnie ulewnych opadów, ani silnych porywów wiatru. Co więcej, kiepska pogoda nie pojawiła się znikąd – oznaki nadchodzącej burzy były widoczne już wcześniej. Trzeba pamiętać, że każda burza może być groźna i w przypadku tak niepewnej pogody należy unikać wychodzenia w góry.

W tej sprawie biuro prasowe IMGW wydało komunikat.

 

 

 

Ciepły koniec sierpnia?

Ciepły koniec sierpnia?

Wszystko wskazuje na to, że po krótkim ochłodzeniu, pod koniec tygodnia wrócą wysokie temperatury, być może przekraczające nawet 30°C. Wg najnowszych odsłon modelu GFS ciepło miałoby być do końca miesiąca, co znacząco podwyższyłoby średnią anomalię miesięczną. Obecnie prognozy mówią nawet o wartościach rzędu +1.5K względem normy z lat 1981-2010. Ponieważ (niemal) ostateczne oszacowanie anomalii czerwca to +5.35K, a wstępne oszacowanie anomalii lipca to +0.10K, sierpniowa anomalia rzędu +1.5K dałaby przeciętną anomalię lata 2019 równą +2.32K, wyraźnie powyżej dotychczasowego rekordu (+2.11K 1811, 2018). Fakt, że najwyższe anomalie panowały w zasadzie w czerwcu, przed sezonem urlopowym, a najcieplejszy przeciętnie miesiąc lata, czyli lipiec charakteryzował się temperaturami znacznie niższymi, włącznie z dwutygodniową falą chłodu z pewnością spowoduje, że pojawi się wiele głosów sceptycznych. Z pewnością lato ponownie największymi anomaliami odznaczy się w południowej części kraju. Lipiec i sierpień w części północnej i północno-wschodniej miały najniższe wartości anomalii temperatury, co w połączeniu z faktem, że i tak przeciętnie jest tam najchłodniej spowoduje, że mieszkańcy tych regionów mogą nie uznać tych miesięcy za najbardziej udane.

W południowej części kraju było zgoła inaczej. We Wrocławiu lipcowy chłód trwał zaledwie 10 dni, a i tak w wielu z tych dni temperatura maksymalna znacznie przekraczała 20°C. Średnia temperatura miesięczna czerwca osiągnęła tu 22.7°C, w lipcu było to 20.3°C. Najwyższa średnia miesięcy czerwiec-sierpień wystąpiła w roku 2018 i wyniosła 20.8°C. Sierpień 2019 póki co charakteryzuje się we Wrocławiu średnią temperaturą równą 20.6°C i wszystko wskazuje na to, że istnieje spora szansa, że do końca miesiąca nie spadnie poniżej 20°C, będzie to zatem rekordowo ciepłe lato w tej części kraju.

Niższe temperatury w końcu prognozy pokazuje model ECMWF, jednak na podstawie całej serii ECMWF-EPS należy póki co traktować ten przebieg jako outlier i poczekać do kolejnych odsłon. Póki co możemy spodziewać się ocieplenia od piątku, przy czym temperatury przekraczające 30°C miałyby się pojawić raczej tylko w zachodniej i południowo-zachodniej części kraju i to dopiero w niedzielę 25 sierpnia.

Poniżej: prognoza zmian średniej anomalii miesięcznej temperatury (okres referencyjny 1981-2010) sierpnia 2019 w Polsce.

Nietrafione prognozy „klimatystów”

Nietrafione prognozy „klimatystów”

Bardzo spodobało mi się określenie „klimatyści” wymyślone bodajże przez pana Rafała Ziemkiewicza (tego od riserczu). W odróżnieniu jednak do autora tego określenia, osobiście uważam za „klimatystów” tę stronę sporu, której stwierdzenia, delikatnie rzecz ujmując, stoją w sprzeczności z ustaleniom nauki na temat globalnego ocieplenia. Wśród takich „klimatystów” są nie tylko publicyści w postaci panów Łukasza Warzechy, czy Rafała Ziemkiewicza, którzy w nader wygodny sposób potrafią sobie dobierać fakty do stawianej tezy, ale też tacy, którzy swoją wizje na temat zmian klimatycznych przekuwają na prognozy. Ponieważ nawet najszybsze zmiany klimatu z punktu widzenia człowieka wydają się przebiegać stosunkowo powoli, przypomnimy prognozy sprzed co najmniej 10 lat.

Wydaje się dość zabawne, że negacjonistycznie nastawiona  do zdobyczny nauki w dziedzinach klimatologii, czy fizyki atmosfery strona sporu nazywa swych oponentów „alarmistami”, jednocześnie bardzo ochoczo strasząc silnym ochłodzeniem klimatu, które czyhać ma na nas tuż za rogiem. Wystarczy wspomnieć niesławny artykuł prof. Zbigniewa Jaworowskiego („Idzie zimno”, Polityka kwiecień 2008), gdzie czytamy:

Tegoroczna polska zima była lekka. Średnia temperatura stycznia mierzona na Okęciu była o 4.8°C wyższa od długoterminowej wynoszącej -1.1°C (informacja od prof. H. Lorenc z IMGW). Dzięki temu mniej zapłaciliśmy za gaz i węgiel, ale w skali całego globu nie było tak różowo. Cztery główne systemy monitorowania temperatury Ziemi (angielski Hadley-CRUT i amerykańskie GISS, UAH i RSfS) stwierdziły, że nad lądami i morzem oraz w dolnej troposferze styczeń 2008 r. był wyjątkowo zimny, według GISS aż o 0,75oC chłodniejszy niż rok temu. Również stratosfera była chłodniejsza o 0,5°C.

Po tej „szokującej” informacji przechodzimy stwierdzeń typowych dla tamtych czasów: że od 1998 temperatura nie rośnie i w końcu do straszenia niską aktywnością słoneczną i mającą z niej wynikać Małą Epoką Lodową. Oczywiście nie było ani słowa o tym, że aktywność słoneczna spadała już od końca lat 50. XX w., ani o tym że „płaski” trend temperatury od 1998 wynikał tylko i wyłącznie z dobrania takiego okresu, by na jego początku znalazł się rekordowo ciepły rok 1998 (czemu pomogło nie tylko globalne ocieplenie, ale i El Niño), a na końcu lata zimne. Nie tylko prof. Jaworowski uderzał w te tony.

 

Girma Orssengo

Pan podpisujący się jako „BTech, MASc, PhD, Engineering, Perth, Western Australia, Australia” wymyślił w 2010, że całą obserwowaną zmianę klimatu możemy wyjaśnić jednym cosinusem połączonym z trendem liniowym. Wzór, który zastosował wyglądał następująco:

0.0059*(Rok-1880)-0.52+0.3*cos(((Rok-1880)/60)*2*pi)

 

Rozumiecie jak genialne to odkrycie? Ośrodki naukowe na całym świecie używają skomplikowanych modeli mających policzyć zmiany klimatu związane ze wzrostem wymuszenia radiacyjnego wynikającym z emisją gazów cieplarnianych, podczas gdy wystarczy zwykły arkusz kalkulacyjny! Oryginalny wykres Orssengo możemy zobaczyć poniżej.

 

Sprawdźmy najpierw, czy uda nam się zreplikować jego model, możemy do R wprowadzić np. taki kod:

Rok <- seq(1880,2040,1)
model <- 0.0059*(Rok-1880)-0.52+0.3*cos(((Rok-1880)/60)*2*pi)
df <- data.frame(yr=Rok, m=model )
plot(df$m ~ df$yr, type='l', xaxt='n', yaxt='n', lwd=3, xlab="Rok", ylab="Anomalia temperatury")
axis(1, at=seq(1880,2040,10))
axis(2, at=seq(-2,2,0.2))
abline(h=seq(-2,2,0.2), lty=3, col="black")
abline(v=seq(1880,2040,10), lty=3, col="black")

W wyniku otrzymamy wykres:

Wygląda na to, że się zgadza. Dodajmy jeszcze dane HadCRUT (obecnie w wersji 4):

Otrzymujemy stan na rok 2009, dokładnie taki, jakim dysponował G. Orssengo. Oczywiście od tego czasu minęła niemal dekada i możemy sprawdzić, jak się ma owa prognoza do rzeczywistości. A ma się tak:

W tym momencie wiemy (a co mądrzejsi wiedzieli to od początku), to co pan Orssengo powinien wiedzieć w momencie tworzenia owej prognozy: że do cosinusa można sobie „dopasować” bardzo dużo rzeczy, nie koniecznie z sensem. Warto zwrócić uwagę, że model pana Orssengo zakłada, że w czasie narodzin Chrystusa średnia globalna anomalia temperatury wynosić by miała niemal -12K. Jesteśmy również pewni, że Orssengo coś se jeszcze dopasuje. Wystarczy przecież zmienić okres z 60 na 65 lat i znowu wykres będzie „mniej więcej” pasować do danych pomiarowych. Dołek temperatury przesunie się z okolic 2028 na okolice 2040, ale nadal  wizualnie będzie wyglądało to dobrze. I nadal nie będzie miało to żadnego sensu. Zresztą – już zaprezentowany model mocno się nie zgadzał, ponieważ funkcja aproksymująca zmiany temperatury została dopasowana do szczytu z lat 1998-2009. Minima funkcji są za nisko względem obserwacji. Można to było „poprawić” zmniejszając amplitudę postulowanego cyklu, niestety wówczas uciekały już dane bieżące (a jeszcze gorzej byłoby, gdyby na to nałożyć dane do 2018):

Ale to można było poprawić zwiększając nieco trend liniowy. Już rozumiecie? W ten sposób można sobie dopasować wszystko. Za około 10 lat tak prosty zabieg nie będzie już możliwy przy użyciu jednej funkcji sin/cos. Fabrykacja takiej prognozy, mającej sprawiać wrażenie sensownej będzie wymagała zastosowania nieco bardziej skomplikowanego (ale nadal mieszczącego się w podpisie wykresu) wzoru.

 

Don J. Easterbrook

D. Eastrbrook to professor emeritus geologii na Western Washington University. I jednocześnie jedna z mroczniejszych klimatystycznych postaci w tym zestawieniu. Mroczniejszych, bo manipulujących seriami danych w celu uzyskania potwierdzenia swoich tez.

Podobnie jak G. Orssengo, Easterbrook postuluje istnienie cykli, w które wpisywać się ma obecnie obserwowane ocieplenie. Cykle te mają być wywołane zmianami aktywności słonecznej oraz PDO.  W 2006 r. Easterbrook twierdził, że bieżące ocieplenie ma się ku końcowi i jeśli cykl ten będzie kontynuowany, to należy się spodziewać ochłodzenia z minimum w okolicy roku 2035.

If the cycles continue as in the past, the current warm cycle should end soon and global temperatures should cool slightly until about 2035, then warm about 0.5°C from ~2035 to ~2065, and cool slightly until 2100.

Źródło.

Teza ta była podparta taką „projekcją”:

 

Samo w sobie to stwierdzenie nie było jeszcze niczym złym. Co prawda pozbawione było podstaw naukowych, ale nie miało w sobie znamion manipulacji danymi. Gorzej było parę lat później, gdy prof. Easterbrook zaprezentował taki oto, zaktualizowany wykres.

Na wykresie tym mamy już wyraźnie oznaczone okresy chłodne i ciepłe. Co więcej, mamy naniesioną prognozę IPCC i dane rzeczywiste, które mocno się z tą prognozą rozjeżdżają. Pik temperatury następuje w 1998 (pamiętacie, że prof. Jaworowski pisał o braku wzrostu temperatury po 1998?), następnie mamy spadek do poziomu z 1977/1978 i wzrost temperatury, ale do poziomu niższego, niż w latach 90. XX w. Problem polega na tym, że zaprezentowane „dane pomiarowe” po 1998 nie zgadzają się z żadną serią pomiarową. Żadną. Ani GISTEMP od NASA GISS. Ani z HadCRUT od CRU, ani z seriami satelitarnymi UAH i RSS.

Poniżej: dane GISTEMP.

Poniżej: satelitarna seria UAH:

W żadnej z tych serii okres po 2001 nie jest chłodniejszy od lat 90. XX w. Najmniejsze ocieplenie wskazuje satelitarna seria UAH, co akurat nie jest zaskoczeniem, jako że nie mierzy ona nawet temperatury przy powierzchni Ziemi, tylko jest oszacowaniem tejże temperatury w dolnej troposferze1. Smutna prawda jest więc taka, że dane te zostały „poprawione” na rzecz prognozy prof. Easterbrooka. I nie jest to tylko obserwacja ludzi uznających naukę związaną z globalnym ociepleniem. Problem dostrzegł również Bob Tisdale, negacjonista, na negacjonistycznym blogu „Watts Up With That”, gdzie prof. Easterbrook opublikował w 2014 wpis na temat swoich „odkryć” i prognoz. W komentarzu Bob Tisdale pyta:

And what kind of magical dataset did you present in your Figure 4?

Istotnie, trudno się nie zgodzić – seria danych prezentowana na fig. 4 rzeczywiście musi być „magiczna”. Przepychanki między negacjonistami trochę trwały, ostatecznie jednak prof. Easterbrook nie potrafił wskazać, w jaki sposób uzyskał serię danych niezgodną z jakąkolwiek opublikowaną serią anomalii temperatury globalnej. Prawdopodobnie Bob Tisdale był bliski prawdy, że jest ona efektem połączenia ze sobą dwóch zupełnie różnych serii: HadCRUT i UAH. Nikt poważnie zajmujący się tą tematyką czegoś takiego by nie zrobił. Dodatkowo Tisdale wprost zarzuca Easterbrookowi „tworzenie globalnego ochłodzenia w okresie, gdy takowego nie było”:

I raised a few eyebrows a couple of weeks ago by complaining loudly about a graph of global surface temperature anomalies (among other things) that was apparently created to show global cooling over a period when no global cooling existed.

W odpowiedzi na zarzuty kolegi Easterbrook oskarżył go o „werbalny atak” i… nie wyjaśnił skąd się bierze różnica między seriami danych a jego wykresem.

Warto wskazać, że sami pisaliśmy o tym oszustwie cztery lata wcześniej, niż wpadł na nie Bob Tisdale. Co więcej, wskazaliśmy dokładnie ten sam mechanizm oszustwa. Jeżeli chodzi zaś o sprawdzalność prognozy Easterbrooka, to wg niej powinniśmy już być w zaawansowanej fazie ochłodzenia. Żadna seria pomiarowa nie wskazuje, by miałaby to być prawda. Dla porządku jednak porównajmy owe prognozy z danymi rzeczywistymi.

Oprzemy się tu na „projekcji” prof. Easterbrooka opublikowanej w 2008 r. i zaprezentowanej na WUWT. Wygląda ona następująco:

W części historycznej projekcji prof. Easterbrooka wykres temperatur globalnych jest mocno wygładzony. Charakterystyczne jest tu ocieplenie z okolic 1940 (z anomalią ok. +0.1K) oraz prognozowany szczyt temperatury w okolicy 2000, po którym miałoby następować ochłodzenie wg trzech różnych scenariuszy. Pierwszy scenariusz to łagodne ochłodzenie, które jest replikacją ochłodzenia z lat 1945-1977, drugi scenariusz replikować ma silniejsze ochłodzenie z lat 1880-1915 (choć w rzeczywistości ochłodzenie z tamtych lat było ok. dwukrotnie słabsze, niż zaprezentował tu Easterbrook) oraz trzeci, będący opcją skrajną, w którym następuje wyjątkowo silne globalne ochłodzenie o ok. 1K do 2022 r.  Jak czytamy we wpisie na WUWT (podkreślenia nasze):

The IPCC predicted global warming of 0.6° C (1° F) by 2011 and 1.2° C (2° F) by 2038, whereas Easterbrook (2001) predicted the beginning of global cooling by 2007 (± 3-5 yrs) and cooling of about 0.3-0.5° C until ~2035. The predicted cooling seems to have already begun. Recent measurements of global temperatures suggest a gradual cooling trend since 1998 and 2007-2008 was a year of sharp global cooling.

Na podstawie tego opisu odtworzyliśmy prognozę Easterbrooka – ochłodzenie rozpoczyna się w roku 2003 (a zarazem projekcja Easterbrooka, na co wskazuje powyższy wykres) i trwa do roku 2035. Temperatura spada o nieco ponad 0.3°C, co również jest spójne z tekstem prognozy. Wygląda to następująco:

Jak widać, wszystkie wartości na wykresie są o około 0.5°C niższe, niż w oryginalnej prognozie, co wynika ze zmiany okresu referencyjnego na 1981-2010, dzięku czemu można było pokazać serie satelitarne. Wykres jest 5-letnią średnią ruchomą (centrowaną), zatem ostatni punkt danych to średnia za lata 1998-2002. Oczywiście minęło już sporo czasu, możemy zatem pokazać jak w istocie zmieniały się anomalie temperatury aż do 2018 (a dokładniej 2014-2018). Okazuje się (co nie jest jakieś szczególnie zaskakujące), że prognoza prof. Easterbrooka kompletnie rozmija się z rzeczywistością:

Nawet seria satelitarna UAH, która po szeregu modyfikacji1 wskazuje najmniejszy trend ocieplenia mocno rozjeżdża się z prognozą Easterbrooka. Seria RSS, również oparta o dane satelitarne, wskazuje na zdecydowanie silniejsze ocieplenie i jest zbliżona do pomiarów naziemnych. Rozjazd między prognozami a rzeczywistością sięga już ok 0.4°C. Zdecydowanie lepiej sprawdziły się prognozy IPCC. Co prawda obserwowany trend jest nieco niższy, niż prognozowany w scenariuszu RCP 8.5 (co wynika z nieco innych wartości wymuszenia radiacyjnego, niż prognozowano, a także nieco innych metod obliczania średniej globalnej), jednakże znacznie bliższy rzeczywistości, niż prognozy Easterbrooka.

Podsumowując – prof. Easterbrook nie tylko dopuścił się bardzo brzydkich działań mających na celu nagięcie danych z serii pomiarowych do własnych prognoz, dodatkowo jego prognozy zupełnie się nie sprawdziły.

 

David C. Archibald

Ochłodzenie klimatu prognozowane przez D. Easterbrooka wydaje się niczym nieznaczącym epizodem przy prognozach Davida Archibalda. David C. Archibald to geolog, członek powołanej w 2000 r. tzw „Grupy Lavoisiera„, której głównym celem jest szerzenie negacjonizmu względem globalnego ocieplenia. Związany jest również ściśle z przemysłem naftowym, np. jako dyrektor zarządzający Yeeda Oil Ltd. Swego czasu wraz z dwoma bliżej niezidentyfikowanymi profesorami z Purdue University opracował tabletki mające leczyć raka prostaty zrobione z warzyw – brokułów i chili. Barwna postać.

Na samym początku roku 2006 David Archibald opracował prognozę gwałtownego ochłodzenia, jakie miało być związane z malejącą aktywnością słoneczną. Prognoza opierała się na powiązaniu średniej temperatury rocznej w wybranych punktach i długości cyklu słonecznego. Na tej podstawie Archibald stwierdził, że:

Projections of weak solar maxima for solar cycles 24 and 25 are correlated with the terrestrial climate response to solar cycles over the last three hundred years, derived from a review of the literature. Based on solar maxima of approximately 50 for solar cycles 24 and 25, a global temperature decline of 1.5°C is predicted to 2020, equating to the experience of the Dalton Minimum. To provide a baseline for projecting temperature to the projected maximum of solar cycle 25, data from five rural, continental US stations with data from 1905 to 2003 was averaged and smoothed. The profile indicates that temperatures remain below the average over the first half of the twentieth century.

Dobrze czytacie. Na podstawie danych z pięciu wybranych stacji, David Archibald prognozował, że w ciągu 17 lat od 2003 roku do roku 2020 średnia globalna temperatura spadnie o 1.5°C! Możemy wykorzystać poprzednie wykresy do pokazania tej prognozy.

Warto zauważyć, że przy gigantycznym ochłodzeniu prognozowanym przez D. C. Archibalda, ochłodzenie prognozowane pierwotnie przez Easterbrooka wydaje się kompletnie nieistotne, wręcz niezauważalne. I oczywiście wiemy też, że w serii pomiarowej nie ma nawet śladu ochłodzenia.

Podobnie, jak gigantyczne było prognozowane ochłodzenie, gigantyczny jest też błąd owej prognozy. Sięga on obecnie 1.3 – 1.4°C. I o ile o prognozach prof. Easterbrooka możemy zwyczajnie powiedzieć, że się „nie sprawdziły”, to w przypadku prognoz Davida Archibalda byłoby to dużym eufemizmem. Błąd tej prognozy możemy chyba jedynie porównać do przypadku, w którym ktoś prognozuje falę mrozu, a otrzymuje falę upałów. Staje się powoli jasne, że prognozy klimatycznych negacjonistów wysuwane na początku bieżącego wieku nie miały nic wspólnego z rzeczywistością, co więcej nie miały podstaw naukowych. Wyciąganie wniosków z pięciu wybranych stacji (przy czym istnieje wysokie ryzyko, że wybrane były one specjalnie pod tezę) musiało się skończyć tak, jak na powyższym wykresie.

Richard Lindzen

Lindzen to jeden z nielicznych fizyków podważających antropogeniczne przyczyny globalnego ocieplenia. W 1989 r. stwierdził on, iż „osobiście uważa, że prawdopodobieństwo że w nadchodzącym stuleciu ocieplenie związane z gazami cieplarnianymi osiągnie wartości porównywalne z naturalną zmiennością klimatu jest małe„. Oznacza to, że ocieplenie związane z emisją tychże gazów nie powinno wg Lindzena przekroczyć 0.3°C/100 lat. Oczywiście, jak widzimy na zaprezentowanych wyżej wykresach, jest ono sporo większe.

Porównanie prognozy Hansena (1988) i rzeczywistych danych pomiarowych. Dodano prognozę opartą o twierdzenia R. Lindzena. Źródło: Skeptical Science.

 

John McLean

W okolicach roku 2010 ów pan zasugerował, iż w związku z ujemną fazą ENSO (La Niña) średnia temperatura globalna spadnie do poziomu najniższego od 1956, a być może i wcześniej. Oczywiście jak wiemy, nic takiego nie miało miejsca. Prognoza oparta była o pracę „Influence of the Southern Oscillation on tropospheric temperature” (McLean, Freitas, Carter 2009) w której co prawda słusznie wskazano związek ENSO ze zmiennością temperatury globalnej w krótkich skalach czasowych, ale jednocześnie wysunięto wniosek,  który absolutnie z tej pracy nie wynikał:

Finally, this study has shown that natural climate forcing associated with ENSO is a major contributor to variability and perhaps recent trends in global temperature, a relationship that is not included in current global climate models.

Ponieważ wskaźniki związane z ENSO (np. wzmiankowane w pracy SOI) spadły w 2011 do bardzo niskich poziomów, na tej podstawie i na podstawie błędnych wniosków McLean wysunął prognozę, która się nie sprawdziła, bo się sprawdzić nie mogła.

To tylko parę przykładów z prognozowanych „globalnych ochłodzeń”, które ostatecznie nie doszły do skutku. Cechą charakterystyczną jest tutaj późniejsze przesuwanie prognozowanego startu ochłodzenia w czasie – w sytuacji gdy w sposób oczywisty do ochłodzenia nie doszło (nie wskazuje na to żadna seria pomiarowa). Można na przykład odnaleźć prezentację prof. Easterbrooka z 2017,  w której opowiada on dokładnie te same historie, co 10 lat wcześniej i całkowicie „przypadkowo” na wykresach nie widać ostatnich najcieplejszych lat, urywają się one w bardzo wygodnym dla Easterbrooka miejscu. Dokładnie te same wykresy możemy znaleźć w prezentacji trzy lata starszej, co jednoznacznie wskazuje, że nowsze dane były dla prof. Easterbrooka zwyczajnie niewygodne.

Powyżej: zrzut z prezentacji prof. Easterbrooka z 2014 r. Mimo, że mieliśmy już dodatkowe 13 lat danych, Easterbrook nadal ucina je w roku 2000, prezentując „prognozę” po tym roku.

 

Powyżej: kolejny zrzut z tej samej prezentacji. Ćwiczenie: na poniższym wykresie satelitarnej serii UAH wskaż rok 2012 i wyjaśnij, dlaczego w prezentacji z 2014 prof. Easterbrook uciął wykres właśnie na początku 2012.

 

 

1 Satelitarne serie pomiarowe w istocie nie mierzą temperatury przy powierzchni ziemi, tak jak termometry w seriach „naziemnych”. Zamiast tego oszacowują temperaturę dolnej troposfery w oparciu o pomiary (wykonywane za pomocą MSU/AMSU) strumienia promieniowania w różnych długościach fali. Wynik, czyli szacowana anomalia temperatury zależy od tego, w jaki sposób różne grupy zajmujące się tym tematem ją wyliczą. Problemem jest tu nie tylko dryf satelitów (które powinny się znajdować nad danym miejscem dokładnie o tej samej porze, ale z uwagi na zmiany parametrów orbity ta pora się zmienia), ale i fakt, że seria składa się z danych pochodzących z wielu różnych satelitów na których znajdują się instrumenty różnego rodzaju, przez co cała seria jest niejednorodna i wymaga wielu korekt. Parę lat temu satelitarna seria UAH została zaktualizowana do wersji 6.0, w której znacząco obniżono anomalie temperatury w stosunku do wersji 5.6. Po tym zabiegu seria ta charakteryzuje się najniższym trendem temperatury ze wszystkich serii pomiarowych, również innych serii satelitarnych. Nie radzimy przywiązywać się do tych danych, nie wiadomo bowiem jak będą wyglądać w kolejnych wersjach ;)

 

 

 

 

 

Ulewa w Katowicach

Ulewa w Katowicach

Nad Katowicami przeszła dziś wyjątkowo silna burza z obfitymi opadami deszczu, których intensywność dochodziła miejscami do 18 mm/10 minut. W ciągu godziny spadło od 74  mm opadu, a wg systemu telemetrii IMGW-PIB całkowity opad osiągnął 82.7 mm. Jeśli dane te zostaną potwierdzone w depeszy z 18UTC, będzie to oznaczać największy opad dobowy w historii pomiarów na tej stacji.


Tak duża suma opadów w krótkim czasie doprowadziła do licznych podtopień oraz wezbrania mniejszych cieków i rzek. Drogowcy byli zmuszeni zamknąć tunel pod rondem, jak donosi Radio ZET:

Po potężnej burzy i ulewie nieprzejezdna jest część dróg w Katowicach i okolicznych miastach. „Tunel i wszystkie drogi wyjazdowe z Katowic zalane” – alarmuje słuchaczka Radia ZET. Jak dodaje, podobnie jest m.in. w Sosnowcu. Tam pod wodą jest hipermarket Auchan, a klienci są uwięzieni w sklepie i na zalanym parkingu.

 



 

Źródło: Twitter.