Kategoria: GISTEMP

Lipiec 2019 globalnie najcieplejszy w historii pomiarów instrumentalnych

Lipiec 2019 globalnie najcieplejszy w historii pomiarów instrumentalnych

Wg serii GISTEMP globalna anomalia temperatury względem okresu referencyjnego 1951-1980 osiągnęła w lipcu +0.92 – +0.93K i była najwyższa dla lipca w całej historii pomiarów. Poprzedni najcieplejszy lipiec wystąpił w 2016 (+0.85K).

Jak widać względem tego okresu referencyjnego lipiec w Polsce był ciepły – inaczej jest względem nowszego okresu referencyjnego 1991-2019.

 

Lipiec najcieplejszy był również w analizie Berkeley Earth – przypomnijmy, Berkeley Earth to założona w 2010 r. m.in. przez Richarda A. Mullera grupa, mająca pierwotnie na celu zweryfikowanie dotychczas używanych analiz anomalii temperatur globalnych. Analiza ta brała pod uwagę wpływ Miejskich Wysp Ciepła i obejmowała znacznie więcej stacji pomiarowych niż GISTEMP. Była to wielka nadzieja osób sceptycznych wobec ustaleń naukowych odnośnie globalnego ocieplenia, zespół Berkeley Earth był nawet przez takie środowiska dotowany. Ostatecznie wyniki analizy Berkeley Earth potwierdziły dotychczasowe ustalenia na temat wzrostu temperatur.

Wg analizy Berkeley Earth istnieje około 90% szans, że globalnie rok 2019 zapisze się jako drugi najcieplejszy rok w historii pomiarów instrumentalnych.

Również w analizie NOAA/NCEI lipiec był globalnie rekordowo ciepły.

Nietrafione prognozy „klimatystów”

Nietrafione prognozy „klimatystów”

Bardzo spodobało mi się określenie „klimatyści” wymyślone bodajże przez pana Rafała Ziemkiewicza (tego od riserczu). W odróżnieniu jednak do autora tego określenia, osobiście uważam za „klimatystów” tę stronę sporu, której stwierdzenia, delikatnie rzecz ujmując, stoją w sprzeczności z ustaleniom nauki na temat globalnego ocieplenia. Wśród takich „klimatystów” są nie tylko publicyści w postaci panów Łukasza Warzechy, czy Rafała Ziemkiewicza, którzy w nader wygodny sposób potrafią sobie dobierać fakty do stawianej tezy, ale też tacy, którzy swoją wizje na temat zmian klimatycznych przekuwają na prognozy. Ponieważ nawet najszybsze zmiany klimatu z punktu widzenia człowieka wydają się przebiegać stosunkowo powoli, przypomnimy prognozy sprzed co najmniej 10 lat.

Wydaje się dość zabawne, że negacjonistycznie nastawiona  do zdobyczny nauki w dziedzinach klimatologii, czy fizyki atmosfery strona sporu nazywa swych oponentów „alarmistami”, jednocześnie bardzo ochoczo strasząc silnym ochłodzeniem klimatu, które czyhać ma na nas tuż za rogiem. Wystarczy wspomnieć niesławny artykuł prof. Zbigniewa Jaworowskiego („Idzie zimno”, Polityka kwiecień 2008), gdzie czytamy:

Tegoroczna polska zima była lekka. Średnia temperatura stycznia mierzona na Okęciu była o 4.8°C wyższa od długoterminowej wynoszącej -1.1°C (informacja od prof. H. Lorenc z IMGW). Dzięki temu mniej zapłaciliśmy za gaz i węgiel, ale w skali całego globu nie było tak różowo. Cztery główne systemy monitorowania temperatury Ziemi (angielski Hadley-CRUT i amerykańskie GISS, UAH i RSfS) stwierdziły, że nad lądami i morzem oraz w dolnej troposferze styczeń 2008 r. był wyjątkowo zimny, według GISS aż o 0,75oC chłodniejszy niż rok temu. Również stratosfera była chłodniejsza o 0,5°C.

Po tej „szokującej” informacji przechodzimy stwierdzeń typowych dla tamtych czasów: że od 1998 temperatura nie rośnie i w końcu do straszenia niską aktywnością słoneczną i mającą z niej wynikać Małą Epoką Lodową. Oczywiście nie było ani słowa o tym, że aktywność słoneczna spadała już od końca lat 50. XX w., ani o tym że „płaski” trend temperatury od 1998 wynikał tylko i wyłącznie z dobrania takiego okresu, by na jego początku znalazł się rekordowo ciepły rok 1998 (czemu pomogło nie tylko globalne ocieplenie, ale i El Niño), a na końcu lata zimne. Nie tylko prof. Jaworowski uderzał w te tony.

 

Girma Orssengo

Pan podpisujący się jako „BTech, MASc, PhD, Engineering, Perth, Western Australia, Australia” wymyślił w 2010, że całą obserwowaną zmianę klimatu możemy wyjaśnić jednym cosinusem połączonym z trendem liniowym. Wzór, który zastosował wyglądał następująco:

0.0059*(Rok-1880)-0.52+0.3*cos(((Rok-1880)/60)*2*pi)

 

Rozumiecie jak genialne to odkrycie? Ośrodki naukowe na całym świecie używają skomplikowanych modeli mających policzyć zmiany klimatu związane ze wzrostem wymuszenia radiacyjnego wynikającym z emisją gazów cieplarnianych, podczas gdy wystarczy zwykły arkusz kalkulacyjny! Oryginalny wykres Orssengo możemy zobaczyć poniżej.

 

Sprawdźmy najpierw, czy uda nam się zreplikować jego model, możemy do R wprowadzić np. taki kod:

Rok <- seq(1880,2040,1)
model <- 0.0059*(Rok-1880)-0.52+0.3*cos(((Rok-1880)/60)*2*pi)
df <- data.frame(yr=Rok, m=model )
plot(df$m ~ df$yr, type='l', xaxt='n', yaxt='n', lwd=3, xlab="Rok", ylab="Anomalia temperatury")
axis(1, at=seq(1880,2040,10))
axis(2, at=seq(-2,2,0.2))
abline(h=seq(-2,2,0.2), lty=3, col="black")
abline(v=seq(1880,2040,10), lty=3, col="black")

W wyniku otrzymamy wykres:

Wygląda na to, że się zgadza. Dodajmy jeszcze dane HadCRUT (obecnie w wersji 4):

Otrzymujemy stan na rok 2009, dokładnie taki, jakim dysponował G. Orssengo. Oczywiście od tego czasu minęła niemal dekada i możemy sprawdzić, jak się ma owa prognoza do rzeczywistości. A ma się tak:

W tym momencie wiemy (a co mądrzejsi wiedzieli to od początku), to co pan Orssengo powinien wiedzieć w momencie tworzenia owej prognozy: że do cosinusa można sobie „dopasować” bardzo dużo rzeczy, nie koniecznie z sensem. Warto zwrócić uwagę, że model pana Orssengo zakłada, że w czasie narodzin Chrystusa średnia globalna anomalia temperatury wynosić by miała niemal -12K. Jesteśmy również pewni, że Orssengo coś se jeszcze dopasuje. Wystarczy przecież zmienić okres z 60 na 65 lat i znowu wykres będzie „mniej więcej” pasować do danych pomiarowych. Dołek temperatury przesunie się z okolic 2028 na okolice 2040, ale nadal  wizualnie będzie wyglądało to dobrze. I nadal nie będzie miało to żadnego sensu. Zresztą – już zaprezentowany model mocno się nie zgadzał, ponieważ funkcja aproksymująca zmiany temperatury została dopasowana do szczytu z lat 1998-2009. Minima funkcji są za nisko względem obserwacji. Można to było „poprawić” zmniejszając amplitudę postulowanego cyklu, niestety wówczas uciekały już dane bieżące (a jeszcze gorzej byłoby, gdyby na to nałożyć dane do 2018):

Ale to można było poprawić zwiększając nieco trend liniowy. Już rozumiecie? W ten sposób można sobie dopasować wszystko. Za około 10 lat tak prosty zabieg nie będzie już możliwy przy użyciu jednej funkcji sin/cos. Fabrykacja takiej prognozy, mającej sprawiać wrażenie sensownej będzie wymagała zastosowania nieco bardziej skomplikowanego (ale nadal mieszczącego się w podpisie wykresu) wzoru.

 

Don J. Easterbrook

D. Eastrbrook to professor emeritus geologii na Western Washington University. I jednocześnie jedna z mroczniejszych klimatystycznych postaci w tym zestawieniu. Mroczniejszych, bo manipulujących seriami danych w celu uzyskania potwierdzenia swoich tez.

Podobnie jak G. Orssengo, Easterbrook postuluje istnienie cykli, w które wpisywać się ma obecnie obserwowane ocieplenie. Cykle te mają być wywołane zmianami aktywności słonecznej oraz PDO.  W 2006 r. Easterbrook twierdził, że bieżące ocieplenie ma się ku końcowi i jeśli cykl ten będzie kontynuowany, to należy się spodziewać ochłodzenia z minimum w okolicy roku 2035.

If the cycles continue as in the past, the current warm cycle should end soon and global temperatures should cool slightly until about 2035, then warm about 0.5°C from ~2035 to ~2065, and cool slightly until 2100.

Źródło.

Teza ta była podparta taką „projekcją”:

 

Samo w sobie to stwierdzenie nie było jeszcze niczym złym. Co prawda pozbawione było podstaw naukowych, ale nie miało w sobie znamion manipulacji danymi. Gorzej było parę lat później, gdy prof. Easterbrook zaprezentował taki oto, zaktualizowany wykres.

Na wykresie tym mamy już wyraźnie oznaczone okresy chłodne i ciepłe. Co więcej, mamy naniesioną prognozę IPCC i dane rzeczywiste, które mocno się z tą prognozą rozjeżdżają. Pik temperatury następuje w 1998 (pamiętacie, że prof. Jaworowski pisał o braku wzrostu temperatury po 1998?), następnie mamy spadek do poziomu z 1977/1978 i wzrost temperatury, ale do poziomu niższego, niż w latach 90. XX w. Problem polega na tym, że zaprezentowane „dane pomiarowe” po 1998 nie zgadzają się z żadną serią pomiarową. Żadną. Ani GISTEMP od NASA GISS. Ani z HadCRUT od CRU, ani z seriami satelitarnymi UAH i RSS.

Poniżej: dane GISTEMP.

Poniżej: satelitarna seria UAH:

W żadnej z tych serii okres po 2001 nie jest chłodniejszy od lat 90. XX w. Najmniejsze ocieplenie wskazuje satelitarna seria UAH, co akurat nie jest zaskoczeniem, jako że nie mierzy ona nawet temperatury przy powierzchni Ziemi, tylko jest oszacowaniem tejże temperatury w dolnej troposferze1. Smutna prawda jest więc taka, że dane te zostały „poprawione” na rzecz prognozy prof. Easterbrooka. I nie jest to tylko obserwacja ludzi uznających naukę związaną z globalnym ociepleniem. Problem dostrzegł również Bob Tisdale, negacjonista, na negacjonistycznym blogu „Watts Up With That”, gdzie prof. Easterbrook opublikował w 2014 wpis na temat swoich „odkryć” i prognoz. W komentarzu Bob Tisdale pyta:

And what kind of magical dataset did you present in your Figure 4?

Istotnie, trudno się nie zgodzić – seria danych prezentowana na fig. 4 rzeczywiście musi być „magiczna”. Przepychanki między negacjonistami trochę trwały, ostatecznie jednak prof. Easterbrook nie potrafił wskazać, w jaki sposób uzyskał serię danych niezgodną z jakąkolwiek opublikowaną serią anomalii temperatury globalnej. Prawdopodobnie Bob Tisdale był bliski prawdy, że jest ona efektem połączenia ze sobą dwóch zupełnie różnych serii: HadCRUT i UAH. Nikt poważnie zajmujący się tą tematyką czegoś takiego by nie zrobił. Dodatkowo Tisdale wprost zarzuca Easterbrookowi „tworzenie globalnego ochłodzenia w okresie, gdy takowego nie było”:

I raised a few eyebrows a couple of weeks ago by complaining loudly about a graph of global surface temperature anomalies (among other things) that was apparently created to show global cooling over a period when no global cooling existed.

W odpowiedzi na zarzuty kolegi Easterbrook oskarżył go o „werbalny atak” i… nie wyjaśnił skąd się bierze różnica między seriami danych a jego wykresem.

Warto wskazać, że sami pisaliśmy o tym oszustwie cztery lata wcześniej, niż wpadł na nie Bob Tisdale. Co więcej, wskazaliśmy dokładnie ten sam mechanizm oszustwa. Jeżeli chodzi zaś o sprawdzalność prognozy Easterbrooka, to wg niej powinniśmy już być w zaawansowanej fazie ochłodzenia. Żadna seria pomiarowa nie wskazuje, by miałaby to być prawda. Dla porządku jednak porównajmy owe prognozy z danymi rzeczywistymi.

Oprzemy się tu na „projekcji” prof. Easterbrooka opublikowanej w 2008 r. i zaprezentowanej na WUWT. Wygląda ona następująco:

W części historycznej projekcji prof. Easterbrooka wykres temperatur globalnych jest mocno wygładzony. Charakterystyczne jest tu ocieplenie z okolic 1940 (z anomalią ok. +0.1K) oraz prognozowany szczyt temperatury w okolicy 2000, po którym miałoby następować ochłodzenie wg trzech różnych scenariuszy. Pierwszy scenariusz to łagodne ochłodzenie, które jest replikacją ochłodzenia z lat 1945-1977, drugi scenariusz replikować ma silniejsze ochłodzenie z lat 1880-1915 (choć w rzeczywistości ochłodzenie z tamtych lat było ok. dwukrotnie słabsze, niż zaprezentował tu Easterbrook) oraz trzeci, będący opcją skrajną, w którym następuje wyjątkowo silne globalne ochłodzenie o ok. 1K do 2022 r.  Jak czytamy we wpisie na WUWT (podkreślenia nasze):

The IPCC predicted global warming of 0.6° C (1° F) by 2011 and 1.2° C (2° F) by 2038, whereas Easterbrook (2001) predicted the beginning of global cooling by 2007 (± 3-5 yrs) and cooling of about 0.3-0.5° C until ~2035. The predicted cooling seems to have already begun. Recent measurements of global temperatures suggest a gradual cooling trend since 1998 and 2007-2008 was a year of sharp global cooling.

Na podstawie tego opisu odtworzyliśmy prognozę Easterbrooka – ochłodzenie rozpoczyna się w roku 2003 (a zarazem projekcja Easterbrooka, na co wskazuje powyższy wykres) i trwa do roku 2035. Temperatura spada o nieco ponad 0.3°C, co również jest spójne z tekstem prognozy. Wygląda to następująco:

Jak widać, wszystkie wartości na wykresie są o około 0.5°C niższe, niż w oryginalnej prognozie, co wynika ze zmiany okresu referencyjnego na 1981-2010, dzięku czemu można było pokazać serie satelitarne. Wykres jest 5-letnią średnią ruchomą (centrowaną), zatem ostatni punkt danych to średnia za lata 1998-2002. Oczywiście minęło już sporo czasu, możemy zatem pokazać jak w istocie zmieniały się anomalie temperatury aż do 2018 (a dokładniej 2014-2018). Okazuje się (co nie jest jakieś szczególnie zaskakujące), że prognoza prof. Easterbrooka kompletnie rozmija się z rzeczywistością:

Nawet seria satelitarna UAH, która po szeregu modyfikacji1 wskazuje najmniejszy trend ocieplenia mocno rozjeżdża się z prognozą Easterbrooka. Seria RSS, również oparta o dane satelitarne, wskazuje na zdecydowanie silniejsze ocieplenie i jest zbliżona do pomiarów naziemnych. Rozjazd między prognozami a rzeczywistością sięga już ok 0.4°C. Zdecydowanie lepiej sprawdziły się prognozy IPCC. Co prawda obserwowany trend jest nieco niższy, niż prognozowany w scenariuszu RCP 8.5 (co wynika z nieco innych wartości wymuszenia radiacyjnego, niż prognozowano, a także nieco innych metod obliczania średniej globalnej), jednakże znacznie bliższy rzeczywistości, niż prognozy Easterbrooka.

Podsumowując – prof. Easterbrook nie tylko dopuścił się bardzo brzydkich działań mających na celu nagięcie danych z serii pomiarowych do własnych prognoz, dodatkowo jego prognozy zupełnie się nie sprawdziły.

 

David C. Archibald

Ochłodzenie klimatu prognozowane przez D. Easterbrooka wydaje się niczym nieznaczącym epizodem przy prognozach Davida Archibalda. David C. Archibald to geolog, członek powołanej w 2000 r. tzw „Grupy Lavoisiera„, której głównym celem jest szerzenie negacjonizmu względem globalnego ocieplenia. Związany jest również ściśle z przemysłem naftowym, np. jako dyrektor zarządzający Yeeda Oil Ltd. Swego czasu wraz z dwoma bliżej niezidentyfikowanymi profesorami z Purdue University opracował tabletki mające leczyć raka prostaty zrobione z warzyw – brokułów i chili. Barwna postać.

Na samym początku roku 2006 David Archibald opracował prognozę gwałtownego ochłodzenia, jakie miało być związane z malejącą aktywnością słoneczną. Prognoza opierała się na powiązaniu średniej temperatury rocznej w wybranych punktach i długości cyklu słonecznego. Na tej podstawie Archibald stwierdził, że:

Projections of weak solar maxima for solar cycles 24 and 25 are correlated with the terrestrial climate response to solar cycles over the last three hundred years, derived from a review of the literature. Based on solar maxima of approximately 50 for solar cycles 24 and 25, a global temperature decline of 1.5°C is predicted to 2020, equating to the experience of the Dalton Minimum. To provide a baseline for projecting temperature to the projected maximum of solar cycle 25, data from five rural, continental US stations with data from 1905 to 2003 was averaged and smoothed. The profile indicates that temperatures remain below the average over the first half of the twentieth century.

Dobrze czytacie. Na podstawie danych z pięciu wybranych stacji, David Archibald prognozował, że w ciągu 17 lat od 2003 roku do roku 2020 średnia globalna temperatura spadnie o 1.5°C! Możemy wykorzystać poprzednie wykresy do pokazania tej prognozy.

Warto zauważyć, że przy gigantycznym ochłodzeniu prognozowanym przez D. C. Archibalda, ochłodzenie prognozowane pierwotnie przez Easterbrooka wydaje się kompletnie nieistotne, wręcz niezauważalne. I oczywiście wiemy też, że w serii pomiarowej nie ma nawet śladu ochłodzenia.

Podobnie, jak gigantyczne było prognozowane ochłodzenie, gigantyczny jest też błąd owej prognozy. Sięga on obecnie 1.3 – 1.4°C. I o ile o prognozach prof. Easterbrooka możemy zwyczajnie powiedzieć, że się „nie sprawdziły”, to w przypadku prognoz Davida Archibalda byłoby to dużym eufemizmem. Błąd tej prognozy możemy chyba jedynie porównać do przypadku, w którym ktoś prognozuje falę mrozu, a otrzymuje falę upałów. Staje się powoli jasne, że prognozy klimatycznych negacjonistów wysuwane na początku bieżącego wieku nie miały nic wspólnego z rzeczywistością, co więcej nie miały podstaw naukowych. Wyciąganie wniosków z pięciu wybranych stacji (przy czym istnieje wysokie ryzyko, że wybrane były one specjalnie pod tezę) musiało się skończyć tak, jak na powyższym wykresie.

Richard Lindzen

Lindzen to jeden z nielicznych fizyków podważających antropogeniczne przyczyny globalnego ocieplenia. W 1989 r. stwierdził on, iż „osobiście uważa, że prawdopodobieństwo że w nadchodzącym stuleciu ocieplenie związane z gazami cieplarnianymi osiągnie wartości porównywalne z naturalną zmiennością klimatu jest małe„. Oznacza to, że ocieplenie związane z emisją tychże gazów nie powinno wg Lindzena przekroczyć 0.3°C/100 lat. Oczywiście, jak widzimy na zaprezentowanych wyżej wykresach, jest ono sporo większe.

Porównanie prognozy Hansena (1988) i rzeczywistych danych pomiarowych. Dodano prognozę opartą o twierdzenia R. Lindzena. Źródło: Skeptical Science.

 

John McLean

W okolicach roku 2010 ów pan zasugerował, iż w związku z ujemną fazą ENSO (La Niña) średnia temperatura globalna spadnie do poziomu najniższego od 1956, a być może i wcześniej. Oczywiście jak wiemy, nic takiego nie miało miejsca. Prognoza oparta była o pracę „Influence of the Southern Oscillation on tropospheric temperature” (McLean, Freitas, Carter 2009) w której co prawda słusznie wskazano związek ENSO ze zmiennością temperatury globalnej w krótkich skalach czasowych, ale jednocześnie wysunięto wniosek,  który absolutnie z tej pracy nie wynikał:

Finally, this study has shown that natural climate forcing associated with ENSO is a major contributor to variability and perhaps recent trends in global temperature, a relationship that is not included in current global climate models.

Ponieważ wskaźniki związane z ENSO (np. wzmiankowane w pracy SOI) spadły w 2011 do bardzo niskich poziomów, na tej podstawie i na podstawie błędnych wniosków McLean wysunął prognozę, która się nie sprawdziła, bo się sprawdzić nie mogła.

To tylko parę przykładów z prognozowanych „globalnych ochłodzeń”, które ostatecznie nie doszły do skutku. Cechą charakterystyczną jest tutaj późniejsze przesuwanie prognozowanego startu ochłodzenia w czasie – w sytuacji gdy w sposób oczywisty do ochłodzenia nie doszło (nie wskazuje na to żadna seria pomiarowa). Można na przykład odnaleźć prezentację prof. Easterbrooka z 2017,  w której opowiada on dokładnie te same historie, co 10 lat wcześniej i całkowicie „przypadkowo” na wykresach nie widać ostatnich najcieplejszych lat, urywają się one w bardzo wygodnym dla Easterbrooka miejscu. Dokładnie te same wykresy możemy znaleźć w prezentacji trzy lata starszej, co jednoznacznie wskazuje, że nowsze dane były dla prof. Easterbrooka zwyczajnie niewygodne.

Powyżej: zrzut z prezentacji prof. Easterbrooka z 2014 r. Mimo, że mieliśmy już dodatkowe 13 lat danych, Easterbrook nadal ucina je w roku 2000, prezentując „prognozę” po tym roku.

 

Powyżej: kolejny zrzut z tej samej prezentacji. Ćwiczenie: na poniższym wykresie satelitarnej serii UAH wskaż rok 2012 i wyjaśnij, dlaczego w prezentacji z 2014 prof. Easterbrook uciął wykres właśnie na początku 2012.

 

 

1 Satelitarne serie pomiarowe w istocie nie mierzą temperatury przy powierzchni ziemi, tak jak termometry w seriach „naziemnych”. Zamiast tego oszacowują temperaturę dolnej troposfery w oparciu o pomiary (wykonywane za pomocą MSU/AMSU) strumienia promieniowania w różnych długościach fali. Wynik, czyli szacowana anomalia temperatury zależy od tego, w jaki sposób różne grupy zajmujące się tym tematem ją wyliczą. Problemem jest tu nie tylko dryf satelitów (które powinny się znajdować nad danym miejscem dokładnie o tej samej porze, ale z uwagi na zmiany parametrów orbity ta pora się zmienia), ale i fakt, że seria składa się z danych pochodzących z wielu różnych satelitów na których znajdują się instrumenty różnego rodzaju, przez co cała seria jest niejednorodna i wymaga wielu korekt. Parę lat temu satelitarna seria UAH została zaktualizowana do wersji 6.0, w której znacząco obniżono anomalie temperatury w stosunku do wersji 5.6. Po tym zabiegu seria ta charakteryzuje się najniższym trendem temperatury ze wszystkich serii pomiarowych, również innych serii satelitarnych. Nie radzimy przywiązywać się do tych danych, nie wiadomo bowiem jak będą wyglądać w kolejnych wersjach ;)

 

 

 

 

 

GISTEMP v4 beta

GISTEMP v4 beta

Jedną z najważniejszych serii pomiarowych globalnych anomalii temperatury powietrza jest GISTEMP stworzony i prowadzony przez NASA Goddard Institute for Space Studies (NASA GISS). Opiera się on m.in. na bazie danych z naziemnych stacji pomiarowych zwanej Global Historical Climatology Network, nad którą pieczę z kolei trzyma NOAA. Baza ta miała już kilka wersji, z których do tej pory ostatnią była GHCN v3 (2010), obecnie trwają prace nad kolejną wersją: GHCN v4.

Ta odsłona będzie naprawdę dużym krokiem naprzód, bowiem wyraźnie wzrośnie liczba stacji pomiarowych (a zatem i danych), co związane jest z asymilacją danych z projektu ISTI. Poniższe wykresy przedstawiają porównanie liczby stacji oraz procentu pokrytego obszaru globu w przypadku tradycyjnej bazy GHCN v3 i projektu ISTI.

Tak duża zmiana w asymilowanych do GISTEMP danych oczywiście spowoduje stosunkowo duże zmiany w wyliczanych średnich anomaliach globalnych. Widać to już na przykładzie stycznia 2019, który w serii GISTEMP3 ma anomalię względem okresu referencyjnego 1951-1980 równą +0.87K, zaś w serii GISTEMP4 +0.94K.

Zyski z asymilacji nowych danych w ramach GHCNv4 widać przy niższym promieniu interpolacji (poniżej). O ile w dalszym ciągu mamy sporo białych (szarych) plam, o tyle wyraźnie widzimy znacznie lepsze pokrycie Australii, czy północnej Kanady i Rosji.

W całej serii pomiarowej korekty średnich rocznych anomalii temperatury powietrza są raczej kosmetyczne i najczęściej nie przekraczają 0.03K. Wyjątkiem jest tu rok 2013, którego roczna anomalia uległa podniesieniu o 0.05K. Wzrostem średnich anomalii temperatury rocznych charakteryzuję się zresztą nie tylko lata ostatnie. To samo mamy w latach 1880-1907, przy czym tutaj są one niższe, niż w latach po 2000. Przyczyną korekt po roku 2000 jest najprawdopodobniej znacznie lepsze pokrycie Arktyki, która charakteryzowała się w tych czasach najwyższym trendem temperatury powietrza.

Średnia 11. letnia anomalia temperatury powietrza nie uległa większym zmianom, w ostatnich latach jest wyższa od tej oszacowanej przez GISTEMP3 o 0.03K:

Wartości trendów w całej serii niemal się nie zmieniły, zaś w okresie od 1981 wzrosły w wersji 4 z 0.18K/dekadę do 0.19K/dekadę.

Pamiętajmy, że w dalszym ciągu wersja 4 serii GISTEMP jest w fazie „beta”, więc pewne rzeczy mogą ulec zmianie. Wiemy już jednak, że GISTEMP4 będzie się charakteryzował nieco wyższymi anomaliami temperatury w ostatnich latach i co za tym idzie nieco wyższym trendem dla lat 1981-2018. Jest to spowodowane głównie lepszym pokryciem obszaru w miejscach charakteryzujących się najwyższymi trendami w tym okresie. Ten sam los czeka zapewne w przyszłości brytyjskie serie temperatur HadCRUT i CRUTEM, które nie dość że cierpią na poważne braki danych w regionach polarnych, to dodatkowo nie interpolują danych tak, jak to robi GISTEMP.

GISTEMP: kwiecień 2018 globalnie trzeci najcieplejszy w historii obserwacji

GISTEMP: kwiecień 2018 globalnie trzeci najcieplejszy w historii obserwacji

Pomimo tego, że El Niño zakończyło się już dwa lata temu, anomalie temperatury globalnej nadal przyjmują bardzo wysokie wartości. Wg pomiarów NASA/GISS kwiecień był trzecim najcieplejszym kwietniem w historii pomiarów  obserwacyjnych, a jego anomalia temperatury odniesiona do okresu referencyjnego 1951-1980 wyniosła +0.86K.

Powyżej: rozkład anomalii globalnych w kwietniu 2018 wg NASA/GISS.

[xyz-ips snippet=”s2-ad”]

Powyżej: przebieg anomalii temperatury globalnej (okres referencyjny 1981-2010).

Powyżej: przebieg anomalii temperatury globalnej (tylko lądy, okres referencyjny 1981-2010).

W przebiegach anomalii temperatury globalnej na powyższych wykresach rzuca się w oczy głównie to, że mimo iż faktycznie temperatury spadły w stosunku do tego, co obserwowaliśmy w czasie trwania El Niño, to nadal są one bliskie wartościom rekordowym sprzed roku 2015. Wartość anomalii kwietnia 2018 jest zbliżona do rekordowych anomalii obserwowanych w 1998. Z tym że wtedy mieliśmy wyjątkowo silne El Niño. Obecnie, po słabo wyrażonej La Niña temperatury globalne powinny być znacznie niższe. Jednak od 1998 r. klimat ocieplił się na tyle mocno, że w chwili obecnej „chłodne” miesiące są na poziomie rekordowo ciepłych z końca lat 90. XX w.

[xyz-ips snippet=”s1s1z-ads”]

Postępy globalnego ocieplenia

Postępy globalnego ocieplenia

Za każdym razem gdy w Polsce zrobi się zimno możemy obserwować wysyp wszelkiej maści ekspertów, którzy na podstawie tego co widzimy aktualnie za oknem lekką ręką ekstrapolują sobie to na cały świat. Jeśli w Polsce jest zimno, to jakim cudem możemy mówić o Globalnym Ociepleniu (tym bardziej – o zgrozo – o Antropogenicznym Globalnym Ociepleniu)? Przecież skoro się ociepla, to powinno być cieplej, a jest zimno. Ba, nawet tutaj w komentarzach znalazł się ktoś, kto twierdzi, że w zasadzie w stosunku do lat 50. XX w. klimat w centralnej części Polski nie uległ zmianie.

Oczywiście takie podejście nie ma większego sensu. Terminem Globalne Ocieplenie określamy wzrost średniej temperatury naszej planety, a jej wzrost nie wyklucza tego, że na niektórych jej obszarach będziemy mieli do czynienia z okresami (czasem nawet dłuższymi) temperatury niższej od normy. W lutym i marcu (przede wszystkim ten marzec wielu zabolał, bo choć jego anomalia była zbliżona do lutowej, to w marcu ma być ciepło i już) chłodniej niż przeciętnie było w Polsce, co zaczęło stanowić podstawę twierdzenia, że:

  • Globalne ocieplenie nie istnieje
  • Klimat od października 2015 ewidentnie się ochładza
  • Będzie coraz zimniej

Oczywiście wraz z rekordowo ciepłym kwietniem głosy te wstydliwie ucichły (zapewne najpóźniej do najbliższego większego ochłodzenia), jednakże warto może przyjrzeć się danym globalnym z ostatnich lat (a nie tylko temu, czy krzaki za oknem w marcu pokryły się śniegiem). A wyglądają one tak:

[xyz-ips snippet=”s2-ad”]

Powyższy wykres przedstawia przebieg miesięcznych anomalii temperatury globalnej od 1981 r. wraz z 13. i 37. miesięczną średnią ruchomą. Od roku 2015 temperatury globalne przyjęły wartości rekordowo wysokie, czemu poza Globalnym Ociepleniem pomogła dodatnia faza ENSO: El Niño. Od tego czasu temperatury globalne spadły (co związane jest z nieco rachityczną ujemną fazą ENSO – La Niña). Pomimo wszystko, mimo braku El Niño, mimo obecności słabej La Niña, temperatury globalne spadły jedynie do poziomu najwyższych wartości, jakie występowały przed 2015. To oznacza, że obecny globalny „chłód” odznacza się takimi samymi wartościami temperatury (globalnej), jak „wyjątkowe ciepło” przed 2015. Znacznie silniejsza La Niña najprawdopodobniej sprowadziłaby te anomalie do niższego poziomu, jednakże nadal znacznie wyższego, niż w czasie silnych La Niña przed 2015.

Ciekawą prezentację danych mamy poniżej:

Na powyższym wykresie (źródło: http://www.columbia.edu/~mhs119/Temperature/T_moreFigs/ za NASA/GISS) mocno rzucają się w oczy pierwsze w historii pomiarów instrumentalnych przekroczenia wartości globalnej temperatury rzędu 1.0, a nawet 1.2°C powyżej normy z lat 1951-1980. Od 2001 r. wartości, które w latach przed 1995 określilibyśmy jako „bardzo wysokie”, stały się nagle wartościami niskimi. Warto również rozważyć liczbę miesięcy z anomalią wyższą od 0.8°C przed i po roku 2015.

 

Powyższe mapy (źródło jak wyżej) przedstawiają rozkład anomalii temperatury w kolejnych dekadach. Wyjątkowość lat po 2001 rzuca się tu w oczy aż nadto.

Niestety – Globalne Ocieplenie postępuje. Każda kolejna dekada jest cieplejsza od poprzedniej i nie wygląda na to, żeby proces ten miał ulec szybkiemu zahamowaniu. Chciejstwo niektórych, poparte obserwacjami krzaka za oknem, na niewiele się tu zda, bowiem zmienność pogody na małym wycinku planety jakim jest Polska, jest na tyle duża, że w krótszych (dekadowych) skalach czasowych potrafi doskonale przykryć efekt ocieplenia, który mimo że w sensie klimatycznym jest duży i wynosi ostatnio ok. 0.2°C/dekadę, to jest jednocześnie na tyle mały, żeby przeciętny człowiek nie zajmujący się klimatem nie potrafił go uchwycić. Nie ma w tym zresztą nic dziwnego – większość  nas ma blade pojęcie na temat tego, jaka zima była w Polsce trzy lata temu, trudno więc oczekiwać że będą potrafili dokonać obiektywnej oceny zmian klimatu w naszym kraju.

Są też tacy, którzy te braki w ludzkiej pamięci doskonale wykorzystują, co widać doskonale w różnorakich komentarzach, chociażby w serwisie Twoja Pogoda. To tam właśnie lansowano hipotezę o postępującym ochłodzeniu klimatu Polski, jaki miał się rozpocząć w październiku 2015. Zapominano przy tym dodać, że wielokrotnie wcześniej z takimi ochłodzeniami mieliśmy do czynienia, mimo iż od lat 70. XX w. klimat w Polsce ulega gwałtownemu ociepleniu (ocieplał się i wcześniej, ale zdecydowanie wolniej).

Doskonale sytuację tę prezentuje powyższy wykres, przedstawiający średnie roczne anomalie temperatury w Polsce (odniesione do okresu referencyjnego 1981-2010). Widać na nim, że o ile zmienność międzyroczna jest duża i na przestrzeni kilku lat anomalie roczne mogą się różnić nawet o 3°C. Proszę to teraz odnieść do Globalnego Ocieplenia, które odznacza się tempem rzędu 0.2°C/dekadę. Staje się oczywiste, że międzyroczna temperatura w Polsce odznacza się dużo większą zmiennością, niż trend wynikający z globalnego ocieplenia. Często chłodniejszych od (bieżącej) normy może być nawet parę kolejnych lat. I to właśnie jest nagminnie wykorzystywane przez wspomnianych wyżej komentatorów, którzy słowem nie wspomną, że chłodny skądinąd rok 2010 w Polsce (patrz wykres) w połowie naszego wieku byłby uznany za normalny. Przede wszystkim jednak ekstrapolowanie danych z Polski na cały świat mija się z celem. Dla przykładu: wyjątkowo ciepłe w Polsce lato 1992 (w latach 1781-2017 był tylko jedno cieplejsze) przypadło na okres w którym temperatury globalne były wyjątkowo niskie w związku z mającym miejsce rok wcześniej wybuchem wulkanu Pinatubo. Tak na przykład wyglądało 22 sierpnia 1992 Great Falls w USA (Montana, nie tak dawno temu niektórzy dziwili się tam śniegowi w październiku). Tego dnia spadło tam ponad 21 cm śniegu, wcześniej w czasie 100 lat obserwacji nigdy nie zaobserwowano pokrywy śnieżnej w sierpniu. W Polsce zaś zmierzaliśmy w stronę skrajnie upalnej końcówki sierpnia – w ostatnich dniach tego miesiąca temperatura maksymalna wzrosła miejscami znacznie powyżej 35°C, najpóźniej w historii pomiarów (aż do 2015).

W rzeczywistości anomalia temperatury w środkowej Europie była w zasadzie jedyną anomalią dodatnią w zamieszkałej, kontynentalnej części świata (jeden punkt siatki wypada jeszcze nieźle w Australii):

Dla porównania rzekomo chłodne ostatnie lato w Polsce globalnie wyglądało tak.

A czy 0.2°C na dekadę to dużo? Gdyby w latach 50. XX w. zamiast się ocieplać, zaczęło się w tym tempie ochładzać, to obecnie byłoby znacznie zimniej, niż w najzimniejszym okresie Małej Epoki Lodowej, a w okolicy roku 2150 średnia temperatura globalna byłaby niższa od tej z połowy zeszłego wieku o 4°C. Mniej więcej tyle co w maksymalnej fazie ostatniego glacjału. Sami więc oceńcie, czy to dużo.

[xyz-ips snippet=”s1s1z-ads”]

Czy globalnie grudzień okaże się bardzo ciepły?

Czy globalnie grudzień okaże się bardzo ciepły?

Początek miesiąca jest dosyć zaskakujący. Wartość globalnej anomalii temperatury oszacowana na podstawie analizy modelu GFS osiągnęła wartość najwyższą od kwietnia 2016, a więc od szczytu temperatur związanych z El Niño 2015/2016. W pojedynczych terminach anomalia temperatury na półkuli północnej sięgała +1.7K w stosunku do średniej z lat 1981-2010. Jest to zaskakujące z tego względu, że El Niño skończyło się już niemal półtora roku temu, a 2017 upływał raczej pod znakiem warunków neutralnych (ENSO). Czy to znak, że Globalne Ocieplenie wkroczyło w kolejną fazę?

Read More Read More

NASA GISTEMP: Globalna anomalia temperatury października druga najwyższa w historii pomiarów

NASA GISTEMP: Globalna anomalia temperatury października druga najwyższa w historii pomiarów

Zgodnie serią pomiarową NASA GISTEMP globalna anomalia temperatury października 2017 osiągnęła +0.90K w stosunku do okresu referencyjnego 1951-1980 i tym samym była druga najwyższa w historii pomiarów (w tej serii). Należy jednak zauważyć, że różnica pomiędzy październikiem 2016 i 2017 leży w granicach błędu oszacowania i wynosi zaledwie 0.01K. Jest bardzo znaczące, że tak wysokie anomalie występują w roku, który odznacza się neutralnymi warunkami ENSO, szczególnie że pod koniec roku ubiegłego panowała La Niña. Takie warunki powinny skutkować anomaliami nieco niższymi.

Read More Read More

GISTEMP: sierpień 2017 globalnie drugi najcieplejszy w historii pomiarów

GISTEMP: sierpień 2017 globalnie drugi najcieplejszy w historii pomiarów

Wg serii GISTEMP średnia anomalia temperatury globalnej odniesiona do wielolecia 1951-1980 osiągnęła w sierpniu +0.85K i była drugą najwyższą dla sierpnia w latach 1880-2017. Cieplej było jedynie w roku ubiegłym: +0.99K, co było związane z trwającym jeszcze wtedy podwyższeniem temperatur globalnych wywołanym przez El Niño 2015/16. Wszystko wskazuje na to, że również wrzesień będzie globalnie miesiącem bardzo ciepłym, choć z pewnością nie widać tego obecnie za oknem.  Wiele wskazuje na to, że tak wysokie anomalie temperatury stały się już sprawą codzienną (comiesięczną).

[xyz-ips snippet=”s1s1z-ads”]

Ponownie nie udał się szumnie przez niektórych zapowiadany „Armagedon” – minimalny zasięg pokrywy lodu dryfującego Arktyki był nieco wyższy, niż przed rokiem. Stan lodu arktycznego jest zły, ale o żadnym armagedonie w żadnym razie być mowy póki co nie może. Postępujące Globalne Ocieplenie najprawdopodobniej doprowadzi w końcu do zaniku tego lodu, stanie się to jednak zapewne najprędzej w przyszłej dekadzie.

Wstępne analizy września wskazują, że jego anomalia może być nieco niższa od sierpniowej i wynieść około 0.8K. Bieżący rok ma zatem bardzo duże szanse na to, by być drugim najcieplejszym w historii pomiarów. Poniżej wykres anomalii temperatur globalnych oparty o analizę modelu GFS (Źródło: http://www.karstenhaustein.com/climate.php).

W ostatnich dniach września prognozowane jest największe tego roku ochłodzenia na półkuli południowej, gdzie anomalia temperatury spadnie do około -0.12K. Jednocześnie bardzo ciepła ma być półkula północna, gdzie ostatnie anomalie sięgają +1.0K. Za ochłodzenie na półkuli południowej odpowiadać będą bardzo niskie temperatury na kontynencie antarktycznym, gdzie anomalia temperatury września ma spaść do -2.6K, a w pojedynczych terminach nawet do -5.5K. Poniżej mapa przedstawiająca rozkład prognozowanej anomalii września na Antarktydzie (Źródło jak wyżej).

[xyz-ips snippet=”s2-ad”]

Co ciekawe, ponownie mocno spada zasięg pokrywy lodowej Antarktyki, który jest obecnie niemal najniższy w historii (dla 21-22 września). Najprawdopodobniej dowodzi to jedynie tego, że za zasięg ten odpowiada nie tylko anomalia temperatury, ale też inne czynniki, jak na przykład rozkład i siła wiatrów, czy anomalia temperatury wód Oceanu Południowego. Poniżej: zasięg lodu dryfującego Antarktyki w 2017 na tle innych lat w erze satelitarnej (JAXA).

[xyz-ips snippet=”ads-btf”]

GISTEMP: Lipiec globalnie najcieplejszy w historii pomiarów

GISTEMP: Lipiec globalnie najcieplejszy w historii pomiarów

Globalna anomalia temperatury lipca odniesiona do okresu referencyjnego 1951-1980 osiągnęła wartość +0.83K i była o 0.01K wyższa, niż w rekordowo ciepłym roku ubiegłym. Do lipca rok 2017 odznacza się średnią anomalią równą +0.94K i ma spore szanse na drugie miejsce wśród najcieplejszych lat w historii pomiarów. Jest to o tyle zaskakujące, że w tym roku nie mamy już silnego El Niño, minęła za to słaba La Niña. Najwyraźniej musimy się przyzwyczaić już do tego, że temperatury globalne nie spadną znacznie poniżej tego, co obserwowaliśmy przed rokiem 2015.

Jeżeli dla kogoś jest zaskoczeniem, że lipiec  w Polsce wypadł tu ciepły, to spieszymy donieść, że tak właśnie było w stosunku do ww. okresu referencyjnego. Jeśli wykreślimy mapę odnośnie okresu referencyjnego 1981-2010, sytuacja wygląda już nieco inaczej.

Wiele też zmienia fakt, że w powyższej mapie zastosowana jest standardowa dla GISTEMP interpolacja do 1200km. Przy interpolacji do 250km mapa wygląda następująco:

GISTEMP: czwarty najcieplejszy czerwiec w historii pomiarów

GISTEMP: czwarty najcieplejszy czerwiec w historii pomiarów

Chodzi oczywiście o globalne anomalie temperatury. Ta w czerwcu osiągnęła wartość +0.69K w stosunku do okresu referencyjnego 1951-1980. Cieplej było w 1998 (+0.78K), 2015 (+0.78K) i 2016 (+0.79K). W czerwcu temperatura globalna nieco spadła w stosunku do tego, co obserwowaliśmy w poprzednich miesiącach, co było doskonale widać na mapach przedstawiających globalne anomalie temperatury wyliczone na podstawie analizy GFS.

Źródło: http://www.karstenhaustein.com/reanalysis/gfs0p5/GFS_anomaly_timeseries_global.html

Warto przy tym zauważyć, ze tegoroczny lipiec powinien globalnie odznaczać się wyższą anomalią, niż czerwiec.

Przebieg miesięcznych temperatur w serii GISTEMP:

Globalny:

Globalny – tylko lądy: