Autor: admin

Wstępne porównanie…

Wstępne porównanie…

…homogenizowanej (CLIMATOL 3.1.1) serii temperatury w Polsce z danymi surowymi.

Dane z poszczególnych stacji:

Anomalie są wyliczone względem okresu referencyjnego 1961-1990 z uwagi na fakt, że niektóre serie pomiarowe kończą się w latach 90. XX w. (np. Gdańsk).

Prognoza anomalii rocznej w roku 2019

Prognoza anomalii rocznej w roku 2019

Do końca roku pozostały już tylko cztery miesiące (z wrześniem włącznie), można się więc pokusić o statystyczną prognozę rocznej anomalii temperatury powietrza (okres referencyjny 1981-2010) dla całego roku. Prognoza została wykonana w oparciu o wszystkie średnie czterech ostatnich miesięcy, jakie wystąpiły w latach 1951-2018, założono że najprawdopodobniej średnia tegorocznych czterech ostatnich miesięcy będzie się zawierała w zakresie minimum-maksimum z ostatnich 68 lat.

Mediana prognozowanej średniej temperatury rocznej wynosi +1.25K. Minimum to +0.70K i taka średnia roczna wystąpi, gdy pozostałe cztery miesiące roku 2019 będą identyczne, jak w 1998 (najchłodniejszy przypadek).  Maksimum to +2.22K, co odpowiada rekordowo ciepłej końcówce roku z 2006.Wg tej prognozy szanse na rok rekordowo ciepły wynoszą obecnie jakieś 15%.

Ponieważ znaczna część września jest już za nami, można się pokusić o oszacowanie jego średniej anomalii. Wg obecnych prognoz bieżące ochłodzenie zrzuci średnią anomalię miesięczną do około +0.75K, po czym w III dekadzie miesiąca nastąpi znaczne ocieplenie. Bardzo prawdopodobną wartością końcową dla września jest anomalia rzędu +1.5 – +2.0K. Uznajmy, że będzie to ok. +1.7K. Wtedy prognoza (tym razem oparta o trzy pozostałe miesiące) wygląda następująco:

Zgodnie z przypuszczeniami zakres min/max spadł z 1.52K do 1.31K. Wzrosła wartość minimalna (z 0.7 do 0.84K), spadła też jednak prognozowana wartość maksymalna (z 2.22 do 2.15K). Mocno podniosła się mediana prognozy z 1.25 do 1.39K. Szanse na rok rekordowo ciepły są nadal mizerne i wynoszą ok 22%. Jako ciekawostkę można podać fakt, że po chłodnym maju (gdy nieznana była jeszcze średnia aż 7 pozostałych miesięcy roku) mediana takiej prognozy była na poziomie roku 2011, a szanse na rekord ciepła wynosiły ok. 3%.

Na koniec mała uwaga: nie jest wykluczone, że pozostałe miesiące będą albo rekordowo ciepłe, albo rekordowo zimne na tle ostatnich 68 lat. Jest to bardzo mało prawdopodobne, ale niewykluczone. Ostatnie cztery miesiące bliskie rekordowo zimnym z 1998 wystąpiły w 2010 r. – zawinił tu głównie bardzo chłodny grudzień, choć chłodne były również wrzesień i październik. Chłodny wrzesień nam raczej nie grozi, ale rekordu zimna ostatnich czterech miesięcy wykluczyć nie można, szczególnie że nie jest to wartość jakaś szczególnie niska: -1.6K. Nie mniej jednak jest to bardzo mało prawdopodobne.

 

Aktualizacja: poniżej prognozy w oparciu o dane do wcześniejszych miesięcy (od kwietnia do lipca).

Jak na złość…

Jak na złość…

…2 godziny po ostatnim wpisie MetOffice uaktualniło swoje prognozy sezonowe. Wg nich zima w Europie Środkowej (w tym i w Polsce) ma być raczej ciepła. Szansa na przekroczenie mediany wynosi wg tej prognozy ponad 80% w zachodniej Polsce. Model sezonowy, którym posługują się Brytyjczycy wskazuje raczej na NAO dodatnie.


Pamiętajmy, że wysoka temperatura średnia całej zimy nie wyklucza pojedynczego chłodniejszego miesiąca. Wszak i tegoroczne lato mieliśmy w Polsce rekordowo ciepłe, co nie przeszkodziło w całkiem sporej adwekcji chłodu w lipcu.

Źródło: MetOffice.

Czy nadchodzi najmroźniejsza zima od lat?

Czy nadchodzi najmroźniejsza zima od lat?

Radio Zet poinformowało wczoraj za Sky News, że Wielkiej Brytanii grozi „zima trzydziestolecia”. Do takiego wniosku doszli ponoć naukowcy z University College London. W istocie trudno nagłówki tych artykułów traktować inaczej jak zwykły clickbait. Dopiero w samym artykule mamy przedstawione rzeczywiste domniemania naukowców, które są delikatnie mówiąc nieco mniej sensacyjne:

Scientists from University College London have forecast an average temperature of 3.9C (39F) for January to February next year in central England – which they said was 0.5C below the 1981 to 2010 average for the same period.

The team, led by Mark Saunders, professor of climate prediction at UCL, wrote in a paper: „This would rank 2020 January-February central England as the coldest winter since January-February 2013. „It would also rank January-February 2020 as the seventh coldest winter in the last 30 years, and the 23rd coldest winter since 1953.”

„There is a 57% chance the central England temperature will be colder than the 4.1C (39.4F) in 2018, thus making it the coldest January-February since 2013,” they added.

Czyli: zespół naukowców prowadzony przez Marka Saundersa z UCL uważa, że istnieje 57% szans na to, że średnia temperatura miesięcy styczeń-luty spadnie w Anglii poniżej 4.1°C, co spowodowałoby, że byłby to najchłodniejszy taki okres od roku 2013, czyli od 6 lat. Nie brzmi to jak „zima trzydziestolecia”, szczególnie że w tym samym artykule mamy sugestię, że ma to być siódma najzimniejsza zima 30. lecia z średnią temperaturą ww. miesięcy o ok. 0.5°C niższą od średniej z lat 1981-2010.

Sam artykuł naukowców z UCL również nie przedstawia żadnych odkrywczych tez. Ot zwyczajnie naukowcy prognozują ujemne NAO, co zwykle prowadzi do zim chłodniejszych od normy, z dominującą cyrkulacją wschodnią (wspominana „bestia ze wschodu”):

These predictors point to a higher than normal likelihood that the NAO will be negative and that the CET will be colder than normal for January-February 2020. There is an 87% chance the NAO will be less than the 1981-2010 mean and a 65% chance the CET will be the colder than the 1981-2010 mean.

Szanse na ujemne NAO naukowcy oceniają bardzo wysoko, bo aż na 87%. Predyktorami są tu aktywność słoneczna i QBO. Całość  dość podejrzanie przypomina poprzednie próby tego typu (pamiętacie jeszcze włoski indeks OPI, który korelował na poziomie 90% z nadchodzącą zimą? Nie? No właśnie), jednakże akurat tej zimy naukowcy z UCL mogą trafić w dziesiątkę, nawet jeśli ich metoda nie ma większego sensu. W dyskusji w komentarzach zwracaliśmy już uwagę na fakt, że chyba po raz pierwszy do 2014 roku znikła nam „chłodna plama na Atlantyku”, która jest całkiem niezłym predyktorem dodatniego NAO (a więc raczej ciepłej zimy w Europie). Zanik plamy zauważyliśmy zresztą nie tylko my. Nie wróciła ona zresztą nadal, co widać na poniższym rozkładzie SSTA. Chłodne na Atlantyku owszem są, ale nie jak do tej pory w regionie wiru subpolarnego (nieco na południe od Grenalndii), a raczej na zachód od Hiszpanii.

Źródło: NOAA/NESDIS

 

To zaś (za Rodwell et al. 1999) powoduje, że tym razem brakuje nam tu wyraźnego sygnału mogącego sugerować dodatnie NAO w czasie zimy. Jednocześnie brakuje również sygnału dla NAO ujemnego, sprawa zostaje więc otwarta, tym bardziej że oficjalne prognozy MetOffice na okres zimowy jeszcze się nie pojawiły. Tak czy siak istotnie sygnałów odnośnie chłodniejszej zimy, niż w latach poprzednich mamy w tym roku więcej i coś może być na rzeczy. Czy jednak będzie to „najchłodniejsza zima od 30 lat”? Póki co nikt poważny nic takiego nie prognozuje.  Najzimniejsza od zim z lat 2010-2013? To już jak najbardziej możliwe.

Poltemp – dane historyczne #1

Poltemp – dane historyczne #1

Od ostatniej analizy historycznej serii Poltemp minęło już ładnych parę lat. W tym czasie pojawiły się nowe rekonstrukcje serii historycznych: poznańskiej, toruńskiej. Dzięki uprzejmości prof. dr. Egidijusa Rimkusa udało sie pozyskać surową (niehomogenizowaną) oryginalną serię wileńską. Znaleziono też kilka błędów i serii ewidentnie niejednorodnych. Niestety wczęsniej, mimo starań mających na celu zachowanie jednorodności całej serii (analizy za pomocą HOMER i CLIMATOL) błędów nie udało się całkowicie wyeliminować.  Pojawienie się nowych serii powoduje, że powoli konieczne staje się ponowne przeliczenie serii historycznej 1781-1950. Jednocześnie pojawił się dodatkowy materiał, który może pomóc w analizie porównawczej niektórych stacji (np. Zielona Góra, Gorzów).

Poniżej: 11. letnie średnie ruchome części danych historycznych. Z uwagi na to, że niektóre serie kończą się w latach 90. XX w., anomalie wyliczone są względem 1961-1990.

Jak widzimy na powyższych wykresach, poza serią kopenhaską, która szoruje po dnie wykresu aż do okolic 1930, dane po 1860 są raczej ze sobą zbieżne (niejednorodna jest jeszcze seria berlińska). Im dalej wstecz, tym po pierwsze zmniejsza się liczba dostępnych danych, po drugie zaczynają się one coraz bardziej rozjeżdżać. Niektórzy mogą się zapytać: po co nam seria kopenhaska? Niestety, przed 1800 r. liczba stacji w pobliżu Polski jest wyjątkowo mizerna. Seria kopenhaska (podobnie jak seria z Stockholmu i Uppsali) pozwala na oszacowanie rozkładu anomalii danego miesiąca w danym regionie. Problem polega na tym, że o ile klimat Uppsali i Stockholmu może się zmieniać inaczej, niż klimat stacji w regionie Europy Środkowej, o tyle seria kopenhaska powinna już być znaczne bardziej zbliżona. Tymczasem przebieg temperatury wskazuje na znaczą niejednorodność danych. Są to dane pobrane bezpośrednio z DMI, zakładamy więc, że Duńczycy uznają tę serię za jednorodną. Naszym zdaniem guzik prawda. Na szczęście problem dotyczy okresu, kiedy stacja ta jest nam niepotrzebna.
Na tle polskich rekonstrukcji (Warszawa, Lorenc 2000, Wrocław, Bryś 2010) problematyczne wydają się też dane z Pragi (nie pokazane na wykresie) – te z kolei są za ciepłe, a oryginalna seria Praga-Klementinum jest w oczywisty sposób niehomogeniczna. Można to stwierdzić nie tylko w oparciu o rekonstrukcję wrocławską (Bryś 2010), ale i dane austriackie (HISTALP).

Do wykrywania zerwania jednorodności serii i ich homogenizacji używamy CLIMATOL 3.1.2 (biblioteka R).

Bardzo ciepły sierpień, rekordowo ciepłe lato

Bardzo ciepły sierpień, rekordowo ciepłe lato

Średnia anomalia temperatury sierpnia wyliczona w oparciu o okres referencyjny 1981-2010 osiągnęła +2.11K. Tym samym był to cierpień bardzo ciepły, w całym okresie 1781-2019 mieliśmy tylko 8 sierpni z anomalią >= +2.0K, przy czym połowa z nich wystąpiła po roku 2001. Rozszerzenie rekonstrukcji wstecz w oparciu o dane Berkeley Earth wskazuje, że tak ciepłe sierpnie nie zdarzały się również w latach 1750-1781, przy czym z uwagi na niepewności pomiarowe być może blisko tego progu był sierpień 1775, który wg analizy Berkeley Earth miał anomalię równą +1.5K. Wszystko jednak wskazuje na to, że tegoroczny sierpień był ósmym najcieplejszym sierpniem w ciągu ostatnich 270 lat. Zawdzięcza on to głównie rekordowo ciepłej (dla lat 1950-2019) ostatniej dekadzie miesiąca. Dotychczas rekord należał do roku 1992 z anomalią ostatniej dekady miesiąca równej +4.23K, w tym roku było to +4.62K.

Poniżej: wstępna anomalia temperatury sierpnia względem okresu referencyjnego 1981-2010.

Poniżej: 10. dniowa średnia ruchoma anomalia temperatury.

Na powyższym wykresie widzimy chłodny okres w lipcu 2019, dzięki któremu dla wielu subiektywne odczucie tegorocznego lata może kompletnie się nie zgadzać z wyliczonymi wartościami. Wynika to z prostego faktu, że przypadł on na szczyt sezonu urlopowego, a dodatkowo najniższe anomalie panowały w północnej części naszego kraju. Gdyby wyciąć najchłodniejsze 15 dni lipca i zamienić je z dowolnym 15. dniowym okresem z czerwca, odczucie byłoby zgoła inne, a średnia temperatura lata ta sama. Nie zmienia to faktu, że tegoroczny lipiec był co najwyżej w normie termicznej, a w wielu miejscach Polski północno-wschodniej był wręcz lekko chłodny.

Mimo tego chłodnego epizodu, wstępna średnia anomalia temperatury lata wynosi +2.53K względem okresu referencyjnego 1981-2010, co oznacza że tegoroczne lato (pamiętajmy, że w meteorologii lato to trzy najcieplejsze miesiące roku – czerwiec, lipiec, sierpień) było rekordowo ciepłe. Dotychczasowy rekord należał do lat 1807 i 2018 – lata te miały średnią anomalię temperatury równą +2.11K. Nie da się ukryć, że za tegoroczny rekord odpowiada głównie skrajnie wysoka anomalia temperatury czerwca, wynosząca aż +5.35K, nie mająca pod tym względem porównania z jakimkolwiek czerwcem z lat 1781-2018 (a biorąc pod uwagę serię BE, możemy tę granicę spokojnie przesunąć do 1750), oraz rekordowo ciepła trzecia dekada sierpnia. Serię pomiarową trzech miesięcy letnich oraz całego lata możemy obejrzeć na poniższych wykresach.

Koniec sierpnia

Koniec sierpnia

Wczorajszy dzień był jak na końcówkę sierpnia wyjątkowo ciepły – średnia anomalia dobowa osiągnęła ok. +8.2K względem okresu referencyjnego 1981-2010. Anomalia dzisiejsza może być zbliżona, a nawet wyższa, zbliżona do +9K. Bardzo wysokich anomalii dobowych (> +7K) spodziewamy się również w pozostałych dwóch dniach miesiąca. Prognozy te wskazują na ostateczną anomalię sierpnia równą ok. +2.2K względem okresu referencyjnego 1981-2010, ostatecznie więc sierpień zapisze się jako bardzo ciepły.

Poniżej: prognoza modeli GFS/ICON

Będzie to jednocześnie oznaczać, że całe lato 2019 zapisze się (głównie dzięki czerwcowi) jako rekordowo ciepłe. Nawet obniżając prognozowaną średnią anomalię sierpnia i oszacowaną anomalię lipca o 0.05K (korekta na dodanie danych ze stacji klimatologicznych), otrzymamy wartości anomalii: czerwiec: +5.35K, lipiec +0.05K i sierpień +2.15K, co ostatecznie da anomalię całego lata równą +2.52K, o 0.41K powyżej rekordów z lat 1811 i 2018 (+2.11K).  Rekord lata jest już generalnie pewny.

Usłonecznienie – EUMETSAT i pomiary

Usłonecznienie – EUMETSAT i pomiary

Porównywaliśmy sobie właśnie dane EUMETSAT z pomiarami na stacjach synoptycznych. Dane usłonecznienia EUMETSAT (zbiór SARAH 2.1) są pozyskiwane z danych satelitarnych na podstawie algorytmów opisanych tutaj. Oczywiście, jak każdy taki algorytm, również ten nie jest doskonały i przed rokiem 1990 (a w szczególności w pierwszych latach) dane te potrafią być dosyć wątpliwe. Przede wszystkim w latach 1983-1987 usłonecznienie pozyskane z danych satelitarnych potrafi być znacznie wyższe, niż to mierzone na stacjach synoptycznych.

Z grubsza efekt takich porównań może wyglądać następująco:

Jak widać dane satelitarne nie odzwierciedlają idealnie pomiarów naziemnych (co zresztą nie jest zaskakujące). Średnia obszarowa suma usłonecznienia różni się o ok. 13% od tej uzyskanej z interpolacji IDW z nieco ponad 50 stacji synoptycznych. Jednakże taki rozkład różnic możemy z powodzeniem zrzucić na niedoskonałości oszacowania usłonecznienia z pomiarów satelitarnych. Problem pojawia się w przypadkach różnic stałych. Takie różnice pojawiają się na przykład w pierwszej połowie lat 90. XX w. w Mławie, głównie w sezonie wiosenno-letnim:

Dodatkowo dane z Mławy odstają tu nie tylko od danych satelitarnych, ale i od danych ze stacji okolicznych. Przyczyną może tu być na przykład przysłonięcie części horyzontu (nie jest tajemnicą, że pomimo stosownych zasad i umów często okolice stacji były zabudowywane). W przypadku Mławy problem pojawia się w roku 1988 i trwa do 1994 włącznie. Być może w roku 1995 stacja została przeniesiona, chociaż nie wskazuje na to średnia różnica ciśnienia zredukowanego i tego na poziomie stacji (zmiana ta wskazuje na zmianę wysokości położenia barometru i widać, że stacja w Mławie najprawdopodobniej była przeniesiona w 1968 r.).

Innym (znanym zresztą) są problemy ze stacją w Warszawie. Zasadniczo do 1994 r. nie budzą one jakichś większych wątpliwości, a potem zaczynają się dziać rzeczy dziwne. Od marca 1995 do sierpnia 1995 usłonecznienie w Warszawie jest znacząco niższe od tła:

Rok później sytuacja odwraca się o 180° i Warszawa stanowi teraz lokalne maksimum, co jest wyraźnie widoczne latem.

Sytuacja ta jest widoczna jeszcze w marcu 1997, natomiast od lipca do września 1997 dane są nieznacznie niższe od tła. W 1998 następuje kolejna zmiana i tym razem usłonecznienie w Warszawie jest od tła znacząco wyższe, przy czym dotyczy to miesięcy z wysokim usłonecznieniem. Od listopada do lutego różnice są niewielkie, lub żadne. W miesiącach letnich, w przypadkach skrajnych, potrafią znacznie przekraczać 120h w stosunku do oszacowania satelitarnego.

W 2003 podobny problem pojawia się w Rzeszowie. Jak wynika z „Biuletynu PSHM” usłonecznienie na tych stacjach pochodziło z lotniskowego systemu Vaisala wykorzystującego czujniki DSU12. W Rzeszowie problem przestaje być widoczny w roku 2009, zaś w Warszawie w roku 2015 – w tym roku dane zgadzają się wyjątkowo dobrze. W 2016 różnice – tym razem na minus w stosunku do tła mamy w Warszawie i ponownie w Mławie.

Znacznie większe różnice pomiędzy danymi satelitarnymi a usłonecznieniem ze stacji pomiarowych mamy w skali roku. Szczególnie duże są one przed 1993, kiedy w uśrednieniu do całego kraju przekraczają 200 godzin. Przyczyny takiego stanu rzeczy mogą być różne. Pierwsza, podstawowa, to różny próg heliograficzny. Dane satelitarne są dostosowane do progu 120 W/m2, a więc próg ten jest niższy, niż w przypadku stosowanego dawniej heliografu Campbella-Stokesa. Inną przyczyną może być częściowe zasłonięcie horyzontu przez przeszkody (czy to sztuczne, czy naturalne). Jeśli taka przeszkoda będzie częściowo przysłaniać horyzont i przez to zasłaniać Słońce przez 10 minut dziennie, usłonecznienie będzie zaniżone o 60 godzin w skali roku. Dodatkowo w latach 80. i na początku lat 90. XX w. znacznie większe było zapylenie atmosfery związane z antropogenicznymi emisjami aerozoli. To mogło nieco zaniżać mierzone usłonecznienie, szczególnie w okolicy wschodów i zachodów Słońca. Analiza satelitarna dodatkowo może niedostatecznie uwzględniać rzeźbę terenu, a stacje położone w obniżeniach terenu mogą doświadczać częstych zamgleń, które nie będą wychwycone na obrazach satelitarnych.

Poniżej: usłonecznienie roczne w 1984 wg danych satelitarnych i synoptycznych.

Dość interesujące jest, że po początkowym spadku różnic na przełomie lat 80. i 90., w 1991 ponownie one wzrosły: z -68h (średnia roczna różnica dla Polski) w 1990 do -128h w 1991 do aż 222h w 1992. W 1993 natomiast ponownie spadły do bardzo niskiego poziomu:  23.6h, przy czym byłyby jeszcze niższe, gdyby nie różnice w Mławie. Teoretycznie można by było próbować zrzucić część tych różnic na zapylenie atmosfery po wybuchu Pinatubo, jednakże jest to mocno naciągane: w 1991 połowa różnicy za ten rok wystąpiła w lutym i marcu, czyli jeszcze przed wybuchem wulkanu. Od 1993 różnice są nieznaczne. Po roku 2000 zasadniczo średnie różnice usłonecznienia rocznego między analizą satelitarną i pomiarami na stacjach nie były duże, poza wspomnianymi przypadkami Rzeszowa i Warszawy:

W 2015 problem przestaje dotykać Warszawę, ale niższa od tła jest Mława.

W 2017 do Mławy dołączyła Warszawa. Problem ten stał się widoczny szczególnie w roku 2018.

W sposób oczywisty mamy więc zerwanie jednorodności przynajmniej kilku serii pomiarowych. W Mławie zerwanie to dotyczy okresu od 1988 do 1994 i najprawdopodobniej po 2016. W Rzeszowie od 2003 do 2008 i w Warszawie od 1995 do 2014 oraz od 2017. Dodatkowo od momentu automatyzacji stacji synoptycznych sporadycznie niektóre z nich potrafiły raportować błędne usłonecznienie, jest to jednak temat na inny wpis. Dane satelitarne przynajmniej od roku 1993 wydają się wiarygodnym i stosunkowo jednorodnym źródłem informacji o usłonecznieniu w Polsce. Do tematu jeszcze z pewnością wrócimy.

Anomalia temperatury globalnej

Anomalia temperatury globalnej

Wg wyliczeń wykonanych na podstawie analizy T2M z modelu GFS oraz reanalizy CFSR po raz ostatni ujemna dobowa globalna anomalia temperatury powietrza (okres referencyjny 1981-2010) wystąpiła ponad 5 lat temu, na początku lutego 2014. Nawet po zakończeniu El Niño 2015/6 temperatury nie zdołały obniżyć się do poziomów wielokrotnie widywanych w latach wcześniejszych. Największe szanse na to są gdy na półkuli północnej panuje zima – wówczas przy odpowiednich warunkach kontynenty mogą się mocno wychłodzić – tak było na przykład w roku 2012. Być może tej zimy, po około 6. letniej przerwie zdarzy się to ponownie. W roku 2012 anomalia spadła do -0.3K, więc nadal są na to szanse.

Źródło: http://www.karstenhaustein.com/climate.php

Wg analizy NASA GISTEMPv3 styczeń 2012 był ostatnim miesiącem z ujemną globalną anomalią temperatury powietrza względem okresu referencyjnego 1981-2010. Wg nowszej wersji GISTEMP-a, używającej znacznie więcej stacji pomiarowych, był to luty 2011.

Tragedia w Tatrach

Tragedia w Tatrach

Kilka osób zginęło dziś w Tatrach w wyniku rażenia piorunem. Jak zwykle w takich przypadkach pojawiają się pytania to, czy były jakieś ostrzeżenia, tymczasem smutna prawda jest taka, że burza ta w żadnym razie do ostrzeżeń się nie kwalifikowała. Nie było ani skrajnie ulewnych opadów, ani silnych porywów wiatru. Co więcej, kiepska pogoda nie pojawiła się znikąd – oznaki nadchodzącej burzy były widoczne już wcześniej. Trzeba pamiętać, że każda burza może być groźna i w przypadku tak niepewnej pogody należy unikać wychodzenia w góry.

W tej sprawie biuro prasowe IMGW wydało komunikat.