2019/12/13 01:12

Sprawdzalność GCM

Wiele emocji w przypadku Globalnego Ocieplenia budzą wyniki modeli globalnych służących do prognozowania przyszłych zmian klimatu, a przede wszystkim zmian temperatury globalnej. Ich odniesienie do obserwacji często bywa mocno… nazwijmy to „kreatywne”.

Przykładem takiej kreatywności może być na przykład poniższy wykres:

Po pierwsze problemem jest tu użycie serii satelitarnej UAH w odniesieniu do modeli CMIP5, które pokazują tu dane powierzchniowe. Dane satelitarne (UAH, RSS) nie przedstawiają danych naziemnych, a jedynie oszacowane wartości dla dolnej troposfery. Po drugie wynik jest cokolwiek dziwny, ponieważ do 2005 roku dla modeli CMIP5 był to hindcast. Byłoby dość niezwykłe, żeby hindcast już na starcie dawał takie różnice. Problemem jest tu zapewne dobór okresu bazowego – jak widzimy kolejne realizacje modeli CMIP5 (a także dane obserwacyjne) startują z jednego punktu i są 5-cio letnią średnią ruchomą. Oznacza to, że okres bazowy w tej serii ma zaledwie 5 lat i najpewniej jest to okres 1979-1983. Problem polega na tym, że szczególnie w danych satelitarnych (które na wykresie najbardziej odbiegają od modeli) jest to okres co najmniej niepewny – satelitarne pomiary temperatury dopiero co wtedy wystartowały. Kolejna niepewność polega na tym, że jest to jednocześnie czas w którym wybucha El Chicon i mamy silne El Niño 1982/3. Zmiana tego okresu referencyjnego nie wpłynie co prawda znacząco na trend w pomiarach i modelach, ale może znacznie zmienić obraz sytuacji. Jeden z dyskutantów Roya Spencera (bowiem to m.in, jego wykres, widać chyba tez rękę Christy’ego)  zrobił to więc nieco lepiej:

Tutaj jest już nieco lepiej, a główna rozbieżność narasta po 1998, nie od samego początku serii. Nadal jednak porównuje się dane nieporównywalne – podanie danych satelitarnych, jako „reality” jest sporym nadużyciem, szczególnie że w chwili obecnej nie jesteśmy nawet w stanie do końca powiedzieć, czy są one prawidłowe – w ostatnich latach w wyniku szeregu poprawek seria RSS znacząco swój trend zwiększyła (wersja 4.0), zaś seria UAH obniżyła (wersja 6.0). Fakt, że wyliczone wartości anomalii i ich trend w tych seriach znacząco się różni i jest zależny od pewnych założeń, wielu sztucznych modyfikacji i poprawek, moim zdaniem eliminuje je z takiego porównania (szczególnie, że nadal nie pokazują one danych powierzchniowych, a do nich się w istocie odnoszą). Dodatkowo nie ma jeszcze żadnego artykułu (i w sumie nie wiadomo, czy będzie) na temat zmian w UAH v6. W tej chwili tak naprawdę do końca nie wiemy, jakie zmiany wprowadził do serii Spencer i dlaczego. W zamian za to jesteśmy co jakiś czas zalewani nowymi „betami” tej serii (obecnie mamy do czynienia z wersję 6beta5).

W ostatnich dniach porównanie modeli z obserwacjami zrobił również Nick Stokes:

W przeciwieństwie do poprzedników zrobił to niemal zupełnie poprawnie. Po pierwsze ustalił konkretny okres referencyjny. Po drugie udostępnił skrypt i dane, które można pobrać tutaj. Po trzecie odniósł dane powierzchniowe do danych powierzchniowych.

Patrząc na wykres Stokesa nie mamy już takiego wrażenia, że wyniki modeli są skrajnie błędne. Największe rozbieżności nie przekraczają 0.2K, a odbiór wykresu jest zupełnie inny, niż wykresu Spencera (chociaż w tym przypadku pomaga obecność ostatniego El Niño).

Ostatni problem z tego typu analizą zaznaczył w komentarzu pod wpisem Stokesa Olof R:

JCH, the multi-model mean (rcp 8.5) is 0.23 C/decade for the period 1979-2016.
However, that is global SAT and not a fair comparison with the blended observational indices.
With a blended CMIP 5 index (71% SST and 29 % land SAT) the trend is 0.20 C/decade.
It is complicated to make a fully apples to apples comparison with e g Gistemp loti. One needs a variable sea-ice mask for every single model run, since the observational indices use SAT over sea ice.
For a layman it is much easier to skip SAT over sea ice, and simply use the SST below the ice. This is actually the standard output from the model SST and ERSST.
Here I have compared such a simplified GISS index vs the corresponding CMIP5 mean.

W skrócie oznacza to, że w takich porównaniach należałoby porównywać dokładnie takie same rzeczy. Taka sama powinna być maska ląd-ocean, rozwiązany powinien być problem z tym jak traktować temperaturę nad lodem (ocean czy ląd?). Najważniejszy chyba problem leży w tym, że niemal wszyscy porównujący modele z pomiarami  biorą z modeli zmienną reprezentującą temperaturę powietrza (SAT). W rzeczywistości jednak wszystkie pomiary biorą SAT nad lądami, ale temperaturę powierzchni oceanu (SST) nad oceanami. A to już poważna różnica. Jak wskazuje Olaf w powyższym komentarzu, poprawne obliczenia obniżają trend w modelach GCM z 0.23K/dekadę do 0.20K/dekadę, co znacznie zbliża je do danych pomiarowych (GISS=0.17dekadę).

Wykres Olafa wygląda tak:

Tutaj otrzymujemy zadziwiającą wręcz (szczególnie na tle wykresów poprzednich) zgodność model-obserwacji. Jednak i z tym wykresem mam problem – brakuje danych i podanej jasnej metody obliczeń.

Nieco inny wynik dostali Cowtan et al. 2015:

Co prawda pomysł z zaktualizowanymi forcingami uważam za średnio trafiony (w końcu forcingi są prognozą samą w sobie), ale również tutaj ostatnia rozbieżność modele-obserwacje nie wygląda aż tak dramatycznie. Przedłużenie tej serii do chwili obecnej jeszcze bardziej zbliżyłoby obserwacje do wyników modelowania (choć oczywiście ponownie głównie za sprawą El Niño).

Reasumując – porównanie danych obserwacyjnych z projekcjami GCM nie jest takie proste, jakby na pierwszy rzut oka się mogło wydawać. W sumie każdy może ściągnąć wyniki wszystkich modeli, chociażby ze strony Climate Explorer i odnieść je do rzeczywistych obserwacji, jednak nie każdy pojmuje różnice pomiędzy tymi danymi. Takie proste porównanie jest dla niektórych atrakcyjne, szczególnie jeśli wynik pasuje do ich światopoglądu. Smutne trochę, że czegoś takiego dopuszczają się Spencer&Christy, szczególnie że mają wiedzę i dane, żeby zrobić to poprawnie. Co więcej, Christy używa podobnych danych w swoim „zeznaniu” przed komisją kongresu USA, używając do tego „4 serii balonowych” i bliżej nie sprecyzowanej metodologii. Porównanie takich danych z serią RATPAC-A daje zupełnie inne wyniki.

Print Friendly, PDF & Email

5
Dodaj komentarz

Please Login to comment
2 Comment threads
3 Thread replies
0 Followers
 
Most reacted comment
Hottest comment thread
3 Comment authors
Arctic HazePiotr Djakówwrocław Recent comment authors

This site uses Akismet to reduce spam. Learn how your comment data is processed.

  Subscribe  
Powiadom o
wrocław
Gość
wrocław

To jaki wg Ciebie model jest najbardziej wiarygodny?

Arctic Haze ☀️
Editor
Trusted Member

@Piotr

Wymuszenia też trzeba prognozować jeśli chce się prognozować przyszłe temperatury. To oczywiste.

Jednak do sprawdzenia jak model ma się do rzeczywistości powinno się go sprawdzać na jak najbardziej realistycznych wymuszeniach. Bo wymuszenie jest czymś zewnętrznym w stosunku do modelu (wymuszenia to parametry wejściowe). Zatem prawidłowość ich wartości nie powinna być testem modelu.