Kan vi stole på temperaturdata fra Meteorologisk institutt?

1. februar 2022 oppdaget Værstat noe spesielt – Meteorologisk institutt (MET) hadde oppdatert månedsmiddelverdien for desember 2021 for Oslo Blindern. Den nye verdien var -90,2 grader!

Hvordan kunne dette skje?

Temperaturer er viktige for folk og samfunn, og er ofte presentert i statistikk og medieomtale. Mennesker har nok alltid blitt fascinert over temperaturtrender, og ekstremverdier.

Med moderne datateknologi har meteorologiske organer tilgjengeliggjort ufattelig store mengder temperaturdata, og i noen tilfeller med data helt tilbake til 1600-tallet (Værstat har publisert en dataserie fra sentrale England (Hadley Centre) med data tilbake til 1659.

Homogenisering av dataserier

Mange er opptatt av de langsiktige trendene, og om nåtiden er “mot normalt” sett mot historiske temperaturer.

Dette skaper en del utfordringer, da avlesninger gjort i dag ikke nødvendigvis er sammenlignbare med avlesninger gjort på f.eks. 1800-tallet. Det er mange faktorer som spiller inn.

Eksempler på faktorer som gjør at temperaturobservasjoner ikke er sammenlignbare over tid kan være flytting av målestasjon, endringer på stasjoner, endringer i måleinstrumenter, oppvarming som følge av urbanisering.

Det gjelder også Oslo, hvor man flyttet målestasjon fra Observatoriet (ved Solli plass) til universitetet i Blindern på 1930-tallet. Observatoriet er 22 meter over havet, mens Blindern er 98 meter. Høydemetrene i seg selv gjør at målingene ikke er direkte sammenlignbare. Den homogeniserte temperaturserien for Oslo publisert på Værstat er basert på publisert fagfellevurdert forskning.

Værstat publiserer fortrinnsvis homogeniserte temperaturserier, da de ofte gir lengre temperaturserier og det foreligger en faglig gjennomgang som kan utelukke inhomogene måleavvik som gjør at verdiene ikke er sammenlignbare over tid.

Feilaktige verdier publisert

Temperaturseriene som Værstat publiserer henter data direkte fra MET sin database (frost.met.no), oppdatert hver natt.

Noe rart skjedde 1. februar og månedsmiddelverdier for Oslo så feilaktig ut. I første øyekast trodde jeg det var en feil i beregningene eller visualiseringen av dataen – 10 års gjennomsnittlig verdi så åpenbart feil ut:

Skjermbilde fra verstat.no, temperaturstatistikk for Oslo Blindern. Viser feilaktige verdier 1. februar 2022

Værstats tabellvisning av dataen viser tydelig hva som hadde skjedd:

Skjermbilde fra verstat.no, temperaturstatistikk for Oslo Blindern. Viser feilaktige verdier 1. februar 2022

To åpenbare feil vises. Verdien for 2016 har forsvunnet og ny beregnet (homogenisert) månedsverdi for desember 2021 sto oppført som -90,2 grader.

Skjermbilde av grunndataen, direkte fra MET sin database. Data hentet 1. februar 2022. SN18700 “best estimate mean” (homogenisert månedsmiddelverdi)

Bildet overfor viser datadump direkte fra databasen til MET. Det var derfor tydelig at feilen ikke lå i datainnhentingen, beregningene eller visualiseringen som gjøres automatisk av Værstat.

Hvordan kunne MET publisere månedsverdi på -90,2 grader?

Værstat gjorde MET oppmerksom på de åpenbart feilaktige verdiene og MET rettet de fort opp.

Videre fulgte Værstat opp med spørsmål om hvordan dette kunne skje, og hvilke rutiner MET har for å fange opp slike feil. “Dagens klimavakt” fra MET svarte på Værstat sine spørsmål.

MET gjør kvalitetssjekker på måleobservasjoner:

Vi sjekker blant annet grenseverdier (hvilke troverdige rammer en parameter kan finnes innen); om en måleserie plutselig hopper langt; om en måleserie har satt seg fast på én verdi; og om det har skjedd en plutselig statistisk økning over et kort tidsintervall.

Slike og flere ting merkes som mistenkelige, og dataverdiene kan så enten bli forkastet automatisk, eller de kan sjekkes manuelt for å vurdere om det er reelt.

MET spekulerer om hva som kan ha forårsaken at 2016 verdien forsvant:

Det som kan ha skjedd, er at 2016-verdien ble oppretta på et tidspunkt da det mangla for mye data til å lage en månedsverdi. Dette kan for eksempel dreie seg om grunnlagsdata markert som mistenkelig av sjekkene nevnt ovenfor.

Over tid så blir det utført flere statistiske sjekker, og kvalitetskontrollen foregår gjerne i flere dager etter en måling ble foretatt. Når det er mulig å generere en ny månedsverdi, så skal dette propageres riktig, men akkurat desember 2016 så kan det hende at databasen fikk en teknisk feil som gjorde at akkurat denne verdien uteble.

Når det gjelder den åpenbart feilaktige verdien for desember 2021, så ser det ikke ut til at MET fant årsaken til feilen:

Disse verdiene blir aggregert fra grunnlagsdata i etterkant av kvalitetskontrollen vår. Det kan være årsaken til at -90,2 °C ikke ble oppdaga, for denne verdien ville ha blitt plukka opp av kvalitetskontrollrutinene våre.

Jeg vet ikke hvordan 2021-verdien ble så feil. Det kan være alt fra gale grunnlagsdata som slapp ut og ble forkastet i etterkant, til tekniske problemer i databasen.

– Lurt å gjøre egen sjekk av data man skal bruke

MET forklarer videre at det gjøres kontroller av beregnede data, men da gjerne når de skal brukes til noe.

Det gjøres også ettertidskontroller av data for å plukke opp denne typen feil. Det gjøres gjerne for utvalgte data som skal brukes til noe. Og homogeniseringsarbeidet i seg selv er noe vi gjør for å luke ut feil. (…)

Når dette arbeidet er utført, så brukes «normale» data for å fortsette den homogeniserte serien. Det er i denne kopieringsprosedyren at det har skjedd feil i dette tilfellet.

Videre så råder MET brukere til å gjøre egen sjekk av data man skal bruke:

Utover dette så er det alltid lurt å gjøre en egen sjekk av data man skal bruke før man gjør en analyse, slik som du har gjort. Uansett hvor smarte systemer vi bygger for å luke ut feil, så kan uante situasjoner eller tekniske problemer alltid føre til nye typer feil. Datamangler og anomalier som dette, er det jeg ser mest.

Vitenskapelige brukere av dataene foretrekker gjerne å hente ut rådataene direkte og gjøre egen kvalitetskontroll og aggregering og homogenisering.

MET har utfordringer med systemene – jobber med å fornye kvalitetskontrollen

Avdelingsleder for klimatjenester, Hans Olav Hygen, gir utfyllende informasjon om kvalitetssikringsarbeidet i MET.

Hovedprinsippet i kvalitetskontrollene er at det først gjennomføres en del tekniske kontroller automatisk, deretter automatiske kontroller som har mer geofysisk innhold. En del elementer går så videre til manuell kontroll. Originale innkommende data tas vare på.

MET har utfordringer med systemene, og jobber nå for å fornye kvalitetskontrollen:

Vi har en utfordring med systemet, og det er at arkitekturen er fra starten av 2000 tallet. Utviklingen siden den gang er økt tilfang på data, men med større variasjon i kvalitet. Dette medfører at vi nå har startet et nytt internt prosjekt der vi skal fornye kvalitetskontrollen slik at vi får kapasitet til å håndtere sensorer med større variasjon i målefrekvens og oppsett.

For de som er interessert i MET sine kvalitetsikringsrutiner av temperaturdata så kan man lese om fellesnordiske rådene her:

Det jobbes nå med nye rutiner som dokumenteres fortløpende, dokumentert i to rapporter i 2021:

Line Båserud i MET jobber med “Titanprosjektet”, som tar sikte på å videreutvikle automatiserte kvalitetskontroller av meteorologiske data:

Værstat sin vurdering

I medier og fra uttalelser fra fagpersoner får vi ofte inntrykk av at temperaturverdier er absolutte og uten usikkerhet. Ofte kan vi lese “aldri før er det målt”.

Men det er tydelig at det kan være betydelig usikkerhet knyttet til temperaturobservasjoner og sammenlignbarheten over tid.

Værstat mener det er viktig å forstå grunnen til at man gjør justeringer i verdier for å få verdiene sammenlignbare over tid.

Tidligere har Værstat publisert en temperaturserie fra Uppsala med døgnmiddelverdier helt tilbake til 1722. Etter 2005 er det identifisert oppvarmingseffekter fra urbanisering som gjør at måleverdiene man gjør i dag ikke er sammenlignbare med verdier målt på 1700-tallet. For å gjøre temperaturserien sammenlignbar må man nedjustere dagens verdier slik at man fjerner den unaturlige oppvarmingen fra nærliggende bygninger.

Videre har man begynt automatisk registrering av temperaturer og oppdatering av temperaturserier som kan føre til ytterligere feil (som vi så et tydelig eksempel på i denne saken). Å vedlikeholde og oppdatere temperaturserier trengs det et kontinuerlig arbeide for å sikre god datakvalitet.

Værstat mener vi stort sett kan stole på temperaturverdier fra MET, men at det er en generell mangel på refleksjon rundt usikkerhet i temperaturmålinger, sammenlignbarheten over tid og usikkerhet rundt automatiserte målinger og beregninger.

Det kontinuerlige arbeidet med å kvalitetsikre og videreutvikle kvalitetssikresrutiner av meteorologiske data viser hvor komplisert temperaturmåling egentlig er.

Mediene synes ikke å gjøre ikke jobben sin for å videreformidle denne usikkerheten.

Oppdatering 08.02.2022: MET ga utfyllende opplysninger om kvalitetsikringsrutiner etter artikkelen først ble publisert 7/2, og artikkelen er oppdatert med nye opplysninger og lenker til dokumentasjon gitt fra MET.


Støtte Værstat?

Liker du innholdet i denne artikkelen, og vil lese mer om værstatistikk? Følg Værstat på facebook eller MeWe eller meld deg på nyhetsbrev for å bli minnet på når vi kommer med nytt innhold!

Illustrasjonsbilde: 102786329 / Meteorology © Marian Vejcik | Dreamstime.com

5 kommentarer

  1. Dette må vel være en «punchefeil»? Jeg er skeptisk til alt som publiseres om vær og klima. Mediene er selektive, de skriver mest om ting som støtter «klimaevangeliet», altså at det er menneskeskapt CO2 som skaper en «klima- og naturkrise». Det skrives om varmebølger, varmerekorder, skogbranner, flom, uvær og alt som understøtter slagordet «varmere, våtere og villere». Kulde er mindre interessant, likedan mye snø osv.
    Det er kalde perioder som har skapt de største problemer for menneskeheten. De varmere periodene er blomstringstider.
    De høye strømprisene er en liten forsmak på det grønne skiftet. Det samme er meldingene gjennom media i går om at alt vil bli dyrere. Levekostnadene vil øke. Ulikhetene blir større. Det grønne skifte vil være fattigdomsfremmende. Ikke minst for u-landene.
    Les gjerne boka «Vårt alltid skiftende klima» skrevet av Eva Marie Brekkestø (Sirius forlag). Den setter det hele i historisk perspektiv.
    Hilsen Steinar Åge Brenden, Oslo

    • Hei!

      Dette var ikke en “punchefeil” fra MET sin side, da de har en del automatikk nå. Oslo Blindern er en rekonstruert homogenisert temperaturserie der man har satt sammen forskjellige målestasjoner fra tidlig 1800-tall til Blindern i dag. For å oppdatere denne temperaturserien så føyer de til seneste kvalitetssikrede måleobservasjoner fra målestasjonen på Blindern. Noe gikk galt ved denne automatiske tilføyelsen av middelverdi for desember 2021 slik at den ble åpenbart feil (datamaskiner har ikke noen forhold til at -90 grader åpenbart er feil, da de bare kalkulerer verdiene). Man hadde ikke rutiner som fanget opp en slik type feil, og de rettet feilen etter jeg tok kontakt.

      Jeg tenker man bør ha en grunnleggende sunn skepsis til statistikk og hva som presenteres, men jeg oppfatter det slik at MET jobber aktivt med å kvalitetssikre måleobservasjonene som gjøres og jobber for å lage sammenlignbare temperaturserier. Dette er en veldig viktig jobb, og de forvalter verdifull data.

      Det som ikke kommer frem i hovedstrømsmediene er usikkerheten ved slike temperaturserier, og dette vil jeg si kan bidra til en slik mistro som du har. Jeg tenker at man ville økt tillitten til slike værdata dersom man var tydelige på begrensingene og usikkerheten.

      Mvh,
      Ole Østlid

Noe å tilføye eller spørsmål? Kommenter her.