Forum für Wissenschaft, Industrie und Wirtschaft

Hauptsponsoren:     3M 
Datenbankrecherche:

 

Die Crux mit den Klimadaten

10.01.2012
Wer wissen will, wie sich das Klima langfristig entwickelt, braucht genaue Messreihen. Doch aufgrund verschiedener Messinstrumente und Standortunterschiede kann es zu künstliche Trends in den Ergebnissen kommen.

Internationale Meteorologen unter Beteiligung der Universität Bonn und des Deutschen Wetterdienstes haben verschiedene Methoden auf Herz und Nieren geprüft, wie sich solche Messunterschiede am besten herausrechnen lassen. Sie veröffentlichen die Studie nun in der Fachzeitschrift „Climate of the Past“ der European Geoscience Union.

„Zur genauen Bestimmung der Klimaentwicklung im vergangenen Jahrhundert sind die Originalaufzeichungen der Klimastationen unverzichtbar, aber nicht ohne weiteres nutzbar“, sagt Erstautor Dr. Victor Venema vom Meteorologischen Institut der Universität Bonn. Neben echten Klimasignalen könnten sie auch künstliche Änderungen enthalten, etwa dass Städte die Wärme insbesondere nachts besser speichern als ihre Umgebung. Aufgrund wachsender Siedlungen befinden sich viele ursprünglich in Vororten gelegene Messstationen mittlerweile in städtischer Umgebung. „Folglich werden steigende Temperaturen gemessen, ohne dass sich das allgemeine Klima geändert hätte“, berichtet der Wissenschaftler.

Veränderungen der Messmethoden führen zu anderen Ergebnissen

Weitere Inhomogenitäten gehen auf Veränderungen der Messmethoden zurück. Zum Schutz vor Nässe und Sonne sind meteorologische Instrumente üblicherweise in Wetterhütten aufgebaut. Im 19. Jahrhundert benutzte man dagegen häufig nur einen Metallschutz und maß die Temperatur an der sonnengeschützten Nordseite von Häusern, deren Wärmestrahlung die Messung verfälschten. Später erkannte man dieses Problem und führte sogenannte Stevenson-Hütten ein, die nun abseits von Gebäuden in Gärten aufgestellt wurden. In ihrer typischen Doppellamellen-Bauweise sind sie bis heute gebräuchlich.

Darüber hinaus wurden Ende des 19. Jahrhunderts Regenmessgeräte meist auf Hausdächern installiert, damit der Niederschlag nicht durch Bäume oder Häuser abgeschirmt werden konnte. „Später stellte sich allerdings heraus, dass durch die hier herrschende erhöhte Windverwirbelung ein beträchtlicher Teil des Niederschlags nicht ins Messgerät fallen konnte“, sagt Dr. Ingeborg Auer von der Zentralanstalt für Meteorologie und Geodynamik in Wien. Dies führte insbesondere bei Schneefall zu einer deutlichen Unterschätzung. Folglich werden die Niederschlagsmessgeräte heute am Boden aufgestellt.

Die Wissenschaftler haben Korrekturmethoden entwickelt

Die allmähliche Veränderung der Stationsumgebung, die Verlegung von Stationen und Neuerungen in der Messtechnik verfälschen also die langjährigen Klimamessreihen. „Will man die tatsächliche Entwicklung des Klimas einschätzen, müssen diese nicht-klimatischen Effekte von den echten Klimasignalen getrennt werden“, sagt Dr. Venema. Hierzu werden die sehr kleinen Differenzen der Messreihen benachbarter Stationen ausgewertet. Künstliche Änderungen an einer Station führen zu deutlich erkennbaren abrupten Sprüngen in den Differenzen, die in den absoluten Messreihen wegen der hohen natürlichen Klimavariabilität nicht erkennbar wären.

Einzigartige Blindstudie zu Homogenisierungsverfahren

Obwohl alle Korrekturverfahren auf dem gleichen Prinzip basieren, haben sich im Laufe der Zeit unterschiedliche Methoden etabliert. Die Wissenschaftler führten nun die erste vergleichende Blindstudie dieser Verfahren durch. Hierzu stellte ein Teilnehmer realistische künstliche Klimadaten her, inklusive einiger zusätzlicher Sprünge und Trends. Die übrigen Wissenschaftler sollten diese Inhomogenitäten mithilfe ihrer jeweiligen Verfahren finden und ihre korrigierten Ergebnisse zurücksenden. Da nur der Datenproduzent die künstlich eingefügten Sprünge kannte und die restlichen Forscher dafür „blind“ waren, konnte er eine objektive Bewertung aller Methoden durchführen. „Eine solche Blindstudie von Homogenisierungsverfahren ist bisher einzigartig“, berichtet der Wissenschaftler der Universität Bonn.

Verfahren führen nicht zur Überschätzung der Klimaerwärmung

In der Klimadebatte wird von einigen Skeptikern behauptet, dass die Korrekturen nicht-klimatischer Effekte zu einer Überschätzung der globalen Erwärmung führen. „Die Ergebnisse dieser Studie widerlegen diese Behauptung“, sagt Dr. Venema. Homogenisierungsverfahren verbesserten die Qualität von Temperaturmessreihen und ermöglichten somit eine genauere Einschätzung des Trends. „Unsere Experimente bestätigen in der Tat, dass die Verfahren die Datenqualität erhöhen“, sagt Enric Aquilar vom Center on Climate Change im spanischen Tarragona. „Wir sind dadurch besser in der Lage, die Entwicklung des Klimas im letzten Jahrhundert einzuschätzen.“

Kontakt:

Dr. Victor Venema
Meteorologisches Institut
Tel: 0228/735185
E-Mail: Victor.Venema@uni-bonn.de

Johannes Seiler | idw
Weitere Informationen:
http://www.clim-past.net/8/89/2012
http://www.uni-bonn.de

Weitere Nachrichten aus der Kategorie Geowissenschaften:

nachricht Meeresforschung in Echtzeit verfolgen
22.02.2017 | GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

nachricht Weniger Sauerstoff in allen Meeren
16.02.2017 | GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Alle Nachrichten aus der Kategorie: Geowissenschaften >>>

Die aktuellsten Pressemeldungen zum Suchbegriff Innovation >>>

Die letzten 5 Focus-News des innovations-reports im Überblick:

Im Focus: „Vernetzte Autonome Systeme“ von acatech und DFKI auf der CeBIT

Auf der IT-Messe CeBIT vom 20. bis 24. März präsentieren acatech – Deutsche Akademie der Technikwissenschaften und das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) in Kooperation mit der Deutschen Messe AG vernetzte Autonome Systeme. In Halle 12 am Stand B 63 erwarten die Besucherinnen und Besucher unter anderem Roboter, die Hand in Hand mit Menschen zusammenarbeiten oder die selbstständig gefährliche Umgebungen erkunden.

Auf der IT-Messe CeBIT vom 20. bis 24. März präsentieren acatech – Deutsche Akademie der Technikwissenschaften und das Deutsche Forschungszentrum für...

Im Focus: Kühler Zwerg und die sieben Planeten

Erdgroße Planeten mit gemäßigtem Klima in System mit ungewöhnlich vielen Planeten entdeckt

In einer Entfernung von nur 40 Lichtjahren haben Astronomen ein System aus sieben erdgroßen Planeten entdeckt. Alle Planeten wurden unter Verwendung von boden-...

Im Focus: Mehr Sicherheit für Flugzeuge

Zwei Entwicklungen am Lehrgebiet Rechnerarchitektur der FernUniversität in Hagen können das Fliegen sicherer machen: ein Flugassistenzsystem, das bei einem totalen Triebwerksausfall zum Einsatz kommt, um den Piloten ein sicheres Gleiten zu einem Notlandeplatz zu ermöglichen, und ein Assistenzsystem für Segelflieger, das ihnen das Erreichen größerer Höhen erleichtert. Präsentiert werden sie von Prof. Dr.-Ing. Wolfram Schiffmann auf der Internationalen Fachmesse für Allgemeine Luftfahrt AERO vom 5. bis 8. April in Friedrichshafen.

Zwei Entwicklungen am Lehrgebiet Rechnerarchitektur der FernUniversität in Hagen können das Fliegen sicherer machen: ein Flugassistenzsystem, das bei einem...

Im Focus: HIGH-TOOL unterstützt Verkehrsplanung in Europa

Forschung am Karlsruher Institut für Technologie (KIT) unterstützt die Europäische Kommission bei der Verkehrsplanung: Anhand des neuen Modells HIGH-TOOL lässt sich bewerten, wie verkehrspolitische Maßnahmen langfristig auf Wirtschaft, Gesellschaft und Umwelt wirken. HIGH-TOOL ist ein frei zugängliches Modell mit Modulen für Demografie, Wirtschaft und Ressourcen, Fahrzeugbestand, Nachfrage im Personen- und Güterverkehr sowie Umwelt und Sicherheit. An dem nun erfolgreich abgeschlossenen EU-Projekt unter der Koordination des KIT waren acht Partner aus fünf Ländern beteiligt.

Forschung am Karlsruher Institut für Technologie (KIT) unterstützt die Europäische Kommission bei der Verkehrsplanung: Anhand des neuen Modells HIGH-TOOL lässt...

Im Focus: Zinn in der Photodiode: nächster Schritt zur optischen On-Chip-Datenübertragung

Schon lange suchen Wissenschaftler nach einer geeigneten Lösung, um optische Komponenten auf einem Computerchip zu integrieren. Doch Silizium und Germanium allein – die stoffliche Basis der Chip-Produktion – sind als Lichtquelle kaum geeignet. Jülicher Physiker haben nun gemeinsam mit internationalen Partnern eine Diode vorgestellt, die neben Silizium und Germanium zusätzlich Zinn enthält, um die optischen Eigenschaften zu verbessern. Das Besondere daran: Da alle Elemente der vierten Hauptgruppe angehören, sind sie mit der bestehenden Silizium-Technologie voll kompatibel.

Schon lange suchen Wissenschaftler nach einer geeigneten Lösung, um optische Komponenten auf einem Computerchip zu integrieren. Doch Silizium und Germanium...

Alle Focus-News des Innovations-reports >>>

Anzeige

Anzeige

IHR
JOB & KARRIERE
SERVICE
im innovations-report
in Kooperation mit academics
Veranstaltungen

Aufbruch: Forschungsmethoden in einer personalisierten Medizin

24.02.2017 | Veranstaltungen

Österreich erzeugt erstmals Erdgas aus Sonnen- und Windenergie

24.02.2017 | Veranstaltungen

Big Data Centrum Ostbayern-Südböhmen startet Veranstaltungsreihe

23.02.2017 | Veranstaltungen

 
VideoLinks
B2B-VideoLinks
Weitere VideoLinks >>>
Aktuelle Beiträge

Fraunhofer HHI auf dem Mobile World Congress mit VR- und 5G-Technologien

24.02.2017 | Messenachrichten

MWC 2017: 5G-Hauptstadt Berlin

24.02.2017 | Messenachrichten

Auf der molekularen Streckbank

24.02.2017 | Biowissenschaften Chemie