Klimawandel

Was Klimamodelle leisten

Geht es um den Klimawandel, geht es um unsere Zukunft. Doch was können wir wissen von dem, was auf uns zukommt? Mit der Modellierung der künftigen Entwicklung versucht die Klimaforschung, belastbare Antworten zu geben.
nördlicher Bereich der Erde, Arktis, mit Sonne im Hintergrund
Foto: visdia (32258612) | Alle Modelle zur Klimaberechnungen erreichen trotz verbesserter Technologie nie die komplexe Wirklichkeit.

Es gehört zu den Eigentümlichkeiten des Menschen zu wissen, dass er Zukunft hat. Während Tiere hic et nunc leben, ist es dem Menschen möglich, an ein Morgen zu denken. Er ist damit zugleich verdammt, in die Unsicherheit hinein zu planen. Denn er weiß zwar, dass es ein Morgen gibt, aber nicht, was es bringen wird. Es ist seit altersher der Traum des Menschen, etwas von der unbekannten, aber unbedingt auf ihn zukommenden Zeit zu erfahren. Orakel, Sterndeuter, Kartenleser, fiktive Erfinder und Erdichter von Zeitmaschinen, Science-Fiction-Autoren – all sie wären mit einem Schlag beschäftigungslos, gäbe es nicht das Problem des Menschen mit der Diskrepanz zwischen dem Wissen, dass und dem Unwissen, wie die Zukunft sein wird.

Auf Informationen über die Zukunft angewiesen

Die Zukunft zu kennen, ja, das wäre was. Man könnte sein Geld risikolos an die Börse bringen (von Spekulieren könnte ja nicht mehr die Rede sein), man wüsste um den nächsten Deutschen Fußballmeister (darauf kommt man allerdings auch so) und man hätte die Chance, im Privatleben die Weichen so zu stellen, dass die Ehe oder Freundschaft lange hält und glücklich bleibt. Das jedoch ist eine Utopie (oder Dystopie – schließlich wird das Leben für den Menschen, der genau um seine Zukunft weiß, um einiges langweiliger). Dennoch: In einigen Lebensbereichen sind wir auf Informationen über die Zukunft angewiesen – und bekommen sie auch. Nicht von Orakeln oder Astrologen, sondern von der Wissenschaft. Die sagt uns etwa, wie am nächsten Tag das Wetter wird. Oder, wie sich das Klima in den nächsten Jahrzehnten entwickelt. Denn das kann man bis zu einem gewissen Grad an Wahrscheinlichkeit tatsächlich vorhersagen.

Die Klimaforschung arbeitet dazu mit Modellen. Computermodelle sind das „Basiswerkzeug für Klimawandelvorhersagen“, so Tim Flannery in seinem Buch „Wir Wettermacher. Wie die Menschen das Klima verändern und was das für unser Leben auf der Erde bedeutet“ (2006). Das Klima wird damit als „System“ aufgefasst, das sich modellieren lässt. Das Klimasystem ist zu komplex für einfache Erklärungen, aber nicht zu komplex für Modelle. Ein Modell wirkt komplexitätsreduzierend, das bedeutet, es macht große, komplizierte Systeme in ihren wesentlichen Mechanismen und Funktionen verständlich. Klimamodelle sollen das Klimasystem angemessen genau beschreiben, zugleich sollen sie rechentechnisch handhabbar sein. Das Modell ist damit die exakteste gerade noch darstellbare Repräsentation der Wirklichkeit.

Einfach, aber nicht banal

Modelle sind nötig – wir wollen ja schließlich etwas über die Zukunft wissen. Die prognostische Qualität der Modellierung – auf der Basis gut bestätigter (nicht im strengen mathematischen Sinne „bewiesener“ oder überhaupt nur beweisbarer) Annahmen – ist essenziell für die politische Bedeutung der Klimaforschung, da nur die Prognose maßnahmenleitend ist. Was vorbei ist, ist vorbei. Ändern können wir nur, was – nach allem, was wir heute wissen – noch kommen wird.

Lesen Sie auch:

Das Problem der Modellierung liegt nun auf der Hand: Modelle sollen einfach sein, aber nicht banal. Sie sollen nichts weglassen, das nötig ist, zugleich jedoch mit so wenig Informationen wie möglich auskommen. Die moderne Klimaforschung tendiert in diesem Zielkonflikt dazu, lieber die Computer etwas länger rechnen zu lassen als im Ergebnis ungenau zu werden. Um ein Jahrhundert Klimaentwicklung im Modell zu simulieren, brauchen die eingesetzten Hochleistungscomputer Wochen oder gar Monate. Zeit ist Geld – auch in der Wissenschaft. Doch die hohen Ansprüche an die Genauigkeit der Vorhersagen wiegen schwerer.

Modelle werden besser

Dabei gilt, dass heutige Computer schon sehr präzise Modelle entwickeln. Und die Rechnerleistung nimmt immer mehr zu, so dass man für die Zukunft optimistisch sein kann, was die Güte von Modellen angeht. Ein Beispiel für die stark verbesserte Leistungsfähigkeit von Computern in den vergangenen zehn Jahren ist die Berechnung der Nachkommastellen der Kreiszahl „Pi“. Heute ist es möglich, mehr als das Sechsfache an Nach- kommastellen zu berechnen als noch vor zehn Jahren. Die Klimamodelle werden seit nunmehr knapp einem halben Jahrhundert immer weiterentwickelt, seit Syukuro Manabe 1975 das erste computergestützte Klimamodell vorstellte. Seither ist eine Menge Strom die Datenleitungen hinabgeflossen, in der EDV konnten gigantische Fortschritte verzeichnet werden. Mit dem Quantenrechner wird derzeit ein weiteres Kapitel der Erfolgsgeschichte des Computers geschrieben. Die Klimaforschung ist einer der Hauptprofiteure dieser technologischen Entwicklung.

Es gibt derzeit weltweit etwa zwanzig Klimamodelle, an denen fortlaufend gearbeitet wird. Um die Modelle miteinander hinsichtlich ihrer prognostischen Qualität zu vergleichen, wurden Standardexperimente entworfen, mit denen sie getestet und kontinuierlich optimiert werden können. Eines davon basiert auf einem direkten Vergleich von Modell und Realität: Man speist die Faktoren für das Klima des 20. Jahrhunderts in die jeweiligen Modelle ein und lässt sie die Klimaentwicklung des 20. Jahrhunderts nachträglich berechnen. Die Güte eines Modells ergibt sich dann aus der Differenz von Simulation und Wirklichkeit, aus der Größe des Unterschieds zwischen berechneten Werten und gemessenen Werten – je geringer, desto besser.

Geschätzte Vergangenheit

Hier gibt es nun ein Problem: Valide Wetterdatierung (etwa Temperaturaufzeichnungen) gibt es erst seit Mitte des 18. Jahrhunderts. Davor muss das Klima ebenso „geschätzt“ werden wie für die Zukunft. Allerdings geschieht dies nicht mit Hilfe von modellbasierten Extrapolationen, sondern mittels indirekter empirischer Methoden. Man beobachtet Phänomene, die unmittelbar mit dem Klima korrelieren und daher Rückschlüsse darauf zulassen. Beispiele dafür sind Baumringe, Eisbohrkerne oder Ozeansedimente. Daraus werden so genannte „Klimaproxys“ abgeleitet, die es ermöglichen, die Zeitreihen zu den Klimavariablen tief in die Vergangenheit hinein aufzustellen – bis zu 10 000 Jahre zurück.

Die Algorithmen aller Computermodelle sind ihrerseits an Messungen und Beobachtungen orientiert. Nur so ergeben sie grundsätzlich Sinn. Sie müssen im Hinblick auf die Klimadaten der Vergangenheit bewährt sein. Abweichungen von Modell zu Modell entstehen etwa durch unterschiedliche Annahmen hinsichtlich des Ausmaßes von künftigen Wechselwirkungen der Einflussfaktoren. Doch auch diese Annahmen müssen plausibel sein. Sie werden zudem offengelegt, so dass man nachvollziehen kann, aus welchen Gründen und unter welchen Umständen Abweichungen dieser Modellrechnung zu anderen Modellrechnungen auftreten.

Wer nicht messen kann, muss rechnen

Messen kann man nur, was bereits geschehen ist, die Zukunft lässt sich nur berechnen. Das ist der Clou der Modellierung: zu berechnen, was man nicht messen kann. Wenn nun für die Vergangenheit Messung und Modell eng beieinander liegen, so kann man annehmen, dass für die Zukunft Modell und Messung nicht allzu weit voneinander abweichen. Modelle sind dabei nicht sicher, doch sie basieren auf sinnvollen Annahmen. Sie erlauben deshalb im Rahmen dessen, was wir überhaupt wissen können, vernünftige Zukunftsprognosen, Vorhersagen dessen, was wirkünftig messen werden.

Unsichere Prognosen

Also: Es sind Prognosen möglich, die mit einer Unsicherheit behaftet sind. Das ist immer so, das haben Prognosen nun mal so an sich. Das Wort Prognose ist daher irreführend: Das griechische Wort „pro-gnosis“ bedeutet „Vor-Wissen“; eigentlich müsste man aber sagen: „Vor-Ahnung“.

Wissen kann man nur, was ist, nicht, was sein wird. Zukunftsaussagen sind immer mit einem Wahrscheinlichkeitswert verknüpft, so dass man allenfalls wissen kann, was nach heutiger Erkenntnis mit einer bestimmten Wahrscheinlichkeit sein wird. Das heißt aber nicht, dass es irrational ist, sich an den Prognosen beziehungsweise Szenarien der Klimaforschung auszurichten, vor allem dann, wenn sie sich tendenziell decken und einen Trend kennzeichnen, der nach und nach von der Wirklichkeit bestätigt oder sogar noch im negativen Sinn überboten wird, weil die Modelle mögliche Zusatzrisiken nur allzu vorsichtig eingepreist hatten. Dann zeigt die Realität der Reduktion unerbittlich ihre Unnachahmlichkeit, die sie auch mit den besten Modellierungstechnologien behält.

Kurz gefasst

Die künftige Entwicklung des Klimas wird mit Hilfe von Computermodellen prognostiziert. Trotz verbesserter Technologie (Rechenleistung), erreichen diese Modelle nie die komplexe Wirklichkeit. Doch trotz der damit verbundenen prinzipiellen Unsicherheit sind die aus den Modellen gewonnenen Prognosen immer noch genau genug, um sich vernünftigerweise an ihnen zu orientieren. Das zeigen die Tests beim Abgleich der Berechnungen mit den Messungen der Vergangenheit, das zeigen aber auch immer wieder neu ermittelte Klimadaten.

Die Printausgabe der Tagespost vervollständigt aktuelle Nachrichten auf die-tagespost.de mit Hintergründen und Analysen.

Weitere Artikel
Künstliche Intelligenz
Künstliche Intelligenz

Geist im Kosmos Premium Inhalt

Steht die Schaffung maschineller „künstlicher Intelligenz” oder eines „künstlichen Bewusstseins/Geistes” kurz bevor?
20.05.2021, 17  Uhr
Heribert Vollmer
Themen & Autoren
Josef Bordat Algorithmen Computer Klimatologie Optimismus Probleme und Krisen Tiere und Tierwelt Vernunft

Kirche

Eröffnung der zweijährige Weltsynode im Vatikan
IM BLICKPUNKT

Für eine Kirche, die anders ist Premium Inhalt

Die bis 2023 dauernde Weltsynode beginnt mit der größten Befragung der Menschheitsgeschichte. Über die Gründe für diesen vom Papst gewollten Prozess kann man nur spekulieren.
16.10.2021, 17 Uhr
Guido Horst