Supercomputer und Klimaforschung

Mit der möglichst perfekten Klimasimulation haben die Modellierer eine der komplexesten Rechenaufgaben vor sich, die die Welt zu bieten hat

Supercomputer und Klimaforschung
Foto: dpa

Chip und Computer haben nicht nur den Alltag des Menschen verändert. Auch die Naturwissenschaft. Die Methode, auf der Basis von Experiment und Hypothese der Welt ihre Gesetze zu entlocken, bleibt zwar bestehen,aber einige alte und neue Forschungsobjekte entziehen sich diesem Verfahren – entweder durch ihre schiere Größe oder ihre komplexe Struktur.

Das Erdklima, was es beeinflusst und verändert, verkörpert beides: nicht labortauglich und verwirrend komplex. Das gilt auch für die Schwarzen Löcher der Astrophysiker. Oder: Wie breiten sich Schadstoffe in Boden und Grundwasser aus? Wie wandert der Wasserstoff durch die Brennstoffzelle? Wie funktioniert Magnetismus in den ganz winzigen, den Nanowelten?

Einen Ausweg aus dieser Sackgasse boten und bieten Supercomputer und natürlich Mathematik, denn auch ein Supercomputer rechnet sinnvoll nur nach Vorgaben. Dass die Rechenmaschinen eines Tages fähig sein würden, unvorstellbar schnell Zahlengebirge abzuarbeiten, war zunächst nicht absehbar – ebenso wenig, dass sich Forschungsaufgaben stellen würden, die genau das erfordern.

„Ich glaube, es gibt einen weltweiten Bedarf an vielleicht fünf Computern“, schätzte Thomas Watson, IBMvorn, und der Earth Simulator (35,86 TeraFlops) ist schon wieder Geschichte. Im Welt-Ranking der schnellsten Rechner liegt er auf Rang 30. Was ist eigentlich ein solcher Flop, nach dem sich aller Fortschritt in der Computerei bemisst?

Ein Flop, „Gleitkommaoperation“ genannt, ist eine Rechenaufgabe. Wer zum Beispiel 1,2 + 2,1 löst, hat einen Flop abgearbeitet. Vor 13 Jahren hatte das DKRZ gerade seine Rechenkapazität verzehnfacht. Der neue Höchstleistungsrechner CRAYC916 leistete 16 Milliarden Flops (GigaFlops) pro Sekunde.

Dem Bürger konnte man solche Dimensionen noch halbwegs mit Adam Riese erklären: Wenn auf der Erde 5,33 Milliarden Menschen lebten und jeder Erdenbürger in einer Sekunde die Drei-Flop-Aufgabe 1,2 + 2,1 x (4,2 – 3,1) lösen würde, so entspräche das in der Summe dem, was die Rechenmaschine pro Sekunde vollbringt. Sozusagen die gesamte Rechenkraft von Milliarden Menschen in einer Maschine gebündelt.

Heute reichen solche Krücken zur Veranschaulichung nicht mehr. Auf „Mega“ (Millionen)folgte „Giga“ (Milliarden) und darauf „Tera“ (Billionen), und IBM bastelt bereits am ersten „Peta“-Supercomputer; der rechnet dann in Billiarden Flops pro Sekunde. So könnte man meinen, die Klimaforscher müssten sich bald wie im Paradies fühlen, fehlte ihnen doch bisher vor allem Rechenkapazität.

Doch Marotzke sagt: „Wir haben noch jeden Supercomputer an die Grenze getrieben.“ Das werde künftigen Hightech-Maschinen nicht anders ergehen. Ursache: Mit der möglichst perfekten Klimasimulation haben die Modellierer eine der komplexesten Rechenaufgaben vor sich, die die Welt zu bieten hat. Bevor man das Klima in seine Einzelteile zerlegt, diese dann in physikalische und mathematische Formeln zwängt und Meister Computer alles numerisch lösen lässt, schlägt jedoch erstmal die Stunde des Grundsätzlichen.

Aus was besteht Klima, von was wird es alles beeinflusst? Mitte des 20. Jahrhunderts bedeutete das in einigen Teilgebieten noch Grundlagenforschung. Immer mehr verdichtete sich die Gewissheit, dass es sich um ein multifaktorielles Geschehen handelt. Die Erdsphären wirken im Konzert: Hier die Ozeane (Hydrosphäre), dort die Landmassen (Lithosphäre), dazu Eis und Schnee (Kryosphäre) sowie die Pflanzenwelt (Biosphäre).

Auch externe Einflüsse lassen das Erdklima zwischen heiß und kalt hin- und herpendeln. So schwankt alle 41 000 Jahre die Neigung der Erdachse, der sonnennöchste Punkt der Erde (Perihel) zur Sonne verschiebt sich alle 21 000 Jahre, und die Bahn der Erde um ihren Stern wechselt alle 100 000 Jahre von einer eher elliptischen zu einer mehr kreisförmigen – astronomische Änderungen, die für mehr oder weniger Sonnenstrahlen auf dem Blauen Planeten sorgen.

Ähnliche, wenngleich schwächere, Auswirkungen hat der elfjährige Sonnenfleckenzyklus. Das komplizierte Kräftespiel zu verstehen, das Warm- und Eiszeiten auslöst, und die Anteile der einzelnen Kräfte zu erkunden, prägten Jahrzehnte der Klimaforschung. Zu angehäuften Wissensbergen gesellte sich die Einsicht, dass alle Erdsphären untereinander mehr kommunizieren als angenommen; sie beeinflussen sich, können einen Trend verstärken oder abschwächen.

Ein komplexes System, ähnlich dem des menschlichen Organismus’. Eis und Schnee reflektieren mehr der kurzwelligen Sonnenstrahlung ins All als Grasflächen und Wälder – und Wälder weniger als Grasflächen. Wettermodelle können solche Variablen vernachlässigen, Klimamodelle nicht. Das komplexe System ist zudem chaotisch: Kleine interne Störungen können im Labyrinth aus Wirkung, Nebenwirkung und Gegenwirkung große Dinge auslösen.

Zwischen 1960 und 1980 wurden die ersten mathematischen Modelle entwickelt; sie umfassten nur die Atmosphäre, bald kamen die weniger rechenintensiven Landflächen hinzu. Doch es dauerte bis 1994, ehe auch der erdumspannende „Ozean“ rechnerverdaulich integriert war. Damit 100 Jahre Klimaentwicklung hochzurechnen, dauerte rund sechs Monate und kostete 1,5 Millionen Mark (umgerechnet rund 750 000 Euro).

Heute: Die Rechenzeit für 100 Jahre Klima und die Stromkosten blieben in etwa gleich, aber die Supercomputer können mehr und fressen weniger Energie. Die abkühlende Wirkung von Schwebeteilchen (Aeroslen) berücksichtigen sie ebenso wie Teile des Kohlenstoff-Kreislaufs oder chemische Prozesse in der Atmosphäre und die Vegetation.

Die nächste Generation von Rechnern wird dann die Maschenweite im Modell weiter verringern und damit die räumliche Auflösung erhöhen. Die regionalen Vorhersagen würden auf diese Weise präziser. Braucht New York neue Deiche oder nicht? Lohnen noch Investitionen in Andalusien oder expandiert die Sahara nach Norden?

Ein großes Problem bis heute: die Darstellung der Wolken. Sie könnten eine Schlüsselrolle im Treibhaus spielen. Tiefe Schichtwolken behindern die Einstrahlung von Sonnenlicht auf die Erdoberfläche und erhöhen die Rückstreuung, arbeiten also dem Treibhauseffekt entgegen. Würde die tiefe Stratus-Bewölkung global nur um einige Prozentpunkte vermehrt, könnte dies einen großen Teil des steigenden Kohlendioxid-Gehalts ausgleichen.

„Wir werden bald einen exzellenten Wolken-Fachmann einstellen“, sagt DKRZ-Direktor Marotzke – und will so ein Manko der Modelle ausgleichen. Ende 2008 wird dann auch in Hamburg (noch) schneller gerechnet: mit 140 TeraFlops pro Sekunde. Die Investition zur perfekteren Erdsimulation kostet 60 Millionen Euro.

Physiker Marotzke plädiert ansonsten für eine neue Organisation der europäischen Supercomputer. Er spricht von einer „Ökologie des Höchstleistungsrechnens“. Es geht um Arbeitsteilung, Spezialisierung, Nischen, Konzentration auf Softwarefragen. Ziel: Die Rechner-Kapazitäten effizienter zur Lösung offener Klimafragen verteilen. Auch schlampig erarbeitete Software lässt Rechner trödeln. Warum die Wissenschaftler inzwischen ihren Modellen mehr vertrauen als noch vor Jahrzehnten?

Vergangene Klimaschwankungen sind dabei ein Prüfstein; können sie korrekt reproduziert werden, erreichen Zukunftsszenarien automatisch mehr Verlässlichkeit. Um letztere weiter zu steigern, nutzt man die leistungsfähigeren Rechner dazu, dasselbe Modell mehrmals mit variierenden Daten laufen zu lassen – etwa mit abgestuften Treibhausgasmengen.

Auf diesem Weg konnte man auch das Klima von heute so simulieren, als hätte es den Menschen mit seinen aufheizenden Ausdünstungen aus Energiegewinnung (Kohlendioxid) und Viehwirtschaft (Methan) nie gegeben. Und siehe da, es war ein kühleres Klima. Die gelegentlich geäußerte Kritik, die Modelle seien zu ungenau, stammt aus deren Pionierzeit.

Heute trifft sie nur noch für Teilbereiche zu. Dabei überrascht, wie richtig schon die ersten, reinen Atmosphäremodelle lagen. Die heute gemessene Erderwärmung verläuft schneller als von den ersten Supercomputern vorhergesagt.

Erkenntnis-Instrument Klimamodell

Zunächst werden so viele Faktoren wie möglich mit physikalischen Gesetzen abgebildet und dann – für den Computer verstehbar – in mathematische Formeln übersetzt. Aus Rechenzeitgründen kann jedoch nicht jedes Luft- oder Wasserteilchen, das sich um die Erde bewegt, erfasst werden. Deshalb wird der Planet mit einem dreidimensionalen Koordinatensystem umhüllt. Je enger die Maschen dieses Rechengitters, desto höher der Rechenaufwand.

Letzterer steigt erheblich, soll ein Modell nicht nur die Atmosphäre, sondern auch Ozean, Vegetation, Eis und Kohlenstoffzyklen simulieren. Beispiel für ein Nur-Atmosphäremodell: Beträgt die horizontale Maschenweite des Gitters am Äquator 320 Kilometer bei 39 vertikalen Schichten, entstehen Tausende Gitterpunkte, an denen sechs Zustandsgrößen der Luft eingegeben werden: Feuchte, Temperatur, Windstärke und -richtung, Druck, Wolkenwassergehalt.

Soll das Atmosphäremodell das Erdklima nur für ein Jahr vorausberechnen, müssen rund 100 000 000 000 000 (100 Billionen) Rechenschritte (Flops) ausgeführt werden. Das dauerte einst Stunden, und ein Jahr Klimaentwicklung ist gar nichts. Das verdeutlicht, wie sehr der Fortschritt in der Rechnertechnologie den in der Klimamodellierung beflügelte.

Meistgelesen
Neueste Artikel
Zum Thema
Aus dem Ressort