«Destination Earth» 01.03.2021, 14:12 Uhr

Die Erde als digitaler Zwilling

Ein digitaler Zwilling der Erde soll diese künftig simulieren. Er könnte die Politik dabei unterstützen, Massnahmen zum Schutz vor Extremereignissen zu treffen. Ein Strategiepapier von europäischen Forschenden und ETH-​Informatikern zeigt, wie das zu erreichen ist.
Ein digitaler Zwilling der Erde soll das Erdsystem umfassend und hochauflösend simulieren und beispielsweise als Grundlage für Massnahmen gegen den Klimawandel dienen.
(Quelle: ESA)
Um bis 2050 klimaneutral zu werden, hat die Europäische Union zwei ehrgeizige Programme gestartet: «Green Deal» und «Digital Strategy». Als eine Schlüsselkomponente für die erfolgreiche Umsetzung haben Klimawissenschaftler und Informatiker die Initiative «Destination Earth» lanciert, die Mitte dieses Jahres starten wird und bis zu zehn Jahre laufen soll. Während dieses Zeitraums soll ein hochpräzises digitales Modell der Erde entstehen, ein digitaler Zwilling der Erde, um die Klimaentwicklung und Extremereignisse räumlich und zeitlich bestmöglich abzubilden.
In den digitalen Zwilling sollen kontinuierlich Beobachtungsdaten einfliessen, um das digitale Erdmodell zur Überwachung der Entwicklung und zur Vorhersage möglicher zukünftiger Trajektorien (Entwicklungspfade) fortlaufend zu präzisieren. Neben den herkömmlich für Wetter-​ und Klimasimulationen genutzten Beobachtungsdaten wollen die Forscher neue, auch für das Klimasystem relevante Daten menschlicher Aktivitäten in das Modell integrieren, so dass das virtuelle «Erdsystem-​Modell» die gesamten Prozesse an der Erdoberfläche, den Einfluss des Menschen in Bezug auf das Wasser-​, Nahrungs-​, und Energie-​Management, einschliesslich der Prozesse im physischen Erdsystem, möglichst realitätsnah abbildet.

Informationssystem zur Entscheidungsfindung

Mit dem digitalen Zwilling der Erde soll ein Informationssystem entstehen, das Szenarien entwickelt und testet, die eine nachhaltigere Entwicklung aufzeigen und damit die Politik besser informieren. «Wenn man in Holland beispielsweise einen zwei Meter hohen Deich plant, kann ich die Daten in meinem digitalen Zwilling durchspielen und überprüfen, ob der Deich aller Voraussicht nach auch im Jahr 2050 vor zu erwartenden Extremereignissen schützt», sagt Peter Bauer, stellvertretender Direktor für Forschung am Europäischen Zentrum für mittelfristige Wettervorhersagen (ECMWF) und Mitinitiator von Destination Earth. Auch für die strategische Planung von Frischwasser-​ und Lebensmittelversorgung oder Windfarmen und Solaranlagen soll der digitale Zwilling genutzt werden.
Treibende Kräfte hinter «Destination Earth» sind das ECMWF, die Europäische Weltraumorganisation (ESA), und die Europäische Organisation für die Nutzung meteorologischer Satelliten (EUMETSAT). Zusammen mit weiteren Klimawissenschaftlern treibt Bauer die klimawissenschaftlichen und meteorologischen Aspekte des digitalen Zwillings der Erde voran. Dabei setzen die Experten auf das Knowhow von Informatikern der ETH Zürich und des Nationalen Hochleistungsrechenzentrums der Schweiz (CSCS), namentlich auf die ETH-​Professoren Torsten Hoefler, vom Institut für Hochleistungsrechnersysteme und Thomas Schulthess, Direktor des CSCS.
Um diesen grossen Schritt der digitalen Revolution zu schaffen, brauche es die Vermählung der Erdwissenschaften mit den Computerwissenschaften, betont Bauer. In einer soeben in Nature Computational Science erschienenen Publikation diskutiert nun das Team aus Forschern der Erd-​ und Computerwissenschaften, mit welchen konkreten Massnahmen sie diese «digitale Revolution der Erdsystemwissenschaften» voranbringen möchten, wo sie die Herausforderungen sehen und wo mögliche Lösungen zu finden sind.

Wetter-​ und Klimamodelle als Grundlage

In der Publikation blicken sie auf die seit den 1940er Jahren stetige Entwicklung der Wettermodelle zurück  -​eine Erfolgsgeschichte, die im Stillen stattfand. Die Meteorologen leisteten sozusagen Pionierarbeit bei Simulationen von physikalischen Prozessen auf Grossrechnern. Als Physiker und Computerwissenschaftler ist Schulthess deshalb davon überzeugt, dass die heutigen Wetter-​ und Klimamodelle sich ideal dafür eignen, auch anderen wissenschaftliche Disziplinen völlig neue Wege aufzuzeigen, wie man Supercomputer effizient nutzen kann.
In der Vergangenheit wurden in der Wetter-​ und Klimamodellierung unterschiedliche Ansätze verfolgt, um das Erdsystem zu simulieren. Während Klimamodelle eine sehr breite Palette physikalischer Prozesse abbilden, vernachlässigen sie typischerweise kleinräumige Prozesse, die jedoch für die Wettervorhersagen, die sich auf eine geringere Anzahl von Prozessen konzentrieren, unerlässlich sind. Der digitale Zwilling wird beide Bereiche zusammenführen und hochauflösenden Simulationen ermöglichen, die die komplexen Prozesse des Erdsystems abbilden. Doch um das zu erreichen, so die Wissenschaftler, gelte es die Codes der Simulationsprogramme auf die neuen Technologien, die eine wesentlich höhere Rechenleistung versprechen, anzupassen.
Da die Code-​Entwicklung aus Sicht der Informatik jahrzehntelang stagnierte, lassen sich mit den heute zur Verfügung stehenden Rechnern und Algorithmen die hochkomplexen Simulationen kaum in der geplanten extrem hohen Auflösung von einem Kilometer durchführen. Die Klimaforschung profitierte davon, dass sie durch neue Prozessorgenerationen mehr Leistung gewinnen konnte, ohne ihre Programme grundlegend ändern zu müssen. Dieser kostenlose Leistungsgewinn mit jeder neuen Prozessorgeneration kam vor etwa 10 Jahren ins Stocken. Die Folge ist, dass heutige Programme oft nur noch 5 Prozent der Leistung herkömmlicher Prozessoren (CPU) nutzen können.
Um die notwendigen Verbesserungen zu erreichen, betonen die Autoren die Notwendigkeit des Co-​Designs, das heisst, der gemeinsamen und gleichzeitigen Entwicklung von Hardware und Algorithmen, wie es das CSCS in den letzten zehn Jahren erfolgreich demonstriert hat. Sie schlagen vor, besonderes Augenmerk auf generische Datenstrukturen, optimierte räumliche Diskretisierung des zu berechnenden Gitters und Optimierung der Zeitschrittlängen zu legen. Weiterhin schlagen die Wissenschaftler vor, die Codes zur Lösung des wissenschaftlichen Problems von den Codes zu trennen, die die Berechnung auf der jeweiligen Systemarchitektur optimal durchführen. Diese flexiblere Programmstruktur würde einen schnelleren und effizienteren Wechsel auf zukünftige Architekturen ermöglichen.

Profitieren von künstlicher Intelligenz

Grosses Potential sehen die Autoren auch in der künstlichen Intelligenz (KI). Sie kann beispielsweise für die Datenassimilation oder die Verarbeitung der Beobachtungdaten und für die Darstellung von unsicheren physikalischen Prozessen in den Modellen oder zur Datenkomprimierung genutzt werden. KI ermöglicht somit, die Simulationen zu beschleunigen und die wichtigsten Informationen aus grossen Datenmengen herauszufiltern. Die Forscher gehen davon aus, dass der Einsatz von maschinellem Lernen jedoch nicht nur die Berechnungen effizienter macht, sondern auch die physikalischen Prozesse besser beschreiben kann.
Die Wissenschaftler sehen ihr Strategiepapier als Ausgangspunkt für den Weg zu einem digitalen Zwilling der Erde. Unter den heute und in naher Zukunft zur Verfügung stehenden Rechnerarchitekturen identifizieren sie auf Graphikprozessoren (GPU) beruhende Supercomputer als die erfolgversprechendste Option. Sie schätzen, dass der Betrieb eines digitalen Zwillings in vollem Umfang ein System mit ca. 20'000 GPU erfordert, das schätzungsweise 20MW Stromleistung benötigt. Sowohl aus ökonomischer als auch aus ökologischen Gründen sollte ein solcher Rechner an einem Ort betrieben werden, an dem CO2-​neutral erzeugter Strom in ausreichender Menge zur Verfügung steht.
Dieser Artikel erschien zunächst auf ETHZ-News.

Autor(in) Simone Ulmer, ETH-News



Das könnte Sie auch interessieren