Hochleistungsrechner modellieren Klima in 100 Jahren

Wissenschaftler wollen drängende Fragen mit Supercomputern beantworten

Computerberechnungen ermöglichen umfangreiche Klimasimulationen, die neben dem Zustand der Atmosphäre, auch die Entwicklung in den Ozeanen sowie physikalische Effekte auf dem Land berücksichtigen. Weitere wichtige Felder sind die Pharma-Industrie, die Entwicklung elektrischer Motoren oder auch die bessere Behandlung von Herzkrankheiten. Um dabei umfassende und genaue Erkenntnisse zu gewinnen, forschen Wissenschaftler der Technischen Universität Hamburg gemeinsam mit europäischen Partnern an Algorithmen für künftige Hochleistungsrechner.

In kleinere Probleme zerlegen

Die Entwicklung von Exascale-Hochleistungsrechnern läuft weltweit auf Hochtouren. Mit über 100 Millionen Rechenkernen und einem schnellen Datentransfer sollen damit künftig über eine Trillion Berechnungen pro Sekunde möglich sein. Ein normaler Bürorechner hat zum Vergleich nur einen Prozessor mit vier Rechenkernen. „Wir versuchen Simulationen, beispielsweise für das Klima, in immer kleinere Einzelprobleme zu zerlegen“, erklärt Daniel Ruprecht, Mathematik-Professor an der TU Hamburg. Das sei nötig, um die gesamte Rechenleistung eines Exascale-Supercomputers nutzen zu können. „Mit Hilfe von Algorithmen wollen wir die Einzelprobleme dann räumlich und zeitlich parallel sowie größtenteils unabhängig voneinander berechnen“, sagt der Mathematiker zum Vorhaben des EU-Projekts.

Das Forschungszentrum Jülich und seine Partner haben mit ihrem Supercomputer JUWELS den schnellsten Rechner Europas gebaut. Dank eines neuen Booster-Moduls sind nun 85 Petaflops möglich, was 85 Billiarden Rechenoperationen pro Sekunde oder der Rechenleistung von mehr als 300 000 modernen PCs entspricht. JUWELS kann damit die Grenzen von Simulationen massiv ausweiten und bietet zudem die stärkste Plattform Europas für den Einsatz künstlicher Intelligenz (KI). Der Rechner ist aktuell das schnellste System in Europa (Nov. 2020) und erreichte den 7. Platz auf der TOP500-Liste der schnellsten Computer der Welt. Auf der aktuellen Green500-Liste rangiert JUWELS auf Platz 3 und ist das energieeffizienteste System in der höchsten Leistungsklasse.
Der Jülicher Supercomputer ist als einer der ersten mit NVIDIA A100 Tensor Core GPUs ausgestattet, die auf der NVIDIA Ampere-Architektur basieren. Etwa 12 Millionen sogenannte CUDA-Kerne (FP64) vereint der Booster auf seinen über 3.700 Grafikprozessoren, die über ein NVIDIA Mellanox HDR Infiniband Höchstleistungsnetz mit 200 Gb/s miteinander verbunden sind. Der Booster allein erreicht eine Spitzenleistung von 73 Petaflops. Speziell für KI-Anwendungen, die andere Anforderungen an die Hardware stellen, sind sogar bis zu 2,5 Exaflops möglich: das entspricht 2,5 Trillionen Rechenoperationen pro Sekunde. Das Modul ist damit die stärkste Plattform Europas für den Einsatz künstlicher Intelligenz (KI). (fz-juelich.de/2020-11-16-juwels-booster-pm)

Während der monatelangen Berechnung auf über 100 Millionen Prozessoren sind technische Störungen nicht auszuschließen. Damit ein Hardware-Ausfall nicht dazu führt, eine Klimasimulation von vorne beginnen zu müssen, forschen Ruprecht und sein Team an der Rekonstruktion verlorener Daten. „Wir wollen Algorithmen entwickeln, die in einer solchen Situation einfach weiter rechnen“, sagt Ruprecht. Ziel ist es, dass sich die Algorithmen den verlorenen Informationen über benachbart ablaufende Berechnungen annähern. „Mit Hilfe von mathematischen Analysen wollen wir anschließend beweisen, dass Algorithmen mit dieser Methode zum selben Ergebnis kommen, trotz Datenverlust“, so der Wissenschaftler weiter.

Datenaustausch verkleinern und Energie einsparen

Neben technischen Störungen ist die größte Herausforderung beim Bau eines Exascale-Hochleistungsrechners der hohe Energieverbrauch. „Mit derzeitiger Technik wäre das vergleichbar mit einem kleinen Kernkraftwerk“, gibt der TU-Mathematiker zu bedenken. Um den Energieverbrauch und die Kosten möglichst gering zu halten, arbeiten die TU-Forschenden an der Kompression von Datenmengen. „Auch hier müssen wir ein Verfahren entwickeln, das mit einer ungenauen Datenlage umgehen kann. Ganz ähnlich wie bei verloren gegangenen Daten soll der Einfluss auf das Endergebnis möglichst klein und mathematisch kontrollierbar bleiben“, erklärt Ruprecht.

Das Projekt „TIME parallelisation for eXascale computing and beyond“ wird vom EU Joint Undertaking „Euro-HPC“ und nationalen Partnern mit insgesamt über drei Millionen Euro bis 2024 finanziert. Für das deutsche Konsortium übernimmt das BMBF die nationale Koförderung. Neben der TU Hamburg sind neun weitere Universitäten und wissenschaftliche Einrichtungen aus Belgien, Deutschland, der Schweiz und Frankreich beteiligt.

Zusammenfassung des Projekts „TIME-X“
Jüngste Erfolge haben das Potenzial der Parallel-in-Time-Integration als leistungsfähiges algorithmisches Paradigma etabliert, um die Leistung von Exascale-Systemen zu erschließen. Allerdings wurden diese Erfolge hauptsächlich in einem eher akademischen Umfeld erzielt, ohne ein übergreifendes Verständnis. TIME-X wird den nächsten Schritt in der Entwicklung und dem Einsatz dieses vielversprechenden neuen Ansatzes für massiv-parallele HPC-Simulationen machen und eine effiziente Parallel-in-Time-Integration für reale Anwendungen ermöglichen. Wir werden:

    • Software für die Parallel-in-Time-Integration auf aktuellen und zukünftigen Exascale-HPC-Architekturen bereitstellen und damit wesentliche Verbesserungen bei der parallelen Skalierung erzielen;
    • Neue algorithmischer Konzepte für die Parallel-in-Time-Integration bereitstellen, unser mathematische Verständnis ihres Konvergenzverhaltens verbessern und Fortschritte in der Multiskalenmethodik einbeziehen;
    • Auswirkungen der Parallel-in-Time-Integration demonstrieren, indem das Potenzial bei Problemen aufgezeigt wird, die bis heute nicht mit voller paralleler Effizienz in drei verschiedenen und anspruchsvollen Anwendungsbereichen mit großer gesellschaftlicher Bedeutung angegangen werden können: Wetter und Klima, Medizin und Fusion.

Um diese ehrgeizigen, aber erreichbaren Ziele zu realisieren, vereint das inhärent interdisziplinäre TIME-X-Konsortium Spitzenforscher aus der numerischen Analyse und der angewandten Mathematik, der Informatik und den ausgewählten Anwendungsbereichen. Europa ist führend in der Forschung zur Parallel-in-Zeit-Integration. TIME-X vereint zum ersten Mal alle relevanten Akteure auf europäischer Ebene in einer gemeinsamen strategischen Forschungsanstrengung. Das Projekt wird den notwendigen nächsten Schritt ermöglichen: die Weiterentwicklung der Parallel-in-Time-Integration von einer akademisch-mathematischen Methodik zu einer weithin verfügbaren Technologie mit einem überzeugenden Proof-of-Concept, um die europäische Führungsrolle in diesem schnell voranschreitenden Bereich zu erhalten und den Weg für die industrielle Übernahme zu ebnen.

->Quellen: